CN111860460A - 一种基于改进的lstm模型在人体行为识别上的应用方法 - Google Patents
一种基于改进的lstm模型在人体行为识别上的应用方法 Download PDFInfo
- Publication number
- CN111860460A CN111860460A CN202010776882.6A CN202010776882A CN111860460A CN 111860460 A CN111860460 A CN 111860460A CN 202010776882 A CN202010776882 A CN 202010776882A CN 111860460 A CN111860460 A CN 111860460A
- Authority
- CN
- China
- Prior art keywords
- lstm
- network
- behavior recognition
- human behavior
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 17
- 210000002569 neuron Anatomy 0.000 claims abstract description 24
- 238000012549 training Methods 0.000 claims abstract description 20
- 230000004913 activation Effects 0.000 claims abstract description 16
- 230000002457 bidirectional effect Effects 0.000 claims abstract description 7
- 230000006872 improvement Effects 0.000 claims abstract description 5
- 238000012360 testing method Methods 0.000 claims abstract description 5
- 230000006399 behavior Effects 0.000 claims description 27
- 230000006870 function Effects 0.000 claims description 26
- 238000013528 artificial neural network Methods 0.000 claims description 16
- 210000004027 cell Anatomy 0.000 claims description 8
- 230000015654 memory Effects 0.000 claims description 7
- 239000010410 layer Substances 0.000 description 44
- 230000000694 effects Effects 0.000 description 5
- 238000002474 experimental method Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 230000003213 activating effect Effects 0.000 description 2
- 230000035582 behavioral recognition Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000008034 disappearance Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000004880 explosion Methods 0.000 description 2
- 238000012886 linear function Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 239000002356 single layer Substances 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000036962 time dependent Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于改进的LSTM模型在人体行为识别上的应用方法,包括以下步骤:S1:确定网络隐藏层数及其内部神经元数量;S2:若加深网络层数,则在隐藏层间加入Dropout正则项;S3:改变LSTM单元的内置激活函数,将原来的Tanh函数替换为Softsign函数;S4:改变LSTM内部网络,加入正向与反向LSTM单元形成双向LSTM(Bi‑LSTM)单元;S5:记录改进前后的网络训练时间。本发明,由于加深网络层数,引入Dropout以缓解训练集与测试集之间的过拟合情况;Softsign激活函数替换原LSTM默认函数Tanh,一定程度上提高网络精度,降低损失;引入Bi‑LSTM,在CPU上的训练时间从23分钟减小至8分钟,有效缩短网络训练时间。
Description
技术领域
本发明涉及神经网络相关技术领域,具体是一种基于改进的LSTM模型在人体行为识别上的应用方法。
背景技术
人体行为识别是目前计算机视觉领域的一个研究热点,在人机交互、安全防范、多媒体视频理解以及智能家居等方面有着广泛的应用。人体行为识别主要是从视频或传感器采集的数据中判别人体的行为动作并分类。21世纪以来,神经网络技术的发展愈加成熟,其强大的学习能力使得人类的生活生产方式变得更加智能,这也引发了深度学习与神经网络的研究热潮。常用的基于神经网络的人体行为识别模型包括:基于卷积神经网络(Convolutional Neural Network)的行为特征提取,基于长短期记忆网络(LSTM)的行为识别与分类,基于CNN-LSTM的人体行为识别以及CNN-LSTM思想的进一步扩展——ConvLSTM模型。
在实际的神经网络识别人体行为的应用中,给定一个网络模型,需要根据数据集的大小调整内部结构与参数。调试神经网络也是一项很艰巨的任务。例如,当所用数据集较大达到几G 甚至10几G时,我们需要设定较为复杂的网络层或者更多的迭代次数去学习。当然,网络的层数都是由简单到复杂,首先创建一个小的神经网络进行尝试,然后逐步加深,逐步训练解决问题的模型。
1982年,美国加州理工学院物理学家John hopfield发明了一种单层反馈神经网络Hopfield network,用来解决组合优化问题。这是最早的RNN的雏形。随着后期RNN的发展,出现了梯度消失(gradient vanishing)及梯度爆炸(gradient exploding)的问题,训练变得困难,应用非常受限。直到1997 年,人工智能研究所的主任Jurgen Schmidhuber提出长短期记忆(LSTM),LSTM使用门控单元及记忆机制大大缓解了早期 RNN训练的问题。同时期,Mike Schuster提出双向RNN模型 (Bidirectional RNN)。
对于LSTM在手机传感器数据中的应用,许多研究学者已经做了很多较好的实验与成果。例如:于涛(基于智能手机的人体行为识别研究[D].南京邮电大学,2019.)在他的实验中研究了不同网络层数下LSTM网络中样本时序长度和时间复杂度的关系,且提出一种多层并行LSTM网络进行行为识别,使用多个 LSTM单元并行处理一个长时间序列样本的方式,在保证网络特性和算法准确率的同时,降低了样本处理的时间复杂度。但是如果所用数据集不够大,复杂多层的网络结构并不完全适用。在上述实验中,虽然该算法在能量节省率上的表现较好,但是精度发生了略微下降,且有极大可能产生样本的过拟合。
发明内容
本发明的目的在于提供一种基于改进的LSTM模型在人体行为识别上的应用方法,以解决现有技术中的问题。
为实现上述目的,本发明提供如下技术方案:一种基于改进的LSTM模型在人体行为识别上的应用方法,包括以下步骤:
S1:确定网络隐藏层数及其内部神经元数量;
S2:若加深网络层数,则在隐藏层间加入Dropout正则项;
S3:改变LSTM单元的内置激活函数,将原来的Tanh函数替换为Softsign函数;
S4:改变LSTM内部网络,加入正向与反向LSTM单元形成双向LSTM(Bi-LSTM)单元;
S5:记录改进前后的网络训练时间。
优选的,所述LSTM网络采用的数据集为UCI HAR。
优选的,所述人体行为包括行走、上楼、下楼、坐、立、躺。
优选的,所述步骤S1中在神经网络的输入层与LSTM单元之间加入隐藏层,并设置隐藏层与LSTM单元中相同的神经元数量。
优选的,所述步骤S2中还包括逐步调整隐藏层的内部神经元数量。
优选的,所述加深网络层数的同时,要注意减小网络在训练集和测试集上的过拟合现象。
优选的,所述步骤S3中LSTM单元状态由细胞更新状态以及三个控制门组成,三个控制门分别为输入门、输出门和记忆门。
与现有技术相比,本发明的有益效果是:改进的LSTM模型,在确定其内部隐藏层为2层,且神经元数量分别为64,32时的行为识别与分类效果最佳;由于加深网络层数,引入Dropout 以缓解训练集与测试集之间的过拟合情况;Softsign激活函数替换原LSTM默认函数Tanh,一定程度上提高网络精度,降低损失;引入Bi-LSTM,在CPU上的训练时间从23分钟减小至8分钟,有效缩短网络训练时间;综上,本发明使得原LSTM模型的网络性能更佳。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1为本发明在调整网络后实现的最佳行为识别与分类效果的结构示意图。
图2为本发明在未加入Dropout的过拟合情况对比图。
图3为本发明在加入Dropout的过拟合情况对比图。
图4为本发明在不同的激活函数下的精确度和损失值对比图。
具体实施方式
为使本发明实施方式的目的、技术方案和优点更加清楚,下面将结合本发明实施方式中的附图,对本发明实施方式中的技术方案进行清楚、完整地描述,显然,所描述的实施方式是本发明一部分实施方式,而不是全部的实施方式。基于本发明中的实施方式,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施方式,都属于本发明保护的范围。因此,以下对在附图中提供的本发明的实施方式的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施方式。基于本发明中的实施方式,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施方式,都属于本发明保护的范围。
请参阅图1-4,本发明实施例中,一种基于改进的LSTM模型在人体行为识别上的应用方法,包括以下步骤:
S1:确定网络隐藏层数及其内部神经元数量;
S2:若加深网络层数,则在隐藏层间加入Dropout正则项;
S3:改变LSTM单元的内置激活函数,将原来的Tanh函数替换为Softsign函数;
S4:改变LSTM内部网络,加入正向与反向LSTM单元形成双向LSTM(Bi-LSTM)单元,加入正向与反向LSTM单元,堆叠成一个Bi-LSTM结构;
S5:记录改进前后的网络训练时间。
优选的,所述LSTM网络采用的数据集为UCI HAR。
优选的,所述人体行为包括行走、上楼、下楼、坐、立、躺。
优选的,所述步骤S1中在神经网络的输入层与LSTM单元之间加入隐藏层,并设置隐藏层与LSTM单元中相同的神经元数量。
优选的,所述步骤S2中还包括逐步调整隐藏层的内部神经元数量。
优选的,所述加深网络层数的同时,要注意减小网络在训练集和测试集上的过拟合现象。
优选的,所述步骤S3中LSTM单元状态由细胞更新状态以及三个控制门组成,三个控制门分别为输入门、输出门和记忆门。
步骤S1中,在神经网络的输入层与LSTM单元之间加入隐藏层,首先考虑单隐层,并设置其与LSTM单元中相同的神经元数量,设置为32;神经元的模型方程为:
其中,xi是外界输入信号,一般是一个训练数据样本的多个属性;在UCI HAR数据集中,输入xi即为运动传感器所采集的3类人体行为加速度数据,每一类数据分别拆分成x,y,z三轴进行表示;ωi是每个输入信号的权重值,b为偏移值;在网络训练前,可将权重ωi和偏置b先定义成一个不大的随机初始值,随着模型在训练时不断迭代学习,最终使权重和偏置达到局部最优;
在进行求和之后,神经元向下一层的神经元进行信号传递,要传递多强烈的信号,则需要激活函数来确定:
A=σ(Z) (2)
激活函数使得输出信号从一个简单的线性函数转为非线性函数,进而能学习更复杂的事物,以及表示输入输出之间非线性的复杂映射;在隐藏层中我们使用Relu激活函数修正线性单元:
f(x)=max(0,x) (3)
以上为单隐层及其内部神经元与激活函数的设置;
步骤S2中,考虑到数据集较小,无法支撑复杂的神经网络,所以我们只再加入一层隐藏层,并且逐步调整一、二隐层的内部神经元数量;得到第一隐层的神经元数量为64,第二隐层的神经元数量为32时的网络模型,此时的行为识别效果最佳;由于网络的层数及每一层的节点数都对应了网络的参数量,而参数量的大小又对应了模型的拟合能力;节点数越多,层数越深,参数量就越大,模型的拟合能力越强;增加的网络层数集内部神经元,会导致网络产生一定的过拟合;在不降低模型复杂性的前提下,引入Dropout算法;
Dropout简言之就是神经网络在前向传播的时候,让某个神经元的激活值以一定的概率p停止工作,这样可以使得模型的泛化性更强,不会太依赖某些局部的特征;
在双隐层间加入Dropout,采用了Dropout的网络计算公式:
其中Bernoulli函数是为了生成概率向量r,也就是随机生成一个0,1的向量;以一定的概率p使得某个神经元的激活函数值变成0,一定程度上缓解网络在训练集和数据集上的过拟合现象;
步骤S3中,在LSTM中,关键是其单元状态,由细胞更新状态以及三个控制门组成,分别为输入门、输出门、记忆门,在得到外部数据后,将上一时刻的输出与此时的外部数据合并为一个长向量,分别进行σ变换与tanh变换,成为it和进入输入门,it决定是否要接受输入信息在将其累加到上一时刻隐藏层的输出成为新的细胞状态向量Ct;这就是传统LSTM 单元状态更新:
其中式(8)中的ft表示遗忘门向量,it为输入门向量;所用的激活函数是单元内部默认的双曲正切函数tanh,其表达式为:
输出门的表达式为:
ht=ot*tanh(Ct) (10)
本发明提出新的激活函数softsign,替换原tanh函数, softsign表达式为:
与tanh相类似的是,softsign函数同样是反对称,去中心,可微分,返回-1到1的值;不同的是,softsign更平坦的曲线与更慢的下降速度使得它可以更高效的地学习,比tanh更好的解决梯度消失的问题;替换激活函数,提高模型在该数据集上的精确度,并且降低损失;
步骤S4中,改变单层LSTM,使之变为一个正向加一个反向 LSTM,构成双向长短时记忆网络(Bi-LSTM)以更好的捕捉时序上下的数据信息;其中反向LSTM单元,主要原理是神经网络反向传播,通过梯度下降法迭代更新所有参数;求某一个节点的梯度时,首先找到该节点的输出节点,然后分别计算所有输出节点对该节点的梯度,最后相加即可得到该节点的梯度;
当然,Bi-LSTM在文本生成上的应用比较多,我们将此结构用在人体行为识别上;
步骤S5-S7是步骤1-4的具体调整以及表现。
本发明的工作原理是:调整神经网络隐藏层数,记录不同层数下的识别效果;调整内部神经元数量,记录不同神经元数下的分类效果;替换原LSTM中的激活函数tanh,多次记录 softsign和tanh激活函数下的网络精度和损失值,并计算平均值;引入Bi-LSTM结构,记录训练时间。
最后应说明的是:以上所述仅为本发明的优选实施例而已,并不用于限制本发明,尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (7)
1.一种基于改进的LSTM模型在人体行为识别上的应用方法,其特征在于:包括以下步骤:
S1:确定网络隐藏层数及其内部神经元数量;
S2:若加深网络层数,则在隐藏层间加入Dropout正则项;
S3:改变LSTM单元的内置激活函数,将原来的Tanh函数替换为Softsign函数;
S4:改变LSTM内部网络,加入正向与反向LSTM单元形成双向LSTM(Bi-LSTM)单元;
S5:记录改进前后的网络训练时间。
2.根据权利要求1所述的一种基于改进的LSTM模型在人体行为识别上的应用方法,其特征在于:所述LSTM网络采用的数据集为UCI HAR。
3.根据权利要求1所述的一种基于改进的LSTM模型在人体行为识别上的应用方法,其特征在于:所述人体行为包括行走、上楼、下楼、坐、立、躺。
4.根据权利要求1所述的一种基于改进的LSTM模型在人体行为识别上的应用方法,其特征在于:所述步骤S1中在神经网络的输入层与LSTM单元之间加入隐藏层,并设置隐藏层与LSTM单元中相同的神经元数量。
5.根据权利要求1所述的一种基于改进的LSTM模型在人体行为识别上的应用方法,其特征在于:所述步骤S2中还包括逐步调整隐藏层的内部神经元数量。
6.根据权利要求1或5所述的一种基于改进的LSTM模型在人体行为识别上的应用方法,其特征在于:所述加深网络层数的同时,要注意减小网络在训练集和测试集上的过拟合现象。
7.根据权利要求1所述的一种基于改进的LSTM模型在人体行为识别上的应用方法,其特征在于:所述步骤S3中LSTM单元状态由细胞更新状态以及三个控制门组成,三个控制门分别为输入门、输出门和记忆门。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010776882.6A CN111860460A (zh) | 2020-08-05 | 2020-08-05 | 一种基于改进的lstm模型在人体行为识别上的应用方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010776882.6A CN111860460A (zh) | 2020-08-05 | 2020-08-05 | 一种基于改进的lstm模型在人体行为识别上的应用方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111860460A true CN111860460A (zh) | 2020-10-30 |
Family
ID=72971126
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010776882.6A Pending CN111860460A (zh) | 2020-08-05 | 2020-08-05 | 一种基于改进的lstm模型在人体行为识别上的应用方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111860460A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114155555A (zh) * | 2021-12-02 | 2022-03-08 | 北京中科智易科技有限公司 | 人体行为人工智能判断系统和方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016197381A1 (en) * | 2015-06-12 | 2016-12-15 | Sensetime Group Limited | Methods and apparatus for recognizing text in an image |
CN107301864A (zh) * | 2017-08-16 | 2017-10-27 | 重庆邮电大学 | 一种基于Maxout神经元的深度双向LSTM声学模型 |
CN107742151A (zh) * | 2017-08-30 | 2018-02-27 | 电子科技大学 | 一种中医脉象的神经网络模型训练方法 |
CN108898213A (zh) * | 2018-06-19 | 2018-11-27 | 浙江工业大学 | 一种面向深度神经网络的自适应激活函数参数调节方法 |
CN109820515A (zh) * | 2019-03-01 | 2019-05-31 | 中南大学 | TensorFlow平台上基于LSTM神经网络的多传感跌倒检测的方法 |
CN110261109A (zh) * | 2019-04-28 | 2019-09-20 | 洛阳中科晶上智能装备科技有限公司 | 一种基于双向记忆循环神经网络的滚动轴承故障诊断方法 |
CN110737952A (zh) * | 2019-09-17 | 2020-01-31 | 太原理工大学 | 一种结合AE和bi-LSTM的机械设备关键零部件剩余寿命预测方法 |
-
2020
- 2020-08-05 CN CN202010776882.6A patent/CN111860460A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016197381A1 (en) * | 2015-06-12 | 2016-12-15 | Sensetime Group Limited | Methods and apparatus for recognizing text in an image |
CN107301864A (zh) * | 2017-08-16 | 2017-10-27 | 重庆邮电大学 | 一种基于Maxout神经元的深度双向LSTM声学模型 |
CN107742151A (zh) * | 2017-08-30 | 2018-02-27 | 电子科技大学 | 一种中医脉象的神经网络模型训练方法 |
CN108898213A (zh) * | 2018-06-19 | 2018-11-27 | 浙江工业大学 | 一种面向深度神经网络的自适应激活函数参数调节方法 |
CN109820515A (zh) * | 2019-03-01 | 2019-05-31 | 中南大学 | TensorFlow平台上基于LSTM神经网络的多传感跌倒检测的方法 |
CN110261109A (zh) * | 2019-04-28 | 2019-09-20 | 洛阳中科晶上智能装备科技有限公司 | 一种基于双向记忆循环神经网络的滚动轴承故障诊断方法 |
CN110737952A (zh) * | 2019-09-17 | 2020-01-31 | 太原理工大学 | 一种结合AE和bi-LSTM的机械设备关键零部件剩余寿命预测方法 |
Non-Patent Citations (2)
Title |
---|
俞建强;颜雁;刘葳;孙一鸣;: "基于改进门控单元神经网络的语音识别声学模型研究", 长春理工大学学报(自然科学版), no. 01, 15 February 2020 (2020-02-15) * |
王忠民;王希;宋辉;: "基于随机Dropout深度信念网络的移动用户行为识别方法", 计算机应用研究, no. 12, 23 January 2017 (2017-01-23), pages 3797 - 3800 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114155555A (zh) * | 2021-12-02 | 2022-03-08 | 北京中科智易科技有限公司 | 人体行为人工智能判断系统和方法 |
CN114155555B (zh) * | 2021-12-02 | 2022-06-10 | 北京中科智易科技有限公司 | 人体行为人工智能判断系统和方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Li et al. | An incremental deep convolutional computation model for feature learning on industrial big data | |
Chen et al. | Dynamical channel pruning by conditional accuracy change for deep neural networks | |
CN113053115B (zh) | 一种基于多尺度图卷积网络模型的交通预测方法 | |
Zeng et al. | Sensitivity analysis of multilayer perceptron to input and weight perturbations | |
CN109829541A (zh) | 基于学习自动机的深度神经网络增量式训练方法及系统 | |
CN113905391A (zh) | 集成学习网络流量预测方法、系统、设备、终端、介质 | |
WO2020143253A1 (zh) | 一种基于Sparse Autoencoder的电力系统运行方式聚类方法 | |
CN111612136B (zh) | 一种神经形态视觉目标分类方法及系统 | |
Zhang et al. | Fast and robust learning in spiking feed-forward neural networks based on intrinsic plasticity mechanism | |
Wang et al. | The trend-fuzzy-granulation-based adaptive fuzzy cognitive map for long-term time series forecasting | |
KR102637133B1 (ko) | 온-디바이스 활동 인식 | |
CN114861838B (zh) | 一种基于神经元复杂动力学的脉冲神经类脑智能分类方法 | |
Chen et al. | CNN-based broad learning with efficient incremental reconstruction model for facial emotion recognition | |
Wang et al. | NEWLSTM: An optimized long short-term memory language model for sequence prediction | |
Hu et al. | A review about building hidden layer methods of deep learning | |
Zhou et al. | QuantBayes: Weight optimization for memristive neural networks via quantization-aware Bayesian inference | |
Yu et al. | DWE-IL: a new incremental learning algorithm for non-stationary time series prediction via dynamically weighting ensemble learning | |
CN111860460A (zh) | 一种基于改进的lstm模型在人体行为识别上的应用方法 | |
CN114757169A (zh) | 基于albert模型自适应小样本学习智能纠错方法 | |
Ding et al. | A structural developmental neural network with information saturation for continual unsupervised learning | |
CN116543289B (zh) | 一种基于编码器-解码器及Bi-LSTM注意力模型的图像描述方法 | |
Ding et al. | Greedy broad learning system | |
Tao et al. | Attention-based convolutional neural network and bidirectional gated recurrent unit for human activity recognition | |
Wang et al. | Prediction method of college students’ psychological pressure based on deep neural network | |
Gao et al. | An Optimized Convolutional Neural Network with Combination Blocks for Chinese Sign Language Identification. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |