CN108776796A - 一种基于全局时空注意力模型的动作识别方法 - Google Patents
一种基于全局时空注意力模型的动作识别方法 Download PDFInfo
- Publication number
- CN108776796A CN108776796A CN201810675198.1A CN201810675198A CN108776796A CN 108776796 A CN108776796 A CN 108776796A CN 201810675198 A CN201810675198 A CN 201810675198A CN 108776796 A CN108776796 A CN 108776796A
- Authority
- CN
- China
- Prior art keywords
- model
- attention model
- global
- spatio
- action sequence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000009471 action Effects 0.000 title claims abstract description 109
- 238000000034 method Methods 0.000 title claims abstract description 21
- 238000012360 testing method Methods 0.000 claims abstract description 46
- 238000012549 training Methods 0.000 claims abstract description 28
- 230000001186 cumulative effect Effects 0.000 claims abstract description 12
- 230000000694 effects Effects 0.000 claims description 16
- 238000012795 verification Methods 0.000 claims description 11
- 238000000605 extraction Methods 0.000 claims description 8
- 238000009826 distribution Methods 0.000 claims description 5
- 230000002708 enhancing effect Effects 0.000 claims description 5
- 230000014509 gene expression Effects 0.000 claims description 5
- 238000010276 construction Methods 0.000 claims description 4
- 230000009467 reduction Effects 0.000 claims description 4
- 230000006870 function Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 241001269238 Data Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 206010016256 fatigue Diseases 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于全局时空注意力模型的动作识别方法,属于动作识别领域;首先,构建全局时空注意力模型,所述全局时空注意力模型包括依次连接的全局空间注意力模型、累加式曲线模型ALC和分类层;再利用人体动作序列对所述全局时空注意力模型依次进行训练、验证和测试;当测试效果最佳的模型精度达到设定的阈值,则完成训练并将测试效果最佳的模型作为最终模型,否则继续进行训练;最后将待检测人体动作序列输入所述最终模型进行动作识别,得出识别结果;将全局空间注意力模型、全局时间注意力模型和主干网融为一体,结构更加简单、训练更加容易、收敛速度更快,直接采用end to end的训练方式即可,无需任何额外的步骤。
Description
技术领域
本发明涉及动作识别领域,具体涉及一种基于全局时空注意力模型的动作识别方法。
背景技术
随着人工智能的快速发展,基于深度学习的动作识别获得了越来越多研究群体的关注。其中,注意力模型能有效提升动作识别的精度,获得了广泛的应用。目前,在动作识别领域,主要有两类注意力模型:一类是时间注意力模型,它的主要作用是标识出动作序列中哪些帧在识别中具有更重要的作用,哪些帧的作用相对较小;另一类是空间注意力模型,它主要是标识出人体哪些关节点在识别动作中具有更加重要的作用,哪些关节点具有的作用相对较小。同时,按采用信息的不同,注意力模型还可分为:局部注意力模型和全局注意力模型。所谓局部注意力模型是指以局部的两帧或多帧序列来构建注意力。与之相对的是全局注意力模型,以整个动作序列为基础来构建注意力。
目前在动作识别领域中,常用的是局部注意力模型,该类模型主要存在以下问题:
其本质上是利用动作序列的前后两帧或多帧之间的差异来实现注意力,对动作序列来说,只有全部看完整个序列后才能准确的给出每帧动作的重要性、每个关节点的重要性,局部注意力模型无法给出准确的注意力权重;用于动作识别的局部时空注意力模型(包括局部空间注意力模型和局部时间注意力模型)由主干网、空间注意力和时间注意力3部分构成,结构复杂,训练过程繁琐,导致识别效果一般较差。
发明内容
本发明的目的在于:提供一种基于全局时空注意力模型的动作识别方法,解决了目前利用局部时空注意力模型进行动作识别,模型结构复杂、训练过程繁琐、识别效果差的技术问题。
本发明采用的技术方案如下:
一种基于全局时空注意力模型的动作识别方法,包括以下步骤:
步骤1:构建全局时空注意力模型,所述全局时空注意力模型包括依次连接的全局空间注意力模型、累加式曲线模型ALC和分类层;
步骤2:利用人体动作序列对所述全局时空注意力模型依次进行训练、验证和测试;
步骤3:当测试效果最佳的模型精度达到预设的阈值时,则完成训练并将测试效果最佳的模型作为最终模型,否则继续进行训练;
步骤4:将待检测人体动作序列输入所述最终模型进行动作识别,得出识别结果。
进一步的,所述步骤1中全局时空注意力模型的构建方法如下:
步骤11:构建全局空间注意力模型,用于输入人体动作序列X,输出人体动作序列X的空间注意力权重a,a=(a1,...,ai,...,aK)=f(X),
人体动作序列X表示为:
X={Xt=(Xt,1,...,Xt,i...,Xt,K)|t=1,...,n},
其中,t表示人体动作序列中动作的时刻,n表示人体动作序列的长度,K表示人体关节点的个数,i表示人体关节点的序号;
步骤12:构建累加式曲线模型ALC,用于输入利用空间注意力权重a进行权重分配后的人体动作序列X′,输出人体动作序列具有时间注意力权重βt的特征ot,
步骤13:构建分类层,用于输入特征ot,输出人体动作序列X分类结果。
进一步的,所述步骤11中,全局空间注意力模型包括依次连接的LSTM层、全连接层、ReLU层和Normalize层;
LSTM层:用于提取所述人体动作序列X中每一动作的特征;
全连接层:用于对输入该层的特征进行降维;
ReLU层:用于增强全局空间注意力模型的非线性化;
Normalize层:用于规格化数据。
进一步的,所述步骤12中,累加式曲线模型ALC包括依次连接的三层LSTM层和权重层,
三层LSTM层:用于对X′进行动作特征提取,得到提取的特征ht;
权重层:用于对所述特征ht赋予权重βt,得到结果ot,ot=βtht。
进一步的,所述分类层包括全连接层和Softmax分类层。
进一步的,所述步骤2中,训练、验证和测试的具体步骤如下:
步骤21:将由人体关节点数据形成的人体动作序列分为训练集、验证集和测试集;
步骤22:将所述训练集中的人体动作序列输入全局时空注意力模型中进行训练,得到H个模型;
步骤23:将所述验证集输入所述H个模型进行测试,将准确率排名前Q的模型作为测试模型;
步骤24:将所述测试集中的测试数据输入所述测试模型,得到测试效果,若测试效果最佳的测试模型精度达到阈值,则完成训练得到最终模型并跳转至步骤25;否则跳转至步骤22;
步骤25:将待识别动作序列输入所述最终模型,得到识别结果。
进一步的,所述步骤22中,对所述利用全局时空注意力模型进行训练时,采用二阶正则化策略来缓解过拟合,其中,带有二阶正则化的损失函数为:
其中,yi表示所述人体动作序列的真实动作类型,C表示动作的类别数量;
表示全局时空注意力模型预测出的动作类型,i表示人体关节点的序号,
表示全局空间注意力模型参数的二阶正则化,表示累加式曲线模型ALC参数的二阶正则化,λ1和λ2均表示平衡因子。
综上所述,由于采用了上述技术方案,本发明的有益效果是:
1.利用整个序列来决定空间注意力和时间注意力的权重,使得注意力的权重更加准确,也更符合人类的认知。
2.将全局空间注意力模型、全局时间注意力模型和主干网融为一体,结构更加简单、训练更加容易、收敛速度也更快,直接采用end to end的训练方式即可,无需任何额外的步骤。
3.整体计算量更小,稳定性好,识别精度的更高,在多个主流的数据集上进行了测试,在单流架构下,实现了目前最好的识别效果,具体为:在目前最大的RGB-D动作数据集NTU RGB+D上,仅仅使用LSTM架构的识别率为66.8%,采用局部时空注意力的识别率是73%,本发明的识别率达到80%。
附图说明
本发明将通过例子并参照附图的方式说明,其中:
图1是本发明的整体流程图;
图2是本发明中全局时空注意力模型的整体架构图。
具体实施方式
本说明书中公开的所有特征,或公开的所有方法或过程中的步骤,除了互相排斥的特征和/或步骤以外,均可以以任何方式组合。
下面结合图1、图2对本发明作详细说明。
一种基于全局时空注意力模型的动作识别方法,包括以下步骤:
步骤1:构建全局时空注意力模型,所述全局时空注意力模型包括依次连接的全局空间注意力模型、累加式曲线模型ALC和分类层;
步骤2:利用人体动作序列对所述全局时空注意力模型依次进行训练、验证和测试;
步骤3:当测试效果最佳的模型精度达到设定的阈值,则完成训练并将测试效果最佳的模型作为最终模型,否则继续进行训练;
步骤4:将待检测人体动作序列输入所述最终模型进行动作识别,得出识别结果。
进一步的,所述步骤1中全局时空注意力模型的构建方法如下:
步骤11:构建全局空间注意力模型,用于输入人体动作序列X,输出人体动作序列X的空间注意力权重a,a=(a1,...,ai,...,aK)=f(X),
人体动作序列X表示为:
X={Xt=(Xt,1,...,Xt,i...,Xt,K)|t=1,...,n},
其中,t表示人体动作序列中动作的时刻,n表示人体动作序列的长度,K表示人体关节点的个数,i表示人体关节点的序号;
步骤12:构建累加式曲线模型ALC,用于输入利用空间注意力权重a进行权重分配后的人体动作序列X′,输出人体动作序列具有时间注意力权重βt的特征ot,
步骤13:构建分类层,用于输入特征ot,输出人体动作序列X分类结果。
进一步的,所述步骤11中,全局空间注意力模型包括依次连接的LSTM层、全连接层、ReLU层和Normalize层;
LSTM层:用于提取所述人体动作序列X中每一动作的特征;
全连接层:用于对输入该层的特征进行降维;
ReLU层:用于增强全局空间注意力模型的非线性化;
Normalize层:用于规格化数据。
进一步的,所述步骤12中,累加式曲线模型ALC包括依次连接的三层LSTM层和权重层,
三层LSTM层:用于对X′进行动作特征提取,得到提取的特征ht;
权重层:用于对所述特征ht赋予权重βt,得到结果ot,ot=βtht。
进一步的,所述分类层包括全连接层和Softmax分类层。
进一步的,所述步骤2中,训练、验证和测试的具体步骤如下:
步骤21:将由人体关节点数据形成的人体动作序列分为训练集、验证集和测试集;
步骤22:将所述训练集中的数据输入全局时空注意力模型中进行训练,得到H个模型;
步骤23:将所述验证集中的数据输入所述H个模型进行测试,将准确率排名前Q的模型作为测试模型;
步骤24:将所述测试集中的数据输入所述测试模型,得到测试效果,若测试效果最佳的测试模型的精度达到设定的阈值,则完成训练得到最终模型并跳转至步骤25;否则跳转至步骤22;
步骤25:将待识别动作序列输入所述最终模型,得到识别结果。
进一步的,所述步骤22中,对所述利用全局时空注意力模型进行训练时,采用二阶正则化策略缓解过拟合,其中,带有二阶正则化的损失函数为:
其中,y=(y1,...,yc)T表示所述人体动作序列的真实动作类型,C表示动作的类别数量;
表示全局时空注意力模型预测出的动作类型,i表示人体关节点的序号,
表示全局空间注意力模型参数的二阶正则化,表示累加式曲线模型ALC参数的二阶正则化,λ1和λ2均表示平衡因子。
具体实施例
一种基于全局时空注意力模型的动作识别方法,包括以下步骤:
步骤1:构建全局时空注意力模型,将由人体关节点数据形成的人体动作序列分为训练集、验证集和测试集;
全局时空注意力模型的构建方法如下:
步骤11:构建全局空间注意力模型,用于输入人体动作序列X,输出人体动作序列X空间注意力权重a,a=(a1,...,ai,...,aK)=f(X),
人体动作序列X表示为:
X={Xt=(Xt,1,...,Xt,i...,Xt,K)|t=1,...,n},
其中,t表示人体动作序列中动作的时刻,n表示人体动作序列的长度,K表示人体关节点的个数,i表示人体关节点的序号;
全局空间注意力模型包括依次连接的LSTM层、全连接层、ReLU层和Normalize层;
LSTM层:用于提取所述人体动作序列X中每一动作的特征;
全连接层:用于对输入该层的特征进行降维;
ReLU层:用于增强全局空间注意力模型的非线性化;
Normalize层:用于规格化数据,防止数据变化过于分散。
步骤12:构建累加式曲线模型ALC,用于输入利用空间注意力权重a进行权重分配后的人体动作序列X′,输出人体动作序列具有时间注意力权重βt的特征ot,
累加式曲线模型ALC包括依次连接的三层LSTM层和权重层,
三层LSTM层:用于对X′进行动作特征提取,得到提取的特征ht;
权重层:用于对所述特征ht赋予权重βt,得到结果ot,ot=βtht。
步骤13:构建分类层,用于输入特征ot,输出人体动作序列X分类结果。
步骤2:将所述训练集中的人体动作序列输入全局时空注意力模型中进行训练,得到H个模型;
训练的步骤具体为:
步骤21:将所述人体动作序列X输入全局空间注意力模型进行训练;
步骤211:将人体动作序列X输入全局空间注意力模型的LSTM层进行特征提取;
步骤212:将所述步骤211提取得到的特征输入深度学习架构,利用BP算法训练得到函数f,进而根据公式a=(a1,...,ai,...,aK)=f(X)得到空间注意力权重a;
其中ReLU层采用公式来逼近所述空间注意力权重a,whs表示全局空间注意力模型中全连接层采用的权重,bs表示全局空间注意力模型中全连接层采用的偏置参数;
采用Normalize层对数据进行规格化后,使空间注意力权重a表示为:
j表示人体关节点的序号;
步骤22:将人体动作序列X赋予所述空间注意力权重a后,得到X′=Xa,将X′输入累加式曲线模型ALC进行训练;
步骤221:将X′输入累加式曲线模型ALC中的三层LSTM层进行特征提取,得到每个时刻的特征ht,其中,
ht=LSTM(LSTM(LSTM(Xt′)));
步骤222:将所述特征ht输入权重层,利用BP算法进行训练后,得到权重βt。
步骤23:将所述特征ht赋予训练得到的权重βt,得到结果ot,ot=βtht;
步骤24:将所述结果ot输入分类层,进行分类,分类层包括全连接层和Softmax分类层,
所述全连接层采用的公式为:
wh~表示分类层中全连接层的权重,b~表示分类层中全连接层的偏置参数.
Softmax分类层采用的公式为:
α=1,...,C表示分类效果,C表示动作的类别数,b与α的含义相同。
步骤25:相对单独的空间注意力和时间注意力而言,该架构更加复杂,训练起来将会更加困难,也更容易出现过拟合;为了缓解上述情况,本发明在损失函数上,采用二阶正则化策略来实现;其损失函数为:
其中,y=(y1,...,yc)T表示所述人体动作序列的真实动作类型,C表示动作的类别数量;
表示全局时空注意力模型预测出的动作类型,
表示全局空间注意力模型参数的二阶正则化,表示累加式曲线模型ALC参数的二阶正则化,λ1和λ2均表示平衡因子。
步骤3:将所述验证集输入所述H个模型测试,将准确率排名前Q的模型作为测试模型;
步骤4:将所述测试集中的测试数据输入所述Q个测试模型,得到测试效果,若测试效果最佳的测试模型精度达到阈值,则完成训练并跳转至步骤5;否则跳转至步骤2;
步骤5:将待识别动作序列输入所述测试效果最佳的测试模型,得到识别结果;
识别的步骤为:
步骤51:将待识别动作序列Xt输入全局空间注意力模型中,由于函数f已通过训练得到,因此可直接计算出空间注意力权重a;
步骤52:对待识别动作序列中的每帧动作进行权重分配,得到Xt′=Xta;
步骤53:将X′t输入累加式曲线模型ALC中提取特征ht,再赋予训练后的时间注意力权重βt,得到htβt;
步骤54:将htβt送入全连接层和Softmax层进行分类,分类得到动作序列的类型。
Claims (7)
1.一种基于全局时空注意力模型的动作识别方法,其特征在于:包括以下步骤:
步骤1:构建全局时空注意力模型,所述全局时空注意力模型包括依次连接的全局空间注意力模型、累加式曲线模型ALC和分类层;
步骤2:利用人体动作序列对所述全局时空注意力模型依次进行训练、验证和测试;
步骤3:当测试效果最佳的模型精度达到设定的阈值,则完成训练并将测试效果最佳的模型作为最终模型,否则继续进行训练;
步骤4:将待检测人体动作序列输入所述最终模型进行动作识别,得出动作序列的识别结果。
2.根据权利要求1所述的一种基于全局时空注意力模型的动作识别方法,其特征在于:所述步骤1中全局时空注意力模型的构建方法如下:
步骤11:构建全局空间注意力模型,用于输入人体动作序列X,输出人体动作序列X的空间注意力权重a,a=(a1,...,ai,...,aK)=f(X),
人体动作序列X表示为:
X={Xt=(Xt,1,...,Xt,i...,Xt,K)|t=1,...,n},
其中,t表示人体动作序列中动作的时刻,n表示人体动作序列的长度,K表示人体关节点的个数,i表示人体关节点的序号;
步骤12:构建累加式曲线模型ALC,用于输入利用空间注意力权重a进行权重分配后的人体动作序列X′,输出人体动作序列具有时间注意力权重βt的特征ot,
步骤13:构建分类层,用于输入特征ot,输出人体动作序列X的分类结果。
3.根据权利要求2所述的一种基于全局时空注意力模型的动作识别方法,其特征在于:所述步骤11中,全局空间注意力模型包括依次连接的LSTM层、全连接层、ReLU层和Normalize层;
LSTM层:用于提取所述人体动作序列X中每一动作的特征;
全连接层:用于对输入该层的特征进行降维;
ReLU层:用于增强全局空间注意力模型的非线性化;
Normalize层:用于规格化数据。
4.根据权利要求2所述的一种基于全局时空注意力模型的动作识别方法,其特征在于:
所述步骤12中,累加式曲线模型ALC包括依次连接的三层LSTM层和权重层,
三层LSTM层:用于对X′进行动作特征提取,得到提取的特征ht;
权重层:用于对所述特征ht赋予权重βt,得到结果ot,ot=βtht。
5.根据权利要求2所述的一种基于全局时空注意力模型的动作识别方法,其特征在于:所述分类层包括全连接层和Softmax分类层。
6.根据权利要求1所述的一种基于全局时空注意力模型的动作识别方法,其特征在于:所述步骤2中,训练、验证和测试的具体步骤如下:
步骤21:将由人体关节点数据形成的人体动作序列分为训练集、验证集和测试集;
步骤22:将所述训练集中的数据输入全局时空注意力模型中进行训练,得到H个模型;
步骤23:将所述验证集中的数据输入所述H个模型进行测试,将准确率排名前Q的模型作为测试模型;
步骤24:将所述测试集中的数据输入所述测试模型,得到测试效果,若测试效果最佳的测试模型的精度达到设定的阈值,则完成训练得到最终模型并跳转至步骤25;否则跳转至步骤22;
步骤25:将待识别动作序列输入所述最终模型,得到识别结果。
7.根据权利要求6所述的一种基于全局时空注意力模型的动作识别方法,其特征在于:所述步骤22中,对所述全局时空注意力模型进行训练时,采用二阶正则化策略来缓解过拟合,其中,带有二阶正则化的损失函数为:
其中,yi表示所述人体动作序列的真实动作类型,C表示动作的类别数量;
表示全局时空注意力模型预测出的动作类型,i表示人体关节点的序号,
表示全局空间注意力模型参数的二阶正则化,表示累加式曲线模型ALC参数的二阶正则化,λ1和λ2均表示平衡因子。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810675198.1A CN108776796B (zh) | 2018-06-26 | 2018-06-26 | 一种基于全局时空注意力模型的动作识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810675198.1A CN108776796B (zh) | 2018-06-26 | 2018-06-26 | 一种基于全局时空注意力模型的动作识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108776796A true CN108776796A (zh) | 2018-11-09 |
CN108776796B CN108776796B (zh) | 2021-12-03 |
Family
ID=64029880
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810675198.1A Active CN108776796B (zh) | 2018-06-26 | 2018-06-26 | 一种基于全局时空注意力模型的动作识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108776796B (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109376720A (zh) * | 2018-12-19 | 2019-02-22 | 杭州电子科技大学 | 基于关节点时空简单循环网络和注意力机制的动作分类方法 |
CN109614874A (zh) * | 2018-11-16 | 2019-04-12 | 深圳市感动智能科技有限公司 | 一种基于注意力感知和树形骨架点结构的人体行为识别方法和系统 |
CN110059587A (zh) * | 2019-03-29 | 2019-07-26 | 西安交通大学 | 基于时空注意力的人体行为识别方法 |
CN110135249A (zh) * | 2019-04-04 | 2019-08-16 | 华南理工大学 | 基于时间注意力机制和lstm的人体行为识别方法 |
CN110175425A (zh) * | 2019-05-31 | 2019-08-27 | 重庆大学 | 一种基于mmalstm的齿轮剩余寿命的预测方法 |
CN111291804A (zh) * | 2020-01-22 | 2020-06-16 | 杭州电子科技大学 | 基于注意力机制的多传感器时间序列分析模型 |
CN113742451A (zh) * | 2021-09-06 | 2021-12-03 | 深圳市广联智通科技有限公司 | 基于多类型问题和多片段答案抽取的机器阅读理解系统 |
CN114039871A (zh) * | 2021-10-25 | 2022-02-11 | 中山大学 | 一种蜂窝流量预测的方法、系统、装置及介质 |
US11361557B2 (en) * | 2019-01-18 | 2022-06-14 | Toyota Research Institute, Inc. | Attention-based recurrent convolutional network for vehicle taillight recognition |
CN117649630A (zh) * | 2024-01-29 | 2024-03-05 | 武汉纺织大学 | 一种基于监控视频流的考场作弊行为识别方法 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7158654B2 (en) * | 1993-11-18 | 2007-01-02 | Digimarc Corporation | Image processor and image processing method |
CN101226597A (zh) * | 2007-01-18 | 2008-07-23 | 中国科学院自动化研究所 | 一种基于热红外步态的夜间行人识别方法及系统 |
CN101395620A (zh) * | 2006-02-10 | 2009-03-25 | 努门塔公司 | 基于分级时间记忆的系统的结构 |
CN103514448A (zh) * | 2013-10-24 | 2014-01-15 | 北京国基科技股份有限公司 | 船形识别方法和系统 |
US20150010204A1 (en) * | 2013-07-02 | 2015-01-08 | Panasonic Corporation | Person behavior analysis device, person behavior analysis system, person behavior analysis method, and monitoring device |
CN105718845A (zh) * | 2014-12-03 | 2016-06-29 | 同济大学 | 一种室内场景中人体动作的实时侦测方法及装置 |
CN106709461A (zh) * | 2016-12-28 | 2017-05-24 | 中国科学院深圳先进技术研究院 | 基于视频的行为识别方法及装置 |
US20170293804A1 (en) * | 2016-04-06 | 2017-10-12 | Nec Laboratories America, Inc. | Deep 3d attention long short-term memory for video-based action recognition |
CN107679522A (zh) * | 2017-10-31 | 2018-02-09 | 内江师范学院 | 基于多流lstm的动作识别方法 |
CN108062505A (zh) * | 2016-11-09 | 2018-05-22 | 微软技术许可有限责任公司 | 基于神经网络的动作检测 |
CN108122245A (zh) * | 2016-11-30 | 2018-06-05 | 华为技术有限公司 | 一种目标行为描述方法、装置和监控设备 |
-
2018
- 2018-06-26 CN CN201810675198.1A patent/CN108776796B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7158654B2 (en) * | 1993-11-18 | 2007-01-02 | Digimarc Corporation | Image processor and image processing method |
CN101395620A (zh) * | 2006-02-10 | 2009-03-25 | 努门塔公司 | 基于分级时间记忆的系统的结构 |
CN101226597A (zh) * | 2007-01-18 | 2008-07-23 | 中国科学院自动化研究所 | 一种基于热红外步态的夜间行人识别方法及系统 |
US20150010204A1 (en) * | 2013-07-02 | 2015-01-08 | Panasonic Corporation | Person behavior analysis device, person behavior analysis system, person behavior analysis method, and monitoring device |
CN103514448A (zh) * | 2013-10-24 | 2014-01-15 | 北京国基科技股份有限公司 | 船形识别方法和系统 |
CN105718845A (zh) * | 2014-12-03 | 2016-06-29 | 同济大学 | 一种室内场景中人体动作的实时侦测方法及装置 |
US20170293804A1 (en) * | 2016-04-06 | 2017-10-12 | Nec Laboratories America, Inc. | Deep 3d attention long short-term memory for video-based action recognition |
CN108062505A (zh) * | 2016-11-09 | 2018-05-22 | 微软技术许可有限责任公司 | 基于神经网络的动作检测 |
CN108122245A (zh) * | 2016-11-30 | 2018-06-05 | 华为技术有限公司 | 一种目标行为描述方法、装置和监控设备 |
CN106709461A (zh) * | 2016-12-28 | 2017-05-24 | 中国科学院深圳先进技术研究院 | 基于视频的行为识别方法及装置 |
CN107679522A (zh) * | 2017-10-31 | 2018-02-09 | 内江师范学院 | 基于多流lstm的动作识别方法 |
Non-Patent Citations (4)
Title |
---|
LEI WANG 等: "Human Action Recognition by Learning Spatio-Temporal Features With Deep Neural Networks", 《IEEEACCESS》 * |
SHIKHAR SHARMA 等: "ACTION RECOGNITION USING VISUAL ATTENTION", 《ARXIV:1511.04119V3》 * |
YUN HAN 等: "Global Spatio-Temporal Attention for Action Recognition based on 3D Human Skeleton Data", 《PREPARATION OF PAPERS FOR IEEE ACCESS》 * |
吕温 等: "基于局部时空特征的人体行为软分类识别", 《计算机与现代化》 * |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109614874A (zh) * | 2018-11-16 | 2019-04-12 | 深圳市感动智能科技有限公司 | 一种基于注意力感知和树形骨架点结构的人体行为识别方法和系统 |
CN109614874B (zh) * | 2018-11-16 | 2023-06-30 | 深圳市感动智能科技有限公司 | 一种基于注意力感知和树形骨架点结构的人体行为识别方法和系统 |
CN109376720B (zh) * | 2018-12-19 | 2022-01-18 | 杭州电子科技大学 | 基于关节点时空简单循环网络和注意力机制的动作分类方法 |
CN109376720A (zh) * | 2018-12-19 | 2019-02-22 | 杭州电子科技大学 | 基于关节点时空简单循环网络和注意力机制的动作分类方法 |
US11361557B2 (en) * | 2019-01-18 | 2022-06-14 | Toyota Research Institute, Inc. | Attention-based recurrent convolutional network for vehicle taillight recognition |
CN110059587A (zh) * | 2019-03-29 | 2019-07-26 | 西安交通大学 | 基于时空注意力的人体行为识别方法 |
CN110135249A (zh) * | 2019-04-04 | 2019-08-16 | 华南理工大学 | 基于时间注意力机制和lstm的人体行为识别方法 |
CN110135249B (zh) * | 2019-04-04 | 2021-07-20 | 华南理工大学 | 基于时间注意力机制和lstm的人体行为识别方法 |
CN110175425A (zh) * | 2019-05-31 | 2019-08-27 | 重庆大学 | 一种基于mmalstm的齿轮剩余寿命的预测方法 |
CN110175425B (zh) * | 2019-05-31 | 2023-02-21 | 重庆大学 | 一种基于mmalstm的齿轮剩余寿命的预测方法 |
CN111291804A (zh) * | 2020-01-22 | 2020-06-16 | 杭州电子科技大学 | 基于注意力机制的多传感器时间序列分析模型 |
CN113742451A (zh) * | 2021-09-06 | 2021-12-03 | 深圳市广联智通科技有限公司 | 基于多类型问题和多片段答案抽取的机器阅读理解系统 |
CN113742451B (zh) * | 2021-09-06 | 2023-12-22 | 深圳市广联智通科技有限公司 | 基于多类型问题和多片段答案抽取的机器阅读理解系统 |
CN114039871A (zh) * | 2021-10-25 | 2022-02-11 | 中山大学 | 一种蜂窝流量预测的方法、系统、装置及介质 |
CN114039871B (zh) * | 2021-10-25 | 2022-11-29 | 中山大学 | 一种蜂窝流量预测的方法、系统、装置及介质 |
CN117649630A (zh) * | 2024-01-29 | 2024-03-05 | 武汉纺织大学 | 一种基于监控视频流的考场作弊行为识别方法 |
CN117649630B (zh) * | 2024-01-29 | 2024-04-26 | 武汉纺织大学 | 一种基于监控视频流的考场作弊行为识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108776796B (zh) | 2021-12-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108776796A (zh) | 一种基于全局时空注意力模型的动作识别方法 | |
CN107679522B (zh) | 基于多流lstm的动作识别方法 | |
CN108171209A (zh) | 一种基于卷积神经网络进行度量学习的人脸年龄估计方法 | |
CN109543526B (zh) | 基于深度差异性特征的真假面瘫识别系统 | |
CN106651830A (zh) | 一种基于并行卷积神经网络的图像质量测试方法 | |
CN104239858B (zh) | 一种人脸特征验证的方法和装置 | |
CN109902546A (zh) | 人脸识别方法、装置及计算机可读介质 | |
CN109166094A (zh) | 一种基于深度学习的绝缘子故障定位识别方法 | |
CN108805083A (zh) | 单阶段的视频行为检测方法 | |
CN109034194B (zh) | 基于特征分化的交易欺诈行为深度检测方法 | |
CN109215028A (zh) | 一种基于卷积神经网络的多目标优化图像质量评估方法 | |
CN110532900A (zh) | 基于U-Net和LS-CNN的人脸表情识别方法 | |
CN106951825A (zh) | 一种人脸图像质量评估系统以及实现方法 | |
CN109190537A (zh) | 一种基于掩码感知深度强化学习的多人物姿态估计方法 | |
CN110534132A (zh) | 一种基于谱图特征的并行卷积循环神经网络的语音情感识别方法 | |
CN110490177A (zh) | 一种人脸检测器训练方法及装置 | |
CN106897746A (zh) | 数据分类模型训练方法和装置 | |
CN108629326A (zh) | 目标体的动作行为识别方法及装置 | |
CN106919951A (zh) | 一种基于点击与视觉融合的弱监督双线性深度学习方法 | |
CN108230291A (zh) | 物体识别系统训练方法、物体识别方法、装置和电子设备 | |
CN106503742A (zh) | 一种可见光图像绝缘子识别方法 | |
CN109558902A (zh) | 一种快速目标检测方法 | |
CN109214298A (zh) | 一种基于深度卷积网络的亚洲女性颜值评分模型方法 | |
CN108389180A (zh) | 一种基于深度学习的织物疵点检测方法 | |
CN110097029B (zh) | 基于Highway网络多视角步态识别的身份认证方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20240105 Address after: 230000 floor 1, building 2, phase I, e-commerce Park, Jinggang Road, Shushan Economic Development Zone, Hefei City, Anhui Province Patentee after: Dragon totem Technology (Hefei) Co.,Ltd. Address before: 641112 No. 705, Dongtong Road, Dongxing District, Neijiang City, Sichuan Province Patentee before: NEIJIANG NORMAL University |