CN110516540A - 基于多流架构与长短时记忆网络的组群行为识别方法 - Google Patents
基于多流架构与长短时记忆网络的组群行为识别方法 Download PDFInfo
- Publication number
- CN110516540A CN110516540A CN201910646216.8A CN201910646216A CN110516540A CN 110516540 A CN110516540 A CN 110516540A CN 201910646216 A CN201910646216 A CN 201910646216A CN 110516540 A CN110516540 A CN 110516540A
- Authority
- CN
- China
- Prior art keywords
- network
- short
- feature
- tsn
- activity recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000000694 effects Effects 0.000 title claims abstract description 35
- 238000000034 method Methods 0.000 title claims abstract description 24
- 230000006399 behavior Effects 0.000 claims abstract description 36
- 230000004927 fusion Effects 0.000 claims abstract description 35
- 230000006870 function Effects 0.000 claims description 15
- 239000000284 extract Substances 0.000 claims description 13
- 238000005070 sampling Methods 0.000 claims description 10
- 238000013480 data collection Methods 0.000 claims description 4
- 230000002776 aggregation Effects 0.000 claims description 3
- 238000004220 aggregation Methods 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 3
- 238000012360 testing method Methods 0.000 claims description 3
- 238000010200 validation analysis Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 abstract description 13
- 230000009471 action Effects 0.000 description 6
- 238000012549 training Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 238000005267 amalgamation Methods 0.000 description 2
- 239000012141 concentrate Substances 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000007500 overflow downdraw method Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000000155 melt Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000012421 spiking Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Multimedia (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于多流架构与长短时记忆网络的组群行为识别方法,涉及图像识别技术领域,包括以下步骤:数据预处理;B、通过双路TSN网络分别对主要人物候选框和整张图片的外观和运动特征进行提取,得到单人局部空间外观信息单人局部时序运动信息全局空间外观信息和全局时序运动信息
Description
技术领域
本发明涉及图像识别技术领域,特别是一种基于多流架构与长短时记忆网络的组群行为识别方法。
背景技术
近年来,视频中的人类行为识别在计算机视觉领域取得了举世瞩目的成就。组群行为分析在现实生活中也得到了广泛应用,如智能视频监控、异常事件检测、体育分析、理解社会行为等,这些应用都使得组群行为识别具有重要的科学实用性和巨大的经济价值。随着深度学习逐渐在计算机视觉领域取得了巨大成功,卷积神经网络(CNN)也逐渐被应用于基于视频的人类行为识别,并取得了显著成效。
给定一段视频序列,简单的行为识别即单人动作的分类,只需将其中每个人的动作准确分类到已知的动作类别中。较复杂的人体行为即组群行为识别,往往给定的视频中包含多个目标多个动作类别,多个目标可能在同时做相同的动作,或者多个目标正在共同完成同一个行为(行为),我们将这些由多人完成的相同动作或者共同完成的行为(行为)称为“组群行为”。本申请涉及的内容是基于视频中的多人行为识别问题。
一般来讲,用于行为识别的融合方法主要有两种:前期融合和后期融合。前期融合也叫特征融合,特征融合又分为级联融合、最大值融合和平均融合。后期融合主要是指分数融合。早期融合是通过将它们整合到单个流中进行训练,连接来自不同流的特征,其融合方式如图1所示;后期融合是通过平均或使用线性分类器来组合两个网络的softmax分数,如图2所示。这种融合方法也称为决策级融合或语义级融合,该方法已广泛用于图像和视频分析。
在组群行为识别任务中,目前还存在两方面的问题。(1)在特征提取方面,通常先对视频中的关键人物进行定位,关注局部信息从而忽略全局特征,关注外观特征从而忽略其运动特征,从而导致特征提取的不全面性。(2)在特征融合方面,通常仅采用特征融合或分数融合,或既采用分数融合又采用特征融合,但若将提取的特征仅进行简单的融合,那么将不能有效提高组群行为识别的准确率。
发明内容
本发明的目的是为了保证对输入视频特征提取的全面性,有效保证视频序列中的组群行为识别的准确性,设计了一种基于多流架构与长短时记忆网络的组群行为识别方法。
为了实现上述目的,本发明的技术方案为,一种基于多流架构与长短时记忆网络的组群行为识别方法,包括以下步骤:
A、数据预处理
根据数据集中主要人物候选框的标注信息,形成主要人物候选框序列;
分别提取视频中整张图片和主要人物候选框的光流时序信息;
B、通过双路TSN网络分别对主要人物候选框和整张图片的外观和运动特征进行提取,得到单人局部空间外观信息单人局部时序运动信息全局空间外观信息和全局时序运动信息
C、特征融合及组群行为识别
将和进行融合,得到特征fA;将和进行融合,得到特征fB;将和进行融合,得到特征fC;将和进行融合,得到特征fD;
在融合后的特征fA、fB、fC和fD上分别加一个通道注意力模型,并让每个通道的特征学习一个权重系数,特征的重要性越大,则学习到的权重系数就大;反之,则小;
经过通道注意力模型输出的四路特征后面分别连接LSTM网络,捕获视频中长期依赖关系;每个LSTM网络直接连接softmax层,并进行分数融合,得出视频序列中的组群行为类别,根据组群行为类别获得整个组群行为的标签;
D、对模型进行训练和测试。
进一步的,所述双路TSN网络包括局部TSN网络TSN_L和全局TSN网络TSN_G,所述局部TSN网络TSN_L对主要人物候选框的外观和运动特征进行提取,所述全局TSN网络TSN_G对整张图片的外观和运动特征进行提取。
进一步的,在所述步骤B中,所述TSN网络采用稀疏采样的方法提取视频序列中的短片段,短片段沿时间维均匀分布,并采用分段结构从短片段中聚合信息。
进一步的,在所述步骤B中,将视频平均分成k段{S1,S2,...,Sk},利用双路TSN网络的公式表示为:
TSN(T1,T2,...,TK)=G(F(T1;W),F(T2;W),...,F(TK;W))
式中,(T1,T2,...,TK)为短片段序列,每一个短片段TK为其对应的段SK中随机采样得到;F(TK;W)函数表示在短片段TK上进行操作并且具有参数W的卷积网络,提取每个子片段中随机采样的图像的特征;G为结合多个短片段特征的段共识函数。
进一步的,在所述步骤B中,结合标准的分类交叉熵损失,得到关于段共识函数G的最终损失函数。
进一步的,用标准的反向传播算法联合优化模型参数W。
进一步的,在所述步骤D中,将TSN网络与LSTM网络分别进行训练,并将数据集按照3:1的比例进行划分,将数据集中3/4的数据进行训练,1/4的数据进行测试与验证,得出数据集中各类行为的准确率以及平均识别精度。
进一步的,所述数据集为CAD数据集或者排球数据集。
本发明的有益效果是:
(1)在特征提取方面,添加多重视觉线索,以获得更具区分性的特征。将从特征提取的输入端来解决这些问题,既关注局部特征和全局特征,又关注外观特征和运动特征,从而保证特征提取的全面性。
(2)提出了一种新的混合融合策略。对整张图片和主要人物候选框提取局部光流特征、局部空间特征、全局光流特征、全局空间特征,利用TSN网络完成特征提取任务,并提出了一种新的混合融合策略,在前期进行级联融合,中期采用通道注意力模型给TSN网络的四路特征分配权重,后期经过LSTM网络后进行分数融合。在进行级联融合之后,采用通道注意力模型,使之能够对前期提取的特征进行进一步的处理,从而保证对视频序列中的组群行为识别的准确性。
综上两点有益效果:(1)特征提取方面,进一步保证其提取的全面性;(2)特征融合方面,使用通道注意力模型,以获得更具区分性的特征,来提高组群行为的准确率。
附图说明
图1是现有技术中前期融合方式的结构示意图;
图2是现有技术中后期融合方式的结构示意图;
图3是本申请组群识别过程流程图;
图4是CAD数据集中其中一种行为的剪辑帧示例,包括边界框、单人行为和组群行为的标定;
图5是两种输入模态:左边上下两图是主要人物候选框及其对应的X,Y两个方向光流图;后边上下两图是整张图片及其对应的X,Y两个方向光流图;
图6是本申请整体网络架构图。
具体实施方式
为更进一步阐述本发明为达成预定发明目的所采取的技术手段及功效,以下结合附图及较佳实施例,对依据本发明的具体实施方式、结构、特征及其功效,详细说明如下:
组群行为识别的关键是捕获更高层级的特征表示,从而实现组群行为识别。本申请的构思如下:
由于现在的大多数文献都是基于视频中关键人物的候选框进行特征提取,这就忽略了背景信息,在行为识别中,不光要关注关键人物的时空信息,还需将其周围环境考虑在内。因此,针对这些缺点,本申请的第一个创新点就是在考虑特征提取网络输入端时,既考虑整张图片的时空信息,又考虑关键人物的时空信息。
本发明在组群行为识别方面,对其整体框架进行结构性创新,不仅关注局部个人的外观和运动特征,还关注背景信息,得到全局外观和运动特征。并提出了一种新的混合融合策略,在整个组群行为识别过程中进行了各种交叉性的级联融合,并赋予通道注意力模型,将重要特征进行重点关注,最后进行四路分数融合,进而提高组群识别的准确性。
本文提高了一种基于多流架构与长短时记忆网络的组群行为识别方法,如图3所示,包括四步。具体包括以下步骤:
A、数据预处理
如图4所示,利用数据集中已经提供的主要人物候选框的标注信息,形成主要人物候选框序列,完成对视频中主要人物的跟踪。
提取光流特征,利用TVL1(Total Variation-L1)光流算法分别提取视频中整张图片和主要人物候选框的光流时序信息,得到整张图片和主要人物候选框的X方向和Y方向的光流信息,作为TSN网络时间网的输入。本申请重点考虑多个输入的视觉线索,由于在真实复杂的环境中,除了人在运动之外,还有好多其余物体的运动,例如:数据集中的“Crossing”类,人在等待过马路的过程中车在运动,光流场可能不会全部集中在人的动作上。因此,使用翘曲光流的提取方法,提取视频中人物的X方向和Y方向的光流信息,其中深浅代表运动速度,将捕获的短期运动特征作为TSN网络时间网的输入。本文提取的X和Y两个方向的光流如图5所示。
B、通过双路TSN网络进行时空特征提取
双路TSN网络包括局部TSN网络TSN_L和全局TSN网络TSN_G,局部TSN网络TSN_L对主要人物候选框的外观和运动特征进行提取,全局TSN网络TSN_G对整张图片的外观和运动特征进行提取。
假设给定一段输入视频,将输入视频平均分成k段{S1,S2,...,Sk},利用双路TSN网络的公式表示为:
TSN(T1,T2,...,TK)=G(F(T1;W),F(T2;W),...,F(TK;W))
式中,(T1,T2,...,TK)为短片段序列,每一个短片段TK为其对应的段SK中随机采样得到;F(TK;W)函数表示在短片段TK上进行操作并且具有参数W的卷积网络,提取每个子片段中随机采样的图像的特征;G为结合多个短片段特征的段共识函数,以获得他们之间关于类别假设的共识。
结合标准的分类交叉熵损失,得到关于段共识函数G的最终损失函数η(y,G)为:
式中,C是动作类别的总数,yi是第i类对应的真实值,Gi是第i类的段共识函数,Gj是第j类的段共识函数。
由于TSN网络是可微的,这使得我们可以利用多个片段,用标准的反向传播算法联合优化模型参数W。用标准的反向传播算法联合优化模型参数W,在迭代过程中,模型参数W相对于损失值L的梯度可以推导为:
式中,L是指模型在训练过程中每迭代一次所产生的损失值。
在步骤B中,TSN网络采用稀疏采样的方法提取视频序列中的短片段,短片段沿时间维均匀分布,并采用分段结构从短片段中聚合信息,使时间网能够对整个视频进行长时间建模。
局部TSN_L网络空间网的输入是将主要人物候选框序列等间隔均匀分段,然后从每一段中随机挑选N张送入到局部TSN_L网络空间网中,捕获单人局部空间外观信息局部TSN_L网络时间网的输入是将主要人物候选框序列所对应的光流信息等间隔均匀分段,然后从每一段中随机挑选连续M帧光流图像送入局部TSN_L网络时间网中,得到单人局部时序运动信息
全局TSN_G网络空间网的输入是将整段视频序列进行等间隔均匀分段,然后从每一段中随机挑选N张送入到全局TSN_G网络空间网中,捕获整张图片的全局空间外观信息全局TSN_G网络时间网的输入是将整段视频所对应的光流图像进行等间隔分段,然后从每一段中随机挑选连续M帧光流图像送入到全局TSN_G网络时间网中,得到整张图片全局时序运动信息因此,本申请特征提取网络输入端形成四条支路,这样既提取了全局和局部的外观信息,又提取了全局和局部的运动信息。本申请整体网络架构图如图6所示:
本申请用随机梯度下降(SGD)法来学习模型参数,这种方式使得TSN网络可以从整个视频而不是一小段视频中学习模型参数,通过稀疏时间采样策略,其中只采样视频帧中的一小部分,大大降低了计算成本。TSN获得的时空特征也分别用整个视频时空特征的稀疏表示。
C、特征融合及组群行为识别
在前期,将和进行融合,融合后的特征用fA表示;将和进行融合,融合后的特征用fB表示;将和进行融合,融合后的特征用fC表示;将和进行融合,融合后的特征用fD表示。
在中期,在四路融合后的特征fA、fB、fC和fD上分别加一个通道注意力模型,让每个通道的特征学习一个权重系数,特征的重要性越大,则学习到的权重系数就大;反之,则小,四路融合后的特征fA、fB、fC和fD在分别通过注意力模型之后的输出为:
W1×fA,W2×fB,W3×fC,W4×fD
式中,W1、W2、W3、W4为权重系数。
在后期,经过注意力模型输出的四路特征后面分别连接LSTM网络,捕获视频中长期依赖关系,从而获得帧与帧之间的时序上下文关系,生成组群级特征表示;每个LSTM网络直接连接softmax层,经过softmax层之后的四路特征分别用Q1、Q2、Q3和Q4表示:
Q1=softmax(W1×fA)
Q2=softmax(W2×fB)
Q3=softmax(W3×fC)
Q4=softmax(W4×fD)
将Q1、Q2、Q3和Q4进行分数融合,得出视频序列中的组群行为类别。以视频中大多数人的行为作为组群行为类别,最终获得整个组群行为的标签。
给定场景中每个人的边界框,通过使用LSTM网络来表示每个人动作上的时间信息,这些时间信息是空间特征的补充,对性能至关重要。LSTMs中的存储内容使其适合于建模复杂的时间关系,这些时间关系可能跨越很长的范围。LSTM网络存储单元的内容由几个控制进出存储单元信息流的控制单元控制,这些控制单元提供的控制有助于避免假的梯度更新,这通常发生在训练RNNs时,由于时间输入长度很大,这个属性使我们能够堆叠大量这样的层,以便学习在不同范围的输入中呈现的复杂动态。
假定xt为LSTM网络在t时刻的输入,激活单元公式可以表示为:
it=σ(Wxixt+Whiht-1+bi)
ft=σ(Wxfxt+Whfht-1+bf)
ot=σ(Wxoxt+Whoht-1+bo)
gt=φ(Wxcxt+Whcht-1+bc)
ct=ft☉ct-1+it☉gt
ht=ot☉φ(ct)
其中,σ表示sigmoid函数,φ表示tanh函数,xt表示输入,ht∈RN表示隐藏层状态,里面有N个隐藏单元,ct∈RN表示存储单元,it∈RN,ft∈RN,ot∈RN以及gt∈RN分别表示输入门,遗忘门,输出门,在t时刻的输入调制门;☉表示表示数组元素依次相乘。
由于LSTM网络具有捕获长期时序信息的能力,因此,本申请在经过通道注意力模型输出的四路特征后面分别连接LSTM网络,捕获帧与帧之间的上下文时序信息,生成组群级特征表示,直接连接softmax层,经过softmax层的四路特征进行分数融合,以得出视频序列中的组群行为类别。更具体地说,本申请将四路通道注意力模型模型的输出作为LSTM网络的输入,LSTM网络的输出维数设置为类的数量。并以视频中大多数人的行为作为组群行为类别,最终获得整个组群行为的标签。
D、对模型进行训练和测试。
本申请在训练整个模型时,采用分段训练来学习模型参数。将TSN网络与LSTM网络分别进行训练,并将数据集按照3:1的比例进行划分,将数据集中3/4的数据进行训练,1/4的数据进行测试与验证,得出数据集中各类行为的准确率以及平均识别精度。
本申请训练部分使用CAD或者排球两个公开数据集。其中,CAD数据集包含由低分辨率手持相机收集的44个视频片段,五类行为标签:Crossing,Waiting,Queuing,Walking,Talking;八种姿势标签(实验中未使用);五种组群行为标签:Crossing,Waiting,Queuing,Walking,Talking。根据大多数人在场景中所做的事情,场景被赋予小组行为的标签,以及每个人都有一个行为标签,每一帧图像都有一个场景行为标签。在CAD数据集中,由于“Walking”与“Crossing”类具有相似的视觉特征,因此我们将“Walking”和“Crossing”合并为“Moving”。因此,本申请的CAD数据集中共有四类行为标签:Moving,Waiting,Queuing,Talking。
Volleyball数据集包含55个视频和4830个带注释的帧,每一帧都标注了每个球员的位置、所属行为类别(例如:Waiting,Setting,Digging,Failing,Spiking,Blocking,Jumping,Moving,Standing)和小组行为类别(例如:Leftpass,Rightpass,Left set,Rightset,Left spike,Right spike,Left win point,Right win point)。
以上参考了优选实施例对本发明进行了描述,但本发明的保护范围并不限制于此,在不脱离本发明的范围的情况下,可以对其进行各种改进并且可以用等效物替换其中的部件,只要不存在结构冲突,各个实施例中所提到的各项技术特征均可以任意方式组合起来,且不应将权利要求中的任何附图标记视为限制所涉及的权利要求,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的。因此,任何落入权利要求的范围内的所有技术方案均在本发明的保护范围内。
Claims (8)
1.一种基于多流架构与长短时记忆网络的组群行为识别方法,其特征在于,包括以下步骤:
A、数据预处理
根据数据集中主要人物候选框的标注信息,形成主要人物候选框序列;
分别提取视频中整张图片和主要人物候选框的光流时序信息;
B、通过双路TSN网络分别对主要人物候选框和整张图片的外观和运动特征进行提取,得到单人局部空间外观信息单人局部时序运动信息全局空间外观信息和全局时序运动信息
C、特征融合及组群行为识别
将和进行融合,得到特征fA;将和进行融合,得到特征fB;将和进行融合,得到特征fC;将和进行融合,得到特征fD;
在融合后的特征fA、fB、fC和fD上分别加一个通道注意力模型,并让每个通道的特征学习一个权重系数,特征的重要性越大,则学习到的权重系数就大;反之,则小;
经过通道注意力模型输出的四路特征后面分别连接LSTM网络,捕获视频中长期依赖关系;每个LSTM网络直接连接softmax层,并进行分数融合,得出视频序列中的组群行为类别,根据组群行为类别获得整个组群行为的标签;
D、对模型进行训练和测试。
2.根据权利要求1所述的基于多流架构与长短时记忆网络的组群行为识别方法,其特征在于,所述双路TSN网络包括局部TSN网络TSN_L和全局TSN网络TSN_G,所述局部TSN网络TSN_L对主要人物候选框的外观和运动特征进行提取,所述全局TSN网络TSN_G对整张图片的外观和运动特征进行提取。
3.根据权利要求1所述的基于多流架构与长短时记忆网络的组群行为识别方法,其特征在于,在所述步骤B中,所述TSN网络采用稀疏采样的方法提取视频序列中的短片段,短片段沿时间维均匀分布,并采用分段结构从短片段中聚合信息。
4.根据权利要求1所述的基于多流架构与长短时记忆网络的组群行为识别方法,其特征在于,在所述步骤B中,将视频平均分成k段{S1,S2,...,Sk},利用双路TSN网络的公式表示为:
TSN(T1,T2,...,TK)=G(F(T1;W),F(T2;W),...,F(TK;W))
式中,(T1,T2,...,TK)为短片段序列,每一个短片段TK为其对应的段SK中随机采样得到;F(TK;W)函数表示在短片段TK上进行操作并且具有参数W的卷积网络,提取每个子片段中随机采样的图像的特征;G为结合多个短片段特征的段共识函数。
5.根据权利要求4所述的基于多流架构与长短时记忆网络的组群行为识别方法,其特征在于,在所述步骤B中,结合标准的分类交叉熵损失,得到关于段共识函数G的最终损失函数。
6.根据权利要求5所述的基于多流架构与长短时记忆网络的组群行为识别方法,其特征在于,用标准的反向传播算法联合优化模型参数W。
7.根据权利要求1所述的基于多流架构与长短时记忆网络的组群行为识别方法,其特征在于,在所述步骤D中,将TSN网络与LSTM网络分别进行训练,并将数据集按照3:1的比例进行划分,将数据集中3/4的数据进行训练,1/4的数据进行测试与验证,得出数据集中各类行为的准确率以及平均识别精度。
8.根据权利要求1所述的基于多流架构与长短时记忆网络的组群行为识别方法,其特征在于,所述数据集为CAD数据集或者排球数据集。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910646216.8A CN110516540B (zh) | 2019-07-17 | 2019-07-17 | 基于多流架构与长短时记忆网络的组群行为识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910646216.8A CN110516540B (zh) | 2019-07-17 | 2019-07-17 | 基于多流架构与长短时记忆网络的组群行为识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110516540A true CN110516540A (zh) | 2019-11-29 |
CN110516540B CN110516540B (zh) | 2022-04-29 |
Family
ID=68622981
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910646216.8A Active CN110516540B (zh) | 2019-07-17 | 2019-07-17 | 基于多流架构与长短时记忆网络的组群行为识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110516540B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111476408A (zh) * | 2020-03-26 | 2020-07-31 | 国网江苏省电力有限公司信息通信分公司 | 一种电力通信设备状态预测方法及系统 |
CN112686194A (zh) * | 2021-01-06 | 2021-04-20 | 中山大学 | 第一人称视角动作识别方法、系统及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108280406A (zh) * | 2017-12-30 | 2018-07-13 | 广州海昇计算机科技有限公司 | 一种基于分段双流模型的行为识别方法、系统及装置 |
CN108647641A (zh) * | 2018-05-10 | 2018-10-12 | 北京影谱科技股份有限公司 | 基于双路模型融合的视频行为分割方法和装置 |
CN109993077A (zh) * | 2019-03-18 | 2019-07-09 | 南京信息工程大学 | 一种基于双流网络的行为识别方法 |
-
2019
- 2019-07-17 CN CN201910646216.8A patent/CN110516540B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108280406A (zh) * | 2017-12-30 | 2018-07-13 | 广州海昇计算机科技有限公司 | 一种基于分段双流模型的行为识别方法、系统及装置 |
CN108647641A (zh) * | 2018-05-10 | 2018-10-12 | 北京影谱科技股份有限公司 | 基于双路模型融合的视频行为分割方法和装置 |
CN109993077A (zh) * | 2019-03-18 | 2019-07-09 | 南京信息工程大学 | 一种基于双流网络的行为识别方法 |
Non-Patent Citations (5)
Title |
---|
CHIH-YAO MA ET.AL: "《TS-LSTM and temporal-inception: Exploiting spatiotemporal dynamics for activity recognition》", 《SIGNAL PROCESSING : IMAGE COMMUNICATION》 * |
RAMANATHAN V ET.AL: "《Detecting evebts and key actors in multi-person video》", 《PROCEEDING OF CVPR》 * |
WANG L ET.AL: "《Temporal segment networks: towards good practices for deep action recognition》", 《EUROPEAN CONFERENCE ON COMPUTER VISION》 * |
WENBIN DU ET.AL: "《RPAN: An end-to-end recurrent pose-attention network for action recognition in videos》", 《IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION》 * |
卿粼波等: "基于多流CNN-LSTM网络的群体情绪识别", 《计算机应用研究》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111476408A (zh) * | 2020-03-26 | 2020-07-31 | 国网江苏省电力有限公司信息通信分公司 | 一种电力通信设备状态预测方法及系统 |
CN111476408B (zh) * | 2020-03-26 | 2023-07-25 | 国网江苏省电力有限公司信息通信分公司 | 一种电力通信设备状态预测方法及系统 |
CN112686194A (zh) * | 2021-01-06 | 2021-04-20 | 中山大学 | 第一人称视角动作识别方法、系统及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110516540B (zh) | 2022-04-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Sun et al. | Lattice long short-term memory for human action recognition | |
Sharma et al. | Video processing using deep learning techniques: A systematic literature review | |
Ehsanpour et al. | Joint learning of social groups, individuals action and sub-group activities in videos | |
CN110598598A (zh) | 基于有限样本集的双流卷积神经网络人体行为识别方法 | |
CN110348364B (zh) | 一种无监督聚类与时空域深度网络相结合的篮球视频群体行为识别方法 | |
CN108765394A (zh) | 基于质量评价的目标识别方法 | |
CN111339908B (zh) | 基于多模态信息融合与决策优化的组群行为识别方法 | |
Gammulle et al. | Multi-level sequence GAN for group activity recognition | |
Khan et al. | Deep cnn based data-driven recognition of cricket batting shots | |
Li et al. | Sign language recognition based on computer vision | |
Tomar et al. | Crowd analysis in video surveillance: A review | |
CN110110686A (zh) | 基于多损失双流卷积神经网络的人体动作识别方法 | |
CN110516540A (zh) | 基于多流架构与长短时记忆网络的组群行为识别方法 | |
Hammam et al. | Real-time multiple spatiotemporal action localization and prediction approach using deep learning | |
Elharrouss et al. | Drone-SCNet: Scaled cascade network for crowd counting on drone images | |
Wang et al. | Detection and tracking based tubelet generation for video object detection | |
Park et al. | Binary dense sift flow based two stream CNN for human action recognition | |
Li et al. | Recurrent prediction with spatio-temporal attention for crowd attribute recognition | |
Ahmad et al. | Optimized deep learning-based cricket activity focused network and medium scale benchmark | |
Zhou et al. | Human detection algorithm based on improved yolo v4 | |
US20240177525A1 (en) | Multi-view human action recognition method based on hypergraph learning | |
Wang et al. | Deep learning for scene-independent crowd analysis | |
Zhou et al. | A deep learning algorithm for fast motion video sequences based on improved codebook model | |
Ke et al. | Prediction algorithm and simulation of tennis impact area based on semantic analysis of prior knowledge | |
Wang et al. | Two-branch fusion network with attention map for crowd counting |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |