CN108288032B - 动作特征获取方法、装置及存储介质 - Google Patents

动作特征获取方法、装置及存储介质 Download PDF

Info

Publication number
CN108288032B
CN108288032B CN201810015245.XA CN201810015245A CN108288032B CN 108288032 B CN108288032 B CN 108288032B CN 201810015245 A CN201810015245 A CN 201810015245A CN 108288032 B CN108288032 B CN 108288032B
Authority
CN
China
Prior art keywords
time
hidden layer
target video
moment
calculating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810015245.XA
Other languages
English (en)
Other versions
CN108288032A (zh
Inventor
舒祥波
严锐
马林
唐金辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Tencent Computer Systems Co Ltd
Original Assignee
Shenzhen Tencent Computer Systems Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Tencent Computer Systems Co Ltd filed Critical Shenzhen Tencent Computer Systems Co Ltd
Priority to CN201810015245.XA priority Critical patent/CN108288032B/zh
Publication of CN108288032A publication Critical patent/CN108288032A/zh
Application granted granted Critical
Publication of CN108288032B publication Critical patent/CN108288032B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs

Abstract

本发明实施例公开了一种动作特征获取方法、装置及存储介质,属于计算机技术领域。H‑LSTCM模型中包括输入层、隐藏层、Co‑LSTM层和输出层,该方法包括:在通过隐藏层计算每个对象的隐层状态之后,通过Co‑LSTM层计算目标视频的记忆细胞,通过输出层计算目标视频的输出门,进而根据记忆细胞和输出门计算出目标视频的动作特征Ht。通过Co‑LSTM层有选择地整合并记忆多个对象的交互动作特征,从而保证提取到的动作特征中不仅包含单人动作特征还包括交互动作特征,提高了动作特征的准确率和全面性,并且将提取的上述动作特征应用于动作识别场景,能够提高动作识别的准确率。

Description

动作特征获取方法、装置及存储介质
技术领域
本发明涉及计算机技术领域,特别涉及一种动作特征获取方法、装置及存储介质。
背景技术
动作识别是计算机视觉和模式识别领域的一项重要研究课题,通过动作识别能够自动理解视频中人们所做的动作,可以广泛应用于公共场所监控、人机交互等多种领域。而提取动作特征是动作识别过程的关键环节,只有提取到准确的动作特征,才能准确地进行动作识别。
LSTM(Long Short-Term Memory,长短期记忆)模型是一种常用的动作特征获取方法,LSTM模型中包括输入层、隐藏层和输出层,隐藏层中包括多个单人LSTM模型。考虑到目标视频中通常包括多个对象,则输入层提取出多个对象的图像特征,分别输入到隐藏层的多个单人LSTM模型中,通过多个单人LSTM模型分别获取该多个对象的单人动作特征,之后输出层将多个单人LSTM模型获取到的单人动作特征进行融合,即可得到目标视频的动作特征。其中,单人LSTM模型在获取对象在当前时刻的单人动作特征时,会考虑该对象在上一时刻的单人动作特征以及该对象在当前时刻视频帧中的图像特征。
如图1所示,目标视频中包括对象A和对象B的动作,以获取t时刻的动作特征为例,将对象A在t-1时刻的单人动作特征与对象A在t时刻视频帧中的图像特征输入到单人LSTM模型1中,通过单人LSTM模型1得到对象A在t时刻的单人动作特征,同理通过单人LSTM模型2也会提取到对象B在t时刻的单人动作特征,则将这两个对象的单人动作特征进行融合,即可得到t时刻视频帧的动作特征。
但是,目标视频中不仅包括单人动作还可能会包括交互动作,如握手、拥抱、说话等,而上述动作特征获取方法将多个对象看作是独立的个体,忽略了不同对象动作之间的关联性,无法提取到交互动作的动作特征。
发明内容
本发明实施例提供了一种动作特征获取方法、装置及存储介质,可以解决相关技术的问题。所述技术方案如下:
第一方面,提供了一种动作特征获取方法,具有层次性的长短期并发记忆H-LSTCM模型中包括输入层、隐藏层、长短期并发记忆Co-LSTM层和输出层,所述隐藏层中包括多个单人LSTM模型;所述方法包括:
通过所述输入层,根据目标视频在t时刻的视频帧中的p个对象,提取每个对象s在所述t时刻的图像特征
Figure GDA0002649466140000021
所述目标视频包括T个时刻的视频帧,s∈{1,2,…p},t∈{1,2,…T},p和T为大于1的整数;
通过所述隐藏层中与每个对象s对应的单人LSTM模型,根据每个对象s在t-1时刻的隐层状态
Figure GDA0002649466140000022
和每个对象s在所述t时刻的图像特征
Figure GDA0002649466140000023
获取每个对象s在所述t时刻的隐层状态
Figure GDA0002649466140000024
所述
Figure GDA0002649466140000025
由与每个对象s对应的单人LSTM模型在所述t-1时刻获取;
通过所述Co-LSTM层,根据所述目标视频在所述t-1时刻的隐层状态ht-1和每个对象s在所述t时刻的隐层状态
Figure GDA0002649466140000026
计算所述目标视频在所述t时刻的记忆细胞Ct,所述记忆细胞Ct用于记忆所述p个对象在所述t时刻的隐层状态中的交互动作特征;
通过所述输出层,根据所述目标视频在所述t-1时刻的隐层状态ht-1和每个对象s在所述t时刻的隐层状态
Figure GDA0002649466140000027
计算所述目标视频在所述t时刻的输出门Ot,所述输出门Ot用于确定所述p个对象在所述t时刻的隐层状态中需要输出的动作特征;
根据所述目标视频在所述t时刻的记忆细胞Ct和输出门Ot,计算所述目标视频在所述t时刻的动作特征Ht
第二方面,提供了一种动作特征获取装置,所述装置包括:输入层模块、隐藏层模块、并发记忆模块和输出层模块,所述隐藏层模块包括多个单人隐层子模块;
所述输入层模块,用于根据目标视频在t时刻的视频帧中的p个对象,提取每个对象s在所述t时刻的图像特征
Figure GDA0002649466140000028
所述目标视频包括T个时刻的视频帧,s∈{1,2,…p},t∈{1,2,…T},p和T为大于1的整数;
所述每个单人隐层子模块,用于根据每个对象s在t-1时刻的隐层状态
Figure GDA0002649466140000031
和每个对象s在所述t时刻的图像特征
Figure GDA0002649466140000032
获取每个对象s在所述t时刻的隐层状态
Figure GDA0002649466140000033
所述
Figure GDA0002649466140000034
由与每个对象s对应的单人LSTM模型在所述t-1时刻获取;
所述并发记忆模块,用于根据所述目标视频在所述t-1时刻的隐层状态ht-1和每个对象s在所述t时刻的隐层状态
Figure GDA0002649466140000035
计算所述目标视频在所述t时刻的记忆细胞Ct,所述记忆细胞Ct用于记忆所述p个对象在所述t时刻的隐层状态中的交互动作特征;
所述输出层模块,用于根据所述目标视频在所述t-1时刻的隐层状态ht-1和每个对象s在所述t时刻的隐层状态
Figure GDA0002649466140000036
计算所述目标视频在所述t时刻的输出门Ot,所述输出门
Figure GDA0002649466140000037
用于确定所述p个对象在所述t时刻的隐层状态中需要输出的动作特征;
所述输出层模块,还用于根据所述目标视频在所述t时刻的记忆细胞Ct和输出门Ot,计算所述目标视频在所述t时刻的动作特征Ht
第三方面,提供了一种动作特征获取装置,所述动作特征获取装置包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述指令、所述程序、所述代码集或所述指令集由所述处理器加载并执行以实现如第一方面所述的动作特征获取方法中所执行的操作。
第四方面,提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述指令、所述程序、所述代码集或所述指令集由处理器加载并执行以实现如第一方面所述的动作特征获取方法中所执行的操作。
本发明实施例提供的技术方案带来的有益效果是:
本发明实施例提供的方法、装置及存储介质,提供了一种H-LSTCM模型,H-LSTCM模型包括输入层、隐藏层、Co-LSTM层和输出层,在通过隐藏层计算出隐层状态之后,通过Co-LSTM层有选择地整合并记忆多个对象的交互动作特征,从而保证提取到的动作特征中不仅包含单人动作特征还包括交互动作特征,提高了动作特征的准确率和全面性,并且将提取的上述动作特征应用于动作识别场景,能够提高动作识别的准确率。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种LSTM模型的结构示意图;
图2是本发明实施例提供的一种H-LSTCM模型的结构示意图;
图3是本发明实施例提供的一种动作特征获取方法的流程图;
图4是本发明实施例提供的一种H-LSTCM模型的Co-LSTM层和输出层的结构示意图;
图5是本发明实施例提供的一种动作特征获取装置的结构示意图;
图6是本发明一个示例性实施例提供的终端的结构框图;
图7是本发明实施例提供的一种服务器的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供了一种H-LSTCM(Hierarchical Long Short-Term ConcurrentMemories,具有层次性的长短期并发记忆)模型,该H-LSTCM模型在提取目标视频的动作特征时,不仅可以提取到每个对象的单人动作特征,而且还能提取到不同对象之间的并发关联动作而产生的交互动作特征。
该H-LSTCM模型可以应用于动作识别的场景下,如视频录制应用或者拍照应用中,能够有效地实现对图像或视频中的人物分析与动作理解。在H-LSTCM模型的训练过程中,针对多个样本视频,可以通过H-LSTCM模型获取这些样本视频的动作特征,包括单人动作特征和交互动作特征,并根据提取的动作特征训练H-LSTCM模型,确定H-LSTCM模型中的模型参数,如权重矩阵和偏置向量等。之后,通过训练好的H-LSTCM模型即可获取任一视频的动作特征,并根据获取的动作特征识别出该视频中的单人动作和交互动作。
例如,通过H-LSTCM模型不仅可以识别出视频中的单人动作,如挥手、走路等,还可以识别出视频中的交互动作,如拥抱、握手等。
图2是本发明实施例提供的一种H-LSTCM模型的结构示意图,通过H-LSTCM模型可以提取目标视频的动作特征,该动作特征包含单人动作特征和交互动作特征。
参见图2,H-LSTCM模型包括输入层、隐藏层、Co-LSTM(Concurrent LSTM,长短期并发记忆)层和输出层,隐藏层中包括多个单人LSTM模型,Co-LSTM层包括多个子记忆单元和一个联合记忆单元,多个子记忆单元与多个单人LSTM模型一一对应。
其中,输入层根据目标视频中多个对象的动作信息,提取多个对象的图像特征,输入至隐藏层中;隐藏层中的每个单人LSTM模型根据相应对象的图像特征,获取该对象的隐层状态;Co-LSTM层中,每个子记忆单元存储各个对象的相关特征,控制对应子记忆单元内的交互动作特征进入联合记忆单元,在联合记忆单元中,有选择地整合和存储多个对象之间的交互动作特征,从而捕捉所有交互的对象产生的交互动作特征。
图3是本发明实施例提供的一种动作特征获取方法的流程图,该动作特征获取方法的执行主体为获取装置,该获取装置可以为服务器或者手机、计算机等终端。参见图3,该方法包括:
301、通过输入层,根据目标视频在t时刻的视频帧中的p个对象,提取每个对象s在t时刻的图像特征
Figure GDA0002649466140000051
目标视频包括T个时刻的视频帧,s∈{1,2,…p},t∈{1,2,…T},p和T为大于1的整数。
其中,目标视频为需要获取动作特征的视频,可以为训练H-LSTCM模型过程中的样本视频,或者也可以为需要识别动作类别的视频。且,该目标视频可以为生成的视频文件,或者也可以为实时监控系统中采集的视频等。
针对该目标视频,可以将该目标视频划分为T个时刻的视频帧,T为大于1的整数。本发明实施例以提取目标视频在t时刻的动作特征为例,对于t时刻的视频帧中的每个对象,追踪出该对象在该视频帧中的动作信息,该动作信息可以表示该对象的动作轨迹,采用特征提取算法对该动作信息进行特征提取可以得到对应的图像特征。其中,采用的特征提取算法可以为CNN(Convolutional Neural Network,卷积神经网络)特征提取算法、图像变换算法、方向梯度直方图等。
目标视频中包括p个对象,采用上述提取特征的方式,可以提取每个对象s在t时刻的图像特征
Figure GDA0002649466140000061
s∈{1,2,…p},p为大于1的整数。进一步地,针对目标视频中的每个时刻,可以提取每个对象在每个时刻t的图像特征,包括:
Figure GDA0002649466140000062
302、通过隐藏层中与每个对象s对应的单人LSTM模型,根据每个对象s在t-1时刻的隐层状态
Figure GDA0002649466140000063
和每个对象s在t时刻的图像特征
Figure GDA0002649466140000064
获取每个对象s在t时刻的隐层状态
Figure GDA0002649466140000065
Figure GDA0002649466140000066
由与每个对象s对应的单人LSTM模型在t-1时刻获取。
隐藏层中包括p个单人LSTM模型,与目标对象中的p个对象一一对应,分别用于获取每个对象的隐层状态。
针对每个对象s,将输入层输出的图像特征
Figure GDA0002649466140000067
输入至对应的单人LSTM模型中,并且还会将每个单人LSTM模型在t-1时刻输出的隐层状态输入至当前t时刻的单人LSTM模型中,即将对象s在t-1时刻的隐层状态
Figure GDA0002649466140000068
输入至当前t时刻的单人LSTM模型中,通过单人LSTM模型获取对象s在t时刻的隐层状态
Figure GDA0002649466140000069
具体地,通过隐藏层计算每个对象s在t时刻的隐层状态
Figure GDA00026494661400000610
包括:
1、计算每个对象s在t时刻的输入门
Figure GDA00026494661400000611
Figure GDA00026494661400000612
Figure GDA00026494661400000613
表示隐藏层中每个对象s的输入门与输入层之间的权重矩阵,
Figure GDA00026494661400000614
表示隐藏层中每个对象s的输入门与隐藏层之间的权重矩阵,
Figure GDA00026494661400000615
表示隐藏层中每个对象s的输入门的偏置向量。
2、计算每个对象s在t时刻的遗忘门
Figure GDA00026494661400000616
Figure GDA00026494661400000617
Figure GDA00026494661400000618
表示隐藏层中每个对象s的遗忘门与输入层之间的权重矩阵,
Figure GDA00026494661400000619
表示隐藏层中每个对象s的遗忘门与隐藏层之间的权重矩阵,
Figure GDA00026494661400000620
表示隐藏层中每个对象s的遗忘门的偏置向量。
3、计算每个对象s在t时刻的记忆细胞
Figure GDA0002649466140000071
Figure GDA0002649466140000072
Figure GDA0002649466140000073
Figure GDA0002649466140000074
表示隐藏层中每个对象s的记忆细胞与输入层之间的权重矩阵,
Figure GDA0002649466140000075
表示隐藏层中每个对象s的记忆细胞与隐藏层之间的权重矩阵,
Figure GDA0002649466140000076
表示隐藏层中每个对象s的记忆细胞的偏置向量。
4、计算每个对象s在t时刻的输出门ot
Figure GDA0002649466140000077
Figure GDA0002649466140000078
表示隐藏层中每个对象s的输出门与输入层之间的权重矩阵,Woh表示隐藏层中的输出门与隐藏层之间的权重矩阵,bo表示隐藏层中的输出门的偏置向量。
5、计算每个对象s在t时刻的隐层状态ht
Figure GDA0002649466140000079
其中,σ(·)为阈值函数,
Figure GDA00026494661400000710
为双曲正切函数,×为向量的点乘函数。
303、通过Co-LSTM层的每个子记忆单元,根据目标视频在t-1时刻的隐层状态ht-1和每个对象s在t时刻的隐层状态
Figure GDA00026494661400000711
计算每个对象s在t时刻的输入门
Figure GDA00026494661400000712
Co-LSTM层包括多个子记忆单元和一个联合记忆单元,隐藏层中的每个单人LSTM模型输出的隐层状态传入到Co-LSTM层中对应的子记忆单元,通过子记忆单元计算后传入到联合记忆单元中,最后在联合记忆单元中进行整合以后输出动作特征。
首先,将目标视频在t-1时刻的隐层状态ht-1和每个对象s在t时刻的隐层状态
Figure GDA00026494661400000713
输入至子记忆单元中,通过子记忆单元计算出输入门
Figure GDA00026494661400000714
该输入门
Figure GDA00026494661400000715
用于保留每个对象s在t时刻的隐层状态中的相关特征。实际应用中,该输入门
Figure GDA00026494661400000716
可以以每个对象s在t时刻的隐层状态的影响程度来表示,输入门越大表示对象s的隐层状态的影响越大,越可能是相关特征,也越应当被保留。
在一种可能实现方式中,根据目标视频在t-1时刻的隐层状态ht-1和每个对象s在t时刻的隐层状态
Figure GDA00026494661400000717
采用以下公式计算每个对象s在t时刻的输入门
Figure GDA00026494661400000718
Figure GDA00026494661400000719
其中,σ(·)为阈值函数,
Figure GDA00026494661400000720
表示每个对象s的输入门与输入层之间的权重矩阵,表示每个对象s的输入门与隐藏层之间的权重矩阵,
Figure GDA00026494661400000722
表示每个对象s的输入门的偏置向量。
304、根据目标视频在t-1时刻的隐层状态ht-1和每个对象s在t时刻的隐层状态
Figure GDA0002649466140000081
计算每个对象s在t时刻的遗忘门
Figure GDA0002649466140000082
将目标视频在t-1时刻的隐层状态ht-1和每个对象s在t时刻的隐层状态
Figure GDA0002649466140000083
输入至子记忆单元中,通过子记忆单元计算出遗忘门
Figure GDA0002649466140000084
该遗忘门
Figure GDA0002649466140000085
用于将每个对象s在t时刻的隐层状态中的不相关特征去除,从而剩余相关特征。实际应用中,遗忘门
Figure GDA0002649466140000086
可以以对象s在t时刻的隐层状态需要被记忆的程度来表示,遗忘门
Figure GDA0002649466140000087
越大表示对象s的动作特征越应当被记忆。
在一种可能实现方式中,根据目标视频在t-1时刻的隐层状态ht-1和每个对象s在t时刻的隐层状态
Figure GDA0002649466140000088
采用以下公式计算每个对象s在t时刻的遗忘门
Figure GDA0002649466140000089
Figure GDA00026494661400000810
其中,σ(·)为阈值函数,
Figure GDA00026494661400000811
表示每个对象s的遗忘门与输入层之间的权重矩阵,
Figure GDA00026494661400000812
表示每个对象s的遗忘门与隐藏层之间的权重矩阵,
Figure GDA00026494661400000813
表示每个对象s的遗忘门的偏置向量。
305、根据目标视频在t-1时刻的隐层状态ht-1、每个对象s在t时刻的隐层状态
Figure GDA00026494661400000814
输入门
Figure GDA00026494661400000815
和遗忘门
Figure GDA00026494661400000816
每个对象s在t-1时刻的记忆细胞
Figure GDA00026494661400000817
计算每个对象s在t时刻的记忆细胞
Figure GDA00026494661400000818
其中,记忆细胞
Figure GDA00026494661400000819
用于记忆每个对象s在t时刻的隐层状态中提取的相关特征,通过记忆细胞
Figure GDA00026494661400000820
可以将选择保留的动作特征记忆下来。
在一种可能实现方式中,采用以下公式,计算每个对象s在t时刻的记忆细胞
Figure GDA00026494661400000821
Figure GDA00026494661400000822
Figure GDA00026494661400000823
其中,
Figure GDA00026494661400000824
为双曲正切函数,×为向量的点乘函数,
Figure GDA00026494661400000825
表示每个对象s的记忆细胞与输入层之间的权重矩阵,
Figure GDA00026494661400000826
表示每个对象s的记忆细胞与隐藏层之间的权重矩阵,
Figure GDA00026494661400000827
表示每个对象s的记忆细胞的偏置向量。
306、根据目标视频在t-1时刻的隐层状态ht-1和每个对象s在t时刻的隐层状态
Figure GDA00026494661400000828
计算每个对象s在t时刻的细胞门
Figure GDA00026494661400000829
其中,细胞门
Figure GDA00026494661400000830
用于从每个对象s在t时刻的隐层状态中提取交互动作特征。
在一种可能实现方式中,采用以下公式计算每个对象s在t时刻的细胞门
Figure GDA00026494661400000831
Figure GDA00026494661400000832
其中,σ(·)为阈值函数,
Figure GDA0002649466140000091
表示每个对象s的细胞门与隐藏层之间的权重矩阵,Wπh表示Co-LSTM层中的细胞门与隐藏层之间的权重矩阵,bπ表示细胞门的偏置向量。
307、通过联合记忆单元,根据每个对象s在t时刻的记忆细胞
Figure GDA0002649466140000092
和细胞门
Figure GDA0002649466140000093
计算目标视频在t时刻的记忆细胞Ct
多个子记忆单元向联合记忆单元输出记忆细胞
Figure GDA0002649466140000094
和细胞门
Figure GDA0002649466140000095
由联合记忆单元根据每个对象s在t时刻的记忆细胞
Figure GDA0002649466140000096
和细胞门
Figure GDA0002649466140000097
进行整合,计算目标视频在t时刻的记忆细胞Ct,记忆细胞Ct用于记忆p个对象在t时刻的隐层状态中的交互动作特征。
在一种可能实现方式中,采用以下公式,计算目标视频在t时刻的记忆细胞
Figure GDA0002649466140000098
×为向量的点乘函数。
本发明实施例中,在LSTCM模型的基础上添加了Co-LSTM层,通过Co-LSTM层,能够根据目标视频在t-1时刻的隐层状态ht-1和每个对象s在t时刻的隐层状态
Figure GDA0002649466140000099
计算目标视频在t时刻的记忆细胞Ct,从而记忆交互动作特征。
308、通过输出层,根据目标视频在t-1时刻的隐层状态ht-1和每个对象s在t时刻的隐层状态
Figure GDA00026494661400000910
计算目标视频在t时刻的输出门Ot
隐藏层将目标视频在t-1时刻的隐层状态ht-1和每个对象s在t时刻的隐层状态
Figure GDA00026494661400000911
输入至输出层中,通过输出层计算出输出门Ot,输出门Ot用于确定p个对象在t时刻的隐层状态中需要输出的动作特征。
在一种可能实现方式中,采用以下公式,计算目标视频在t时刻的输出门Ot
Figure GDA00026494661400000912
其中,σ(·)为阈值函数,
Figure GDA00026494661400000913
表示每个对象s的输出门与输入层之间的权重矩阵,Woh表示输出门与隐藏层之间的权重矩阵,bo表示输出门的偏置向量。
309、根据目标视频在t时刻的记忆细胞Ct和输出门Ot,计算目标视频在t时刻的动作特征Ht
在一种可能实现方式中,采用以下公式,计算目标视频在t时刻的动作特征
Figure GDA00026494661400000914
Figure GDA00026494661400000915
为双曲正切函数,×为向量的点乘函数。
在一种可能实现方式中,针对需要进行动作识别的目标视频,当提取到目标视频在t时刻的动作特征Ht之后,可以采用以下公式,计算目标视频在t时刻的视频帧属于每个交互动作类别的概率:
Figure GDA0002649466140000101
Figure GDA0002649466140000102
其中,Wzh表示交互动作类别与隐藏层之间的权重矩阵,bz表示交互动作类别的偏置向量,zt包括k个维度,zt,l为zt在第l个维度上的元素值表示第l个交互动作类别的置信度,l∈{1,2,…k},zt,j为zt在第j个维度上的元素值,表示第j个交互动作类别的置信度,j∈{1,2,…k},yt,l表示目标视频在t时刻的视频帧属于第l个交互动作类别的概率,则yt,l中概率最大的交互动作类别即为目标视频在t时刻的视频帧所属的交互动作类别。
需要说明的一点是,采用本发明实施例提供的方法,可以通过H-LSTCM模型提取出目标视频在每个时刻的动作特征,从而捕捉到目标视频随时间而产生的动作特征序列。
需要说明的另一点是,本发明实施例提供了一种H-LSTCM模型的网络架构,其中,在隐藏层之后的Co-LSTM层和输出层的网络架构可以如图4所示。基于该H-LSTCM模型的网络架构,可以根据多个样本视频进行训练,确定H-LSTCM模型中的模型参数,包括上述权重矩阵和偏置向量等,之后即可应用该H-LSTCM模型进行动作识别。
相关技术中的LSTM模型是递归神经网络的一种变体,它允许网络去学习何时忘记前馈输入及何时更新隐层状态。然而,目前的递归神经网络忽略了群体内不同个体间关联信息随时间的变化。因此,本发明实施例有针对性地提供了一种H-LSTCM模型,能够对多个个体的动作信息进行建模,通过细胞门将个体的动作特征从单个子记忆单元中有选择地提取出更具有判别性的并发关联动作特征,并存储到新的联合记忆单元中,更有效地捕捉群体内不同个体间长期关联的动作信息,以识别个体之间的交互动作。整体来看,堆叠的Co-LSTM层能在一个时间序列中呈现递归传递,以捕捉所有交互的个体随时间而产生的并发关联动作信息。通过针对三个群体动作进行大量的实验,验证了H-LSTCM模型的有效性。
本发明实施例提供的方法、装置及存储介质,提供了一种H-LSTCM模型,H-LSTCM模型包括输入层、隐藏层、Co-LSTM层和输出层,在通过隐藏层计算出隐层状态之后,通过Co-LSTM层中的子记忆单元和联合记忆单元,有选择地整合并记忆多个对象的相关特征,去除不相关的特征,从而保证提取到的动作特征中不仅包含单人动作特征还包括交互动作特征,提高了动作特征的准确率和全面性,并且将提取的上述动作特征应用于动作识别场景,能够提高动作识别的准确率。
图4是本发明实施例提供的一种动作特征获取装置的结构示意图。参见图4,该装置包括:输入层模块501、隐藏层模块502、并发记忆模块503和输出层模块504,隐藏层模块502包括多个单人隐层子模块5021;
输入层模块501,用于执行上述实施例中提取图像特征的步骤;
单人隐层子模块5021,用于执行上述实施例中获取隐层状态的步骤;
并发记忆模块503,用于执行上述实施例中计算目标视频的记忆细胞的步骤;
输出层模块504,用于执行上述实施例中计算目标视频的输出门并计算动作特征的步骤。
在一种可能实现方式中,并发记忆模块503包括多个单人记忆子模块5031和一个联合记忆子模块5032,多个单人记忆子模块5031与多个单人隐层子模块5021一一对应。
单人记忆子模块5031,用于执行上述实施例中计算记忆细胞和细胞门的步骤;
联合记忆子模块5032,用于执行上述实施例中根据记忆细胞和细胞门计算目标视频的记忆细胞的步骤。
在一种可能实现方式中,该输出层模块504还用于执行上述实施例中计算目标视频在t时刻的视频帧属于每个交互动作类别的概率的步骤。
需要说明的是:上述实施例提供的动作特征获取装置在获取动作特征时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将获取装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的动作特征获取装置与动作特征获取方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图6示出了本发明一个示例性实施例提供的终端600的结构框图。该终端600可以是便携式移动终端,比如:智能手机、平板电脑、MP3播放器(Moving Picture ExpertsGroup Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving PictureExperts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、笔记本电脑或台式电脑。终端600还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
通常,终端600包括有:处理器601和存储器602。
处理器601可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器601可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器601也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器601可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器601还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器602可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器602还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器602中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器601所执行以实现本申请中方法实施例提供的动作特征获取方法。
在一些实施例中,终端600还可选包括有:外围设备接口603和至少一个外围设备。处理器601、存储器602和外围设备接口603之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口603相连。具体地,外围设备包括:射频电路604、触摸显示屏605、摄像头606、音频电路607、定位组件608和电源609中的至少一种。
外围设备接口603可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器601和存储器602。在一些实施例中,处理器601、存储器602和外围设备接口603被集成在同一芯片或电路板上;在一些其他实施例中,处理器601、存储器602和外围设备接口603中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路604用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路604通过电磁信号与通信网络以及其他通信设备进行通信。射频电路604将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路604包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路604可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:万维网、城域网、内联网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路604还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏605用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏605是触摸显示屏时,显示屏605还具有采集在显示屏605的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器601进行处理。此时,显示屏605还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏605可以为一个,设置终端600的前面板;在另一些实施例中,显示屏605可以为至少两个,分别设置在终端600的不同表面或呈折叠设计;在再一些实施例中,显示屏605可以是柔性显示屏,设置在终端600的弯曲表面上或折叠面上。甚至,显示屏605还可以设置成非矩形的不规则图形,也即异形屏。显示屏605可以采用LCD(LiquidCrystal Display,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件606用于采集图像或视频。可选地,摄像头组件606包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件606还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路607可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器601进行处理,或者输入至射频电路604以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在终端600的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器601或射频电路604的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路607还可以包括耳机插孔。
定位组件608用于定位终端600的当前地理位置,以实现导航或LBS(LocationBased Service,基于位置的服务)。定位组件608可以是基于美国的GPS(GlobalPositioning System,全球定位系统)、中国的北斗系统或俄罗斯的格雷纳斯系统或欧盟的伽利略系统的定位组件。
电源609用于为终端600中的各个组件进行供电。电源609可以是交流电、直流电、一次性电池或可充电电池。当电源609包括可充电电池时,该可充电电池可以支持有线充电或无线充电。该可充电电池还可以用于支持快充技术。
在一些实施例中,终端600还包括有一个或多个传感器610。该一个或多个传感器610包括但不限于:加速度传感器611、陀螺仪传感器612、压力传感器613、指纹传感器614、光学传感器615以及接近传感器616。
加速度传感器611可以检测以终端600建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器611可以用于检测重力加速度在三个坐标轴上的分量。处理器601可以根据加速度传感器611采集的重力加速度信号,控制触摸显示屏605以横向视图或纵向视图进行用户界面的显示。加速度传感器611还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器612可以检测终端600的机体方向及转动角度,陀螺仪传感器612可以与加速度传感器611协同采集用户对终端600的3D动作。处理器601根据陀螺仪传感器612采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器613可以设置在终端600的侧边框和/或触摸显示屏605的下层。当压力传感器613设置在终端600的侧边框时,可以检测用户对终端600的握持信号,由处理器601根据压力传感器613采集的握持信号进行左右手识别或快捷操作。当压力传感器613设置在触摸显示屏605的下层时,由处理器601根据用户对触摸显示屏605的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器614用于采集用户的指纹,由处理器601根据指纹传感器614采集到的指纹识别用户的身份,或者,由指纹传感器614根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器601授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器614可以被设置终端600的正面、背面或侧面。当终端600上设置有物理按键或厂商Logo时,指纹传感器614可以与物理按键或厂商标志集成在一起。
光学传感器615用于采集环境光强度。在一个实施例中,处理器601可以根据光学传感器615采集的环境光强度,控制触摸显示屏605的显示亮度。具体地,当环境光强度较高时,调高触摸显示屏605的显示亮度;当环境光强度较低时,调低触摸显示屏605的显示亮度。在另一个实施例中,处理器601还可以根据光学传感器615采集的环境光强度,动态调整摄像头组件606的拍摄参数。
接近传感器616,也称距离传感器,通常设置在终端600的前面板。接近传感器616用于采集用户与终端600的正面之间的距离。在一个实施例中,当接近传感器616检测到用户与终端600的正面之间的距离逐渐变小时,由处理器601控制触摸显示屏605从亮屏状态切换为息屏状态;当接近传感器616检测到用户与终端600的正面之间的距离逐渐变大时,由处理器601控制触摸显示屏605从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图6中示出的结构并不构成对终端600的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
图7是本发明实施例提供的一种服务器的结构示意图,该服务器700可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上处理器(central processingunits,CPU)701和一个或一个以上的存储器702,其中,所述存储器702中存储有至少一条指令,所述至少一条指令由所述处理器701加载并执行以实现上述各个方法实施例提供的方法。当然,该服务器还可以具有有线或无线网络接口、键盘以及输入输出接口等部件,以便进行输入输出,该服务器还可以包括其他用于实现设备功能的部件,在此不做赘述。
服务器700可以用于执行上述动作特征获取方法中获取装置所执行的步骤。
本发明实施例还提供了一种动作特征获取装置,该动作特征获取装置包括处理器和存储器,存储器中存储有至少一条指令、至少一段程序、代码集或指令集,指令、程序、代码集或指令集由处理器加载并执行以实现上述实施例的动作特征获取方法中所执行的操作。
本发明实施例还提供了一种计算机可读存储介质,该计算机可读存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,该指令、该程序、该代码集或该指令集由处理器加载并执行以实现上述实施例的动作特征获取方法中所执行的操作。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (14)

1.一种动作特征获取方法,其特征在于,具有层次性的长短期并发记忆H-LSTCM模型中包括输入层、隐藏层、长短期并发记忆Co-LSTM层和输出层,所述隐藏层中包括多个单人LSTM模型,所述方法包括:
通过所述输入层,根据目标视频在t时刻的视频帧中的p个对象,提取每个对象s在所述t时刻的图像特征
Figure FDA0002649466130000011
所述目标视频包括T个时刻的视频帧,s∈{1,2,…p},t∈{1,2,…T},p和T为大于1的整数;
通过所述隐藏层中与每个对象s对应的单人LSTM模型,根据每个对象s在t-1时刻的隐层状态
Figure FDA0002649466130000012
和每个对象s在所述t时刻的图像特征
Figure FDA0002649466130000013
获取每个对象s在所述t时刻的隐层状态
Figure FDA0002649466130000014
所述
Figure FDA0002649466130000015
由与每个对象s对应的单人LSTM模型在所述t-1时刻获取;
通过所述Co-LSTM层,根据所述目标视频在所述t-1时刻的隐层状态ht-1和每个对象s在所述t时刻的隐层状态
Figure FDA0002649466130000016
计算所述目标视频在所述t时刻的记忆细胞Ct,所述记忆细胞Ct用于记忆所述p个对象在所述t时刻的隐层状态中的交互动作特征;
通过所述输出层,根据所述目标视频在所述t-1时刻的隐层状态ht-1和每个对象s在所述t时刻的隐层状态
Figure FDA0002649466130000017
计算所述目标视频在所述t时刻的输出门Ot,所述输出门Ot用于确定所述p个对象在所述t时刻的隐层状态中需要输出的动作特征;
根据所述目标视频在所述t时刻的记忆细胞Ct和输出门Ot,计算所述目标视频在所述t时刻的动作特征Ht
2.根据权利要求1所述的方法,其特征在于,所述Co-LSTM层包括多个子记忆单元和一个联合记忆单元,所述多个子记忆单元与所述多个单人LSTM模型一一对应;所述通过所述Co-LSTM层,根据所述目标视频在所述t-1时刻的隐层状态ht-1和每个对象s在所述t时刻的隐层状态
Figure FDA0002649466130000018
计算所述目标视频在所述t时刻的记忆细胞Ct,包括:
通过所述Co-LSTM层的每个子记忆单元,根据所述目标视频在所述t-1时刻的隐层状态ht-1和每个对象s在所述t时刻的隐层状态
Figure FDA0002649466130000019
计算每个对象s在所述t时刻的记忆细胞
Figure FDA0002649466130000021
和细胞门
Figure FDA0002649466130000022
所述记忆细胞
Figure FDA0002649466130000023
用于记忆每个对象s在所述t时刻的隐层状态中提取的相关特征,所述细胞门
Figure FDA0002649466130000024
用于从每个对象s在所述t时刻的隐层状态中提取相关特征;
通过所述联合记忆单元,根据每个对象s在所述t时刻的记忆细胞
Figure FDA0002649466130000025
和细胞门
Figure FDA0002649466130000026
计算所述目标视频在所述t时刻的记忆细胞Ct
3.根据权利要求2所述的方法,其特征在于,所述通过所述Co-LSTM层的每个子记忆单元,根据所述目标视频在所述t-1时刻的隐层状态ht-1和每个对象s在所述t时刻的隐层状态
Figure FDA0002649466130000027
计算每个对象s在所述t时刻的记忆细胞
Figure FDA0002649466130000028
和细胞门
Figure FDA0002649466130000029
包括:
根据所述目标视频在所述t-1时刻的隐层状态ht-1和每个对象s在所述t时刻的隐层状态
Figure FDA00026494661300000210
计算每个对象s在所述t时刻的输入门
Figure FDA00026494661300000211
和遗忘门
Figure FDA00026494661300000212
所述输入门
Figure FDA00026494661300000213
用于保留每个对象s在所述t时刻的隐层状态中的相关特征,所述遗忘门
Figure FDA00026494661300000214
用于将每个对象s在所述t时刻的隐层状态中的不相关特征去除;
根据所述目标视频在所述t-1时刻的隐层状态ht-1、每个对象s在所述t时刻的隐层状态
Figure FDA00026494661300000215
所述输入门
Figure FDA00026494661300000216
和所述遗忘门
Figure FDA00026494661300000217
每个对象s在所述t-1时刻的记忆细胞
Figure FDA00026494661300000218
计算每个对象s在所述t时刻的记忆细胞
Figure FDA00026494661300000219
4.根据权利要求3所述的方法,其特征在于,所述根据所述目标视频在所述t-1时刻的隐层状态ht-1和每个对象s在所述t时刻的隐层状态
Figure FDA00026494661300000220
计算每个对象s在所述t时刻的输入门
Figure FDA00026494661300000221
和遗忘门
Figure FDA00026494661300000222
包括:
采用以下公式,计算每个对象s在所述t时刻的输入门
Figure FDA00026494661300000223
Figure FDA00026494661300000224
其中,σ(·)为阈值函数,
Figure FDA00026494661300000225
表示每个对象s的输入门与所述输入层之间的权重矩阵,
Figure FDA00026494661300000226
表示每个对象s的输入门与所述隐藏层之间的权重矩阵,
Figure FDA00026494661300000227
表示每个对象s的输入门的偏置向量。
5.根据权利要求3所述的方法,其特征在于,所述根据所述目标视频在所述t-1时刻的隐层状态ht-1和每个对象s在所述t时刻的隐层状态
Figure FDA00026494661300000228
计算每个对象s在所述t时刻的输入门
Figure FDA00026494661300000229
和遗忘门
Figure FDA00026494661300000230
包括:
采用以下公式,计算每个对象s在所述t时刻的遗忘门
Figure FDA0002649466130000031
Figure FDA0002649466130000032
其中,σ(·)为阈值函数,
Figure FDA0002649466130000033
表示每个对象s的遗忘门与所述输入层之间的权重矩阵,
Figure FDA0002649466130000034
表示每个对象s的遗忘门与所述隐藏层之间的权重矩阵,
Figure FDA0002649466130000035
表示每个对象s的遗忘门的偏置向量。
6.根据权利要求3所述的方法,其特征在于,所述根据所述目标视频在所述t-1时刻的隐层状态ht-1、每个对象s在所述t时刻的隐层状态
Figure FDA0002649466130000036
所述输入门
Figure FDA0002649466130000037
和所述遗忘门
Figure FDA0002649466130000038
每个对象s在所述t-1时刻的记忆细胞
Figure FDA0002649466130000039
计算每个对象s在所述t时刻的记忆细胞
Figure FDA00026494661300000310
包括:
采用以下公式,计算每个对象s在所述t时刻的记忆细胞
Figure FDA00026494661300000311
Figure FDA00026494661300000312
Figure FDA00026494661300000313
其中,
Figure FDA00026494661300000314
为双曲正切函数,×为向量的点乘函数,
Figure FDA00026494661300000315
表示每个对象s的记忆细胞与所述输入层之间的权重矩阵,
Figure FDA00026494661300000316
表示每个对象s的记忆细胞与所述隐藏层之间的权重矩阵,
Figure FDA00026494661300000317
表示每个对象s的记忆细胞的偏置向量。
7.根据权利要求2所述的方法,其特征在于,所述通过所述联合记忆单元,根据每个对象s在所述t时刻的记忆细胞
Figure FDA00026494661300000318
和细胞门
Figure FDA00026494661300000319
计算所述目标视频在所述t时刻的记忆细胞Ct,包括:
采用以下公式,计算所述目标视频在所述t时刻的记忆细胞Ct
Figure FDA00026494661300000320
×为向量的点乘函数。
8.根据权利要求1所述的方法,其特征在于,所述通过所述输出层,根据所述目标视频在所述t-1时刻的隐层状态ht-1和每个对象s在所述t时刻的隐层状态
Figure FDA00026494661300000321
计算所述目标视频在所述t时刻的输出门Ot,包括:
采用以下公式,计算所述目标视频在所述t时刻的输出门Ot
Figure FDA00026494661300000322
其中,σ(·)为阈值函数,
Figure FDA00026494661300000323
表示每个对象s的输出门与所述输入层之间的权重矩阵,Woh表示所述输出门与所述隐藏层之间的权重矩阵,bo表示所述输出门的偏置向量。
9.根据权利要求1所述的方法,其特征在于,所述根据所述目标视频在所述t时刻的记忆细胞Ct和输出门Ot,计算所述目标视频在所述t时刻的动作特征Ht,包括:
采用以下公式,计算所述目标视频在所述t时刻的动作特征Ht
Figure FDA0002649466130000041
Figure FDA0002649466130000042
为双曲正切函数,×为向量的点乘函数。
10.根据权利要求1-9任一项所述的方法,其特征在于,所述根据所述目标视频在所述t时刻的记忆细胞Ct和输出门Ot,计算所述目标视频在所述t时刻的动作特征Ht之后,所述方法还包括:
采用以下公式,计算所述目标视频在所述t时刻的视频帧属于每个交互动作类别的概率:
Figure FDA0002649466130000043
Figure FDA0002649466130000044
其中,Wzh表示交互动作类别与所述隐藏层之间的权重矩阵,bz表示交互动作类别的偏置向量,zt包括k个维度,zt,l为zt在第l个维度上的元素值,表示第l个交互动作类别的置信度,l∈{1,2,…k},zt,j为zt在第j个维度上的元素值,表示第j个交互动作类别的置信度,j∈{1,2,…k},yt,l表示所述目标视频在所述t时刻的视频帧属于第l个交互动作类别的概率。
11.一种动作特征获取装置,其特征在于,所述装置包括:输入层模块、隐藏层模块、并发记忆模块和输出层模块,所述隐藏层模块包括多个单人隐层子模块;
所述输入层模块,用于根据目标视频在t时刻的视频帧中的p个对象,提取每个对象s在所述t时刻的图像特征
Figure FDA0002649466130000045
所述目标视频包括T个时刻的视频帧,s∈{1,2,…p},t∈{1,2,…T},p和T为大于1的整数;
所述每个单人隐层子模块,用于根据每个对象s在t-1时刻的隐层状态
Figure FDA0002649466130000046
和每个对象s在所述t时刻的图像特征
Figure FDA0002649466130000051
获取每个对象s在所述t时刻的隐层状态
Figure FDA0002649466130000052
所述
Figure FDA0002649466130000053
由与每个对象s对应的单人LSTM模型在所述t-1时刻获取;
所述并发记忆模块,用于根据所述目标视频在所述t-1时刻的隐层状态ht-1和每个对象s在所述t时刻的隐层状态
Figure FDA0002649466130000054
计算所述目标视频在所述t时刻的记忆细胞Ct,所述记忆细胞Ct用于记忆所述p个对象在所述t时刻的隐层状态中的交互动作特征;
所述输出层模块,用于根据所述目标视频在所述t-1时刻的隐层状态ht-1和每个对象s在所述t时刻的隐层状态
Figure FDA0002649466130000055
计算所述目标视频在所述t时刻的输出门Ot,所述输出门Ot用于确定所述p个对象在所述t时刻的隐层状态中需要输出的动作特征;
所述输出层模块,还用于根据所述目标视频在所述t时刻的记忆细胞Ct和输出门Ot,计算所述目标视频在所述t时刻的动作特征Ht
12.根据权利要求11所述的装置,其特征在于,所述并发记忆模块包括多个单人记忆子模块和一个联合记忆子模块,所述多个单人记忆子模块与所述多个单人隐层子模块一一对应;
所述每个单人记忆子模块,用于根据所述目标视频在所述t-1时刻的隐层状态ht-1和每个对象s在所述t时刻的隐层状态
Figure FDA0002649466130000056
计算每个对象s在所述t时刻的记忆细胞
Figure FDA0002649466130000057
和细胞门
Figure FDA0002649466130000058
所述记忆细胞
Figure FDA0002649466130000059
用于记忆每个对象s在所述t时刻的隐层状态中提取的相关特征,所述细胞门
Figure FDA00026494661300000510
用于从每个对象s在所述t时刻的隐层状态中提取相关特征;
所述联合记忆子模块,用于根据每个对象s在所述t时刻的记忆细胞
Figure FDA00026494661300000511
和细胞门
Figure FDA00026494661300000512
计算所述目标视频在所述t时刻的记忆细胞Ct
13.一种动作特征获取装置,其特征在于,所述动作特征获取装置包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述指令、所述程序、所述代码集或所述指令集由所述处理器加载并执行以实现如权利要求1至10任一权利要求所述的动作特征获取方法中所执行的操作。
14.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述指令、所述程序、所述代码集或所述指令集由处理器加载并执行以实现如权利要求1至10任一权利要求所述的动作特征获取方法中所执行的操作。
CN201810015245.XA 2018-01-08 2018-01-08 动作特征获取方法、装置及存储介质 Active CN108288032B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810015245.XA CN108288032B (zh) 2018-01-08 2018-01-08 动作特征获取方法、装置及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810015245.XA CN108288032B (zh) 2018-01-08 2018-01-08 动作特征获取方法、装置及存储介质

Publications (2)

Publication Number Publication Date
CN108288032A CN108288032A (zh) 2018-07-17
CN108288032B true CN108288032B (zh) 2020-11-10

Family

ID=62835052

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810015245.XA Active CN108288032B (zh) 2018-01-08 2018-01-08 动作特征获取方法、装置及存储介质

Country Status (1)

Country Link
CN (1) CN108288032B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109635769B (zh) * 2018-12-20 2023-06-23 天津天地伟业信息系统集成有限公司 一种用于球型摄像机的行为识别统计方法
CN111488899B (zh) * 2019-01-29 2024-02-23 杭州海康威视数字技术股份有限公司 特征提取方法、装置、设备及可读存储介质
CN109977818A (zh) * 2019-03-14 2019-07-05 上海极链网络科技有限公司 一种基于空间特征和多目标检测的动作识别方法及系统
CN110059661B (zh) * 2019-04-26 2022-11-22 腾讯科技(深圳)有限公司 动作识别方法、人机交互方法、装置及存储介质
CN111126153B (zh) * 2019-11-25 2023-07-21 北京锐安科技有限公司 基于深度学习的安全监测方法、系统、服务器及存储介质
CN112295617B (zh) * 2020-09-18 2022-04-01 济南大学 一种基于实验场景态势感知的智能烧杯
CN116758068B (zh) * 2023-08-17 2023-11-07 天津市肿瘤医院(天津医科大学肿瘤医院) 一种基于人工智能的骨髓图片细胞形态分析方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106919977B (zh) * 2015-12-25 2022-05-17 科大讯飞股份有限公司 一种前馈序列记忆神经网络及其构建方法和系统
US10242266B2 (en) * 2016-03-02 2019-03-26 Mitsubishi Electric Research Laboratories, Inc. Method and system for detecting actions in videos
US11409791B2 (en) * 2016-06-10 2022-08-09 Disney Enterprises, Inc. Joint heterogeneous language-vision embeddings for video tagging and search
CN106709461B (zh) * 2016-12-28 2019-09-17 中国科学院深圳先进技术研究院 基于视频的行为识别方法及装置
CN106845411B (zh) * 2017-01-19 2020-06-30 清华大学 一种基于深度学习和概率图模型的视频描述生成方法
CN107330410B (zh) * 2017-07-03 2020-06-30 南京工程学院 复杂环境下基于深度学习的异常检测方法
CN107423725A (zh) * 2017-08-11 2017-12-01 深圳市唯特视科技有限公司 一种基于混合时间卷积和循环网络的视频动作分割方法

Also Published As

Publication number Publication date
CN108288032A (zh) 2018-07-17

Similar Documents

Publication Publication Date Title
CN109086709B (zh) 特征提取模型训练方法、装置及存储介质
CN108288032B (zh) 动作特征获取方法、装置及存储介质
CN110222551B (zh) 识别动作类别的方法、装置、电子设备及存储介质
CN110222789B (zh) 图像识别方法及存储介质
CN110650379B (zh) 视频摘要生成方法、装置、电子设备及存储介质
CN109558837B (zh) 人脸关键点检测方法、装置及存储介质
CN111127509B (zh) 目标跟踪方法、装置和计算机可读存储介质
CN110807361A (zh) 人体识别方法、装置、计算机设备及存储介质
CN109360222B (zh) 图像分割方法、装置及存储介质
CN108363982B (zh) 确定对象数量的方法及装置
CN111104980B (zh) 确定分类结果的方法、装置、设备及存储介质
CN108776822B (zh) 目标区域检测方法、装置、终端及存储介质
CN110570460A (zh) 目标跟踪方法、装置、计算机设备及计算机可读存储介质
CN112036331A (zh) 活体检测模型的训练方法、装置、设备及存储介质
CN112581358B (zh) 图像处理模型的训练方法、图像处理方法及装置
CN112733970B (zh) 图像分类模型处理方法、图像分类方法及装置
CN111738365B (zh) 图像分类模型训练方法、装置、计算机设备及存储介质
CN111178343A (zh) 基于人工智能的多媒体资源检测方法、装置、设备及介质
CN113918767A (zh) 视频片段定位方法、装置、设备及存储介质
CN110705614A (zh) 模型训练方法、装置、电子设备及存储介质
CN110991445B (zh) 竖排文字识别方法、装置、设备及介质
CN110503160B (zh) 图像识别方法、装置、电子设备及存储介质
CN110166275B (zh) 信息处理方法、装置及存储介质
CN111753606A (zh) 一种智能模型的升级方法及装置
CN111353513B (zh) 一种目标人群筛选的方法、装置、终端和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant