CN108764009A - 基于深度残差长短时记忆网络的视频事件识别方法 - Google Patents
基于深度残差长短时记忆网络的视频事件识别方法 Download PDFInfo
- Publication number
- CN108764009A CN108764009A CN201810235672.9A CN201810235672A CN108764009A CN 108764009 A CN108764009 A CN 108764009A CN 201810235672 A CN201810235672 A CN 201810235672A CN 108764009 A CN108764009 A CN 108764009A
- Authority
- CN
- China
- Prior art keywords
- dlstm
- network
- space
- residual error
- softmax
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/44—Event detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度残差长短时记忆网络的视频事件识别方法,包括:1)时空特征数据联接层设计,时空特征数据经长短时记忆单元(LSTM)同步解析后形成时空特征数据联接单元DLSTM(double‑LSTM),突出时空信息的一致性;2)DU‑DLSTM(dual unidirectional DLSTM)双单向结构设计,拓宽了网络的宽度,增加了特征选择范围;3)RDU‑DLSTM(residual dual unidirectional DLSTM)残差模块设计,解决更深层次的网络梯度消失问题;4)2C‑softmax目标函数设计,扩大类间距离的同时兼顾缩小类内距离。本方法优点是通过构建深度残差网络架构,解决梯度消失问题,同时利用时间网络、空间网络特征的一致性融合提高视频事件识别准确率。
Description
技术领域
本发明涉及视频事件识别技术,尤其是一种基于深度残差长短时记忆网络的视频事件识别方法。
背景技术
视频事件识别是指从视频中识别出事件的时空视觉模式。随着视频监控在现实生活中的广泛应用,监控视频事件识别受到了广泛关注,并取得了一系列的研究成果,然而监控视频的事件识别仍然面临着巨大的挑战和困难,比如自然场景下监控视频背景复杂、事件区域对象遮挡严重、摄像头视角变化等因素,导致事件类间距离小、类内距离大。
现有技术中,为了解决监控视频事件识别困难的问题,传统的解决方案是采用基于视觉词袋模型的方法和基于运动轨迹的方法进行监控视频的事件识别,但是这种手工特征识别方法难以进一步提高识别精度;随着时代的发展,深度学习成为人工智能领域研究的热点,并开始应用于监控视频的事件检测、行为识别等领域,例如,用于行为识别的双流CNN网络,其中,时间CNN网络利用视频的静态帧信息,空间CNN网络利用视频的光流信息,但是以双流CNN网络为代表的方法仅仅利用了视频的短时动态特征,并无有效利用视频的长时动态特征,在监控视频的事件识别方面仍然存在一定缺陷,于是通过采用长时递归卷积网络(LRCN)的方法来弥补上述缺陷,LRCN利用CNN网络提取特征,然后送入LSTM网络获得识别结果,其中,LSTM又称长短期记忆网络,可以从输入序列中递归学习长时动态特征,因此能够处理具有典型时间序列的任务,例如语音识别、行为识别,由此,通过深层架构能够提高CNN和LSTM网络的识别能力,但是,无论是CNN还是LSTM,随着网络深度的增加,都会遇到梯度消失问题,很难训练具有更加有深度的网络。
发明内容
本发明解决的技术问题是提供一种基于深度残差长短时记忆网络的视频事件识别方法。
本发明的技术方案是:一种基于深度残差长短时记忆网络的视频事件识别方法,包括:1)时空特征数据联接单元设计:时空特征数据经LSTM同步解析后形成时空特征数据联接单元DLSTM;2)DU-DLSTM双单向结构设计:每个DLSTM单元包含了来自时间CNN网络(Convolutional Neural Network)和空间CNN网络的输入,两个单向传递的DLSTM联接后构成DU-DLSTM单元;3)RDU-DLSTM残差模块设计:多个DU-DLSTM层再加一个恒等映射形成残差模块;4)2C-softmax目标函数设计:双中心Loss分别维护空间特征中心和时间特征中心,空间特征中心和时间特征中心按一定权重系数融合形成质心,给softmax的Loss加入双中心Loss以及DLSTM单元的正则项,构成2C-softmax目标函数。
进一步,本发明中所述步骤1)时空特征数据联接单元设计包括:(1)接收数据:SLSTM(Spatial LSTM)接收来自空间CNN网络的特征hSL,TLSTM(Temporal LSTM)接收来自时间CNN网络的特征hTL;(2)激活函数转换:SLSTM和TLSTM经ReLU激活函数d转换,分别得到:d(WShSL+bS)和d(WThTL+bT),其中WS和WT表示权重,bS和bT表示偏置项;(3)特征联接:激活函数转换后的SLSTM和TLSTM再经联接操作c形成一个新的单元DLSTM,描述为:hDL=c(d(WShSL+bS),d(WThTL+bT)),突出了时空信息的一致性。
进一步,本发明中所述步骤2)DU-DLSTM双单向结构设计包括:(1)特征同向传递:每个DLSTM单元包含了来自时间CNN网络和空间CNN网络的输入,hDL1和hDL2表示两个相同传递方向DLSTM单元的输入;(2)特征联接:两个单向传递的DLSTM联接后构成DU-DLSTM单元,hDU为DU-DLSTM的输出,描述为:hDU=c(d(W1hDL1+b1),d(W2hDL2+b2)),由此拓宽了网络的宽度,增加了特征选择范围。
进一步,本发明中所述步骤3)RDU-DLSTM残差模块设计包括:(1)网络输出:将DU-DLSTM结构作为一个网络层,第一个DU-DLSTM结构的输出hDU作为x;(2)残差连接:快捷连接对hDU做一个线性变换Wi,RDU-DLSTM残差模块的输出为:h=F(hDU,{Wi})+hDU,解决了更深层次的网络梯度消失问题。
进一步,本发明中所述步骤4)2C-softmax目标函数设计包括:(1)为了防止过拟合,给softmax的Loss项LJ加上DLSTM单元权重的二范数作为正则项,表示为:
其中D表示DLSTM单元的个数,a为正则项系数;(2)设计一个双中心Loss,双中心Loss分别维护空间特征中心CS和时间特征中心CT,其中
目标函数L加入双中心Loss形成新的目标函数L¢,并称之为2C-softmax,CS和CT按一定权重系数b融合形成质心,2C-softmax描述为:扩大类间距离的同时兼顾缩小类内距离。
本发明与现有技术相比具有以下优点:
1)本发明中,设计的残差模块使得训练深达数百甚至超过千层的网络成为可能,同时能够较好地解决深度堆叠的LSTM梯度消失的问题,弥补了现有监控视频事件识别方法的不足。
2)本发明中,2C-softmax目标函数中设计的中心Loss结构能够对每一个类别学习一个中心,并根据样本特征与类中心的距离进行惩罚,大大缩短了类内距离,使学习到的特征具有更好的泛化能力和辨别能力,由此,模型的辨识能力大大提高,为现有技术中事件类间距离小、类内距离大的难点提出了新的解决方案。
3)本发明中,通过双流CNN网络(即时间CNN网络和空间CNN网络)获得深度特征输入,从输入序列中递归学习长时动态特征,实现深度残差网络架构的构建,并最终能够解决复杂场景下监控视频事件识别问题,具有更高的推广价值。
附图说明
下面结合附图及实施例对本发明作进一步描述:
图1为本发明中时空特征数据联接单元的结构图;
图2为本发明中DU-DLSTM双单向结构设计结构图;
图3为本发明中RDU-DLSTM残差模块设计结构图;
图4为本发明中双中心Loss特征划分图;
图5为本发明中DRDU-DLSTM的网络模型图;
图6为本发明方法的系统总体框架图。
具体实施方式
实施例:
结合附图所示为本发明一种基于深度残差长短时记忆网络的视频事件识别方法的具体实施方式,包括如下步骤:
步骤1)时空特征数据联接单元设计:时空特征数据经LSTM同步解析后形成时空特征数据联接单元DLSTM;
如图1所示,其具体步骤包括:
(1)接收数据:首先采用两个LSTM单元,分别记为SLSTM和TLSTM,SLSTM接收来自空间CNN网络的特征hSL,TLSTM接收来自时间CNN网络的特征hTL;
(2)激活函数转换:LSTM单元在接收输入前,需采用非线性激活函数对输入数据处理,采用ReLU激活函数,SLSTM和TLSTM经ReLU激活函数d转换,分别得到:d(WShSL+bS)和d(WThTL+bT),其中WS和WT表示权重,bS和bT表示偏置项,d表示ReLU激活函数;
(3)特征联接:激活函数转换后的SLSTM和TLSTM再经联接操作c形成一个新的单元DLSTM,公式为:
hDL=c(d(WShSL+bS),d(WThTL+bT)) (1)
其中WS和WT表示权重,bS和bT表示偏置项,c表示联接操作。
步骤2)DU-DLSTM双单向结构设计:每个DLSTM单元包含了来自时间CNN网络(Convolutional Neural Network)和空间CNN网络的输入,两个单向传递的DLSTM联接后构成DU-DLSTM单元;
如图2所示,其具体步骤包括:
(1)特征同向传递
每个DLSTM单元包含了来自时间CNN网络和空间CNN网络的输入,hDL1和hDL2表示两个相同传递方向DLSTM单元的输入;
(2)特征联接
两个单向传递的DLSTM联接后构成DU-DLSTM单元,hDU为DU-DLSTM的输出,公式为:
hDU=c(d(W1hDL1+b1),d(W2hDL2+b2)) (2)
其中W和b分别表示权重和偏置项。
步骤3)RDU-DLSTM残差模块设计:多个DU-DLSTM层再加一个恒等映射形成残差模块;
如图3所示,其具体步骤包括:
(1)网络输出
将DU-DLSTM结构作为一个网络层,第一个DU-DLSTM结构的输出hDU作为x;
(2)残差连接
残差学习结构可以通过前向神经网络加快捷连接实现,快捷连接块定义为:
y=F(x,{Wi})+x (3)
其中x和y分别表示网络层的输入和输出,函数F(x,{Wi})表示待学习的残差映射,利用快捷连接对hDU做一个线性变换Wi,RDU-DLSTM残差模块的输出为:
h=F(hDU,{Wi})+hDU (4)
步骤4)2C-softmax目标函数设计:双中心Loss分别维护空间特征中心和时间特征中心,空间特征中心和时间特征中心按一定权重系数融合形成质心,给softmax的Loss加入双中心Loss以及DLSTM单元的正则项,构成2C-softmax目标函数。
如图4所示,其具体步骤包括:
(1)网络反向传播通过计算损失函数实现,通常情况下可以用softmax的Loss:
其中xi表示第i个特征向量,yi表示类别标签,n为类别数,m表示小批量(mini-batch)的大小,W为权重,b是偏置项;
为了防止过拟合,可以给softmax的Loss项LJ加上正则项,DLSTM单元对网络具有重要的影响,因此可以加入DLSTM单元权重的二范数作为正则项:
其中m表示小批量的大小,表示第i个样本的权重,D表示DLSTM单元的个数,a为正则项系数;
(2)中心Loss函数对每个类别在特征空间都维护一个类中心C,其计算公式为:
其中xi表示第i个样本的特征向量,表示该样本所属类别的特征值中心;
在事件识别算法中,DRDU-DLSTM网络的输入来自于时间CNN网络和空间CNN网络的两类特征,因此设计一个双中心Loss,双中心Loss分别维护空间特征中心CS和时间特征中心CT,其中
(3)CS和CT按一定权重系数b融合形成质心,加入双中心Loss形成新的目标函数公式为:
为了防止目标函数过拟合,加入DLSTM单元的正则项,公式为:
将公式(5)、(6)、(8)代入(10)得目标函数,称之为2C-softmax:
本实施例具体工作时,
首先采用两种不同的数据集,包括VIRAT 1.0数据集和VIRAT 2.0数据集,其中:
VIRAT 1.0数据集包含了约3小时的监控视频,180多个事件案例。视频由安装在校园停车场的固定高清摄像机拍摄,分辨率为1280×720像素或1920×1080像素。VIRAT 1.0数据集的事件类型包括6类人车交互事件:(1)装载货物(loading),(2)卸载货物(unloading),(3)打开车门(opening),(4)关闭车门(closing),(5)进入车辆(intovehicle),(6)走出车辆(out vehicle)。
VIRAT 2.0数据集包含了8.5小时的监控视频,11类事件,1500多个事件案例。视频由安装在校园停车场、商场入口、建筑工地等场所的固定高清摄像机拍摄,分辨率为1280×720像素或1920×1080像素。VIRAT 2.0数据集扩展自VIRAT 1.0数据集,事件类别由6类扩展为11类,原有的6类事件增加了部分事件案例,新增的事件类别涉及人与建筑物、人与物以及人体行为等,新增的事件类型有:(1)进入商场(entering facility),(2)走出商场(exiting facility),(3)打手势(gesturing),(4)搬运物体(carrying),(5)跑步(running)。
实验参数设置如下:
视频事件片段通过事件邻域(event neighborhood)的方式从原始视频中获得,其邻域参数l设置为0.35。CNN网络采用Caffe工具箱实现。实验在GPU服务器上完成,操作系统为Centos 7,使用了2个K20加速卡。VIRAT 1.0数据集中的180多个事件案例视频、VIRAT2.0数据集中的1500多个事件案例视频分别提取了空间CNN网络的全连接层FC6的特征和时间CNN网络的全连接层FC7特征,生成视频特征数据文件。视频特征数据文件按文件名随机置乱后,选取其中的70%为DRDU-DLSTM网络的训练数据,剩余的30%数据作为测试数据,并作为DRDU-DLSTM网络时空特征数据联接层的输入。
接下来对每个方法进行实验验证:
1、输入方式对网络的影响验证
实验首先比较了数据输入模态对DRDU-LSTM网络的影响,以验证时空特征数据联接单元的有效性,如表1所示。DRDU-LSTM网络的结构为1个残差单元、5个堆叠层。从表1可以看出,无论是时、空数据流分别作为独立输入,还是取双流独立输入后融合的结果,并不能提高识别准确率。我们分析发现,在时间数据流检测正确而空间数据流检测错误的案例中,由于时间数据流仅有微弱的概率优势,并没有做到和空间数据流互补。而我们设计的双流联接输入模式,准确率可以提高2%左右,其原因主要在于深层的残差DLSTM结构在传递过程中,时空双流连接输入单元DLSTM加深了时空信息的融合,时空信息做到了最大程度上的互补。
表1输入方式对网络的影响
2、DLSTM的传递方向对网络的影响验证
表2给出了网络不同的传递方向对网络的影响。实验采用了双流联接输入方式。从表2可以看出,在语音识别等领域获得成功的双向传递方式识别准确率不高,甚至低于单向传递方式,说明在事件识别中,后续帧对前帧的正向影响不大,时序的先后关系更重要;而本文设计的双单向传递方式获得了最好的结果,表明双单向传递的DLSTM单元拓宽网络的宽度,增加了特征选择的范围,增强了特征的耦合能力。
表2 DLSTM的传递方向对网络的影响
3、残差单元和堆叠层数对网络的影响验证
为了说明网络层次结构对识别结果的影响,表3对比了残差单元数量和堆叠深度对网络的影响。实验采用双流联接输入方式。表3给出了网络在1至2个残差单元、堆叠深度为2至6层时的准确率和F1值。实验结果表明,不同的层次结构对网络有一定的影响,残差单元和堆叠深度取值应适中,更多的残差单元或更深的堆叠深度并不能提高准确率和F1值。
表3残差单元和堆叠层数对网络的影响
4、Loss对网络的影响验证
另外,为了说明优化后的Loss在网络的作用,表4对比了不同的Loss设计方案对网络的影响。实验表明,仅用双中心Loss并不能有效提高识别结果,双中心Loss与DLSTM单元正则项结合可以取得更好的效果。
表4 Loss对网络的影响
5、最终模型与其他方法的对比验证
我们和更多的算法作了进一步的对比,如表5所示。BOW虽然在视频检索、行为识别等视频处理任务上取得了广泛的应用和不错的业绩,但其在更具有挑战性的监控视频事件识别任务上效果一般。SPN在BOW的基础上更好地结合了视频的全局特征和局部特征,取得了比BOW更好的效果。Structural Model、Hierarchical-CRF和BN均利用了视频的上下文信息和时空特征,虽然也取得了很好的结果,但手工特征的选择禁锢了算法识别的上限。相比于深度受限玻尔兹曼机,采用卷积网络能够从视频中获得更加鲁棒的自动特征,结合残差结构的LSTM递归网络,我们的算法能够最大程度上利用视频的空间信息、短时信息、长时信息和时空融合信息,识别准确率也得到了较大幅度的提高。
表5 VIRAT 1.0和VIRAT 2.0上的对比实验
当然上述实施例只为说明本发明的技术构思及特点,其目的在于让熟悉此项技术的人能够了解本发明的内容并据以实施,并不能以此限制本发明的保护范围。凡根据本发明主要技术方案的精神实质所做的修饰,都应涵盖在本发明的保护范围之内。
Claims (5)
1.一种基于深度残差长短时记忆网络的视频事件识别方法,其特征在于,包括:
1)时空特征数据联接单元设计
时空特征数据经LSTM同步解析后形成时空特征数据联接单元DLSTM;
2)DU-DLSTM双单向结构设计
每个DLSTM单元包含了来自时间CNN网络(Convolutional Neural Network)和空间CNN网络的输入,两个单向传递的DLSTM联接后构成DU-DLSTM单元;
3)RDU-DLSTM残差模块设计
多个DU-DLSTM层再加一个恒等映射形成残差模块;
4)2C-softmax目标函数设计
双中心Loss分别维护空间特征中心和时间特征中心,空间特征中心和时间特征中心按一定权重系数融合形成质心,给softmax的Loss加入双中心Loss以及DLSTM单元的正则项,构成2C-softmax目标函数。
2.根据权利要求1所述的一种基于深度残差长短时记忆网络的视频事件识别方法,其特征在于,所述步骤1)时空特征数据联接单元设计包括:
(1)接收数据
SLSTM(Spatial LSTM)接收来自空间CNN网络的特征hSL,TLSTM(Temporal LSTM)接收来自时间CNN网络的特征hTL;
(2)激活函数转换
SLSTM和TLSTM经ReLU激活函数d转换,分别得到:d(WShSL+bS)和d(WThTL+bT),其中WS和WT表示权重,bS和bT表示偏置项;
(3)特征联接
激活函数转换后的SLSTM和TLSTM再经联接操作c形成一个新的单元DLSTM,描述为:hDL=c(d(WShSL+bS),d(WThTL+bT))。
3.根据权利要求2所述的一种基于深度残差长短时记忆网络的视频事件识别方法,其特征在于,所述步骤2)DU-DLSTM双单向结构设计包括:
(1)特征同向传递
每个DLSTM单元包含了来自时间CNN网络和空间CNN网络的输入,hDL1和hDL2表示两个相同传递方向DLSTM单元的输入;
(2)特征联接
两个单向传递的DLSTM联接后构成DU-DLSTM单元,hDU为DU-DLSTM的输出,描述为:hDU=c(d(W1hDL1+b1),d(W2hDL2+b2))。
4.根据权利要求1或2或3所述的一种基于深度残差长短时记忆网络的视频事件识别方法,其特征在于,所述步骤3)RDU-DLSTM残差模块设计包括:
(1)网络输出
将DU-DLSTM结构作为一个网络层,第一个DU-DLSTM结构的输出hDU作为x;
(2)残差连接
快捷连接对hDU做一个线性变换Wi,RDU-DLSTM残差模块的输出为:h=F(hDU,{Wi})+hDU。
5.根据权利要求1或2或3所述的一种基于深度残差长短时记忆网络的视频事件识别方法,其特征在于,所述步骤4)2C-softmax目标函数设计包括:
(1)为了防止过拟合,给softmax的Loss项LJ加上DLSTM单元权重的二范数作为正则项,表示为:其中D表示DLSTM单元的个数,a为正则项系数;
(2)设计一个双中心Loss,双中心Loss分别维护空间特征中心CS和时间特征中心CT,其中
(3)目标函数L加入双中心Loss形成新的目标函数并称之为2C-softmax,CS和CT按一定权重系数b融合形成质心,2C-softmax描述为:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810235672.9A CN108764009A (zh) | 2018-03-21 | 2018-03-21 | 基于深度残差长短时记忆网络的视频事件识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810235672.9A CN108764009A (zh) | 2018-03-21 | 2018-03-21 | 基于深度残差长短时记忆网络的视频事件识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108764009A true CN108764009A (zh) | 2018-11-06 |
Family
ID=63980599
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810235672.9A Pending CN108764009A (zh) | 2018-03-21 | 2018-03-21 | 基于深度残差长短时记忆网络的视频事件识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108764009A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111160348A (zh) * | 2019-11-20 | 2020-05-15 | 中国科学院深圳先进技术研究院 | 自然场景的文本识别方法、存储装置和计算机设备 |
CN111401149A (zh) * | 2020-02-27 | 2020-07-10 | 西北工业大学 | 基于长短期时域建模算法的轻量级视频行为识别方法 |
WO2020258615A1 (zh) * | 2019-06-19 | 2020-12-30 | 清华大学 | 基于声波传播方程的双路耦合深度学习的目标分类方法 |
TWI766478B (zh) * | 2020-07-31 | 2022-06-01 | 大陸商星宸科技股份有限公司 | 目標資料特徵提取方法、及裝置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106845351A (zh) * | 2016-05-13 | 2017-06-13 | 苏州大学 | 一种用于视频的基于双向长短时记忆单元的行为识别方法 |
CN107451552A (zh) * | 2017-07-25 | 2017-12-08 | 北京联合大学 | 一种基于3d‑cnn和卷积lstm的手势识别方法 |
CN107562784A (zh) * | 2017-07-25 | 2018-01-09 | 同济大学 | 基于ResLCNN模型的短文本分类方法 |
US20180060721A1 (en) * | 2016-08-30 | 2018-03-01 | Samsung Electronics Co., Ltd. | System and method for residual long short term memories (lstm) network |
-
2018
- 2018-03-21 CN CN201810235672.9A patent/CN108764009A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106845351A (zh) * | 2016-05-13 | 2017-06-13 | 苏州大学 | 一种用于视频的基于双向长短时记忆单元的行为识别方法 |
US20180060721A1 (en) * | 2016-08-30 | 2018-03-01 | Samsung Electronics Co., Ltd. | System and method for residual long short term memories (lstm) network |
CN107451552A (zh) * | 2017-07-25 | 2017-12-08 | 北京联合大学 | 一种基于3d‑cnn和卷积lstm的手势识别方法 |
CN107562784A (zh) * | 2017-07-25 | 2018-01-09 | 同济大学 | 基于ResLCNN模型的短文本分类方法 |
Non-Patent Citations (3)
Title |
---|
KAREN SIMONYAN: "Two-Stream Convolutional Networks for Action Recognition in Videos", 《ARXIV.ORG/ABS/1406.2199》 * |
SHANGHANG ZHANG: "FCN-rLSTM: Deep Spatio-Temporal Neural Networks for Vehicle Counting in City Cameras", 《2017 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION》 * |
YANDONG WEN: "A Discriminative Feature Learning Approach for Deep Face Recognition", 《EUROPEAN CONFERENCE ON COMPUTER VISION》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020258615A1 (zh) * | 2019-06-19 | 2020-12-30 | 清华大学 | 基于声波传播方程的双路耦合深度学习的目标分类方法 |
CN111160348A (zh) * | 2019-11-20 | 2020-05-15 | 中国科学院深圳先进技术研究院 | 自然场景的文本识别方法、存储装置和计算机设备 |
CN111401149A (zh) * | 2020-02-27 | 2020-07-10 | 西北工业大学 | 基于长短期时域建模算法的轻量级视频行为识别方法 |
CN111401149B (zh) * | 2020-02-27 | 2022-05-13 | 西北工业大学 | 基于长短期时域建模算法的轻量级视频行为识别方法 |
TWI766478B (zh) * | 2020-07-31 | 2022-06-01 | 大陸商星宸科技股份有限公司 | 目標資料特徵提取方法、及裝置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108537743B (zh) | 一种基于生成对抗网络的面部图像增强方法 | |
CN108764009A (zh) | 基于深度残差长短时记忆网络的视频事件识别方法 | |
CN107871100A (zh) | 人脸模型的训练方法和装置、人脸认证方法和装置 | |
CN111652903B (zh) | 一种自动驾驶场景下基于卷积关联网络的行人目标跟踪方法 | |
CN107529650A (zh) | 网络模型的构建和闭环检测方法、相应装置及计算机设备 | |
CN109033938A (zh) | 一种基于可区分性特征融合的人脸识别方法 | |
CN110188795A (zh) | 图像分类方法、数据处理方法和装置 | |
CN107463920A (zh) | 一种消除局部遮挡物影响的人脸识别方法 | |
CN106709511A (zh) | 基于深度学习的城市轨道交通全景监控视频故障检测方法 | |
CN110532920A (zh) | 基于FaceNet方法的小数量数据集人脸识别方法 | |
CN108960059A (zh) | 一种视频动作识别方法及装置 | |
CN105512680A (zh) | 一种基于深度神经网络的多视sar图像目标识别方法 | |
CN109817276A (zh) | 一种基于深度神经网络的蛋白质二级结构预测方法 | |
CN111080513A (zh) | 一种基于注意力机制的人脸图像超分辨率方法 | |
CN106372581A (zh) | 构建及训练人脸识别特征提取网络的方法 | |
CN110610464A (zh) | 一种基于稠密残差神经网络的人脸图像超分辨率方法 | |
CN113392855A (zh) | 一种基于注意力和对比学习的小样本目标检测方法 | |
CN110660020B (zh) | 一种基于融合互信息的对抗生成网络的图像超分辨率方法 | |
CN104298974A (zh) | 一种基于深度视频序列的人体行为识别方法 | |
CN106022287A (zh) | 一种基于深度学习与字典表示的跨年龄人脸验证方法 | |
CN108875907A (zh) | 一种基于深度学习的指纹识别方法和装置 | |
CN110414483A (zh) | 一种基于深度神经网络和随机森林的人脸识别方法及系统 | |
CN106326843A (zh) | 一种人脸识别方法 | |
CN106951819A (zh) | 基于稀疏概率分布和多阶段类别筛选的单样本人脸识别方法 | |
CN110232361A (zh) | 基于三维残差稠密网络的人体行为意图识别方法与系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20181106 |
|
RJ01 | Rejection of invention patent application after publication |