CN105095862B - 一种基于深度卷积条件随机场的人体动作识别方法 - Google Patents
一种基于深度卷积条件随机场的人体动作识别方法 Download PDFInfo
- Publication number
- CN105095862B CN105095862B CN201510404260.XA CN201510404260A CN105095862B CN 105095862 B CN105095862 B CN 105095862B CN 201510404260 A CN201510404260 A CN 201510404260A CN 105095862 B CN105095862 B CN 105095862B
- Authority
- CN
- China
- Prior art keywords
- random field
- sequence
- space
- depth
- action
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
Abstract
本发明公开了一种基于深度卷积条件随机场的人体动作识别方法,所述人体动作识别方法包括以下步骤:根据空间卷积层、子采样层交替获取输入图像序列的空间特征表达;对输入图像序列的空间特征表达进行时间卷积操作得到进一步图像序列特征表达;构建基于时空卷积网络的深度条件随机场识别模型,并进行优化;对待预测视频序列进行优化后的深度条件随机场识别的前向计算,得到待预测视频序列中每一帧图像所属的动作类别标注信息。本发明实现了对图像序列数据的时空变换建模,达到了很好的人体动作识别效果。
Description
技术领域
本发明涉及人体动作识别领域,尤其涉及一种基于深度卷积条件随机场的人体动作识别方法。
背景技术
目前,计算机视觉应用中基于人体动作识别的应用已经成为人工智能领域的一个重要问题。由于动作的各帧之间存在时间上的依赖关系可以自然地形成一个序列标注问题。通过对动作序列的识别问题,识别不同动作图像序列代表的含义,可以进行视频监控,人机交互等场景下的人体行为分析。
发明人在实现本发明的过程中,发现现有技术中至少存在以下缺点和不足:
现有技术中的条件随机场方法在进行序列学习过程中主要采用人工设计抽取特征的方式,但在实际应用中无法预知哪些是高性能的人工设计特征。条件随机场方法无法对图像序列数据的时空变换进行很好的建模,特别是当原始输入节点为高维非线性数据时。基于条件随机场改进的非线性方法,如增加核函数的条件随机场等,只能获取浅层特征,无法对数据间复杂的非线性关系进行建模。另外,条件随机场方法无法针对不同场景自动自适应学习数据的特征。
发明内容
本发明提供了一种基于深度卷积条件随机场的人体动作识别方法,本发明实现了对图像序列数据的时空变换建模,达到了很好的人体动作识别效果,详见下文描述:
一种基于深度卷积条件随机场的人体动作识别方法,所述人体动作识别方法包括以下步骤:
根据空间卷积层、子采样层交替获取输入图像序列的空间特征表达;
对输入图像序列的空间特征表达进行时间卷积操作得到进一步图像序列特征表达;
构建基于时空卷积网络的深度条件随机场识别模型,并进行优化;
对待预测视频序列进行优化后的深度条件随机场识别的前向计算,得到待预测视频序列中每一帧图像所属的动作类别标注信息。
其中,所述深度条件随机场识别模型包括:
状态函数,用于获得非线性变换之后序列中的图像数据与类别标签之间的关系;
转移函数,用于一帧图像数据与当前图像经过时空卷积变换的特征、类别标签以及前一帧的类别标签之间的关系;
采用层次前馈网络作为特征抽取器与条件随机场构成的无向图模型进行联合训练。
其中,对深度条件随机场识别模型的优化具体为:
使用随机梯度下降的方式优化目标函数法采用后向传播的方式逐层进行求导。
其中,所述对待预测视频序列进行优化后的深度条件随机场识别的前向计算,得到待预测视频序列中每一帧图像所属的动作类别标注信息的步骤具体为:
通过神经网络的前向计算得到图像序列中每帧图像的高层特征表达,形成图像序列的特征表达,然后通过条件概率最大化得到最可能的标注序列,即每一帧图像所属的动作类别标注信息。
本发明提供的技术方案的有益效果是:采用时空卷积网络自动学习人体动作特征,由于模型学习过程中考虑了时空上的变化,使得模型具有学习时空双维度变换不变性的能力。同时采用条件随机场方法与时空卷积网络联合学习方法捕获图像标注之间的依赖关系。另外现在方法大多针对已经切分好的只包含一个动作数据,本发明所使用的方法可以处理未切分包含多个动作的人体动作视频数据,并通过预测的每帧图像动作标签实现多个动作的自动切分,满足了实际应用中的多种需要。
附图说明
图1为一种基于深度卷积条件随机场的人体动作识别方法的流程图;
图2为时空卷积条件随机场模型示意图;
图3为Weizmann数据集中包含的动作关键帧示意图;
图4为未切分IIPAction动作识别数据集中一些关键帧,上下分别为两个不同的序列,每个序列中包含4类动作的示意图。
图5为4个不同的动作序列上,不同方法得到的切分边界与真实标签的自动切分结果对比的示意图。
(a)为第1个动作序列上,不同方法与真实标签的自动切分结果对比的示意图;(b)为第2个示例动作序列上,不同方法得到的切分边界与真实标签的自动切分结果对比的示意图;(c)为第3个示例动作序列上,不同方法得到的切分边界与真实标签的自动切分结果对比的示意图;(d)为第4个示例动作序列上,不同方法得到的切分边界与真实标签的自动切分结果对比的示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面对本发明实施方式作进一步地详细描述。
本发明将深度卷积神经网络与条件随机场模型的优点结合,使得条件随机场模型具有学习非线性特征的能力,并在建模过程中考虑动作图像序列数据在时空上的特点,对人体动作进行识别,参见图1,详见下文描述:
实施例1
101:根据空间卷积层、子采样层交替获取输入图像序列的空间特征表达;
102:对输入图像序列的空间特征表达进行时间卷积操作得到进一步图像序列特征表达;
103:构建基于时空卷积网络的深度条件随机场识别模型,并进行优化;
104:对待预测视频序列进行优化后的深度条件随机场识别的前向计算,得到待预测视频序列中每一帧图像所属的动作类别标注信息。
其中,步骤103中的深度条件随机场识别模型包括:
状态函数,用于获得非线性变换之后序列中的图像数据与类别标签之间的关系;
转移函数,用于一帧图像数据与当前图像经过时空卷积变换的特征、类别标签以及前一帧的类别标签之间的关系;
采用层次前馈网络作为特征抽取器与条件随机场构成的无向图模型进行联合训练。
进一步地,步骤103中的对深度条件随机场识别模型的优化具体为:
使用随机梯度下降的方式优化目标函数法采用后向传播的方式逐层进行求导。
进一步地,步骤104中的对待预测视频序列进行优化后的深度条件随机场识别的前向计算,得到待预测视频序列中每一帧图像所属的动作类别标注信息的步骤具体为:
通过神经网络的前向计算得到图像序列中每帧图像的高层特征表达,形成图像序列的特征表达,然后通过条件概率最大化得到最可能的标注序列,即每一帧图像所属的动作类别标注信息。
综上所述,通过上述步骤101-步骤104的处理,本发明实施例实现了对图像序列数据的时空变换建模,达到了很好的人体动作识别效果。
实施例2
下面结合计算公式、例子以及图2对实施例1中的方案进行详细描述,其中,整个时空卷积网络有两个不同的操作,分别为空间卷积、时间卷积,下面将分别进行详述:
201:根据空间卷积层、子采样层交替获取输入图像序列的空间特征表达;
其中,空间卷积网络主要为交替的空间卷积层以及子采样层。空间卷积层主要检测输入图像中的特征,子采样层在局部进行平均操作或者局部最大化操作,降低图像分辨率,提高特征的鲁棒性。空间卷积层的主要操作表示如下:
空间卷积操作为对i-1层特征图上的局部区域进行卷积操作,然后将卷积得到的值进行非线性变换,采用Sigmoid或者tanh函数(该两个函数为本领域技术人员所公知,本发明实施例对此不做赘述),最终得到多个i层特征图。那么对第i层的每一个特征图j,第(u,v)像素点对应的值计算方式为:
其中,为非线性函数,这里采用tanh函数;m为特征图的索引,为连接到第m个特征图的卷积核;表示第i层在前一层特征图(i-1层)上进行窗口滑动的区域;Pi,Qi分别为第i层卷积核的高度与宽度;bi,j表示在第i层的第j个特征图上的加性偏置。
对于子采样层来说,输入的特征图的数量与输出的特征图数量相等,只是每一个输出特征图都变小了。子采样层的操作如下:
xi,j=f(βi,jdown(xi-1,j)+bi,j) (2)
其中,down(.)表示一个下采样的操作,即对xi-1,j进行下采样。典型的操作是对于初入特征图的不同块所有像素进行求和,或者取区域内的最大值。βi,j表示在第i层的第j个特征图上的乘性偏置。
根据公式(1)(2)的交替运算,得到空间卷积网络的空间特征表达
假设本发明实施例采用4层的空间卷积网络,需人工设计网络结构,可采用2层卷积层,2层子采样层或者3层卷积层,1层子采样层等。
例如:本发明实施例采用2层卷积层,2层子采样层的网络,假设输入为第0层,标记为通过公式(1)即卷积层得到再通过公式(2)子采样层得到再通过交替卷积层、子采样层分别得到x3、x4。那么x4即为得到的空间特征表达,其作为202步骤的输入进一步进行时间卷积操作。
需要说明的是,此部分卷积层以及子采样层的参数均为随机初始化,经过步骤204对参数进行优化求导后,根据优化过程不断更新此部分参数。
202:对步骤201获取的图像序列的空间特征进行时间卷积操作得到进一步图像序列特征表达;
在空间卷积之后进行时间上的卷积操作以更好地捕捉动作在时间上的依赖关系。假设步骤201中多层的神经网络之后输出的图像序列的空间特征表示为那么空间卷积层之后连接的时间卷积层特征为第i+1层的网络输出,
具体表示如下:
其中,表示经过时间卷积变换之后第t个图像在i+1层的第r个元素的值;S表示时间卷积的窗口大小;表示步骤201中得到的空间特征中的第t+s帧图像的第j个特征图的值;为对应的权重参数;bi+1表示空间网络上的加性偏置。
本发明实施例中时间变换在空间变换后,且只采用一层的时间变换,时空卷积操作到此全部完成,本发明实施例将得到的记为最终的图像序列的特征Φ={φ1,φ2,...,φt}。
例如,步骤201中采用的四层空间变换后,那么空间变换之后得到第5层输出即为时空卷积的特征表达Φ={φ1,φ2,...,φt}。
需要说明的是,此部分时间卷积层参数均为随机初始化,经过步骤204对参数进行优化求导后,根据优化过程不断更新此部分参数。
203:构建基于时空卷积网络的深度条件随机场识别模型;
根据步骤201以及步骤202的时空卷积变换,本发明实施例将其与条件随机场方法进行联合学习,形成深度条件随机场识别模型。在条件随机场模型中,除了模型整体的设计之外,势能函数的构建也极为重要,本发明实施例根据实际应用问题,提出了序列势能特征函数的构建方法。
本发明实施例为深度卷积条件随机场模型设计两类特征函数,即状态函数与转移函数。状态函数即构建点与标签之间的关系,转移函数即建模各个序列节点标签之间的关系,具体包括:
状态函数Fv(x,y),主要获得非线性变换之后序列中的图像数据与类别标签之间的关系,是图模型中点之间的关系,用符号v表示,具体定义为:
其中,fv表示图像序列中某一图像与标注信息(与图像相对应)的关系。φ(xt)表示原始图像序列中的第t帧时空卷积网络变换之后得到的特征;yt为对应第t帧图像的类别标注信息。假设φ(xt)的维度为d,所有动作类别一共有|у|种,那么状态函数的个数为|у|×d个。
转移特征函数Fe(x,y),是图模型一种边关系用符号e表示,具体为:
其中,fe(yt,yt-1)表示图像序列中当前第t帧与t-1帧图像类别标注信息之间的关系;yt-1为对应第t-1帧即前一帧图像的类别标注信息。类比公式(4),转移函数共有d×d个;yt-1=y且yt=y′表示一种隐藏状态对(y,y');y′表示所有可能的动作类别标签的集合中的一种类别标签。
所设计的卷积条件随机场定义了一种新的转移特征函数Fve(x,y)来捕获更复杂的序列依赖关系,具体表示为:
fve(φ(xt),yt,yt-1)表示一帧图像数据与当前图像经过时空卷积变换的特征φ(xt)、类别标签yt以及前一帧的类别标签yt-1之间的关系。新的转移特征函数共有|y|×d×d个。
深度条件随机场框架具体为:采用层次前馈网络作为特征抽取器与条件随机场构成的无向图模型联合训练。假设共有N个输入图像序列,其中第n个输入图像序列包含tn个图像表示为对应的标注序列为那么深度条件随机场模型定义如下:
其中,是归一化函数,保证P(y|x)的和为一;X={x1,x2,...xt}为输入图像序列,y={y1,y2,...yt}为动作类别标签序列;y′代表所有可能的类别标注;xt为输入图像序列中的第t帧图像;Ψt(y,Φ;Θ)为时空卷积表达与输出标注信息的建模,具体表示为其中fk为势能函数分别为公式(4)、(5)和(7)中的fv、fe、fv,e。
其中,Θ={λ,ω}为模型要优化的参数,λ为条件随机场部分的参数。Φ={φ1,φ2,...,tφ},每一个φt≡φ(xt,ω)是一个非线性变换,ω为非线性变换中的参数。此非线性变换通过时空的卷积神经网络实现。通过以上的设计使得卷积条件随机场方法不但针对非线性数据具有较好的高层特征表达能力,还可以有效的建模图像序列中图像之间的依赖关系。
深度卷积条件随机场输入为一组训练图像序列最大化P(y|x;Θ)的似然概率,那么等价于最小化log似然概率的负值。那么整个模型的优化目标J表示为:
其中,第一项为卷积条件随机场中log似然概率。第二项为正则化项,为了使得参数具有更小的复杂度,假设参数符合高斯分布,σ表示高斯分布的标准差,为人工设定的参数。优化的目标为最小化J。
204:深度条件随机场识别模型的优化;
使用随机梯度下降的方式优化目标函数,整体算法采用后向传播的方式逐层对参数Θ={λ,ω}进行求导。
其中,对λ的求导表示如下:
其中,λk为条件随机场部分参数向量的第k维权重。φ为经过时空变换网络得到的特征矩阵,矩阵中的元素φr,t为时间为t的图像帧经过时空卷积变换之后的特征向量φ(xt)中的第r个维度的值。fk(yt,yt-1,φ,t)为势能函数在输入为yt,yt-1,φ,t情况下的值,由公式(4)、(5)和(7)中的fv、fe、fv,e得到的结果进行求和得到;而边缘概率P(y,y'|φ)即P(y,y'|x;Θ)可以通过信念传播的方式计算(具体的计算步骤为本领域技术人员所公知,本发明实施例对此不做赘述)。fk(y,y',φ,t)为势能函数在类别标签为所有可能值的情况下,由公式(4)、(5)和(7)中的fv、fe、fv,e得到的结果进行求和得到的值。
以上为对条件随机场部分的求导,而对于时空卷积神经网络参数ω的求导主要通过计算来实现,ωg为卷积神经网络部分中第g层的参数。其与人工神经网络中反向传播的求导方式相同。
205:对待预测视频序列进行优化后的深度条件随机场识别的前向计算,得到待预测视频序列的每一帧图像所属的动作类别标注信息。
首先通过神经网络的前向计算得到图像序列中每帧图像的高层特征表达φt,形成图像序列的特征表达φ,然后通过条件概率最大化得到最可能的标注序列y*,即每一帧图像所属的动作类别标注信息,具体的计算方式如下:
其中,p(y|φ,λ)为根据得到的特征表达φ以及条件随机场部分的参数λ计算得到的输出类别标签为y的概率。
综上所述,通过上述步骤201-步骤205的处理,本发明实施例实现了对图像序列数据的时空变换建模,达到了很好的人体动作识别效果。
实施例3
下面以具体的试验来验证本方法的可行性,本发明采用了两种类型的数据集对所提出的算法进行验证。一种是每个视频中只包含一种动作的已切分动作数据集,另外一种是每个视频中包含多个动作的未进行动作切分的数据集。下面将对两个数据集以及实验结果分别进行描述。
参见图3,已切分的Weizmann数据集是动作识别任务中常用标准数据集之一。此数据集包含9个人录制的83个视频。共有9类动作,分别是跑、走、开合跳、两腿向前跳、双腿原地跳、鞠躬、双手挥手、单手挥手和滑步。本方法对每一帧进行背景剪除工作,并且对动作进行居中处理。初步处理后图像大小为103×129,边缘仍然有大量的空白区域,再此基础上去掉一些空白区域,同时保证图像仍然居中,最后得到的图像大小为82×82。随机选择其中5个人的动作作为训练集,而其他4个人的动作作为测试集。
为了验证本方法所提出卷积条件随机场学习方法对于未切分动作视频的识别能力。参见图4,本方法录制了包含多个动作的未切分动作识别数据集,记作IIPAction。未切分动作识别数据集采自普通相机,录制视频的分辨率为640×480,帧率为30fps。共捕获4类动作分别为挥手、鞠躬、跳和跑。共有5人参与录制,获得264个动作序列,每个动作序列中包含4类动作中的1-4个类别,序列长度为1-8个动作。随机选取175个视频序列作为训练数据,其余的视频序列作为测试数据。所有的视频数据首先进行背景剪除操作。并且对数据进行居中以及去掉一些空白区域,最后得到的动作图像大小为82×82。
为了评估本方法所提出卷积条件随机场(Convolutional Conditional RandomField,ConvCRF)方法的性能,只采用空间卷积网络条件随机场记做ConvCRFs,采用时空条件随机场的方法记做ConvCRFs-t,其中s表示空间,t表示时间。本发明采用两类对比算法,一类为基于序列模型的方法,包括,条件随机场方法(CRF),带有一层神经网络隐藏层的条件随机场方法(NNCRF)。另一类为非序列的模型,包括神经网络(NN)、卷积神经网络(CNN)和支持向量机(SVM)。其中涉及CRF的算法,本发明均考虑两种具有不同特征函数的CRF方法,其中CRFv,e为标准的CRF算法,而CRFv,e,ve为增加新的特征函数的CRF。类比此命名方式,NNCRF以及ConvCRF的两种不同特征函数的方法记为NNCRFv,e、NNCRFv,e,ve以及ConvCRFs v,e、ConvCRFs v,e,ve、ConvCRFs-t v,e、ConvCRFs-t v,e,ve。其中v,e,ve分别对应公式4,5,7中的Fv,Fe,Fve。所采用的CNN模型结构,包含3个卷积层和2个子采样层。3个卷积层的特征平面的数分别为4,32,128;而感知域的大小分别为15×15,13×13,11×11。2个子采样层均是在2×2的区域进行。ConvCRFv,e和CconvCRFv,e,ve中的CNN结构与此处的CNN结构相同。
本方法采用两个评价指标,即每一帧的准确率和每个视频的准确率。其中每个视频的预测标签由此视频中的每一帧的图像的标签进行大多数投票获得,如表1所示。
表1
本方法所提出的ConvCRF算法与基准算法的实验结果可以看出ConvCRFv,e和ConvCRFv,e,ve优于CNN方法,说明考虑图像之间的动态性依赖关系可以提升模型的性能。其次,ConvCRFv,e和ConvCRFv,e,ve优于CRFv,e和CRFv,e,ve可以看出,通过CNN方法可以提升CRF对于复杂非线性数据的处理,学习到的变换不变性特征可以更好地帮助动作序列的识别。最后,ConvCRFv,e,ve、NNCRFv,e,ve和CRFv,e,ve分别优于ConvCRFv,e、NNCRFv,e和CRFv,e,表明本方法设计的特征函数在动作识别问题上有效。
综上所述,本方法所提出的结合改进的卷积神经网络与条件随机场的深度序列模型优于基准算法。进一步说明综合考虑动作时空特性可以提升动作识别任务的性能。
另外,需要着重说明的是本方法不但支持一个视频中只包含单一序列的动作的视频,还可以对包含多个动作的未经切分的视频长序列仍然有效,同时根据预测标签的类别,本方法可以对待预测的未切分的视频长序列进行自动的切分。为了验证方法在未切分的数据集上的实验性能,本发明在IIPAction数据集上进行了验证,相关的结果如表2所示:
表2
实验表明在未切分动作数据集上和已切分数据集上各方法都取得了较好的效果,各方法的结论与未切分数据集相同。
下面本发明将给出切分结果,参见图5,横轴为视频中帧的索引,分别给出了真实划分、条件随机场、卷积神经网络方法与卷积条件随机场方法对于不同视频序列的划分结果,如图5(a)、5(b)、5(c)和5(d)所示。不同的灰度值分别代表IIPAction数据集中的四种动作。可以看出本发明提出的卷积条件随机场方法可以获得最接近真实标签的未切分动作识别结果。
综上所述,本发明实施了深度序列学习框架下基于时空卷积条件随机场的人体动作识别算法,利用深度学习的高层特征学习能力与条件随机场的依赖关系捕捉能力,联合优化学习,完成了具有时空变换不变性的人体动作图像序列识别方法。同时本发明优于其他发明的方法在于卷积条件随机场方法不但可以对已经切分的视频进行识别,还可以对未切分的包含多个动作的视频进行识别,并依据预测的动作标签自动完成动作的切分。
本领域技术人员可以理解附图只是一个优选实施例的示意图,上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (3)
1.一种基于深度卷积条件随机场的人体动作识别方法,其特征在于,所述人体动作识别方法包括以下步骤:
根据空间卷积层、子采样层交替获取输入图像序列的空间特征表达;
对输入图像序列的空间特征表达进行时间卷积操作得到进一步图像序列特征表达;
构建基于时空卷积网络的深度条件随机场识别模型,并进行优化;
对待预测视频序列进行优化后的深度条件随机场识别的前向计算,得到待预测视频序列中每一帧图像所属的动作类别标注信息;
所述深度条件随机场识别模型包括:
状态函数,用于获得非线性变换之后序列中的图像数据与类别标签之间的关系;
转移函数,用于一帧图像数据与当前图像经过时空卷积变换的特征、类别标签以及前一帧的类别标签之间的关系;
采用层次前馈网络作为特征抽取器与条件随机场构成的无向图模型进行联合训练。
2.根据权利要求1所述的一种基于深度卷积条件随机场的人体动作识别方法,其特征在于,对深度条件随机场识别模型的优化具体为:
使用随机梯度下降的方式优化目标函数法采用后向传播的方式逐层进行求导。
3.根据权利要求1所述的一种基于深度卷积条件随机场的人体动作识别方法,其特征在于,所述对待预测视频序列进行优化后的深度条件随机场识别的前向计算,得到待预测视频序列中每一帧图像所属的动作类别标注信息的步骤具体为:
通过神经网络的前向计算得到图像序列中每帧图像的高层特征表达,形成图像序列的特征表达,然后通过条件概率最大化得到最可能的标注序列,即每一帧图像所属的动作类别标注信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510404260.XA CN105095862B (zh) | 2015-07-10 | 2015-07-10 | 一种基于深度卷积条件随机场的人体动作识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510404260.XA CN105095862B (zh) | 2015-07-10 | 2015-07-10 | 一种基于深度卷积条件随机场的人体动作识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105095862A CN105095862A (zh) | 2015-11-25 |
CN105095862B true CN105095862B (zh) | 2018-05-29 |
Family
ID=54576251
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510404260.XA Active CN105095862B (zh) | 2015-07-10 | 2015-07-10 | 一种基于深度卷积条件随机场的人体动作识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105095862B (zh) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105550699B (zh) * | 2015-12-08 | 2019-02-12 | 北京工业大学 | 一种基于cnn融合时空显著信息的视频识别分类方法 |
CN106022353B (zh) * | 2016-05-05 | 2019-07-30 | 浙江大学 | 一种基于超像素分割的图像语义标注方法 |
CN106845351A (zh) * | 2016-05-13 | 2017-06-13 | 苏州大学 | 一种用于视频的基于双向长短时记忆单元的行为识别方法 |
CN106157307B (zh) * | 2016-06-27 | 2018-09-11 | 浙江工商大学 | 一种基于多尺度cnn和连续crf的单目图像深度估计方法 |
GB2555431A (en) * | 2016-10-27 | 2018-05-02 | Nokia Technologies Oy | A method for analysing media content |
US10540590B2 (en) | 2016-12-29 | 2020-01-21 | Zhejiang Gongshang University | Method for generating spatial-temporally consistent depth map sequences based on convolution neural networks |
CN106909887A (zh) * | 2017-01-19 | 2017-06-30 | 南京邮电大学盐城大数据研究院有限公司 | 一种基于cnn和svm的动作识别方法 |
CN107590432A (zh) * | 2017-07-27 | 2018-01-16 | 北京联合大学 | 一种基于循环三维卷积神经网络的手势识别方法 |
CN108229363A (zh) | 2017-12-27 | 2018-06-29 | 北京市商汤科技开发有限公司 | 关键帧调度方法和装置、电子设备、程序和介质 |
CN108256472A (zh) * | 2018-01-17 | 2018-07-06 | 清华大学 | 一种视频图像序列分割系统和方法 |
CN108062756B (zh) * | 2018-01-29 | 2020-04-14 | 重庆理工大学 | 基于深度全卷积网络和条件随机场的图像语义分割方法 |
CN108492364B (zh) * | 2018-03-27 | 2022-09-20 | 百度在线网络技术(北京)有限公司 | 用于生成图像生成模型的方法和装置 |
CN108875563A (zh) * | 2018-04-28 | 2018-11-23 | 尚谷科技(天津)有限公司 | 一种基于肌肉信号的人体动作识别方法 |
CN108875611B (zh) * | 2018-06-05 | 2021-05-25 | 北京字节跳动网络技术有限公司 | 视频动作识别方法和装置 |
CN108921087A (zh) * | 2018-06-29 | 2018-11-30 | 国家计算机网络与信息安全管理中心 | 视频理解方法 |
CN109409241A (zh) * | 2018-09-28 | 2019-03-01 | 百度在线网络技术(北京)有限公司 | 视频核验方法、装置、设备及可读存储介质 |
CN110390305A (zh) * | 2019-07-25 | 2019-10-29 | 广东工业大学 | 基于图卷积神经网络的手势识别的方法及装置 |
CN112668364B (zh) * | 2019-10-15 | 2023-08-08 | 杭州海康威视数字技术股份有限公司 | 一种基于视频的行为预测方法及装置 |
WO2021232172A1 (zh) * | 2020-05-18 | 2021-11-25 | 陈永聪 | 一种可解释的多层信息筛选网络 |
CN111754046A (zh) * | 2020-07-02 | 2020-10-09 | 成都大学 | 面向结构化数据的深度卷积线性条件随机场的实现方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006100683A2 (en) * | 2005-03-25 | 2006-09-28 | Zion Hadad | Communication system and method |
CN101980250A (zh) * | 2010-10-15 | 2011-02-23 | 北京航空航天大学 | 基于降维局部特征描述子和隐条件随机场的目标识别方法 |
CN103164694A (zh) * | 2013-02-20 | 2013-06-19 | 上海交通大学 | 一种人体动作识别的方法 |
CN103778407A (zh) * | 2012-10-23 | 2014-05-07 | 南开大学 | 一种迁移学习框架下基于条件随机场的手势识别算法 |
-
2015
- 2015-07-10 CN CN201510404260.XA patent/CN105095862B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006100683A2 (en) * | 2005-03-25 | 2006-09-28 | Zion Hadad | Communication system and method |
CN101980250A (zh) * | 2010-10-15 | 2011-02-23 | 北京航空航天大学 | 基于降维局部特征描述子和隐条件随机场的目标识别方法 |
CN103778407A (zh) * | 2012-10-23 | 2014-05-07 | 南开大学 | 一种迁移学习框架下基于条件随机场的手势识别算法 |
CN103164694A (zh) * | 2013-02-20 | 2013-06-19 | 上海交通大学 | 一种人体动作识别的方法 |
Non-Patent Citations (1)
Title |
---|
"稀疏自组合时空卷积神经网络动作识别方法及其并行化";龚丁禧;《中国优秀硕士学位论文全文数据库 信息科技辑》;20140815;论文正文第2-3章 * |
Also Published As
Publication number | Publication date |
---|---|
CN105095862A (zh) | 2015-11-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105095862B (zh) | 一种基于深度卷积条件随机场的人体动作识别方法 | |
Theis et al. | Faster gaze prediction with dense networks and fisher pruning | |
He et al. | Semi-supervised defect classification of steel surface based on multi-training and generative adversarial network | |
Li et al. | Actional-structural graph convolutional networks for skeleton-based action recognition | |
CN110458844B (zh) | 一种低光照场景的语义分割方法 | |
Chen et al. | Semantic image segmentation with task-specific edge detection using cnns and a discriminatively trained domain transform | |
Zhang et al. | Fruit classification by biogeography‐based optimization and feedforward neural network | |
US9704257B1 (en) | System and method for semantic segmentation using Gaussian random field network | |
CN107590432A (zh) | 一种基于循环三维卷积神经网络的手势识别方法 | |
CN110378208B (zh) | 一种基于深度残差网络的行为识别方法 | |
CN113128424B (zh) | 基于注意力机制的图卷积神经网络动作识别方法 | |
Albelwi et al. | Automated optimal architecture of deep convolutional neural networks for image recognition | |
Salem et al. | Semantic image inpainting using self-learning encoder-decoder and adversarial loss | |
Chakraborty et al. | Bio-medical image enhancement using hybrid metaheuristic coupled soft computing tools | |
CN113033276A (zh) | 一种基于转换模块的行为识别方法 | |
Putra et al. | Markerless human activity recognition method based on deep neural network model using multiple cameras | |
CN113627543A (zh) | 一种对抗攻击检测方法 | |
CN113705394B (zh) | 一种长短时域特征结合的行为识别方法 | |
CN114842542A (zh) | 基于自适应注意力与时空关联的面部动作单元识别方法及装置 | |
Hiley et al. | Discriminating spatial and temporal relevance in deep Taylor decompositions for explainable activity recognition | |
Xiao et al. | ANE: Network embedding via adversarial autoencoders | |
CN117373111A (zh) | 一种基于AutoHOINet的人-物交互检测方法 | |
CN113408721A (zh) | 神经网络结构搜索方法、装置、计算机设备和存储介质 | |
Li et al. | Feature recognition of abstract art painting multilevel based convolutional ancient recognition neural network method | |
Rout et al. | Natural scene classification using deep learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |