CN107784266A - 基于时空多尺度统计匹配模型的动作检测方法 - Google Patents
基于时空多尺度统计匹配模型的动作检测方法 Download PDFInfo
- Publication number
- CN107784266A CN107784266A CN201710664791.1A CN201710664791A CN107784266A CN 107784266 A CN107784266 A CN 107784266A CN 201710664791 A CN201710664791 A CN 201710664791A CN 107784266 A CN107784266 A CN 107784266A
- Authority
- CN
- China
- Prior art keywords
- mrow
- msub
- mtd
- local
- msubsup
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
Abstract
本发明公开了一种基于时空多尺度统计匹配模型的动作检测方法,首先通过挖掘高斯差分LARK(GLARK)特征来编码局部内容相似性。这种特征可以很好地描述弱边缘的形状和走势,并提出了一种基于时空多尺度统计匹配的SMSM模型,平衡了局部小窗口GLARK结构和局部大窗口邻域结构之间的关系。其次,在SMSM模型中采用多尺度复合模板集,并对不同尺度大小的可变动作能够鲁棒检测。实验表明,本方法解决了背景干扰带来的弱边缘漏检问题,提升了多尺度匹配效率,能够准确地检测动作。
Description
技术领域
本发明属于视频目标检测识别领域,涉及一种基于时空多尺度统计匹配模型的动作检测方法。
背景技术
在过去的20年中,级联分类和贝叶斯法则等方法逐渐被提了出来。为了确定分类器的参数,传统的目标检测方法需要大量的训练,这就造成了实时性差的问题。近年来,有人提出了一种新的无训练方法。
2007年,H.Takeda提出了经典核回归来恢复图像的高频信息,这可以用来降噪。2009年,P.Milanfar研究出了自适应核回归的方法来去除噪声,提高图像的细节和目标检测。同年,H.J.Seo和P.Milanfar作出了进一步的努力,并提出了局部自适应回归核的方法,这是一种用于目标检测的非参数方法。几年后, H.J.Seo致力于从不同方面提高回归核的鲁棒性。其中,在2011年,H.J.Seo 和P.Milanfar采用时空自适应局部回归核(3D LARK,3D即时空)。3D LARK可以很好地捕捉视频的局部结构特征。然而,H.J.Seo在中提出的匹配算法(以下简称为““Seo算法”)并不适用于非紧凑的目标,如人的动作。采用带背景的完整模板和测试视频相匹配,这限制测试视频场景的选择。识别精度依赖于模板与测试视频的背景相似度。只有当测试视频的背景与模板非常相似时,结果才能是令人满意的。相反,当视角改变或场景复杂时,结果总是令人失望。2007年, Wang通过方法模板图像并将其分割成多个部分来检测人脸。当中,模板只包含人脸,这给了一些去除背景的灵感。采用无背景模板来缓解场景限制。此外,当动作部分被场景遮挡时,那么完整模板的匹配也不能识别到它。
因此,需要一种基于时空多尺度统计匹配模型的动作检测方法以解决上述问题。
发明内容
本发明的目的是针对现有技术的缺陷,提供一种基于时空多尺度统计匹配模型的动作检测方法。
为实现上述发明目的,本发明基于时空多尺度统计匹配模型的动作检测方法可采用如下技术方案:
一种基于时空多尺度统计匹配模型的动作检测方法,包括以下步骤:
1)、构建新的局部GLARK特征;
式中,K(·,·)为局部自适应回归核核值,l∈[1,…,P2],P2是以感兴趣像素为中心的局部窗口中像素的总数;ΔXl=[dx,dy]T,dx和dy分别表示空间图像表面 x轴微分和y轴微分;
式中,Ωl代表时空分析窗口,m∈Ωl,Zx(m)和Zy(m)分别为空间图像表面 m处x轴和y轴高斯差分梯度矩阵,ZT(m)为m处时间维上的梯度;
2)、根据步骤1)得到的局部GLARK特征得到模板视频序列和测试视频序列的特征矩阵FQ和特征矩阵FQ和分别包括列向量和计算列向量和夹角的余弦值,得到余弦相似性矩阵ρ3DGLK(:,:,k):
式中,k=1,2,……,tT,ρij为列向量和夹角的余弦值,其中, i=1,2,……,mT,j=1,2,……,nT;
3)、取余弦相似性矩阵ρ3DGLK(:,:,k)每一行的最大值,记录FQ中和这个最大值对应的列向量的位置,并记为索引矩阵indexGLK(:,k):
4)、选择一个P×P×T的局部窗口遍历indexGLK(:,k)矩阵,并记录窗口内不重复索引值的个数num。
更进一步的,步骤4)中局部窗口的大小为P×P×T,其中,P为局部窗口的长度或宽度,T为局部窗口的时间尺度。
更进一步的,步骤2)中模板视频序列中模板图像的大小分别为模板图像的0.5倍、1倍和1.5倍。这样就形成了包含三个模板序列的多尺度拼接模板集,多尺度模板集增加了对视频序列中尺度变化的动作完整检测的可能性,并且解除了LARK对待检测目标场景的限制。
有益效果:本发明的基于时空多尺度统计匹配模型的动作检测方法,注重目标的局部结构信息,高斯差分子算子增强了局部弱边缘,解决了背景干扰带来的弱边缘漏检问题,特别是对有被遮挡的动作也能很好的检测到;时空统计匹配过程平衡了局部小窗口GLARK结构和局部大窗口邻域结构之间的关系,提升了多尺度匹配效率。
附图说明
图1是本发明方法原理图;
图2是神经元细胞感受野图;
图3是高斯核卷积;
图4是帽子边缘GLARK特征图;
图5是由相似度图到检测结果过程图;
图6、图7和图8是多场景中本发明方法和Seo方法实验结果对比图。
具体实施方式
下面结合附图和具体实施例,进一步阐明本发明,应理解这些实施例仅用于说明本发明而不用于限制本发明的范围,在阅读了本发明之后,本领域技术人员对本发明的各种等价形式的修改均落于本申请所附权利要求所限定的范围。
请参阅图1所示,本发明的基于时空多尺度统计匹配模型的动作检测方法,包括以下步骤:
1)、构建新的局部GLARK特征;
式中,K(·,·)为局部自适应回归核核值,l∈[1,…,P2],P2是以感兴趣像素为中心的局部窗口中像素的总数;ΔXl=[dx,dy]T,dx和dy分别表示空间图像表面 x轴微分和y轴微分;
式中,Ωl代表时空分析窗口,m∈Ωl,Zx(m)和Zy(m)分别为空间图像表面 m处x轴和y轴高斯差分梯度矩阵,ZT(m)为m处时间维上的梯度;
2)、根据步骤1)得到的局部GLARK特征得到模板视频序列和测试视频序列的特征矩阵FQ和特征矩阵FQ和分别包括列向量和计算列向量和夹角的余弦值,得到余弦相似性矩阵ρ3DGLK(:,:,k):
式中,k=1,2,……,tT,ρij为列向量和夹角的余弦值,其中, i=1,2,……,mT,j=1,2,……,nT;步骤2)中模板视频序列中模板图像的大小分别为模板图像的0.5倍、1倍和1.5倍。这样就形成了包含三个模板序列的多尺度拼接模板集,多尺度模板集增加了对视频序列中尺度变化的动作完整检测的可能性,并且解除了LARK对待检测目标场景的限制。
3)、取余弦相似性矩阵ρ3DGLK(:,:,k)每一行的最大值,记录FQ中和这个最大值对应的列向量的位置,并记为索引矩阵indexGLK(:,k):
4)、选择一个P×P×T的局部窗口遍历indexGLK(:,k)矩阵,并记录窗口内不重复索引值的个数num。其中,步骤4)中局部窗口的大小为P×P×T,其中, P为局部窗口的长度或宽度,T为局部窗口的时间尺度。
本发明的基于时空多尺度统计匹配模型的动作检测方法,注重目标的局部结构信息,高斯差分子算子增强了局部弱边缘,解决了背景干扰带来的弱边缘漏检问题,特别是对有被遮挡的动作也能很好的检测到;时空统计匹配过程平衡了局部小窗口GLARK结构和局部大窗口邻域结构之间的关系,提升了多尺度匹配效率。
实施例1
结合图1,本发明提出的基于时空多尺度统计匹配模型的动作检测方法的步骤如下:
步骤一:构建新的局部GLARK特征。
对于局部GALRK的问题,本发明首先分析传统LARK所存在的问题:传统局部自适应回归核定义公式如下。
协方差矩阵Cl是根据图像简单地梯度信息计算得来的。事实上,很难用简单的梯度去描述目标的具体的结构特征。更糟糕的是,当目标边缘的对比度比较小时,Seo算法很容易忽略目标的弱边缘。因此会造成漏检。为了弥补这一缺陷,本发明充分挖掘LARK特征,引入高斯差分(DOG)算子,生成一个新的GLARK 特征描述子来增强弱边缘的结构信息。这个高斯差分算子主要是由图2中的神经元感受野启发而来(经典感受野具有中央和周围区域相互拮抗的结构,非经典感受野是经典感受野之外的较大区域,它消除了对经典感觉野的抑制)。传统高斯核算子定义如下。
然后重建高斯差分梯度矩阵:对于二维图像,本发明采用不同的高斯卷积核作为多尺度因子,来对每个像素点的梯度信息作卷积。如式(3)(4)。
Z(x,y,σ,k)=D(x,y,kσ)-D(x,y,σ). (4)
这里,代表卷积,(x,y)是空间坐标;z(x,y)是图像梯度矩阵,它有两种表现形式:zx(x,y)和zy(x,y);Z(x,y,σ,k)是高斯差分梯度矩阵:Zx和Zy.图3是一个 3×3区域的梯度矩阵。假设有一个3×3的高斯核算子g={1 2 3;4 5 6;7 8 9},并且采用以下公式进行卷积计算。
之后以3×3区域的中心点(2,2)作为一个例子:
在本发明中,3D GLARK的第三个维度是时间,ΔX=[dx,dy,dt]。然后能够得到一个新的CGLK。
这里Ωl代表时空分析窗口。
最后,可以得到新的GLARK特征。
图4给出了GLARK特征图。从图4中可以看出,GLARK更好的描述了弱边缘的图形走势。
步骤二:时空局部结构统计匹配过程。
首先,根据GLARK特征可以得到模板和测试视频序列的特征矩阵:FQ、然后下面就是基于“矩阵余弦相似性的测量规则”。
1、计算列向量和夹角的余弦值,可以得到余弦相似性矩阵,如式(9)。
2、取ρ3DGLK(:,:,k)每一行的最大值,记录FQ中和这个最大值对应的列向量的位置,并记为索引矩阵indexGLK,如式(10)。
3、选择一个P×P×T的局部窗口遍历indexGLK矩阵,并记录窗口内不重复索引值的个数,Num代表了当前区域和感兴趣目标的相似度。这个相似度代表了测试视频序列中和模板相似的所对应的结构。不重复索引值个数越多,说明局部窗口内的结构越和模板相似。基于这个相似度,采用非极大值抑制方法就可以得到一个相似度图,如图5所示。
表1本发明方法和一些监督学习方法在不同场景下的性能对比(%)
为说明本发明在视频目标检测方面的优势,因为本发明方法中的GLARK特征对复杂场景具有一定的适应性,所以先给本发明实验选定3种不同的场景,分别为单人场景、快速动作场景、多人和多尺度行人场景,并和Seo方法做出了对比实验。如图6所示,测试视频序列为597帧,分辨率为352×288,本发明方法对被景物遮挡的行人动作检测的鲁棒性比较好;如图7,测试视频序列为160帧的滑冰场景和84帧的冲浪场景,从实验结果能够看出,本发明方法对动作多尺度的鲁棒性很好;图8为多人场景的实验结果,对于具有弱边缘的动作,本发明方法可以很好地检测出来。
Claims (3)
1.一种基于时空多尺度统计匹配模型的动作检测方法,其特征在于:包括以下步骤:
1)、构建新的局部GLARK特征;
<mrow>
<mi>K</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>C</mi>
<mrow>
<mi>G</mi>
<mi>L</mi>
<mi>K</mi>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mi>&Delta;X</mi>
<mi>l</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>exp</mi>
<mo>{</mo>
<mo>-</mo>
<msubsup>
<mi>&Delta;X</mi>
<mi>l</mi>
<mi>T</mi>
</msubsup>
<msub>
<mi>C</mi>
<mrow>
<mi>G</mi>
<mi>L</mi>
<mi>K</mi>
</mrow>
</msub>
<msub>
<mi>&Delta;X</mi>
<mi>l</mi>
</msub>
<mo>}</mo>
</mrow>
式中,K(·,·)为局部自适应回归核核值,l∈[1,...,P2],P2是以感兴趣像素为中心的局部窗口中像素的总数;ΔXl=[dx,dy]T,dx和dy分别表示空间图像表面x轴微分和y轴微分;
<mrow>
<msub>
<mi>C</mi>
<mrow>
<mi>G</mi>
<mi>L</mi>
<mi>K</mi>
</mrow>
</msub>
<mo>=</mo>
<munder>
<mi>&Sigma;</mi>
<mrow>
<mi>m</mi>
<mo>&Element;</mo>
<msub>
<mi>&Omega;</mi>
<mi>l</mi>
</msub>
</mrow>
</munder>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mrow>
<msubsup>
<mi>Z</mi>
<mi>x</mi>
<mn>2</mn>
</msubsup>
<mrow>
<mo>(</mo>
<mi>m</mi>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
<mtd>
<mrow>
<msub>
<mi>Z</mi>
<mi>x</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>m</mi>
<mo>)</mo>
</mrow>
<msub>
<mi>Z</mi>
<mi>y</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>m</mi>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
<mtd>
<mrow>
<msub>
<mi>Z</mi>
<mi>x</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>m</mi>
<mo>)</mo>
</mrow>
<mi>Z</mi>
<mi>T</mi>
<mrow>
<mo>(</mo>
<mi>m</mi>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>Z</mi>
<mi>x</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>m</mi>
<mo>)</mo>
</mrow>
<msub>
<mi>Z</mi>
<mi>y</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>m</mi>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
<mtd>
<mrow>
<msubsup>
<mi>Z</mi>
<mi>y</mi>
<mn>2</mn>
</msubsup>
<mrow>
<mo>(</mo>
<mi>m</mi>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
<mtd>
<mrow>
<msub>
<mi>Z</mi>
<mi>y</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>m</mi>
<mo>)</mo>
</mrow>
<mi>Z</mi>
<mi>T</mi>
<mrow>
<mo>(</mo>
<mi>m</mi>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>Z</mi>
<mi>x</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>m</mi>
<mo>)</mo>
</mrow>
<mi>Z</mi>
<mi>T</mi>
<mrow>
<mo>(</mo>
<mi>m</mi>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
<mtd>
<mrow>
<msub>
<mi>Z</mi>
<mi>y</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>m</mi>
<mo>)</mo>
</mrow>
<mi>Z</mi>
<mi>T</mi>
<mrow>
<mo>(</mo>
<mi>m</mi>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
<mtd>
<mrow>
<msup>
<mi>ZT</mi>
<mn>2</mn>
</msup>
<mrow>
<mo>(</mo>
<mi>m</mi>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
式中,Ωl代表时空分析窗口,m∈Ωl,Zx(m)和Zy(m)分别为空间图像表面m处x轴和y轴高斯差分梯度矩阵,ZT(m)为m处时间维上的梯度;
2)、根据步骤1)得到的局部GLARK特征得到模板视频序列和测试视频序列的特征矩阵FQ和特征矩阵FQ和分别包括列向量和计算列向量和夹角的余弦值,得到余弦相似性矩阵ρ3DGLK(:,:,k):
式中,k=1,2,......,tT,ρij为列向量和夹角的余弦值,其中,i=1,2,......,mT,j=1,2,......,nT;
3)、取余弦相似性矩阵ρ3DGLK(:,:,k)每一行的最大值,记录FQ中和这个最大值对应的列向量的位置,并记为索引矩阵indexGLK(:,k):
<mrow>
<msub>
<mi>index</mi>
<mrow>
<mi>G</mi>
<mi>L</mi>
<mi>K</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mo>:</mo>
<mo>,</mo>
<mi>k</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>x</mi>
<mn>1</mn>
</msub>
<mo>,</mo>
<msub>
<mi>x</mi>
<mn>2</mn>
</msub>
<mo>,</mo>
<mo>...</mo>
<mo>...</mo>
<mo>,</mo>
<msub>
<mi>x</mi>
<msub>
<mi>m</mi>
<mi>T</mi>
</msub>
</msub>
<mo>)</mo>
</mrow>
<mi>T</mi>
</msup>
<msub>
<mi>x</mi>
<mn>1</mn>
</msub>
<mo>,</mo>
<msub>
<mi>x</mi>
<mn>2</mn>
</msub>
<mo>,</mo>
<mo>...</mo>
<mo>...</mo>
<mo>,</mo>
<msub>
<mi>x</mi>
<msub>
<mi>m</mi>
<mi>T</mi>
</msub>
</msub>
<mo>=</mo>
<mn>1</mn>
<mo>,</mo>
<mn>2</mn>
<mo>,</mo>
<mo>...</mo>
<mo>,</mo>
<msub>
<mi>n</mi>
<mi>T</mi>
</msub>
<mo>;</mo>
</mrow>
4)、选择一个局部窗口遍历indexGLK(:,k)矩阵,并记录窗口内不重复索引值的个数num。
2.如权利要求1所述的基于时空多尺度统计匹配模型的动作检测方法,其特征在于:步骤4)中局部窗口的大小为P×P×T,其中,P为局部窗口的长度或宽度,T为局部窗口的时间尺度。
3.如权利要求1所述的基于时空多尺度统计匹配模型的动作检测方法,其特征在于:步骤2)中模板视频序列中模板图像的大小分别为模板图像的0.5倍、1倍和1.5倍。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710664791.1A CN107784266A (zh) | 2017-08-07 | 2017-08-07 | 基于时空多尺度统计匹配模型的动作检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710664791.1A CN107784266A (zh) | 2017-08-07 | 2017-08-07 | 基于时空多尺度统计匹配模型的动作检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107784266A true CN107784266A (zh) | 2018-03-09 |
Family
ID=61437808
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710664791.1A Pending CN107784266A (zh) | 2017-08-07 | 2017-08-07 | 基于时空多尺度统计匹配模型的动作检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107784266A (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101521740A (zh) * | 2009-04-01 | 2009-09-02 | 北京航空航天大学 | 基于多尺度不变特征的实时运动估计方法 |
CN105005798A (zh) * | 2014-04-24 | 2015-10-28 | 南京理工大学 | 一种基于局部相似结构统计匹配的目标识别方法 |
CN105550678A (zh) * | 2016-02-03 | 2016-05-04 | 武汉大学 | 基于全局显著边缘区域的人体动作特征提取方法 |
CN106295564A (zh) * | 2016-08-11 | 2017-01-04 | 南京理工大学 | 一种邻域高斯结构和视频特征融合的动作识别方法 |
-
2017
- 2017-08-07 CN CN201710664791.1A patent/CN107784266A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101521740A (zh) * | 2009-04-01 | 2009-09-02 | 北京航空航天大学 | 基于多尺度不变特征的实时运动估计方法 |
CN105005798A (zh) * | 2014-04-24 | 2015-10-28 | 南京理工大学 | 一种基于局部相似结构统计匹配的目标识别方法 |
CN105550678A (zh) * | 2016-02-03 | 2016-05-04 | 武汉大学 | 基于全局显著边缘区域的人体动作特征提取方法 |
CN106295564A (zh) * | 2016-08-11 | 2017-01-04 | 南京理工大学 | 一种邻域高斯结构和视频特征融合的动作识别方法 |
Non-Patent Citations (2)
Title |
---|
HAE JONG SEO ET AL.: "Action Recognition from One Example" * |
崔议尹: "基于三维LARK特征的运动目标检测模型研究" * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Xiaohan Nie et al. | Joint action recognition and pose estimation from video | |
CN106023220B (zh) | 一种基于深度学习的车辆外观部件图像分割方法 | |
CN106778595B (zh) | 基于高斯混合模型的人群中异常行为的检测方法 | |
CN106845478B (zh) | 一种字符置信度的二次车牌识别方法及装置 | |
CN103942577B (zh) | 视频监控中基于自建立样本库及混合特征的身份识别方法 | |
CN104658011B (zh) | 一种智能交通运动目标检测跟踪方法 | |
CN104537647B (zh) | 一种目标检测方法及装置 | |
CN110599537A (zh) | 基于Mask R-CNN的无人机图像建筑物面积计算方法及系统 | |
CN105975941A (zh) | 一种基于深度学习的多方向车型检测识别系统 | |
CN105160310A (zh) | 基于3d卷积神经网络的人体行为识别方法 | |
CN107424161B (zh) | 一种由粗至精的室内场景图像布局估计方法 | |
CN105320950A (zh) | 一种视频人脸活体检测方法 | |
CN103310453A (zh) | 一种基于子图像角点特征的快速图像配准方法 | |
CN105809198A (zh) | 基于深度置信网络的sar图像目标识别方法 | |
CN107103326A (zh) | 基于超像素聚类的协同显著性检测方法 | |
CN105469050B (zh) | 基于局部时空特征描述与金字塔词汇树的视频行为识别方法 | |
CN108875586B (zh) | 一种基于深度图像与骨骼数据多特征融合的功能性肢体康复训练检测方法 | |
CN106778768A (zh) | 基于多特征融合的图像场景分类方法 | |
CN107067413A (zh) | 一种时空域统计匹配局部特征的运动目标检测方法 | |
CN107944428A (zh) | 一种基于超像素集的室内场景语义标注方法 | |
CN106991411B (zh) | 基于深度形状先验的遥感图像目标精细化提取方法 | |
CN106295564A (zh) | 一种邻域高斯结构和视频特征融合的动作识别方法 | |
CN106650617A (zh) | 一种基于概率潜在语义分析的行人异常识别方法 | |
CN106023155A (zh) | 基于水平集的在线目标轮廓跟踪方法 | |
Ye et al. | Embedding sequential information into spatiotemporal features for action recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |