CN104091169A - 基于多特征融合的行为识别方法 - Google Patents
基于多特征融合的行为识别方法 Download PDFInfo
- Publication number
- CN104091169A CN104091169A CN201310688324.4A CN201310688324A CN104091169A CN 104091169 A CN104091169 A CN 104091169A CN 201310688324 A CN201310688324 A CN 201310688324A CN 104091169 A CN104091169 A CN 104091169A
- Authority
- CN
- China
- Prior art keywords
- descriptor
- feature
- feature fusion
- point
- dictionary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种基于多特征融合的行为识别方法,包括下述步骤:S1、对训练集和测试集的视频进行预处理;S2、对步骤S1预处理后的视频,检测特征点;S3、对视频中的特征立方体,提取代表不同信息的描述子,形成综合描述子;S4、利用步骤S3提取出来的训练集的描述子,使用K-SVD算法训练字典;S5、对步骤S3提取出来测试集的描述子,进行特征融合,用级联字典分类算法进行分类。本发明对能量信息、空间信息、时间信息进行多特征融合,抽象出本质的运动特征,描述子信息提取全面,系统鲁棒性好。
Description
技术领域
本发明涉及图像识别与处理的技术领域,特别涉及一种基于多特征融合的行为识别方法。
背景技术
在计算机视觉领域中,行为识别随着人体运动分析的发展在智能视频监控领域具有越来越高的应用价值。但是由于:1)数据采集的环境复杂多样,行为序列背景分割技术还不十分完善;2)在时间尺度上以及空间尺度上,同一种行为或者相似行为通常具有不同的含义;3)由于分类器的学习能力有限而且兴趣点提取的几种方法有利有弊,所以同一段视频行为同时被判别为属于几个类别常常发生。以上种种因素使得人体行为识别成为一个非常具有挑战性的研究领域。
发明内容
本发明的目的在于克服现有技术的缺点与不足,提供一种基于多特征融合的行为识别方法。
本发明的目的通过下述技术方案实现:
基于多特征融合的行为识别方法,包括下述步骤:
S1、对训练集和测试集的视频进行预处理;
S2、对步骤S1预处理后的视频,检测特征点;
S3、对视频中的特征立方体,提取代表不同信息的描述子,形成综合描述子;
S4、利用步骤S3提取出来的训练集的描述子,使用K-SVD算法训练字典;
S5、对步骤S3提取出来测试集的描述子,进行特征融合,用级联字典分类算法进行分类。
步骤S1中对视频进行预处理的具体方法为:
S11、采用平滑滤波的方法降低噪声的影响;
S12、采用光照补偿的方法保证图像的对比度,补偿光照的影响;
S13、通过背景建模的方法实现提取运动前景,其中采用:a)多层混合背景模型融合彩色空间的颜色测量和局部的纹理特征对背景进行建模;b)利用交叉双边滤波器强化相似区域,更好地检测结果和保留边界信息。
步骤S2中,采用Harris3D角点提取算法来检测特征点,具体为:
S21、使用初始空间尺度和时间尺度稀疏选定的组合,以及积分尺度和在时间和空间上找到时空角点函数H(8)的极大值点这些点就是兴趣点;
S22、对每个兴趣点pj进行处理;
S23、在(xj,yj,tj)处计算和在周边那些和δ=-0.25,0,0.25的地方计算出联合尺度
S24、选出那些使得最大化的联合积分尺度
S25、如果或者用积分尺度局部尺度 在最靠近(xj,yj,tj)的位置处重新提取兴趣点
令然后返回步骤S23重新开始执行。
步骤S2中,采用Cuboid Feature的角点检测算法来检测特征点,具体为:
将视频图像的像素点序列记为I,根据响应函数
R=(I*g*hev)2+(I*g*hod)2,计算每个像素点序列的响应值R,计算得到一组
响应值R,R的极大值点即为所求兴趣点;
其中 其中w=4π;
其中g(x,y;σ)是2D高斯平滑滤波来提供空间兴趣点的探测,hev和hod是1DGabor滤波器的正交对。
步骤S3中,在时空兴趣点周围提取局部块,计算其光流信息,根据光流的角度、强度计算其统计信息,得到光流的统计直方图,作为运动特征描述子;所述运动特征描述子包括HOF,HOG3D和LMP描述子。
进一步的,所述HOF提取算法的具体步骤如下:
(1)对视频每一帧计算光流,得到光流场;
(2)对每一帧光流场进行直方图统计,得到每帧的描述子;
(3)对每帧的描述子向量求和,得到特征立方体的描述子。
进一步的,所述hog3D描述子的计算方法如下:
(1)利用sobel算子对图像分别在两个维度进行差分运算,得到矢量图;
(2)对矢量图进行直方图统计,得到每帧的描述子;
(3)对每帧的描述子向量求和,得到特征立方体的描述子。
进一步的,LMP描述子的计算方法如下:
滤波后的立方体记为v∈IRη×η×l,由l个小平面组成;对每一个像素点在时间上计算二、三、四阶中心矩;定义对应于v的高阶矩矩阵;
Mr=[mij]i,j=1,2,Lη
其中
vijt表示第l个小平面,位置为{i,j}的像素点的灰度值;
每一个高阶矩矩阵Mr,r={2,3,4}可以变换为一个向量mr∈IRη2,对于r的说那个不同取值,高阶矩矩阵可以整合为一个矩阵m∈IRd,其中d=3η2:
向量m为LMP描述子。
步骤S4中,K-SVD训练字典的具体方法为:
1)稀疏编码;
固定Φ,计算X,即:
为解决上式描述的NP难的优化问题,采用正交匹配追踪求解
2)字典更新:
字典Φ中的元素相继被更新,允许X中相关系数的变化;
更新字典中的元素涉及计算秩1近似的误差矩阵:
其中是Φ除去第i列形成的矩阵,是X除去第i行形成的,秩1近似通过使Ei为奇异值矩阵实现。
步骤S5中,用级联字典分类算法进行分类的具体方法为:
S51、对训练集视频的特征向量,用K-SVD算法训练字典;
S52、由这些字典Φ1、Φ2、···Φk生成新的字典Φc:
Φc=[Φ1|Φ2|···|Φk];
S53、对测试集视频的特征向量Q,通过正交匹配追踪找到其稀疏表示ΧQ:
s.t.||X||0≤k3;
S54、ΧQ可以写成:
ΧQ=[ΧΦ1|ΧΦ2|···|ΧΦΚ],其中,ΧΦι是Φι的系数矩阵;
S55、对ΧQ进行分类:
类=argmaxi∈1,2,…,C||ΧΦι||0。
本发明相对于现有技术具有如下的优点及效果:
1、本发明对视频分别提取代表能量信息、空间信息、时间信息的描述子,形成综合描述子。在分类阶段,利用级联字典方法计算重构误差最小时的类别。即对能量信息、空间信息、时间信息进行多特征融合,抽象出本质的运动特征,描述子信息提取全面,系统鲁棒性好。
2、本发明利用稀疏编码理论进行图像识别,提高了分类效果。稀疏编码是一种模拟哺乳动物初级视觉系统主视皮层V1区简单细胞感受野的编码方法。利用k-svd算法对稀疏0范数问题优化求解进行字典学习,利用级联字典计算重构误差进行动作分类,提高了在行为识别中的分类正确率。
附图说明
图1是本发明的流程图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方 式不限于此。
实施例
如图1所示,本实施例基于多特征融合的行为识别方法,包括下述步骤:
S1、对训练集和测试集的视频进行预处理;
S2、对步骤S1预处理后的视频,检测特征点;
S3、对视频中的特征立方体,提取代表不同信息的描述子,形成综合描述子;
S4、利用步骤S3提取出来的训练集的描述子,使用K-SVD算法训练字典;
S5、对步骤S3提取出来测试集的描述子,进行特征融合,用级联字典分类算法进行分类。
步骤S1中,视频预处理的具体步骤如下:
对视频图像进行高斯滤波,降低噪声对运动前景提取的影响,高斯滤波函数如下;
对视频图像采用直方图均衡化的方法减轻背景光照对运动前景提取的影响;
混合高斯背景模型融合彩色空间的颜色测量和局部的纹理特征对背景进行建模,具体方法如下:
对于每一个象素,背景模型主要是由一个混合高斯模型(GMM),K个基于CSLBP直方图的混合纹理模型和一个基于颜色特征的单高斯模型组成。
A:用GMM描述像素灰度值变化,每一个像素的灰度值用K个高斯分布描述,通常K值取3~5,K值的大小取决于计算机内存及对算法的速度要求,定 义像素点灰度值用变量Xt表示,其概率密度函数可用如下K个3维高斯函数表示:
式中,wi,t为第i个高斯分布在t时刻的权重,且有是t时刻的第i个高斯分布,其均值为μi,t,协方差矩阵∑i,t。
i=1,K,K
式中,n表示Xt的维数,为了降低计算量,通常认为R,G,B3个通道相互独立,并有相同的方差,则有∑i,t=σi 2I,σi 2表示方差,I为单位;
B:每个像素点处的纹理模型是对以该像素为中心的一块局部区域内的直方图的统计描述,具体表示为:{(h1,w1),(h2,w2),K,(hk,wk)},其中wi为第i个纹理模型的权重,hi为第i个模型的一个纹理描述向量,具体是指以该像素为中心、长宽皆为R的一个正方形邻域内的CSLBP直方图。
其中,CSLBP直方图计算方法如下:对于图像中任意一点nc,将其邻域内的点(例如周围点n0~n7,是以点nc为圆心,半径为R的圆上的8个相互等距的点,对于不是正好处于某一像素上的点,需双线性插值法来得到其像素值),与nc进行比较来计算CSLBP值,具体计算方法如下式所示:
其中,N为nc的邻域个数,R为邻域半径(单位像素),而T(≥0)为一个 阈值。
设像素点位置为(x,y),该像素点处的直方图描述的第i位按下式计算:
其中,R表示所取邻域大小,V(x',y')表示点(x,y)的CSLBP值。
C:单高斯颜色模型是对该像素点颜色的历史分布的描述,具体表示为:{μ,∑},其中μ为该像素点的颜色均值向量,∑为颜色变化协方差矩阵:
模型相似度计算:
GMM:
i=1,K,K
式中,n表示Xt的维数,为了降低计算量,通常认为R,G,B3个通道相互独立,并有相同的方差,则有∑i,t=σi 2I,σi 2表示方差,I为单位;
CSLBP纹理模型:
对于当前帧中的一个像素点p,首先计算像素点p局部区域内的CSLBP纹理直方图描述Hn,然后计算其与每个纹理模型中直方图H0间的相似度,即得出与每个模型的纹理相似度。纹理相似度的计算采用巴氏距离衡量法:
其中N为直方图的长度,H,Hni分别为直方图的第i位。
单高斯颜色模型:
当前像素点在颜色特征上的相似度计算采用高斯概率密度进行衡量:
其中,c(p)为当前帧中的像素点p处的颜色向量。
根据公式:
dtc(p)=wp(p)·dp(p)+wt(p)·dt(p)+(wc(p))k·dc(p);
其中dtc(p)为背景模型和当前帧图像在相同像素位置p处的总体相似度;dp(p)为混合高斯上的相似度;dt(p)为纹理上相似度;dc(p)为颜色上的相似度;wp(p)为混合高斯信息贡献权重;wt(p)为纹理信息贡献权重;wc(p)为颜色信息贡献权重,且有wc(p)=1-wt(p);而k为比例因子,用于控制颜色信息的贡献权重。
可以计算出当前模型与各个模型间的相似度。将相似度按从小打到排序,如果相似度中的最大值小于设定的阈值Th,则认为没有一个模型与当前模型匹配,那么此时该像素在特征上与模型的匹配程度就置为0;如果相似度中的最大值大于设定阈值,则认为存在于当前模型相匹配的模型。
利用交叉双边滤波器强化相似区域,为下一步提取运动特征做准备,交叉双边滤波函数如下:
其中g(i,j)为输出像素,f(k,l)为输入像素(为输出像素点周边像素),w(i,j,k,l)为权重系数。
步骤S2中,特征点的提取的具体步骤为:
本实施例采用两种常用的时空兴趣点检测方法:一是常用的Harris角点检测方法的3D推广,二是Cuboid Feature的角点检测方法。
Harris3D角点提取算法如下:
1、使用初始空间尺度和时间尺度稀疏选定的组合,以及积分尺度和在时间和空间上找到时空角点函数H(8)的极大值点这些点就是兴趣点;
2、for每个兴趣点pj do;
3、在(xj,yj,tj)处计算和在周边那些和δ=-0.25,0,0.25的地方计算出联合尺度
4、选出那些使得最大化的联合积分尺度
5、if或者
用积分尺度局部尺度在最靠近(xj,yj,tj)的位置处重新提取兴趣点令然后goto步骤3;
6、end。
Cuboid Feature的算法如下:
Cuboid Feature的角点检测方法通过空域高斯滤波与时域Gabor滤波叠加实现。
对输入视频进行时空域兴趣点检测,通过响应函数R=(I*g*hev)2+(I*g*hod)2;
其中 其中w=4π;
其中g(x,y;σ)是2D高斯平滑滤波来提供空间兴趣点的探测,hev和hod是1DGabor滤波器的正交对来提供时间兴趣点的探测。通过计算视频图像中每一个点的响应函数,然后最大值就是兴趣点。
步骤S3中,采用分别代表能量信息、空间信息和时间信息的三种类型的运动特征描述子。
(1)光流的梯度直方图(HOF):
在时空兴趣点周围提取局部块,计算其光流信息,根据光流的角度、强度计算其统计信息,得到光流的统计直方图,作为运动特征描述子。
HOF提取算法如下:
输入:光流序列Fk,定义n个图像分区,时间基准点Tr
输出:HOF描述子——n个和n个序列,其中,i∈[1,n],和 分别描述Tr前后的运动;
●用时域中值滤波模板对每三帧一组的光流序列Fk-1,Fk,Fk+1,k∈[2,tmax-1]进行处理,已达到时域平滑的目的。
●丢弃向量以外的预定义的感兴趣区域(包括人);
●在Tr处分割Fk,Fb包括Tr之前的光流场,Fa包括Tr之后的光流场:
Fb=F(t<Tr),Fa=F(t≥Tr);
●初始化2n个空序列,n个序列对应Tr前的运动,n个序列对应Tr后的运动;
●for每个光流图像Fb(k)和Fa(k),k∈[2,tmax]do;
●将每个光流场分割成n个子区域Fi;
●for每个子区域Fi,i∈[1,n]do;
●在时刻k计算区域Fi(k)在时刻k的二维直方图Hi(k,v,θ)=hist(Fi(k)),直方图的两个维度分别量化成幅值v和方向θ;
●在二维直方图中找出最大计数的bin即
●基于最大计数的bin,生成符号Svθ;
●将Svθ加入子区域的符号序列:Si←{Si,Svθ};
●end for
●end for
●for所有序列和i∈[1,n]do;
●去除序列中的重复的符号;
●end for。
(2)hog3D描述子的计算基本与hof相同,具体方法简述如下:
1、利用sobel算子对图像分别在两个维度进行差分运算,得到矢量图。
2、对矢量图进行直方图统计,得到每帧的描述子。
3、对每帧的描述子向量求和,得到特征立方体的描述子。
(3)LMP算法描述子具体为:
特征点与规格为(η×η×l)的时空立方体一一对应,每个立方体可以捕捉局部时空信号的变化,代表重要的行为模式。这些立方体是从视频V中提取的。为得到每个时空立方体的鲁棒描述子,对立方体执行空间2D高斯滤波以忽略空间域细微的变化。空间域高斯滤波增强了描述子的抗噪性能。
滤波后的立方体记为v∈IRη×η×l,由l个小平面组成。对每一个像素点在时间上计算二、三、四阶中心矩。定义对应于v的高阶矩矩阵
Mr=[mij]i,j=1,2,Lη;
其中
vijt表示第l个小平面,位置为{i,j}的像素点的灰度值。
每一个高阶矩矩阵Mr,r={2,3,4}可以变换为一个向量mr∈IRη2。对于r的说那个不同取值,高阶矩矩阵可以整合为一个矩阵m∈IRd,其中d=3η2:
向量m为LMP描述子。
步骤S4是用描述子训练超完备字典和响应的稀疏表示。
字典训练理论:
考虑一组低维描述子我们希望训练一个字典Φ∈IRn×m(m>n),通过字典Φ,Y有一个稀疏表示每个xi包含k(k<<n)个非零项。可以表述为如下优化问题:
其中||·||F表示Frobenius范数,||·||0表示l0准范数,即向量中非零元素的数量。
K-SVD算法
为解决上式,本系统使用K-SVD算法,K-SVD算法利用迭代求解,分为以下两步:
1)稀疏编码;2)字典更新
稀疏编码:固定Φ,计算X,即
为解决上式描述的NP难的优化问题,本发明采用正交匹配追踪(OMP)求解。
字典更新:
字典Φ中的元素相继被更新,允许X中相关系数的变化。
更新字典中的元素涉及计算秩1近似的误差矩阵
其中是Φ除去第i列形成的矩阵,是X除去第i行形成的,秩1近似通过使Ei为奇异值矩阵实现。
步骤S5特征融合与动作分类具体为:
行为识别通过字典学习算法实现。采集大量训练集视频和测试集视频,按以上步骤提取特征向量,用提取出来的训练集的特征向量来训练字典。由这些字典级联成一个新的字典Φc。利用Φc,求出测试集视频的特征向量的稀疏表示,然后用级联字典(Concatenated Dictionary)分类算法进行分类。
级联字典分类算法如下:
●对训练集视频的特征向量,用K-SVD算法训练字典。
●由这些字典Φ1、Φ2、···Φk生成新的字典Φc:
Φc=[Φ1|Φ2|···|Φk];
●对测试集视频的特征向量Q,通过OMP(正交匹配追踪)找到其稀疏表示ΧQ:
s.t.||X||0≤k3;
●ΧQ可以写成:
ΧQ=[ΧΦ1|ΧΦ2|···|ΧΦΚ],其中,ΧΦι是Φι的系数矩阵。
●对ΧQ进行分类:
类=argmaxi∈1,2,…,C||ΧΦι||0。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (10)
1.基于多特征融合的行为识别方法,其特征在于,包括下述步骤:
S1、对训练集和测试集的视频进行预处理;
S2、对步骤S1预处理后的视频,检测特征点;
S3、对视频中的特征立方体,提取代表不同信息的描述子,形成综合描述子;
S4、利用步骤S3提取出来的训练集的描述子,使用K-SVD算法训练字典;
S5、对步骤S3提取出来测试集的描述子,进行特征融合,用级联字典分类算法进行分类。
2.根据权利要求1所述基于多特征融合的行为识别方法,其特征在于,步骤S1中对视频进行预处理的具体方法为:
S11、采用平滑滤波的方法降低噪声的影响;
S12、采用光照补偿的方法保证图像的对比度,补偿光照的影响;
S13、通过背景建模的方法实现提取运动前景,其中采用:a)多层混合背景模型融合彩色空间的颜色测量和局部的纹理特征对背景进行建模;b)利用交叉双边滤波器强化相似区域,更好地检测结果和保留边界信息。
3.根据权利要求1所述基于多特征融合的行为识别方法,其特征在于,步骤S2中,采用Harris3D角点提取算法来检测特征点,具体为:
S21、使用初始空间尺度和时间尺度稀疏选定的组合,以及积分尺度和在时间和空间上找到时空角点函数H(8)的极大值点这些点就是兴趣点;
S22、对每个兴趣点pj进行处理;
S23、在(xj,yj,tj)处计算和在周边那些和δ=-0.25,0,0.25的地方计算出联合尺度
S24、选出那些使得最大化的联合积分尺度
S25、如果或者用积分尺度局部尺度 在最靠近(xj,yj,tj)的位置处重新提取兴趣点
令然后返回步骤S23重新开始执行。
4.根据权利要求1所述基于多特征融合的行为识别方法,其特征在于,步骤S2中,采用Cuboid Feature的角点检测算法来检测特征点,具体为:
将视频图像的像素点序列记为I,根据响应函数
R=(I*g*hev)2+(I*g*hod)2,计算每个像素点序列的响应值R,计算得到一组
响应值R,R的极大值点即为所求兴趣点;
其中其中w=4/π;
其中g(x,y;σ)是2D高斯平滑滤波来提供空间兴趣点的探测,hev和hod是1DGabor滤波器的正交对。
5.根据权利要求1所述的基于多特征融合的行为识别方法,其特征在于,步骤S3中,在时空兴趣点周围提取局部块,计算其光流信息,根据光流的角度、强度计算其统计信息,得到光流的统计直方图,作为运动特征描述子;所述运动特征描述子包括HOF,HOG3D和LMP描述子。
6.根据权利要求5所述的基于多特征融合的行为识别方法,其特征在于,所述HOF提取算法的具体步骤如下:
(1)对视频每一帧计算光流,得到光流场;
(2)对每一帧光流场进行直方图统计,得到每帧的描述子;
(3)对每帧的描述子向量求和,得到特征立方体的描述子。
7.根据权利要求5所述的基于多特征融合的行为识别方法,其特征在于,所述hog3D描述子的计算方法如下:
(1)利用sobel算子对图像分别在两个维度进行差分运算,得到矢量图;
(2)对矢量图进行直方图统计,得到每帧的描述子;
(3)对每帧的描述子向量求和,得到特征立方体的描述子。
8.根据权利要求5所述的基于多特征融合的行为识别方法,其特征在于,LMP描述子的计算方法如下:
滤波后的立方体记为v∈IRη×η×l,由l个小平面组成;对每一个像素点在时间上计算二、三、四阶中心矩;定义对应于v的高阶矩矩阵;
Mr=[mij]i,j=1,2,Lη
其中
vijt表示第l个小平面,位置为{i,j}的像素点的灰度值;
每一个高阶矩矩阵Mr,r={2,3,4}可以变换为一个向量mr∈IRη2,对于r的说那个不同取值,高阶矩矩阵可以整合为一个矩阵m∈IRd,其中d=3η2:
向量m为LMP描述子。
9.根据权利要求1所述基于多特征融合的行为识别方法,其特征在于,步骤S4中,K-SVD训练字典的具体方法为:
1)稀疏编码;
固定Φ,计算X,即:
为解决上式描述的NP难的优化问题,采用正交匹配追踪求解;
2)字典更新:
字典Φ中的元素相继被更新,允许X中相关系数的变化;
更新字典中的元素涉及计算秩1近似的误差矩阵:
其中是Φ除去第i列形成的矩阵,是X除去第i行形成的,秩1近似通过使Ei为奇异值矩阵实现。
10.根据权利要求1所述基于多特征融合的行为识别方法,其特征在于,步骤S5中,用级联字典分类算法进行分类的具体方法为:
S51、对训练集视频的特征向量,用K-SVD算法训练字典;
S52、由这些字典Φ1、Φ2、···Φk生成新的字典Φc:
Φc=[Φ1|Φ2|···|Φk];
S53、对测试集视频的特征向量Q,通过正交匹配追踪找到其稀疏表示ΧQ:
s.t.||X||0≤k3;
S54、ΧQ可以写成:
ΧQ=[ΧΦ1|ΧΦ2|···|ΧΦΚ],其中,ΧΦι是Φι的系数矩阵; S55、对ΧQ进行分类:
类=argmaxi∈1,2,…,C||ΧΦι||0。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310688324.4A CN104091169A (zh) | 2013-12-12 | 2013-12-12 | 基于多特征融合的行为识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310688324.4A CN104091169A (zh) | 2013-12-12 | 2013-12-12 | 基于多特征融合的行为识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN104091169A true CN104091169A (zh) | 2014-10-08 |
Family
ID=51638884
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310688324.4A Pending CN104091169A (zh) | 2013-12-12 | 2013-12-12 | 基于多特征融合的行为识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104091169A (zh) |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104281845A (zh) * | 2014-10-29 | 2015-01-14 | 中国科学院自动化研究所 | 基于旋转不变字典学习模型的人脸识别方法 |
CN104794446A (zh) * | 2015-04-22 | 2015-07-22 | 中南民族大学 | 基于合成描述子的人体动作识别方法及系统 |
CN105354542A (zh) * | 2015-10-27 | 2016-02-24 | 杭州电子科技大学 | 一种拥挤场景下视频异常事件检测方法 |
CN106407996A (zh) * | 2016-06-30 | 2017-02-15 | 华南理工大学 | 一种基于机器学习的老人跌倒检测方法及其检测系统 |
CN106446909A (zh) * | 2016-09-06 | 2017-02-22 | 广东顺德中山大学卡内基梅隆大学国际联合研究院 | 一种中餐食物图像特征提取方法 |
CN107103267A (zh) * | 2016-02-23 | 2017-08-29 | 北京文安智能技术股份有限公司 | 一种基于视频的打架斗殴行为检测方法、装置 |
CN107491731A (zh) * | 2017-07-17 | 2017-12-19 | 南京航空航天大学 | 一种面向精确打击的地面运动目标检测与识别方法 |
CN107784293A (zh) * | 2017-11-13 | 2018-03-09 | 中国矿业大学(北京) | 一种基于全局特征和稀疏表示分类的人体行为识别方法 |
CN107958260A (zh) * | 2017-10-27 | 2018-04-24 | 四川大学 | 一种基于多特征融合的群体行为分析方法 |
CN108108652A (zh) * | 2017-03-29 | 2018-06-01 | 广东工业大学 | 一种基于字典学习的跨视角人体行为识别方法及装置 |
CN108364072A (zh) * | 2018-01-11 | 2018-08-03 | 华南理工大学 | 一种基于度量信息的迁移学习行为识别方法 |
CN108399620A (zh) * | 2018-03-19 | 2018-08-14 | 嘉兴学院 | 一种基于低秩稀疏矩阵分解的图像质量评价方法 |
CN108416047A (zh) * | 2018-03-16 | 2018-08-17 | 北京工商大学 | 一种面向农药残留数据的多维交叉分析方法与系统 |
CN108805080A (zh) * | 2018-06-12 | 2018-11-13 | 上海交通大学 | 基于上下文的多层次深度递归网络群体行为识别方法 |
CN109145754A (zh) * | 2018-07-23 | 2019-01-04 | 上海电力学院 | 融合面部表情及肢体动作三维特征的情绪识别方法 |
CN110163103A (zh) * | 2019-04-18 | 2019-08-23 | 中国农业大学 | 一种基于视频图像的生猪行为识别方法和装置 |
CN110222570A (zh) * | 2019-05-06 | 2019-09-10 | 杭州视在科技有限公司 | 一种基于单目摄像头的快递行业抛/踢货行为的自动识别方法 |
CN110703004A (zh) * | 2019-10-03 | 2020-01-17 | 广东石油化工学院 | 一种利用字典分类的plc信道脉冲噪声检测方法和系统 |
CN110852382A (zh) * | 2019-11-12 | 2020-02-28 | 山东大学 | 一种基于时空多特征提取的行为识别系统及其工作方法 |
CN111741289A (zh) * | 2016-06-15 | 2020-10-02 | 联发科技股份有限公司 | 处理立方体面图像的方法和装置 |
CN115457389A (zh) * | 2022-09-05 | 2022-12-09 | 河海大学 | 基于稀疏时空特征描述子的超短期太阳辐射预测方法及系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110311137A1 (en) * | 2010-06-22 | 2011-12-22 | Microsoft Corporation | Hierarchical filtered motion field for action recognition |
CN102902950A (zh) * | 2012-06-26 | 2013-01-30 | 西安电子科技大学 | 基于第二代Curvelet变换的人体运动识别方法 |
-
2013
- 2013-12-12 CN CN201310688324.4A patent/CN104091169A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110311137A1 (en) * | 2010-06-22 | 2011-12-22 | Microsoft Corporation | Hierarchical filtered motion field for action recognition |
CN102902950A (zh) * | 2012-06-26 | 2013-01-30 | 西安电子科技大学 | 基于第二代Curvelet变换的人体运动识别方法 |
Non-Patent Citations (1)
Title |
---|
王媛媛: "视频中人体行为识别的判别稀疏编码方法研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
Cited By (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104281845A (zh) * | 2014-10-29 | 2015-01-14 | 中国科学院自动化研究所 | 基于旋转不变字典学习模型的人脸识别方法 |
CN104281845B (zh) * | 2014-10-29 | 2017-08-25 | 中国科学院自动化研究所 | 基于旋转不变字典学习模型的人脸识别方法 |
CN104794446B (zh) * | 2015-04-22 | 2017-12-12 | 中南民族大学 | 基于合成描述子的人体动作识别方法及系统 |
CN104794446A (zh) * | 2015-04-22 | 2015-07-22 | 中南民族大学 | 基于合成描述子的人体动作识别方法及系统 |
CN105354542A (zh) * | 2015-10-27 | 2016-02-24 | 杭州电子科技大学 | 一种拥挤场景下视频异常事件检测方法 |
CN105354542B (zh) * | 2015-10-27 | 2018-09-25 | 杭州电子科技大学 | 一种拥挤场景下视频异常事件检测方法 |
CN107103267A (zh) * | 2016-02-23 | 2017-08-29 | 北京文安智能技术股份有限公司 | 一种基于视频的打架斗殴行为检测方法、装置 |
CN111741289B (zh) * | 2016-06-15 | 2022-03-25 | 联发科技股份有限公司 | 处理立方体面图像的方法和装置 |
CN111741289A (zh) * | 2016-06-15 | 2020-10-02 | 联发科技股份有限公司 | 处理立方体面图像的方法和装置 |
CN106407996A (zh) * | 2016-06-30 | 2017-02-15 | 华南理工大学 | 一种基于机器学习的老人跌倒检测方法及其检测系统 |
CN106446909A (zh) * | 2016-09-06 | 2017-02-22 | 广东顺德中山大学卡内基梅隆大学国际联合研究院 | 一种中餐食物图像特征提取方法 |
CN108108652B (zh) * | 2017-03-29 | 2021-11-26 | 广东工业大学 | 一种基于字典学习的跨视角人体行为识别方法及装置 |
CN108108652A (zh) * | 2017-03-29 | 2018-06-01 | 广东工业大学 | 一种基于字典学习的跨视角人体行为识别方法及装置 |
CN107491731A (zh) * | 2017-07-17 | 2017-12-19 | 南京航空航天大学 | 一种面向精确打击的地面运动目标检测与识别方法 |
CN107958260B (zh) * | 2017-10-27 | 2021-07-16 | 四川大学 | 一种基于多特征融合的群体行为分析方法 |
CN107958260A (zh) * | 2017-10-27 | 2018-04-24 | 四川大学 | 一种基于多特征融合的群体行为分析方法 |
CN107784293A (zh) * | 2017-11-13 | 2018-03-09 | 中国矿业大学(北京) | 一种基于全局特征和稀疏表示分类的人体行为识别方法 |
CN108364072A (zh) * | 2018-01-11 | 2018-08-03 | 华南理工大学 | 一种基于度量信息的迁移学习行为识别方法 |
CN108416047B (zh) * | 2018-03-16 | 2020-04-17 | 北京工商大学 | 一种面向农药残留数据的多维交叉分析方法与系统 |
CN108416047A (zh) * | 2018-03-16 | 2018-08-17 | 北京工商大学 | 一种面向农药残留数据的多维交叉分析方法与系统 |
CN108399620A (zh) * | 2018-03-19 | 2018-08-14 | 嘉兴学院 | 一种基于低秩稀疏矩阵分解的图像质量评价方法 |
CN108399620B (zh) * | 2018-03-19 | 2022-04-19 | 嘉兴学院 | 一种基于低秩稀疏矩阵分解的图像质量评价方法 |
CN108805080A (zh) * | 2018-06-12 | 2018-11-13 | 上海交通大学 | 基于上下文的多层次深度递归网络群体行为识别方法 |
CN109145754A (zh) * | 2018-07-23 | 2019-01-04 | 上海电力学院 | 融合面部表情及肢体动作三维特征的情绪识别方法 |
CN110163103A (zh) * | 2019-04-18 | 2019-08-23 | 中国农业大学 | 一种基于视频图像的生猪行为识别方法和装置 |
CN110163103B (zh) * | 2019-04-18 | 2021-07-30 | 中国农业大学 | 一种基于视频图像的生猪行为识别方法和装置 |
CN110222570A (zh) * | 2019-05-06 | 2019-09-10 | 杭州视在科技有限公司 | 一种基于单目摄像头的快递行业抛/踢货行为的自动识别方法 |
CN110703004A (zh) * | 2019-10-03 | 2020-01-17 | 广东石油化工学院 | 一种利用字典分类的plc信道脉冲噪声检测方法和系统 |
CN110852382A (zh) * | 2019-11-12 | 2020-02-28 | 山东大学 | 一种基于时空多特征提取的行为识别系统及其工作方法 |
CN110852382B (zh) * | 2019-11-12 | 2023-04-18 | 山东大学 | 一种基于时空多特征提取的行为识别系统及其工作方法 |
CN115457389A (zh) * | 2022-09-05 | 2022-12-09 | 河海大学 | 基于稀疏时空特征描述子的超短期太阳辐射预测方法及系统 |
CN115457389B (zh) * | 2022-09-05 | 2023-04-28 | 河海大学 | 基于稀疏时空特征描述子的超短期太阳辐射预测方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104091169A (zh) | 基于多特征融合的行为识别方法 | |
CN110443143B (zh) | 多分支卷积神经网络融合的遥感图像场景分类方法 | |
Lin et al. | Consistent-aware deep learning for person re-identification in a camera network | |
CN106096538B (zh) | 基于定序神经网络模型的人脸识别方法及装置 | |
CN109902590B (zh) | 深度多视图特征距离学习的行人重识别方法 | |
CN109165682B (zh) | 一种融合深度特征和显著性特征的遥感图像场景分类方法 | |
CN104143079B (zh) | 人脸属性识别的方法和系统 | |
CN107330397B (zh) | 一种基于大间隔相对距离度量学习的行人重识别方法 | |
CN105138998B (zh) | 基于视角自适应子空间学习算法的行人重识别方法及系统 | |
CN102324038B (zh) | 一种基于数字图像的植物种类识别方法 | |
CN105574505A (zh) | 一种多摄像机间人体目标再识别的方法及系统 | |
CN104268593A (zh) | 一种小样本情况下多稀疏表示的人脸识别方法 | |
CN105488519B (zh) | 一种基于视频尺度信息的视频分类方法 | |
CN104778457A (zh) | 基于多示例学习的视频人脸识别算法 | |
CN103226713B (zh) | 一种多视角行为识别方法 | |
CN103927531A (zh) | 一种基于局部二值和粒子群优化bp神经网络的人脸识别方法 | |
CN103870811A (zh) | 一种用于视频监控的正面人脸快速判别方法 | |
CN114241422A (zh) | 一种基于ESRGAN和改进YOLOv5s的学生课堂行为检测方法 | |
Redondo-Cabrera et al. | All together now: Simultaneous object detection and continuous pose estimation using a hough forest with probabilistic locally enhanced voting | |
CN105574475A (zh) | 一种基于共同向量词典的稀疏表示分类方法 | |
CN105046272A (zh) | 一种基于简洁非监督式卷积网络的图像分类方法 | |
CN109492570A (zh) | 一种基于多尺度稀疏表示的sar图像目标识别方法 | |
CN105160290A (zh) | 一种基于改进型稠密轨迹的移动边界采样的行为识别方法 | |
CN103955709A (zh) | 基于加权合成核与tmf的极化sar图像分类方法 | |
CN110096979A (zh) | 模型的构建方法、人群密度估计方法、装置、设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20141008 |
|
WD01 | Invention patent application deemed withdrawn after publication |