CN106778854B - 基于轨迹和卷积神经网络特征提取的行为识别方法 - Google Patents
基于轨迹和卷积神经网络特征提取的行为识别方法 Download PDFInfo
- Publication number
- CN106778854B CN106778854B CN201611117772.9A CN201611117772A CN106778854B CN 106778854 B CN106778854 B CN 106778854B CN 201611117772 A CN201611117772 A CN 201611117772A CN 106778854 B CN106778854 B CN 106778854B
- Authority
- CN
- China
- Prior art keywords
- video
- convolution
- neural network
- sampling
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 65
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 60
- 238000000605 extraction Methods 0.000 title claims abstract description 20
- 239000013598 vector Substances 0.000 claims abstract description 92
- 230000006399 behavior Effects 0.000 claims abstract description 90
- 238000005070 sampling Methods 0.000 claims abstract description 77
- 238000012706 support-vector machine Methods 0.000 claims abstract description 28
- 238000012549 training Methods 0.000 claims abstract description 24
- 238000013528 artificial neural network Methods 0.000 claims abstract description 9
- 239000011159 matrix material Substances 0.000 claims description 33
- 238000000513 principal component analysis Methods 0.000 claims description 24
- 230000009466 transformation Effects 0.000 claims description 18
- 238000002790 cross-validation Methods 0.000 claims description 11
- 238000012360 testing method Methods 0.000 claims description 11
- 238000011426 transformation method Methods 0.000 claims description 11
- 230000002087 whitening effect Effects 0.000 claims description 11
- 238000010586 diagram Methods 0.000 claims description 10
- 230000003287 optical effect Effects 0.000 claims description 10
- 238000011176 pooling Methods 0.000 claims description 8
- 238000004422 calculation algorithm Methods 0.000 claims description 7
- 238000012216 screening Methods 0.000 claims description 7
- 238000010606 normalization Methods 0.000 claims description 6
- 230000006870 function Effects 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 abstract description 13
- 230000003993 interaction Effects 0.000 abstract description 3
- 238000012544 monitoring process Methods 0.000 abstract description 3
- 230000009471 action Effects 0.000 description 22
- 239000000284 extract Substances 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- 238000004088 simulation Methods 0.000 description 6
- 238000011160 research Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 230000009467 reduction Effects 0.000 description 4
- 230000004438 eyesight Effects 0.000 description 3
- 230000001131 transforming effect Effects 0.000 description 3
- 238000010009 beating Methods 0.000 description 2
- 230000009194 climbing Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000009191 jumping Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241000950638 Symphysodon discus Species 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000009189 diving Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- ZINJLDJMHCUBIP-UHFFFAOYSA-N ethametsulfuron-methyl Chemical compound CCOC1=NC(NC)=NC(NC(=O)NS(=O)(=O)C=2C(=CC=CC=2)C(=O)OC)=N1 ZINJLDJMHCUBIP-UHFFFAOYSA-N 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- HOQADATXFBOEGG-UHFFFAOYSA-N isofenphos Chemical compound CCOP(=S)(NC(C)C)OC1=CC=CC=C1C(=O)OC(C)C HOQADATXFBOEGG-UHFFFAOYSA-N 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- RZSCFTDHFNHMOR-UHFFFAOYSA-N n-(2,4-difluorophenyl)-2-[3-(trifluoromethyl)phenoxy]pyridine-3-carboxamide;1,1-dimethyl-3-(4-propan-2-ylphenyl)urea Chemical compound CC(C)C1=CC=C(NC(=O)N(C)C)C=C1.FC1=CC(F)=CC=C1NC(=O)C1=CC=CN=C1OC1=CC=CC(C(F)(F)F)=C1 RZSCFTDHFNHMOR-UHFFFAOYSA-N 0.000 description 1
- 235000013550 pizza Nutrition 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000003756 stirring Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000004382 visual function Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Molecular Biology (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于轨迹和卷积神经网络特征提取的行为识别方法,主要解决人类行为视频内容复杂且特征稀疏而导致计算冗余以及分类正确率低的问题。其步骤包括:输入图像视频数据,对视频帧中像素点下采样,剔除均匀区域采样点,提取轨迹,利用卷积神经网络提取卷积层特征,结合轨迹和卷积层特征抽取基于轨迹约束的卷积特征,基于轨迹约束的卷积特征提取栈式局部费舍尔向量特征,压缩变换栈式局部费舍尔向量特征,利用最终的栈式费舍尔向量特征训练支持矢量机模型,进行人体行为识别与分类。本发明采用了多层次费舍尔向量结合卷积轨迹特征描述子的方法,能获得较高且稳定的分类正确率,可广泛应用于人机交互,虚拟现实,视频监控等领域。
Description
技术领域
本发明属于视频图像处理技术领域,主要涉及深度学习、特征提取,具体是一种基于轨迹和卷积神经网络特征提取的行为识别方别方法。用于对人体行为视频的分类。
背景技术
人体动作行为识别广泛应用于人机智能交互、虚拟现实和视频监控等领域。尽管近年来国内外人体动作行为识别的研究取得了重要的进展,但人体运动的高复杂性和多变性使得识别的精确性和高效性并没有完全满足相关行业的使用要求。总体来说人体动作行为识别中的挑战来自一下两方面:
1)空间复杂性:不同光照、视角和背景等条件下会呈现不同的动作场景,而在不同的动作场景中相同的人体行为在姿态和特性上会产生差异。即使在恒定的动作场景中,人体动作也会有较大的自由度,而且每一种相同的动作在方向、角度、形状和尺寸方面有很大的差异性。此外,人体自遮挡、部分遮挡、人体个体差异、多人物识别对象等问题都是动作识别复杂性在空间上的体现。空间复杂性对人体动作行为识别结果的影响主要体现在精确性方面。
2)时间差异性。时间差异性是指人体动作发生的时间点不可预测,而且动作的持续间隔也不尽相同。此外,动作在作用时间内也可能存在动作空白间隙。时间差异性要求识别过程中能够分辨动作的起止时间,同时有效判断动作作用的有效时间和间隔,对动作在时域和时序范围内进行更加细致的分析,导致动作在不同速率、顺序和组合情况下都会存在差异。时间差异性不仅对识别精确性产生影响,也会带来计算实时性和效率等影响识别高效性的问题。
人体动作行为的空间复杂性和时间复杂性使得人体动作行为识别研究领域并没有统一有效的分析分类方法。针对基于视觉的全身人体运动行为识别研究,一般通过一下几种方式进行分析和分类:1)将人体动作行为识别划分为几个互相联系的子过程,根据过程划分方式的不同对相应技术进行分析分类;2)典型问题方式,即选取人体动作行为识别中的部分典型问题作为对象,针对这些对象研究中涉及的方法进行分析分类;3)空间时域方法,即根据时域和空间上各项研究方法的差别对相应技术进行分析分类;4)深度学习方法,即利用人工神经网络模拟人体视觉过程进行分析分类。
通过寻找人体行为视频中关键轨迹点以及对应位置的特征描述子是比较有效的行为识别方法,特征描述子包括SIFT、梯度方向直方图HOG、光流场方向直方图HOF、运动边界直方图MBH、稀疏表示等,其中HOG、HOF和MBH是应用最广泛的特征提取方法。HOG特征是一种在计算机视觉和图像处理中用来进行物体检测的特征描述子,它通过计算和统计图像局部区域的梯度方向直方图来构成特征。HOG特征结合SVM分类器已经广泛的应用于图像中,但是HOG描述子生成过程冗长,计算速度慢,难以达到实时性,并且难以处理遮挡问题,由于梯度本身的特性导致对噪声点十分敏感。SIFT特征是基于物体上的一些局部外观兴趣点与图像大小和旋转无关,对于光线、噪声、微视角改变的容忍度较高,而且对于部分物体遮蔽的侦测率也相当高,但是SIFT对于边缘光滑的目标无法准确提取特征点,而且有时特征点较少,实时性很难满足要求。
上述SIFT、HOG、MBH等都是无监督的特征提取方法,采用无监督直接在图像样本上提取信息,由于没有利用类标,缺乏具有判别力的信息,算法局限性会产生大量冗余并且和最终分类无关的特征信息和计算量,尤其对于时间跨度比较长,内容复杂的视频图像,其特征提取的有效性和时间复杂度以及准确率都很难达到要求。
有学者采用卷积神经网络处理人体行为分类问题,卷积神经网络能够利用样本的类标自适应的提取图像数据中的抽象特征,让机器自动的从样本中学习到表征这些样本的更加本质的特征则会使得人们更好的用计算机来实现人的视觉功能,通过逐层的构建一个多层的网络来使得机器能够自动的学习到反映隐含在数据内部的关系,从而使得学习到的特征更具有推广性和表达力。但是卷积神经网络模型训练时间复杂度慢,线性分类器分类能力有限,并且存在大量冗余计算,不能有效的针对行为运动视频中关键区域进行特征描述。
发明内容
本发明的目的在于针对现有技术中存在的计算量大、特征表达能力不足的问题提出一种特征表达能力强,减少冗余计算能抽取抽象卷积轨迹特征的基于轨迹和卷积神经网络特征提取的行为识别方别方法。
本发明是一种基于轨迹和卷积神经网络特征提取的行为识别方别方法,其特征在于,包括有如下步骤:
(1)输入所有视频数据:其中包含B种人体行为,每个视频中只含有一种行为,每个视频包含m帧,每一帧长、宽分为H和W,每个视频为一个样本;
(2)获得每个视频的局部费舍尔向量特征:对输入的每个视频采样视频帧,剔除采样视频帧中均匀区域的采样点,对得到的采样点提取运动轨迹,利用卷积神经网络提取卷积层特征,得到基于轨迹约束的卷积层特征,采用不同尺度的长、宽、时间轴将视频分割为多个子块,利用子块中轨迹的数量筛选子块,对筛选后的子块中轨迹约束的卷积层特征进行费舍尔向量编码,得到每个视频的栈式局部费舍尔向量编码特征,具体步骤如下;
(2.1)对每个视频中的采样帧进行下采样,从第1帧开始,以Q为时间间隔,采样视频帧,对每一采样帧基于网格进行像素点步长为5的稠密下采样,得到下采样后的图像I1,并以步长5为基准以为倍数再进行稠密采样,得到下采样后的图像I2;
(2.2)剔除均匀区域采样点,定义阈值T,采样点i在原始视频帧I中自相关矩阵的特征值的大小:
式中表示采样点i在视频帧I中的第一特征值,表示采样点i在视频帧I中的第二特征值,当采样点的特征值G小于阈值T则舍去,使得图像中均匀区域的采样点被移除;
(2.3)提取运动轨迹,对移除了均匀区域采样点的人体行为视频帧,分别追踪不同尺度的采样点,对于每一帧计算出对应的稠密光流场ωt=(μt,νt),其中,μt和νt分别为水平和垂直方向的光流;对于当前帧中的一个目标点Pt=(xt,yt),通过使用中值滤波器M追踪目标点在下一帧的位置:
其中,M为33大小的中值滤波器,(xt,yt)为当前帧中目标点的横、纵坐标,一系列视频帧上的目标点构成该时间间隔内的运动轨迹:(Pt,Pt+1,Pt+2,...,Pt+Q-1),Q为整个轨迹的最大长度,拼接所有运动轨迹得到整个视频的运动轨迹;
(2.4)利用卷积神经网络提取卷积层特征,对每个视频中的每一帧利用卷积和池化操作提取卷积特征图,通过特征图归一化并结合运动轨迹进行池化,提取最终轨迹约束的卷积层特征;
(2.5)提取栈式局部费舍尔向量编码特征,使用不同空间尺度对整个视频空间进行分割,得到局部费舍尔向量;
(2.6)提取局部费舍尔向量,对视频从长、宽、时间轴进行划分并产生多个尺度的子块,宽度为W/2和W,长度为H/2和H,时间尺度为m/3、2m/3和m,对每个子块的运动轨迹特征S=[s1,s2,...,sN]∈Rd×N进行主成分分析和白化后再进行第一次费舍尔向量编码,费舍尔向量编码的字典包含K个原子,从而得到局部费舍尔特征向量S=[s′1,s′2,...,s′N]∈R2Kd ×N,其中,d表示单个运动轨迹的特征维度,N表示运动轨迹的个数;
(2.7)筛选局部费舍尔向量,设定阈值E,当某个子块内部的轨迹特征数量小于这个阈值则舍弃该子块,得到更新后的局部费舍尔向量A=[a1,a2,...,aJ]∈R2Kd×Z,其中,Z表示可用子块的数量;
(3)压缩特征,在获得所有视频的局部费舍尔向量基础上,以25倍交叉验证方法将所有视频数据划分为训练集和测试集,在训练集上,利用最大间隔特征变换方法学习投影矩阵,用该投影矩阵压缩所有训练集和测试集的局部费舍尔向量,对压缩后的局部费舍尔向量再次进行主成分分析和白化,将结果作为输入,进行第二次费舍尔向量编码,最终得到能精确描述人体行为视频的栈式局部费舍尔向量特征;
(4)行为识别,基于最终得到的栈式局部费舍尔向量特征与对应的类标,利用支持矢量机以25倍交叉验证方法获得识别结果,完成人体行为识别。
实现本发明目的的技术方案是,利用视频图像中部分帧训练卷积神经网络模型,提取卷积层特征,然后结合视频图像中运动轨迹特征,抽取基于轨迹约束的卷积特征,利用得到数据的几何结构信息,采用主成分分析和栈式费舍尔层次特征编码结构,将原始高纬度的视频信息转换到低维度高层次的抽象特征层再进行分类,进而可以获得更优的分类性能。
本发明与现有的技术相比具有以下优点:
1、本发明由于利用光流场和中值滤波提取了视频中有效轨迹,对视频场景中复杂人体行为进行准确描述和特征表述,从繁杂的人体行为场景中抽取关键运动点,相比与传统的尺度不变特征描述子(SIFT),有效的降低计算复杂度和特征维度。
2、本发明由于采用了卷积神经网络提取视频图像的卷积层特征,有效利用类标信息,采用有监督方式提取图像特征,充分利用低层次纹理颜色信息和高层次抽象概念,相比与传统的无监督特征描述子方向梯度直方图(HOG)、光流直方图(HOF)、运动边界直方图(MBH)等,卷积层特征具有更强的鲁棒性和判别力。
3、本发明由于采用了基于轨迹约束的卷积特征,对卷积特征以轨迹进行约束,减少了冗余卷积特征计算,筛选出具有代表性的特征向量即轨迹特征描述子,然后进行主成分分析(PCA)和费舍尔变换(FV),进行特征变换,提高了算法效率。
4、本发明由于基于轨迹描述子,并对其时空域进行分割,采用层次栈式费舍尔变换(SFV)对整个子时空域进行局部特征压缩变换,既抽取了高层次抽象信息又兼顾了低层次运动信息,提取了更具有判别力、高层次的特征,最终提高了分类的准确率。
对比实验表明,本发明有效的降低了特征提取的计算复杂度,增强了人体动作行为识别能力,提高了行为识别视频数据的分类准确率。
附图说明
图1是本发明的流程示意图;
图2是卷积神经网络中输入视频对应的卷积层,图2a为原始视频帧,bcde分别为原始视频帧在卷积层中的灰度图;
图3是本发明人体行为视频中人体移动的场景,图3a是向前移动的人体行为,图3b是向左移动的人体行为,白色线条为背景轨迹,灰色线条为人体移动轨迹。
具体实施方式
下面结合附图对本发明详细说明
实施例1
对于人体行为识别问题,传统的方法一般通过提取人体运动过程中产生的轨迹点,并结合轨迹点在时空域周围提取无监督特征描述子,例如方向梯度直方图(HOG)、光流直方图(HOF)、运动边界直方图(MBH)等,结合费舍尔变换和主成分分析最终进行分类和识别,但无监督特征描述子普遍存在特征表征能力不足,计算复杂度大等问题。
为了避免现有技术存在的问题,提升人体行为识别的有效性、准确性以及减少冗余计算,本发明提出一种基于轨迹和卷积神经网络栈特征变换的行为识别方法,参见图1,包括有如下步骤:
(1)输入所有视频数据:其中包含B种人体行为,每个视频中只含有一种行为,每个视频包含m帧,每一帧长、宽分为H和W,如图2a所示,每一个视频为一个样本。
(2)获得每个视频的局部费舍尔向量特征:对输入的每个视频采样视频帧,剔除采样视频帧中均匀区域的采样点,对得到的采样点提取运动轨迹,利用卷积神经网络提取卷积层特征,得到基于轨迹约束的卷积层特征,采用不同尺度的长、宽、时间轴将视频分割为多个子块,利用子块中轨迹的数量筛选子块,对筛选后的子块中轨迹约束的卷积层特征进行费舍尔向量编码,得到每个视频的栈式局部费舍尔向量编码特征,具体步骤如下;
(2.1)对每个视频中的采样帧进行下采样,为了更全面描述人体行为视频中的关键动作,从第1帧开始,以Q为时间间隔,采样视频帧,对每一采样帧基于网格进行像素点步长为5的稠密下采样,得到下采样后的图像I1,并以步长5为基准以为倍数再进行稠密采样,得到下采样后的图像I2。
(2.2)剔除均匀区域采样点,为了去除视频帧图像中均匀区域的采样点,保留描述运动的关键采样点,定义阈值T,采样点i在原始视频帧I中自相关矩阵的特征值的大小:
式中表示采样点i在视频帧I中的第一特征值,表示采样点i在视频帧I中的第二特征值,当采样点的特征值G小于阈值T则舍去,使得图像中均匀区域的采样点被移除,如图3中白色背景采样点。
(2.3)提取运动轨迹,如图3所示,对移除了均匀区域采样点的人体行为视频帧,分别追踪不同尺度的采样点,对于每一帧I计算出对应的稠密光流场ωt=(μt,νt),其中,μt和νt分别为水平和垂直方向的光流;对于当前帧的一个目标点Pt=(xt,yt),通过使用中值滤波器M追踪目标点在下一帧的位置:
其中M为33大小的中值滤波器,Pt=(xt,yt)为当前帧中目标点的横、纵坐标,一系列视频帧上的目标点构成该时间间隔内的运动轨迹:(Pt,Pt+1,Pt+2,...,Pt+Q-1),Q为整个轨迹的最大长度,拼接所有运动轨迹得到整个视频的运动轨迹。
(2.4)利用卷积神经网络提取卷积层特征,卷积层特征对人体行为视频数据有良好的特征表达能力,能够抽取低层次纹理颜色特征又兼顾高层次抽象特征,卷积层特征如图2所示,图2a为原始人体行为视频帧,图2b1,c1,d1,e1为图2a1对应的卷积第5层特征图,图2b2,c2,d2,e2为图2a2对应的卷积第5层特征图,图2b3,c3,d3,e3为图2a3对应的卷积第5层特征图,对每个视频中的每一帧利用卷积和池化操作提取卷积特征图,通过特征图归一化并结合运动轨迹进行池化,提取最终轨迹约束的卷积层特征。
(2.5)提取栈式局部费舍尔向量编码(local fisher vector coding)特征,由于人体行为视频空间中信息分布不均衡,不同时空域信息差异大,使用不同空间尺度对整个视频空间进行分割,得到局部费舍尔向量。
(2.6)提取局部费舍尔向量,对视频从长、宽、时间轴进行划分并产生多个尺度的子块,宽度为W/2和W,长度为H/2和H,时间尺度为m/3、2m/3和m,对每个子块的运动轨迹特征S=[s1,s2,...,sN]∈Rd×N进行主成分分析和白化后再进行第一次费舍尔向量编码,费舍尔向量编码的字典包含K个原子,从而得到局部费舍尔特征向量S=[s′1,s′2,...,s′N]∈R2Kd ×N,其中,d表示单个运动轨迹的特征维度,N表示运动轨迹的个数。
(2.7)筛选局部费舍尔向量,设定阈值E,当某个子块内部的轨迹特征数量小于这个阈值则舍弃该子块,得到更新后的局部费舍尔向量A=[a1,a2,...,aJ]∈R2Kd×Z,其中,Z表示可用子块的数量。
(3)压缩特征,在获得所有视频的局部费舍尔向量基础上,以25倍交叉验证方法将所有视频数据划分为训练集和测试集,在训练集上,利用最大间隔特征变换方法学习投影矩阵,用该投影矩阵压缩所有训练集和测试集的局部费舍尔向量,对压缩后的局部费舍尔向量再次进行主成分分析和白化,将结果作为输入,进行第二次费舍尔向量编码,最终得到能精确描述人体行为视频的栈式局部费舍尔向量特征。
(4)行为识别,基于最终得到的栈式局部费舍尔向量特征与对应的类标,利用支持矢量机以25倍交叉验证方法获得识别结果,完成人体行为识别。
本发明采取卷积神经网络和轨迹相结合的方式构造特征描述子,并且利用栈式层次费舍尔变换以及最大间隔特征变换方法有效的对特征描述子压缩变换,最终采用支持矢量机完成最终的分类;轨迹点准确描述人体行为运动特性以及规律,有监督方式提取的卷积特征图能够有效的自适应提取人体行为运动图像中低层次纹理颜色和高层次抽象特征,通过栈式层次费舍尔变换不仅可以减少特征维度而且可以抽取人体行为视频时空中底层信息和高层语义信息,能够强有力的表征人体行为特征,最终仅需要线性支持矢量机进行分类。
实施例2
基于轨迹和卷积神经网络特征变换的行为识别方法同实施例1,
步骤(2.4)中的利用卷积神经网络提取轨迹约束的卷积层特征,具体包括有如下步骤:
(2.4.1)训练卷积神经网络,对人体行为视频中抽取视频帧以及对应的类标作为卷积神经网络(CNN)的输入,每一个输入的视频帧,提取卷积特征,其中卷积神经网络(CNN)的结构为5个卷积层,3个全连接层。
卷积神经网络的不同层可以捕捉的行为模式不同,从低级的边缘纹理到复杂的物体和目标,更高层次的神经网络拥有更大的接受域可以获取更多具有判别力的特征;
(2.4.2)获取卷积特征图,提供的一个视频V,获得一系列的卷积特征图,参见图2b,图2c,图2d,图2e,卷积特征图定义如下:
式中表示第mth个特征图,Hm为第m个图像的高,Wm为第m个图像的宽,L为视频持续的时间,而Nm表示第m个通道的数量,对于给定的视频V从一系列的轨迹特征T(V)和卷积特征图C(V)中提取最终的轨迹约束的卷积特征。
(2.4.3)特征图归一化与轨迹池化,对于卷积特征采取时空域归一化,对于每一个通道的卷积特征独立的在各自通道上归一化。
(2.4.4)提取轨迹约束特征描述子,对所有提取到的运动轨迹进行如下操作:对于给定的第k个轨迹Tk和归一化后的卷积特征定义最终的基于轨迹约束的特征描述子为:
其中,和表示第k个轨迹在第p帧的位置,ri表示第i个特征图相对于原始图像的尺寸比例,最终得到的就是基于运动轨迹的特征描述子。
卷积神经网络通过卷积和池化操作结合全连接和线性分类器,能够有效的提取人体行为视频特征,通过这种有监督的特征提取方法结合轨迹约束,提取具有强判别力和鲁棒性的轨迹卷积特征描述子,提高特征表达能力。
实施例3
基于轨迹和卷积神经网络特征变换的行为识别方法同实施例1,
步骤(3)所述的最大间隔特征变换方法,具体是:
对所有用于训练的有标记样本集合中每个样本的局部费舍尔向量进行采样,在一个采样子集{φi,yi}i=1,...,N上利用最大间隔特征变换方法学习投影矩阵U∈Rp∈2Kd,p<<2Kd,其中,N表示采样子集中局部费舍尔向量的数目。
采用一对多的策略将B类行为样本集的多类别问题转化为多个二分类问题学习投影矩阵,在每个二分类问题中求解最大间隔,最大间隔约束如下:
y′i(wUφi+b)>1,i=1,...,N
其中,y′i∈(-1,1)为二分类问题中第i个样本的类标。
则B类样本的投影矩阵可通过求解如下目标函数获得,
其中,w为超平面参数,U为投影矩阵,y′i为第i个样本的类别标签,φi为第i个样本的特征向量,λ,β,b分别为常量参数,利用从局部费舍尔向量获取的且经过主成分分析和白化的初始投影矩阵U0,采用子梯度算法求解投影矩阵U,更新迭代公式为:
其中,γ为常量参数,迭代到第t代时:迭代完成后得到最终的投影矩阵U,完成特征变换。
本发明最大间隔特征变换方法学习到的投影矩阵大大降低了特征维度,减少了分类时的内存和计算开销,提高了分类器的运行效率。
实施例4
基于轨迹和卷积神经网络特征变换的行为识别方法同实施例1,
步骤(2.4)所述的卷积神经网络,其网络结构参数具体是:
对于每一个输入的视频帧,将其作为一副静止的图像并提取卷积特征,单帧图像尺寸为(224×224×3),卷积神经网络的结构为5个卷积层,3个全连接层,具体参数如下:
conv1:(size:7×7,stride:2,channel:96,mapsize:1/2,receptive:7×7)
pool1:(size:3×3,stride:2,channel:96,mapsize:1/4,receptive:11×11)
conv2(size:5×5,stride:2,channel:256,mapsize:1/8,receptive:27×27)
pool2(size:3×3,stride:2,channel:256,mapsize:1/16,receptive:43×43)
conv3(size:3×3,stride:1,channel:512,mapsize:1/16,receptive:75×75)
conv4(size:3×3,stride:1,channel:512,mapsize:1/16,receptive:107×107)
conv5(size:3×3,stride:1,channel:512,mapsize:1/16,receptive:139×139)
pool5(size:3×3,stride:2,channel:512,mapsize:1/32,receptive:171×171)
full6(channel:4096)
full7(channel:2048)
full8(channel:101)
利用上述8层卷积神经网络结构参数提取卷积层特征,卷积神经网络通过权值共享和局部感受野模拟人体神经元运行规律,减少了神经元连接数量和大量冗余计算,提高了神经网络更新迭代速度,深度卷积神经网络能够模拟更复杂的抽象函数,对人体行为视频数据具有更强的表达能力,能够提取出强判别力的卷积层特征。
下边以一个完整的流程为例,对本发明进一步说明。
实施例5
基于轨迹和卷积神经网络特征变换的行为识别方法同实施例1-4,
参照图1,本发明的具体实施步骤包括:
步骤1,输入所有视频数据,其中包含B种人体行为,每个视频中只含有一种行为,其中每个视频包含m帧,每一帧长、宽分别为H和W,每一个视频为一个样本。
对输入的每个视频进行步骤2到步骤4的操作。
步骤2,对输入的每个视频进行如下操作,获得每个视频的局部费舍尔向量特征;
2a)对每个视频中的采样帧进行下采样,从第1帧开始,以Q为时间间隔,采样视频帧,对每一帧基于网格进行像素点步长5的稠密下采样,得到下采样后的图像I1,并以步长5为基准以为倍数再进行稠密采样,得到下采样后的图像I2。
2b)剔除均匀区域采样点,定义阈值T,采样点i在原始视频帧I中自相关矩阵的特征值的大小:
式中表示采样点i在视频帧I中的第一特征值,表示采样点i在视频帧I中的第二特征值,当采样点的特征值G小于阈值T则舍去,使得图像中均匀区域的采样点被移除。
2c)提取运动轨迹,对移除了均匀区域采样点的人体行为视频帧,分别追踪不同尺度的采样点,对于每一帧I计算出对应的稠密光流场ωt=(μt,νt),其中,μt和νt分别为水平和垂直方向的光流;对于当前帧的一个目标点Pt=(xt,yt),通过使用中值滤波器M追踪目标点在下一帧的位置:
其中,M为33大小的中值滤波器,Pt=(xt,yt)为当前帧中目标点的横、纵坐标,一系列视频帧上的目标点构成该时间间隔内的运动轨迹:(Pt,Pt+1,Pt+2,...,Pt+Q-1),Q为整个轨迹的最大长度,为了减少噪声干扰和轨迹漂移,一般轨迹长度Q设定为15,拼接所有运动轨迹得到整个视频的运动轨迹。
以上完成了对人体行为视频的轨迹提取,下面对人体行为视频进行卷积特征提取。
步骤3,利用卷积神经网络提取卷积层特征:
3a)每一个输入的人体行为视频帧,提取卷积特征,首先训练每一个单帧图像(224×224×3),其中卷积神经网络(CNN)的结构为5个卷积层,3个全连接层,具体参数如下:
conv1:(size:7×7,stride:2,channel:96,mapsize:1/2,receptive:7×7)
pool1:(size:3×3,stride:2,channel:96,mapsize:1/4,receptive:11×11)
conv2(size:5×5,stride:2,channel:256,mapsize:1/8,receptive:27×27)
pool2(size:3×3,stride:2,channel:256,mapsize:1/16,receptive:43×43)
conv3(size:3×3,stride:1,channel:512,mapsize:1/16,receptive:75×75)
conv4(size:3×3,stride:1,channel:512,mapsize:1/16,receptive:107×107)
conv5(size:3×3,stride:1,channel:512,mapsize:1/16,receptive:139×139)
pool5(size:3×3,stride:2,channel:512,mapsize:1/32,receptive:171×171)
full6(channel:4096)
full7(channel:2048)
full8(channel:101)
根据卷积神经网络的理论,不同层可以捕捉的行为模式不同,从低级的边缘纹理到复杂的视觉概念比如物体和目标,更高层次的神经网络拥有更大的接受域可以获取更多具有判别力的特征,提供的一个视频V,可以获得一系列的卷积特征图:
C(V)={C1,C2,...,Cm}
其中i=1,2,…m表示第i个特征图,Hi为图像的高,Wi为图像的宽,m为视频帧,Ni表示特征图的数量,对于给定的视频V要从一系列的轨迹特征和卷积特征图中提取最终的轨迹约束的卷积特征,其中包含二个步骤:特征图归一化,轨迹池化。
3b)特征图归一化,对于卷积特征采取时空域归一化,对于每一个通道的卷积特征独立的在各自通道上归一化,这确保了每一个通道的卷积特征具有相同的尺度,有利于最终的分类和识别。
3c)提取轨迹约束特征描述子,对所有提取到的运动轨迹进行如下操作:对于给定的第k个轨迹Tk和归一化后的卷积特征定义最终的基于轨迹约束的特征描述子为:
其中,和表示第k个轨迹在第p帧的位置,ri表示第i个特征图相对于原始图像的尺寸比例,最终得到的就是基于运动轨迹的特征描述子。
步骤4,利用上述基于轨迹的卷积特征,提取栈式局部费舍尔向量编码(localfisher vector coding)特征:
4a)提取局部费舍尔向量,对视频从长、宽、时间轴进行划分并产生多个尺度的子块,宽度为W/2和W,长度为H/2和H,时间尺度为m/3、2m/3和m,对每个子块的运动轨迹特征S=[s1,s2,...,sN]∈Rd×N进行主成分分析和白化后再进行第一次费舍尔向量编码,费舍尔向量编码的字典包含K个原子,从而得到局部费舍尔特征向量S=[s′1,s′2,...,s′N]∈R2Kd×N,其中,d表示单个运动轨迹的特征维度,N表示运动轨迹的个数。
4b)筛选局部费舍尔向量,设定阈值E,当子块内部的轨迹特征数量小于这个阈值则舍弃这部分,得到更新后的局部费舍尔向量A=[a1,a2,...,aJ]∈R2Kd×Z,其中,Z表示可用子块的数量。
4c)在获得所有视频的局部费舍尔向量基础上,以25倍交叉验证方法将所有视频数据划分为训练集和测试集,在训练集上,利用最大间隔特征变换方法学习投影矩阵:对所有用于训练的有标记样本集合中每个样本的局部费舍尔向量进行采样,在一个采样子集{φi,yi}i=1,...,N上利用最大间隔特征变换方法学习投影矩阵U∈Rp∈2Kd,p<<2Kd,其中,N表示采样子集中局部费舍尔向量的数目。
采用一对多的策略将B类行为样本集的多类别问题转化为多个二分类问题学习投影矩阵,在每个二分类问题中求解最大间隔,最大间隔约束如下:
y′i(wUφi+b)>1,i=1,...,N
其中,y′i∈(-1,1)为二分类问题中第i个样本的类标。
则B类样本的投影矩阵可通过求解如下目标函数获得,
其中w为超平面参数,U为投影矩阵,y′i为第i个样本的类别标签,φi为第i个样本的特征向量,λ,β,b分别为常量参数,利用从局部费舍尔向量获取的且经过主成分分析和白化的初始投影矩阵U0,采用子梯度算法求解投影矩阵U,更新迭代公式为:
其中,γ为常量参数,迭代到第t代时:迭代完成后得到最终的投影矩阵U,完成特征变换,该投影矩阵完成了特征变换并且降低了复杂度减少了计算量。
步骤5,压缩特征,在获得所有视频的局部费舍尔向量基础上,以25倍交叉验证方法将所有视频数据划分为训练集和测试集,在训练集上,利用最大间隔特征变换方法学习到的投影矩阵,压缩所有训练集和测试集的局部费舍尔向量,对压缩后的所有局部费舍尔向量再次进行主成分分析和白化,将结果作为输入,进行第二次费舍尔向量编码,最终得到能精确描述人体行为视频的栈式局部费舍尔向量特征。
步骤6,行为识别,基于最终得到的栈式局部费舍尔向量特征与对应的类标,利用支持矢量机以25倍交叉验证方法获得识别结果,完成人体行为识别。
本发明的效果可以通过以下仿真实验进一步说明:
实施例6
基于轨迹和卷积神经网络特征变换的行为识别方法同实施例1-5,
1.仿真条件:
仿真实验采用行为识别视频数据集UCF50,所有数据均为从youtube上收集的现实生活中的视频,一共包含50个人体行为类别。行为类别包含最常见的运动项目和生活锻炼视频,每一类视频被分为25个组。每一组包含最少4个视频片段,一共包含6618个视频片段。每一个组视频片段拥有相同的场景或者人物设定,采取交叉验证的方法测试算法对整个数据集的分类性能。
仿真实验在CPU为Intel(R)Core(TM)i5-4200M、主频2.50GHz,内存为12G的WINDOWS 7系统上用MATLAB 2012软件进行,以及2个Intel Xeon E5-2692v2,12核处理器(2.60GHz),共24计算核心1.8Tsas硬盘,配置64GB内存的RedHat Enterprise Linux6.4x86_64系统上进行仿真。
2.仿真内容及分析:
使用本发明与现有六种方法对UCF50行为视频数据进行分类,现有5种方法分别为:梯度直方图(HOG)+主成分分析(PCA)+费舍尔向量(FV)+支持矢量机(SVM)缩写为HOG+SVM,光流直方图(HOF)+主成分分析(PCA)+费舍尔向量(FV)+支持矢量机(SVM)缩写为HOF+SVM,运动边界直方图(MBH)+主成分分析(PCA)+费舍尔向量(FV)+支持矢量机(SVM)缩写为MBH+SVM,结合Combined(HOG+HOF+MBH)+主成分分析(PCA)+支持矢量机(SVM)缩写为Combined+SVM,以及传统的轨迹方法Trajectory,本发明基于轨迹和卷积神经网络栈特征变换的行为识别方法缩写为Trajectory+CNN+SFV。
各分类方法HOG+SVM、HOF+SVM、MBH+SVM和本发明CNN+trajectories+SFV全部采用线性支撑矢量机Linear SVM,惩罚项C取值为100,Fisher Vector变换采用的字典数K均为256。本发明轨迹长度L为15,卷积层5的特征维度为512维,随机采样100w维特征学习GMM字典。默认的参数δs,δt,T分别为10,5,100。对局部FV的压缩维度为400到200维。
由图1所示从50类人体动作行为视频中提取卷积神经网络中卷积层的特征,利用本发明的轨迹特征作为约束,提取基于轨迹的卷积特征描述子,对应原始视频帧图2a提取出来的卷积特征如图2b,图2c,图2d,图2e所示,视频中的轨迹特征如图3a,图3b所示。
本发明与现有的方法对50类视频行为动作进行交叉验证分类实验,作为最终分类正确率,对于每一类行为的识别率和分类正确率如表1所示。
表1 UCF 50数据集不同维度下实验精度结果
类别名 | 32维度准确率 | 64维度准确率 | 128维度准确率 | 256维度准确率 |
投掷棒球 | 81.25% | 84.37% | 84.37% | 84.37% |
打篮球 | 91.66% | 91.66% | 91.66% | 95.83% |
仰卧推举 | 100% | 100% | 100% | 100% |
骑自行车 | 85% | 90% | 100% | 95% |
打台球 | 100% | 100% | 100% | 100% |
蛙泳 | 100% | 100% | 100% | 100% |
挺举 | 100% | 100% | 100% | 100% |
潜水 | 93.93% | 93.93% | 93.93% | 96.97% |
击鼓 | 100% | 96.87% | 100% | 96.88% |
击剑 | 100% | 100% | 100% | 100% |
高尔夫球 | 87.5% | 87.5% | 87.5% | 87.5% |
跳高 | 75% | 85% | 85% | 90% |
赛马 | 90.32% | 96.77% | 93.55% | 93.54% |
骑马 | 100% | 97.67% | 100% | 100% |
呼啦圈 | 87.10% | 87.10% | 87.10% | 93.55% |
投掷标枪 | 92% | 96% | 96% | 96% |
杂耍球 | 100% | 100% | 100% | 100% |
跳跃运动 | 96.42% | 100% | 100% | 100% |
跳绳 | 100% | 96.55% | 96.55% | 96.55% |
皮划艇 | 90% | 97.5% | 97.5% | 95% |
冲刺运动 | 86.67% | 93.33% | 96.66% | 96.67% |
阅兵 | 85.71% | 85.71% | 85.71% | 89.29% |
搅拌 | 100% | 96.29% | 96.29% | 96.30% |
双节棍 | 100% | 100% | 100% | 100% |
做披萨 | 72% | 84% | 96% | 88% |
弹吉他 | 100% | 100% | 100% | 100% |
弹钢琴 | 81.81% | 81.81% | 90.91% | 81.81% |
打手鼓 | 100% | 100% | 100% | 100% |
拉小提琴 | 100% | 100% | 100% | 100% |
撑杆跳 | 86.84% | 86.84% | 89.47% | 89.47% |
鞍马 | 100% | 100% | 100% | 100% |
引体向上 | 100% | 100% | 100% | 100% |
拳击 | 96.88% | 100% | 96.87% | 96.88% |
俯卧撑 | 94.73% | 78.95% | 78.95% | 78.95% |
室内攀岩 | 93.94% | 93.94% | 93.94% | 96.97% |
爬绳 | 85.71% | 92.85% | 92.85% | 92.56% |
射箭 | 96.15% | 92.31% | 96.15% | 96.15% |
萨尔萨舞蹈 | 100 95%. | 100% | 100% | 100% |
滑板 | 86.36% | 77.27% | 90.91% | 95.45% |
滑雪 | 86.96% | 86.96% | 86.96% | 91.30% |
水上摩托 | 90% | 95% | 95% | 90% |
足球联赛 | 83.33% | 91.66% | 87.5% | 95.83% |
荡秋千 | 92% | 100% | 100% | 100% |
太极 | 72.22% | 77.77% | 77.77% | 83.33% |
打网球 | 100% | 100% | 100% | 100% |
掷铁饼 | 86.21% | 86.21% | 82.75% | 86.21% |
跳蹦床 | 95.65% | 100% | 95.65% | 95.65% |
打排球 | 94.44% | 94.44% | 94.44% | 94.44% |
遛狗 | 68.7% | 84% | 88% | 88% |
溜溜球 | 100% | 100% | 100% | 100% |
表1为原始特征在采取不同主成分分析降维方法的结果对比图,分别采用了32维度、64维度、128维度、256维度,降维策略,然后采用字典数k为256的高斯混合模型进行费舍尔向量降维操作。可以看出当特征维度不断上升的时候正确率一开始也是上升的,但是当特征维度降到256时达到最优值,最终整体正确率可以达到93.8%,所以降维采用256维就可以达到理想的正确率。表1可以看出有个别行为类别分类正确率没有达到较高的水平比如“遛狗”、“太极”等类别,这是由于两种典型的因素导致的,第一,由于视频内信息量比较少,比如“太极”,由于“太极”运动本身运动缓慢,导致提取的轨迹特征比较有限,卷积层特征判别里收到极大的影响,时空域的特征没有被激发出来。第二,由于视频内部内容比较复杂,甚至有多目标运动,导致特征受到干扰程度大,降低了分类精确性。
实施例7
基于轨迹和卷积神经网络特征变换的行为识别方法同实施例1-5,仿真条件和内容同实施例6。
表2 UCF 50数据集上本发明与六种方法实验精度结果
实验算法 | 准确率 |
Trajectory | 75.2% |
HOG | 82.6% |
HOF | 85.1% |
MBH | 88.9% |
HOF+MBH | 89.5% |
Combined_above_all | 91.2% |
本发明(Trajectory+CNN+SFV) | 93.8% |
从表2可以看出每种方法在UCF50数据集上的平均分类正确率,在UCF50数据集上传统的方法由于特征提取策略比较单一,只考虑了图像的梯度或者运动边界,没有考虑运动视频中深层次的关联信息,由于视频比图像信息量更大,更加复杂,通过卷积神经网络以及人体的运动轨迹能够提取出具有更丰富含义和更具有判别里的特征,然后通过栈费舍尔(stack fisher vector)变换,把这些基础特征映射到具有更深层次的特征空间,把原始线性不可分的特征层,变换成线性可分的问题,最终通过简单的线性支撑矢量机完成分类任务,比传统的梯度直方图(HOG)、光流直方图(HOF)、以及运动边界直方图(MBH)获得了更高的分类精度。
综上,本发明公开的一种基于轨迹和卷积神经网络特征提取的行为识别方法,主要解决人类行为视频内容复杂且特征稀疏而导致计算冗余以及分类正确率低的问题。其步骤包括:将视频数据每一帧作为图片输入进卷积神经网络,训练出基于视频帧的卷积神经网络模型,通过该模型提取视频数据的卷积层特征,然后通过在原始图像上采样追踪得到视频运动轨迹,最终通过结合轨迹和卷积特征得到基于卷积特征的轨迹特征描述子,通过采样构建投影矩阵,将数据变换到投影空间,再通过多层费舍尔向量变换原始特征描述子得到高层次的特征数据,最终把训练集和测试集输入支持矢量机进行识别与分类,得到测试集的识别与分类结果。本发明采用了栈式费舍尔向量结合卷积轨迹特征描述子的方法,能够获得较高且稳定的分类正确率,可以广泛的应用于人机交互,虚拟现实,视频监控等领域。
本发明在基于轨迹和卷积神经网络特征变换的基础上结合支持矢量机对人体动作行为进行分类,充分利用卷积神经网络和轨迹约束,能够大大减少特征计算量,而且利用视频轨迹时空域特性对视频分割进行压缩获取高层次特征,能得到较高的分类正确率,比传统的方法具有一定优势。
Claims (4)
1.一种基于轨迹和卷积神经网络特征提取的行为识别方法,其特征在于,包括有如下步骤:
(1)输入所有视频数据:其中包含B种人体行为,每个视频中只含有一种行为,每个视频包含m帧,每一帧长、宽分为H和W,每个视频为一个样本;
(2)获得每个视频的局部费舍尔向量特征:对输入的每个视频采样视频帧,剔除采样视频帧中均匀区域的采样点,对得到的采样点提取运动轨迹,利用卷积神经网络提取卷积层特征,得到基于轨迹约束的卷积层特征,采用不同尺度的长、宽、时间轴将视频分割为多个子块,利用子块中轨迹的数量筛选子块,对筛选后的子块中轨迹约束的卷积层特征进行费舍尔向量编码,得到每个视频的栈式局部费舍尔向量编码特征,具体步骤如下;
(2.1)对每个视频中的采样帧进行下采样,从第1帧开始,以Q为时间间隔,采样视频帧,对每一采样帧基于网格进行像素点步长为5的稠密下采样,得到下采样后的图像I1,并以步长5为基准以为倍数再进行稠密采样,得到下采样后的图像I2;
(2.2)剔除均匀区域采样点,定义阈值T,采样点i在原始视频帧I中自相关矩阵的特征值的大小:
式中λi 1表示采样点i在视频帧I中的第一特征值,λi 2表示采样点i在视频帧I中的第二特征值,当采样点的特征值G小于阈值T则舍去,使得图像中均匀区域的采样点被移除;
(2.3)提取运动轨迹,对移除了均匀区域采样点的人体行为视频帧,分别追踪不同尺度的采样点,对于每一帧计算出对应的稠密光流场ωt=(μt,νt),其中,μt和νt分别为水平和垂直方向的光流;对于当前帧中的一个目标点Pt=(xt,yt),通过使用中值滤波器M追踪目标点在下一帧的位置:
其中,M为33大小的中值滤波器,(xt,yt)为当前帧中目标点的横、纵坐标,一系列视频帧上的目标点构成该时间间隔内的运动轨迹:(Pt,Pt+1,Pt+2,...,Pt+Q-1),Q为整个轨迹的最大长度,拼接所有运动轨迹得到整个视频的运动轨迹;
(2.4)利用卷积神经网络提取卷积层特征,对每个视频中的每一帧利用卷积和池化操作提取卷积特征图,通过特征图归一化并结合运动轨迹进行池化,提取最终轨迹约束的卷积层特征;
(2.5)提取栈式局部费舍尔向量编码特征,使用不同空间尺度对整个视频空间进行分割,得到局部费舍尔向量;
(2.6)提取局部费舍尔向量,对视频从长、宽、时间轴进行划分并产生多个尺度的子块,宽度为W/2和W,长度为H/2和H,时间尺度为m/3、2m/3和m,对每个子块的运动轨迹特征S=[s1,s2,...,sN]∈Rd×N进行主成分分析和白化后再进行第一次费舍尔向量编码,费舍尔向量编码的字典包含K个原子,从而得到局部费舍尔特征向量S=[s′1,s′2,...,s′N]∈R2Kd×N,其中,d表示单个运动轨迹的特征维度,N表示运动轨迹的个数;
(2.7)筛选局部费舍尔向量,设定阈值E,当某个子块内部的轨迹特征数量小于这个阈值则舍弃该子块,得到更新后的局部费舍尔向量A=[a1,a2,...,aZ]∈R2Kd×Z,其中,Z表示可用子块的数量;
(3)压缩特征,在获得所有视频的局部费舍尔向量基础上,以25倍交叉验证方法将所有视频数据划分为训练集和测试集,在训练集上,利用最大间隔特征变换方法学习投影矩阵,用该投影矩阵压缩所有训练集和测试集的局部费舍尔向量,对压缩后的局部费舍尔向量再次进行主成分分析和白化,将结果作为输入,进行第二次费舍尔向量编码,最终得到能精确描述人体行为视频的栈式局部费舍尔向量特征;
(4)行为识别,基于最终得到的栈式局部费舍尔向量特征与对应的类标,利用支持矢量机以25倍交叉验证方法获得识别结果,完成人体行为识别。
2.根据权利要求1所述的基于轨迹和卷积神经网络特征提取的行为识别方法,其特征在于,步骤(2.4)所述的利用卷积神经网络提取轨迹约束的卷积层特征,具体包括有如下步骤:
(2.4.1)训练卷积神经网络,对每一个输入的视频帧,提取卷积特征,其中卷积神经网络的结构为5个卷积层,3个全连接层;
(2.4.2)获取卷积特征图,对提供的每个视频V,获得一系列的卷积特征图:
C(V)={C1,C2,...,Cm}
其中i=1,2,…m,Hi为视频的高,Wi为视频的宽,m为视频帧的数量,Ni表示特征图的数量;
(2.4.3)特征图归一化,卷积特征采取时空域归一化,对于每一个通道的卷积特征独立的在各自通道上归一化;
(2.4.4)提取轨迹约束特征描述子,对所有提取到的运动轨迹进行如下操作:对于给定的第k个轨迹Tk和归一化后的卷积特征定义最终的基于轨迹约束的特征描述子为:
其中,和表示第k个轨迹在第p帧的位置,ri表示第i个特征图相对于原始图像的尺寸比例,最终得到的就是基于运动轨迹的特征描述子。
3.根据权利要求1所述的基于轨迹和卷积神经网络特征提取的行为识别方法,其特征在于,步骤(3)所述的最大间隔特征变换方法,具体是:
对所有用于训练的有标记样本集合中每个样本的局部费舍尔向量进行采样,在每个采样子集{φi,yi}i=1,...,N上利用最大间隔特征变换方法学习投影矩阵U∈Rp∈2Kd,p<<2Kd,其中,N表示该采样子集中局部费舍尔向量的数目;
采用一对多的策略将B类行为样本集的多类别问题转化为多个二分类问题学习投影矩阵,在每个二分类问题中求解最大间隔,最大间隔约束如下:
y′i(wUφi+b)>1,i=1,...,N
其中,y′i∈(-1,1)为二分类问题中第i个样本的类标;
则B类样本的投影矩阵可通过求解如下目标函数获得,
其中,w为超平面参数,U为投影矩阵,yi′为第i个样本的类别标签,φi为第i个样本的特征向量,λ,β,b分别为常量参数,利用从局部费舍尔向量获取的且经过主成分分析和白化的初始投影矩阵U0,采用子梯度算法求解投影矩阵U,更新迭代公式为:
其中,γ为常量参数,迭代到第t代时:迭代完成后得到最终的投影矩阵U,完成特征变换。
4.根据权利要求1所述的基于轨迹和卷积神经网络特征提取的行为识别方法,其特征在于,步骤(2.4)所述的卷积神经网络,其网络结构参数具体是:
对于每一个输入的视频帧,提取卷积特征,单帧图像尺寸为(224×224×3),卷积神经网络的结构为5个卷积层,3个全连接层,具体参数如下:
conv1:(size:7×7,stride:2,channel:96,mapsize:1/2,receptive:7×7)
pool1:(size:3×3,stride:2,channel:96,mapsize:1/4,receptive:11×11)
conv2(size:5×5,stride:2,channel:256,mapsize:1/8,receptive:27×27)
pool2(size:3×3,stride:2,channel:256,mapsize:1/16,receptive:43×43)
conv3(size:3×3,stride:1,channel:512,mapsize:1/16,receptive:75×75)
conv4(size:3×3,stride:1,channel:512,mapsize:1/16,receptive:107×107)
conv5(size:3×3,stride:1,channel:512,mapsize:1/16,receptive:139×139)
pool5(size:3×3,stride:2,channel:512,mapsize:1/32,receptive:171×171)
full6(channel:4096)
full7(channel:2048)
full8(channel:101)
利用上述卷积神经网络提取卷积层特征。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611117772.9A CN106778854B (zh) | 2016-12-07 | 2016-12-07 | 基于轨迹和卷积神经网络特征提取的行为识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611117772.9A CN106778854B (zh) | 2016-12-07 | 2016-12-07 | 基于轨迹和卷积神经网络特征提取的行为识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106778854A CN106778854A (zh) | 2017-05-31 |
CN106778854B true CN106778854B (zh) | 2019-12-24 |
Family
ID=58882175
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611117772.9A Active CN106778854B (zh) | 2016-12-07 | 2016-12-07 | 基于轨迹和卷积神经网络特征提取的行为识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106778854B (zh) |
Families Citing this family (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10706547B2 (en) * | 2017-06-02 | 2020-07-07 | Htc Corporation | Image segmentation method and apparatus |
CN107316005B (zh) * | 2017-06-06 | 2020-04-14 | 西安电子科技大学 | 基于稠密轨迹核协方差描述子的行为识别方法 |
CN107273835A (zh) * | 2017-06-07 | 2017-10-20 | 南京航空航天大学 | 基于视频分析的暴力行为智能检测方法 |
CN107463892A (zh) * | 2017-07-27 | 2017-12-12 | 北京大学深圳研究生院 | 一种结合上下文信息和多级特征的图像中行人检测方法 |
CN107609597B (zh) * | 2017-09-26 | 2020-10-13 | 嘉世达电梯有限公司 | 一种电梯轿厢人数检测系统及其检测方法 |
CN107993255B (zh) * | 2017-11-29 | 2021-11-19 | 哈尔滨工程大学 | 一种基于卷积神经网络的稠密光流估计方法 |
CN107895192B (zh) * | 2017-12-06 | 2021-10-08 | 广州方硅信息技术有限公司 | 深度卷积网络压缩方法、存储介质和终端 |
CN108399435B (zh) * | 2018-03-21 | 2020-09-25 | 南京邮电大学 | 一种基于动静特征的视频分类方法 |
CN109255284B (zh) * | 2018-07-10 | 2021-02-12 | 西安理工大学 | 一种基于运动轨迹的3d卷积神经网络的行为识别方法 |
CN108923984B (zh) * | 2018-07-16 | 2021-01-12 | 西安电子科技大学 | 基于卷积网络的时空视频压缩感知方法 |
CN109308444A (zh) * | 2018-07-16 | 2019-02-05 | 重庆大学 | 一种室内环境下的异常行为识别方法 |
CN109389089B (zh) * | 2018-10-14 | 2022-03-08 | 深圳市能信安科技股份有限公司 | 基于人工智能算法的多人行为识别方法及装置 |
CN109543556B (zh) * | 2018-10-23 | 2021-06-25 | 北京市商汤科技开发有限公司 | 动作识别方法、装置、介质及设备 |
CN109584345B (zh) * | 2018-11-12 | 2023-10-31 | 大连大学 | 基于卷积神经网络的人体运动合成方法 |
CN109583360B (zh) * | 2018-11-26 | 2023-01-10 | 中山大学 | 一种基于时空信息和层级表示的视频人体行为识别方法 |
CN109840468A (zh) * | 2018-12-14 | 2019-06-04 | 深圳壹账通智能科技有限公司 | 一种用户分析报告的生成方法及设备 |
CN111435430B (zh) * | 2019-01-15 | 2024-02-27 | 南京人工智能高等研究院有限公司 | 对象识别方法、对象识别装置和电子设备 |
CN109783515B (zh) * | 2019-01-25 | 2021-04-23 | 上海创景信息科技有限公司 | 基于数据库的多关系数据轨迹追溯方法和系统 |
CN109934127B (zh) * | 2019-02-27 | 2020-12-15 | 电子科技大学 | 基于视频图像与无线信号的行人识别与跟踪方法 |
CN110084198B (zh) * | 2019-04-28 | 2022-07-12 | 哈尔滨工程大学 | 基于Fisher特征分析的CNN机场室内场景识别方法 |
CN110555387B (zh) * | 2019-08-02 | 2022-07-19 | 华侨大学 | 骨架序列中基于局部关节点轨迹时空卷的行为识别方法 |
CN110598606B (zh) * | 2019-09-02 | 2022-05-27 | 南京邮电大学 | 一种具有视觉隐私保护优势的室内跌倒行为检测方法 |
CN110717601B (zh) * | 2019-10-15 | 2022-05-03 | 厦门铅笔头信息科技有限公司 | 一种基于有监督学习和无监督学习的反欺诈方法 |
CN110796069B (zh) * | 2019-10-28 | 2021-02-05 | 广州云从博衍智能科技有限公司 | 一种行为检测方法、系统、设备及机器可读介质 |
CN111325292B (zh) * | 2020-03-11 | 2023-05-02 | 中国电子工程设计院有限公司 | 一种对象行为的识别方法及装置 |
CN112804558B (zh) * | 2021-04-14 | 2021-06-25 | 腾讯科技(深圳)有限公司 | 视频拆分方法、装置及设备 |
CN113221693B (zh) * | 2021-04-29 | 2023-07-28 | 苏州大学 | 一种动作识别方法 |
CN113459102B (zh) * | 2021-07-09 | 2022-07-05 | 郑州大学 | 一种基于投影重构的人体上肢意图识别方法 |
CN113627342B (zh) * | 2021-08-11 | 2024-04-12 | 人民中科(济南)智能技术有限公司 | 视频深度特征提取优化的方法、系统、设备及存储介质 |
CN113495530B (zh) * | 2021-08-26 | 2022-11-22 | 珠海格力智能装备有限公司 | 运动控制方法及其装置、计算机可读存储介质以及处理器 |
CN113850829B (zh) * | 2021-09-28 | 2024-07-26 | 深圳万兴软件有限公司 | 基于高效深度网络的视频镜头分割方法、装置及相关组件 |
CN114091630B (zh) * | 2022-01-24 | 2022-05-06 | 阿里巴巴达摩院(杭州)科技有限公司 | 获取目标对象移动轨迹信息的方法、装置及系统 |
CN114463689B (zh) * | 2022-04-13 | 2022-07-26 | 北京达佳互联信息技术有限公司 | 目标识别网络的训练方法、装置、电子设备及存储介质 |
CN115019008B (zh) * | 2022-05-30 | 2023-07-04 | 深圳市鸿普森科技股份有限公司 | 一种智能3d模型设计分析服务管理平台 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009070560A1 (en) * | 2007-11-29 | 2009-06-04 | Nec Laboratories America, Inc. | Efficient multi-hypothesis multi-human 3d tracking in crowded scenes |
CN104036287A (zh) * | 2014-05-16 | 2014-09-10 | 同济大学 | 一种基于人类运动显著轨迹的视频分类方法 |
CN104281853A (zh) * | 2014-09-02 | 2015-01-14 | 电子科技大学 | 一种基于3d卷积神经网络的行为识别方法 |
CN105160310A (zh) * | 2015-08-25 | 2015-12-16 | 西安电子科技大学 | 基于3d卷积神经网络的人体行为识别方法 |
CN106022229A (zh) * | 2016-05-11 | 2016-10-12 | 北京航空航天大学 | 基于视频运动信息特征提取与自适应增强算法的误差反向传播网络的异常行为识别方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8582807B2 (en) * | 2010-03-15 | 2013-11-12 | Nec Laboratories America, Inc. | Systems and methods for determining personal characteristics |
-
2016
- 2016-12-07 CN CN201611117772.9A patent/CN106778854B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009070560A1 (en) * | 2007-11-29 | 2009-06-04 | Nec Laboratories America, Inc. | Efficient multi-hypothesis multi-human 3d tracking in crowded scenes |
CN104036287A (zh) * | 2014-05-16 | 2014-09-10 | 同济大学 | 一种基于人类运动显著轨迹的视频分类方法 |
CN104281853A (zh) * | 2014-09-02 | 2015-01-14 | 电子科技大学 | 一种基于3d卷积神经网络的行为识别方法 |
CN105160310A (zh) * | 2015-08-25 | 2015-12-16 | 西安电子科技大学 | 基于3d卷积神经网络的人体行为识别方法 |
CN106022229A (zh) * | 2016-05-11 | 2016-10-12 | 北京航空航天大学 | 基于视频运动信息特征提取与自适应增强算法的误差反向传播网络的异常行为识别方法 |
Non-Patent Citations (3)
Title |
---|
"3D-based Deep Convolutional Neural Network for action recognition with depth sequences";Zhi Liu et al;《Image and Vision Computing》;20160416;第55卷(第2期);93-100 * |
"Action Recognition with Trajectory-Pooled Deep-Convolutional Descriptors";Limin Wang et al;《CVPR 2015》;20150612;1-7 * |
"基于改进Fisher准则的深度卷积神经网络识别算法";孙艳丰 等;《北京工业大学学报》;20150630;第41卷(第6期);835-841 * |
Also Published As
Publication number | Publication date |
---|---|
CN106778854A (zh) | 2017-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106778854B (zh) | 基于轨迹和卷积神经网络特征提取的行为识别方法 | |
Huang et al. | Tracknet: A deep learning network for tracking high-speed and tiny objects in sports applications | |
Girdhar et al. | Actionvlad: Learning spatio-temporal aggregation for action classification | |
Huang et al. | Multi-scale dense convolutional networks for efficient prediction | |
Sharma et al. | Action recognition using visual attention | |
Wang et al. | Actions~ transformations | |
Tran et al. | Two-stream flow-guided convolutional attention networks for action recognition | |
CN110188637A (zh) | 一种基于深度学习的行为识别技术方法 | |
CN104036287B (zh) | 一种基于人类运动显著轨迹的视频分类方法 | |
Cho et al. | Self-supervised spatio-temporal representation learning using variable playback speed prediction | |
CN107169117A (zh) | 一种基于自动编码器和dtw的手绘图人体运动检索方法 | |
Zheng et al. | A feature-adaptive semi-supervised framework for co-saliency detection | |
CN104881651B (zh) | 一种基于随机投影和Fisher向量的人物行为识别方法 | |
Ye et al. | Embedding sequential information into spatiotemporal features for action recognition | |
Zhang et al. | Hybrid handcrafted and learned feature framework for human action recognition | |
Jin et al. | Cvt-assd: convolutional vision-transformer based attentive single shot multibox detector | |
Xiao et al. | Overview: Video recognition from handcrafted method to deep learning method | |
Vainstein et al. | Modeling video activity with dynamic phrases and its application to action recognition in tennis videos | |
Rahman et al. | Deepgrip: cricket bowling delivery detection with superior cnn architectures | |
Martin et al. | 3D attention mechanism for fine-grained classification of table tennis strokes using a Twin Spatio-Temporal Convolutional Neural Networks | |
Gu | 3D densely connected convolutional network for the recognition of human shopping actions | |
Park et al. | Binary dense sift flow based two stream CNN for human action recognition | |
Şah et al. | Review and evaluation of player detection methods in field sports: Comparing conventional and deep learning based methods | |
CN105893967B (zh) | 基于时序保留性时空特征的人体行为分类检测方法及系统 | |
Elguebaly et al. | Model-based approach for high-dimensional non-Gaussian visual data clustering and feature weighting |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |