CN110909672A - 一种基于双流卷积神经网络和svm的抽烟动作识别方法 - Google Patents
一种基于双流卷积神经网络和svm的抽烟动作识别方法 Download PDFInfo
- Publication number
- CN110909672A CN110909672A CN201911147202.8A CN201911147202A CN110909672A CN 110909672 A CN110909672 A CN 110909672A CN 201911147202 A CN201911147202 A CN 201911147202A CN 110909672 A CN110909672 A CN 110909672A
- Authority
- CN
- China
- Prior art keywords
- network
- training
- video
- data
- svm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000000391 smoking effect Effects 0.000 title claims abstract description 56
- 230000009471 action Effects 0.000 title claims abstract description 41
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 27
- 238000000034 method Methods 0.000 title claims abstract description 26
- 238000012549 training Methods 0.000 claims abstract description 60
- 230000006399 behavior Effects 0.000 claims abstract description 17
- 238000012706 support-vector machine Methods 0.000 claims description 41
- 230000003287 optical effect Effects 0.000 claims description 22
- 238000010276 construction Methods 0.000 claims description 16
- 238000013145 classification model Methods 0.000 claims description 14
- 230000006870 function Effects 0.000 claims description 14
- 238000011176 pooling Methods 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 7
- 239000011159 matrix material Substances 0.000 claims description 6
- 238000012544 monitoring process Methods 0.000 claims description 6
- 238000012360 testing method Methods 0.000 claims description 6
- 230000003068 static effect Effects 0.000 claims description 5
- 239000000126 substance Substances 0.000 claims description 5
- 230000008859 change Effects 0.000 claims description 3
- 238000013136 deep learning model Methods 0.000 claims description 3
- 238000006073 displacement reaction Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 230000001537 neural effect Effects 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 3
- 238000002360 preparation method Methods 0.000 claims description 3
- 238000000926 separation method Methods 0.000 claims description 3
- 230000005284 excitation Effects 0.000 claims description 2
- 210000002569 neuron Anatomy 0.000 claims description 2
- 230000009467 reduction Effects 0.000 claims description 2
- 230000002441 reversible effect Effects 0.000 claims description 2
- 239000000779 smoke Substances 0.000 description 11
- 238000013135 deep learning Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 239000002360 explosive Substances 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Abstract
本发明公开了一种基于双流卷积神经网络的危险行为自动识别方法,通过两个不同的卷积神经网络分别学习时间特征和空间特征并使用Softmax获取动作识别结果;不直接简单加权融合两个网络的Softmax分类结果,将两个训练Softmax的输出作为新的输入特征来SVM分类器,最终实现对视频中人物抽烟动作的自动识别。本发明使用SVM对时域卷积网络和空域卷积网络的分类结果建模,进一步提升了基于视频的人物抽烟行为自动识别的精度。
Description
技术领域
本发明涉及基于双流卷积神经网络的人体行为识别,更具体的是涉及一种针对监控视频数据的抽烟动作自动识别方法。
背景技术
吸烟不仅是一种对人体健康危害巨大的不良习惯,更是一种安全隐患的主要诱发原因。对于加油站、油库、化学药品库等存储大量易燃易爆物品的场所,吸烟的明火可能导致火灾或爆炸等安全事故,造成巨大的经济损失和人员伤亡。目前,在上述场所下对于吸烟行为的防范主要依靠宣传标语警示或安全人员监察,将可能引发的巨大灾难寄托在依靠宣传标语唤醒的人员素质是不可靠的,安全人员也难以时刻观察场所内所有人员的行为,在吸烟后发现和及时制止,安全隐患已经出现。因此,我们急需一种在吸烟安全隐患刚刚出现的瞬间就能检测并报警的基于监控视频的抽烟行为自动识别方法,通过对禁烟场所的监控视频流中人员姿态的估计和动作的识别,对可能存在的抽烟动作及时预警,提醒管理人员重点注意,在减轻了安保人员工作强度的同时提高大幅度降低可能存在的安全隐患。
目前,基于计算机视觉的吸烟检测主要是通过分析和识别烟雾,包括利用颜色、能量等烟雾静态特征或飘动方向等动态特征。相比于火灾产生的浓烟,吸烟烟雾的浓度相对低且范围相对小;在露天情况下,烟雾特征受光照、风向、风速等干扰,现有的技术难以提取到理想的烟雾特征进行吸烟行为识别。随着技术的不断进步,基于深度学习算法的视频数据智能分析正在快速发展,在人物脸部识别、人物位置预测等领域已经被大量应用。
发明内容
针对以上问题,本发明提出了一种基于双流卷积神经网络和SVM的抽烟动作识别方法。针对露天环境下难以提取到理想的烟雾特征进行吸烟行为识别的问题,通过识别人物的动作来识别抽烟行为,使用两个不同的卷积神经网络分别学习时间特征和空间特征并使用Softmax获取动作识别结果;针对抽烟动作的相似性动作较多容易出现误判的问题,不直接简单加权融合两个网络的Softmax分类结果,将两个训练Softmax的输出作为新的输入特征来SVM分类器,提高视频中人物抽烟动作的识别准确率。
为了解决以上问题,本发明采用了如下技术方案:
一种基于双流卷积神经网络和SVM的抽烟动作识别方法,其特征在于,包括以下步骤:Step1原始数据准备
针对常见场景下的人物抽烟行为,通过收集来自吸烟室监控摄像头及网络的视频数据。
Step2数据预处理
(1)将大小、帧率各不相同的视频数据统一到相同大小和25帧率。
(2)截取视频数据中关键的抽烟动作部分,将视频的时长控制在10s左右。
(3)将每一个视频拆成视频帧,每一个视频随机抽取10张图片组成图片数据集。
Step3数据集制作
针对Step2预处理后的数据进行人工分类,将人工分类信息作为网络训练的类别监督信息。随机选取增强后视频数据的60%作为训练数据,剩余的作为测试数据;随机选取图片数据集中的60%作为训练数据,其余的作为测试数据。
Step4空域卷积网络的构建与训练
Step4-1空域卷积网络的构建
空间流卷积神经网络的输入是单个视频帧,它是一种通过提取静态图片信息来完成视频人物动作识别的深度学习模型。此处空间特征提取网络基于ZF网络构建。ZF是卷积神经网络(Convolutional Neural Networks,CNN)的一种代表性网络,包括有卷积层、池化层、连接层和输出层,每层包含多个相互独立的神经单元;
ZF网络由5层深度的卷积层构成。前两层卷积核的大小分别为7*7和5*5,滑动步长(stride)均为2个像素,通过边界扩充(pad=2)保持输入输出维度不变,每层卷积后均进行窗口为3*3的最大池化(max pooling);后三层卷积的卷积核大小均为3*3,滑动步长均为1个像素,边界扩充1个像素。FC层表示一个全连接层,通过卷积核大小为1*1的卷积层实现,最后使用一个Softmax分类器来实现分类。
Step4-2空域卷积网络的训练
空域卷积网络的训练分为前向传播和后向传播两个部分。前向阶段:将抽烟图片数据集中选择批量(batch=8)数据输入网络,然后根据网络的数据流传播计算对应所属的实际动作种类。后向阶段:网络的实际输出与理想输出存在误差,对误差函数求各个偏置和权值的偏导数,从而使误差沿着降速最快的方向调整各个权值和偏置。
(1)前向训练。网络输出层的每一个神经元的输出值对应于输入视频属于各类危险动作的概率大小,表达式为如公式(4)所示:
Step5时域卷积网络的构建与训练
Step5-1时域卷积网络的构建
此处时域卷积网络采用与空域卷积网络相同的ZF网络。时域卷积网络的输入是基于视频数据计算和转换而来的灰度的光流图。光流信息是连续视频帧之间的像素点位移场,描述的是视频的运动信息。对于视频中第i帧的像素点p(xp,yp),在第k帧上记该像素点为q(xq,yq),使用FlowNet(FlowNet:Learning Optical Flow with Convolutional Network)计算光流,则该像素点从i帧到k帧的光流描述为变化δp,δp的计算方法如公式(3)所示:Mi→k=F(Ik,Ii),δp=Mi→k(p) (3)
其中,Ik,Ii分别表示视频中第i帧和第k帧。对于第i帧上所有的像素点逐像素的计算其在第k帧上对应的光流,最终获得第i帧到第j帧的光流图。
Step5-2空域卷积网络的训练
时域卷积网络的训练分为前向传播和后向传播两个部分,训练方法与空域卷积网络的训练过程相同。
Step6基于SVM的抽烟动作识别模型
Step6-1 SVM分类器构建
支持向量机(support vector machine,SVM)是一种常见的二分类模型,其基本思想是针对待分类的数据,找到具有最小间隔的样本点然后拟合出一个到这些样本点距离和最大的线段或平面;超平面的方程的定义如公式(4)所示。
wTx+b=0 (4)
其中x表示空间中坐落在超平面上的样本点,该点可以被描述为X(x1,x2,...xn),其中xi表示点X的第i个特征变量;wT表示空间中超平面的参数,对应的wT为一个n维度的矩阵,可以被描述为wT(W1,W2,...,Wn);b表示样本点X在超平面上的截距。由公式(4)定义的超平面可知,样本空间中任意的点p(x1,x2,...xn)到超平面的距离可以通过公式(5)计算得到。
其中,d表示点到超平面的距离,Wi∈wT表示超平面方程中的系数。在计算某个数据点到超平面的距离的基础上,若超平面已经确定,则我们的目标就是找出所有间隔中最大的那个值对应的超平面。因此用数学语言描述就是确定超平面系数矩阵wT(W1,W2,...,Wn)、截距b使得间隔最大。该优化问题的目标函数如公式(6)所示。
其中xi和xj分别表示i和j个数据点,yi和yj表示xi和xj对应的标签值,αi和αj为我们待求解的参数值。
基于上述的公式构建抽烟动作识别的SVM分类模型,SVM分类模型的输入是Step 4与Step 5训练的卷积神经网络的Softmax分类值,SVM分类模型的输出是最终的抽烟动作的分类情况。
Step6-2 SVM分类器训练
SVM分类模型的训练分为前向传播和后向传播两个部分,训练方法与空域卷积网络的训练过程相同。
Step1所述的视频数据,共采集1108条抽烟视频数据。
Step2(1)所述的视频数据大小为320*240像素。
本发明与最接近的现有技术相比,具有以下有益效果:本发明针对露天环境下难以提取到理想的烟雾特征进行吸烟行为识别的问题,通过识别人物的动作来识别抽烟行为,使用两个不同的卷积神经网络分别学习时间特征和空间特征并使用Softmax获取动作识别结果;针对抽烟动作的相似性动作较多容易出现误判的问题,不直接简单加权融合两个网络的Softmax分类结果,将两个训练Softmax的输出作为新的输入特征来SVM分类器,使用SVM对时域卷积网络和空域卷积网络的分类结果建模,进一步提升了基于视频的人物抽烟行为自动识别的精度。
附图说明
图1为ZF网络结构图。
具体实施方式
以抽烟行为的自动识别为例,具体的实施方式如下所述:
硬件环境:
处理平台为AMAX的PSC-HB1X深度学习工作站,处理器为Inter(R)E5-2600 v3,主频为2.1GHZ,内存为128GB,硬盘大小为1TB,显卡型号为GeForce GTX Titan X。
软件环境:
操作系统Windows10 64位;深度学习框架Tensorflow 1.1.0;集成开发环境python3+Pycharm 2018.2.4x64。
本发明提供的一种基于双流卷积神经网络和SVM的抽烟动作识别方法,包括以下步骤:
Step1原始数据准备
针对常见场景下的人物抽烟行为,通过收集来自吸烟室监控摄像头及网络的视频数据,共采集1108条抽烟视频数据。
Step2数据预处理
(1)将大小、帧率各不相同的视频数据统一到相同的320*240像素大小和25帧率。
(2)截取视频数据中关键的抽烟动作部分,将视频的时长控制在10s左右。
(3)将每一个视频拆成视频帧,每一个视频随机抽取10张图片,1108条视频共计11080张图片组成图片数据集。
Step3数据集制作
针对Step2预处理后的数据进行人工分类,将人工分类信息作为网络训练的类别监督信息。随机选取增强后视频数据的60%共665条作为训练数据,剩余的作为测试数据;随机选取图片数据集中的60%共3324张图片作为训练数据,其余的作为测试数据。
Step4空域卷积网络的构建与训练
Step4-1空域卷积网络的构建
空间流卷积神经网络的输入是单个视频帧,它是一种通过提取静态图片信息来完成视频人物动作识别的深度学习模型。静态的外形特征是一个非常有用的信息,因为视频人物的某些行为动作与某些物体有着密切的关联性。本发明涉及的空间特征提取网络基于ZF网络构建。ZF是卷积神经网络(Convolutional Neural Networks,CNN)的一种代表性网络,包括有卷积层、池化层、连接层和输出层,每层包含多个相互独立的神经单元,典型结构如图1所示。
ZF网络由5层深度的卷积层构成。前两层卷积核的大小分别为7*7和5*5,滑动步长(stride)均为2个像素,通过边界扩充(pad=2)保持输入输出维度不变,每层卷积后均进行窗口为3*3的最大池化(max pooling);后三层卷积的卷积核大小均为3*3,滑动步长均为1个像素,边界扩充1个像素。FC层表示一个全连接层,通过卷积核大小为1*1的卷积层实现,最后使用一个Softmax分类器来实现分类。
Step4-2空域卷积网络的训练
在网络训练的过程中,通过监督学习的方式,将预处理后的图像信息前向传播,之后将前向传播的输出与标签输出对比,将两者之间的误差反向传播。初始的学习率为0.01,在迭代50000次后停止训练,保存训练好的网络模型参数。
Step5时域卷积网络的构建与训练
Step5-1时域卷积网络的构建
本发明的时域卷积网络采用与空域卷积网络相同的ZF网络。时域卷积网络的输入是基于视频数据计算和转换而来的灰度的光流图。光流信息是连续视频帧之间的像素点位移场,描述的是视频的运动信息。对于视频中第i帧的像素点p(xp,yp),在第k帧上记该像素点为q(xq,yq),使用FlowNet(FlowNet:Learning Optical Flow with ConvolutionalNetwork)计算光流,则该像素点从i帧到k帧的光流描述为变化δp,δp的计算方法如公式(3)所示:Mi→k=F(Ik,Ii),δp=Mi→k(p) (3)
其中,Ik,Ii分别表示视频中第i帧和第k帧。对于第i帧上所有的像素点逐像素的计算其在第k帧上对应的光流,最终获得第i帧到第j帧的光流图。
Step5-2空域卷积网络的训练
时域卷积网络的训练分为前向传播和后向传播两个部分,训练方法与空域卷积网络的训练过程相同。初始的学习率为0.01,在迭代50000次后停止训练,保存训练好的网络模型参数。
Step6基于SVM的抽烟动作识别模型
Step6-1 SVM分类器构建
支持向量机(support vector machine,,SVM)是一种常见的二分类模型,其基本思想是针对待分类的数据,找到具有最小间隔的样本点然后拟合出一个到这些样本点距离和最大的线段或平面。类似于二维空间,超平面的方程的定义如公式(4)所示。
wTx+b=0 (4)
其中x表示空间中坐落在超平面上的样本点,该点可以被描述为X(x1,x2,...xn),其中xi表示点X的第i个特征变量;wT表示空间中超平面的参数,对应的wT为一个n维度的矩阵,可以被描述为wT(W1,W2,...,Wn);b表示样本点X在超平面上的截距。由公式(4)定义的超平面可知,样本空间中任意的点p(x1,x2,...xn)到超平面的距离可以通过公式(5)计算得到。
其中,d表示点到超平面的距离,Wi∈wT表示超平面方程中的系数。在计算某个数据点到超平面的距离的基础上,若超平面已经确定,则我们的目标就是找出所有间隔中最大的那个值对应的超平面。因此用数学语言描述就是确定超平面系数矩阵wT(W1,W2,...,Wn)、截距b使得间隔最大。该优化问题的目标函数如公式(6)所示。
其中xi和xj分别表示i和j个数据点,yi和yj表示xi和xj对应的标签值,αi和αj为我们待求解的参数值。
基于上述的公式构建抽烟动作识别的SVM分类模型,SVM分类模型的输入是Step4与Step 5训练的卷积神经网络的Softmax分类值,SVM分类模型的输出是最终的抽烟动作的分类情况。
Step6-2 SVM分类器训练
SVM分类模型的训练分为前向传播和后向传播两个部分,训练方法与空域卷积网络的训练过程相同。
本发明针对抽烟动作的时空特征自动学习问题:训练卷积神经网络从视频帧中学习人物动作的空间特征,训练卷积神经网络从视频帧的运动中学习以密集光流为形式的人物动作时间特征。
本发明针对抽烟动作自动识别网络的构建和训练:构建SVM分类器训练两个网络的Softmax分类结果,实现抽烟动作自动识别。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。
Claims (3)
1.一种基于双流卷积神经网络和SVM的抽烟动作识别方法,其特征在于,包括以下步骤:
Step1原始数据准备
针对常见场景下的人物抽烟行为,通过收集来自吸烟室监控摄像头及网络的视频数据,共收集抽烟视频数据1108条;
Step2数据预处理
(1)将大小、帧率各不相同的视频数据统一到相同大小和25帧率;
(2)截取视频数据中关键的抽烟动作部分,将视频的时长控制在10s左右;
(3)将每一个视频拆成视频帧,每一个视频随机抽取10张图片,组成图片数据集;
Step3数据集制作
针对Step2预处理后的数据进行人工分类,将人工分类信息作为网络训练的类别监督信息;随机选取增强后视频数据的60%作为训练数据,剩余的作为测试数据;随机选取图片数据集中的60%作为训练数据,其余的作为测试数据;
Step4空域卷积网络的构建与训练
Step4-1空域卷积网络的构建
空间流卷积神经网络的输入是单个视频帧,它是一种通过提取静态图片信息来完成视频人物动作识别的深度学习模型;此处空间特征提取网络基于ZF网络构建,ZF是卷积神经网络“Convolutional Neural Networks,CNN”的一种代表性网络,包括有卷积层、池化层、连接层和输出层,每层包含多个相互独立的神经单元;
ZF网络由5层深度的卷积层构成;前两层卷积核的大小分别为7*7和5*5,滑动步长“stride”均为2个像素,通过边界扩充“pad=2”保持输入输出维度不变,每层卷积后均进行窗口为3*3的最大池化“max pooling”;后三层卷积的卷积核大小均为3*3,滑动步长均为1个像素,边界扩充1个像素;FC层表示一个全连接层,通过卷积核大小为1*1的卷积层实现,最后使用一个Softmax分类器来实现分类;
Step4-2空域卷积网络的训练
空域卷积网络的训练分为前向传播和后向传播两个部分;前向阶段:将抽烟图片数据集中选择批量数据输入网络,然后根据网络的数据流传播计算对应所属的实际动作种类;后向阶段:网络的实际输出与理想输出存在误差,对误差函数求各个偏置和权值的偏导数,从而使误差沿着降速最快的方向调整各个权值和偏置;
(1)前向训练
网络输出层的每一个神经元的输出值对应于输入视频属于各类危险动作的概率大小,表达式为如公式(4)所示:
(2)反向训练
Step5时域卷积网络的构建与训练
Step5-1时域卷积网络的构建
此处时域卷积网络采用与空域卷积网络相同的ZF网络;
时域卷积网络的输入是基于视频数据计算和转换而来的灰度的光流图;光流信息是连续视频帧之间的像素点位移场,描述的是视频的运动信息;
对于视频中第i帧的像素点p(xp,yp),在第k帧上记该像素点为q(xq,yq),使用FlowNet(FlowNet:Learning Optical Flow with Convolutional Network)计算光流,则该像素点从i帧到k帧的光流描述为变化δp,δp的计算方法如公式(3)所示:
Mi→k=F(Ik,Ii),δp=Mi→k(p) (3)
其中,Ik,Ii分别表示视频中第i帧和第k帧;对于第i帧上所有的像素点逐像素的计算其在第k帧上对应的光流,最终获得第i帧到第j帧的光流图;
Step5-2空域卷积网络的训练
时域卷积网络的训练分为前向传播和后向传播两个部分,训练方法与空域卷积网络的训练过程相同;
Step6基于SVM的抽烟动作识别模型
Step6-1 SVM分类器构建
支持向量机“support vector machine,SVM”是一种常见的二分类模型,其基本思想是针对待分类的数据,找到具有最小间隔的样本点然后拟合出一个到这些样本点距离和最大的线段或平面,超平面的方程的定义如公式(4)所示;
wTx+b=0 (4)
其中x表示空间中坐落在超平面上的样本点,该点可以被描述为X(x1,x2,...xn),其中xi表示点X的第i个特征变量;wT表示空间中超平面的参数,对应的wT为一个n维度的矩阵,可以被描述为wT(W1,W2,...,Wn);b表示样本点X在超平面上的截距;由公式(4)定义的超平面可知,样本空间中任意的点p(x1,x2,...xn)到超平面的距离可以通过公式(5)计算得到;
其中,d表示点到超平面的距离,Wi∈wT表示超平面方程中的系数;
在计算某个数据点到超平面的距离的基础上,若超平面已经确定,则我们的目标就是找出所有间隔中最大的那个值对应的超平面;
因此用数学语言描述就是确定超平面系数矩阵wT(W1,W2,...,Wn)、截距b使得间隔最大;该优化问题的目标函数如公式(6)所示;
其中,y表示数据点的标签,值为-1或1;y(wTx+b)表示点X到超平面距离;
通过引入拉格朗日中值展开式,SVM的目标函数如公式(7)所示;
其中xi和xj分别表示i和j个数据点,yi和yj表示xi和xj对应的标签值,αi和αj为我们待求解的参数值;
基于上述的公式构建抽烟动作识别的SVM分类模型,SVM分类模型的输入是Step 4与Step 5训练的卷积神经网络的Softmax分类值,SVM分类模型的输出是最终的抽烟动作的分类情况;
Step6-2 SVM分类器训练
SVM分类模型的训练分为前向传播和后向传播两个部分,训练方法与空域卷积网络的训练过程相同。
2.根据权利要求1所述的一种基于双流卷积神经网络和SVM的抽烟动作识别方法,其特征在于,Step1所述的视频数据,共采集1108条抽烟视频数据。
3.根据权利要求1所述的一种基于双流卷积神经网络和SVM的抽烟动作识别方法,其特征在于,Step2(1)所述的视频数据大小为320*240像素。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911147202.8A CN110909672A (zh) | 2019-11-21 | 2019-11-21 | 一种基于双流卷积神经网络和svm的抽烟动作识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911147202.8A CN110909672A (zh) | 2019-11-21 | 2019-11-21 | 一种基于双流卷积神经网络和svm的抽烟动作识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110909672A true CN110909672A (zh) | 2020-03-24 |
Family
ID=69818464
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911147202.8A Pending CN110909672A (zh) | 2019-11-21 | 2019-11-21 | 一种基于双流卷积神经网络和svm的抽烟动作识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110909672A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111507416A (zh) * | 2020-04-21 | 2020-08-07 | 湖北马斯特谱科技有限公司 | 一种基于深度学习的吸烟行为实时检测方法 |
CN111507277A (zh) * | 2020-04-20 | 2020-08-07 | 国网安徽省电力有限公司 | 一种作业流程规范性识别模型的构建方法及应用 |
CN111611966A (zh) * | 2020-05-29 | 2020-09-01 | 北京每日优鲜电子商务有限公司 | 目标人员检测方法、装置、设备及存储介质 |
CN111832469A (zh) * | 2020-07-10 | 2020-10-27 | 杭州电子科技大学 | 一种基于双流卷积神经网络的抽烟行为检测方法 |
CN112257643A (zh) * | 2020-10-30 | 2021-01-22 | 天津天地伟业智能安全防范科技有限公司 | 一种基于视频流的抽烟行为和打电话行为识别方法 |
WO2021189952A1 (zh) * | 2020-10-21 | 2021-09-30 | 平安科技(深圳)有限公司 | 模型训练方法、动作识别方法、装置、设备及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105184309A (zh) * | 2015-08-12 | 2015-12-23 | 西安电子科技大学 | 基于cnn和svm的极化sar图像分类 |
CN105550699A (zh) * | 2015-12-08 | 2016-05-04 | 北京工业大学 | 一种基于cnn融合时空显著信息的视频识别分类方法 |
CN108537773A (zh) * | 2018-02-11 | 2018-09-14 | 中国科学院苏州生物医学工程技术研究所 | 针对胰腺癌与胰腺炎性疾病进行智能辅助鉴别的方法 |
CN109740670A (zh) * | 2019-01-02 | 2019-05-10 | 京东方科技集团股份有限公司 | 视频分类的方法及装置 |
CN110084228A (zh) * | 2019-06-25 | 2019-08-02 | 江苏德劭信息科技有限公司 | 一种基于双流卷积神经网络的危险行为自动识别方法 |
CN110097098A (zh) * | 2019-04-18 | 2019-08-06 | 腾讯科技(深圳)有限公司 | 基于基分类器的数据分类方法及装置、介质和电子设备 |
-
2019
- 2019-11-21 CN CN201911147202.8A patent/CN110909672A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105184309A (zh) * | 2015-08-12 | 2015-12-23 | 西安电子科技大学 | 基于cnn和svm的极化sar图像分类 |
CN105550699A (zh) * | 2015-12-08 | 2016-05-04 | 北京工业大学 | 一种基于cnn融合时空显著信息的视频识别分类方法 |
CN108537773A (zh) * | 2018-02-11 | 2018-09-14 | 中国科学院苏州生物医学工程技术研究所 | 针对胰腺癌与胰腺炎性疾病进行智能辅助鉴别的方法 |
CN109740670A (zh) * | 2019-01-02 | 2019-05-10 | 京东方科技集团股份有限公司 | 视频分类的方法及装置 |
CN110097098A (zh) * | 2019-04-18 | 2019-08-06 | 腾讯科技(深圳)有限公司 | 基于基分类器的数据分类方法及装置、介质和电子设备 |
CN110084228A (zh) * | 2019-06-25 | 2019-08-02 | 江苏德劭信息科技有限公司 | 一种基于双流卷积神经网络的危险行为自动识别方法 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111507277A (zh) * | 2020-04-20 | 2020-08-07 | 国网安徽省电力有限公司 | 一种作业流程规范性识别模型的构建方法及应用 |
CN111507277B (zh) * | 2020-04-20 | 2023-05-09 | 国网安徽省电力有限公司 | 一种作业流程规范性识别模型的构建方法及应用 |
CN111507416A (zh) * | 2020-04-21 | 2020-08-07 | 湖北马斯特谱科技有限公司 | 一种基于深度学习的吸烟行为实时检测方法 |
CN111611966A (zh) * | 2020-05-29 | 2020-09-01 | 北京每日优鲜电子商务有限公司 | 目标人员检测方法、装置、设备及存储介质 |
CN111832469A (zh) * | 2020-07-10 | 2020-10-27 | 杭州电子科技大学 | 一种基于双流卷积神经网络的抽烟行为检测方法 |
WO2021189952A1 (zh) * | 2020-10-21 | 2021-09-30 | 平安科技(深圳)有限公司 | 模型训练方法、动作识别方法、装置、设备及存储介质 |
CN112257643A (zh) * | 2020-10-30 | 2021-01-22 | 天津天地伟业智能安全防范科技有限公司 | 一种基于视频流的抽烟行为和打电话行为识别方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110909672A (zh) | 一种基于双流卷积神经网络和svm的抽烟动作识别方法 | |
CN110084151B (zh) | 基于非局部网络深度学习的视频异常行为判别方法 | |
CN106803069B (zh) | 基于深度学习的人群高兴程度识别方法 | |
CN111126136B (zh) | 一种基于图像识别的烟雾浓度量化方法 | |
Ishengoma et al. | Identification of maize leaves infected by fall armyworms using UAV-based imagery and convolutional neural networks | |
CN108985192A (zh) | 一种基于多任务深度卷积神经网络的视频烟雾识别方法 | |
CN111191667B (zh) | 基于多尺度生成对抗网络的人群计数方法 | |
CN104915655A (zh) | 一种多路监控视频的管理方法与设备 | |
CN110826453A (zh) | 一种通过提取人体关节点坐标的行为识别方法 | |
CN106156765A (zh) | 基于计算机视觉的安全检测方法 | |
CN110827505A (zh) | 一种基于深度学习的烟雾分割方法 | |
CN107977683A (zh) | 基于卷积特征提取和机器学习的联合sar目标识别方法 | |
Pervaiz et al. | Artificial neural network for human object interaction system over Aerial images | |
CN113158983A (zh) | 一种基于红外视频序列图像的机场场面活动行为识别方法 | |
CN116363738A (zh) | 一种基于多移动目标的人脸识别方法、系统及存储介质 | |
Cao et al. | Learning spatial-temporal representation for smoke vehicle detection | |
CN115170926A (zh) | 轻量化目标图像识别方法、装置及存储介质 | |
CN115798055B (zh) | 一种基于cornersort跟踪算法的暴力行为检测方法 | |
CN112488213A (zh) | 一种基于多尺度特征学习网络的火灾图片分类方法 | |
Hakim et al. | Optimization of the Backpropagation Method with Nguyen-widrow in Face Image Classification | |
CN113947579A (zh) | 一种针对图像目标探测神经网络的对抗样本检测方法 | |
Dorrani et al. | Edge detection and identification using deep learning to identify vehicles | |
Patil et al. | Analyze the Presence of Violence and a Particular Event of Violence by Weapon Detection using Deep Learning | |
Zou et al. | Occupancy measurement by object tracking at building entrances | |
CN110502992A (zh) | 一种基于关系图谱的固定场景视频的人脸快速识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20200324 |