CN110390313B - 一种暴力动作检测方法及系统 - Google Patents

一种暴力动作检测方法及系统 Download PDF

Info

Publication number
CN110390313B
CN110390313B CN201910689413.8A CN201910689413A CN110390313B CN 110390313 B CN110390313 B CN 110390313B CN 201910689413 A CN201910689413 A CN 201910689413A CN 110390313 B CN110390313 B CN 110390313B
Authority
CN
China
Prior art keywords
target
rectangular frame
threshold
area
maximum
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910689413.8A
Other languages
English (en)
Other versions
CN110390313A (zh
Inventor
叶亮
王乐
沙学军
孟维晓
石硕
李卓明
韩帅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Institute of Technology
Original Assignee
Harbin Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Institute of Technology filed Critical Harbin Institute of Technology
Priority to CN201910689413.8A priority Critical patent/CN110390313B/zh
Publication of CN110390313A publication Critical patent/CN110390313A/zh
Application granted granted Critical
Publication of CN110390313B publication Critical patent/CN110390313B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

一种暴力动作检测方法及系统,属于模式识别领域。本发明是为了解决目前的暴力检测方法存在效果不理想的问题。本发明所述的方法,对感兴趣检测区域提取特征:目标外接矩形框最大宽、目标外接矩形框最大宽变化、目标外接矩形框最大高、目标外接矩形框最大高变化、目标外接矩形框最大面积、目标外接矩形框最大面积变化、目标外接矩形框最大宽高比、目标质心间距变化、视频运动区域整体面积、运动区域面积最大值、目标状态预判;然后根据提取的特征进行暴力动作检测。主要用于暴力检测。

Description

一种暴力动作检测方法及系统
技术领域
本发明涉及暴力动作检测方法及系统,属于模式识别领域。
背景技术
监狱暴力、校园暴力是比较常见的社会现象,其中监狱暴力多发生在在押犯人之间,校园霸凌多发生在中小学生群体中。施暴者对受害者施加的暴力,在伤害受害者身体的同时,也对受害者造成心灵上的伤害。监狱暴力可能会威胁到受害者的生命,而校园暴力被普遍认为是校园霸凌中对受害者伤害最大的一种表现形式,暴力事件的防治迫在眉睫。
但是目前的暴力检测方法并不能很好的及时发现并报警,或者需要人工监控,耗费大量人力,不能取得良好的暴力检测效果。
发明内容
本发明是为了解决目前的暴力检测方法存在效果不理想的问题。进而提出了一种基于决策树-支持向量机的暴力动作检测方法及系统。
一种暴力动作检测方法,包括以下步骤:
针对采集的图像,提取感兴趣监测区域;对感兴趣检测区域提取特征:目标外接矩形框最大宽、目标外接矩形框最大宽变化、目标外接矩形框最大高、目标外接矩形框最大高变化、目标外接矩形框最大面积、目标外接矩形框最大面积变化、目标外接矩形框最大宽高比、目标质心间距变化、视频运动区域整体面积、运动区域面积最大值、目标状态预判;
所述目标状态预判特征是指根据提取的目标外接矩形框判断当前帧中目标外接交互的情况,包括单目标情况和除了单目标情况以外的其余情况;
单目标情况的判定条件为运动区域面积最大值<第八阈值n8;
根据提取的特征进行暴力动作检测。
进一步地,所述第八阈值n8=5000像素单位2
进一步地,根据提取的特征进行暴力动作检测的过程是通过基于决策树-支持向量机的暴力动作分类器实现的,具体过程包括以下步骤:
S1、将目标质心间距、前景最大面积2个特征通过暴力动作检测决策树进行判断,对应的判决阈值和判决条件为:
目标质心间距>第一阈值n1;
前景最大面积变化>第二阈值n2;
当满足以上判决条件之一时,将动作判定为暴力动作,输出识别结果;否则,执行S2;
S2、将目标外接矩形框最大宽、目标外接矩形框最大面积、目标质心间距变化、目标状态预判、视频帧光流平均值5个特征通过暴力动作检测决策树进行判断,对应的判决阈值和判决条件为:
目标外接矩形框最大宽<第三阈值n3;
目标外接矩形框最大面积<第四阈值n4;
目标质心间距变化>第五阈值n5;
目标状态预判=n6,n6=序号①;序号①表示单目标情况;
视频帧光流平均值>第七阈值n7;
当满足以上判决条件之一时,将动作判定为非暴力动作,输出识别结果;否则,执行S3;
S3、对所有帧样本,将提取的全部特征输入支持向量机进行分类,分类后输出识别结果。
进一步地,所述的支持向量机选用RBF核函数,惩罚参数c=128,核函数的参数g=0.0019531。
进一步地,所述第一阈值n1=300像素单位;所述第二阈值n2=40000像素单位2
进一步地,所述第三阈值n3=50像素单位;所述第四阈值n4=10000像素单位2;所述第五阈值n5=400像素单位;所述第七阈值n7=2000像素单位2
进一步地,所述针对采集的图像提取感兴趣监测区域的过程包括以下步骤:
针对采集的图像,通过KNN前景提取方法取出运动的前景目标,利用外接矩形框整合处理方法对运动目标外接矩形框进行优化处理;所述的外接矩形框整合处理方法如下:若存在两个外接矩形框坐标为(x1,y1,w1,h1)和(x2,y2,w2,h2),Yth为视频采集区域范围,且y1,y2,y1+h1,y2+h2∈Yth则需要外接矩形框整合处理的外接矩形框满足式:
Figure BDA0002147405660000021
Figure BDA0002147405660000022
有益效果:
1.本发明能够有效识别暴力动作,并能够准确的将用户受到的暴力动作与日常动作区分开。本发明具有非常好的检测准确率,最终识别准确率为暴力动作识别准确率96.52%,非暴力动作识别准确率96.78%。
2.本发明的应用平台为视频监控设备或其他具有监控角度的视频采集设备,在不改变原有硬件设备的基础上,运行暴力检测算法,应用成本低。
3.本发明的应用平台为视频监控设备或其他具有监控角度的视频采集设备,使用者无需时刻携带数据采集装置,且检测结果更为直观,所以本发明能够作为说服力强的暴力侵害直接证据。
附图说明
图1为暴力动作检测算法流程图。
具体实施方式
具体实施方式一:
本实施方式为一种暴力动作检测方法,包括以下步骤:
1、训练过程:
1.1、数据采集:
采取像素较高摄像设备对待监控背景下的用户动作行为进行视频数据的采集。
1.2、数据预处理:
采取KNN前景提取方法取出运动的前景目标,即运动目标,运动目标外接有矩形框;利用外接矩形框整合处理方法对运动目标外接矩形框进行优化处理,优化处理后的目标外接矩形框记为感兴趣监测区域。
其中外接矩形框整合处理方法如下:若存在两个外接矩形框坐标为(x1,y1,w1,h1)和(x2,y2,w2,h2),Yth为视频采集区域范围,且y1,y2,y1+h1,y2+h2∈Yth则需要外接矩形框整合处理的外接矩形框满足式:
Figure BDA0002147405660000031
Figure BDA0002147405660000032
1.3、特征提取:
对感兴趣检测区域提取特征:目标外接矩形框最大宽、目标外接矩形框最大宽变化、目标外接矩形框最大高、目标外接矩形框最大高变化、目标外接矩形框最大面积、目标外接矩形框最大面积变化、目标外接矩形框最大宽高比、目标质心间距变化、视频运动区域整体面积、运动区域面积最大值、目标状态预判;
其中:目标状态预判特征是指根据提取的目标外接矩形框判断当前帧中目标外接交互的情况,包括2种:单目标情况状态序号为①(判定条件为运动区域面积最大值<n8,n8取决于摄像头与识别场景的距离,本发明中优选值n8=5000像素单位2)、其余情况状态序号为②;
涉及“最大”的特征,指的是,如果所提取矩形框多于1个,则该特征取较大者计算;涉及“变化”的特征,指的是,本视频帧与前第n视频帧对比的差值,n取决于摄像机帧率,本发明中优选值n=1。
1.4、分类器设计:
本发明设计了一种决策树-支持向量机二级分类算法,其流程如附图1所示。
1.4.1、首先设计第一阈值决策树部分:
以目标质心间距、前景最大面积2个特征搭建暴力动作检测决策树,对应的判决阈值和判决条件为:
目标质心间距>n1,n1=300(像素单位);
前景最大面积变化>n2,n2=40000(像素单位2);
当满足以上判决条件之一时,将动作判定为暴力动作,输出识别结果;否则,执行1.4.2;
1.4.2、设计第二阈值决策树部分:
以目标外接矩形框最大宽、目标外接矩形框最大面积、目标质心间距变化、目标状态预判、视频帧光流平均值5个特征搭建暴力动作检测决策树,对应的判决阈值和判决条件为:
目标外接矩形框最大宽<n3,n3=50(像素单位);
目标外接矩形框最大面积<n4,n4=10000(像素单位2);
目标质心间距变化>n5,n5=400(像素单位);
目标状态预判=n6,n6=序号①;
视频帧光流平均值>n7,n7=2000(像素单位2);
当满足以上判决条件之一时,将动作判定为非暴力动作,输出识别结果;否则,执行1.4.3;
1.4.3、设计支持向量机部分:
对所有帧样本,利用步骤1.3提取的全部特征设计并训练支持向量机进行分类,包括最优核函数(选用RBF核函数)以及最优参数选取(惩罚参数c=128,核函数的参数g=0.0019531),分类后输出识别结果。
即,首先利用阈值决策树确定部分样本类别,输出分类结果;对于阈值决策树不能分类的样本,继续用支持向量机完成分类。
上述训练得到的模型整体称为基于决策树-支持向量机的暴力动作分类器;
本发明用两种方式结合判断能够提高识别率。经过研究和实验发现,单纯用SVM对某些动作识别率较低,而先用决策树分出一些,剩下的再用SVM,识别率有所提高。2、测试过程:
2.1、数据采集:
采取像素较高摄像设备对待监控背景下的用户动作行为进行视频数据的采集。
采取KNN前景提取方法取出运动的前景目标,利用前述外接矩形框整合处理方法对运动目标外接矩形框进行优化处理优化处理后的目标外接矩形框记为感兴趣监测区域。
2.3、特征提取:
对感兴趣检测区域提取:目标外接矩形框最大宽、目标外接矩形框最大宽变化、目标外接矩形框最大高、目标外接矩形框最大高变化、目标外接矩形框最大面积、目标外接矩形框最大面积变化、目标外接矩形框最大宽高比、目标质心间距变化、视频运动区域整体面积、运动区域面积最大值、目标状态预判;
其中:目标状态预判特征是指根据提取的矩形框特征判断当前帧对象交互的2种情况,包括:若单目标情况状态序号为①(判定条件为运动区域面积最大值<n8,n8取决于摄像头与识别场景的距离,本发明中优选值n8=5000像素单位2)、其余情况状态序号为②;
涉及“最大”的特征,指的是,如果所提取矩形框多于1个,则该特征取较大者计算;涉及“变化”的特征,指的是,本视频帧与前第n视频帧对比的差值,n取决于摄像机帧率,本发明中优选值n=1;“目标质心间距”指的是,如果只有1个矩形框,则质心间距=0,如果有2个矩形框,则质心间距为2个矩形框的质心之间的距离,如果矩形框多于2个,则两两计算质心距离,即本发明判断超过2人的暴力场景时,两两识别。
2.4、分类器验证:
将目标质心间距、前景最大面积2个特征送入第一阈值决策树;目标外接矩形框最大宽、目标外接矩形框最大面积、目标质心间距变化、目标状态预判、视频帧光流平均值5个特征送入第二阈值决策树。在并无判决结果的情况下将步骤2.3提取的特征输入支持向量机;
将输出结果(暴力还是非暴力)与所录制视频动作对比,观察其识别准确率。
如果准确率不满足要求,重新调整第一阈值n1至第八阈值n8,返回步骤1进行训练;直到得到满足准确率要求的基于决策树-支持向量机的暴力动作检测分类器。本实施方式步骤1训练过程中所述的第一阈值至第八阈值对应的确定值为四分位箱图观测得到的阈值(根据暴力动作和非暴力动作特征值分布设定,观察特征值分布用四分位箱图法),此时本实施方式具有非常好的检测准确率,最终识别准确率为暴力动作识别准确率96.52%,非暴力动作识别准确率96.78%。验证了本发明的暴力动作检测方法的有效性。
3.实际应用过程:
3.1、数据采集:
采取像素较高监控摄像设备对待监控背景下的用户动作行为进行视频数据的采集。
3.2、使用过程:
提取特征并利用基于决策树-支持向量机的暴力动作检测分类器进行暴力动作检测,当检测出暴力动作时,向指定用户发送告警消息(通过短信或互联网数据消息),并将对应视频部分存证。
为了说明本发明的有效性,进行实验说明,对应的实验条件如下:
测试平台:数码摄像机。
仿真条件:windows7(64位)、MATLAB 2012b、Anaconda Navigator 1.7.0、Python2.7、opencv3.1.0、numpy1.15.4
测试参数:共采集暴力动作帧12448个,非暴力动作视频帧9963个,非暴力无检测目标视频帧2485个。SVM选用RBF核函数,其参数c=128,g=0.0019531。
测试结果如表1所示:
表1
Figure BDA0002147405660000061
具体实施方式二:
本实施方式为一种暴力动作检测系统,包括:
感兴趣监测区域确定模块,用于通过KNN前景提取方法取出运动的前景目标,利用外接矩形框整合处理方法对运动目标外接矩形框进行优化处理;
感兴趣检测区域特征提取模块,用于提取感兴趣检测区域特征,包括:目标外接矩形框最大宽、目标外接矩形框最大宽变化、目标外接矩形框最大高、目标外接矩形框最大高变化、目标外接矩形框最大面积、目标外接矩形框最大面积变化、目标外接矩形框最大宽高比、目标质心间距变化、视频运动区域整体面积、运动区域面积最大值、目标状态预判;
所述目标状态预判特征是指根据提取的目标外接矩形框判断当前帧中目标外接交互的情况,包括单目标情况和除了单目标情况以外的其余情况;
单目标情况的判定条件为运动区域面积最大值<第八阈值n8;
暴力动作检测模块,用于根据提取的特征进行暴力动作检测。
所述的暴力动作检测模块包括暴力动作检测决策树单元和支持向量机单元;
所述暴力动作检测决策树单元,包括第一阈值决策树部分和第二阈值决策树部分。
第一阈值决策树部分,用于对目标质心间距、前景最大面积2个特征进行判断,对应的判决阈值和判决条件为:
目标质心间距>第一阈值n1;
前景最大面积变化>第二阈值n2;
当满足以上判决条件之一时,将动作判定为暴力动作,输出识别结果;
第二阈值决策树部分,用于对目标外接矩形框最大宽、目标外接矩形框最大面积、目标质心间距变化、目标状态预判、视频帧光流平均值5个特征进行判断,对应的判决阈值和判决条件为:
目标外接矩形框最大宽<第三阈值n3;
目标外接矩形框最大面积<第四阈值n4;
目标质心间距变化>第五阈值n5;
目标状态预判=n6,n6=序号①;序号①表示单目标情况;
视频帧光流平均值>第七阈值n7;
当满足以上判决条件之一时,将动作判定为非暴力动作,输出识别结果;
支持向量机单元,用于对提取的全部特征进行分类,分类后输出识别结果;
暴力动作检测决策树单元和支持向量机单元的运行逻辑为:先通过第一阈值决策树部分判断,无输出识别结果,再通过第二阈值决策树部分判断,无输出识别结果,再通过支持向量机单元判断。
所述的支持向量机选用RBF核函数,惩罚参数c=128,核函数的参数g=0.0019531。

Claims (7)

1.一种暴力动作检测方法,其特征在于,包括以下步骤:
针对采集的图像,提取感兴趣监测区域;采集的图像提取感兴趣监测区域的过程包括以下步骤:
针对采集的图像,通过KNN前景提取方法取出运动的前景目标,利用外接矩形框整合处理方法对运动目标外接矩形框进行优化处理;所述的外接矩形框整合处理方法如下:若存在两个外接矩形框坐标为(x1,y1,w1,h1)和(x2,y2,w2,h2),Yth为视频采集区域范围,且y1,y2,y1+h1,y2+h2∈Yth则需要外接矩形框整合处理的外接矩形框满足式:
Figure FDA0003931679990000011
Figure FDA0003931679990000012
对感兴趣检测区域提取特征:目标外接矩形框最大宽、目标外接矩形框最大宽变化、目标外接矩形框最大高、目标外接矩形框最大高变化、目标外接矩形框最大面积、目标外接矩形框最大面积变化、目标外接矩形框最大宽高比、目标质心间距变化、视频运动区域整体面积、运动区域面积最大值、目标状态预判;
所述目标状态预判特征是指根据提取的目标外接矩形框判断当前帧中目标外接交互的情况,包括单目标情况和除了单目标情况以外的其余情况;
单目标情况的判定条件为运动区域面积最大值<第八阈值n8;
根据提取的特征进行暴力动作检测,暴力动作检测的过程是通过基于决策树-支持向量机的暴力动作分类器实现的,具体过程包括以下步骤:
S1、将目标质心间距、前景最大面积2个特征通过暴力动作检测决策树进行判断,对应的判决阈值和判决条件为:
目标质心间距>第一阈值n1;
前景最大面积变化>第二阈值n2;
当满足以上判决条件之一时,将动作判定为暴力动作,输出识别结果;否则,执行S2;
S2、将目标外接矩形框最大宽、目标外接矩形框最大面积、目标质心间距变化、目标状态预判、视频帧光流平均值5个特征通过暴力动作检测决策树进行判断,对应的判决阈值和判决条件为:
目标外接矩形框最大宽<第三阈值n3;
目标外接矩形框最大面积<第四阈值n4;
目标质心间距变化>第五阈值n5;
目标状态预判=n6,n6=序号①;序号①表示单目标情况;
视频帧光流平均值>第七阈值n7;
当满足以上判决条件之一时,将动作判定为非暴力动作,输出识别结果;否则,执行S3;
S3、对所有帧样本,将提取的全部特征输入支持向量机进行分类,分类后输出识别结果。
2.根据权利要求1所述的一种暴力动作检测方法,其特征在于,所述第八阈值n8=5000像素单位2
3.根据权利要求1所述的一种暴力动作检测方法,其特征在于,所述的支持向量机选用RBF核函数,惩罚参数c=128,核函数的参数g=0.0019531。
4.根据权利要求1所述的一种暴力动作检测方法,其特征在于,所述第一阈值n1=300像素单位;所述第二阈值n2=40000像素单位2
5.根据权利要求1所述的一种暴力动作检测方法,其特征在于,所述第三阈值n3=50像素单位;所述第四阈值n4=10000像素单位2;所述第五阈值n5=400像素单位;所述第七阈值n7=2000像素单位2
6.一种暴力动作检测系统,其特征在于,包括:
感兴趣监测区域确定模块,用于通过KNN前景提取方法取出运动的前景目标,利用外接矩形框整合处理方法对运动目标外接矩形框进行优化处理;所述的外接矩形框整合处理方法如下:若存在两个外接矩形框坐标为(x1,y1,w1,h1)和(x2,y2,w2,h2),Yth为视频采集区域范围,且y1,y2,y1+h1,y2+h2∈Yth则需要外接矩形框整合处理的外接矩形框满足式:
Figure FDA0003931679990000021
Figure FDA0003931679990000022
感兴趣检测区域特征提取模块,用于提取感兴趣检测区域特征,包括:目标外接矩形框最大宽、目标外接矩形框最大宽变化、目标外接矩形框最大高、目标外接矩形框最大高变化、目标外接矩形框最大面积、目标外接矩形框最大面积变化、目标外接矩形框最大宽高比、目标质心间距变化、视频运动区域整体面积、运动区域面积最大值、目标状态预判;
所述目标状态预判特征是指根据提取的目标外接矩形框判断当前帧中目标外接交互的情况,包括单目标情况和除了单目标情况以外的其余情况;
单目标情况的判定条件为运动区域面积最大值<第八阈值n8;
暴力动作检测模块,用于根据提取的特征进行暴力动作检测;所述的暴力动作检测模块包括暴力动作检测决策树单元和支持向量机单元;
所述暴力动作检测决策树单元,包括第一阈值决策树部分和第二阈值决策树部分;
第一阈值决策树部分,用于对目标质心间距、前景最大面积2个特征进行判断,对应的判决阈值和判决条件为:
目标质心间距>第一阈值n1;
前景最大面积变化>第二阈值n2;
当满足以上判决条件之一时,将动作判定为暴力动作,输出识别结果;
第二阈值决策树部分,用于对目标外接矩形框最大宽、目标外接矩形框最大面积、目标质心间距变化、目标状态预判、视频帧光流平均值5个特征进行判断,对应的判决阈值和判决条件为:
目标外接矩形框最大宽<第三阈值n3;
目标外接矩形框最大面积<第四阈值n4;
目标质心间距变化>第五阈值n5;
目标状态预判=n6,n6=序号①;序号①表示单目标情况;
视频帧光流平均值>第七阈值n7;
当满足以上判决条件之一时,将动作判定为非暴力动作,输出识别结果;
支持向量机单元,用于对提取的全部特征进行分类,分类后输出识别结果;
暴力动作检测决策树单元和支持向量机单元的运行逻辑为:先通过第一阈值决策树部分判断,无输出识别结果,再通过第二阈值决策树部分判断,无输出识别结果,再通过支持向量机单元判断。
7.根据权利要求6所述的一种暴力动作检测系统,其特征在于,所述的支持向量机选用RBF核函数,惩罚参数c=128,核函数的参数g=0.0019531。
CN201910689413.8A 2019-07-29 2019-07-29 一种暴力动作检测方法及系统 Active CN110390313B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910689413.8A CN110390313B (zh) 2019-07-29 2019-07-29 一种暴力动作检测方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910689413.8A CN110390313B (zh) 2019-07-29 2019-07-29 一种暴力动作检测方法及系统

Publications (2)

Publication Number Publication Date
CN110390313A CN110390313A (zh) 2019-10-29
CN110390313B true CN110390313B (zh) 2023-03-28

Family

ID=68287875

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910689413.8A Active CN110390313B (zh) 2019-07-29 2019-07-29 一种暴力动作检测方法及系统

Country Status (1)

Country Link
CN (1) CN110390313B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112883906B (zh) * 2021-03-15 2021-09-28 珠海安联锐视科技股份有限公司 一种基于目标检测的人员状态分析方法
CN116321626A (zh) * 2023-03-08 2023-06-23 深圳市旗扬特种装备技术工程有限公司 一种路灯照明节能管理系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105678811A (zh) * 2016-02-25 2016-06-15 上海大学 一种基于运动检测的人体异常行为检测方法
CN106097393A (zh) * 2016-06-17 2016-11-09 浙江工业大学 一种基于多尺度与自适应更新的目标跟踪方法
CN107292913A (zh) * 2017-06-12 2017-10-24 大连海事大学 一种基于视频的多阶段摔倒检测算法
CN107330465A (zh) * 2017-06-30 2017-11-07 清华大学深圳研究生院 一种图像目标识别方法及装置
CN109977892A (zh) * 2019-03-31 2019-07-05 西安电子科技大学 基于局部显著性特征和cnn-svm的舰船检测方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105678811A (zh) * 2016-02-25 2016-06-15 上海大学 一种基于运动检测的人体异常行为检测方法
CN106097393A (zh) * 2016-06-17 2016-11-09 浙江工业大学 一种基于多尺度与自适应更新的目标跟踪方法
CN107292913A (zh) * 2017-06-12 2017-10-24 大连海事大学 一种基于视频的多阶段摔倒检测算法
CN107330465A (zh) * 2017-06-30 2017-11-07 清华大学深圳研究生院 一种图像目标识别方法及装置
CN109977892A (zh) * 2019-03-31 2019-07-05 西安电子科技大学 基于局部显著性特征和cnn-svm的舰船检测方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
A Combined Motion-audio School Bullying Detection Algorithm;Liang Ye,etc;《international journal of pattern recognition and artificial intelligence》;20181231;第32卷(第12期);1-17页 *
hysical Violence Detection with Movement Sensors;Liang Ye,etc;《2018 ICST institute for computer sicences ,social informatics and telecommunications engineering》;20181012;1-8页 *
physical violence detection for preventing school bullying;liangye,etc;《advances in artificial intelligence》;20140824;第2014卷;1-9页 *

Also Published As

Publication number Publication date
CN110390313A (zh) 2019-10-29

Similar Documents

Publication Publication Date Title
CN105868689B (zh) 一种基于级联卷积神经网络的人脸遮挡检测方法
CN103824070B (zh) 一种基于计算机视觉的快速行人检测方法
CN105469105A (zh) 一种基于视频监控的香烟烟雾检测方法
CN106446926A (zh) 一种基于视频分析的变电站工人安全帽佩戴检测方法
Han et al. Deep learning-based workers safety helmet wearing detection on construction sites using multi-scale features
CN107506734A (zh) 一种群体突发异常事件检测与定位方法
Snyder et al. Thor: A deep learning approach for face mask detection to prevent the COVID-19 pandemic
CN108009574B (zh) 一种轨道扣件检测方法
CN101196991A (zh) 密集客流计数和行人步行速度自动检测方法及系统
CN103246896A (zh) 一种鲁棒性车辆实时检测与跟踪方法
CN110390313B (zh) 一种暴力动作检测方法及系统
CN112183438B (zh) 基于小样本学习神经网络的违规行为的图像识别方法
Yoshihashi et al. Construction of a bird image dataset for ecological investigations
CN111091110A (zh) 一种基于人工智能的反光背心穿戴识别方法
CN112163572A (zh) 识别对象的方法和装置
CN110781853A (zh) 人群异常检测方法以及相关装置
CN104463232A (zh) 一种基于hog特征和颜色直方图特征的密度人群计数的方法
CN108540752A (zh) 对视频监控中目标对象进行识别的方法、装置和系统
Su et al. A new local-main-gradient-orientation HOG and contour differences based algorithm for object classification
Wang et al. Traffic camera anomaly detection
Sevimli et al. Adult image content classification using global features and skin region detection
CN105913008A (zh) 基于假设检验的人群异常事件检测方法
CN103366163B (zh) 基于增量学习的人脸检测系统和方法
Piérard et al. A probabilistic pixel-based approach to detect humans in video streams
CN106407878A (zh) 基于多分类器的人脸检测方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant