CN102629384A - 视频监控中异常行为的检测方法 - Google Patents

视频监控中异常行为的检测方法 Download PDF

Info

Publication number
CN102629384A
CN102629384A CN2012100471566A CN201210047156A CN102629384A CN 102629384 A CN102629384 A CN 102629384A CN 2012100471566 A CN2012100471566 A CN 2012100471566A CN 201210047156 A CN201210047156 A CN 201210047156A CN 102629384 A CN102629384 A CN 102629384A
Authority
CN
China
Prior art keywords
moving target
frame
gray level
image
centerdot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2012100471566A
Other languages
English (en)
Other versions
CN102629384B (zh
Inventor
师改梅
胡入幻
白云
杨云
缪泽
补建
罗安
周聪俊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chengdu Santai Intelligent Technology Co ltd
Original Assignee
CHENGDU SANTAI ELECTRONIC INDUSTRY Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CHENGDU SANTAI ELECTRONIC INDUSTRY Co Ltd filed Critical CHENGDU SANTAI ELECTRONIC INDUSTRY Co Ltd
Priority to CN201210047156.6A priority Critical patent/CN102629384B/zh
Publication of CN102629384A publication Critical patent/CN102629384A/zh
Application granted granted Critical
Publication of CN102629384B publication Critical patent/CN102629384B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明为视频监控中异常行为的检测方法,解决已有检测方法考虑因素单一,极易发生误报的问题。包括如下步骤:a、读取视频图像帧,将视频图像转换为灰度图像;b、检测灰度图像中的运动目标;c、对运动目标进行跟踪,确定分析运动目标;d、计算分析运动目标帧间变化熵值并同时进行运动目标特征点提取,计算各特征点的运动速度大小和方向,计算运动目标的运动能量;e、根据运动目标帧间变化熵值和运动能量进行打斗决策,如果发生打斗,则报警。

Description

视频监控中异常行为的检测方法
技术领域:
本发明属于视频监控技术领域,尤其涉及一种运动目标行为分析中的异常行为的检测方法。
背景技术:
智能视频监控包括目标检测、目标分类、目标跟踪以及目标行为分析与理解等内容,目标异常行为检测是运动目标行为分析与理解的重要内容之一。与常规行为相比,抢劫,打斗,追逐等特定场合下目标的异常行为,往往表现为突发性大、运动幅度强、不可预知、运动方向不一致的不规则行为。
传统的视频监控系统中,通常是在目标异常行为发生后,通过录像回放来人工观察和检查目标异常行为,这种方式不但效率低下,而且无法实时报告异常行为。
现在的智能视频监控系统中,关于异常行为的检测,有基于跟踪的异常行为辨识,有基于学习的异常行为辨识以及基于能量的群体异常行为辨识。专利US2007/0121999A1提出了一种异常人群行为检测方法,该方法通过对视频场景中的目标进行检测、跟踪,对跟踪起来的运动区域计算帧间的变化熵值,以此来判断打斗事件的发生,但是这种方法对于转身等情况也极易发生误报,干扰较大。基于学习的异常行为辨识主要是通过对各种异常行为,如跑步,跳跃,倒地等行为特征的学习,建立异常行为模型,进而判断异常事件的发生,这种方法需要经过大量的学习,相对来说适用于跑步、跳跃、倒地等异常行为,而由于打斗异常行为发生的突发性,无序性,毫无规则性,该方法在检测打斗行为时,鲁棒性较低。Tian Cao,XinyuWu等提取了一种基于运动能量的异常行为检测方法,该方法通过在运动检测的基础上,对运动的目标提取特征点,并对特征点进行跟踪,建立了帧间的统计方向直方图,当打斗事件发生时,其各方向的分布较为均匀,而不是单纯地分布在某几个方向上,以此来计算运动能量。但是这种方法与场景的复杂程度有关,在人较多的场合,即使没发生打斗,也很容易发生报警。
发明内容:
本发明的目的是提供一种鲁棒性高的视频监控中异常行为的检测方法。
本发明包括如下步骤:
1.读取视频图像帧,将视频图像转换为灰度图像,
2.检测灰度图像中的运动目标,
3.对运动目标进行跟踪,确定分析运动目标,
4.计算分析运动目标帧间变化熵值,并同时进行运动目标特征点提取,计算各特征点的运动速度大小和方向,计算分析运动目标的运动能量,
5.根据分析运动目标帧间变化熵值和运动能量进行打斗决策,如发生打斗,则报警。
在步骤2中,对灰度图像进行学习,建立单高斯背景模型,然后使用背景减法提取出灰度图像中的运动目标。
执行步骤3的流程如下:
(1)对当前帧第n个运动目标和上一帧的所有运动目标进行位置和面积匹配,当前帧第n个运动目标与上一帧第m个运动目标的中心点的位置差T(m)和目标面积差A(m)分别为:
T ( m ) = ( p n - x m ) 2 + ( q n - y m ) 2 ,
A(m)=|Qn-Sm|,
其中,n,m分别为当前帧灰度图像和上一帧灰度图像中运动目标的编号,按照从左到右,从上到下的顺序排列,n=1,2,...,N,m=1,2,...,M,上一帧灰度图像第m个运动目标中心点位置为[xm,ym],面积为Sm,当前帧第n个运动目标中心点位置为[pn,qn],面积为Qn,取n=1,遍历m的全部取值,计算使得T(m)最小的m值J1
Figure BSA00000676232800022
选取运动目标中心位置和面积帧间变化阈值th1,th2
当T(J1)≤th1且A(J1)≤th2,则表示当前帧第一个运动目标在上一帧匹配的运动目标为第J1个,
当T(J1)>th1或A(J1)>th2,则将J1置为0,表示当前帧出现了新的运动目标;
(2)将n依次加1,重复上述过程,找出当前帧所有运动目标与上一帧匹配的运动目标J1,J2,...,JN,如果其中不包括从1到M的某值K,则表明上一帧第K个运动目标丢失;
(3)重复过程(1),(2),依次对当前帧灰度图像以上的连续的H帧灰度图像的运动目标跟踪,H为5到10之间的任意整数,如果某运动目标连续有H帧未发生运动目标丢失,则将当前帧灰度图像的该运动目标作为分析运动目标。
在步骤4中,对分析运动目标进行帧间灰度值变化统计,得到分析运动目标的帧间变化熵值E1
E 1 = 1 W 1 · H 1 Σ i = 1 W 1 Σ j = 1 H 1 M 1 [ i , j ] ,
其中, M 1 [ i , j ] = 1 , | R t [ i , j ] - R t - 1 [ i , j ] | &GreaterEqual; th 3 0 , | R t [ i , j ] - R t - 1 [ i , j ] | < th 3 , th3为帧间差分阈值,W1,H1分别为分析运动目标在当前帧所在区域的宽度,高度,Rt[i,j]为分析运动目标在当前帧所在区域水平第i个垂直第j个像素点的灰度值,Rt-1[i,j]为分析运动目标在上一帧所在区域水平第i个垂直第j个像素点的灰度值。
在步骤4中,计算分析运动目标运动能量的过程如下:
(1)采用网格形式在分析运动目标图像上扫描,扫描间距为5个像素点,每扫描一次取一个像素点,当其二值化像素点为255时,提取该点为特征点;
(2)使用光流法对连续三帧灰度图像的特征点进行跟踪,计算每两帧灰度图像间特征点的速度方向和速度大小得到第一、二速度方向θ1[n],θ2[n]和第一、二速度大小v1[n],v2[n];
(3)计算分析运动目标的运动能量E2,用A1表示当前帧分析运动目标每个特征点的最大第一速度大小对应的第一速度方向,以A1为基准角度,计算当前帧分析运动目标每个特征点的第一速度方向与A1的差值Δθ1[n],计算当前帧分析运动目标每个特征点的第一速度方向与上一帧相匹配点的第二速度方向的角度差异Δθ2[n],n为分析运动目标特征点的编号,n=1,2,...,N,分析运动目标的运动能量为:
E 2 = &Sigma; n = 1 N ( ( &Delta; &theta; 2 ( n ) &pi; &CenterDot; 10 ) 2 + ( | &Delta; &theta; 1 [ n ] | &pi; &CenterDot; 10 ) 2 ) &CenterDot; v 1 [ n ] 2 ,
其中,v1[n]为第n个特征点的速度大小。
在步骤5中,当E1>th4且E2>th5时,th4为打斗熵值阈值,th5为打斗能量阈值,则判定分析运动目标发生了打斗行为,发生报警,并将该分析运动目标在原彩色视频图像中的位置标记出来,上传接警中心,否则,重复步骤3-5。
本发明综合考虑运动目标的帧间变化熵值和运动能量,在场景复杂的情况下,也不会发生误报警,报警成功率高。
附图说明:
图1是本发明提供的异常行为检测方法所述系统的结构框图。
图2是本发明提供的异常行为检测方法的总体流程图。
图3是本发明提供的异常行为检测方法中运动目标跟踪的流程图。
图4是本发明对帧间匹配的目标区域进行扩充的示意图。
具体实施方式:
本发明提供了一种视频监控中的异常行为检测方法,该方法的系统结构框图如图1所示,包括视频采集单元、异常行为分析单元以及报警单元。
视频采集单元的主要功能是通过通用模拟摄像头对监控场景进行拍摄并获取模拟视频图像,然后通过通用的视频采集卡转换为数字图像数据。这里对摄像头的安装高度和角度是有一定要求的,摄像头的安装要使得整个人体都出现在视频画面中,摄像机的架设要使得视频画面中能完整显示人体的全身信息。
异常行为分析单元的主要功能是对送入的彩色数字图像数据转换为灰度图像,然后在灰度图像上检测是否有异常行为发生。如果有异常行为发生,则提取异常行为目标的位置,并在原彩色图像的相应位置处将该异常行为目标标记出来。
如果在异常行为分析单元检测到有异常行为发生,则发生报警,并将有异常行为标记的图像上传报警单元。
本发明提供了一种视频监控中的异常行为检测方法,该方法如图2所示,具体包括如下步骤:
一、将彩色图像转换为灰度图像s1
本发明中提到的异常行为检测方法的每个步骤都是在灰度图像基础上进行的,所以首先要将获得的彩色图像转换为灰度图像;
二、运动目标检测s2
对步骤一获得的灰度图像中进行运动目标检测,运动目标检测的方法有背景减法、帧间差分法,时间统计法和光流法,在本发明实施例,以背景减法为例进行说明,背景减法实施的关键在于背景模型的建立,背景模型建立的方法有很多,有单高斯背景模型法和混合高斯背景模型法,在本发明实施例中,以单高斯背景模型法为例进行介绍,通过一段时间的灰度图像学习,建立了单高斯背景模型,然后使用背景减法提取出灰度图像中的运动目标区域,完成运动目标检测,具体为:
1.单高斯背景模型建立
在场景中无运动的行人或车辆时,对之后的连续20帧灰度图像进行学习,建立单高斯背景模型,单高斯背景模型建立的关键是均值和方差的建立。
首先,对均值和方差进行初始化,μ0[i,j]表示灰度图像水平第i个像素点,垂直第j个像素点的初始背景模型均值,σ0[i,j]表示灰度图像水平第i个像素点,垂直第j个像素点的初始背景模型标准方差,计算公式为:
μ0[i,j]=a,i=1,2,...,W0,j=1,2,...,H0       (1-1)
σ0[i,j]=b,i=1,2,...,W0,j=1,2,...,H0       (1-2)
其中,W0表示灰度图像的宽度,H0表示灰度图像的高度,在本发明实施例中,a=10,b=15。
在以后的每帧中,完成对背景模型的更新,背景模型的更新就是对背景模型均值和方差的更新。如果当前图像为第t帧,则上一帧图像为第t-1帧,则上二帧图像为第t-2帧,且t为大于2的正整数,用μt[i,j]表示当前帧灰度图像水平第i个像素点,垂直第j个像素点的背景模型均值,μt-1[i,j]代表上一帧灰度图像水平第i个像素点,垂直第j个像素点的背景模型均值,It[i,j]表示当前帧灰度图像水平第i个像素点,垂直第j个像素点的灰度值,背景模型均值μt[i,j]的更新方法如下:
&mu; t [ i , j ] = &mu; t - 1 [ i , j ] + 1 , I t [ i , j ] > &mu; t - 1 [ i , j ] &mu; t - 1 [ i , j ] , I t [ i , j ] = &mu; t - 1 [ i , j ] &mu; t - 1 [ i , j ] - 1 , I t [ i , j ] < &mu; t - 1 [ i , j ] , i=1,2,...,W0,j=1,2,...,H0(2-1)
用σt[i,j]表示当前帧灰度图像水平第i个像素点,垂直第j个像素点的背景模型标准方差,σt-1[i,j]代表上一帧灰度图像水平第i个像素点,垂直第j个像素点的背景模型标准方差,背景模型标准方差的更新方法如下:
&sigma; t [ i , j ] = &sigma; t - 1 [ i , j ] + 1 , ( &mu; t [ i , j ] - I t [ i , j ] ) > 3 &sigma; t - 1 [ i , j ] &sigma; t - 1 [ i , j ] , ( &mu; t [ i , j ] - I t [ i , j ] ) = 3 &sigma; t - 1 [ i , j ] &sigma; t - 1 [ i , j ] - 1 , ( &mu; t [ i , j ] - I t [ i , j ] ) < 3 &sigma; t - 1 [ i , j ] i=1,2,...,W0 j=1,2,...,H0    (2-2)
2.背景减法提取运动目标区域
在背景模型建立完成后,将以后每帧灰度图像的各个像素点与背景模型对应位置的均值μt[i,j]相减,根据结果对灰度图像进行二值化,完成运动目标区域的提取。
用Bt[i,j]表示当前帧灰度图像水平第i个像素点,垂直第j个像素点的二值化像素点值,Bt[i,j]的计算方法如公式(3)所示。
B t [ i , j ] = 255 , | &mu; t [ i , j ] - I t [ i , j ] | > = 3 &sigma; t [ i , j ] 0 , | &mu; t [ i , j ] - I t [ i , j ] | < 3 &sigma; t [ i , j ] , i=1,2,...,W0,j=1,2,...,H0    (3)
当Bt[i,j]=255时,表示当前帧灰度图像的水平i个像素点,垂直第j个像素点为目标点,当Bt[i,j]=0时,表示当前帧灰度图像的水平i个像素点,垂直第j个像素点为背景点。当遍历完当前帧灰度图像的所有像素点,计算得到所有像素点的二值化值后,通过标记操作,完成运动目标的提取,各个运动目标用矩形区域表示。
三、运动目标跟踪s3
运动目标在视频中出现,不可能一晃而过。因此,在步骤二的基础上,对检测出来的运动目标进行跟踪,以排除瞬时出现的目标造成的干扰,具体实现过程如图3所示。
假设上一帧灰度图像中检测到有M个运动目标,当前帧灰度图像中检测到N个运动目标,n,m为变量,分别为当前帧和上一帧灰度图像中运动目标的标号,在视频图像上按照从左到右,从上到下的顺序排序,n=1,2,...,N,m=1,2,...,M,上一帧第m个运动目标中心点位置为[xm,ym],面积为Sm,当前帧第n个运动目标中心点位置为[pn,qn],面积为Qn
1.面积和位置匹配
(1)对当前帧灰度图像的第n个运动目标,与上一帧灰度图像的所有运动目标进行位置和面积匹配。当前帧第n个运动目标与上一帧第m个运动目标中心点的位置差T(m)和目标间面积差A(m)分别为:
T ( m ) = ( p n - x m ) 2 + ( q n - y m ) 2 - - - ( 4 - 1 )
A(m)=|Qn-Sm|        (4-2)
取n=1,遍历m的全部取值,计算使得位置匹配参数T(m)最小的m值,记为表示当前帧第一个运动目标的最佳匹配为上一帧第J1个运动目标,如果T(J1)≤th1且A(J1)≤th2,th1为运动目标中心位置帧间变化的阈值,在本发明实施例中th1=20,th2为运动目标面积帧间变化阈值,在本发明实施例中th2=100,则表示当前帧第一个运动目标能在上一帧灰度图像中找到匹配的运动目标为第J1个,如果T(J1)>th1或A(J1)>th2,将J1置0,即J1=0,则表示当前帧第一个运动目标与上一帧的任何运动目标都不匹配,为新出现的运动目标;
(2)n依次加1,从n=2直到n=N,重复步骤(1),找出当前帧所有匹配的运动目标J2,J3,...,JN,如果J1,J2,...,JN不包括从1到M的某个值K,则表明上一帧第K个运动目标丢失;
(3)依次类推,重复上述步骤(1),(2),对以下各帧灰度图像的所有运动目标进行位置和面积匹配。
2.跟踪分析
如果某运动目标连续有H帧匹配成功而未发生运动目标丢失的情况,则将当前帧灰度图像的该运动目标作为分析运动目标,H为5到10之间的任意整数,在本发明实施例中,H=8。
四、计算分析运动目标帧间变化熵值s4
在步骤三的基础上,对分析运动目标进行帧间灰度变化统计,得到分析运动目标的运动熵值。
将分析运动目标在当前帧和上一帧所在位置处的区域按照图4所示的方式进行扩充,左右边界扩充
Figure BSA00000676232800071
的目标区域宽度,上下边界扩充
Figure BSA00000676232800072
的目标区域高度,并保证扩充后帧间区域大小相同。假设分析运动目标在当前帧左上角的位置为[x0,y0],右上角的位置为[x1,y0],左下角的位置为[x0,y1],右下角的位置为[x1,y1],分析运动目标在上一帧左上角的位置为[x2,y2],右上角的位置为[x3,y2],左下角的位置为[x2,y3],右下角的位置为[x3,y3],则扩充后分析运动目标在当前帧所在区域的左上角位置为 [ x 0 - x 1 - x 0 4 , y 0 - y 1 - y 0 4 ] , 右上角位置为 [ x 1 + x 1 - x 0 4 , y 0 - y 1 - y 0 4 ] , 左下角位置为 [ x 0 - x 1 - x 0 4 , y 1 + y 1 - y 0 4 ] , 右下角位置为 [ x 1 + x 1 - x 0 4 , y 1 + y 1 - y 0 4 ] , 扩充后分析运动目标在上一帧所在区域的左上角位置为 [ x 2 - x 1 - x 0 4 , y 2 - y 1 - y 0 4 ] , 右上角位置为 [ x 2 + 5 ( x 1 - x 0 ) 4 , y 2 - y 1 - y 0 4 ] , 左下角位置为 [ x 2 - x 1 - x 0 4 , y 2 + 5 ( y 1 - y 0 ) 4 ] , 右下角位置为 [ x 2 + 5 ( x 1 - x 0 ) 4 , y 2 + 5 ( y 1 - y 0 ) 4 ] , 其中位置坐标均为整数。
然后计算两目标区域的匹配熵值,用E1表示分析运动目标在帧间的变化熵值,Rt[i,j]为分析运动目标在当前帧图像中所在区域水平第i个垂直第j个像素点的灰度值,Rt-1[i,j]为分析运动目标在上一帧图像中所在区域水平第i个垂直第j个像素点的灰度值,Mt[i,j]表示分析运动目标在当前帧图像中所在区域与上一帧图像中所在区域水平第i个垂直第j个像素点的差分值,熵值的计算方法如下:
E 1 = 1 W 1 &CenterDot; H 1 &Sigma; i = 1 W 1 &Sigma; j = 1 H 1 M 1 [ i , j ] - - - ( 5 )
其中, M t [ i , j ] = 1 , | R t [ i , j ] - R t - 1 [ i , j ] | &GreaterEqual; th 3 0 , | R t [ i , j ] - R t - 1 [ i , j ] | < th 3 , W1表示分析运动目标在当前帧图像中所在区域的宽度,H1表示分析运动目标在当前帧图像中所在区域的高度,th3为帧间差分阈值,在本发明实施例中,th3=15。
五、对分析运动目标进行特征点提取,并计算各特征点的运动速度大小和速度方向s5
1.采用网格形式在分析运动目标图像上选取特征点
采用基于网格的方法,按照从左到右,从上到下的顺序扫描分析运动目标图像,水平和垂直扫描距离都为5个像素点,每扫描一次取1个像素点,当且仅当该像素点的二值化像素点值为255时,该点被提取为特征点。
2.使用光流法对连续三帧的特征点进行跟踪,计算每两帧间特征点的速度方向和大小
首先计算连续三帧灰度图像的各层金字塔图像和金字塔梯度图像,在得到连续三帧的金字塔图像和金字塔梯度图像后,使用KLT方法对分析运动目标的每个特征点在帧间进行跟踪,进而计算得到分析运动目标各特征点的运动速度大小和方向,具体为:
(1)计算连续三帧灰度图像的各层金字塔图像和金字塔梯度图像
计算当前帧,上一帧和上二帧灰度图像的各层金字塔图像和金字塔梯度图像,在本发明实施例中,选择两层金字塔,下面以当前帧灰度图像的金字塔图像和金字塔梯度图像计算方法为例进行说明,具体可为:
a.对当前帧灰度图像做高斯平滑
在当前帧灰度图像上,将高斯算子作为平滑模板,按照从左到右,从上到下的顺序依次平移平滑模板各像素点[i,j]处,为防止越界,不处理最上,最下,最左,最右四边的图像元素,计算平滑模板与像素点[i,j]领域灰度值的加权,其中各加权值对应平滑模板的各对应位置处的值,得到各像素点平滑后的值,在本发明实施例中,采用的高斯算子为 H = 1 16 1 8 1 16 1 8 1 4 1 8 1 16 1 8 1 16 , 用St[i,j]表示对当前帧灰度图像做高斯平滑后水平第i个垂直第j个像素点的值,称为高斯平滑图像,计算公式为:
Figure BSA00000676232800082
其中,H[k,l]表示上面提到的高斯算子第k行第l列的值,i=2,3,...,W0-1,j=2,3,...,H0-1,
Figure BSA00000676232800083
为向下取整运算符,表示不大于 1 16 2 I [ i - 1 , j ] + 4 I [ i , j ] + 2 I [ i + 1 , j ] + I [ i - 1 , j - 1 ] + 2 I [ i - 1 , j ] + I [ i - 1 , j + 1 ] + I [ i + 1 , j - 1 ] + 2 I [ i + 1 , j ] + I [ i + 1 , j + 1 ] 的最大整数;
高斯平滑图像四边界的像素值值都为0,St[1,j]=0,j=1,2,...,H0表示高斯平滑图像第一列的值为0,St[W0,j]=0,j=1,2,...,H0表示高斯平滑图像最后一列的值为0,St[i,1]=0,i=1,2,...,W0表示高斯平滑图像第一行的值为0,St[i,H0]=0,i=1,2,...,W0表示高斯平滑图像最后一行的值为0。
b.计算两层金字塔图像
用P1[i,j]表示第一层金字塔图像各像素点的值,P2[i,j]表示第二层金字塔图像各像素点的值,计算方法如下:
P1[i,j]=S[i,j],i=1,2,...,W0,j=1,2,...,H0          (7-1)
P2[i,j]=S[i′,j′],
Figure BSA00000676232800091
其中,i′=i*4-2,j′=j*4-2;
c.对两层金字塔图像应用梯度运算算子计算金字塔水平梯度图像和金字塔垂直梯度图像
在第一层金字塔和第二层金字塔图像上,将水平梯度算子和垂直梯度算子作为运算模板,按照从左到右,从上到下的顺序依次平移运算模板到各像素点[i,j]处,为防止越界,不处理最上,最下,最左,最右四边的图像元素,计算运算模板与像素点[i,j]领域灰度值的加权,其中各加权值对应运算模板的各对应位置处的值,得到各像素点的金字塔水平梯度图像和金字塔垂直梯度像素,用G1[i,j]表示金字塔水平梯度图像水平第i个垂直第j个像素点的值,用G2[i,j]表示金字塔垂直梯度图像水平第i个垂直第j个像素点的值,W2,H2表示金字塔水平梯度图像和垂直梯度图像的宽度和高度,
Figure BSA00000676232800093
在本发明实施例中,采用的水平梯度算子为 M 1 = 1 0 - 1 2 0 - 2 1 0 - 1 和垂直梯度算子为 M 2 = 1 2 1 0 0 0 - 1 - 2 - 1 , G1[i,j]和G2[i,j]计算公式为:
G 1 [ i , j ] = &Sigma; k = 1 3 &Sigma; l = 1 3 P 1 [ i - 2 + k , j - 2 + l ] M 1 [ k , l ] - - - ( 8 - 1 )
G 2 [ i , j ] = &Sigma; k = 1 3 &Sigma; l = 1 3 P 1 [ i - 2 + k , j - 2 + l ] M 2 [ k , l ] - - - ( 8 - 2 )
其中,i=1,2,...,W0,j=1,2,...,H0,M1[k,l]表示上面提到的水平梯度算子第k行第l列的值,M2[k,l]表示上面提到的垂直梯度算子第k行第l列的值;
G 1 [ i &prime; , j &prime; ] = &Sigma; k = 1 3 &Sigma; l = 1 3 P 2 [ i - 2 + k , j - 2 + l ] M 1 [ k , l ] - - - ( 8 - 3 )
G 1 [ i &prime; , j &prime; ] = &Sigma; k = 1 3 &Sigma; l = 1 3 P 2 [ i - 2 + k , j - 2 + l ] M 2 [ k , l ] - - - ( 8 - 4 )
其中,
Figure BSA00000676232800103
i′=i+W0,j′=j+H0
对上一帧灰度图像重复步骤a,b,c可得到上一帧的第一层金字塔图像P10[i,j],上一帧的第二层金字塔图像P20[i,j],上一帧的金字塔水平梯度图像G10[i,j]和上一帧的金字塔垂直梯度图像G20[i,j],对上二帧灰度图像重复步骤a,b,c可得到上二帧的第一层金字塔图像P11[i,j],上一帧的第二层金字塔图像P21[i,j],上二帧的金字塔水平梯度图像G11[i,j]和上二帧的金字塔垂直梯度图像G21[i,j]。
(2)在得到连续三帧的金字塔图像和金字塔梯度图像后,使用KLT方法对分析运动目标的特征点在上一帧和上二帧,当前帧和上一帧帧间进行跟踪。
假设分析运动目标第一个特征点在上二帧灰度图像中的坐标为[x0,y0],则该特征点在上一帧灰度图像中的坐标计算方法如下:
a.从最顶层金字塔图像开始,因为总共有两层金字塔,所有从第二层金字塔图像开始计算偏移,在以该特征点在第二层金字塔上对应的点为中心的7×7的区域内分别计算第二层金字塔图像差异,第二层金字塔水平梯度图像差异和第二层金字塔垂直梯度图像差异。
用[x1,y1]表示搜索点的坐标,[a,b]表示第二层金字塔图像的搜索点的水平权值和垂直权值,用d[w][h]表示水平偏移为w垂直偏移为h时第二层金字塔图像的差异,gx[w][h]表示水平偏移为w垂直偏移为h时第二层金字塔水平梯度图像差异,gy[w][h]表示水平偏移为w垂直偏移为h时第二层金字塔水平梯度图像差异,w,h为变量,取w=1,h=1时,
Figure BSA00000676232800105
a = x 0 4 - 3 - x 1 , b = y 0 4 - 3 - y 1 , 在7×7的区域内计算第二层金字塔图像差异,
d [ 1 ] [ 1 ] = ( 1 - a ) ( 1 - b ) &CenterDot; P 21 [ x 1 , y 1 ] + a ( 1 - b ) &CenterDot; P 21 [ x 1 + 1 , y 1 ] + ( 1 - a ) b &CenterDot; P 21 [ x 1 , y 1 + 1 ] + ab &CenterDot; P 21 [ x 1 + 1 , y 1 + 1 ] (9)
- ( 1 - a ) ( 1 - b ) &CenterDot; P 20 [ x 1 , y 1 ] + a ( 1 - b ) &CenterDot; P 20 [ x 1 + 1 , y 1 ] + ( 1 - a ) b &CenterDot; P 20 [ x 1 , y 1 + 1 ] + ab &CenterDot; P 20 [ x 1 + 1 , y 1 + 1 ]
在7×7的区域内计算第二层金字塔水平梯度图像差异,
g x [ 1 ] [ 1 ] = ( 1 - a ) ( 1 - b ) &CenterDot; G 11 [ x 1 + W 0 , y 1 + H 0 ] + a ( 1 - b ) &CenterDot; G 11 [ x 1 + W 0 + 1 , y 1 + H 0 ] + ( 1 - a ) b &CenterDot; G 11 [ x 1 + W 0 , y 1 + H 0 + 1 ] + ab &CenterDot; G 11 [ x 1 + W 0 + 1 , y 1 + H 0 + 1 ]
(10)
- ( 1 - a ) ( 1 - b ) &CenterDot; G 10 [ x 1 + W 0 , y 1 + H 0 ] + a ( 1 - b ) &CenterDot; G 10 [ x 1 + W 0 + 1 , y 1 + H 0 ] + ( 1 - a ) b &CenterDot; G 10 [ x 1 + W 0 , y 1 + H 0 + 1 ] + ab &CenterDot; G 10 [ x 1 + W 0 + 1 , y 1 + H 0 + 1 ]
在7×7的区域内计算第2层金字塔垂直梯度图像差异,
g y [ 1 ] [ 1 ] = ( 1 - a ) ( 1 - b ) &CenterDot; G 21 [ x 1 + W 0 , y 1 + H 0 ] + a ( 1 - b ) &CenterDot; G 21 [ x 1 + W 0 + 1 , y 1 + H 0 ] + ( 1 - a ) b &CenterDot; G 21 [ x 1 + W 0 , y 1 + H 0 + 1 ] + ab &CenterDot; G 21 [ x 1 + W 0 + 1 , y 1 + H 0 + 1 ]
(11)
- ( 1 - a ) ( 1 - b ) &CenterDot; G 20 [ x 1 + W 0 , y 1 + H 0 ] + a ( 1 - b ) &CenterDot; G 20 [ x 1 + W 0 + 1 , y 1 + H 0 ] + ( 1 - a ) b &CenterDot; G 20 [ x 1 + W 0 , y 1 + H 0 + 1 ] + ab &CenterDot; G 20 [ x 1 + W 0 + 1 , y 1 + H 0 + 1 ]
w依次加1,从w=2到w=7,此时
Figure BSA00000676232800115
Figure BSA00000676232800116
a = x 0 4 + w - 4 - x 1 , b = y 0 4 - 3 - y 1 , 用公式(8)(9)(10)的方法分别得到d[w][1],gx[w][1],gy[w][1],w=2,...,7,
依次类推,w,h遍历1到7的所有取值,可得到7×7区域内所有的d[w][h],gx[w][h],gy[w][h]值,
此时,
Figure BSA00000676232800119
Figure BSA000006762328001110
a = x 0 4 + w - 4 - x 1 , b = y 0 4 + h - 4 - y 1 ,
w=1,2,...,7,h=1,2,...,7;
b.计算第2层金字塔位移
用Δx1表示上二帧和上一帧第二层金字塔上的水平位移,用Δx1表示上二帧和上一帧第二层金字塔上的垂直位移,
&Delta; x 1 = g yy &CenterDot; e x - g xy &CenterDot; e y g xx &CenterDot; g yy - g xy &CenterDot; g xy - - - ( 12 - 1 )
&Delta; y 1 = g xx &CenterDot; e y - g xy &CenterDot; e x g xx &CenterDot; g yy - g xy &CenterDot; g xy - - - ( 12 - 2 )
其中 g xx = &Sigma; w = 1 7 &Sigma; h = 1 7 ( g x [ w ] [ h ] ) 2 , g yy = &Sigma; w = 1 7 &Sigma; h = 1 7 ( g y [ w ] [ h ] ) 2 , g xy = &Sigma; w = 1 7 &Sigma; h = 1 7 g x [ w ] [ h ] &CenterDot; g y [ w ] [ h ]
, e x = &Sigma; w = 1 7 &Sigma; h = 1 7 g x [ w ] [ h ] &CenterDot; d [ w ] [ h ] , e y = &Sigma; w = 1 7 &Sigma; h = 1 7 g y [ w ] [ h ] &CenterDot; d [ w ] [ h ] ;
c.在以该特征点在第一层金字塔上对应的点为中心的7×7的区域内分别计算第一层金字塔图像差异,第一层金字塔水平梯度图像差异和第一层金字塔垂直梯度图像差异。
用[x2,y2]表示上二帧第一层金字塔图像搜索点的坐标,[a1,b1]表示上二帧第一层金字塔图像的搜索点的水平权值和垂直权值,[x3,y3]表示上一帧第一层金字塔图像搜索点的坐标,[a2,b2]表示上一帧第一层金字塔图像的搜索点的水平权值和垂直权值,用d′[w][h]表示水平偏移为w垂直偏移为h时第一层金字塔图像的差异,g′x[w][h]表示水平偏移为w垂直偏移为h时第一层金字塔水平梯度图像差异,g′y[w][h]表示水平偏移为w垂直偏移为h时第一层金字塔水平梯度图像差异,w为变量,h为变量,遍历方法与步骤a相同,在7×7的区域内计算第1层金字塔图像差异,
d &prime; [ w ] [ h ] = ( 1 - a 1 ) ( 1 - b 1 ) &CenterDot; P 11 [ x 2 , y 2 ] + a 1 ( 1 - b 1 ) &CenterDot; P 11 [ x 2 + 1 , y 2 ] + ( 1 - a 1 ) b 1 &CenterDot; P 11 [ x 2 , y 2 + 1 ] + a 1 b 1 &CenterDot; P 21 [ x 2 + 1 , y 2 + 1 ]
(13)
- ( 1 - a 2 ) ( 1 - b 2 ) &CenterDot; P 10 [ x 3 , y 3 ] + a 2 ( 1 - b 2 ) &CenterDot; P 10 [ x 3 + 1 , y 3 ] + ( 1 - a 2 ) b 2 &CenterDot; P 10 [ x 3 , y 3 + 1 ] + a 2 b 2 &CenterDot; P 10 [ x 3 + 1 , y 3 + 1 ]
其中,
Figure BSA00000676232800123
a 1 = 4 &times; x 0 4 + w - 4 - x 2 , b 1 = 4 &times; y 0 4 + h - 4 - y 2
Figure BSA00000676232800127
a 2 = 4 &times; ( x 0 4 + &Delta; x 1 ) + w - 4 - x 3 , b 2 = 4 &times; ( y 0 4 + &Delta; y 1 ) + h - 4 - y 3
在7×7的区域内计算金字塔水平梯度图像差异,
g &prime; x [ w ] [ h ] = ( 1 - a 1 ) ( 1 - b 1 ) &CenterDot; G 11 [ x 2 , y 2 ] + a 1 ( 1 - b 1 ) &CenterDot; G 11 [ x 2 + 1 , y 2 ] + ( 1 - a 1 ) b 1 &CenterDot; G 11 [ x 2 , y 2 + 1 ] + a 1 b 1 &CenterDot; G 11 [ x 2 + 1 , y 2 + 1 ]
(14)
- ( 1 - a 2 ) ( 1 - b 2 ) &CenterDot; G 10 [ x 3 , y 3 ] + a 2 ( 1 - b 2 ) &CenterDot; G 10 [ x 3 + 1 , y 3 ] + ( 1 - a 2 ) b 2 &CenterDot; G 10 [ x 3 , y 3 + 1 ] + a 2 b 2 &CenterDot; G 10 [ x 3 + 1 , y 3 + 1 ]
在7×7的区域内计算金字塔垂直梯度图像差异,
g &prime; y [ w ] [ h ] = ( 1 - a 1 ) ( 1 - b 1 ) &CenterDot; G 21 [ x 2 , y 2 ] + a 1 ( 1 - b 1 ) &CenterDot; G 21 [ x 2 + 1 , y 2 ] + ( 1 - a 1 ) b 1 &CenterDot; G 21 [ x 2 , y 2 + 1 ] + a 1 b 1 &CenterDot; G 21 [ x 2 + 1 , y 2 + 1 ]
(15)
- ( 1 - a 2 ) ( 1 - b 2 ) &CenterDot; G 20 [ x 3 , y 3 ] + a 2 ( 1 - b 2 ) &CenterDot; G 20 [ x 3 + 1 , y 3 ] + ( 1 - a 2 ) b 2 &CenterDot; G 20 [ x 3 , y 3 + 1 ] + a 2 b 2 &CenterDot; G 20 [ x 3 + 1 , y 3 + 1 ]
d.计算第一层金字塔位移
用Δx表示第一层金字塔上的水平位移,用Δy表示第一层金字塔上的垂直位移,
&Delta; x = g &prime; yy &CenterDot; e &prime; x - g &prime; xy &CenterDot; e &prime; y g &prime; xx &CenterDot; g &prime; yy - g &prime; xy &CenterDot; g &prime; xy - - - ( 16 - 1 )
&Delta; y = g xx &CenterDot; e y - g xy &CenterDot; e x g xx &CenterDot; g yy - g xy &CenterDot; g xy - - - ( 16 - 2 )
其中 g &prime; xx = &Sigma; w = 1 7 &Sigma; h = 1 7 ( g &prime; x [ w ] [ h ] ) 2 , g &prime; yy = &Sigma; w = 1 7 &Sigma; h = 1 7 ( g &prime; y [ w ] [ h ] ) 2 , g &prime; xy = &Sigma; w = 1 7 &Sigma; h = 1 7 g &prime; x [ w ] [ h ] &CenterDot; g &prime; y [ w ] [ h ] , g &prime; x = &Sigma; w = 1 7 &Sigma; h = 1 7 g &prime; x [ w ] [ h ] &CenterDot; d [ w ] [ h ] , e &prime; y = &Sigma; w = 1 7 &Sigma; h = 1 7 g &prime; y [ w ] [ h ] &CenterDot; d &prime; [ w ] [ h ]
由此可以得到分析运动目标的第一个特征点在上一帧的坐标[x0+Δx,y0+Δy],依次类推,按照步骤a,b,c,d同样可以完成在上一帧和当前帧特征点坐标的匹配,完成分析目标各特征点在三帧间的跟踪。
(3)根据KLT跟踪的结果,对分析运动目标特征点帧间的信息进行计算,进而计算特征点的运动速度大小和方向
n为变量,是分析运动目标特征点的编号,按照从左到右,从上到下的顺序进行编号,假设分析运动目标共有N个特征点,则n=1,2,...,N,取n=1时,对分析运动目标第1个特征点进行分析,用x0表示分析运动目标第1个特征点在当前帧的横坐标,x1表示该特征点上一帧对应的横坐标,x2表示该特征点上二帧对应的横坐标,y0表示分析运动目标第1个特征点在当前帧的纵坐标,y1表示该特征点上一帧对应的纵坐标,y2表示该特征点上二帧对应的纵坐标,该特征点帧间第一水平位置差异Δx1[1]和第一垂直位置差异Δy1[1]的计算公式如下:
&Delta; y 1 [ 1 ] = y 0 - y 1 &Delta; x 1 [ 1 ] = x 0 - x 1 - - - ( 17 )
则该特征点的第一速度大小v1[1]的计算公式如下:
v 1 [ 1 ] = &Delta; x 1 [ 1 ] 2 + &Delta; y 1 [ 1 ] 2 - - - ( 18 )
该特征点的第一速度方向θ1[1]的计算公式如下:
Figure BSA00000676232800141
按照公式(16)(17)(18)的方法在上一帧和上二帧各特征点的位置之间进行计算可以得到该特征点的第二速度大小v2[1]和第二速度方向θ2[1]。
依次类推,n依次加1,从n=2直到n=N,可以得到分许运动目标各特征点的第一运动速度大小为v1[n],第一运动速度方向θ1[n],第二运动速度大小为v2[n],第二运动速度方向θ2[n]。
(4)在步骤(3)的基础上,当v1[n]<2或者v2[n]<2时,表明该特征点在帧间运动速度较小,将该特征点删除,即使得v1[n]=0,v2[n]=0。
六、计算分析运动目标的运动能量s6
计算当前帧分析运动目标的每个特征点中最大速度对应的角度作为基准角度,并计算每个特征点速度方向与基准角度的差异。
1.用A1表示当前帧分析运动目标每个特征点的最大速度对应的角度,计算公式为:
A 1 = &theta; 1 [ arg max ( v 1 [ n ] ) ] n = 1,2 , , N - - - ( 20 )
2.将该角度A1作为基准角度,计算当前帧分析运动目标每个特征点的速度方向与基准角度的差值Δθ1[n]:
Δθ1[n]=θ1[n]-A1,n=1,2,...,N  (21)
3.计算当前帧分析运动目标的每个特征点与上一帧的帧间角度差异Δθ2[n]:
Δθ2[n]=θ1[n]-θ2[n],n=1,2,...,N  (22)
4.根据分析运动目标各特征点的帧间角度差异和当前角度差异,计算该分析运动目标的运动能量E2,能量的计算如下:
E 2 = &Sigma; n = 1 N ( ( &Delta; &theta; 2 ( n ) &pi; &CenterDot; 10 ) 2 + ( | &Delta; &theta; 1 [ n ] | &pi; &CenterDot; 10 ) 2 ) &CenterDot; v 1 [ n ] 2 - - - ( 23 )
七、打斗决策s7
根据步骤四和步骤六的结果综合判断视频中是否发生了打斗行为,当分析运动目标的区域熵值E1满足E1>th4,并且分析运动目标的运动能量E2满足E2>th5时,th4为打斗熵值阈值,th5为打斗能量阈值,在本发明实施例中,th4=0.2,th5=200,表明该分析运动目标发生打斗行为,发生报警,并将该分析运动目标在原彩色视频图像中的位置标记出来,上传接警中心,否则,将灰度图像中跟踪起来的下一个运动目标作为分析运动目标,重复步骤四到七。
通过本发明,能够将视频中出现的打斗行为快速鲁棒地鉴别出来并报警,预防罪案发生。

Claims (6)

1.视频监控中异常行为的检测方法,包括如下步骤:
(1)读取视频图像帧,将视频图像转换为灰度图像,
(2)检测灰度图像中的运动目标,
(3)对运动目标进行跟踪,确定分析运动目标,
(4)计算分析运动目标帧间变化熵值,并同时进行运动目标特征点提取,计算各特征点的运动速度大小和方向,计算分析运动目标的运动能量,
(5)根据分析运动目标帧间变化熵值和运动能量进行打斗决策,如发生打斗,则报警。
2.根据权利要求1所述的方法,其特征在于步骤(2)中对灰度图像学习,建立单高斯背景模型,然后使用背景减法提取出灰度图像中的运动目标。
3.根据权利要求1所述的方法,其特征在于步骤(3)的过程如下:
(1)对当前帧第n个运动目标和上一帧的所有运动目标进行位置和面积匹配,当前帧第n个运动目标与上一帧第m个运动目标的中心点的位置差T(m)和面积差A(m)分别为:
T ( m ) = ( p n - x m ) 2 + ( q n - y m ) 2 ,
A(m)=|Qn-Sm|,
其中,n,m分别为当前帧灰度图像和上一帧灰度图像中运动目标的编号,按照从左到右,从上到下的顺序排列,n=1,2,...,N,m=1,2,...,M,上一帧灰度图像第m个运动目标中心点位置为[xm,ym],面积为Sm,当前帧第n个运动目标中心点位置为[pn,qn],面积为Qn,取n=1,遍历m的全部取值,计算使得T(m)最小的m值J1
Figure FSA00000676232700012
选取运动目标中心位置和面积帧间变化阈值th1,th2
当T(J1)≤th1且A(J1)≤th2,则表示当前帧第一个运动目标在上一帧匹配的运动目标为第J1个,
当T(J1)>th1或A(J1)>th2,则将J1置为0,表示当前帧出现了新的运动目标;(1)将n依次加1,重复上述过程,找出当前帧所有运动目标与上一帧匹配的运动目标J1,J2,...,JN,如果其中不包括从1到M的某值K,则表明上一帧第K个运动目标丢失;
(2)重复过程(1),(2),依次对当前帧灰度图像以上的连续的H帧灰度图像的运动目标跟踪,H为5到10之间的任意整数,如果某运动目标连续有H帧未发生运动目标丢失,则将当前帧灰度图像的该运动目标作为分析运动目标。
4.根据权利要求1所述的方法,其特征在于步骤(4)中对分析运动目标进行帧间灰度值变化统计,得到分析运动目标的帧间变化熵值E1
E 1 = 1 W 1 &CenterDot; H 1 &Sigma; i = 1 W 1 &Sigma; j = 1 H 1 M 1 [ i , j ] ,
其中, M 1 [ i , j ] = 1 , | R t [ i , j ] - R t - 1 [ i , j ] | &GreaterEqual; th 3 0 , | R t [ i , j ] - R t - 1 [ i , j ] | < th 3 , th3为帧间差分阈值,W1,H1分别为分析运动目标在当前帧所在区域的宽度,高度,Rt[i,j]为分析运动目标在当前帧所在区域水平第i个垂直第j个像素点的灰度值,Rt-1[i,j]为分析运动目标在上一帧所在区域水平第i个垂直第j个像素点的灰度值。
5.根据权利要求1所述的方法,其特征在于步骤(4)中计算分析运动目标运动能量的过程如下:
(1)采用网格形式在分析运动目标图像上扫描,扫描间距为5个像素点,每扫描一次取一个像素点,当其二值化像素点为255时,提取该点为特征点;
(2)使用光流法对连续三帧灰度图像的特征点进行跟踪,计算每两帧灰度图像间特征点的速度方向和速度大小得到第一、二速度方向θ1[n],θ2[n]和第一、二速度大小v1[n],v2[n];
(3)计算分析运动目标的运动能量E2,用A1表示当前帧分析运动目标每个特征点的最大第一速度大小对应的第一速度方向,以A1为基准角度,计算当前帧分析运动目标每个特征点的第一速度方向与A1的差值Δθ1[2],计算当前帧分析运动目标每个特征点的第一速度方向与上一帧相匹配点的第二速度方向的角度差异Δθ2[n],n为分析运动目标特征点的编号,n=1,2,...,N,分析运动目标的运动能量为:
E 2 = &Sigma; n = 1 N ( ( &Delta; &theta; 2 ( n ) &pi; &CenterDot; 10 ) 2 + ( | &Delta; &theta; 1 [ n ] | &pi; &CenterDot; 10 ) 2 ) &CenterDot; v 1 [ n ] 2 ,
其中,v1[n]为第n个特征点的速度大小。
6.根据权利要求4和5所述的方法,其特征在于当E1>th4且E2>th5时,th4为打斗熵值阈值,th5为打斗能量阈值,时为时则判定分析运动目标发生了打斗行为,发生报警,并将该分析运动目标在原彩色视频图像中的位置标记出来,上传接警中心,否则,重复步骤(3)-(5)。
CN201210047156.6A 2012-02-28 2012-02-28 视频监控中异常行为的检测方法 Expired - Fee Related CN102629384B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210047156.6A CN102629384B (zh) 2012-02-28 2012-02-28 视频监控中异常行为的检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210047156.6A CN102629384B (zh) 2012-02-28 2012-02-28 视频监控中异常行为的检测方法

Publications (2)

Publication Number Publication Date
CN102629384A true CN102629384A (zh) 2012-08-08
CN102629384B CN102629384B (zh) 2014-10-08

Family

ID=46587642

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210047156.6A Expired - Fee Related CN102629384B (zh) 2012-02-28 2012-02-28 视频监控中异常行为的检测方法

Country Status (1)

Country Link
CN (1) CN102629384B (zh)

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102917207A (zh) * 2012-10-24 2013-02-06 沈阳航空航天大学 基于运动序列的异常行为视觉监测系统
CN103500324A (zh) * 2013-09-29 2014-01-08 重庆科技学院 基于视频监控的暴力行为识别方法
CN104168451A (zh) * 2014-07-25 2014-11-26 重庆科技学院 智能视频监控中的打斗检测方法
CN104270619A (zh) * 2014-10-22 2015-01-07 中国建设银行股份有限公司 一种安全告警方法及装置
CN104732236A (zh) * 2015-03-23 2015-06-24 中国民航大学 一种基于分层处理的人群异常行为智能检测方法
CN105184820A (zh) * 2015-09-15 2015-12-23 杭州中威电子股份有限公司 一种融合图形梯度和灰度的背景建模和运动目标检测方法及装置
CN105678803A (zh) * 2015-12-29 2016-06-15 南京理工大学 基于w4算法和帧间差分的视频监控目标检测方法
CN104156979B (zh) * 2014-07-25 2016-09-14 南京大学 一种基于高斯混合模型的视频中异常行为在线检测方法
WO2016184431A1 (zh) * 2015-05-20 2016-11-24 王向恒 一种基于本地计算的视频监控方法及其终端
CN106170820A (zh) * 2014-02-26 2016-11-30 株式会社索思未来 图像识别系统以及半导体集成电路
CN107093186A (zh) * 2017-03-10 2017-08-25 北京环境特性研究所 基于边缘投影匹配的剧烈运动检测方法
CN107767399A (zh) * 2016-08-23 2018-03-06 吴晓栋 叉车监控方法及监控系统
CN108122243A (zh) * 2016-11-26 2018-06-05 沈阳新松机器人自动化股份有限公司 用于机器人检测运动物体的方法
CN108345865A (zh) * 2018-03-07 2018-07-31 广州图普网络科技有限公司 一种行为人异常行为的监控方法、装置和用户终端
CN108416797A (zh) * 2018-02-27 2018-08-17 鲁东大学 一种检测行为变化的方法、设备及存储介质
CN108846852A (zh) * 2018-04-11 2018-11-20 杭州电子科技大学 基于多示例和时间序列的监控视频异常事件检测方法
CN109145681A (zh) * 2017-06-16 2019-01-04 北京京东尚科信息技术有限公司 用于判断目标旋转方向的方法及装置
CN110674680A (zh) * 2019-08-12 2020-01-10 珠海格力电器股份有限公司 活体识别的方法、装置、存储介质
CN110782485A (zh) * 2019-10-31 2020-02-11 广东泓胜科技股份有限公司 一种车辆变道检测方法及装置
CN110830767A (zh) * 2019-10-31 2020-02-21 深圳大学 一种主动智能行为分析报警装置
CN111507301A (zh) * 2020-04-26 2020-08-07 腾讯科技(深圳)有限公司 视频处理方法、装置、计算机设备以及存储介质
CN111586315A (zh) * 2019-02-19 2020-08-25 聪泰科技开发股份有限公司 采集与标示记录方法
CN112364680A (zh) * 2020-09-18 2021-02-12 西安工程大学 一种基于光流算法的异常行为检测方法
CN112380905A (zh) * 2020-10-15 2021-02-19 西安工程大学 一种基于监控视频的直方图结合熵的异常行为检测方法
CN113642360A (zh) * 2020-04-27 2021-11-12 杭州海康威视数字技术股份有限公司 一种行为计时方法、装置、电子设备及存储介质
CN113762114A (zh) * 2021-08-27 2021-12-07 四川智胜慧旅科技有限公司 一种基于户外视频识别的人员寻找方法及系统
CN114422848A (zh) * 2022-01-19 2022-04-29 腾讯科技(深圳)有限公司 视频分割方法、装置、电子设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101098465A (zh) * 2007-07-20 2008-01-02 哈尔滨工程大学 一种视频监控中运动目标检测与跟踪方法
CN101489031A (zh) * 2009-01-16 2009-07-22 西安电子科技大学 基于运动分类的自适应帧速率上转换方法
CN101710977A (zh) * 2007-08-27 2010-05-19 刘文萍 一种远程报警视频监控方法
CN101872418A (zh) * 2010-05-28 2010-10-27 电子科技大学 基于群体环境异常行为的检测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101098465A (zh) * 2007-07-20 2008-01-02 哈尔滨工程大学 一种视频监控中运动目标检测与跟踪方法
CN101710977A (zh) * 2007-08-27 2010-05-19 刘文萍 一种远程报警视频监控方法
CN101489031A (zh) * 2009-01-16 2009-07-22 西安电子科技大学 基于运动分类的自适应帧速率上转换方法
CN101872418A (zh) * 2010-05-28 2010-10-27 电子科技大学 基于群体环境异常行为的检测方法

Cited By (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102917207A (zh) * 2012-10-24 2013-02-06 沈阳航空航天大学 基于运动序列的异常行为视觉监测系统
CN103500324A (zh) * 2013-09-29 2014-01-08 重庆科技学院 基于视频监控的暴力行为识别方法
CN103500324B (zh) * 2013-09-29 2016-07-13 重庆科技学院 基于视频监控的暴力行为识别方法
CN106170820A (zh) * 2014-02-26 2016-11-30 株式会社索思未来 图像识别系统以及半导体集成电路
CN104168451A (zh) * 2014-07-25 2014-11-26 重庆科技学院 智能视频监控中的打斗检测方法
CN104168451B (zh) * 2014-07-25 2018-07-31 重庆科技学院 智能视频监控中的打斗检测方法
CN104156979B (zh) * 2014-07-25 2016-09-14 南京大学 一种基于高斯混合模型的视频中异常行为在线检测方法
CN104270619A (zh) * 2014-10-22 2015-01-07 中国建设银行股份有限公司 一种安全告警方法及装置
CN104270619B (zh) * 2014-10-22 2018-05-18 中国建设银行股份有限公司 一种安全告警方法及装置
CN104732236B (zh) * 2015-03-23 2018-08-24 中国民航大学 一种基于分层处理的人群异常行为智能检测方法
CN104732236A (zh) * 2015-03-23 2015-06-24 中国民航大学 一种基于分层处理的人群异常行为智能检测方法
WO2016184431A1 (zh) * 2015-05-20 2016-11-24 王向恒 一种基于本地计算的视频监控方法及其终端
CN105184820A (zh) * 2015-09-15 2015-12-23 杭州中威电子股份有限公司 一种融合图形梯度和灰度的背景建模和运动目标检测方法及装置
CN105184820B (zh) * 2015-09-15 2018-03-13 杭州中威电子股份有限公司 一种融合图形梯度和灰度的背景建模和运动目标检测方法及装置
CN105678803B (zh) * 2015-12-29 2018-04-03 南京理工大学 基于w4算法和帧间差分的视频监控目标检测方法
CN105678803A (zh) * 2015-12-29 2016-06-15 南京理工大学 基于w4算法和帧间差分的视频监控目标检测方法
CN107767399B (zh) * 2016-08-23 2023-12-29 吴晓栋 叉车监控方法及监控系统
CN107767399A (zh) * 2016-08-23 2018-03-06 吴晓栋 叉车监控方法及监控系统
CN108122243A (zh) * 2016-11-26 2018-06-05 沈阳新松机器人自动化股份有限公司 用于机器人检测运动物体的方法
CN108122243B (zh) * 2016-11-26 2021-05-28 沈阳新松机器人自动化股份有限公司 用于机器人检测运动物体的方法
CN107093186A (zh) * 2017-03-10 2017-08-25 北京环境特性研究所 基于边缘投影匹配的剧烈运动检测方法
CN109145681B (zh) * 2017-06-16 2021-02-26 北京京东尚科信息技术有限公司 用于判断目标旋转方向的方法及装置
CN109145681A (zh) * 2017-06-16 2019-01-04 北京京东尚科信息技术有限公司 用于判断目标旋转方向的方法及装置
US11120269B2 (en) 2017-06-16 2021-09-14 Beijing Jingdong Shangke Information Technology Co., Ltd. Method and apparatus for determining target rotation direction, computer readable medium and electronic device
CN108416797A (zh) * 2018-02-27 2018-08-17 鲁东大学 一种检测行为变化的方法、设备及存储介质
CN108345865A (zh) * 2018-03-07 2018-07-31 广州图普网络科技有限公司 一种行为人异常行为的监控方法、装置和用户终端
CN108846852B (zh) * 2018-04-11 2022-03-08 杭州电子科技大学 基于多示例和时间序列的监控视频异常事件检测方法
CN108846852A (zh) * 2018-04-11 2018-11-20 杭州电子科技大学 基于多示例和时间序列的监控视频异常事件检测方法
CN111586315A (zh) * 2019-02-19 2020-08-25 聪泰科技开发股份有限公司 采集与标示记录方法
CN110674680A (zh) * 2019-08-12 2020-01-10 珠海格力电器股份有限公司 活体识别的方法、装置、存储介质
CN110674680B (zh) * 2019-08-12 2022-03-18 珠海格力电器股份有限公司 活体识别的方法、装置、存储介质
CN110830767A (zh) * 2019-10-31 2020-02-21 深圳大学 一种主动智能行为分析报警装置
CN110782485A (zh) * 2019-10-31 2020-02-11 广东泓胜科技股份有限公司 一种车辆变道检测方法及装置
CN111507301A (zh) * 2020-04-26 2020-08-07 腾讯科技(深圳)有限公司 视频处理方法、装置、计算机设备以及存储介质
CN113642360A (zh) * 2020-04-27 2021-11-12 杭州海康威视数字技术股份有限公司 一种行为计时方法、装置、电子设备及存储介质
CN112364680A (zh) * 2020-09-18 2021-02-12 西安工程大学 一种基于光流算法的异常行为检测方法
CN112364680B (zh) * 2020-09-18 2024-03-05 西安工程大学 一种基于光流算法的异常行为检测方法
CN112380905A (zh) * 2020-10-15 2021-02-19 西安工程大学 一种基于监控视频的直方图结合熵的异常行为检测方法
CN112380905B (zh) * 2020-10-15 2024-03-08 西安工程大学 一种基于监控视频的直方图结合熵的异常行为检测方法
CN113762114A (zh) * 2021-08-27 2021-12-07 四川智胜慧旅科技有限公司 一种基于户外视频识别的人员寻找方法及系统
CN114422848A (zh) * 2022-01-19 2022-04-29 腾讯科技(深圳)有限公司 视频分割方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
CN102629384B (zh) 2014-10-08

Similar Documents

Publication Publication Date Title
CN102629384B (zh) 视频监控中异常行为的检测方法
CN102622584B (zh) 视频监控中蒙面人脸的检测方法
CN101872418B (zh) 基于群体环境异常行为的检测方法
CN102214309B (zh) 一种基于头肩模型的特定人体识别方法
CN103186775B (zh) 基于混合描述子的人体运动识别方法
CN102043945A (zh) 基于车辆实时跟踪和二进指数分类车牌字符识别的方法
CN103886325B (zh) 一种分块的循环矩阵视频跟踪方法
CN102496001A (zh) 一种视频监控目标自动检测的方法和系统
CN104008371A (zh) 一种基于多摄像机的区域可疑目标跟踪与识别方法
CN104680559B (zh) 基于运动行为模式的多视角室内行人跟踪方法
CN107301375B (zh) 一种基于稠密光流的视频图像烟雾检测方法
CN101094413A (zh) 用于视频监控的实时运动检测方法
CN101216885A (zh) 一种基于视频的行人人脸检测与跟踪算法
CN101271527A (zh) 一种基于运动场局部统计特征分析的异常行为检测方法
CN102414720A (zh) 特征量计算装置、特征量计算方法及程序
CN110633678B (zh) 一种基于视频图像的快速高效的车流量计算方法
CN106339677A (zh) 一种基于视频的铁路货车洒落物自动检测方法
CN110781806A (zh) 一种基于yolo的行人检测追踪方法
Lee et al. Clustering learning model of CCTV image pattern for producing road hazard meteorological information
CN106023245A (zh) 基于中智集相似度量测的静态背景下运动目标检测方法
CN104978567A (zh) 基于场景分类的车辆检测方法
CN105718841A (zh) 一种对行人分类器实现动态更新的人数统计方法
CN105321187A (zh) 基于人头检测的行人计数方法
CN106228570A (zh) 一种真值数据确定方法和装置
CN104700088A (zh) 一种基于单目视觉移动拍摄下的手势轨迹识别方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C56 Change in the name or address of the patentee

Owner name: CHENGDU SANTAI HOLDINGS GROUP CO., LTD.

Free format text: FORMER NAME: CHENGDU SANTAI ELECTRONIC INDUSTRY CO., LTD.

CP03 Change of name, title or address

Address after: 610041 No. 42 Shu West Road, Jinniu District hi tech Industrial Park, Sichuan, Chengdu

Patentee after: CHENGDU SANTAI HOLDING GROUP CO.,LTD.

Address before: 610091, No. 42 Shu West Road, Tsing Jinniu District hi tech Industrial Park, Sichuan, Chengdu

Patentee before: CHENGDU SANTAI ELECTRONIC INDUSTRY Co.,Ltd.

PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: Method for detecting abnormal behavior during video monitoring

Effective date of registration: 20160317

Granted publication date: 20141008

Pledgee: The Agricultural Bank of Chengdu branch of Limited by Share Ltd. China Chengdu

Pledgor: CHENGDU SANTAI HOLDING GROUP CO.,LTD.

Registration number: 2016510000008

PLDC Enforcement, change and cancellation of contracts on pledge of patent right or utility model
PC01 Cancellation of the registration of the contract for pledge of patent right

Date of cancellation: 20210129

Granted publication date: 20141008

Pledgee: The Agricultural Bank of Chengdu branch of Limited by Share Ltd. China Chengdu

Pledgor: CHENGDU SANTAI HOLDING GROUP Co.,Ltd.

Registration number: 2016510000008

PC01 Cancellation of the registration of the contract for pledge of patent right
TR01 Transfer of patent right

Effective date of registration: 20210226

Address after: No. 1305, unit 1, building 1, No. 1700, North Tianfu Avenue, Chengdu hi tech Zone, China (Sichuan) pilot Free Trade Zone, Chengdu, Sichuan 610093

Patentee after: CHENGDU SANTAI INTELLIGENT TECHNOLOGY Co.,Ltd.

Address before: No.42 Shuxi Road, high tech Industrial Park, Jinniu District, Chengdu, Sichuan 610041

Patentee before: CHENGDU SANTAI HOLDING GROUP Co.,Ltd.

TR01 Transfer of patent right
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20141008

CF01 Termination of patent right due to non-payment of annual fee