CN102163290A - 基于时空关联信息的多视角视频监控中异常事件建模方法 - Google Patents

基于时空关联信息的多视角视频监控中异常事件建模方法 Download PDF

Info

Publication number
CN102163290A
CN102163290A CN 201110126474 CN201110126474A CN102163290A CN 102163290 A CN102163290 A CN 102163290A CN 201110126474 CN201110126474 CN 201110126474 CN 201110126474 A CN201110126474 A CN 201110126474A CN 102163290 A CN102163290 A CN 102163290A
Authority
CN
China
Prior art keywords
point
anomalous event
video
mosift
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN 201110126474
Other languages
English (en)
Other versions
CN102163290B (zh
Inventor
刘安安
苏育挺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN2011101264747A priority Critical patent/CN102163290B/zh
Publication of CN102163290A publication Critical patent/CN102163290A/zh
Application granted granted Critical
Publication of CN102163290B publication Critical patent/CN102163290B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明涉及视频处理、语义提取等。为提供基于时空关联信息的多视角视频监控中异常事件建模方法,本发明采取的技术方案是,基于时空关联信息的多视角视频监控中异常事件建模方法,包括以下步骤:(1)时空局部特征提取:(a)时空特征兴趣点检测;(b)时空特征兴趣点描述;(2)“词袋”的构建:“词袋”是利用所提取特征点对视频单元进行统计直方图表征的方法,包括码本构建和关键点投影两个步骤:(a)码本构建;(b)基于码本的关键点投影;(3)异常事件建模:具体分为如下两步:(a)对于单目摄像机采集的视频;(b)对于多视角监控视频下异常事件检测模块输出的异常事件出现的概率。本发明主要应用于视频处理。

Description

基于时空关联信息的多视角视频监控中异常事件建模方法
技术领域
本发明涉及视频处理、语义提取等,具体讲涉及一种基于时空关联信息的多视角视频监控中异常事件建模方法。
背景技术
视频监控系统作为现代安防的有效手段,越来越受到社会的重视。然而传统的数字视频监控系统仅仅提供了视频的捕获、存储、分发等简单的功能,而对异常事件判断只能靠人来实现,这样的监控系统不仅需要极其大量的人力来维系,极大地提高了系统的运行成本,而且使用人来长时间监控也降低了系统的安防性能。因此,现有监控系统已经不能满足当前安防的需求。新一代的监控系统以智能的异常事件检测为核心,能够发现监控画面中的异常情况,以最快和最佳的方式发出警报和提供有用信息,更加有效地协助安全人员处理危机,最大限度地降低误报和漏报现象。现有监控视频异常事件检测具有两个显著的缺点:1)现有异常事件检测模块多是通过依赖特定规则的制定对单目摄像头下简单的异常事件(如:逆向行驶、超速行驶等)进行检测,这使得智能监控具有明显的局限性;2)现有检测模块多独立对待各个视角摄像头采集的视频并对其进行分别检测,忽略了各摄像头间在时间和空间上的关联,因此往往造成大量的异常事件错检和漏检。本发明中,针对多视角视频监控中无法通过显著规则定义的异常事件,提出一种通用的多视角视频监控中异常事件建模方法,采用对尺度、旋转、关照等外界因素具有鲁棒性的时空特征点对视频片段的显著特征进行表示,并通过基于特征点的码本构建和分类器学习自动挖掘各类事件的潜在视觉模式,并融合多视角分类器检测结果进行最终判决。
发明内容
为克服现有技术的不足,提供一种适用于无法显性定义判决规则的异常事件检测的视频监控中异常事件建模方法,为达上述目的,本发明采取的技术方案是,基于时空关联信息的多视角视频监控中异常事件建模方法,包括以下步骤:
(1)时空局部特征提取,采用对尺度、旋转、关照等外界因素具有鲁棒性的时空特征点对视频片段的显著特征进行表示,采用综合目标视觉模式特征和运动特征的运动约束的尺度不变特征MoSIFT对时空局部特征进行表征,具体包括特征点检测和描述两个关键部分:
(a)时空特征兴趣点检测:首先,对当前帧采用尺度不变特征SIFT检测子找到具有区分性的极值点作为候选的兴趣点,计算这些点在相邻帧的光流信息,如果之前提取的SIFT点的光流具有足够的强度,则该点就是MoSIFT兴趣点;
(b)时空特征兴趣点描述:为了充分表示MoSIFT点的可区分性,对其描述被分为视觉模式和运动模式两个部分,视觉模式采用SIFT描述子方法用128维方向直方图进行表征,运动模式则通过光流特征的提取和SIFT描述子的格形表示法通过128维方向直方图进行表征,然后通过连接这两个直方图构成MoSIFT特征的256维方向直方图描述;
(2)“词袋”的构建:
“词袋”是利用所提取特征点对视频单元进行统计直方图表征的方法,包括码本构建和关键点投影两个步骤:
(a)码本构建:将从训练样本中提取出的MoSIFT点特征作为训练数据,在高维特征空间通过K-Means算法进行聚类,聚类结果的每一个类被称为一个码字,码字由聚类中心的特征来表示,并且反映了该类中所有特征点的共同属性,用作训练的关键点特征集合被聚类成若干个码字的集合,从而构成码本,码本中所含码字的个数反映了码本的大小;
(b)基于码本的关键点投影:首先,提取视频单元中所有MoSIFT点特征,计算MoSIFT点与码本中每个码字的距离,选取最近距离的码字代表该关键点;其次,建立一个统计直方图,用于统计属于每个码字的关键点个数,将该直方图用作反映MoSIFT点信息的视觉特征,其中直方图的维数等同于码本中码字的个数;
(3)异常事件建模:
异常事件建模即利用视频单元的“词袋”特征表示,通过分类器的学习和多视角检测模型的融合,综合利用多视角信息实现监控视频异常事件的检测,具体分为如下两步:
(a)对于单目摄像机采集的视频:利用“词袋”特征表示和已标注的异常事件的正例和负例样本,通过分类器进行单视角异常事件建模,以采用支持向量机(Support Vector Machine,缩写:SVM)为例进行模型学习,对于支持向量机核函数的选择这里采用x2核函数,其定义K(xi,xj)如下:
K ( x i , x j ) = exp ( - 1 γ D ( x i , x j ) ) , γ > 0
D ( x i , x j ) = 1 2 Σ i = 1 n | | u i - w i | | 2 / ( u i + w i )
其中xi=(u1,u2....un)和xj=(w1,w2....wn)是训练样本,γ是核参数,D(xi,xj)是样本xi和xj的x2距离,模型训练过程中,通过训练数据的交叉验证来寻求最优的核参数γ;
(b)对于多视角监控视频下异常事件检测模块输出的异常事件出现的概率:将通过多信息融合方法对异常事件检测进行最终判决,采用有序加权融合算法,具体形式:
F ( a 1 , . . . , a n ) = Σ i = 1 n w i b i ,
s . t . Σ i = 1 n w i = 1,0 ≤ w i ≤ 1 , i = 1 , . . . , n
其中,F表示有序加权融合算子,ai表示多分类器的判决,bi表示多分类器判决(a1,...,an)中第i个最大的元素,wi表示权重,因此该融合问题转化为上式表示的目标函数最优化问题,可以通过对有序加权融合涉及到的如下两个重要因子的最大化实现融合结果的优化:
关联性因子: orness ( W ) = 1 n - 1 Σ i = 1 n ( n - i ) w i
信息量因子: dispersion ( W ) = - Σ i = 1 n w i ln w i .
本发明具有以下技术效果:
本发明提出一种通用的多视角视频监控中异常事件建模方法,采用对尺度、旋转、关照等外界因素具有鲁棒性的时空特征点对视频片段的显著特征进行表示,并通过基于特征点的码本构建和分类器学习自动挖掘各类事件的潜在视觉模式,最后通过融合多视角异常事件检测模型判断结果进行最终的判决。该方法可以通过大量样本的学习自动挖掘语义事件潜在的视觉模式,适用于无法显性定义判决规则的异常事件检测,对扩展视频监控系统自动分析和理解的能力以及提高智能监控的准确性具有积极意义。
附图说明
图1基于时空关联信息的多视角视频监控中异常事件建模方法。
具体实施方式
本发明所提出的基于时空关联信息的异常事件建模方法框架如图1所示。针对多视角监控视频中异常事件分析,分别对各摄像头采集视频中特定语义事件进行分类器的学习,然后通过多分类器的融合综合利用多视角下的时空信息进行语义事件的检测。该模型构建包含如下三个关键步骤:
(1)时空局部特征提取
基于局部兴趣点的特征描述的方法能够有效的描述目标及其运动特性,和全局方法相比,基于局部的方法对姿态、光照、遮挡、变形、复杂背景具有良好的不变性。由于监控视频中语义事件通常包含目标的运动特性,因此本发明中采用综合目标视觉模式特征和运动特征的运动约束的尺度不变特征(MoSIFT)[2]对时空局部特征进行表征。
(a)时空特征兴趣点检测:MoSIFT算法通过视频相邻帧在多个尺度下找到时空兴趣点,其计算主要在两个方面:一个是SIFT点的检测[1];另一个是与SIFT尺度相对应的光流[6]计算。首先,对当前帧采用SIFT检测子[1]找到具有区分性的极值点作为候选的兴趣点,虽然检测出的兴趣点在2维空间具有一定的区分性,但是这样的点与视频中的运动没有关系。例如,与运动无关的复杂背景也会产生很多兴趣点。很明显,只有具有一定运动信息的兴趣点才能为动作识别提供帮助。因此,在得到候选的兴趣点后,需要计算这些点在相邻帧的光流信息[6]。如果之前提取的SIFT点的光流具有足够的强度,则该点就是MoSIFT兴趣点。
(b)时空特征兴趣点描述:为了充分表示MoSIFT点的可区分性,对其描述被分为视觉模式和运动模式两个部分。由于SIFT描述子在物体识别中对物体的缩放、旋转、亮度等都具有很好的不变性,所以在MoSIFT算法中,该描述方法也被采用;此外,由于光流能够检测出一个运动的强度和运动方向,这样与SIFT描述子中像素梯度的幅度和角度相对应,从而对于光流部分也可以采用SIFT描述子一样的格形表示去表述运动信息。对于SIFT和光流的描述,分别采用128维的方向直方图描述,然后通过连接这两个直方图构成MoSIFT特征的256维方向直方图描述。
(2)“词袋”的构建
由于MoSIFT点主要分布在图像的边缘、拐角等显著区域处,不同内容的图像由于灰度、纹理等信息不同造成具有不同个数的关键点,因而导致不同图像中MoSIFT的关键点的总特征维数也就不同,这使得以特征维数相同的训练数据为前提的机器学习方法并不适用。此外,实际情况中每幅图像中往往包含大量MoSIFT点,从而导致总特征维数高、数据量大、消耗大量计算资源、时间复杂度高等严重问题。针对上述问题,采用基于“词袋”思想的关键点投影方法[19]来有效地量化高维关键点特征。该方法通过引入码本将视频中具有相似属性的关键点聚类成码字,大幅度地量化了关键点特征的维数。同时,采用统计直方图的方法使得任一视频单元都可以具有相同维数的描述,从而便于使用各种机器学习的方法进行分类。具体步骤如下:
(a)码本构建:将从训练样本中提取出的MoSIFT点特征作为训练数据,在高维特征空间通过K-Means算法[3]进行聚类。聚类结果的每一个类被称为一个码字,码字由聚类中心的特征来表示,并且反映了该类中所有特征点的共同属性;用作训练的关键点特征集合被聚类成若干个码字的集合,从而构成码本,码本中所含码字的个数反映了码本的大小。
(b)基于码本的关键点投影:首先,提取视频单元中所有MoSIFT点特征,计算MoSIFT点与码本中每个码字的距离,选取最近距离的码字代表该关键点;其次,建立一个统计直方图,用于统计属于每个码字的关键点个数,将该直方图用作反映MoSIFT点信息的视觉特征,其中直方图的维数等同于码本中码字的个数,从而解决了由于关键点特征直接匹配而导致的特征维数不同和由于高维特征引发的计算复杂这样两个问题。
(3)异常事件模型的构建
异常事件建模即利用视频单元的“词袋”特征表示,通过分类器的学习和多视角检测模型的融合,综合利用多视角信息实现监控视频异常事件的检测,具体分为如下两步:(a)对于单目摄像机采集的视频:利用“词袋”特征表示和已标注的某类异常事件的正例和负例样本,通过某种分类器进行单视角异常事件建模,本发明中不失一般性的采用支持向量机(Support Vector Machine,缩写:SVM)进行模型学习[4],对于支持向量机核函数的选择这里采用x2核函数,其定义K(xi,xj)如下:
K ( x i , x j ) = exp ( - 1 γ D ( x i , x j ) ) , γ > 0
D ( x i , x j ) = 1 2 Σ i = 1 n | | u i - w i | | 2 / ( u i + w i )
其中xi=(u1,u2....un)和xj=(w1,w2....wn)是训练样本,γ是核参数,D(xi,xj)是样本xj和xj的x2距离。通过训练数据的交叉认证,可以找到最优的核参数γ。
(b)对于多摄像机采集的视频:由于针对不同摄像头所采集视频可以借助相应的语义事件分类器Classifier(i)计算该事件发生的概率值P(i),因此对于多摄像机下的语义事件检测需要融合各语义事件分类器进行最终的判决。对于多分类器的融合,需要综合考虑两种极端情况:
1)分类器判决的稀疏性:某些情况下,极少数分类器输出较高概率值,而大部分分类器输出概率值接近于0;2)分类器的强关联性:某些情况下,各分类器均都输出较高概率值。因此,基于有序加权融合思想[5],将融合判决结果表示为:
F ( a 1 , . . . , a n ) = Σ i = 1 n w i b i ,
s . t . Σ i = 1 n w i = 1,0 ≤ w i ≤ 1 , i = 1 , . . . , n
其中,F表示有序加权融合算子,ai表示多分类器的判决,bi表示多分类器判决(a1,...,an)中第i个最大的元素,wi表示权重。因此该融合问题转化为上式表示的目标函数最优化问题,通过对有序加权融合涉及到的如下两个重要因子的最大化实现融合结果的优化,具体步骤可以参考文献[5]。
关联性因子: orness ( W ) = 1 n - 1 Σ i = 1 n ( n - i ) w i
信息量因子: dispersion ( W ) = - Σ i = 1 n w i ln w i .
[1]Lowe,D.G.,“Distinctive Image Features from Scale-Invariant Keypoints”,International Journal of Computer Vision,60,2,pp.91-110,2004.
[2]M.-Y.Chen and A.Hauptmann,″MoSIFT:Reocgnizing Human Actions in Surveillance Videos,″Carnegie Mellon University,Pittsburgh,PA CMU-CS-09-161,September 24,2009
[3]Kanungo,T.;Mount,D.M.;Netanyahu,N.S.;Piatko,C.D.;Silverman,R.;Wu,A.Y..″An efficient k-means clustering algorithm:Analysis and implementation″.IEEE Trans.Pattern Analysis and Machine Intelligence 24:881-892,2002.
[4]Vladimir Vapnik.The Nature of Statistical Learning Theory.Springer-Verlag,1995
[5]Yager,R.R,Ordered weighted averaging aggregation operators in multi-criteria decision making,IEEE Transactions On Systems,Man and Cybernetics,vol.18,pp:183-190,1988.
[6]David J.Fleet and Yair Weiss,″Optical Flow Estimation″.Handbook of Mathematical Models inComputer Vision.Springer,2006.

Claims (1)

1.一种基于时空关联信息的多视角视频监控中异常事件建模方法,其特征是,包括以下步骤:基于时空关联信息的多视角视频监控中异常事件建模方法,包括以下步骤:
(1)时空局部特征提取,采用对尺度、旋转、光照等外界因素具有鲁棒性的时空特征点对视频片段的显著特征进行表示,采用综合目标视觉模式特征和运动特征的运动约束的尺度不变特征MoSIFT对时空局部特征进行表征,具体包括特征点检测和描述两个关键部分:
(a)时空特征兴趣点检测:首先,对当前帧采用尺度不变特征SIFT检测子找到具有区分性的极值点作为候选的兴趣点,计算这些点在相邻帧的光流信息,如果之前提取的SIFT点的光流具有足够的强度,则该点就是运动约束的尺度不变特征MoSIFT兴趣点;
(b)时空特征兴趣点描述:为了充分表示MoSIFT点的可区分性,对其描述被分为视觉模式和运动模式两个部分,视觉模式采用SIFT描述子方法用128维方向直方图进行表征,运动模式则通过光流特征的提取和SIFT描述子的格形表示法通过128维方向直方图进行表征,然后通过连接这两个直方图构成MoSIFT特征的256维方向直方图描述;
(2)“词袋”的构建:
“词袋”是利用所提取特征点对视频单元进行统计直方图表征的方法,包括码本构建和关键点投影两个步骤:
(a)码本构建:将从训练样本中提取出的MoSIFT点特征作为训练数据,在高维特征空间通过K-Means算法进行聚类,聚类结果的每一个类被称为一个码字,码字由聚类中心的特征来表示,并且反映了该类中所有特征点的共同属性,用作训练的关键点特征集合被聚类成若干个码字的集合,从而构成码本,码本中所含码字的个数反映了码本的大小;
(b)基于码本的关键点投影:首先,提取视频单元中所有MoSIFT点特征,计算MoSIFT点与码本中每个码字的距离,选取最近距离的码字代表该关键点;其次,建立一个统计直方图,用于统计属于每个码字的关键点个数,将该直方图用作反映MoSIFT点信息的视觉特征,其中直方图的维数等同于码本中码字的个数;
(3)异常事件建模:
异常事件建模即利用视频单元的“词袋”特征表示,通过分类器的学习和多视角检测模型的融合,综合利用多视角信息实现监控视频异常事件的检测,具体分为如下两步:
(a)对于单目摄像机采集的视频:利用“词袋”特征表示和已标注的异常事件的正例和负例样本,通过分类器进行单视角异常事件建模,以采用支持向量机(Support Vector Machine,缩写:SVM)为例进行模型学习,对于支持向量机核函数的选择这里采用x2核函数,其定义K(xi,xj)如下:
K ( x i , x j ) = exp ( - 1 γ D ( x i , x j ) ) , γ > 0
D ( x i , x j ) = 1 2 Σ i = 1 n | | u i - w i | | 2 / ( u i + w i )
其中xi=(u1,u2....un)和xj=(w1,w2....wn)是训练样本,γ是核参数,D(xi,xj)是样本xi和xj的x2距离,模型训练过程中,通过训练数据的交叉验证来寻求最优的核参数γ;
(b)对于多视角监控视频下异常事件检测模块输出的异常事件出现的概率:将通过多信息融合方法对异常事件检测进行最终判决,采用有序加权融合算法,具体形式:
F ( a 1 , . . . , a n ) = Σ i = 1 n w i b i ,
s . t . Σ i = 1 n w i = 1,0 ≤ w i ≤ 1 , i = 1 , . . . , n
其中,F表示有序加权融合算子,ai表示多分类器的判决,bi表示多分类器判决(a1,...,an)中第i个最大的元素,wi表示权重,因此该融合问题转化为上式表示的目标函数最优化问题,可以通过对有序加权融合涉及到的如下两个重要因子的最大化实现融合结果的优化:
关联性因子: orness ( W ) = 1 n - 1 Σ i = 1 n ( n - i ) w i
信息量因子: dispersion ( W ) = - Σ i = 1 n w i ln w i .
CN2011101264747A 2011-05-16 2011-05-16 基于时空关联信息的多视角视频监控中异常事件建模方法 Expired - Fee Related CN102163290B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2011101264747A CN102163290B (zh) 2011-05-16 2011-05-16 基于时空关联信息的多视角视频监控中异常事件建模方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2011101264747A CN102163290B (zh) 2011-05-16 2011-05-16 基于时空关联信息的多视角视频监控中异常事件建模方法

Publications (2)

Publication Number Publication Date
CN102163290A true CN102163290A (zh) 2011-08-24
CN102163290B CN102163290B (zh) 2012-08-01

Family

ID=44464507

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2011101264747A Expired - Fee Related CN102163290B (zh) 2011-05-16 2011-05-16 基于时空关联信息的多视角视频监控中异常事件建模方法

Country Status (1)

Country Link
CN (1) CN102163290B (zh)

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102982344A (zh) * 2012-11-12 2013-03-20 浙江大学 基于同时融合多视角特征及多标签信息的支持向量机分类方法
CN103077401A (zh) * 2012-12-27 2013-05-01 深圳市赛为智能股份有限公司 一种基于光流上下文直方图的异常行为检测方法及系统
CN103136540A (zh) * 2013-03-19 2013-06-05 中国科学院自动化研究所 一种基于隐结构推理的行为识别方法
CN103226713A (zh) * 2013-05-16 2013-07-31 中国科学院自动化研究所 一种多视角行为识别方法
CN103368835A (zh) * 2012-03-27 2013-10-23 华为技术有限公司 一种对网络用户分类的方法和路由设备
CN103530603A (zh) * 2013-09-24 2014-01-22 杭州电子科技大学 基于环路图模型的视频异常检测方法
CN103839080A (zh) * 2014-03-25 2014-06-04 上海交通大学 基于测度查询熵的视频流异常事件检测方法
CN104732208A (zh) * 2015-03-16 2015-06-24 电子科技大学 基于稀疏子空间聚类的视频人体行为识别方法
CN105184299A (zh) * 2015-08-29 2015-12-23 电子科技大学 基于局部约束线性编码的车身颜色识别方法
CN105512606A (zh) * 2015-11-24 2016-04-20 北京航空航天大学 基于ar模型功率谱的动态场景分类方法及装置
CN105554465A (zh) * 2015-12-30 2016-05-04 芜湖乐锐思信息咨询有限公司 基于互联网的远程信息多视角建模系统
CN106022311A (zh) * 2016-06-13 2016-10-12 上海仪电(集团)有限公司中央研究院 基于城市监控视频识别的应急事件发现方法及系统
CN106934401A (zh) * 2017-03-07 2017-07-07 上海师范大学 一种基于改进词袋模型的图像分类方法
CN108306855A (zh) * 2017-12-25 2018-07-20 北京知道未来信息技术有限公司 一种基于动态指纹特征函数库的数控网络安全监测方法
CN108427928A (zh) * 2018-03-16 2018-08-21 华鼎世纪(北京)国际科技有限公司 监控视频中异常事件的检测方法及装置
CN108629316A (zh) * 2018-05-08 2018-10-09 东北师范大学人文学院 一种多视角的视频异常事件检测方法
CN108769576A (zh) * 2018-05-10 2018-11-06 郑州信大先进技术研究院 智能视频处理方法和系统
CN109002746A (zh) * 2017-06-06 2018-12-14 刘禹岐 3d立体火灾识别方法和系统
CN109460420A (zh) * 2018-09-28 2019-03-12 北京赛博贝斯数据科技有限责任公司 结构化数据的知识挖掘方法及系统
CN110674622A (zh) * 2018-07-03 2020-01-10 百度在线网络技术(北京)有限公司 可视化图表生成方法、系统、存储介质及电子设备
CN107203745B (zh) * 2017-05-11 2020-06-26 天津大学 一种基于跨域学习的跨视角动作识别方法
CN111898565A (zh) * 2020-08-04 2020-11-06 南京林业大学 一种基于鲁棒多视角的森林烟火实时监测系统和方法
CN112183678A (zh) * 2020-11-27 2021-01-05 同方威视技术股份有限公司 判图方法和系统
CN112351255A (zh) * 2020-11-03 2021-02-09 浙江正和监理有限公司 一种全过程智能建筑工程监理系统及方法
CN112732965A (zh) * 2019-10-28 2021-04-30 中国银联股份有限公司 基于图像描述生成的异常事件检测方法及检测系统
CN112766151A (zh) * 2021-01-19 2021-05-07 北京深睿博联科技有限责任公司 一种用于导盲眼镜的双目目标检测方法和系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101719216A (zh) * 2009-12-21 2010-06-02 西安电子科技大学 基于模板匹配的运动人体异常行为识别方法
CN101765025A (zh) * 2008-12-23 2010-06-30 北京中星微电子有限公司 一种监控摄像设备异常检测的系统及方法
CN102034096A (zh) * 2010-12-08 2011-04-27 中国科学院自动化研究所 基于自顶向下运动注意机制的视频事件识别方法
CN102043967A (zh) * 2010-12-08 2011-05-04 中国科学院自动化研究所 一种有效的运动目标行为建模与识别方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101765025A (zh) * 2008-12-23 2010-06-30 北京中星微电子有限公司 一种监控摄像设备异常检测的系统及方法
CN101719216A (zh) * 2009-12-21 2010-06-02 西安电子科技大学 基于模板匹配的运动人体异常行为识别方法
CN102034096A (zh) * 2010-12-08 2011-04-27 中国科学院自动化研究所 基于自顶向下运动注意机制的视频事件识别方法
CN102043967A (zh) * 2010-12-08 2011-05-04 中国科学院自动化研究所 一种有效的运动目标行为建模与识别方法

Cited By (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103368835A (zh) * 2012-03-27 2013-10-23 华为技术有限公司 一种对网络用户分类的方法和路由设备
CN103368835B (zh) * 2012-03-27 2017-08-04 华为技术有限公司 一种对网络用户分类的方法和路由设备
CN102982344A (zh) * 2012-11-12 2013-03-20 浙江大学 基于同时融合多视角特征及多标签信息的支持向量机分类方法
CN102982344B (zh) * 2012-11-12 2015-12-16 浙江大学 基于同时融合多视角特征及多标签信息的支持向量机分类方法
CN103077401A (zh) * 2012-12-27 2013-05-01 深圳市赛为智能股份有限公司 一种基于光流上下文直方图的异常行为检测方法及系统
CN103136540A (zh) * 2013-03-19 2013-06-05 中国科学院自动化研究所 一种基于隐结构推理的行为识别方法
CN103136540B (zh) * 2013-03-19 2015-10-28 中国科学院自动化研究所 一种基于隐结构推理的行为识别方法
CN103226713A (zh) * 2013-05-16 2013-07-31 中国科学院自动化研究所 一种多视角行为识别方法
CN103226713B (zh) * 2013-05-16 2016-04-13 中国科学院自动化研究所 一种多视角行为识别方法
CN103530603B (zh) * 2013-09-24 2017-01-04 杭州电子科技大学 基于环路图模型的视频异常检测方法
CN103530603A (zh) * 2013-09-24 2014-01-22 杭州电子科技大学 基于环路图模型的视频异常检测方法
CN103839080A (zh) * 2014-03-25 2014-06-04 上海交通大学 基于测度查询熵的视频流异常事件检测方法
CN104732208B (zh) * 2015-03-16 2018-05-18 电子科技大学 基于稀疏子空间聚类的视频人体行为识别方法
CN104732208A (zh) * 2015-03-16 2015-06-24 电子科技大学 基于稀疏子空间聚类的视频人体行为识别方法
CN105184299A (zh) * 2015-08-29 2015-12-23 电子科技大学 基于局部约束线性编码的车身颜色识别方法
CN105512606B (zh) * 2015-11-24 2018-12-21 北京航空航天大学 基于ar模型功率谱的动态场景分类方法及装置
CN105512606A (zh) * 2015-11-24 2016-04-20 北京航空航天大学 基于ar模型功率谱的动态场景分类方法及装置
CN105554465A (zh) * 2015-12-30 2016-05-04 芜湖乐锐思信息咨询有限公司 基于互联网的远程信息多视角建模系统
CN106022311A (zh) * 2016-06-13 2016-10-12 上海仪电(集团)有限公司中央研究院 基于城市监控视频识别的应急事件发现方法及系统
CN106934401A (zh) * 2017-03-07 2017-07-07 上海师范大学 一种基于改进词袋模型的图像分类方法
CN106934401B (zh) * 2017-03-07 2020-02-21 上海师范大学 一种基于改进词袋模型的图像分类方法
CN107203745B (zh) * 2017-05-11 2020-06-26 天津大学 一种基于跨域学习的跨视角动作识别方法
CN109002746B (zh) * 2017-06-06 2021-12-17 刘禹岐 3d立体火灾识别方法和系统
CN109002746A (zh) * 2017-06-06 2018-12-14 刘禹岐 3d立体火灾识别方法和系统
CN108306855A (zh) * 2017-12-25 2018-07-20 北京知道未来信息技术有限公司 一种基于动态指纹特征函数库的数控网络安全监测方法
CN108306855B (zh) * 2017-12-25 2021-03-30 北京知道未来信息技术有限公司 一种基于动态指纹特征函数库的数控网络安全监测方法
CN108427928A (zh) * 2018-03-16 2018-08-21 华鼎世纪(北京)国际科技有限公司 监控视频中异常事件的检测方法及装置
CN108629316A (zh) * 2018-05-08 2018-10-09 东北师范大学人文学院 一种多视角的视频异常事件检测方法
CN108769576B (zh) * 2018-05-10 2021-02-02 郑州信大先进技术研究院 智能视频处理方法和系统
CN108769576A (zh) * 2018-05-10 2018-11-06 郑州信大先进技术研究院 智能视频处理方法和系统
CN110674622B (zh) * 2018-07-03 2022-12-20 百度在线网络技术(北京)有限公司 可视化图表生成方法、系统、存储介质及电子设备
CN110674622A (zh) * 2018-07-03 2020-01-10 百度在线网络技术(北京)有限公司 可视化图表生成方法、系统、存储介质及电子设备
CN109460420A (zh) * 2018-09-28 2019-03-12 北京赛博贝斯数据科技有限责任公司 结构化数据的知识挖掘方法及系统
CN112732965A (zh) * 2019-10-28 2021-04-30 中国银联股份有限公司 基于图像描述生成的异常事件检测方法及检测系统
CN111898565B (zh) * 2020-08-04 2021-11-16 南京林业大学 一种基于鲁棒多视角的森林烟火实时监测系统和方法
CN111898565A (zh) * 2020-08-04 2020-11-06 南京林业大学 一种基于鲁棒多视角的森林烟火实时监测系统和方法
CN112351255A (zh) * 2020-11-03 2021-02-09 浙江正和监理有限公司 一种全过程智能建筑工程监理系统及方法
CN112183678A (zh) * 2020-11-27 2021-01-05 同方威视技术股份有限公司 判图方法和系统
CN112766151A (zh) * 2021-01-19 2021-05-07 北京深睿博联科技有限责任公司 一种用于导盲眼镜的双目目标检测方法和系统
CN112766151B (zh) * 2021-01-19 2022-07-12 北京深睿博联科技有限责任公司 一种用于导盲眼镜的双目目标检测方法和系统

Also Published As

Publication number Publication date
CN102163290B (zh) 2012-08-01

Similar Documents

Publication Publication Date Title
CN102163290B (zh) 基于时空关联信息的多视角视频监控中异常事件建模方法
Aboah A vision-based system for traffic anomaly detection using deep learning and decision trees
Huttunen et al. Car type recognition with deep neural networks
Bertini et al. Multi-scale and real-time non-parametric approach for anomaly detection and localization
Derpanis et al. Classification of traffic video based on a spatiotemporal orientation analysis
CN109829382B (zh) 基于行为特征智能分析的异常目标预警追踪系统及方法
CN105160313A (zh) 视频监控中人群行为分析的方法及装置
CN104063719A (zh) 基于深度卷积网络的行人检测方法及装置
CN104268528A (zh) 一种人群聚集区域检测方法和装置
Heydarian et al. Automated visual recognition of construction equipment actions using spatio-temporal features and multiple binary support vector machines
CN104463232A (zh) 一种基于hog特征和颜色直方图特征的密度人群计数的方法
Tsintotas et al. DOSeqSLAM: Dynamic on-line sequence based loop closure detection algorithm for SLAM
CN103577804A (zh) 基于sift流和隐条件随机场的人群异常行为识别方法
Srinidhi et al. Pothole detection using CNN and AlexNet
Oltean et al. Pedestrian detection and behaviour characterization for video surveillance systems
Shafie et al. Smart video surveillance system for vehicle detection and traffic flow control
Zhang et al. A Multiple Instance Learning and Relevance Feedback Framework for Retrieving Abnormal Incidents in Surveillance Videos.
Li et al. A novel framework for anomaly detection in video surveillance using multi-feature extraction
Vrtagić et al. Video Data Extraction and Processing for Investigation of Vehicles' Impact on the Asphalt Deformation Through the Prism of Computational Algorithms.
Srijakkot et al. The comparison of Faster R-CNN and Atrous Faster R-CNN in different distance and light condition
Xu et al. Crowd density estimation based on improved Harris & OPTICS Algorithm
KR20170104756A (ko) 국부지역별 크기 특정 차량 분류 방법 및 이를 이용한 차량검출방법
Khan et al. Multiple moving vehicle speed estimation using Blob analysis
Shri et al. Video Analysis for Crowd and Traffic Management
Liu et al. Lightweight security wear detection method based on YOLOv5

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20120801