CN105335703A - 基于运动重构技术的交通场景异常检测方法 - Google Patents

基于运动重构技术的交通场景异常检测方法 Download PDF

Info

Publication number
CN105335703A
CN105335703A CN201510670786.2A CN201510670786A CN105335703A CN 105335703 A CN105335703 A CN 105335703A CN 201510670786 A CN201510670786 A CN 201510670786A CN 105335703 A CN105335703 A CN 105335703A
Authority
CN
China
Prior art keywords
motion
dictionary
locus
calculate
motion amplitude
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510670786.2A
Other languages
English (en)
Other versions
CN105335703B (zh
Inventor
袁媛
王�琦
王栋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN201510670786.2A priority Critical patent/CN105335703B/zh
Publication of CN105335703A publication Critical patent/CN105335703A/zh
Application granted granted Critical
Publication of CN105335703B publication Critical patent/CN105335703B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/42Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于运动重构技术的交通场景异常检测方法,针对复杂运动模式和变化背景,本发明通过更加合理的运动信息描述方法,并利用运动模式的空间位置信息,探索了不同运动模式间的空间结构信息,进而解决了现有的异常检测方法对该特定场景的不适用性。

Description

基于运动重构技术的交通场景异常检测方法
技术领域
本发明属于计算机视觉,视频内容分析领域,具体涉及一种基于运动信息重构的异常行为检测方法。本发明可以应用到车辆辅助驾驶系统,无人驾驶系统等方面。
背景技术
异常行为检测作为视频内容分析中的一个核心问题,研究者们已经在固定摄像头,简单场景下做了很多研究。在该技术中,视频事件的描述方法是一个至关重要的问题。基于不同的事件描述方法,前人的工作可以分为以下两个分支:
基于物体运动轨迹信息的有A.Basharat等人在文献“A.Basharat,A.Gritai,andM.Shah.LearningObjectMotionPatternsforAnomalyDetectionandImprovedObjectDetection,InProceedingsofIEEEConferenceonComputerVisionandPatternRecognition,pp.1–8,2008.”中提出对于单个物体进行长时间的跟踪,得到该目标的完整运动轨迹。基于物体的完整运动轨迹,该方法通过与训练集中的正常运动轨迹对比结果来检测异常目标。
基于局部运动模式的有Y.Cong等人在文献“Y.Cong,J.Yuan,andJ.Li.SparseReconstructionCostforAbnormalEventDetection,InProceedingsofIEEEConferenceonComputerVisionandPatternRecognition,pp.3449–3456,2011.”中提出利用光流法描述运动信息,通过计算得到的直方图表示局部运动模式。该方法在训练数据中学习了一个代表正常运动模式的字典,通过字典对于测试数据的重构误差来度量其异常程度。
这些方法的应用场景往往都是背景固定,运动模式单一的场景。对于交通场景这种运动模式复杂,背景变化较大的场景的研究还没有,所以需要针对交通场景设计合适的异常检测算法。
发明内容
要解决的技术问题
本发明提出一种基于运动重构技术的交通场景异常检测方法,针对复杂运动模式和变化背景,本发明通过更加合理的运动信息描述方法,并利用运动模式的空间位置信息,探索了不同运动模式间的空间结构信息,进而解决了现有的异常检测方法对该特定场景的不适用性。
技术方案
一种基于运动重构技术的交通场景异常检测方法,其特征在于步骤如下:
步骤1:计算前50帧视频中各个像素点的运动方向和运动幅度:
mo=arctan(Δy/Δx)
m m = Δx 2 + Δy 2
其中,(Δx,Δy)为像素的光流信息;
将运动方向按照对应像素的位置排列成运动方向场Mo,将运动幅度按照对应像素的位置排列成运动幅度场Mm;使用SLIC超像素分割方法对这两个运动场进行分割,并计算每个分割区域运动方向yo或运动幅度ym,将分割区域的中心位置zo或zm记为空间位置坐标;
步骤2:将所有分割区域的运动方向yo的集合矩阵Y0输入到下式进行优化:
m i n C λ 1 | | C 0 | | 1 , 2 + 1 2 | | Y 0 - Y 0 C 0 | | F 2
s.t.diag(C0)=0
其中,λ1为超参数,‖·‖F表示矩阵的F-范数,C0为优化参数;
优化得到最优参数C0 *,根据其行向量2范数对其进行排列,得到:
| | c 0 i 1 | | ≥ | | c 0 i 2 | | ≥ ... | | c 0 i n | |
其中,表示最优参数C0 *中的第in行向量;
选择前T个行向量对应的yo组成字典D0,其字典元素对应的空间位置zo组成集合L0
将所有分割区域的运动幅度ym的集合矩阵Ym输入到下式进行优化:
m i n C λ 1 | | C m | | 1 , 2 + 1 2 | | Y m - Y m C m | | F 2
s.t.diag(Cm)=0
其中,λ1为超参数,‖·‖F表示矩阵的F-范数,Cm为优化参数;
优化得到最优参数Cm *,根据其行向量2范数对其进行排列,得到:
| | c m i 1 | | ≥ | | c m i 2 | | ≥ ... | | c m i n | |
其中,表示最优参数Cm *中的第in行向量;
选择前T个行向量对应的ym组成字典Dm,其字典元素对应的空间位置zm组成集合Lm
步骤3:计算第51帧视频中的局部运动方向的空间位置坐标与字典元素空间位置L0的距离,选择距离从近到远的前K个字典元素组成局部字典Dol;计算运动方向重构误差:
a o = E M D ( y o * , D o l c o )
其中EMD()表示EarthMoversDistance,co为下述优化问题的最优解:
c o = arg m i n c | | y o * - D o l c | | F 2 + λ 2 | | c | | 1
其中,λ2为超参数,c为优化参数;
计算第51帧视频中的局部运动幅度的空间位置坐标与字典元素空间位置Lm的距离,选择距离从近到远的前K个字典元素组成局部字典Dml,其字典元素对应的空间位置组成集合Lml;计算运动幅度重构误差:
a m = 1 K Σ j = 1 K w j × E M D ( y m * , D m l j )
其中,Dmlj表示字典Dml中的第j个字典元素,为不同位置的字典元素不同的权重,lmlj表示字典Lml中的第j个字典元素;
将运动方向重构误差ao按照对应像素的位置排列成运动方向异常分布图SO,运动幅度重构误差am按照对应像素的位置排列成运动幅度异常分布图SM
步骤4:计算融合后的交通场景异常分布图S(SO(z),SM(z)):
S ( S O ( z ) , S M ( z ) ) = 1 2 ( p ( F O | S M ( z ) ) + p ( F M | S O ( z ) ) )
其中: p ( F O | S M ( z ) ) = S O ( z ) p ( S M ( z ) | F O ) S O ( z ) p ( S M ( z ) | F O ) + ( 1 - S O ( z ) ) p ( S M ( z ) | B O )
p ( S M ( z ) | F O ) = N bF o ( S M ( z ) ) N F O
p ( S M ( z ) | B O ) = N bB O ( S M ( z ) ) N B O
p ( F M | S O ( z ) ) = S M ( z ) p ( S O ( z ) | F M ) S M ( z ) p ( S O ( z ) | F M ) + ( 1 - S M ( z ) ) p ( S O ( z ) | B M )
p ( S O ( z ) | F M ) = N bF M ( S O ( z ) ) N F M
p ( S O ( z ) | B M ) = N bB M ( S O ( z ) ) N B M
分别表示SO检测出的异常区域FO和正常区域BO的像素个数;分别表示在SM中数值属于异常和正常的像素个数;分别表示SM检测出的异常区域FM和正常区域BM的像素个数;分别表示在SO中数值属于异常和正常的像素个数,p(FO|SM(z)和p(FM|SO(z))为位置z处像素点的似然概率,SO(z)和SM(z)为运动方向异常分布图和运动幅度异常分布图在位置z处的重构误差。
λ1和λ2为0.5。
所述步骤1中计算每个分割区域运动方向yo和运动幅度ym的方法采用“DalalN,TriggsB.HistogramsofOrientedGradientsforHumanDetection[A].In:IEEEConferenceonComputervisionandPatternRecognition[C].NewYork:IEEE,2005.886-893”。
有益效果
本发明提出的一种基于运动重构技术的交通场景异常检测方法,对物体的运动方向异常和运动幅度异常同时进行了度量,并利用贝叶斯融合模型得到最终的检测结果。进而使得本算法能够有效解决复杂场景(运动模式复杂,背景变化快)的问题,同时也使得其能够检测多种异常行为,并且达到平均87.9%的检测准确率。
附图说明
图1本发明实施的具体流程图
具体实施方式
现结合实施例、附图对本发明作进一步描述:
本发明提出了一种基于运动重构技术的交通场景异常检测方法,对比之前的研究,该算法对于交通场景中的异常检测具有更好的效果。其技术方案包括下述步骤:
(a)利用视频帧的光流信息,计算直方图表示局部运动模式。首先利用得到的光流信息计算对应的运动方向场和运动幅度场,然后采用超像素分割技术对其进行分割,在每个分割区域内计算一个直方图表示局部的运动方向或者运动大小;
(b)针对运动方向和运动大小,在无异常的视频帧中分别学习得到两个代表正常运动模式的字典,同时保留运动模式对应的空间位置信息。
(c)在新的视频帧中,对于每个新的运动直方图,我们在字典中选择与其空间位置接近的K个元素来重构新的直方图,将其重构误差作为异常性的度量。由此,不同区域的重构误差组成了异常分布图,分别是运动方向和运动幅度异常分布图。
(d)收集重构误差较小的运动直方图,每隔T帧利用这些样本更新原有的字典。
(e)采用基于贝叶斯模型的融合方法,将得到的两个异常分布图进行融合,得到最终的异常检测结果图。基于最终的结果图,利用阈值法来确定异常目标出现的区域。
参照图1,本发明的基于运动重构技术的交通场景异常检测方法的实现步骤如下:
步骤1、计算运动方向和运动幅度直方图。首先,计算视频帧(前50帧)的光流信息(参考文献LiuC.BeyondPixels:ExploringNewRepresentationsandApplicationsforMotionAnalysis[D].Citeseer,2009.),其中每个像素的光流信息由二维向量(Δx,Δy)表示。然后,按照下式计算各个像素点处的运动方向和运动幅度:
mo=arctan(Δy/Δx)(1)
m m = Δx 2 + Δy 2 - - - ( 2 )
将计算得到的运动方向与幅度按照对应像素的位置进行排列,得到两幅“图片”,分别记为运动方向场Mo和运动幅度场Mm。最后,使用SLIC超像素分割方法(参考文献AchnataR,ShajiA,SmithK,etal.SLICSuperpixelsComparedtoState-of-the-ArtSuperpixelMethods[J].IEEETransactiononPatternAnalysisandMachineIntelligence,2012,34(11),2274-2282.)将这两个运动场分割为125个区域,并对每个分割区域计算其运动直方图代表其局部运动方向和运动幅度(参考文献DalalN,TriggsB.HistogramsofOrientedGradientsforHumanDetection[A].In:IEEEConferenceonComputervisionandPatternRecognition[C].NewYork:IEEE,2005.886-893.),分别记为yo、ym,并且用其中心表示该区域的空间位置,记为zo、zm
步骤2、选择有代表性的样本,构造表示正常运动模式的字典。以步骤1计算得到的运动直方图yo作为输入,假设所有正常帧的运动直方图集合为Y0(由于运动方向和运动幅度学习方法完全一致,所以不分别说明),那么采用的字典学习方法可以转化为下述优化问题:
m i n C λ 1 | | C 0 | | 1 , 2 + 1 2 | | Y 0 - Y 0 C 0 | | F 2
(3)
s.t.diag(C0)=0
其中λ1为超参数,设置为0.5,‖·‖F表示矩阵的F-范数。优化得到该问题最优参数C0 *。然后,根据其行向量2范数对其进行排列,得到:
| | c 0 i 1 | | ≥ | | c 0 i 2 | | ≥ ... | | c 0 i n | | - - - ( 4 )
其中,表示最优参数C0 *中的第in行向量。最后,根据行向量排序结果选择前T个行向量对应的样本yo组成正常字典D0,其字典元素对应的空间位置组成集合L0
将所有分割区域的运动幅度ym的集合矩阵Ym输入到下式进行优化:
m i n C λ 1 | | C m | | 1 , 2 + 1 2 | | Y m - Y m C m | | F 2
s.t.diag(Cm)=0
其中,λ1为超参数,‖·‖F表示矩阵的F-范数,Cm为优化参数;
优化得到最优参数Cm *,根据其行向量2范数对其进行排列,得到:
| | c m i 1 | | ≥ | | c m i 2 | | ≥ ... | | c m i n | |
其中,表示最优参数Cm *中的第in行向量;
选择前T个行向量对应的ym组成字典Dm,其字典元素对应的空间位置zm组成集合Lm
步骤3、基于空间位置信息的运动重构。首先,对于测试视频帧中(第51帧视频)的局部运动直方图(或者),计算其空间位置与字典元素空间位置L0的距离,选择距离最近的K个字典元素组成局部正常字典Dol。然后,按照下式计算其运动方向重构误差:
a o = E M D ( y o * , D o l c o ) - - - ( 5 )
其中EMD()表示EarthMoversDistance,co为下述优化问题的最优解:
c o = arg m i n c | | y o * - D o l c | | F 2 + λ 2 | | c | | 1 - - - ( 6 )
其中,λ2为超参数,设置为0.5。
计算测试视频帧中(第51帧视频)的局部运动幅度的空间位置坐标与字典元素空间位置Lm的距离,选择距离从近到远的前K个字典元素组成局部字典Dml,其字典元素对应的空间位置组成集合Lml;计算运动幅度重构误差:
a m = 1 K Σ j = 1 K w j × E M D ( y m * , D m l j ) - - - ( 7 )
其中Dmlj表示字典Dml中的第j个字典元素,并且给不同位置的字典元素不同的权重。最后,将运动方向重构误差ao按照对应像素的位置排列成运动方向异常分布图SO,运动幅度重构误差am按照对应像素的位置排列成运动幅度异常分布图SM
步骤4、贝叶斯融合,得到最终的检测结果。首先,假设设定SO为先验概率,那么在位置z处像素点的似然概率为:
p ( S M ( z ) | F O ) = N bF o ( S M ( z ) ) N F O p ( S M ( z ) | F O ) = N bB O ( S M ( z ) ) N B O - - - ( 8 )
其中,分别表示检测出的异常区域FO和正常区域BO的像素个数。分别表示在SM中数值属于异常和正常的像素个数。然后,贝叶斯模型可改写为:
p ( F O | S M ( z ) ) = S O ( z ) p ( S M ( z ) | F O ) S O ( z ) p ( S M ( z ) | F O ) + ( 1 - S O ( z ) ) p ( S M ( z ) | B O ) - - - ( 9 )
同样地,将SM当作先验概率,利用式(9)可以得到p(FO|SM(z))。那么,融合后的异常分布图S(SO(z),SM(z))可计算如下:
S ( S O ( z ) , S M ( z ) ) = 1 2 ( p ( F O | S M ( z ) ) + p ( F M | S O ( z ) ) ) - - - ( 10 )
更新字典:选择运动方向重构误差小于0.5的样本,记为Ynor。将其与原来的字典元素联合,组成新的正常样本,即Ynew=[D0Ynor]。然后,使用式(3)的方法重新学习得到更新后的字典。选择运动幅度重构误差小于0.5的样本,记为Ynor′。将其与原来的字典元素联合,组成新的正常样本,即Ynew=[DmYnor′]。然后,使用式(3)的方法重新学习得到更新后的字典。
本发明的效果可以通过以下仿真实验做进一步的说明。
1.仿真条件
本发明是在中央处理器为i5-34703.2GHzCPU、内存4G、WINDOWS7操作系统上,运用MATLAB软件进行的仿真。
仿真中使用的数据为自主在真实行车视频中截取的片段,其中摄像机移动变化较大,背景较为复杂。实验数据共包括9段视频,按照异常行为可分为:超车,车辆横穿和行人横穿这三类。
2.仿真内容
为了证明本发明的有效性,仿真实验对本发明提出的运动重构和贝叶斯融合方法进行了对比实验。具体地,作为本发明的对比算法,仿真实验选择了基于传统光流直方图的方法(THOF)和Cong等人在文献“Y.Cong,J.Yuan,andJ.Li.SparseReconstructionCostforAbnormalEventDetection,InProceedingsofIEEEConferenceonComputerVisionandPatternRecognition,pp.3449–3456,2011.”中提出的基于稀疏表达的方法(SRC)。三个算法设置同样的参数,计算其平均AUC数值。对比结果如表1所示。
表1
Method SRC THOF OUR
AUC 46.63% 59.54% 87.90%
从表1可见,本发明的检测准确率显著地高于传统异常检测方法。具体地,算法SRC的准确率低于算法THOF和OUR,原因在于SRC算法没有考虑运动模式的空间位置信息,而THOF和OUR都采用了本发明提出的与空间位置相关的运动重构方法,从而证明了本发明提出的运动重构方法的有效性。另外,算法OUR明显优于THOF,这是由于本发明同时对运动方向和运动幅度异常进行了度量,同时进行了合理融合。因此,为了验证贝叶斯融合方法的有效性,仿真实验将未融合的异常检测结果M和O,乘积融合的结果MO以及本发明的融合结果B-MO进行了对比实验,结果如表2所示。
表2
Method O M MO B-MO
AUC 63.89% 82.97% 77.78% 87.90%
从表2可见,本发明融合得到的结果比不进行融合的检测结果准确率高,原因在于,本发明的贝叶斯融合方法对运动方向和运动幅度异常给予合理的权重。相比之下,简单的乘积融合方法不能给出合理的融合权重,因此反而降低了准确率。因此,通过以上仿真实验可以验证本发明的有效性。

Claims (3)

1.一种基于运动重构技术的交通场景异常检测方法,其特征在于步骤如下:
步骤1:计算前50帧视频中各个像素点的运动方向和运动幅度:
m o = a r c t a n ( Δ y / Δ x ) m m = Δx 2 + Δy 2
其中,(Δx,Δy)为像素的光流信息;
将运动方向按照对应像素的位置排列成运动方向场Mo,将运动幅度按照对应像素的位置排列成运动幅度场Mm;使用SLIC超像素分割方法对这两个运动场进行分割,并计算每个分割区域运动方向yo或运动幅度ym,将分割区域的中心位置zo或zm记为空间位置坐标;
步骤2:将所有分割区域的运动方向yo的集合矩阵Y0输入到下式进行优化:
min C λ 1 | | C 0 | | 1 , 2 + 1 2 | | Y 0 - Y 0 C 0 | | F 2 s . t . d i a g ( C 0 ) = 0
其中,λ1为超参数,‖·‖F表示矩阵的F-范数,C0为优化参数;
优化得到最优参数C0 *,根据其行向量2范数对其进行排列,得到:
| | c 0 i 1 | | ≥ | | c 0 i 2 | | ≥ ... | | c 0 i n | |
其中,表示最优参数C0 *中的第in行向量;
选择前T个行向量对应的yo组成字典D0,其字典元素对应的空间位置zo组成集合L0
将所有分割区域的运动幅度ym的集合矩阵Ym输入到下式进行优化:
min C λ 1 | | C m | | 1 , 2 + 1 2 | | Y m - Y m C m | | F 2 s . t . d i a g ( C m ) = 0
其中,λ1为超参数,‖·‖F表示矩阵的F-范数,Cm为优化参数;
优化得到最优参数Cm *,根据其行向量2范数对其进行排列,得到:
| | c m i 1 | | ≥ | | c m i 2 | | ≥ ... | | c m i n | |
其中,表示最优参数Cm *中的第in行向量;
选择前T个行向量对应的ym组成字典Dm,其字典元素对应的空间位置zm组成集合Lm
步骤3:计算第51帧视频中的局部运动方向的空间位置坐标与字典元素空间位置L0的距离,选择距离从近到远的前K个字典元素组成局部字典Dol;计算运动方向重构误差:
a o = E M D ( y o * , D o l c o )
其中EMD()表示EarthMoversDistance,co为下述优化问题的最优解:
c o = arg m i n c | | y o * - D o l c | | F 2 + λ 2 | | c | | 1
其中,λ2为超参数,c为优化参数;
计算第51帧视频中的局部运动幅度的空间位置坐标与字典元素空间位置Lm的距离,选择距离从近到远的前K个字典元素组成局部字典Dml,其字典元素对应的空间位置组成集合;计算运动幅度重构误差:
a m = 1 K Σ j = 1 K w j × E M D ( y m * , D m l j )
其中,Dmlj表示字典Dml中的第j个字典元素,为不同位置的字典元素不同的权重,lmlj表示字典Lml中的第j个字典元素;
将运动方向重构误差ao按照对应像素的位置排列成运动方向异常分布图SO,运动幅度重构误差am按照对应像素的位置排列成运动幅度异常分布图SM
步骤4:计算融合后的交通场景异常分布图S(SO(z),SM(z)):
S ( S O ( z ) , S M ( z ) ) = 1 2 ( p ( F O | S M ( z ) ) + p ( F M | S O ( z ) ) )
其中: p ( F O | S M ( z ) ) = S O ( z ) p ( S M ( z ) | F O ) S O ( z ) p ( S M ( z ) | F O ) + ( 1 - S O ( z ) ) p ( S M ( z ) | B O )
p ( S M ( z ) | F O ) = N bF o ( S M ( z ) ) N F O p ( S M ( z ) | B O ) = N bB O ( S M ( z ) ) N B O p ( F M | S O ( z ) ) = S M ( z ) p ( S O ( z ) | F M ) S M ( z ) p ( S O ( z ) | F M ) + ( 1 - S M ( z ) ) p ( S O ( z ) | B M ) p ( S O ( z ) | F M ) = N bF M ( S O ( z ) ) N F M p ( S O ( z ) | B M ) = N bB M ( S O ( z ) ) N B M
分别表示SO检测出的异常区域FO和正常区域BO的像素个数;分别表示在SM中数值属于异常和正常的像素个数;分别表示SM检测出的异常区域FM和正常区域BM的像素个数;分别表示在SO中数值属于异常和正常的像素个数,p(FO|SM(z)和p(FM|SO(z))为位置z处像素点的似然概率,SO(z)和SM(z)为运动方向异常分布图和运动幅度异常分布图在位置z处的重构误差。
2.根据权利要求1所述的一种基于运动重构技术的交通场景异常检测方法,其特征在于λ1和λ2为0.5。
3.根据权利要求1所述的一种基于运动重构技术的交通场景异常检测方法,其特征在于所述步骤1中计算每个分割区域运动方向yo和运动幅度ym的方法采用“DalalN,TriggsB.HistogramsofOrientedGradientsforHumanDetection[A].In:IEEEConferenceonComputervisionandPatternRecognition[C].NewYork:IEEE,2005.886-893”。
CN201510670786.2A 2015-10-13 2015-10-13 基于运动重构技术的交通场景异常检测方法 Active CN105335703B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510670786.2A CN105335703B (zh) 2015-10-13 2015-10-13 基于运动重构技术的交通场景异常检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510670786.2A CN105335703B (zh) 2015-10-13 2015-10-13 基于运动重构技术的交通场景异常检测方法

Publications (2)

Publication Number Publication Date
CN105335703A true CN105335703A (zh) 2016-02-17
CN105335703B CN105335703B (zh) 2018-06-08

Family

ID=55286219

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510670786.2A Active CN105335703B (zh) 2015-10-13 2015-10-13 基于运动重构技术的交通场景异常检测方法

Country Status (1)

Country Link
CN (1) CN105335703B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107833208A (zh) * 2017-10-27 2018-03-23 哈尔滨工业大学 一种基于动态权重深度自编码的高光谱异常检测方法
CN108037488A (zh) * 2017-10-31 2018-05-15 西安空间无线电技术研究所 一种非均匀环境空时样本选择方法
CN108830882A (zh) * 2018-05-25 2018-11-16 中国科学技术大学 视频异常行为实时检测方法
CN111339645A (zh) * 2020-02-17 2020-06-26 西北工业大学 一种考虑外载荷方向不确定性的结构拓扑优化方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102054176A (zh) * 2010-12-23 2011-05-11 中国科学院自动化研究所 用计算机对运动目标的场景图像建立语义场景模型的方法
CN102855638A (zh) * 2012-08-13 2013-01-02 苏州大学 基于谱聚类的车辆异常行为检测方法
CN103605362A (zh) * 2013-09-11 2014-02-26 天津工业大学 基于车辆轨迹多特征的运动模式学习及异常检测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102054176A (zh) * 2010-12-23 2011-05-11 中国科学院自动化研究所 用计算机对运动目标的场景图像建立语义场景模型的方法
CN102855638A (zh) * 2012-08-13 2013-01-02 苏州大学 基于谱聚类的车辆异常行为检测方法
CN103605362A (zh) * 2013-09-11 2014-02-26 天津工业大学 基于车辆轨迹多特征的运动模式学习及异常检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MAHADEVAN V ETC,: ""Anormaly detection in crowded scenes"", 《IEEE CONF ON COMPUTER VISION AND PATTERN RECOGNITION》 *
WEIXIN LI ETC,: ""Anormaly detection and localization in crowed scenes"", 《IEEE TRANSACTION ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107833208A (zh) * 2017-10-27 2018-03-23 哈尔滨工业大学 一种基于动态权重深度自编码的高光谱异常检测方法
CN107833208B (zh) * 2017-10-27 2021-07-13 哈尔滨工业大学 一种基于动态权重深度自编码的高光谱异常检测方法
CN108037488A (zh) * 2017-10-31 2018-05-15 西安空间无线电技术研究所 一种非均匀环境空时样本选择方法
CN108037488B (zh) * 2017-10-31 2020-03-24 西安空间无线电技术研究所 一种非均匀环境空时样本选择方法
CN108830882A (zh) * 2018-05-25 2018-11-16 中国科学技术大学 视频异常行为实时检测方法
CN108830882B (zh) * 2018-05-25 2022-05-17 中国科学技术大学 视频异常行为实时检测方法
CN111339645A (zh) * 2020-02-17 2020-06-26 西北工业大学 一种考虑外载荷方向不确定性的结构拓扑优化方法
CN111339645B (zh) * 2020-02-17 2022-05-27 西北工业大学 一种考虑外载荷方向不确定性的结构拓扑优化方法

Also Published As

Publication number Publication date
CN105335703B (zh) 2018-06-08

Similar Documents

Publication Publication Date Title
CN111428765B (zh) 一种基于全局卷积、局部深度卷积融合的目标检测方法
CN105335703A (zh) 基于运动重构技术的交通场景异常检测方法
CN103150740A (zh) 一种基于视频的运动目标跟踪方法和系统
Jund et al. Scalable scene flow from point clouds in the real world
CN102592128B (zh) 一种动态图像检测处理方法、装置及显示终端
He et al. Rail transit obstacle detection based on improved CNN
CN111027505B (zh) 一种基于显著性检测的分层多目标跟踪方法
Yang et al. Spatio-temporal domain awareness for multi-agent collaborative perception
CN109255351A (zh) 基于三维卷积神经网络的边界框回归方法、系统、设备及介质
CN104766346A (zh) 一种基于视频图像的斑马鱼跟踪方法
CN115375737B (zh) 基于自适应时间与序列化时空特征的目标跟踪方法与系统
CN101976451B (zh) 一种基于加速度传感器的运动控制与动画生成方法
CN102156989B (zh) 视频帧中车辆遮挡检测与分割方法
CN109712171A (zh) 一种基于相关滤波器的目标跟踪系统及目标跟踪方法
CN105224914A (zh) 一种基于图的无约束视频中显著物体检测方法
CN103679484A (zh) 基于行为Petri网的电子商务一致性分析新方法
CN104778666A (zh) 一种基于谱聚类和混合模型聚类的图像分割方法
CN109146928B (zh) 一种梯度阈值判断模型更新的目标跟踪方法
Meng et al. Vehicle trajectory prediction method driven by raw sensing data for intelligent vehicles
CN104050454A (zh) 一种运动手势轨迹获取方法及系统
CN101794383A (zh) 基于隐马尔科夫模型的拥塞交通场景的视频车辆检测方法
CN104091352A (zh) 基于结构相似度的视觉跟踪方法
Zhang et al. Sst: Real-time end-to-end monocular 3d reconstruction via sparse spatial-temporal guidance
Yuan et al. Multi-level object detection by multi-sensor perception of traffic scenes
Yang et al. Online pantograph-catenary contact point detection in complicated background based on multiple strategies

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant