CN104008390A - 用于检测异常运动的方法和设备 - Google Patents

用于检测异常运动的方法和设备 Download PDF

Info

Publication number
CN104008390A
CN104008390A CN201410059276.7A CN201410059276A CN104008390A CN 104008390 A CN104008390 A CN 104008390A CN 201410059276 A CN201410059276 A CN 201410059276A CN 104008390 A CN104008390 A CN 104008390A
Authority
CN
China
Prior art keywords
track
theme
probability
file
word
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410059276.7A
Other languages
English (en)
Other versions
CN104008390B (zh
Inventor
柳永俊
郑夏旭
李侊茂
崔镇荣
朴东俊
林廷恩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hanhua Vision Co ltd
Seoul National University Industry Foundation
Original Assignee
Samsung Techwin Co Ltd
Seoul National University Industry Foundation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020130092658A external-priority patent/KR102035184B1/ko
Application filed by Samsung Techwin Co Ltd, Seoul National University Industry Foundation filed Critical Samsung Techwin Co Ltd
Publication of CN104008390A publication Critical patent/CN104008390A/zh
Application granted granted Critical
Publication of CN104008390B publication Critical patent/CN104008390B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/29Graphical models, e.g. Bayesian networks
    • G06F18/295Markov models or related models, e.g. semi-Markov models; Markov random fields; Networks embedding Markov models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • G06V10/763Non-hierarchical techniques, e.g. based on statistics of modelling distributions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/84Arrangements for image or video recognition or understanding using pattern recognition or machine learning using probabilistic graphical models from image or video features, e.g. Markov models or Bayesian networks
    • G06V10/85Markov-related models; Markov random fields
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Probability & Statistics with Applications (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

提供了一种用于检测异常运动的方法和设备。所述设备包括特征跟踪单元,被配置为提取输入图像中的运动对象的特征,跟踪提取的特征的位置随着时间的变化,并确定提取的特征的轨迹;主题在线学习单元,被配置为以作为成束的轨迹的文件为单位对输入图像进行分类,并通过使用作为概率主题模型的在线学习方法来确定构成分类的文件的主题的概率分布状态;运动模式在线学习单元,被配置为对于每个确定的主题来学习速度和方向,并通过推断确定的主题之间的时空相关性来学习运动模式。

Description

用于检测异常运动的方法和设备
本申请要求于2013年2月25日提交到韩国专利局的第10-2013-0020130号韩国专利申请以及于2013年8月5日提交到韩国知识产权局的第10-2013-0092658号韩国专利申请的优先权,其公开通过引用完整地包含于此。
技术领域
本公开涉及一种用于通过使用在线学习方法来检测异常运动的方法和设备。
背景技术
学习图像中的对象的运动流的方法大致分为基于轨迹的学习方法或基于局部特征的学习方法。这些学习方法可以大致分为三种类型的方法:
第一,有一种通过跟踪图像中的运动对象来搜索其轨迹并通过将轨迹聚类为几种主要模式来学习图像的方法。在这种第一类型的方法中,定义轨迹之间的距离,以使类似的轨迹以很短的距离相互分开,并通过使用定义的距离将类似的轨迹分类为各个模式。
第二,有一种通过使用高斯混合模型和核密度估计来定义从图像的每个像素到下一个像素的转移概率来学习图像的方法。在这种第二类型的方法中,并未搜索轨迹的普通模式,而是统计地学习经过图像的每个位置的对象的速度和尺寸。与上述第一类型的方法相比,第二类型的方法具有对于以任意角度投射的图像而言更加强健的性能。此外,第二类型的方法还可以有效地处理被切断的轨迹。
第三,有一种通过从图像提取局部特征(诸如光流)来学习图像的方法。在这种第三类型的方法中,使用高斯混合模型或概率主题模型来生成学习模型。
然而,由于这些学习方法通常使用批量学习方案,因此,在图像不断变化的情况下,变化可能不会被反映在学习模型中。
第2011-0133476号韩国专利公布是现有技术的一种示例。
发明内容
本公开的一个或更多个实施例包括一种即使多个正常运动模式相隔时间差地出现在输入图像中的任意局部区域中也允许执行学习的方法。
本公开的一个或更多个示例性实施例可以包括一种检测异常行为的方法。所述方法可以允许学习图像中的特征的速度和方向信息,并且可以允许确定模式之间的时空关系。
本公开的一个或更多个示例性实施例可以包括一种检测异常行为的方法。所述方法可以适应于随着时间变化在图像中的变化,并且即使对于复杂图像(诸如人群集中的图像)也可以具有强健的性能。
将在下面的描述中阐述其他方面,并且通过下面的描述其他方面将变得清楚。
根据本公开的一个或更多个示例性实施例,一种用于检测异常运动的设备可以包括:特征跟踪单元,用于提取输入图像中的运动对象的特征,跟踪提取的特征的位置随着时间的变化,并确定提取的特征的轨迹;主题在线学习单元,用于以文件(作为成束的轨迹)为单位对输入图像进行分类,并通过使用在线学习方法(作为概率主题模型)来确定构成分类的文件的主题的概率分布状态;运动模式在线学习单元,用于对于每个确定的主题来学习速度和方向,并通过推断确定的主题之间的时空相关性来学习运动模式。
根据本公开的一个或更多个示例性实施例,一种用于检测异常运动的设备可以包括:特征跟踪单元,用于提取输入图像中的运动对象的特征,跟踪提取的特征的位置随着时间的变化,并确定提取的特征的轨迹;轨迹分类单元,用于以指示一束轨迹的文件为单位对输入图像进行分类,并通过使用在线学习方法(作为概率主题模型)来推断指示构成每个文件的主题的直方图分布的多项分布参数概率矢量值,由此对于文件中的每个主题来聚类轨迹的位置;时空相关性推断单元,用于基于推断的多项分布参数概率矢量值来推断时空相关性;运动模式在线学习单元,用于对于每个聚类的主题来学习速度和方向,并通过推断确定的主题之间的时空相关性来学习运动模式。
所述设备还可以包括异常性检测单元,通过使用学习到的运动模式的高斯学习结果,当包括在每一帧输入图像中的轨迹被包括在学习到的运动模式中的概率低时,将运动模式分类为异常运动模式。
轨迹可以由一组单词wji和一组矢量差vjiτ来表示,所述一组单词表示指示轨迹经过的栅格点的位置的一组单词。所述一组矢量差表示单词中的实际特征的位置与所述实际特征在τ帧之前的位置之间的一组矢量差vjiτ,wji指示第j轨迹经过第i栅格,其中,τ、j和i是整数。
多项分布参数概率矢量值可以包括文件-主题概率分布(θd)和主题-单词概率分布
时空相关性推断单元可以使用K均值聚类方法来推断时空相关性。
根据本公开的一个或更多个示例性实施例,一种检测异常运动的方法可以包括:在特征跟踪单元中,提取输入图像中的运动对象的特征,跟踪提取的特征的位置随着时间的变化,并确定提取的特征的轨迹;在主题在线学习单元中,以文件(作为成束的轨迹)为单位对输入图像进行分类,并通过使用在线学习方法(作为概率主题模型)来确定构成分类的文件的主题的概率分布状态;在运动模式在线学习单元中,对于每个确定的主题来学习速度和方向,通过推断确定的主题之间的时空相关性来学习运动模式。
根据本公开的一个或更多个示例性实施例,一种检测异常运动的方法可以包括:在特征跟踪单元中,提取输入图像中的运动对象的特征,跟踪提取的特征的位置随着时间的变化,确定提取的特征的轨迹;在轨迹分类单元中,以指示一束轨迹的文件为单位对输入图像进行分类,并通过使用在线学习方法(作为概率主题模型)来推断指示构成每个文件的主题的直方图分布的多项分布参数概率矢量值,由此对于文件中的每个主题来聚类轨迹的位置;在时空相关性推断单元中,基于推断的多项分布参数概率矢量值来推断时空相关性;在运动模式在线学习单元中,对于每个聚类的主题来学习速度和方向,并通过推断确定的主题之间的时空相关性来学习运动模式。
附图说明
通过下面结合附图对示例性实施例进行的描述,这些和/或其他方面将变得清楚和更易于理解,其中:
图1是根据本公开的示例性实施例的异常行为检测设备的内部配置图;
图2A和图2B是示出根据本公开的示例性实施例的通过使用在线潜在狄利克雷分配(OLDA)学习方法以文件为单位对输入图像进行分类并确定构成分类的文件的主题的概率分布状态的示例的示图;
图3是示出根据本公开的示例性实施例的提取输入图像中的运动对象的特征并通过跟踪提取的特征的位置随着时间的变化来确定轨迹信息的示例的示图;
图4是示出根据本公开的示例性实施例的示出轨迹信息段的方法的示例的示图;
图5是示出根据本公开的示例性实施例的使用K均值聚类方法确定时空相关性的示例的示图;
图6是示出根据本公开的示例性实施例的通过推断主题之间的时空相关性来学习运动模式的示例的示图;
图7是示出根据本公开的示例性实施例的在线学习方法(作为概率主题模型)的图形的类型的示图;
图8A至图8C是示出根据本公开的示例性实施例的级联推断方法的示例的示图;
图9A和图9B是示出根据本公开的示例性实施例的对于每个主题来聚类轨迹的位置的示例的示图。
具体实施方式
现在将对示例性实施例进行详细的描述,其示例在附图中示出,其中,相同的标号始终指示相同部件。就这一点而言,当前的示例性实施例可以具有不同的形式并且不应被解释为局限于这里所阐述的描述。因此,仅仅是通过参照附图在下面描述示例性实施例,以解释本说明书的各方面。
附图中的框图示出根据本公开的示例性实施例的设备和方法。就这一点而言,每个框可以表示包含用于执行指定逻辑功能的一个或更多个可执行指令的模块、程序或部分代码。还应该注意的是,可以通过用于执行指定功能/操作的基于专用硬件的系统、通过用于执行指定功能/操作的基于软件的系统或通过专用硬件和计算机指令的组合来实现框图。
图1是根据本公开的示例性实施例的异常行为检测设备100的内部配置图。
异常行为检测设备100包括特征跟踪单元110、主题在线学习单元120、运动模式在线学习单元130和异常检测单元140。
例如,当输入图像是描述车辆交通的一系列帧时,特征跟踪单元110提取输入图像中的运动对象(例如,车辆)的特征,并跟踪提取的特征随着时间的位置变化,以确定轨迹信息。
在本公开的示例性实施例中,特征跟踪单元110根据主要主题(例如,径直前进轨迹信息、左转弯轨迹信息、右转轨迹信息、U形转弯轨迹信息等)对输入图像中的轨迹信息进行分类。特征跟踪单元110通过使用Kanade-Lucas-Tomasi(KLT)跟踪技术对所述轨迹信息进行分类。如以下参照图3所述,特征跟踪单元110通过使用所述分类的轨迹信息来学习区域、速度等。
主题在线学习单元120根据主要主题(诸如,作为示例的水平方向径直前进轨迹、左转弯轨迹、U形转弯轨迹或垂直方向径直前进轨迹)对由特征跟踪单元110确定的轨迹信息进行分类。
为此,如以下参照图2A和图2B所述,主题在线学习单元120以指示一束轨迹的文件为单位对输入图像进行分类,并通过使用在线学习方法(作为概率主题模型)来确定包括构成分类的文件的单词的主题的概率分布状态。例如,每一帧输入图像可以被划分成栅格,并且由单词来表示轨迹经过的栅格的位置。
此后,运动模式在线学习单元130对于由主题在线学习单元120确定的每个主题来学习区域、速度和方向。运动模式在线学习单元130推断确定的主题之间的时空相关性。可以通过使用K均值聚类方法来推断时空相关性。例如,如以下参照图5所述,在左转弯之后出现U形转弯的情况下,通过推断U形转弯和左转弯之间的时空相关性来学习运动模式。
当包括在每一帧输入图像中的轨迹偏离由运动模式在线学习单元130学习的预定义运动模式时,异常检测单元140确定出现异常行为。当包括在每一帧输入图像中的轨迹对应于学习到的运动模式的概率低时,异常检测单元140基于由运动模式在线学习单元130学习的运动模式的高斯学习结果(参考表达式10至表达式12)将包括在帧中的轨迹的运动模式确定为异常。另一方面,当包括在每一帧输入图像中的轨迹没有偏离由运动模式在线学习单元130学习的预定义运动模式时,异常检测单元140确定出现正常行为。
图2A和图2B是示出根据本公开的示例性实施例的在主题在线学习单元120(见图1)中通过使用在线潜在狄利克雷分配(OLDA)学习方法以文件为单位对输入图像进行分类并确定构成分类的文件的主题的概率分布状态的示例的示图。
OLDA是主要用于自然语言处理领域的概率主题模型。OLDA是根据主题对多个文件进行分类并确定文件中的单词包括在哪个主题中的技术。目前还以各种方式来使用OLDA,不仅用于自然语言处理领域,而且用于计算机图像处理领域。
在本公开的示例性实施例中,使用了将变分贝叶斯(VB)用作在线学习方法的OLDA学习方法。
通过使用OLDA学习方法,即使输入图像的情况不断变化,所述变化也可反映在学习模型中并且可以根据顺序的输入来不断更新输出结果。
此外,通过使用OLDA学习方法,即使多个正常运动模式相隔时间差地出现在输入图像中的任意局部区域中,也可以学习运动模式。
参照图2A,在本公开的示例性实施例中,以文件为单位对输入图像进行分类,其中,所述文件均指示一束轨迹Tr1至Trm,例如,文件d1201、文件d2202和文件d3203。在这种情况下,文件d1201、文件d2202和文件d3203由一束m个轨迹(m是自然数)构成。
图2B是示出通过使用在线学习方法(作为概率主题模型)获得的示图。所述示图是具有构成分类的文件的单词的主题的概率分布状态的示例。
根据本公开的示例性实施例,文件d1201分别由轨迹Tr1210至Trm213构成。轨迹Tr1210由指示轨迹的位置的一组单词220构成。
具体地讲,将每一帧输入图像划分为n乘n栅格。轨迹经过的栅格的位置由单词表示。例如,当第j轨迹经过第i栅格时,栅格的位置由Wji表示。以这种方式,第j轨迹由一组单词220(Wji,i=1,2,...,n)表示。此后,通过使用在线学习方法(作为概率主题模型)确定指示在每个轨迹中单词包括在哪个主题的概率分布。
在这种情况下,假设指示一束轨迹的文件由通过多项分布生成的多个主题构成。此外,假设构成输入图像的轨迹包括在潜在主题之一中,其中,所述潜在主题表示输入图像中的代表性的k个流。
参照图2B中的概率分布230,明显的是,构成轨迹Tr1210的一组单词220(Wji,i=1,2,...,n)很有可能包括在第一主题T1(径直前进轨迹)中。
类似地,轨迹Tr2211还被示为很有可能包括在第一主题T1(径直前进轨迹)中,轨迹Tr3212被示为很有可能包括在第二主题T2(左转弯轨迹)中,轨迹Trm213被示为很有可能包括在第三主题T3(右转弯轨迹)中。
在本公开的示例性实施例中,如图2B的示例性实施例中描述,以指示一束轨迹的文件为单位对输入图像进行分类,并确定构成文件的单词包括在哪个主题的概率分布状态。以这种方式,对于每个主题来聚类轨迹的位置。例如,可以针对整个输入图像来根据主题对轨迹进行分类。包括在第一主题T1(径直前进轨迹)中的轨迹可以聚类为轨迹Tr1210、轨迹Tr2211,…,包括在第二主题T2(左转弯轨迹)中的轨迹可以聚类为轨迹Tr3212,...,包括在第三主题T3(右转弯轨迹)中的轨迹可以聚类为轨迹Trm213,....。以这种方式,可以分析根据时区在输入图像中最频繁出现的主题的分布和对于每个主题的轨迹的位置。
图3是示出提取输入图像中的运动对象的特征并通过跟踪提取的特征随着时间的位置变化来确定轨迹信息的示例的示图。
参照图3,从t1的输入图像提取特征A310、特征B320、特征C330和特征D340。然后,跟踪这些提取的特征随着时间的位置变化。
例如,特征A的位置随着时间改变到310、311和312。此外,特征B的位置改变到320、321和322,特征C的位置改变到330、331和332,特征D的位置改变到340、341和342。跟踪所述特征的位置的这些变化。
图4是示出根据本公开的示例性实施例的示出轨迹信息段的方法的示例的示图。
轨迹Tr410={(x1,y1,1),(x2,y2,2),(x3,y3,3),(x4,y4,4)...,(xT,yT,T)}
参照图4,轨迹Tr410由一组单词wji和一组矢量差vjiτ来表示。一组单词wji指的是表示在输入图像中轨迹经过的栅格点的位置的一组单词。参照图4,wji420指示第j轨迹经过第i栅格,第j轨迹由一组单词(Wji,i=1,2,...,Nj)来表示。
一组矢量差表示单词内的实际特征的位置420和实际特征在τ帧之前的位置之间的一组矢量值的差vjiτ
参照图4,一组矢量差由一组以下项来表示:实际特征的位置420和在一帧之前的位置(x1,y1,1)421之间的矢量差vji1430、实际特征的位置420和在两帧之前的位置(x2,y2,2)422之间的矢量差vji2440、实际特征的位置420和在τ帧之前的位置(xT,yT,T)423之间的矢量差vjiτ450。优选地,如参照以下表达式6所描述,矢量差vjiτ450具有高斯分布并且以N(μ,Σ)的形式表示。
在这种情况下,可将矢量差表示为vji1=(Δxji1,Δyji1),vji2=(Δxji2,Δyji2),...,vjiτ=(Δxjiτ,Δyjiτ)。
高斯分布可以指示对于每个主题在τ帧之前单词相互分开的距离。可以通过使用关于在单词内轨迹经过的实际特征的位置和实际特征在τ帧之前的位置之间的矢量差vjiτ的信息来确定高斯分布。
图5是示出根据本公开的示例性实施例的使用K均值聚类方法来确定时空相关性的示例的示图。
如以下参照图8B详细描述,可以使用K均值聚类方法来确定文件和主题之间的概率分布θd
图6是示出根据本公开的示例性实施例的通过推断主题之间的时空相关性来学习运动模式的示例的示图。
在本公开的示例性实施例中,如上所述,图7中所示的在线学习模型用于对于每个主题来学习区域、速度和方向,并通过推断确定的主题之间的时空相关性来学习运动模式。
图7是示出根据本公开的示例性实施例的在线学习方法(作为概率主题模型)的图形的类型的示图。
在本公开的示例性实施例中,通过使用下面所描述的表达式1至表达式6将基于KLT跟踪技术确定的轨迹变形为基于图7中所示的概率主题模型的在线学习模型的形式。
在所述在线学习方法的处理中,假设轨迹zj包括在潜在主题中,其中,所述潜在主题表示输入图像中的代表性的k个流。潜在主题是图像中的主要运动模式,诸如径直前进、左转弯等。
此外,假设指示一束轨迹的文件由通过多项分布生成的多个主题构成。这样,文件中的主题的概率分布与通过状态sd生成的多项分布的参数概率矢量θd相关。这里,状态sd指的是对于每个时间单位出现的一组行为主题。因此,当确定随着时间的状态转移时,可以确定随着时间的主要行为。
在根据本公开的示例性实施例的概率主题模型中,使用了表达式1至表达式6。
s d | s d - 1 ~ Multi ( π s d - 1 ) , - - - ( 1 )
在表达式1中,sd表示当前状态,sd-1表示之前状态,Multi()表示多项分布。状态sd具有关于在顺序d中主要生成什么运动模式(或主题)的信息。
表达式1指示在当前顺序d中出现的特定状态sd是否只受到在之前顺序d-1中的特定的之前状态sd-1的影响。
θd|sd~Dir(α),(2)
在表达式2中,sd表示当前状态,θd表示多项分布的参数概率矢量,Dir()表示狄利克雷分布,α表示狄利克雷分布的超参数(hyper-parameter)。
表达式2指示θd以指示当整个模型被假设为贝叶斯定理(Bayesian)时的特定分布的概率的形式表示。
φk~Dir(β),(3)
在表达式3中,φk表示单词-主题分布,Dir()表示狄利克雷分布,β表示狄利克雷分布的超参数。
zjd~Multi(θd),(4)
表达式4假设变量z由θd导出。变量z用于确定每个单词是否具有特定的主题索引。θd是指示对应的文件包括在哪个主题中的概率分布。
w ji | z j , φ ~ Multi ( φ z j ) , - - - ( 5 )
表达式5指示每个单词在主题分布中生成。通过主题索引z来确定每个单词是否在特定的主题分布中生成。
在表达式5中,第j轨迹的一组单词Wji基于将(R表示R维)用作参数的多项分布。
v jiτ | z j , w ji , μ , Σ ~ N ( μ w ji z j τ , Σ w ji z j τ ) , - - - ( 6 )
在表达式6中,包括在每个单词中的矢量差vjiτ具有高斯分布并且以N(μ,Σ)的形式表示。矢量差vjiτ还可以指示速度。
然而,当通过使用以上表达式1至表达式6将使用KLT跟踪技术提取的轨迹变形为可以用于在线学习方法的形式时,会无法使用变形的输入来推断隐变量。在图6中示出的基于概率主题模型的在线学习方法,没有定义积分(integral),因此无法推断隐变量。
在本公开的示例性实施例中,为了解决这样的问题,近似方法(诸如抽样方法)被额外地应用于如图6中所示的基于概率主题模型的在线学习方法。
在本公开的示例性实施例中,作为近似方法的示例,使用了级联推断方法。图8A至图8C示出根据本公开的示例性实施例的级联推断方法的示例。
在本公开的示例性实施例中,使用了级联推断方法的三个步骤。通过将在每个步骤中推断的隐变量用作下个步骤中的观察值来在每个步骤中推断隐变量。
级联推断方法的三个步骤如下:
1.对于文件中的每个主题来聚类轨迹的位置的步骤。
2.确定主题之间的时空相关性的步骤。
3.通过将关于聚类的轨迹的信息用作观察值,以高斯形式对没有量化的运动模式进行建模的步骤。
参照图8A,通过对于文件中的每个主题来聚类轨迹的位置的步骤推断指示文件中的主题的直方图分布的多项分布的参数概率矢量θd820和821的值。通过使用推断的θd820和821的观察值来确定主题之间的时空相关性。通过确定主题之间的时空相关性的处理来确定一般运动模式。
此后,通过将包括单词的主题的信息值zdji830用作观察值,以高斯形式表示没有量化的运动模式。由此,执行学习。使用高斯形式的学习结果来计算包括在每一帧中的轨迹出现在预先学习的运动模式之内的概率,由此可以将具有低概率的轨迹确定为异常轨迹。
将如下详细描述每个上述步骤:
1.对于文件中的每个主题来聚类轨迹的位置的步骤。
首先,如图8A中所示,确定文件-主题分布θd820、主题zdj830和单词wdji840之间的结合概率。通过指示包括在文件800中的M个轨迹中的Nj个单词740(见图7)是否包括在特定的主题zdji830中来接近概率分布。然后,可以通过使用级联推断方法来推断文件-主题概率分布θd820和主题-单词概率分布821的隐变量值。以这种方式,可以对于每个主题来聚类轨迹的位置。以下,图9A和图9B用于描述对于每个主题来聚类轨迹的位置。
参照图8A,当通过表达式2和表达式3给出狄利克雷参数α810和狄利克雷参数β811时,文件-主题分布θd820、主题zdj830和单词wdji840之间的结合概率由表达式7所表示。
文件由通过多项分布生成的多个主题所构成。文件中的主题的概率分布与通过每个状态sd生成的多项分布的参数概率矢量θd相关。这里,多项分布的参数概率矢量θd820和参数概率矢量φ821表示文件中的主题的直方图分布。
P ( φ , θ d , { z dji } , { w dji } | α , β ) = p ( θ d | α ) p ( φ | β ) ∏ i , j p ( z dji | θ d ) p ( w dji | z dji , φ ) , - - - ( 7 )
在表达式7中,φ表示主题-单词概率分布821,文件-主题概率分布θd820表示文件中的主题的分布,zdji830表示主题,wdji840表示单词。在这种情况下,下标d是用于标识文件的标识符,j∈{1,2,...,M}表示包括在文件中的轨迹的索引,其中,M是文件中的轨迹的数量。
在表达式7中,通过使用VB的OLDA学习方法来执行推断。在这个处理中,将针对潜在变量的变分分布设置为如表达式8所表示。潜在变量是指在概率模型中实际上无法观察到的所有变量。
在表达式8中,表示用于接近表达式7的变分参数。在表达式8中,假设在过去有条件地相互依赖的变量彼此独立。使用接近将被输入的轨迹所转换成的信息的对数似然值的下限的方法来推断变分参数以这种方式,可以看出在每个轨迹中的单词是否具有特定的主题。通过改变的值来执行推断,使表达式8近似于表达式7。
此后,在本公开的示例性实施例中,通过对于文件800中的每M个轨迹形成单词wdji840zdji和主题zdji830之间的直方图并通过使用众数(mode)确定轨迹的主题来执行聚类。在这个处理中,可以通过使用众数来最小化误差的数量。
图9A和图9B是示出对于每个主题来聚类轨迹的位置的示例的示图。
参照图9A,确定对于轨迹Tr1910、Tr2920、Tr3930、....单词分别包括在哪些主题的概率分布911、921和931。然后,对于每个轨迹确定最有可能出现的主题,例如,轨迹Tr1910中的第一主题T1、轨迹Tr2920中的第一主题T1和轨迹Tr3930中的第二轨迹T2。以这种方式,分析针对输入图像的所有轨迹的主题。
然后,如图9B中所示,对于每个主题来聚类轨迹。
例如,执行聚类以使很可能出现第一主题T1的轨迹为Tr1、Tr2、Tr10、Tr11、Tr12、Tr17和Tr18,很可能出现第二主题T2的轨迹为Tr3、Tr5、Tr6和Tr21,很可能出现第三主题T3的轨迹为Tr4,很可能出现第四主题T4的轨迹为Tr7和Tr8,,很可能出现第k主题Tk的轨迹为Tr9。
2.确定主题之间的时空相关性的步骤。
图5和图6描述用于确定主题之间的时空相关性的基本构思。
图8B是用于确定主题之间的时空相关性的模型的构思示图。图8B中所示的概率分布与通过状态sd生成的多项分布参数θd相关。在这种情况下,每个状态sd表示在每个时间出现的一组行为主题。因此,当确定随着时间的转移状态时,可以确定在每个时间主要出现什么行为。
在这个步骤中,使用在对于每个主题来聚类文件中的轨迹的位置的步骤中确定的多项分布参数θd来确定状态之间的转移状态,以便确定主题之间的时空相关性。
在这个处理中,使用K均值聚类方法来选择用于确定时空相关性的最小状态组。
在确定主题之间的时空相关性的步骤中,θd表示K维矢量。通过将给定的K个主题出现的概率当作一个元素来假设K维矢量。
当给定D个直方图时,将所述直方图划分为Nc个组{C1,C2,...,CNC}。Nc是表示状态的数量的设计参数。为了确定时空相关性而选择的Nc个组的数量被设置为表达式9的最小值。
arg min { C n } n = 1 N c Σ n = 1 N c Σ θ ‾ d ∈ C n | | θ ‾ d - m n | | 2 - - - ( 9 )
在表达式9中,将一组Cn中的矢量的平均定义为mnd}玉表示对于指示主题的数量的每个K维的的归一化结果。在本公开的示例性实施例中,通过执行K均值聚类来计算{sd}和{θd}以便最小化表达式9的值。在这种情况下,K的值是Nc的值。此外,{sd}表示相应的多项式分布参数θd的聚类索引。在这种情况下,sd具有关于哪个主题主要出现的信息。
作为本公开的示例性实施例,当Nc为3时,为确定时空相关性而选择的组表示为如图8B中所示。在图8B中,sd-1850表示之前状态,sd860表示当前状态,sd+1870表示随后状态。在图8B中所示的模型以与隐马尔可夫模型(Hidden Markov Model)类似的形式来配置。
此外,通过转移概率矩阵Π,每个状态(例如,sd)以与隐马尔可夫模型类似的形式转移到另一状态(例如,sd-1或sd+1)。
隐马尔可夫模型是假设观察出现在马尔可夫链(markov chain)的状态下的模型。此时,实际上没有观察到构成马尔可夫链的状态。
作为本公开的示例性实施例,如上所述定义的参数mn是指基于图像中的行为的时空相关性而绑定的一般运动模式,诸如沿着水平方向运动的车辆的运动m1或者沿着垂直方向运动的车辆的运动m2。一组状态索引{sd}表示图像中的状态随着时间过去而出现的变化。
作为本公开的示例性实施例,通过使用为了使用渐进学习方法(graduallearning method)而指定的滑动窗口的大小,在线学习方法可以适应于图像中的变化。滑动窗口的大小与OLDA的小型批量的大小相关。
3.通过将关于聚类的轨迹的信息用作观察值,以高斯形式对没有量化的运动模式进行建模的步骤。
在这个步骤中,获得对于每个主题来对运动模式进行建模的结果。以单高斯模型的形式来存储经过构成图像的栅格的轨迹在t1..tT时间之前的位置。
图8C是用于通过将聚类的轨迹的信息Zj880用作观察值,以高斯形式对没有量化的运动模式进行建模的构思示图。在本公开的示例性实施例中,假设邻近位置的像素具有类似的行为模式而对于每个单元来确定行为模式。
μ w ji z j τ = ( 1 - ρ t ) μ w ji z j τ + ρ t v jiτ - - - ( 10 )
表达式10是表示高斯模型的增量更新的表达式。当将新值输入到表达式10时,更新均值和协方差。
在表达式10中,ρ表示学习速率。为了学习协方差,将平方的均值更新为如表达式11所表示。
Z w ji z j τ = ( 1 - ρ t ) Z w ji z j τ + ρ t vjiτ v jiτ T , - - - ( 11 )
通过使用表达式11的结果,可以获得如表达式12所表示的协方差矩阵。
Σ w ji z j τ = Z w ji z j τ - μ jiτ μ jiτ T · - - - ( 12 )
表达式12是用于增量地更新信号的表达式。
在本公开的示例性实施例中,通过使用上述表达式,以概率分布的形式对针对每个主题(每个运动模式)出现的行为和相关性进行建模。因此,在输入到运动模式在线学习单元130的行为中,由于概率分布而具有高概率值的行为被分类为正常行为,而不具有高概率值的行为被分类为异常行为,
如上所述,根据本公开的以上示例性实施例的中一个或更多个示例性实施例中,在诸如交叉点的复杂情况下,学习了图像中的对象(诸如,人)的主要运动,并且可以基于学习模型来自动搜索在图像中出现的异常行为。此外,可以不考虑交通情况的类型来执行检测异常行为的功能。例如,所述功能用于自动检测在各种实时监视的情况下的异常行为。当在交通情况监视系统中使用所述功能时,可以将违反交通的情况(诸如,走路不遵守交通规则或非法的U形转弯)自动检测为异常行为。此外,还可以将在图像中具有低出现频率的行为检测为在其他监视情况下的异常行为。
具体地讲,根据用于检测异常运动的方法和设备,即使多个正常运动模式相隔时间差地出现在图像中的任意局部区域中,也可以执行学习。此外,可以确定经过图像的每个位置的对象的速度和方向信息以及运动模式之间的时空关系。此外,所述方法和设备可以适应于随着时间变化在图像中的变化,并且即使对于复杂图像(诸如人群集中的图像)也可以具有强健的性能。
应该理解,这里所描述的示例性实施例应该被看作仅具有描述性意义而不是为了限制。对每个示例性实施例内的特征或方面的描述通常应该被看作可用于在其他示例性实施例中的其他类似的特征或方面。
虽然已经参照附图描述了本公开的一个或更多个示例性实施例,但是本领域的普通技术人员将理解,在不脱离由权利要求限定的本公开的精神和范围的情况下,可以对其进行形式和细节上的各种改变。

Claims (23)

1.一种用于检测异常运动的设备,所述设备包括:
特征跟踪单元,被配置为提取输入图像中的运动对象的特征,跟踪提取的特征的位置随着时间的变化,并确定提取的特征的轨迹;
主题在线学习单元,被配置为以作为成束的轨迹的文件为单位对输入图像进行分类,并通过使用作为概率主题模型的在线学习方法来确定包括在分类的文件中的主题的概率分布状态;
运动模式在线学习单元,被配置为对于每个确定的主题来学习速度和方向,并通过推断确定的主题之间的时空相关性来学习运动模式。
2.根据权利要求1所述的设备,还包括:异常检测单元,被配置为通过使用学习到的运动模式的高斯学习结果,响应于包括在每一帧输入图像中的轨迹被包括在学习到的运动模式中的概率低,将运动模式分类为异常运动模式。
3.根据权利要求1所述的设备,其中,所述特征跟踪单元被配置为通过使用Kanade-Lucas-Tomasi跟踪技术来提取输入图像中的运动对象的特征。
4.根据权利要求1所述的设备,其中,在所述主题在线学习单元中,文件包括通过多项分布生成的多个主题,指示构成文件的多个主题的概率分布状态的多项分布参数概率矢量值被推断以对于每个主题来聚类轨迹的位置。
5.根据权利要求1所述的设备,其中,指示构成文件的多个主题的概率分布状态的多项分布参数概率矢量值包括文件-主题概率分布(θd)和主题-单词概率分布
6.根据权利要求1所述的设备,其中,所述轨迹由一组单词wji和一组矢量差vjiτ来表示,所述一组单词由轨迹经过的栅格点位置表示,并且
其中,wji指示第j轨迹经过第i栅格,所述一组矢量差表示单词中的实际特征的位置与所述实际特征在τ帧之前的位置之间的一组矢量差vjiτ
7.根据权利要求6所述的设备,其中,单词wji基于多项分布,并且包括在单词中的矢量的差vjiτ具有高斯分布。
8.根据权利要求6所述的设备,其中,通过使用特定栅格的当前帧的位置值和在τ帧之前的特定栅格的实际位置值,对于每个单词位置来确定速度。
9.根据权利要求1所述的设备,其中,所述在线学习方法为在线潜在狄利克雷分配学习方法。
10.根据权利要求9所述的设备,其中,在所述在线潜在狄利克雷分配学习方法中,使用变分贝叶斯来推断潜在狄利克雷分配。
11.根据权利要求1所述的设备,其中,所述运动模式在线学习单元被配置为通过使用K均值聚类方法来推断时空相关性。
12.一种用于检测异常运动的设备,所述设备包括:
特征跟踪单元,被配置为提取输入图像中的运动对象的特征,跟踪提取的特征的位置随着时间的变化,并确定提取的特征的轨迹;
轨迹分类单元,被配置为以指示一束轨迹的文件为单位对输入图像进行分类,并通过使用作为概率主题模型的在线学习方法来推断多项分布参数概率矢量值,以便对于文件中的每个主题来聚类轨迹的位置,其中,所述多项分布参数概率矢量值指示构成每个文件的主题的直方图分布;
时空相关性推断单元,被配置为基于推断的多项分布参数概率矢量值来推断时空相关性;
运动模式在线学习单元,被配置为对于每个聚类的主题来学习速度和方向,并通过推断确定的主题之间的时空相关性来学习运动模式。
13.根据权利要求12所述的设备,还包括:异常检测单元,被配置为通过使用学习到的运动模式的高斯学习结果,响应于包括在每一帧输入图像中的轨迹被包括在学习到的运动模式中的概率低,将运动模式分类为异常运动模式。
14.根据权利要求12所述的设备,其中,所述多项分布参数概率矢量值包括文件-主题概率分布(θd)和主题-单词概率分布
15.根据权利要求12所述的设备,其中,所述时空相关性推断单元被配置为使用K均值聚类方法来推断时空相关性。
16.根据权利要求12所述的设备,其中,所述轨迹由一组单词wji和一组矢量差vjiτ来表示,所述一组单词由轨迹经过的栅格点位置表示,并且
其中,wji指示第j轨迹经过第i栅格,所述一组矢量差表示单词中的实际特征的位置与所述实际特征在τ帧之前的位置之间的一组矢量差vjiτ
17.根据权利要求16所述的设备,其中,单词wji基于多项分布,并且包括在单词中的矢量的差vjiτ具有高斯分布。
18.根据权利要求16所述的设备,其中,通过使用特定栅格的当前帧的位置值和在τ帧之前的特定栅格的实际位置值,对于每个单词位置来确定速度。
19.根据权利要求12所述的设备,其中,所述特征跟踪单元被配置为通过使用Kanade-Lucas-Tomasi跟踪技术来提取输入图像中的运动对象的特征。
20.根据权利要求12所述的设备,其中,所述在线学习方法为在线潜在狄利克雷分配学习方法。
21.一种检测异常运动的方法,所述方法包括:
提取输入图像中的运动对象的特征;
跟踪提取的特征的位置随着时间的变化;
确定提取的特征的轨迹;
以作为成束的轨迹的文件为单位对输入图像进行分类;
通过使用作为概率主题模型的在线学习方法来确定构成分类的文件的主题的概率分布状态;
对于每个确定的主题来学习速度和方向;
通过推断确定的主题之间的时空相关性来学习运动模式。
22.根据权利要求21所述的方法,还包括:通过使用学习到的运动模式的高斯学习结果,响应于包括在每一帧输入图像中的轨迹被包括在学习到的运动模式中的概率低,将运动模式分类为异常运动模式。
23.一种检测异常运动的方法,所述方法包括:
提取输入图像中的运动对象的特征;
跟踪提取的特征的位置随着时间的变化;
确定提取的特征的轨迹;
以指示一束轨迹的文件为单位对输入图像进行分类;
通过使用作为概率主题模型的在线学习方法来推断指示多项分布参数概率矢量值,以便对于文件中的每个主题来聚类轨迹的位置,其中,所述多项分布参数概率矢量值构成每个文件的主题的直方图分布;
基于推断的多项分布参数概率矢量值来推断时空相关性;
对于每个聚类的主题来学习速度和方向;
通过推断确定的主题之间的时空相关性来学习运动模式。
CN201410059276.7A 2013-02-25 2014-02-21 用于检测异常运动的方法和设备 Active CN104008390B (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2013-0020130 2013-02-25
KR20130020130 2013-02-25
KR1020130092658A KR102035184B1 (ko) 2013-02-25 2013-08-05 비정상 움직임 탐지 장치 및 방법
KR10-2013-0092658 2013-08-05

Publications (2)

Publication Number Publication Date
CN104008390A true CN104008390A (zh) 2014-08-27
CN104008390B CN104008390B (zh) 2018-11-06

Family

ID=51369039

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410059276.7A Active CN104008390B (zh) 2013-02-25 2014-02-21 用于检测异常运动的方法和设备

Country Status (2)

Country Link
US (1) US9286693B2 (zh)
CN (1) CN104008390B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105205145A (zh) * 2015-09-18 2015-12-30 中国科学院自动化研究所 一种轨迹建模与检索方法
CN107949865A (zh) * 2015-09-02 2018-04-20 富士通株式会社 异常检测装置、异常检测方法及异常检测程序
CN108694381A (zh) * 2018-05-11 2018-10-23 星络科技有限公司 对象定位方法和对象轨迹追踪方法
CN109190650A (zh) * 2018-07-02 2019-01-11 昆明理工大学 一种不规则形状的时空扫描聚类方法
CN109829382A (zh) * 2018-12-30 2019-05-31 北京宇琪云联科技发展有限公司 基于行为特征智能分析的异常目标预警追踪系统及方法
CN112232257A (zh) * 2020-10-26 2021-01-15 青岛海信网络科技股份有限公司 一种交通异常确定方法、装置、设备及介质
CN113366331A (zh) * 2018-12-03 2021-09-07 认知系统公司 基于先前概率确定从无线信号检测到的运动的位置

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130108949A (ko) * 2012-03-26 2013-10-07 한국전자통신연구원 영상부호 및 복호화 단계에서의 이중 객체검출 및 이동경로 정보를 이용한 영상 압축 방법
EP2790152B1 (en) * 2013-04-12 2015-12-02 Alcatel Lucent Method and device for automatic detection and tracking of one or multiple objects of interest in a video
US10334159B2 (en) * 2014-08-05 2019-06-25 Panasonic Corporation Correcting and verifying method, and correcting and verifying device
CN104504400B (zh) * 2015-01-08 2018-07-17 中国科学院重庆绿色智能技术研究院 一种基于在线行为建模的驾驶员异常行为检测方法
WO2016141473A1 (en) * 2015-03-10 2016-09-15 Tandemlaunch Inc. System and method for quantifying flow of movement and changes in quality of movement
US9805567B2 (en) * 2015-09-14 2017-10-31 Logitech Europe S.A. Temporal video streaming and summaries
KR101833359B1 (ko) * 2016-03-22 2018-02-28 고려대학교 산학협력단 차량의 외부 영상 빅데이터를 이용한 교통 정보 수집 방법 및 장치
CN106599867B (zh) * 2016-12-22 2020-02-14 中国科学院上海高等研究院 密集客流异常行为检测方法
CN108681745B (zh) * 2018-04-25 2020-12-25 腾讯科技(深圳)有限公司 异常信息的识别方法和装置、存储介质、电子装置
CN109886117A (zh) * 2019-01-21 2019-06-14 青岛海信网络科技股份有限公司 一种目标行为检测的方法和设备
CN111104792B (zh) * 2019-12-13 2023-05-23 浙江工业大学 基于主题模型的交通轨迹数据语义分析与可视化方法
US10904446B1 (en) 2020-03-30 2021-01-26 Logitech Europe S.A. Advanced video conferencing systems and methods
US10972655B1 (en) 2020-03-30 2021-04-06 Logitech Europe S.A. Advanced video conferencing systems and methods
US10951858B1 (en) 2020-03-30 2021-03-16 Logitech Europe S.A. Advanced video conferencing systems and methods
US10965908B1 (en) 2020-03-30 2021-03-30 Logitech Europe S.A. Advanced video conferencing systems and methods

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1352439A (zh) * 2000-11-14 2002-06-05 三星电子株式会社 对象行为建模方法
US20090112588A1 (en) * 2007-10-31 2009-04-30 International Business Machines Corporation Method for segmenting communication transcripts using unsupervsed and semi-supervised techniques
US20120170802A1 (en) * 2010-12-30 2012-07-05 Pelco Inc. (Clovis, CA) Scene activity analysis using statistical and semantic features learnt from object trajectory data

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6728404B1 (en) * 1991-09-12 2004-04-27 Fuji Photo Film Co., Ltd. Method for recognizing object images and learning method for neural networks
DE69634221T2 (de) * 1995-03-31 2006-05-18 Canon K.K. Verfahren und Gerät zur Verarbeitung visueller Information
JP3512992B2 (ja) * 1997-01-07 2004-03-31 株式会社東芝 画像処理装置および画像処理方法
US7068833B1 (en) * 2000-08-30 2006-06-27 Kla-Tencor Corporation Overlay marks, methods of overlay mark design and methods of overlay measurements
US20050196015A1 (en) * 2004-03-02 2005-09-08 Trw Automotive U.S. Llc Method and apparatus for tracking head candidate locations in an actuatable occupant restraining system
US8724891B2 (en) * 2004-08-31 2014-05-13 Ramot At Tel-Aviv University Ltd. Apparatus and methods for the detection of abnormal motion in a video stream
US8041103B2 (en) * 2005-11-18 2011-10-18 Kla-Tencor Technologies Corp. Methods and systems for determining a position of inspection data in design data space
JP4967666B2 (ja) * 2007-01-10 2012-07-04 オムロン株式会社 画像処理装置および方法、並びに、プログラム
HUP0700391A2 (en) 2007-06-05 2008-12-29 Zsombor Lazar Method of determining an intrusion into a monitored area and system for generating output signals in response to such intrusion
US20090016610A1 (en) * 2007-07-09 2009-01-15 Honeywell International Inc. Methods of Using Motion-Texture Analysis to Perform Activity Recognition and Detect Abnormal Patterns of Activities
US8169481B2 (en) * 2008-05-05 2012-05-01 Panasonic Corporation System architecture and process for assessing multi-perspective multi-context abnormal behavior
US8253564B2 (en) * 2009-02-19 2012-08-28 Panasonic Corporation Predicting a future location of a moving object observed by a surveillance device
AU2009243442B2 (en) * 2009-11-30 2013-06-13 Canon Kabushiki Kaisha Detection of abnormal behaviour in video objects
US20110137898A1 (en) * 2009-12-07 2011-06-09 Xerox Corporation Unstructured document classification
EP2615596A4 (en) * 2010-09-08 2017-12-06 Toyota Jidosha Kabushiki Kaisha Moving-object prediction device, virtual-mobile-object prediction device, program, mobile-object prediction method, and virtual-mobile-object prediction method
TWI420906B (zh) * 2010-10-13 2013-12-21 Ind Tech Res Inst 興趣區域之追蹤系統與方法及電腦程式產品
US8660368B2 (en) * 2011-03-16 2014-02-25 International Business Machines Corporation Anomalous pattern discovery
US9158976B2 (en) * 2011-05-18 2015-10-13 International Business Machines Corporation Efficient retrieval of anomalous events with priority learning
JP5793353B2 (ja) * 2011-06-20 2015-10-14 株式会社東芝 顔画像検索システム、及び顔画像検索方法
US20130030875A1 (en) * 2011-07-29 2013-01-31 Panasonic Corporation System and method for site abnormality recording and notification
US9286678B2 (en) * 2011-12-28 2016-03-15 Pelco, Inc. Camera calibration using feature identification
CN104254873A (zh) * 2012-03-15 2014-12-31 行为识别系统公司 视频监控系统中的警报量归一化
IN2015DN03877A (zh) * 2012-11-12 2015-10-02 Behavioral Recognition Sys Inc

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1352439A (zh) * 2000-11-14 2002-06-05 三星电子株式会社 对象行为建模方法
US20090112588A1 (en) * 2007-10-31 2009-04-30 International Business Machines Corporation Method for segmenting communication transcripts using unsupervsed and semi-supervised techniques
US20120170802A1 (en) * 2010-12-30 2012-07-05 Pelco Inc. (Clovis, CA) Scene activity analysis using statistical and semantic features learnt from object trajectory data

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MATTHEW D. HOFFMAN ET AL.: "Online Learning for Latent Dirichlet Allocation", 《ACM》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107949865A (zh) * 2015-09-02 2018-04-20 富士通株式会社 异常检测装置、异常检测方法及异常检测程序
CN107949865B (zh) * 2015-09-02 2021-10-29 富士通株式会社 异常检测装置、异常检测方法
CN105205145A (zh) * 2015-09-18 2015-12-30 中国科学院自动化研究所 一种轨迹建模与检索方法
CN108694381A (zh) * 2018-05-11 2018-10-23 星络科技有限公司 对象定位方法和对象轨迹追踪方法
CN109190650A (zh) * 2018-07-02 2019-01-11 昆明理工大学 一种不规则形状的时空扫描聚类方法
CN113366331A (zh) * 2018-12-03 2021-09-07 认知系统公司 基于先前概率确定从无线信号检测到的运动的位置
CN109829382A (zh) * 2018-12-30 2019-05-31 北京宇琪云联科技发展有限公司 基于行为特征智能分析的异常目标预警追踪系统及方法
CN109829382B (zh) * 2018-12-30 2020-04-24 北京宇琪云联科技发展有限公司 基于行为特征智能分析的异常目标预警追踪系统及方法
CN112232257A (zh) * 2020-10-26 2021-01-15 青岛海信网络科技股份有限公司 一种交通异常确定方法、装置、设备及介质
CN112232257B (zh) * 2020-10-26 2023-08-11 青岛海信网络科技股份有限公司 一种交通异常确定方法、装置、设备及介质

Also Published As

Publication number Publication date
US9286693B2 (en) 2016-03-15
CN104008390B (zh) 2018-11-06
US20140241619A1 (en) 2014-08-28

Similar Documents

Publication Publication Date Title
CN104008390A (zh) 用于检测异常运动的方法和设备
EP2659456B1 (en) Scene activity analysis using statistical and semantic feature learnt from object trajectory data
Wang et al. Extracting traffic primitives directly from naturalistically logged data for self-driving applications
Piciarelli et al. Surveillance-oriented event detection in video streams
CN102378992A (zh) 关节状区域检测装置及其方法
Ranjith et al. Anomaly detection using DBSCAN clustering technique for traffic video surveillance
Varadarajan et al. Bridging the past, present and future: Modeling scene activities from event relationships and global rules
GB2443739A (en) Detecting image regions of salient motion
Choi et al. Weakly supervised power line detection algorithm using a recursive noisy label update with refined broken line segments
CN104717468A (zh) 基于集群轨迹分类的集群场景智能监控方法及系统
Meher et al. Efficient method of moving shadow detection and vehicle classification
Lalos et al. Efficient tracking using a robust motion estimation technique
KR102035184B1 (ko) 비정상 움직임 탐지 장치 및 방법
Bennett et al. Enhanced tracking and recognition of moving objects by reasoning about spatio-temporal continuity
EP3336746A1 (en) System and method of video content filtering
Elangovan et al. A survey of imagery techniques for semantic labeling of human-vehicle interactions in persistent surveillance systems
Bastani et al. A particle filter based sequential trajectory classifier for behavior analysis in video surveillance
Yu et al. Gaussian-Poisson mixture model for anomaly detection of crowd behaviour
Santhiya et al. Abnormal crowd tracking and motion analysis
Duque et al. The OBSERVER: An intelligent and automated video surveillance system
Anikin et al. Identification of Vehicle Trajectory Anomalies on Streaming Video
Patino et al. Video activity extraction and reporting with incremental unsupervised learning
Chen et al. Estimation of people movement in video based on optical flow block method and motion maps
Liao et al. Gaussian process for activity modeling and anomaly detection
Lotfi Trajectory clustering and behaviour retrieval from traffic surveillance videos

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C53 Correction of patent of invention or patent application
CB02 Change of applicant information

Address after: Gyeongnam Changwon City, South Korea

Applicant after: HANWHA TECHWIN Co.,Ltd.

Applicant after: SEOUL NATIONAL University INDUSTRY FOUNDATION

Address before: Gyeongnam Changwon City, South Korea

Applicant before: Samsung Techwin Co.,Ltd.

Applicant before: SEOUL NATIONAL University INDUSTRY FOUNDATION

COR Change of bibliographic data

Free format text: CORRECT: APPLICANT; FROM: SAMSUNG TAI KEWEI CO., LTD. TO: HANWHA TECHWIN CO., LTD.

Free format text: CORRECT: ADDRESS; FROM:

C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP01 Change in the name or title of a patent holder

Address after: Gyeongnam Changwon City, South Korea

Co-patentee after: SEOUL NATIONAL University INDUSTRY FOUNDATION

Patentee after: HANWHA AEROSPACE Co.,Ltd.

Address before: Gyeongnam Changwon City, South Korea

Co-patentee before: SEOUL NATIONAL University INDUSTRY FOUNDATION

Patentee before: HANWHA TECHWIN Co.,Ltd.

CP01 Change in the name or title of a patent holder
TR01 Transfer of patent right

Effective date of registration: 20190228

Address after: Gyeonggi Do city of South Korea

Co-patentee after: SEOUL NATIONAL University INDUSTRY FOUNDATION

Patentee after: HANWHA TECHWIN Co.,Ltd.

Address before: Gyeongnam Changwon City, South Korea

Co-patentee before: SEOUL NATIONAL University INDUSTRY FOUNDATION

Patentee before: HANWHA AEROSPACE Co.,Ltd.

TR01 Transfer of patent right
CP01 Change in the name or title of a patent holder

Address after: Gyeonggi Do city of South Korea

Patentee after: Hanhua Vision Co.,Ltd.

Patentee after: SEOUL NATIONAL University INDUSTRY FOUNDATION

Address before: Gyeonggi Do city of South Korea

Patentee before: HANWHA TECHWIN Co.,Ltd.

Patentee before: SEOUL NATIONAL University INDUSTRY FOUNDATION

CP01 Change in the name or title of a patent holder