CN102054176A - 用计算机对运动目标的场景图像建立语义场景模型的方法 - Google Patents

用计算机对运动目标的场景图像建立语义场景模型的方法 Download PDF

Info

Publication number
CN102054176A
CN102054176A CN 201010603240 CN201010603240A CN102054176A CN 102054176 A CN102054176 A CN 102054176A CN 201010603240 CN201010603240 CN 201010603240 CN 201010603240 A CN201010603240 A CN 201010603240A CN 102054176 A CN102054176 A CN 102054176A
Authority
CN
China
Prior art keywords
target
sorter
track
scene
utilize
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN 201010603240
Other languages
English (en)
Other versions
CN102054176B (zh
Inventor
卢汉清
王金桥
张天柱
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JIANGSU RUIAOFENG SOFTWARE TECHNOLOGY Co Ltd
Original Assignee
Institute of Automation of Chinese Academy of Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Automation of Chinese Academy of Science filed Critical Institute of Automation of Chinese Academy of Science
Priority to CN201010603240A priority Critical patent/CN102054176B/zh
Publication of CN102054176A publication Critical patent/CN102054176A/zh
Application granted granted Critical
Publication of CN102054176B publication Critical patent/CN102054176B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明用计算机对运动目标的场景图像建立语义场景模型的方法,包括步骤S1:利用图像处理设备输入的视频数据,得到待处理的运动目标图像数据,进行目标检测和跟踪;步骤S2:基于协同训练方法学习行人和车的分类器,减少训练标注样本和充分利用目标的多种特征;根据学习得到的分类器,将目标分为行人和车辆;步骤S3:对于每类目标的轨迹进行轨迹聚类,得到目标的轨迹聚类;步骤S4:根据目标的轨迹聚类,得到每种轨迹的分布区域,并且利用均值漂移算法得到每种轨迹分布区域的主要轨迹和轨迹的入点和出点,从而得到有一定语义的区域和实现应用。

Description

用计算机对运动目标的场景图像建立语义场景模型的方法
技术领域
本发明属于图像处理技术领域,涉及一种用于对视频监控中的事件进行分析的语义场景模型学习方法。
背景技术
随着城市的发展和摄像头的普及,基于视频分析的智能交通管理系统越来越受到重视。这种智能交通管理系统能够通过对视频数据处理分析,得到交通场景的运动模式,从而对一些违反交通规则等异常事件进行自动报警,避免大量人工处理。然而由于交通场景中运动目标种类较多和运动模式的复杂,自动的学习一个鲁棒的语义场景模型仍然是一个很有挑战的问题。
传统的语义场景模型的学习方法都是基于轨迹分析。一种是用目标分类的方法进行轨迹分析;这种方法利用场景上下文信息,如目标的位置,目标的面积大小,目标的运动速度等,但是,在视频监控的场景中,由于低分辨率,阴影,遮挡,不同视角等的影响,仅仅用这些信息得到的目标分类效果仍然不好。另外一种是用轨迹聚类的方法;这种方法可以总结为两类,一类是基于空间距离的方法,另外一种是基于空间分布的方法。基于空间距离的方法仅仅考虑了轨迹间的相似度,这种方法有以下缺点:对异常事件缺少概率解释,需要知道聚类个数,计算量大和这些相似度可能并不能反应真实的度量。为解决这些问题,提出了基于空间分布的方法,但是存在的方法没有考虑轨迹的完整性。
发明内容
为了解决公开技术方案存在的目标跟踪存在的误差、计算量大、相似度并不能反应真实的度量等技术问题,本发明的目的是能够避免目标跟踪带来的误差、计算速度快、能提高视频监控系统在交通场景中管理的智能性的语义场景模型学习方法,为此本发明提供一种基于目标分类和轨迹聚类的语义场景模型学习方法。
为达成所述目的,本发明提供的用计算机对运动目标的场景图像建立语义场景模型的方法,该方法包括以下步骤:
步骤S1:利用图像处理设备输入的视频数据,得到待处理的运动目标图像数据,对目标进行检测和跟踪;
步骤S2:基于协同训练方法学习行人和车的分类器,减少训练标注样本和充分利用目标的多种特征;根据学习得到的分类器,将目标分为行人和车辆;
步骤S3:对于每类目标的轨迹进行轨迹聚类,得到目标的轨迹聚类结果;
步骤S4:根据目标的轨迹聚类,得到每种轨迹的分布区域,并且利用均值漂移算法得到每种轨迹分布区域的主要轨迹和轨迹的入点和出点,从而得到有一定语义的区域和实现应用。
其中,所述目标的多种特征是场景上下文信息和目标的表象信息。
其中,所述场景上下文信息为目标的大小,面积,长宽比。
其中,所述目标的表象信息为局部二值模型特征。
其中,根据分类器的分类结果,将目标分为行人和车辆。
其中,所述的分类器是利用基于线性判别分析的分类器和基于提升算法的分类器的协同学习得到最终的分类器;该分类器利用输入的样本xt,分别用线性判别分析的分类器和提升算法的分类器给标签yt然后,基于这些标注的训练样本更新分类器。
其中,所述轨迹聚类的步骤是:
步骤S31:利用二次曲线参数化描述轨迹的完整性,基于轨迹的完整性特征,利用高斯混合模型学习每类目标的所有运动模式;
步骤S32:通过采取在线更新的方式,根据高斯的权重滤除掉异常的轨迹,并且学习得到交通场景中的运动模式;
步骤S33:利用图切割算法,对学习得到的运动模式进行聚类。
其中,所述的协同学习(Co-training)算法能利用特征1的分类器和特征2的分类器对样本xt进行自动标注类标yt
Figure BDA0000040213770000022
从而减少人工标注样本的数量,并且能利用多种特征的性能提升分类器的分类性能。
本发明的有益效果:本发明通过学习一个鲁棒的语义场景模型来进行视频监控系统中的事件分析。在智能监控系统中,事件分析是一个基本的任务,由于运动目标有不同的类别和不同的运动模式,因此,通过学习一个有效的语义场景模型对事件进行分析仍然是一个很困难的问题。基于这些困难,本发明为事件分析提出了一个新颖的基于语义场景模型学习的框架。在这个框架里,检测得到的运动目标首先通过协同训练的分类器分为行人和车辆;这种分类器考虑了目标的多种特征,并且训练时需要的标签样本数量较少。基于这个分类结果,本发明能够自动的分别学习行人和车辆的运动模式。为了有效的学习和聚类这些运动模式,本发明提出了基于图的方法。首先,目标的轨迹被参数化,监控场景的图片被分为多个方块,每个方块被认为是图的一个节点。基于轨迹的这些参数,高斯混合模型被采用来学习每个方块的运动模式。最后,通过图切割算法,这些相同的运动模式被聚类,从而,相同的轨迹被聚类然后得到语义场景模型。在交通场景中,实验结果表明本发明提出的方法是有效的。基于协同训练学习分类器,能利用运动目标的多种特征,能减少标签样本的数量,从而减少了大量的人力获取训练样本。
基于协同训练方法学习行人和车的分类器,其特点之一在于能利用目标的多种特征。其特点之二在于能减少标签样本的数量,从而减少了大量的人力获取训练样本。
利用二次曲线参数化描述的轨迹特征,这种轨迹特征描述了轨迹的完整性,在一定程度上能够避免目标跟踪带来的误差;高斯混合模型能有效的描述多种运动模式,通过在线的更新方式并根据高斯混合模型的权重滤除掉异常的轨迹,另外每个高斯的权重可以看着是每种运动模式的重要性度量,并且计算速度快。图切割方法与基本聚类算法(K-means)相比能够利用运动模式的领域信息,从而得到更好的聚类结果。
基于学习得到的语义场景模型,可以用于交通场景中异常违规事件检测和混叠目标分割,从而能提高视频监控系统在交通场景中管理的智能性。
附图说明
图1A是本发明的语义场景模型学习框图;
图1B是本发明图1A中的分类器的流程图;
图1C是本发明图1A中的轨迹聚类的流程图;
图2是协同学习(Co-training)算法框图;
图3a、图3b是图切割算法原理;
图4是场景S1中运动模式聚类结果;
图5是场景S2中运动模式聚类结果;
图6是在场景S2中,方法I、II、III的轨迹聚类结果;
图7是场景S1中语义模型学习结果;
图8是场景S2中语义模型学习结果;
图9a至图9f是基于学习得到的语义场景模型;
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明进一步详细说明。
专利通过学习一个鲁棒的语义场景模型来进行视频监控系统中的事件分析。在智能监控系统中,事件分析是一个基本的任务,并且变成一个热点研究领域。但是,运动目标由于有不同的类别和不同的运动模式,因此,通过学习一个有效的语义场景模型来进行事件分析仍然是一个很困难的问题。基于这些困难,我们为事件分析提出了一个新颖的基于语义场景模型学习的框架。在这个框架里,检测得到的运动目标首先通过协同训练的分类器分为行人和车辆;这种分类器考虑了目标的多种特征,并且训练时需要的标签样本数量较少。基于这个分类结果,我们的系统能够自动的分别学习行人和车辆的运动模式。为了有效的学习和聚类这些运动模式,我们提出了基于图的方法。首先,目标的轨迹被参数化,监控场景的图片被分为多个方块,每个方块被认为是图的一个节点。基于轨迹的这些参数,高斯混合模型被采用来学习每个方块的运动模式。最后,通过图切割算法,这些相同的运动模式被聚类,从而,相同的轨迹被聚类然后得到语义场景模型。在交通场景中,实验结果表明我们提出的算法是有效的。
技术方案包括:(1)基于协同训练方法学习分类器;(2)轨迹聚类;(3)语义场景模型的学习和应用。利用图像处理设备检测输入的视频数据,得到待处理的运动目标图像数据;然后基于协同训练方法学习行人和车的分类器,其特点之一在于能利用目标的多种特征,如:场景上下文信息和目标的表象信息。其中场景上下文信息为目标的大小,面积,长宽比等,目标的表象信息为局部二值模型特征。其特点之二在于能减少标签样本的数量,从而减少了大量的人力获取训练样本。根据分类器的分类结果,可以将目标分为行人和车辆。然后对于每类目标的轨迹进行轨迹聚类。轨迹聚类主要分为三个步骤:首先利用二次曲线参数化描述轨迹的完整性,基于轨迹的完整性特征,利用高斯混合模型学习每类目标的所有运动模式;通过采取在线更新的方式,根据高斯的权重滤除掉异常的轨迹。最后利用图切割算法,对学习得到的运动模式进行聚类。根据轨迹聚类的结果,可以得到每种轨迹的分布区域,并且利用均值漂移算法得到每种轨迹分布区域的主要轨迹和轨迹的入点和出点,从而得到有一定语义的区域。
本发明是利用计算机实现了目标分类和轨迹聚类,提出了一个鲁棒的对运动目标的场景图像建立语义场景模型学习方法,从而能方便智能交通监控系统的管理。本发明的系统框架如图1A示出本发明语义场景模型学习框图,包括步骤如下:
步骤S1:利用图像处理设备输入的视频数据,得到待处理的运动目标图像数据,对目标进行检测和跟踪;
步骤S2:基于协同训练方法学习行人和车的分类器,减少训练标注样本和充分利用目标的多种特征;根据学习得到的分类器,将目标分为行人和车辆;
步骤S3:对于每类目标的轨迹进行轨迹聚类,得到目标的轨迹聚类;
步骤S4:根据目标的轨迹聚类,得到每种轨迹的分布区域,并且利用均值漂移算法得到每种轨迹分布区域的主要轨迹和轨迹的入点和出点,从而得到有一定语义的区域和实现应用。
(一)、如图1B示出分类器的子流程图
目标分类部分我们利用协同训练的方法得到行人和车辆的分类器。图2描述了协同训练算法的思想,这种方法考虑了第t个目标xt的多种特征,对于每种特征,根据初始标签样本,训练一个分类器,然后每个分类器给无标签样本标签yt
Figure BDA0000040213770000061
将分数高的无标签样本加入训练集中,然后训练新的分类器。通过两个分类器互相反复推荐的学习过程,从而可以利用目标的多种特征和无标签样本训练分类器。这种训练方法训练时需要的标签样本数量较少,从而减少了大量的人力,通过反复训练,分类器的分类性能大大提高,超出了原有方法的分类结果。
本发明中,采用基于线性判别分析的分类器(LDA-Based Classifier)和基于提升算法的分类器(AdaBoost Classifier)相互协同学习训练分类器。线性判别分析的分类器采用场景上下文信息,如:目标的位置坐标,目标的大小,目标的运动速度,运动方向,长宽比等。然后利用线性判别分析(LDA)得到一个最优的投影方向来分开正样本和负样本。线性判别分析(LDA)个g定义为:
g=w′r        (1)
w=(S1+S2)-1(u1-u2)是投影方向,r是新的样本特征,u1和u2分别是行人和车辆的均值,S1和S2是协方差矩阵;其中,
Figure BDA0000040213770000062
Figure BDA0000040213770000063
t=1,2,nt是样本个数。rj是样本的场景上下文特征。基于提升算法的分类器是利用局部二值模型特征(Local Binary Pattern),用提升算法(AdaBoost)选取有判别力的特征组成分类器。Adaboost是一种迭代算法,其核心思想是针对同一个训练集训练不同的分类器(弱分类器),然后把这些弱分类器集合起来,构成一个更强的最终分类器(强分类器)。其算法本身是通过改变数据分布来实现的,它根据每次训练集之中每个样本的分类是否正确,以及上次的总体分类的准确率,来确定每个样本的权值。将修改过权值的新数据集送给下层分类器进行训练,最后将每次训练得到的分类器最后融合起来,作为最后的决策分类器。使用提升算法的分类器可以排除一些不必要的训练数据,并将重点放在关键的训练数据上面。局部二值模型特征(LBP)的定义为:
Figure BDA0000040213770000071
gc是中心的灰度值,gi是8领域的灰度值,对于变量x,s(x)函数定义如下:
Figure BDA0000040213770000072
我们从所需标签样本数量和分类器的性能两个方面比较我们用协同训练(Co-training)方法学习的分类器的优越性。我们在5个场景中做了比较试验,结果如表1所示。其中,基于提升算法的分类器是用20213个正样本(行人)和41934(车辆)个负样本训练得到;对于每一个场景,基于线性判别分析的分类器是用12000个正样本和35000个负样本训练;我们的分类器是用2720个正样本和6716个负样本,然后用协同训练(Co-training)的方法得到的。与基于线性判别分析的分类器和基于提升算法的分类器相比,我们的方法所需要的标签样本数量少,但是我们的分类性能在5个场景中都有明显的提高。在场景5中,有超过10个百分点的提高。
(二)、如图1C示出轨迹聚类的子流程图
轨迹聚类部分是基于目标分类部分的结果,对每一类目标的运动模式进行学习,通过聚类得到每类目标的各种运动模式。这部分主要包括三部分内容,(1)、轨迹描述(Trajectory Description);(2)、运动模式学习(Learning Motion Patterns by GMM Algorithm);(3)、运动模式聚类(Clustering Motion Patterns by Graph-Cut Algorithm)。
(1)、轨迹描述
我们采用二次曲线y=a×x2+b×x+c描述轨迹,根据目标跟踪得到的点拟合这个二次曲线,从而得到轨迹的描述参数(a b c)。考虑到轨迹的运动方向,我们把一个轨迹T描述为T=(a,b,c,v)′。
(2)、运动模式学习
为了有效的学习运动模式,我们将监控场景得到的图像分成R×C个块(block),其中R是行数,C是列数,每个块有多个运动模式,我们利用高斯混合模型(GMM)来学习每个块所有的运动模式。对于某个块,我们可以得到一系列经过该块的所有轨迹
Figure BDA0000040213770000073
其中,a,b,c是轨迹参数,v是速度,t是样本下标,N是所有轨迹个数。这些轨迹能够用来学习这个块的运动模式的参数分布。对于一个轨迹Tt,属于某个块的概率可以写成:
P ( T t ) = Σ i = 1 K w i , t × η ( T t , u i , t , Σ i , t ) - - - ( 2 )
wi,t是第i个高斯在时间t时的权重,η是概率密度函数,
Figure BDA0000040213770000082
是均值,∑i,t是协方差矩阵,
Figure BDA0000040213770000083
在学习过程中,这K个高斯分布根据权重wi,t排序,对于没有匹配的高斯,参数u和σ保持不变;而与Tt匹配的第一个高斯,它的参数更新过程如下:
wi,t=(1-α)wi,t-1+α(Mi,t)
ui,t=(1-ρ)ui,t-1+ρTt
σ i , t 2 = ( 1 - ρ ) ρ i , t - 1 2 + ρ ( T t - u i , t ) ′ ( T t - u i , t ) - - - ( 3 )
ρ=αη(Tt|ui,t,σi,t)
其中α是学习率。通过GMM算法,对于块(i,j),它的第k个运动模式为:
g → i , j k = ( a ij k , b ij k , c ij k , v ij k ) ′ .
(3)、运动模式聚类
经过(2)中的运动模式学习之后,每个块都由各种运动模式来描述,接下来是将有相同运动模式的块聚类在一起。一个简单的方法就是用K-means算法,但是这种算法没有考虑到每个块间的空间关系,而空间领进的块,很可能是属于同一类的。因此我们采取图切割算法(Graph-Cut)聚类这些运动模式。
首先,每个块(block)本看作图的一个节点(node),每个块间的连线可以看做图的边(edge).基于此,我们可以用马尔科夫随机场(Markov Random Field)来描述。我们的目标是最小化下面的能量函数:
E ( L ) = Σ p ∈ S D p ( L p ) + Σ ( p , q ) ∈ N V p . q ( L p , L q ) - - - ( 4 )
其中,S是所有节点的集合,N是所有的领域系统,标签集合是{0,1}。Dp(Lp)表示给块(block)p的标签为Lp时的代价,Vp,q(Lp,Lq)表示空间领域块间给标签后的惩罚。它们的定义如下:
D p ( L p ) = d 1 d 1 + d 2 if L p = 1 d 2 d 1 + d 2 if L p = 0 - - - ( 5 )
V p , q ( L p , L q ) = 0 if L p = L q d 0 otherwise - - - ( 6 )
其中,
Figure BDA0000040213770000093
Figure BDA0000040213770000094
d1和d2表示块(i,j)的运动模式与
Figure BDA0000040213770000095
Figure BDA0000040213770000096
的相似度。
Figure BDA0000040213770000097
是参考运动模式,
Figure BDA0000040213770000098
dmean是所有块与
Figure BDA0000040213770000099
的距离的平均值。d0是一个常数,用来惩罚标签跳跃。它是集合{dij|i=1,2,...,R;j=1,2,...,C}的标准差,
Figure BDA00000402137700000910
模型建立后,我们用图切割算法优化求解,从而将各种不同的运动模式聚类。基于聚类结果,我们可以得到各种语义场景区域,属于同一个语义区域的轨迹被作为一类。图切割的算法思想如图3a、图3b所示:图3(b)是图3(a)的一个分割。这种分割算法不仅考虑点p和q与源和汇的关系,还考虑了它们之间的领域关系。
我们在两个交通场景中测试了我们的轨迹聚类效果。每个场景中运动模式的聚类结果如图4和图5。从这两个结果图可以看出,我们的方法能学习出主要的运动模式,如图4场景中的6个主要运动模式和场图5景中的8个主要运动模式。
从这些图可以看出,我们的方法能有效的学习出交通场景中各种重要的运动模式,并能将相同的运动模式有效的聚类。基于运动模式的聚类结果,我们可以将具有相同运动模式的轨迹进行聚类。图6是图5场景中轨迹聚类的结果。其中图6a是方法I利用场景上下文信息,Hausdorff距离作为相似度度量和普聚类(Spectral Clustering)的结果;图6b是方法II直接利用轨迹的参数作为特征,Euclidean距离作为相似度度量和普聚类(Spectral Clustering)的结果;图6c是是我们的方法。从图6a至图6c的结果可以看出,我们的方法的聚类效果要好于其它方法,说明了我们的方法的有效性。另外,我们定量的与方法I、II比较,结果如表2所示,表1是分类结果比较;
表1分类结果比较
Figure BDA0000040213770000101
表2对于场景S1,I、II、III三个方法的准确率
(Precision)和召回率(Recall)的比较结果
Figure BDA0000040213770000102
Figure BDA0000040213770000111
其中tp是true positive,fn是false negative,fp是false positive.准确率(Precision)和召回率(Recall)被定义为:
Pr ecision = tp tp + fp
                                                (7)
Recall = tp tp + fn
从表2可以看出,对于图4场景中的六种运动模式,我们基于空间分布的轨迹聚类方法取得最好的效果。
(三)、语义场景模型学习和应用
根据轨迹聚类的结果,可以得到轨迹的分布区域,然后我们采取模式搜索算法搜索主要的轨迹和轨迹的入点和出点。均值飘逸算法是一个迭代的算法,即先算出当前点的偏移均值,移动该点到其偏移均值,然后以此为新的起始点,继续移动,直到满足一定的条件结束。根据学习的语义场景模型,我们可以检测交通系统中的异常违规事件和分割混叠目标。
每个场景中语义场景模型的学习结果如图7和图8所示。这两个图中红色的线表示主要的运动轨迹,白色箭头表示运动的方向,青绿色的区域表示该语义场景模型的分布区域。从图中可以看出我们的方法能有效的学习出各个场景的语义场景模型。
基于学习得到的语义场景模型,可以用于智能交通系统中的异常事件检测和混叠目标分割,结果如图9a至图9f所示,图9a是图4场景中车辆的六个语义场景模型;图9b场景S1中六种语义场景模型的边界;图9c是图4场景中六种语义场景模型的主要轨迹和主要运动方向;图9d是图4场景中的运动目标并线异常事件检测;图9e是图5场景中异常违规事件检测;图9f蓝色的框是GMM的检测结果,而红色的框是我们利用图4场景中的语义场景模型分割的结果。从以上实验结果可以看出,本发明提出的方法是有效的。
以上所述,仅为本发明中的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉该技术的人在本发明所揭露的技术范围内,可理解想到的变换或替换,都应涵盖在本发明的权利要求书的保护范围之内。

Claims (8)

1.用计算机对运动目标的场景图像建立语义场景模型的方法,其特征在于,该方法包括以下步骤:
步骤S1:利用图像处理设备输入的视频数据,得到待处理的运动目标图像数据,对目标进行目标检测和跟踪;
步骤S2:基于协同训练方法学习行人和车的分类器,减少训练标注样本和充分利用目标的多种特征;根据学习得到的分类器,将目标分为行人和车辆;
步骤S3:对于每类目标的轨迹进行轨迹聚类,得到目标的轨迹聚类结果;
步骤S4:根据目标的轨迹聚类,得到每种轨迹的分布区域,并且利用均值漂移算法得到每种轨迹分布区域的主要轨迹和轨迹的入点和出点,从而得到有一定语义的区域和实现应用。
2.如权利要求1所述的用计算机对运动目标的场景图像建立语义场景模型的方法,其特征在于,所述目标的多种特征是场景上下文信息和目标的表象信息。
3.如权利要求2所述的用计算机对运动目标的场景图像建立语义场景模型的方法,其特征在于,所述场景上下文信息为目标的大小,面积,长宽比。
4.如权利要求2所述的用计算机对运动目标的场景图像建立语义场景模型的方法,其特征在于,所述目标的表象信息为局部二值模型特征。
5.如权利要求2所述的用计算机对运动目标的场景图像建立语义场景模型的方法,其特征在于,根据分类器的分类结果,将目标分为行人和车辆。
6.如权利要求1所述的用计算机对运动目标的场景图像建立语义场景模型的方法,其特征在于,所述的分类器是利用基于线性判别分析的分类器和基于提升算法的分类器的协同学习得到最终的分类器;该分类器利用输入的第t个样本xt,分别用线性判别分析的分类器和提升算法的分类器给标签yt
Figure FDA0000040213760000021
然后,基于这些标注的训练样本更新分类器。
7.如权利要求1所述的用计算机对运动目标的场景图像建立语义场景模型的方法,其特征在于,所述轨迹聚类的步骤如下:
步骤S31:利用二次曲线参数化描述轨迹的完整性,基于轨迹的完整性特征,利用高斯混合模型学习每类目标的所有运动模式;
步骤S32:通过采取在线更新的方式,根据高斯的权重滤除掉异常的轨迹,并且学习得到交通场景中的运动模式;
步骤S33:利用图切割算法,对学习得到的运动模式进行聚类。
8.如权利要求1所述的用计算机对运动目标的场景图像建立语义场景模型的方法,其特征在于,所述的协同学习(Co-training)算法能利用特征1的分类器和特征2的分类器对样本xt进行自动标注类标yt
Figure FDA0000040213760000022
从而减少人工标注样本的数量,并且能利用多种特征的性能提升分类器的分类性能。
CN201010603240A 2010-12-23 2010-12-23 用计算机对运动目标的场景图像建立语义场景模型的方法 Expired - Fee Related CN102054176B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201010603240A CN102054176B (zh) 2010-12-23 2010-12-23 用计算机对运动目标的场景图像建立语义场景模型的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201010603240A CN102054176B (zh) 2010-12-23 2010-12-23 用计算机对运动目标的场景图像建立语义场景模型的方法

Publications (2)

Publication Number Publication Date
CN102054176A true CN102054176A (zh) 2011-05-11
CN102054176B CN102054176B (zh) 2012-09-26

Family

ID=43958474

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201010603240A Expired - Fee Related CN102054176B (zh) 2010-12-23 2010-12-23 用计算机对运动目标的场景图像建立语义场景模型的方法

Country Status (1)

Country Link
CN (1) CN102054176B (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102281385A (zh) * 2011-08-16 2011-12-14 上海交通大学 基于运动视频的周期运动检测方法
CN103324937A (zh) * 2012-03-21 2013-09-25 日电(中国)有限公司 标注目标的方法和装置
CN103927784A (zh) * 2014-04-17 2014-07-16 中国科学院深圳先进技术研究院 一种三维扫描方法
CN104717468A (zh) * 2015-03-06 2015-06-17 中国科学院大学 基于集群轨迹分类的集群场景智能监控方法及系统
CN105335703A (zh) * 2015-10-13 2016-02-17 西北工业大学 基于运动重构技术的交通场景异常检测方法
CN107169439A (zh) * 2017-05-11 2017-09-15 南宁市正祥科技有限公司 一种行人车辆检测与分类方法
CN108556827A (zh) * 2018-04-13 2018-09-21 深圳市路畅智能科技有限公司 基于激光测距与acf算法的倒车防碰撞智能辅助系统及控制方法
CN108564066A (zh) * 2018-04-28 2018-09-21 国信优易数据有限公司 一种人物识别模型训练方法以及人物识别方法
CN111611703A (zh) * 2020-05-15 2020-09-01 深圳星地孪生科技有限公司 基于数字孪生的沙盘推演方法、装置、设备和存储介质
CN111860383A (zh) * 2020-07-27 2020-10-30 苏州市职业大学 一种群体异常行为识别方法、装置、设备及存储介质
CN115148025A (zh) * 2022-06-28 2022-10-04 重庆长安汽车股份有限公司 一种交通目标轨迹预测方法及可读存储介质
CN115905449A (zh) * 2022-12-30 2023-04-04 北京易航远智科技有限公司 语义地图构建方法及具有熟路模式的自动驾驶系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101334845A (zh) * 2007-06-27 2008-12-31 中国科学院自动化研究所 一种基于轨迹序列分析和规则归纳的视频行为识别方法
CN101389004A (zh) * 2007-09-13 2009-03-18 中国科学院自动化研究所 一种基于在线学习的运动目标分类方法
CN101478675A (zh) * 2008-01-03 2009-07-08 中国科学院计算技术研究所 一种视频中语义事件检测方法及系统
CN101719220A (zh) * 2009-12-02 2010-06-02 北京航空航天大学 基于有向截尾均值距离的轨迹聚类方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101334845A (zh) * 2007-06-27 2008-12-31 中国科学院自动化研究所 一种基于轨迹序列分析和规则归纳的视频行为识别方法
CN101389004A (zh) * 2007-09-13 2009-03-18 中国科学院自动化研究所 一种基于在线学习的运动目标分类方法
CN101478675A (zh) * 2008-01-03 2009-07-08 中国科学院计算技术研究所 一种视频中语义事件检测方法及系统
CN101719220A (zh) * 2009-12-02 2010-06-02 北京航空航天大学 基于有向截尾均值距离的轨迹聚类方法

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102281385B (zh) * 2011-08-16 2013-03-27 上海交通大学 基于运动视频的周期运动检测方法
CN102281385A (zh) * 2011-08-16 2011-12-14 上海交通大学 基于运动视频的周期运动检测方法
CN103324937A (zh) * 2012-03-21 2013-09-25 日电(中国)有限公司 标注目标的方法和装置
CN103324937B (zh) * 2012-03-21 2016-08-03 日电(中国)有限公司 标注目标的方法和装置
CN103927784A (zh) * 2014-04-17 2014-07-16 中国科学院深圳先进技术研究院 一种三维扫描方法
CN103927784B (zh) * 2014-04-17 2017-07-18 中国科学院深圳先进技术研究院 一种主动式三维扫描方法
CN104717468A (zh) * 2015-03-06 2015-06-17 中国科学院大学 基于集群轨迹分类的集群场景智能监控方法及系统
CN105335703B (zh) * 2015-10-13 2018-06-08 西北工业大学 基于运动重构技术的交通场景异常检测方法
CN105335703A (zh) * 2015-10-13 2016-02-17 西北工业大学 基于运动重构技术的交通场景异常检测方法
CN107169439A (zh) * 2017-05-11 2017-09-15 南宁市正祥科技有限公司 一种行人车辆检测与分类方法
CN108556827A (zh) * 2018-04-13 2018-09-21 深圳市路畅智能科技有限公司 基于激光测距与acf算法的倒车防碰撞智能辅助系统及控制方法
CN108564066A (zh) * 2018-04-28 2018-09-21 国信优易数据有限公司 一种人物识别模型训练方法以及人物识别方法
CN108564066B (zh) * 2018-04-28 2020-11-27 国信优易数据股份有限公司 一种人物识别模型训练方法以及人物识别方法
CN111611703A (zh) * 2020-05-15 2020-09-01 深圳星地孪生科技有限公司 基于数字孪生的沙盘推演方法、装置、设备和存储介质
CN111860383A (zh) * 2020-07-27 2020-10-30 苏州市职业大学 一种群体异常行为识别方法、装置、设备及存储介质
CN111860383B (zh) * 2020-07-27 2023-11-10 苏州市职业大学 一种群体异常行为识别方法、装置、设备及存储介质
CN115148025A (zh) * 2022-06-28 2022-10-04 重庆长安汽车股份有限公司 一种交通目标轨迹预测方法及可读存储介质
CN115148025B (zh) * 2022-06-28 2023-10-20 重庆长安汽车股份有限公司 一种交通目标轨迹预测方法及可读存储介质
CN115905449A (zh) * 2022-12-30 2023-04-04 北京易航远智科技有限公司 语义地图构建方法及具有熟路模式的自动驾驶系统

Also Published As

Publication number Publication date
CN102054176B (zh) 2012-09-26

Similar Documents

Publication Publication Date Title
CN102054176B (zh) 用计算机对运动目标的场景图像建立语义场景模型的方法
Serna et al. Classification of traffic signs: The european dataset
Huttunen et al. Car type recognition with deep neural networks
Shi et al. An automated machine learning (AutoML) method of risk prediction for decision-making of autonomous vehicles
CN107239762A (zh) 一种基于视觉的公交车内乘客人数统计方法
CN101414411B (zh) 影像式的空位侦测系统与方法
CN106250812A (zh) 一种基于快速r‑cnn深度神经网络的车型识别方法
CN107133974A (zh) 高斯背景建模与循环神经网络相结合的车型分类方法
CN112633071B (zh) 基于数据风格解耦内容迁移的行人重识别数据域适应方法
CN106204651A (zh) 一种基于改进的判决与生成联合模型的目标跟踪方法
Ajagbe et al. Investigating the efficiency of deep learning models in bioinspired object detection
CN105930792A (zh) 一种基于视频局部特征字典的人体动作分类方法
Seeger et al. Towards road type classification with occupancy grids
Chen et al. Robust vehicle detection and viewpoint estimation with soft discriminative mixture model
CN112434723A (zh) 一种基于注意力网络的日/夜间图像分类及物体检测方法
CN102708384A (zh) 一种基于随机蕨的自举弱学习方法及其分类器
Nigam et al. A review of different components of the intelligent traffic management system (itms)
CN105404858A (zh) 一种基于深度费舍尔网络的车型识别方法
CN105868776A (zh) 一种基于图像处理技术的变压器设备识别方法及装置
Cruz et al. Classified counting and tracking of local vehicles in manila using computer vision
Feng et al. A benchmark dataset and multi-scale attention network for semantic traffic light detection
Harras et al. Enhanced vehicle classification using transfer learning and a novel duplication-based data augmentation technique
Irvine et al. Normalcy modeling using a dictionary of activities learned from motion imagery tracking data
Thota et al. Classify vehicles: Classification or clusterization?
Hassan et al. Detection and Classification of Vehicles based on Deep Semantic Features of Faster R-CNN

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
ASS Succession or assignment of patent right

Owner name: JIANGSU RUIAOFENG SOFTWARE TECHNOLOGY CO., LTD.

Free format text: FORMER OWNER: INSTITUTE OF AUTOMATION, CHINESE ACADEMY OF SCIENCES

Effective date: 20140724

C41 Transfer of patent application or patent right or utility model
COR Change of bibliographic data

Free format text: CORRECT: ADDRESS; FROM: 100190 HAIDIAN, BEIJING TO: 210032 NANJING, JIANGSU PROVINCE

TR01 Transfer of patent right

Effective date of registration: 20140724

Address after: 210032 Jiangsu province Nanjing city Pukou high tech Zone Huidalu No. 9 Zijin community room 221

Patentee after: JIANGSU RUIAOFENG SOFTWARE TECHNOLOGY CO., LTD.

Address before: 100190 Zhongguancun East Road, Beijing, No. 95, No.

Patentee before: Institute of Automation, Chinese Academy of Sciences

C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20170113

Address after: 100084 Beijing Haidian District Nongda Road No. 88 Building No. 1 B1-056

Patentee after: Beijing rui''ao Wind Technology Co. Ltd.

Address before: 210032 Jiangsu province Nanjing city Pukou high tech Zone Huidalu No. 9 Zijin community room 221

Patentee before: JIANGSU RUIAOFENG SOFTWARE TECHNOLOGY CO., LTD.

TR01 Transfer of patent right

Effective date of registration: 20180124

Address after: Huidalu high tech Zone of Nanjing City, Jiangsu province 210032 No. 9 State Power South East Building Three Room 302 D

Patentee after: JIANGSU RUIAOFENG SOFTWARE TECHNOLOGY CO., LTD.

Address before: 100084 Beijing Haidian District Nongda Road No. 88 Building No. 1 B1-056

Patentee before: Beijing rui'ao Wind Technology Co. Ltd.

TR01 Transfer of patent right
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20120926

Termination date: 20191223

CF01 Termination of patent right due to non-payment of annual fee