CN101389004B - 一种基于在线学习的运动目标分类方法 - Google Patents
一种基于在线学习的运动目标分类方法 Download PDFInfo
- Publication number
- CN101389004B CN101389004B CN200710121728XA CN200710121728A CN101389004B CN 101389004 B CN101389004 B CN 101389004B CN 200710121728X A CN200710121728X A CN 200710121728XA CN 200710121728 A CN200710121728 A CN 200710121728A CN 101389004 B CN101389004 B CN 101389004B
- Authority
- CN
- China
- Prior art keywords
- moving target
- classification
- motion
- scene
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 50
- 230000033001 locomotion Effects 0.000 claims abstract description 66
- 239000013598 vector Substances 0.000 claims abstract description 16
- 238000001514 detection method Methods 0.000 claims abstract description 10
- 230000008569 process Effects 0.000 claims abstract description 10
- 239000000284 extract Substances 0.000 claims abstract description 5
- 238000005286 illumination Methods 0.000 claims description 13
- 230000008859 change Effects 0.000 claims description 11
- 230000000007 visual effect Effects 0.000 claims description 10
- 238000005457 optimization Methods 0.000 claims description 7
- 238000012549 training Methods 0.000 claims description 7
- 230000001154 acute effect Effects 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 3
- 230000006399 behavior Effects 0.000 abstract description 3
- 230000005856 abnormality Effects 0.000 abstract 1
- 230000002708 enhancing effect Effects 0.000 abstract 1
- 238000000638 solvent extraction Methods 0.000 abstract 1
- 238000012544 monitoring process Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 5
- 230000004927 fusion Effects 0.000 description 5
- 206010000117 Abnormal behaviour Diseases 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007797 corrosion Effects 0.000 description 1
- 238000005260 corrosion Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000012797 qualification Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000007306 turnover Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明基于在线学习的运动目标自动分类方法,对图像序列背景建模和运动目标检测,检测场景变化、覆盖视角、分割场景,提取并聚类特征向量,对区域类别标注;子区域的运动目标个数到某个阈值,根据经过该子区域的所有运动目标区域的特征向量,初始化高斯分布和先验概率,完成分类器初始化;对该子区域的运动目标分类,在线迭代优化分类器参数;将运动目标跟踪过程中的分类结果融合,输出在线学习的运动目标分类结果。用于监控场景中异常检测,对不同类别目标建立规则,提高监控系统安全性能。用于监控场景物体识别,降低识别算法复杂度,提高识别率。用于监控场景语义化理解,识别运动目标的类别,帮助理解场景中发生的行为事件。
Description
技术领域
本发明属于模式识别领域,涉及图像处理和计算机视觉等技术,特别是涉及智能视觉监控的运动目标分类方法。
背景技术
随着技术的发展以及硬件设备价格的逐渐降低,大量的监控摄像头被安装到各种场合,特别是那些对安全要求敏感的场合,如机场、社区、银行、停车场、军事基地等。动态场景的视觉监控是近年来备受关注的前沿研究方向,它从摄像机捕捉的图像序列中检测、识别、跟踪目标并对其行为进行理解。尽管目前作为人类视觉延伸的监控摄像机在商业应用中已经普遍存在,但目前的监控系统一般只能录相用于事后取证,而不能实时地分析视频数据并实时报警。因此,开发出具有实际意义的自动性、智能性的视觉监控系统日益变得迫切和必要。这就要求不仅能用摄像机代替人眼,而且能用计算机协助人、代替人,以完成监视或控制任务。
类别是世间万物的一个基本属性,同一类别的事物在形状,行为等方面具有相似的特性,而不同类别的物体则往往具有较大的差异。对于计算机而言,如何自动地从监控视频中判断出运动目标的类别是一个很具挑战性的问题。
目前已经有很多算法对监控场景内的运动目标分类进行了研究,但是往往都存在着一定的缺点。由于不同的监控场景视角差异很大,一些分类算法在某些特定的视角下可以取得很好的性能,却往往在其他的视角条件下无法适用。通过大样本训练分类器的方法在一定程度上可以弥补这一缺陷。然而,这类算法往往需要建立包括不同条件,不同场景的大样本数据库,同时需要对数据库中的数据进行手工标记,从而带来了巨大的工作量和诸多不便。
发明内容
现有技术在进行运动目标分类问题上往往有需要手动建立大数据库,对这些数据进行离线训练,单数据库样本受视角,环境等因素的影响比较大的问题,本发明的目的是能够有效、便捷、自动地判断运动目标的类别,为此,提供一种基于在线学习的运动目标分类方法。
为了实现所述的目的,本发明提供一种基于在线学习的运动目标分类方法,可以避免大样本数据库的离线训练,实时有效地判断出运动目标的类别,基于视频通过在线学习训练分类器,包括如下步骤:
步骤S1:对读入的一段时间的图像序列,进行背景建模和运动目标检测;
步骤S2:检测运动目标所在场景是否变化,如果运动目标所在场景发生变化,执行步骤S3;如果运动目标所在场景没有发生变化,执行步骤S7;
步骤S3:根据运动目标所在场景覆盖视角大小,将整个运动目标所在场景分割成若干个子区域;
步骤S4:对每个子区域中的运动目标区域提取特征向量;
步骤S5:通过对特征向量的聚类算法对每个运动目标区域的类别进行粗略标注;
步骤S6:每个子区域的运动目标个数达到某个阈值时,根据已经经过该子区域的所有运动目标区域的特征向量,初始化高斯分布和先验概率,完成该子区域对应分类器初始化;
步骤S7:对经过该子区域的运动目标进行分类,并在在线分类基础上不断迭代优化分类器参数;
步骤S8:将运动目标跟踪过程中的分类结果融合,输出在线学习的运动目标分类结果。
根据本发明的实施例,所述检测步骤包括如下:对图像序列背景建模获取相对于光照变化鲁棒的背景模型与前一时刻获得的背景模型进行比较来判断是否发生场景变化。
根据本发明的实施例,所述背景建模是提取运动目标图像序列的每一帧的反射分量,对反射分量进行混合高斯背景建模来去除光照产生阴影对运动目标形状的影响和去除光照剧烈变化对运动目标区域形状的影响。
根据本发明的实施例,所述通过求取图像序列当前帧获得的背景模型和以前获得背景模型的差异值来判断场景是否发生变化。
根据本发明的实施例,所述特征向量提取包括:提取每一个运动目标区域的速度、面积、紧密度,即紧密度指面积和运动目标区域轮廓周长平方的比值,面积随时间的导数,速度方向与运动目标区域轮廓主轴方向的夹角特征;在聚类阶段使用:紧密度、面积随时间的导数、速度方向与运动目标区域轮廓主轴方向夹角这三个特征;在初始和迭代优化分类器阶段使用:速度、面积、紧密度这三个特征。
根据本发明的实施例,根据运动目标所在场景中运动目标区域的平均面积大小和整个场景面积大小的比值,对所述运动目标所在场景进行分割,使分类在每个子区域中独立操作,用于弥补大场景广视角投影变形。
根据本发明的实施例,所述标注使用K均值聚类和规则融合对运动目标区域的类别进行自动标注。
根据本发明的实施例,根据所述每个子区域内运动区域内的自动标注值,假设高斯分布,估计每个类别对应的高斯分布的参数;根据所述子区域内经过的被标注为同一类别的运动目标个数和经过该子区域的所有运动目标个数的比值,求取每一类别的先验概率。
根据本发明的实施例,所述分类分两种情况,如果通过子区域的运动目标个数达到阈值,已初始化高斯分布和先验概率,则利用贝叶斯准则对运动目标区域进行精细分类,如果没有达到阈值,则比较该区域的特征到三个聚类中心的距离,将其分类为最近的那个类别。
根据本发明的实施例,所述分类是用新分类的运动目标区域对原来的高斯分布和先验概率进行更新。
根据本发明的实施例,所述运动目标进行跟踪,通过对不同帧,同一运动目标的分类结果进行融合,用于准确分类。
本发明的方法不需要进行数据库的采集标注,通过在线学习的方法实现运动目标的自动分类。本发明的方法对光照鲁棒,算法高效,实时。解决了现有技术运动目标分类需要手工建立大数据库,对数据离线训练,单数据库样本受视角,环境等因素影响的问题,本发明能够有效、便捷、自动地判断运动目标的类别,本发明对运动目标的分类可以应用在如下方面:
(1)用于智能监控系统中的异常行为检测,帮助监控系统判断运动目标的类别,通过制定相应类别的规则,检测异常行为。
(2)用于计算机视觉领域的物体识别,首先对目标进行粗分类,缩小搜索空间,提高识别效率和准确率。
(3)用于智能监控系统中的语义化理解,提供其语义化中的主体类别,帮助系统理解场景中发生的事件。
附图说明
图1示出本发明基于在线学习方法的运动目标分类的流程框图。
图2a示出本发明运动视频中的一帧实例示意图。
图2b示出本发明背景建模方法实例获得背景图。
图2c示出本发明前景检测实例获得的运动区域。
图3a、图3b示出本发明在线分类的结果实例示意图。
具体实施方式
下面结合附图详细说明本发明技术方案中所涉及的各个细节问题。应指出的是,所描述的实施例仅旨在便于对本发明的理解,而对其不起任何限定作用。
基于在线学习的运动目标分类方法对于提高监控系统对监控场景的理解能力,提高物体识别的识别性能具有重要意义。利用在线学习方法,本发明实现了一个交通场景下的运动目标自动分类系统,将场景中的运动目标分类为人,车,自行车。如图1示出基于在线学习方法的目标分类方法的流程框图。
本发明的方法需要的硬件最低配置为:P43.0G CPU,512M内存的计算机;最低分辨率为320×240的监控摄像头;帧率为25帧每秒的视频采集卡。在此配置水平的硬件上,采用C++语言编程实现本方法,可以达到实时识别的效果。
下面对本发明的方法涉及的关键步骤进行逐一详细说明,具体形式如下所述:
首先,是场景建模和运动目标的提取:
要对运动目标进行自动分类,第一步就需要将运动目标从背景中分离出来,这是很关键的一步。这里由于运动目标的分类往往是用于室外场景,所以需要其检测算法对光照的剧烈变化鲁棒,同时能够有效地去除阴影。这里本发明改进了传统的混合高斯建模方法,对运动目标的所在的每个象素值首先进行同态滤波,背景建模是提取出运动目标图像序列的每一帧的反射分量,并对反射分量进行混合高斯背景建模。通过这样的改进,可以去除光照产生阴影区域对运动目标形状的影响和去除光照剧烈变化对运动目标区域形状的影响,获得准确的前景目标。
通过混合高斯模型方法得到的前景图像中,往往有一些噪声点以及一些空洞。使用形态学操作来过滤噪声点,通过一次腐蚀操作和一次膨胀操作,可以消除噪声点和小的空洞。如附图2a示出本发明运动视频中的一帧场景图像实例示意图,如图2b示出本发明背景建模方法实例的获得的背景,如图2c示出本发明用混合高斯模型检测的前景实例获得的运动区域。如图2a示出为运动视频中的某一帧图像;通过对视频序列利用本发明方法进行背景建模,可以求出干净背景图片,即没有任何运动目标出现的图片,通过对每个象素的高斯模型进行判断,可以求出该象素在当前帧中是属于前景,还是属于背景,属于前景的象素点设其象素值为255,属于背景的象素点设其象素值为0,这样就可以得出提取前景结果如图2c所示。对于当前帧每个象素点提取其权重最大的那个高斯的均值作为该象素点的象素值,就可以得到干净的背景图片如图2b所示。
其二,是场景变化检测
摄像机的运动,变焦,或者视频切换往往会导致场景发生较大程度的变化。在这种情况下,以前训练的分类器往往对于该场景就不再有效。所以,有必要检测这种场景变化,从而重置算法流程,重新进行在线学习。对图像序列背景建模获取相对于光照变化鲁棒的背景模型与前一时刻获得的背景模型进行比较来判断是否发生场景变化。即对于每一帧利用前述背景建模方法获得的背景Bt(x,y),将其与前一帧的背景Bt-1(x,y)进行差分,当两者之间的差分结果大于某个阈值T时,认为场景变化发生:
∑x,y(|Bt(x,y)-Bt-1(x,y)|)>T (1)
其三,是场景分割
由于监控场景中的摄像头都安放在较高位置,整个场景覆盖的视角范围比较大,从而使得运动目标的速度,面积等特征发生较为显著的投影变形,使得这些特征不能够有效地应用于目标分类。通过将整个场景分割成若干子区域,我们可以对每个子区域中的运动目标分别进行分类,并利用不同子区域之间分类结果的融合,提高分类准确率。这里,我们采用运动目标的平均大小与场景大小之间的比值作为指标进行场景划分。如比值在0.05左右,可将场景分成2×2的子区域;比值在0.01左右,可以将场景分成4×4的子区域。如图3a所示的场景,根据比值,需将场景划分成4×4的子区域,图片中的虚蓝线将整个场景划分成16个子区域,然后针对每个子区域求取分类器。同样如图3b所示场景,根据比值,只需要将场景分成2×2的子区域。
其四,是基于K均值的运动目标自动标记
这里我们使用特征向量中的紧密度,面积随时间的导数和运动方向和运动目标区域轮廓主轴方向角度三个特征利用K均值算法聚成3类。这是因为这三个特征相对对视角变化具有一定的鲁棒性。由于人,车,自行车对于这三个特征都有其较为直观的意义。如,紧密度从大到小分别为车,自行车,人;面积随时间的导数从大到小分别是车,自行车,人;运动方向和运动目标区域轮廓主轴方向的夹角则可以较好地区分人和车。这样,我们利用决策级融合的方法将这三个聚类和类别对应起来。其融合规则如下:
(1)紧密度可以有效地将车从人和自行车中区分出来。
(2)面积随时间的导数可以有效地将人从自行车和车中区分出来。
(3)运动方向与运动目标区域轮廓主轴方向的夹角可以有效地将人和车区分出来。
标注使用对这三个特征所对应的特征向量的K均值聚类和规则融合对运动目标区域进行自动标注。根据所述运动区域内的自动标注值,假设高斯分布,估计高斯分布的参数;根据所述运动区域内自动标注值个数,求取每一类别的先验概率。
其五,是分类器初始化和优化
当经过子区域的样本个数达到阈值N时,对于每个子区域中已经聚类出来的标记样本,对每一类的面积,速度和紧密度三个特征分别估计一个高斯分布Pi(v)=η(v,μi,∑i)和先验出现概率p(i),i=1,2,3为对应的类别,v为面积,速度和紧密度三个特征所构成的特征向量:
这样就可以通过贝叶斯准则对运动目标进行分类:
P(category=i|v)∝Pi(v)·pi i=1,2,3(4)
在利用贝叶斯准则对运动目标进行分类的同时,我们利用新的个体特征值对分类器进行优化,用新分类的样本对原来的高斯分布和先验概率进行更新;对于出现在子区域中的新的运动目标,假设其特征向量为vl,则分类器按照如下规则进行更新:
pk,new=(1-β)pk,old+β(Mk,t)k=1,2,3(5)
这里的β和γ为更新率参数,Mk,t在该目标被判断为第k类情况下为1,其他情况下为0。
其六,是跟踪过程中的分类结果优化
对于同一个运动目标随着时间贯序进行跟踪,通过对同一运动目标的分类后验概率求和的方式进行融合,提高分类正确率。所述运动目标进行跟踪,通过对不同帧,同一运动目标的分类结果进行融合,用于准确分类。这里为将跟踪过程中每一帧所判别的相应类别的后验概率值求和,如果该时刻所对应运动目标区域的子区域已经完成分类器初始化,后验概率则通过贝叶斯准则获得,如果该时刻所对应运动目标区域的子区域还没有完成分类器初始化,则根据其特征到三个聚类中心的距离求取后验概率,使后验概率与其到三个聚类中心的距离成反比,以后验概率和最大的那个类别作为运动目标区域的类别。
实例如下:
为了详细说明该发明的具体实施方式,以交通场景下的运动目标分类为例进行说明,将交通场景里的运动目标分为人,车,自行车,并在每个目标附近位置自动显示其类别,这里p表示人,c表示车,b表示自行车。
由于交通场景中的摄像头平时是固定不动的,但是在特殊情况下,需要移动或者变焦。这样场景变化检测步骤就是用来检测这个场景的变化。在这种变化被检测到时,即重置系统,进行新一轮的在线学习。其具体步骤如下:
步骤S1:读入一段时间的图像序列,利用对象素值的反射分量进行背景建模的方法有效去除阴影,光照突然变化对运动目标区域形状的影响。
步骤S2:利用步骤S1所述背景建模方法获得对阴影,光照变化鲁棒的背景,将其与前一帧的背景进行比较,如果差异小于阈值,则认为没有发生变化,如果差异大于阈值,则认为发生变化。如果发生变化,则进行步骤S3,如果没有发生变化,则进行步骤S7。
场景分割步骤S3:根据场景整个图像的面积和场景中前景运动区域平均面积的比值判断场景覆盖视角大小,将整个运动目标场景分割成若干子区域。对所述运动目标所在场景的分割,使分类可以在每个子区域中独立操作,用于弥补大场景广视角投影变形。
步骤S4:对每个子区域中的运动目标区域提取特征向量,包括面积,速度,紧密度,即紧密度指面积和运动目标区域轮廓周长平方的比值,面积随时间的导数,运动速度方向与运动目标区域轮廓主轴方向的夹角;
自动标注步骤S5:对一段时间场景中所有的运动目标区域的紧密度,面积随时间的导数,运动速度方向与运动目标区域轮廓主轴方向的夹角,这三个特征进行K均值聚为三类,并根据以下三条融合准则得出每一个聚类和每一个类别之间的对应:
1.紧密度可以有效地将车从人和自行车中区分出来。
2.面积随时间的导数可以有效地将人从自行车和车中区分出来。
3.运动方向与运动目标区域轮廓主轴方向的夹角可以有效地将人和车区分出来。
步骤S6:根据步骤S5中的自动标注方法,每个子区域的运动目标个数达到某个阈值时,对每个子区域中分别对被粗分类为同一类别的所有运动目标区域的速度,面积,紧密度这三个特征初始化高斯分布和先验概率,初始化分类器;
步骤S7:如果通过子区域的运动目标个数达到阈值,已初始化高斯分布和先验概率,则利用贝叶斯准则对运动目标区域进行精细分类,如果没有达到阈值,则比较该区域的特征到三个聚类中心的距离,将其分类为最近的那个类别。
步骤S8:将运动目标跟踪过程中的分类结果融合,输出在线学习的运动目标分类结果。这里为将跟踪过程中每一帧所判别的相应类别的后验概率值求和,如果该时刻所对应运动目标区域的子区域已经完成分类器初始化,后验概率则通过贝叶斯准则获得,如果该时刻所对应运动目标区域的子区域还没有完成分类器初始化,则根据其特征到三个聚类中心的距离求取后验概率,使后验概率与其到三个聚类中心的距离成反比,以后验概率和最大的那个类别作为运动目标区域的类别。
总之,本发明提出了一种简单有效的基于在线学习和场景分割的运动目标自动分类方法。在自动化大厦门前的交通场景应用中,其人的分类正确率为98.2%,自行车的分类正确率为90.4%,车的分类正确率为97.3%。本发明易于实现、性能稳定。本发明能够提高智能监控系统对监控场景的理解能力,是下一代智能监控系统里的关键技术。
以上所述,仅为本发明中的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉该技术的人在本发明所揭露的技术范围内,可理解想到的变换或替换,都应涵盖在本发明的包含范围之内,因此,本发明的保护范围应该以权利要求书的保护范围为准。
Claims (10)
1.一种基于在线学习的运动目标自动分类方法,其特征在于:基于视频通过在线学习训练分类器,包括如下步骤:
步骤S1:对读入的一段时间的图像序列,进行背景建模和运动目标检测;
步骤S2:检测运动目标所在场景是否变化,如果运动目标所在场景发生变化,执行步骤S3;如果运动目标所在场景没有发生变化,则对经过场景分割的子区域的运动目标进行分类,并在在线分类的基础上不断迭代优化分类器参数,再将运动目标跟踪过程中的分类结果融合,输出在线学习的运动目标分类结果;
步骤S3:根据运动目标所在场景覆盖视角大小,将整个运动目标所在场景分割成若干个子区域;
步骤S4:对每个子区域中的运动目标区域提取特征向量;
步骤S5:通过对特征向量的聚类算法对每个运动目标区域的类别进行粗略标注;
步骤S6:每个子区域的运动目标个数达到某个阈值时,根据已经经过该子区域的所有运动目标区域的特征向量,初始化高斯分布和先验概率,完成该子区域对应分类器初始化;
步骤S7:对经过该子区域的运动目标进行分类,并在在线分类基础上不断迭代优化分类器参数;
步骤S8:将运动目标跟踪过程中的分类结果融合,输出在线学习的运动目标分类结果。
2.按权利要求1所述的运动目标自动分类方法,其特征在于:所述检测运动目标所在场景发生变化包括如下:
对图像序列背景建模获取相对于光照变化鲁棒的背景模型与前一时刻获得的背景模型进行比较来判断是否发生场景变化。
3.按权利要求1所述的运动目标自动分类方法,其特征在于:所述背景建模是提取运动目标图像序列的每一帧的反射分量,对反射分量进行混合高斯背景建模来去除光照产生阴影对运动目标形状的影响和去除光照剧烈变化对运动目标区域形状的影响。
4.按权利要求1所述的运动目标自动分类方法,其特征在于,所述提取特征向量包括:提取每一个运动目标区域的速度、面积、紧密度,即紧密度指面积和运动目标区域轮廓周长平方的比值,面积随时间的导数,速度方向与运动目标区域轮廓主轴方向的夹角特征;在聚类阶段使用:紧密度、面积随时间的导数、速度方向与运动目标区域轮廓主轴方向夹角这三个特征;在初始和迭代优化分类器阶段使用:速度、面积、紧密度这三个特征。
5.按权利要求1所述的运动目标自动分类方法,其特征在于:根据运动目标所在场景中运动目标区域的平均面积大小和运动目标所在场景面积大小的比值,对所述运动目标所在场景进行分割,使分类在每个子区域中独立操作,用于弥补大场景广视角投影变形。
6.按权利要求1所述的运动目标自动分类方法,其特征在于:所述标注使用对特征向量的K均值聚类和规则融合对运动目标区域的类别进行自动标注。
7.按权利要求1所述的运动目标自动分类方法,其特征在于:根据所述运动区域内的自动标注值,假设高斯分布,估计每一个类别对应的高斯分布的参数;根据所述子区域内经过的被自动标注为同一类别的运动目标个数和经过该子区域的所有运动目标个数的比值,求取每一类别的先验概率。
8.按权利要求1所述的运动目标自动分类方法,其特征在于:在所述分类是用新分类的运动目标区域对原来的高斯分布和先验概率进行更新。
9.按权利要求1所述的运动目标自动分类方法,其特征在于:所述分类分两种情况,如果通过子区域的运动目标个数达到阈值,已初始化高斯分布和先验概率,则利用贝叶斯准则对运动目标区域进行精细分类,如果没有达到阈值,则比较该区域的特征到三个聚类中心的距离,将其分类为最近的那个类别。
10.按权利要求1所述的运动目标自动分类方法,其特征在于:所述运动目标进行跟踪,通过对不同帧,同一运动目标的分类结果进行融合,用于准确分类。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN200710121728XA CN101389004B (zh) | 2007-09-13 | 2007-09-13 | 一种基于在线学习的运动目标分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN200710121728XA CN101389004B (zh) | 2007-09-13 | 2007-09-13 | 一种基于在线学习的运动目标分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101389004A CN101389004A (zh) | 2009-03-18 |
CN101389004B true CN101389004B (zh) | 2010-06-09 |
Family
ID=40478136
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN200710121728XA Expired - Fee Related CN101389004B (zh) | 2007-09-13 | 2007-09-13 | 一种基于在线学习的运动目标分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101389004B (zh) |
Families Citing this family (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101968884A (zh) * | 2009-07-28 | 2011-02-09 | 索尼株式会社 | 检测视频图像中的目标的方法和装置 |
CN101751679A (zh) * | 2009-12-24 | 2010-06-23 | 北京中星微电子有限公司 | 运动目标的分类方法和检测方法及其装置 |
CN102385705B (zh) * | 2010-09-02 | 2013-09-18 | 大猩猩科技股份有限公司 | 利用多特征自动集群法的异常行为侦测系统与方法 |
CN102542302B (zh) * | 2010-12-21 | 2013-08-14 | 中国科学院电子学研究所 | 基于分等级对象语义图的复杂目标自动识别方法 |
CN102054176B (zh) * | 2010-12-23 | 2012-09-26 | 中国科学院自动化研究所 | 用计算机对运动目标的场景图像建立语义场景模型的方法 |
CN102034247B (zh) * | 2010-12-23 | 2013-01-02 | 中国科学院自动化研究所 | 一种基于背景建模对双目视觉图像的运动捕捉方法 |
CN102196246A (zh) * | 2011-04-14 | 2011-09-21 | 西安烽火电子科技有限责任公司 | 一种智能分析监控服务器 |
CN102289686B (zh) * | 2011-08-09 | 2012-07-18 | 北京航空航天大学 | 一种基于迁移学习的运动目标分类识别方法 |
CN102722725B (zh) * | 2012-06-04 | 2014-05-21 | 西南交通大学 | 一种基于主动场景学习的对象跟踪方法 |
CN103208190B (zh) * | 2013-03-29 | 2015-07-15 | 西南交通大学 | 基于对象检测的交通流量检测方法 |
CN103218831B (zh) * | 2013-04-21 | 2015-11-18 | 北京航空航天大学 | 一种基于轮廓约束的视频运动目标分类识别方法 |
WO2014183275A1 (zh) * | 2013-05-15 | 2014-11-20 | 中国科学院自动化研究所 | 一种基于在线学习的局部可形变目标检测方法及其系统 |
CN103246959B (zh) * | 2013-05-21 | 2016-03-02 | 北京鹰普世信息技术有限公司 | 现实场景的数字化方法 |
CN103440277A (zh) * | 2013-08-12 | 2013-12-11 | 合肥寰景信息技术有限公司 | 一种动作模型特征库及其构建方法 |
CN103400160B (zh) * | 2013-08-20 | 2017-03-01 | 中国科学院自动化研究所 | 一种零训练样本行为识别方法 |
CN103530605B (zh) * | 2013-09-29 | 2017-01-25 | 数基科技(北京)有限公司 | 一种鲁棒的异常行为检测方法 |
CN105723419B (zh) * | 2013-11-19 | 2019-07-23 | 哈曼国际工业有限公司 | 对象追踪 |
CN104751163B (zh) * | 2013-12-27 | 2018-06-19 | 同方威视技术股份有限公司 | 对货物进行自动分类识别的透视检查系统和方法 |
CN105095906A (zh) * | 2014-05-04 | 2015-11-25 | 深圳市贝尔信科技有限公司 | 目标特征模型数据库建立的方法、装置及系统 |
CN104050684B (zh) * | 2014-05-27 | 2016-10-05 | 华中科技大学 | 一种基于在线训练的视频运动目标分类方法与系统 |
CN104574379B (zh) * | 2014-12-24 | 2017-08-25 | 中国科学院自动化研究所 | 一种基于目标多部件学习的视频分割方法 |
CN104820993B (zh) * | 2015-03-27 | 2017-12-01 | 浙江大学 | 一种联合粒子滤波和跟踪置前检测的水下弱目标跟踪方法 |
CN104751490B (zh) * | 2015-04-09 | 2018-04-17 | 阔地教育科技有限公司 | 一种基于在线课堂的目标锁定方法及装置 |
CN105141889A (zh) * | 2015-07-28 | 2015-12-09 | 国家电网公司 | 一种基于图像视觉输电线路智能巡检系统 |
CN106108932B (zh) * | 2016-07-21 | 2018-08-07 | 四川大学 | 全自动肾脏感兴趣区提取装置与方法 |
CN106502398B (zh) * | 2016-10-21 | 2019-01-29 | 浙江工业大学 | 一种基于多视图集成学习的语义化活动识别方法 |
CN106651798B (zh) * | 2016-12-16 | 2020-04-28 | 四川长虹电器股份有限公司 | 一种有效的图像镜面反射移除方法 |
WO2018176195A1 (zh) * | 2017-03-27 | 2018-10-04 | 中国科学院深圳先进技术研究院 | 一种室内场景的分类方法及装置 |
CN108537190A (zh) * | 2018-04-17 | 2018-09-14 | 智慧互通科技有限公司 | 一种基于图像的停车场秩序管理装置 |
CN108717521A (zh) * | 2018-04-17 | 2018-10-30 | 智慧互通科技有限公司 | 一种基于图像的停车场秩序管理方法及系统 |
CN109344800B (zh) * | 2018-10-25 | 2020-11-20 | 南昌工程学院 | 一种基于小运动目标的快速分类与识别方法 |
CN111143423B (zh) * | 2018-11-05 | 2023-03-24 | 百度在线网络技术(北京)有限公司 | 动态场景标注数据挖掘方法、装置以及终端 |
CN110378200A (zh) * | 2019-06-03 | 2019-10-25 | 特斯联(北京)科技有限公司 | 一种基于行为特征聚类的智能安防提示设备与方法 |
CN111310583B (zh) * | 2020-01-19 | 2023-02-10 | 中国科学院重庆绿色智能技术研究院 | 一种基于改进的长短期记忆网络的车辆异常行为识别方法 |
CN111734885B (zh) * | 2020-06-30 | 2021-11-30 | 全球能源互联网研究院有限公司 | 一种换流阀在线监测与评估的方法及系统 |
CN111898577B (zh) * | 2020-08-10 | 2022-08-26 | 腾讯科技(深圳)有限公司 | 一种图像检测方法、装置、设备及计算机可读存储介质 |
CN112101156B (zh) * | 2020-09-02 | 2024-08-27 | 杭州海康威视数字技术股份有限公司 | 一种目标识别的方法、装置和电子设备 |
CN112287990B (zh) * | 2020-10-23 | 2023-06-30 | 杭州卷积云科技有限公司 | 一种基于在线学习的边云协同支持向量机的模型优化方法 |
CN113568889B (zh) * | 2021-07-30 | 2024-02-23 | 上海无线电设备研究所 | 面向天基光学探测的空中目标特征库及其构建方法 |
CN113793327B (zh) * | 2021-09-18 | 2023-12-26 | 北京中科智眼科技有限公司 | 一种基于token的高铁异物检测方法 |
CN113989696B (zh) * | 2021-09-18 | 2022-11-25 | 北京远度互联科技有限公司 | 目标跟踪方法、装置、电子设备及存储介质 |
CN114115403A (zh) * | 2021-12-03 | 2022-03-01 | 天津农学院 | 一种笼养肉鸡养殖环境智能控制装置 |
CN114851227B (zh) * | 2022-06-22 | 2024-02-27 | 上海大学 | 一种基于机器视觉与触觉融合感知的装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1777912A (zh) * | 2002-06-28 | 2006-05-24 | 皇家飞利浦电子股份有限公司 | 用于改进的背景-前景分割的使用目标分类的增强背景模型 |
CN101017573A (zh) * | 2007-02-09 | 2007-08-15 | 南京大学 | 一种基于视频监控的运动目标检测与识别方法 |
-
2007
- 2007-09-13 CN CN200710121728XA patent/CN101389004B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1777912A (zh) * | 2002-06-28 | 2006-05-24 | 皇家飞利浦电子股份有限公司 | 用于改进的背景-前景分割的使用目标分类的增强背景模型 |
CN101017573A (zh) * | 2007-02-09 | 2007-08-15 | 南京大学 | 一种基于视频监控的运动目标检测与识别方法 |
Non-Patent Citations (6)
Title |
---|
邹海荣,龚振邦,罗均.运动目标视觉跟踪系统的控制特性研究.上海电机学院学报9 2.2006,9(2),11-15页. |
邹海荣,龚振邦,罗均.运动目标视觉跟踪系统的控制特性研究.上海电机学院学报9 2.2006,9(2),11-15页. * |
隋晔,马钺.交通监控系统中运动目标分类和跟踪研究.信息与控制22 1.2003,22(1),61-64页. |
隋晔,马钺.交通监控系统中运动目标分类和跟踪研究.信息与控制22 1.2003,22(1),61-64页. * |
高东发,黎绍发.一种基于视频监控的运动目标快速分类方法.计算机应用与软件23 10.2006,23(10),36-38页. |
高东发,黎绍发.一种基于视频监控的运动目标快速分类方法.计算机应用与软件23 10.2006,23(10),36-38页. * |
Also Published As
Publication number | Publication date |
---|---|
CN101389004A (zh) | 2009-03-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101389004B (zh) | 一种基于在线学习的运动目标分类方法 | |
CN102542289B (zh) | 一种基于多高斯计数模型的人流量统计方法 | |
Heikkila et al. | A real-time system for monitoring of cyclists and pedestrians | |
CN100495438C (zh) | 一种基于视频监控的运动目标检测与识别方法 | |
CN106447680B (zh) | 动态背景环境下雷达与视觉融合的目标检测与跟踪方法 | |
US20230289979A1 (en) | A method for video moving object detection based on relative statistical characteristics of image pixels | |
CN106204640A (zh) | 一种运动目标检测系统及方法 | |
CN104978567B (zh) | 基于场景分类的车辆检测方法 | |
KR101697161B1 (ko) | 열 영상에서 온라인 랜덤 펀 학습을 이용하여 보행자를 추적하는 장치 및 방법 | |
Cui et al. | Abnormal event detection in traffic video surveillance based on local features | |
Karpagavalli et al. | Estimating the density of the people and counting the number of people in a crowd environment for human safety | |
CN112183472A (zh) | 一种基于改进RetinaNet的试验现场人员是否穿着工作服检测方法 | |
CN113436229A (zh) | 一种多目标跨摄像机行人轨迹路径的生成方法 | |
Liang et al. | Methods of moving target detection and behavior recognition in intelligent vision monitoring. | |
CN110827434A (zh) | 网格化目标识别的社区安保巡防记录系统及方法 | |
Arya et al. | Real-time vehicle detection and tracking | |
Buch et al. | Vehicle localisation and classification in urban CCTV streams | |
Al-Heety | Moving vehicle detection from video sequences for traffic surveillance system | |
Shi et al. | A statistical modeling method for road recognition in traffic video analytics | |
Kwon et al. | Scene modeling-based anomaly detection for intelligent transport system | |
Shafie et al. | Smart video surveillance system for vehicle detection and traffic flow control | |
Mantini et al. | Camera Tampering Detection using Generative Reference Model and Deep Learned Features. | |
Kim | Detection of traffic signs based on eigen-color model and saliency model in driver assistance systems | |
Michael et al. | Fast change detection for camera-based surveillance systems | |
Zakaria et al. | Particle swarm optimization and support vector machine for vehicle type classification in video stream |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20100609 Termination date: 20170913 |
|
CF01 | Termination of patent right due to non-payment of annual fee |