CN113673392A - 基于时空聚类的动目标检测方法 - Google Patents
基于时空聚类的动目标检测方法 Download PDFInfo
- Publication number
- CN113673392A CN113673392A CN202110909898.4A CN202110909898A CN113673392A CN 113673392 A CN113673392 A CN 113673392A CN 202110909898 A CN202110909898 A CN 202110909898A CN 113673392 A CN113673392 A CN 113673392A
- Authority
- CN
- China
- Prior art keywords
- points
- target
- point
- feature
- characteristic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 32
- 238000006073 displacement reaction Methods 0.000 claims abstract description 27
- 239000013598 vector Substances 0.000 claims description 32
- 238000000034 method Methods 0.000 claims description 16
- 238000000605 extraction Methods 0.000 claims description 4
- 230000011218 segmentation Effects 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 abstract description 4
- 230000003068 static effect Effects 0.000 abstract description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 230000004069 differentiation Effects 0.000 description 2
- 101000969688 Homo sapiens Macrophage-expressed gene 1 protein Proteins 0.000 description 1
- 102100021285 Macrophage-expressed gene 1 protein Human genes 0.000 description 1
- 238000010835 comparative analysis Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000036039 immunity Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20164—Salient point detection; Corner detection
Abstract
本发明公开本发明的目的在于提供一种基于时空聚类的动目标检测方法,能够兼顾计算速度和检测稳定性,从图像序列中快速区分动态目标和静态目标,并对动态目标进行跟踪以确定目标在图像中的位置。本发明的动目标检测方法,包括如下步骤:(10)图像特征点提取:在初始帧对目标进行角点检测,提取图像特征点;(20)特征点航迹关联:对提取到的图像特征点进行跟踪检测,并用航迹进行关联;(30)航迹位移量聚类:根据背景运动与目标运动在图像坐标中位移的不同,通过聚类切割出运动特征点和背景特征点;(40)运动特征点空间聚类:根据不同目标在图像中的空间差异,将同一目标上的特征点航迹进行组合,不同目标上的特征点航迹进行区分,同时记录每个运动目标的航迹状态。
Description
技术领域
本发明属于运动目标探测技术领域,提出了一种快速区分动态目标和静态目标的目标提取算法。
背景技术
动目标检测是指在指定区域能识别图像的变化,检测运动目标的存在并避免光线变化带来的干扰。运动检测如MPEG1是对编码后产生的关键帧进行比较分析。原理是将图像序列分为关键帧(I),预测帧(P帧)和双插内向帧(B帧)。对编码的数据进行处理比较。数据处理的常用的方法包括:
(1)背景减法:背景减法是一种最常用的方法,利用当前图像与背景图像的差分检测运动区域。它一般能够提供最完全的特征数据,但对于动态场景的变化,如光照和外来干扰比较敏感。
(2)时间差分:时间差分是在连续的图像序列中采用基于像素的时间差分并且阈值化来提取图像中的运动区域。时间差分对动态环境有较强的适用性,但一般不能完全提取出所有相关的特征像素点,无法对不同的目标进行区分。
(3)光流:基于光流方法的运动检测采用了运动目标随时间变化的光流特性,该方法的优点是在摄像机运动存在的前提下也能检测出独立的运动目标。然而,该方法抗噪性能差。
运动检测的其他方法,如运动向量检测法,适合于多维变化的环境,是某一方向的运动对象更加突出的显示出来,但也对无规则运动物体的检测有一定的局限性。
总之,现有技术存在的问题是:抗噪性能差、无法对不同的目标进行区分、算法复杂度高。
发明内容
本发明的目的在于提供一种基于时空聚类的动目标检测方法,能够兼顾计算速度和检测稳定性,从图像序列中快速区分动态目标和静态目标,并对动态目标进行跟踪以确定目标在图像中的位置。
实现本发明目的的技术解决方案为:
一种基于时空聚类的动目标检测方法,包括如下步骤:
(10)图像特征点提取:在初始帧对目标进行角点检测,提取图像特征点;
(20)特征点航迹关联:对提取到的图像特征点进行跟踪检测,并用航迹进行关联;
(30)航迹位移量聚类:根据背景运动与目标运动在图像坐标中位移的不同,通过聚类切割出运动特征点和背景特征点;
(40)运动特征点空间聚类:根据不同目标在图像中的空间差异,将同一目标上的特征点航迹进行组合,不同目标上的特征点航迹进行区分,同时记录每个运动目标的航迹状态。
本发明与现有技术相比,其显著优点为:
1、抗噪性能得到提升:本方法对目标上的特征点进行检测,受到干扰的点会被删除,不影响整体的检测效果。当目标被部分遮挡时,根据未遮挡部分的目标特征实现对目标的持续检测,克服部分目标交汇与遮挡问题。
2、多目标识别:该方法对检测到的特征点做精确分类,利用不同目标的空间差异将运动目标分割为不同的个体,可以实现多目标识别。
3、算法复杂度低:本方法从工程应用角度,只检测图像中运动目标,不对目标进行具体识别,降低算法复杂度的同时,保证算法稳定性。
下面结合附图和具体实施方式对本发明作进一步的详细描述。
附图说明
图1是本发明基于时空聚类的动目标检测方法的主流程图。
图2是图像特征点提取得到的图像SURF角点示例。
图3是航迹的速度表示。
图4是航迹的位移表示。
图5是对背景点和目标点进行时间聚类的区分结果。
图6是运动目标切割,区分不同目标。
图7是交汇时的航迹判别结果。
具体实施方式
如图1所示,本发明基于时空聚类的动目标检测方法,包括如下步骤:
(10)图像特征点提取:在初始帧对目标进行角点检测,提取图像特征点;
所述(10)图像特征点提取步骤具体为:
对初始帧图像做SURF角点检测,获取图像初始特征点信息,并获取特征点的SURF特征向量,得到特征点的向量描述。
采用SURF角点检测,提取图像的所有特征点并记录特征点的特征向量用于与后续图像帧进行匹配。SURF角点是SIFT的加速版,在角点检测过程中使用盒子滤波器对 LOG滤波器进行近似,用积分图加快运算过程,用Haar特征对特征点进行描述,提取到的特征向量具有角度不变性和尺度不变性。
图像特征点提取到的角点如图2所示。
(20)特征点航迹关联:对提取到的图像特征点进行跟踪检测,并用航迹进行关联;
利用特征向量匹配对检测到的点进行匹配,记录其在下一帧中的坐标值。
所述(20)特征点航迹关联步骤包括:
(21)提取目标点疑似范围:
根据前一帧目标点的图像坐标[u,v],在当前帧中选取范围为 x∈(u-win,u+win],y∈(v-win,v+win+的图像区域为疑似目标区域;
(22)提取特征点的SURF特征向量:
按照SURF特征向量的定义,提取区域内每个点特征向量。
(23)匹配特征点:
将(22)得到的特征向量分别与前一帧特征点的特征向量进行匹配,求取特征向量的相似度;选取相似度最高的特征点作为该点在当前帧的跟踪结果,将特征点坐标进行记录。
将(22)得到的特征向量分别与前一帧特征点的特征向量进行匹配,求取特征向量的相似度,相似度运算公式如下:
即:以向量的夹角为考量角度,以向量的内积(各对应元素相乘求和)比两个向量的模的积为计算结果。相似度越高,sim值越大。选取相似度最高的特征点作为该点在当前帧的跟踪结果,将特征点坐标进行记录。
(30)航迹位移量聚类:根据背景运动与目标运动在图像坐标中位移的不同,通过聚类切割出运动特征点和背景特征点;
基于背景运动大致相同,而目标运动方式与背景存在较大差异的原理,利用两者在图像坐标中位移的不同,通过聚类切割出占比较小的运动点;
所述(30)航迹位移量聚类步骤包括:
(31)航迹速度与位移表示:
对于所有的特征点,记录相邻帧匹配特征点的坐标差值为特征点的帧间速度,定义当前帧与参考帧特征点的坐标差值为位移,公式描述如下:
其中,i表示特征点序号,frame表示当前帧序号,refer表示参考帧序号,也就是初始帧序号。
(32)mean shift聚类算法
假设在一个多维空间中有很多数据点需要进行聚类,Mean Shift的过程如下:
(321)、在未被标记的数据点中随机选择一个点作为中心点,标记为center;
(322)、找出离center距离在阈值bandwidth之内的所有点,记做集合M,认为这些点属于簇c,同时,把这些求内点属于这个类的概率加1,这个参数将用于最后步骤的分类;
(323)、以center为中心点,计算从center开始到集合M中每个元素的向量,将这些向量相加,得到向量shift;
(324)、center沿着shift的方向移动,移动距离是||shift||,即center=center+shift;
(325)、重复步骤322、323、324,直到shift的大小很小,记住此时的center;
(326)、如果收敛时当前簇c的center与其它已经存在的簇c2中心的距离小于阈值,那么把c2和c合并;否则,把c作为新的聚类,增加1类;
(327)、重复321、322、323、324、325直到所有的点都被标记访问;
(328)、根据每个类,对每个点的访问频率,取访问频率最大的那个类,作为当前点集的所属类;
根据定义,特征点的速度表示如图3所示,位移表示如图4所示。
简单的说,mean shift就是沿着密度上升的方向寻找同属一个簇的数据点。
(33)位移聚类:根据背景特征点与目标特征点运动方式的不同区分背景与运动点。
图4中标记的曲线表示在参考帧检测时,位于目标范围内的特征点所组成的航迹的位移表示。根据图3图4可知,速度表示相邻帧的位移量,目标特征点在背景特征点中并不明显,而通过积分后,运动目标与背景差异较为明显,而且目标运动越快,目标上的特征点与背景特征点的差异性也越大。这一区别为通过位移辨别运动目标提供了可能。
由图4可以看到,虽然背景特征点在图像不同位置的位移跨度较大,但是鉴于特征点数目较多,分布较广,其位移具有一定的联系性,在经过一定数量的帧数之后,能够和目标特征点进行区分。但是对于非特定的图像序列,我们并不能提前设置区分阈值,因此对所有数据采取密度聚类的方式,设置一个较高的分类阈值,将所有特征点分为背景点和疑似目标点两类。
图5为根据航迹位移值利用meanshift聚类算法区分背景点与运动点的实验结果,运动点由圆圈标出。
(40)运动特征点空间聚类:根据不同目标在图像中的空间差异,将多个运动目标上的特征点进行区分,同时记录每个运动目标的航迹状态。
由(33)得到的动态点是图像中所有与背景运动存在差异的特征点,因此需要进一步对目标在特征点在空间上进行聚类,以区分不同的目标。
所述(40)运动目标空间聚类步骤包括:
(41)图像阈值分割:将所有的特征点分为背景特征点、疑似特征点、目标特征点三大类;当一个特征点被判定为疑似动目标特征点,并且连续存在若干帧后,即判断为目标特征点;之后对所有动目标点进行空间聚类切割成不同的目标;
实际上将所有的特征点分为背景点,疑似点,目标点三大类。当一个特征点被判定为疑似动目标特征点,并且连续存在若干帧后,即判断为目标特征点。之后对所有动目标点进行空间聚类切割成不同的目标。切割结果如图6所示,目标由圆圈标出。
(42)动目标航迹的更新:
随着帧数增长,记录到的特征点航迹逐渐减少,当航迹数量减少到设定的阈值后,重新对图像进行特征点检测,记录新产生的特征点航迹,将未消亡的航迹位移量清零,并与新产生的特征点航迹一起进行聚类。由于检测到的新特征点可能存在于已检测到的目标上,或者更新时不同的目标相隔较近,被识别为同一目标上的特征点,因此需要对产生的航迹进行合并拆分管理,航迹的合并与拆分规则如下:
(a)新产生的动目标特征点航迹与记录的航迹在空间上无法合并时,判定为产生新的航迹;
(b)新产生的动目标特征点航迹与记录的航迹在空间上始终一致时,判定为同一运动目标上新产生的特征点;
(c)当两条原本存在的航迹,在空间上无法通过聚类进行判别时,认为不同的航迹发生交汇,依旧各自保存原先的航迹;
(d)当一条原本的航迹发生变换,不在能够在空间上保持一致时,认为目标分裂为两种目标,分别进行标记。
对于图像序列中有多个动目标时,目标数目可能随着时间发生变换,产生新的目标,原先存在的目标消亡,或者在运动过程中,不同的目标发生交汇使得目标航迹无法从空间上进行区分,在这些情况下则需要对记录下的特征点航迹进行更新。
在不同目标进行交汇时,航迹判断较为复杂,本文在不同目标交汇时的航迹判断结果如图7所示,不同目标的运动点由圆圈标出。
本方法既考虑了目标的空间分布特性,也考虑了目标的时域运动特性,本例结果显示航迹检测准确。
Claims (5)
1.一种基于时空聚类的动目标检测方法,其特征在于,包括如下步骤:
(10)图像特征点提取:在初始帧对目标进行角点检测,提取图像特征点;
(20)特征点航迹关联:对提取到的图像特征点进行跟踪检测,并用航迹进行关联;
(30)航迹位移量聚类:根据背景运动与目标运动在图像坐标中位移的不同,通过聚类切割出运动特征点和背景特征点;
(40)运动特征点空间聚类:根据不同目标在图像中的空间差异,将同一目标上的特征点航迹进行组合,不同目标上的特征点航迹进行区分,同时记录每个运动目标的航迹状态。
2.根据权利要求1所述的运动目标检测方法,其特征在于,所述(10)图像特征点提取步骤具体为:
对初始帧图像做SURF角点检测,获取图像初始特征点信息,并获取特征点的SURF特征向量,得到特征点的向量描述。
3.根据权利要求2所述的动目标检测方法,其特征在于,所述(20)特征点航迹关联步骤包括:
(21)提取目标点疑似范围:
根据前一帧目标点的图像坐标[u,v],在当前帧中选取范围为x∈(u-win,u+win],y∈(v-win,v+win]的图像区域为疑似目标区域;
(22)提取特征点的SURF特征向量:
按照SURF特征向量的定义,提取疑似目标区域内每个特征点的特征向量;
(23)匹配特征点:
将(22)得到的特征向量分别与前一帧特征点的特征向量进行匹配,求取特征向量的相似度;选取相似度最高的特征点作为该点在当前帧的跟踪结果,将特征点坐标进行记录。
4.根据权利要求3所述的动目标检测方法,其特征在于,所述(30)航迹位移量聚类步骤包括:
(31)航迹速度与位移表示:
对于所有的特征点,记录相邻帧匹配特征点的坐标差值为特征点的帧间速度,定义当前帧与参考帧特征点的坐标差值为位移,公式描述如下:
其中,i表示特征点序号,frame表示当前帧序号,refer表示参考帧序号;
(32)mean shift聚类算法
假设在一个多维空间中有很多数据点需要进行聚类,Mean Shift的过程如下:
(321)、在未被标记的数据点中随机选择一个点作为中心点,标记为center;
(322)、找出离center距离在阈值bandwidth之内的所有点,记做集合M,认为这些点属于簇c,同时,把这些求内点属于这个类的概率加1,这个参数将用于最后步骤的分类;
(323)、以center为中心点,计算从center开始到集合M中每个元素的向量,将这些向量相加,得到向量shift;
(324)、center沿着shift的方向移动,移动距离是||shift||,即center=center+shift;
(325)、重复步骤322、323、324,直到shift的大小很小,记住此时的center;
(326)、如果收敛时当前簇c的center与其它已经存在的簇c2中心的距离小于阈值,那么把c2和c合并;否则,把c作为新的聚类,增加1类;
(327)、重复321、322、323、324、325直到所有的点都被标记访问;
(328)、根据每个类,对每个点的访问频率,取访问频率最大的那个类,作为当前点集的所属类;
(33)位移聚类:根据背景特征点与目标特征点运动方式的不同区分背景与运动点。
5.根据权利要求4所述的动目标检测方法,其特征在于,所述(40)运动目标空间聚类步骤包括:
(41)图像阈值分割:将所有的特征点分为背景特征点、疑似特征点、目标特征点三大类;当一个特征点被判定为疑似动目标特征点,并且连续存在若干帧后,即判断为目标特征点;之后对所有动目标点进行空间聚类切割成不同的目标;
(42)动目标航迹的更新:
随着帧数增长,记录到的特征点航迹逐渐减少,当航迹数量减少到设定的阈值后,重新对图像进行特征点检测,记录新产生的特征点航迹,将未消亡的航迹位移量清零,并与新产生的特征点航迹一起进行聚类。由于检测到的新特征点可能存在于已检测到的目标上,或者更新时不同的目标相隔较近,被识别为同一目标上的特征点,因此需要对产生的特征点航迹进行合并拆分管理,航迹的合并与拆分规则如下:
(a)新产生的动目标特征点航迹与记录的航迹在空间上无法合并时,判定为产生新的航迹;
(b)新产生的动目标特征点航迹与记录的航迹在空间上始终一致时,判定为同一运动目标上新产生的特征点;
(c)当两条原本存在的航迹,在空间上无法通过聚类进行判别时,认为不同的航迹发生交汇,依旧各自保存原先的航迹;
(d)当一条原本的航迹发生变换,不在能够在空间上保持一致时,认为目标分裂为两种目标,分别进行标记。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110909898.4A CN113673392A (zh) | 2021-08-09 | 2021-08-09 | 基于时空聚类的动目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110909898.4A CN113673392A (zh) | 2021-08-09 | 2021-08-09 | 基于时空聚类的动目标检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113673392A true CN113673392A (zh) | 2021-11-19 |
Family
ID=78541881
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110909898.4A Pending CN113673392A (zh) | 2021-08-09 | 2021-08-09 | 基于时空聚类的动目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113673392A (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101840507A (zh) * | 2010-04-09 | 2010-09-22 | 江苏东大金智建筑智能化系统工程有限公司 | 基于角点特征不变量和图论聚类的目标跟踪方法 |
CN101976353A (zh) * | 2010-10-28 | 2011-02-16 | 北京智安邦科技有限公司 | 低密度人群的统计方法及装置 |
CN104036523A (zh) * | 2014-06-18 | 2014-09-10 | 哈尔滨工程大学 | 一种基于SURF特征的改进Mean Shift的目标跟踪方法 |
CN107194310A (zh) * | 2017-04-01 | 2017-09-22 | 国家计算机网络与信息安全管理中心 | 基于场景变化分类和在线局部特征匹配的刚体目标跟踪方法 |
CN110189363A (zh) * | 2019-05-30 | 2019-08-30 | 南京林业大学 | 一种机场场面移动目标低视角视频测速方法 |
CN111833377A (zh) * | 2020-06-02 | 2020-10-27 | 杭州电子科技大学 | 一种基于tbd复杂环境下运动小目标检测方法 |
-
2021
- 2021-08-09 CN CN202110909898.4A patent/CN113673392A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101840507A (zh) * | 2010-04-09 | 2010-09-22 | 江苏东大金智建筑智能化系统工程有限公司 | 基于角点特征不变量和图论聚类的目标跟踪方法 |
CN101976353A (zh) * | 2010-10-28 | 2011-02-16 | 北京智安邦科技有限公司 | 低密度人群的统计方法及装置 |
CN104036523A (zh) * | 2014-06-18 | 2014-09-10 | 哈尔滨工程大学 | 一种基于SURF特征的改进Mean Shift的目标跟踪方法 |
CN107194310A (zh) * | 2017-04-01 | 2017-09-22 | 国家计算机网络与信息安全管理中心 | 基于场景变化分类和在线局部特征匹配的刚体目标跟踪方法 |
CN110189363A (zh) * | 2019-05-30 | 2019-08-30 | 南京林业大学 | 一种机场场面移动目标低视角视频测速方法 |
CN111833377A (zh) * | 2020-06-02 | 2020-10-27 | 杭州电子科技大学 | 一种基于tbd复杂环境下运动小目标检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106778712B (zh) | 一种多目标检测与跟踪方法 | |
Corvee et al. | Body parts detection for people tracking using trees of histogram of oriented gradient descriptors | |
CN109785366B (zh) | 一种针对遮挡的相关滤波目标跟踪方法 | |
CN107491749B (zh) | 一种人群场景中全局和局部异常行为检测方法 | |
KR101868103B1 (ko) | 다중 이동 물체의 식별 및 추적을 위한 영상 감시 장치 및 방법 | |
Fradi et al. | Spatial and temporal variations of feature tracks for crowd behavior analysis | |
Denman et al. | Multi-spectral fusion for surveillance systems | |
WO2010148539A1 (en) | Techniques to detect video copies | |
Meher et al. | Efficient method of moving shadow detection and vehicle classification | |
Chang et al. | Localized detection of abandoned luggage | |
CN111784744A (zh) | 一种基于视频监控的目标自动检测与跟踪方法 | |
Najafzadeh et al. | Object tracking using Kalman filter with adaptive sampled histogram | |
Fradi et al. | Sparse feature tracking for crowd change detection and event recognition | |
Asadzadehkaljahi et al. | Spatiotemporal edges for arbitrarily moving video classification in protected and sensitive scenes | |
Zhang et al. | A new algorithm for fast and accurate moving object detection based on motion segmentation by clustering | |
CN113673392A (zh) | 基于时空聚类的动目标检测方法 | |
Ortego et al. | Long-term stationary object detection based on spatio-temporal change detection | |
He et al. | A Pedestrian Detection Method Using SVM and CNN Multistage Classification. | |
Zhang et al. | Multi-scale template matching with scalable diversity similarity in an unconstrained environment | |
Zhao et al. | A multi-target tracking algorithm using texture for real-time surveillance | |
Tian et al. | A new algorithm for license plate localization in open environment using color pair and stroke width features of character | |
Cuevas et al. | Tracking-based non-parametric background-foreground classification in a chromaticity-gradient space | |
Asadzadehkaljahi et al. | Spatio-Temporal FFT Based Approach for Arbitrarily Moving Object Classification in Videos of Protected and Sensitive Scenes | |
Kavitha et al. | Vehicle tracking and speed estimation using view-independent traffic cameras | |
Wang et al. | An improved cast shadow detection method with edge refinement |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |