CN101212658A - 一种目标跟踪方法及装置 - Google Patents
一种目标跟踪方法及装置 Download PDFInfo
- Publication number
- CN101212658A CN101212658A CNA200710303908XA CN200710303908A CN101212658A CN 101212658 A CN101212658 A CN 101212658A CN A200710303908X A CNA200710303908X A CN A200710303908XA CN 200710303908 A CN200710303908 A CN 200710303908A CN 101212658 A CN101212658 A CN 101212658A
- Authority
- CN
- China
- Prior art keywords
- queue
- module
- reference frame
- tracking
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 238000001514 detection method Methods 0.000 claims abstract description 167
- 238000010168 coupling process Methods 0.000 claims description 150
- 238000005859 coupling reaction Methods 0.000 claims description 150
- 230000008878 coupling Effects 0.000 claims description 146
- 230000004927 fusion Effects 0.000 claims description 29
- 230000013011 mating Effects 0.000 claims description 4
- 238000005457 optimization Methods 0.000 claims description 3
- 238000001914 filtration Methods 0.000 abstract description 2
- 230000003247 decreasing effect Effects 0.000 abstract 1
- 238000012545 processing Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000011002 quantification Methods 0.000 description 3
- 238000013139 quantization Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明实施例提供了一种目标跟踪方法及装置,从当前帧采集图像中检测出各目标对象;用各跟踪对象与检测出的各目标对象一一匹配,将与跟踪对象匹配的目标对象作为该跟踪对象的跟踪结果。通过将检测应用于目标跟踪中,先从当前帧采集图像中检测出目标对象,就能够预先获取当前帧采集图像中的前景区域,再根据检测出的目标对象匹配跟踪对象,从而滤除背景干扰,减少了需要处理的区域,进而减少了目标跟踪中的工作量。
Description
技术领域
本发明涉及图像处理技术,特别涉及一种目标跟踪方法及装置。
背景技术
随着科技的发展,图像处理技术目前已经广泛应用于公共安全,人机交互,娱乐,以及医疗等领域。目标跟踪是一种典型的图像处理技术的应用,通过目标跟踪,系统可以自动从图像或视频中获取目标所在位置、大小以及目标数量等信息。目标跟踪技术在智能视频监控,智能交通,视频分析和检索以及图片检索等领域起到了重要作用。
目前普遍采用的目标跟踪方法一般都采用检测或者手工标定的方法在第一帧采集图像中确定跟踪对象的初始位置,在后续帧采集图像的所有可能位置中寻找和跟踪对象最相近的区域,将与跟踪对象匹配的区域作为跟踪对象的跟踪结果。
在目标跟踪的过程中,需要维持一个跟踪队列,跟踪队列中包括基准框,每个基准框表示一个跟踪对象,每个基准框包含有位置、大小等信息。例如矩形的基准框的位置可以为矩形的中心坐标,大小可以为矩形的长、宽和高。在跟踪开始时,通常会从第一帧采集图像中检测出目标队列,将融合后的目标队列作为初始的跟踪队列,再从当前帧采集图像的所有可能位置中寻找与跟踪队列中基准框最相近的区域,即用当前帧采集图像匹配跟踪队列。
所述从第一帧采集图像中检测出目标队列是指,在第一帧采集图像中,将检测出的每个目标对象表示为检测框,与基准框类似,每个检测框包含有位置、大小等信息。这样,所有检测出的检测框就组成了一个队列,称所述队列为目标队列。通常,会在一个真实目标位置检测出多个检测框,因而,往往需要一个融合过程。在融合前,在检测出的目标队列中,为所有真实目标检测出的检测框组成了一个融合前的目标队列。所述融合是指,在目标队列中,将属于同一个目标的检测框的位置进行求和平均,得到一个与所述目标最接近的检测框,将平均后得到的检测框作为所述目标的检测框。通过对融合前的目标队列中所有检测框进行融合,就得到了融合后的目标队列。
所述用当前帧采集图像匹配跟踪队列是指:在当前帧采集图像中,选择与跟踪队列中的基准框匹配度最大且所述匹配度高于预先设定阈值的区域,将选择的区域作为所述基准框的匹配区域,而当前帧采集图像中没有被选择为匹配区域的区域则作为了非匹配区域。
这样,就可以用当前帧采集图像中的匹配区域来替换跟踪队列对应中的基准框,进而实现了目标跟踪。
但是,现有的目标跟踪方法中,在当前帧采集图像中没有区分前景区域和背景区域,在跟踪的过程中,需要将各跟踪对象与当前帧采集图像中的所有可能位置进行一一匹配,使得目标跟踪的过程中需要做大量的重复工作,目标跟踪的工作量大。
发明内容
本发明实施例提供了一种目标跟踪方法,能够减少目标跟踪中的工作量。
本发明实施例还提供了一种目标跟踪装置,能够减少目标跟踪中的工作量。
以下为本发明实施例提供的技术方案:
一种目标跟踪方法,该方法包括:
从当前帧采集图像中检测出各目标对象;
用各跟踪对象与检测出的各目标对象一一匹配,将与跟踪对象匹配的目标对象作为该跟踪对象的跟踪结果。
一种目标跟踪装置,该装置包括:检测模块、匹配模块、跟踪模块和跟踪存储模块;
所述检测模块用于从当前帧采集图像中检测出各目标对象,将检测到的目标对象发送至匹配模块;
所述匹配模块用于接收来自检测模块的目标对象和来自跟踪存储模块的跟踪对象,用接收到的各跟踪对象与接收到的各目标对象一一匹配,将与所述跟踪对象匹配的目标对象作为跟踪结果输出;
所述跟踪存储模块用于存储跟踪对象,将跟踪对象发送至匹配模块。
从上述技术方案中可以看出,本发明实施例提供的目标跟踪方法及装置,将检测应用于目标跟踪中,先从当前帧采集图像中检测出各目标对象,这样就能够预先获取当前帧采集图像中的前景区域,再将各跟踪对象与检测出的各目标对象一一匹配,从而滤除背景干扰,减少了需要处理的区域,进而减少了目标跟踪中的工作量。
附图说明
图1为本发明实施例一提供的目标跟踪方法的流程图;
图2为本发明实施例二提供的目标跟踪方法流程图;
图3为本发明实施例二中根据目标队列匹配跟踪队列的示例图;
图4为本发明实施例三提供的目标跟踪装置结构图;
图5为本发明实施例三中匹配模块的第二种结构图;
图6为本发明实施例三中计算模块的结构图;
图7为本发明实施例三中跟踪模块的结构图。
具体实施方式
为使本发明的目的、技术方案和优点表达得更加清楚明白,下面结合附图及具体实施例对本发明再作进一步详细的说明。
第一实施例:
图1为本发明实施例提供的目标跟踪方法流程图。如图1所示:
步骤101:从当前帧采集图像中检测出各目标对象。
所述目标对象可以为融合前的目标队列中的检测框,也可以为融合后的目标队列中的检测框。
步骤102:用各跟踪对象与检测出的各目标对象一一匹配,将与跟踪对象匹配的目标对象作为该跟踪对象的跟踪结果。
所述跟踪对象可以为跟踪队列中的基准框。
如果步骤101检测出的目标对象为融合前的目标队列中的检测框,跟踪对象为跟踪队列中的基准框,则本步骤可以通过以下方式来实现:
计算跟踪队列中各基准框与目标队列中各检测框的匹配度。
在目标队列中为每个基准框选择出匹配框组,所述匹配框组为:与该基准框的匹配度高于预先设定的第一阈值、同属于一个目标且与该基准框匹配度之和最大的一组检测框。
在目标队列中,将每个基准框的匹配框组融合为该基准框的匹配框,将所述匹配框作为该基准框的跟踪结果,删除所有与匹配框相交叠的检测框,将所述目标队列中除匹配框以外的检测框融合为非匹配框。
如果步骤101检测出的目标队列为融合后的目标队列,跟踪对象为跟踪队列中的基准框,则本步骤可以通过以下方式来实现:
计算跟踪队列中各基准框与目标队列中各检测框的匹配度。
在目标队列中为每个基准框选择出匹配框,所述匹配框为目标队列中与该基准框的匹配度最大,且所述匹配度高于预先设定的阈值的检测框,将所述匹配框作为该基准框的匹配结果,将目标队列中除匹配框以外的检测框作为非匹配框。
以上所述计算基准框与检测框的匹配度可以通过以下方式来实现:
计算基准框与检测框的直方图匹配度和尺度位置匹配度。
将所述直方图匹配度乘以所述尺度位置匹配度作为所述基准框与所述检测框的匹配度。
另外,在所述用各跟踪对象与检测出的各目标对象一一匹配之后,本发明实施例提供的目标跟踪方法还可以进一步包括:根据匹配结果更新跟踪队列。具体可以为:
用目标队列中的匹配框替换跟踪队列中对应的基准框。
将所述目标队列中的非匹配框添加到跟踪队列中。
以上所述目标可以为人体。
第二实施例:
图2为本发明实施例提供的目标跟踪方法流程图。如图2所示:
步骤200:接收采集图像。
步骤201:从当前帧采集图像中检测出各目标对象。
本实施例中,所述目标对象为融合前的目标队列中的检测框。
步骤202:检测当前跟踪队列是否为空,如果是,则执行步骤203,否则执行步骤204。
步骤203:将步骤201检测出的目标队列融合,将融合后的目标队列作为跟踪队列,返回步骤200。
步骤204:计算跟踪队列中各基准框与目标队列中各检测框的匹配度。
本步骤可以包括:
步骤2041:计算基准框与检测框的直方图匹配度和尺度位置匹配度。
其中,所述计算基准框与检测框的尺度位置匹配度可以采用以下方式实现:
计算基准框与检测框的中心距离,将所述中心距离除以两框宽度和之后作平方运算,将平方运算后结果的相反数加权,将加权后得到的数值作为第一指数。
在所述基准框与所述检测框的宽度中,取小值作为被除数取大值作为除数作相除运算,将得到的商减一后作平方运算,将平方运算后结果的相反数加权,将加权后得到的数值作为第二指数。
以欧拉常数e为底数,分别以第一指数和第二指数为指数求幂,将得到的两个幂值的乘积作为所述基准框与所述检测框的尺度位置匹配度。
下面采用具体公式来说明本计算基准框与检测框的尺度位置匹配度的方法:假定基准框和检测框分别为矩形框R1(cx1,cy1,w1,h1)和矩形框R2(cx2,cy2,w2,h2),其中cx1,cx2分别为两个矩形框的中心横坐标,cy1,cy2分别为两个矩形框的中心纵坐标,w1,w2分别为两个矩形框的宽度,h1,h2分别为两个矩形框的高度。
两个矩形框的中心距离dis采用公式1来计算:
dis=sqrt((cx1-cx2)*(cx1-cx2)+(cy1-cy2)*(cy1-cy2)),公式1
两个矩形框的尺度位置匹配度p可以采用公式2来计算:
其中,sqrt为开方运算,min为取小值运算,max为取大值运算,权值DR和权值SR为常数。
所述计算基准框与检测框的直方图匹配度可以采用以下方式实现:
将检测框的直方图按照与所述检测框中心的距离成反比加权。
现有技术在计算直方图的过程中,将每个颜色区间内,各颜色出现的概率以权值为1相加,最终得到该颜色区间内各颜色出现的概率和,将所述概率和作为该颜色区间的概率值,通过计算框中8bit,即256各颜色区间的概率值,得到了该框的直方图。
而本发明实施例提供的方法中,先将各框中各颜色按照该颜色所在的位置与框中心的距离进行加权,距离框的中心越近,将该颜色的权值越大,反之越小,一般权值取0~1的常数。在加权后,以一个颜色区间为例,该颜色区间内,将各颜色在不同位置的权值乘以该颜色出现的概率后相加。由于权值为0~1的常数,因此,在求和后,将得到的和再除以各权值之和,将相除之后的结果作为该颜色区间的概率值。
由于距离框中心越近,框中的对象为真实目标的概率越大,而通过加权,使得直方图中距离框中心越近的颜色出现的概率越大,这样,在计算基准框与检测框的匹配度时,能够提高计算的准确度。
计算所述基准框直方图与所述检测框加权后直方图的匹配度,将所述匹配度作为所述基准框与所述检测框的直方图匹配度。
另外,为了克服图像的分辨率低的问题,所述计算基准框与检测框的直方图匹配度还可以采用以下方式实现:
首先将需要计算直方图匹配度的基准框和检测框进行直方图量化。
所述直方图量化可以采用以下方式来实现:可以将彩色图像的三个8bit的分量分别量化为5bits,或者分别量化为4bits,或者分别量化为6bits,或者分别量化为7bits,每个分量都对应一个直方图;再将三个分量量化后的直方图首尾相连组成一个三倍的直方图。
例如对于RGB图像而言,可以将图像的R分量、G分量和B分量分别由原来的8bit量化为5bits,即从原来的256个区间量化为32个区间。所述量化可以为,将256个区间除以2(8-5),也就是每8个区间作为一个新的区间,这样就将256个区间量化为32个区间。量化为5bit之后,每个分量的直方图包含32个区间,组成的新直方图由R的32个区间,G的32个区间,B的32个区间共96个区间组成。
所述直方图量化还可以采用以下方式实现:将彩色图像的三个8bit的分量分别量化,将量化后的三个分量分别作为新直方图的高位,中间位和低位。
例如,对于RGB图像而言,可以将图像的R分量、G分量和B分量分别量化为2bist,将R量化后的2bist作为新颜色值的第5,6位,G量化后的2bist作为新颜色值的第3,4位,B量化后的2bist作为新颜色值的1,2位。1位为最低位。这样,就建立了一个64个数值的新直方图。
在获得了量化后的直方图之后,再根据量化后的直方图来计算直方图匹配度。
步骤2042:将所述直方图匹配度乘以所述尺度位置匹配度作为所述基准框与所述检测框的匹配度。
步骤205:在目标队列中为每个基准框选择出匹配框组,所述匹配框组为:与该基准框的匹配度高于预先设定的第一阈值、同属于一个目标且与该基准框匹配度之和最大的一组检测框。
其中,为基准框选择匹配框组可以通过以下方式来实现:
步骤2051:在目标队列中,为基准框选择出与该基准框匹配度大于预先设定的阈值的检测框。
步骤2052:在步骤2051选择出的检测框中,将同属于一个目标的检测框分为一组。
步骤2053:在步骤2052分组后的检测框中,选择与所述基准框匹配度之和最大的一组检测框作为所述基准框的匹配框组。
步骤206:在目标队列中,将每个基准框的匹配框组融合为该基准框的匹配框,删除所有与匹配框相交叠的检测框,将所述目标队列中除匹配框以外的检测框融合为非匹配框。
本步骤中,所述将基准框的匹配框组融合为该基准框的匹配框可以采用以下方式实现:
在基准框的匹配框组中,对所有检测框的位置进行加权平均,每个检测框的权值为该检测框与所述基准框的匹配度,将加权平均后的位置作为所述基准框的匹配框。
用所述匹配框替换所述匹配框组。
下面以图3为例,对步骤204~步骤206作详细说明:
如图3所示,融合前的目标队列中,包含了检测框A1、A2、A3、B1、B2、B3、C1和C2。其中,A1、A2和A3是目标a的检测框,B1、B2和B3是目标b的检测框,C1和C2是目标c的检测框。
基准队列中,包含了基准框A、B和C。
计算匹配度:
计算基准框A与检测框A1、A2、A3、B1、B2、B3、C1和C2的匹配度。
计算基准框B与检测框A1、A2、A3、B1、B2、B3、C1和C2的匹配度。
计算基准框C与检测框A1、A2、A3、B1、B2、B3、C1和C2的匹配度。
为每个基准框选择匹配度大于阈值的检测框:
以基准框A为例,根据计算结果得出,与A匹配度高于预先设定阈值的检测框为A1、A2、B1和C1。
将A1、A2、B1和C1按照对应的目标分组,则A1和A2分为一组,B1为一组,C1为一组。
计算每组的匹配度之和:
将A1与A的匹配度和A2与A的匹配度相加,得到的匹配度之和为3。
B1与A的匹配度为2。
C1与A的匹配度为1。
由此得出,A1和A2这一组与A的匹配度之和最大,则判定A1和A2这一组为A的匹配框组。
将A1和A2的位置进行加权平均,假设A1与A的匹配度为i,A2与A的匹配度为k,则将i和k分别作为A1和A2的中心坐标的权值进行加权平均,得到一个新的中心坐标,作为A的匹配框的中心坐标,这样,就得到了A的匹配框A’,用A’替换A1和A2。
删除所有与A’相交叠的检测框——A3。
类似的,可以得到B的匹配框B’。
本实施例中,根据以上步骤计算得出C没有匹配框,那么就剩余了检测框C1和C2,将C1和C2融合为C’,将C’作为非匹配框。
这样,就得到了一个新的目标队列A’、B’和C’,即匹配结果。其中,A’为A的匹配框,B’为B的匹配框,C’为非匹配框。
步骤207:根据匹配结果更新跟踪队列。
本步骤可以通过以下方式实现:用目标队列中的匹配框替换跟踪队列中对应的基准框;将所述目标队列中的非匹配框添加到跟踪队列中。
还可以在跟踪队列中,记录跟踪队列中每个该基准框的已匹配次数和未匹配次数。如果基准框的匹配次数大于预先设定的第三阈值,则将所述该基准框作为真实目标;如果基准框的未匹配次数大于预先设定的第四阈值,则将所述基准框从跟踪队列中删除。
例如,如果一个基准框A,在m+n次匹配中,匹配上m次,未匹配n次,设定第三阈值为M,第四阈值为N。如果m>M,则将基准框A作为真实目标,如果n>N,则认为基准框A所对应的目标已经离开,将基准框A从跟踪队列中删除。由此,可以更灵活地更新跟踪队列。
另外,本发明实施例提供的目标跟踪方法中,步骤201中检测出的各目标对象还可以为融合后的目标队列中的检测框。
在这种情况下,步骤203为:将步骤201检测出的目标队列作为跟踪队列,返回步骤200。
步骤205为:在目标队列中为每个基准框选择出匹配框,所述匹配框为目标队列中与该基准框的匹配度最大,且所述匹配度高于预先设定的第二阈值的检测框,将目标队列中除匹配框以外的检测框作为非匹配框。
那么步骤205就可以通过以下步骤来实现:
步骤20511:在目标队列中,为每个基准框选择出与该基准框匹配度最大的检测框。
执行本步骤之后,每个基准框就都对应了一个与该基准框匹配度最大的检测框,本实施例中,称所述检测框为该基准框的最似检测框,称所述匹配度为该基准框的最大匹配度。
步骤20512:将每个基准框的最大匹配度与预先设定的第二阈值相比较,如果基准框的最大匹配度高于第二阈值,则判定所述基准框与其最似检测框相匹配,将所述最似检测框作为所述基准框的匹配框;否则,判定所述基准框与其最似检测框不匹配,也就是说,没有找到与所述基准框相匹配的检测框。
以上所述目标可以为人体。在目标为人体的情况下,本发明实施例提供的目标检测方法可以实现对人体目标的跟踪。
基于以上方法,本发明实施例还提供了一种目标跟踪装置,下面就具体实时方式对本发明实施例提供的目标跟踪装置作进一步详细说明。
第三实施例:
如图4所示,本发明实施例提供的目标跟踪装置包括:检测模块401、匹配模块402和跟踪存储模块403。
检测模块401用于从当前帧采集图像中检测出各目标对象,将检测到的目对象列发送至匹配模块402。
匹配模块402用于接收来自检测模块401的目标对象和来自跟踪存储模块403的跟踪对象,用接收到的各跟踪对象与接收到的各目标对象一一匹配,将与所述跟踪对象匹配的目标对象作为跟踪结果输出。
在所述目标对象为融合前的目标队列中的检测框,所述跟踪对象为跟踪队列中的基准框的情况下:
匹配模块402包括:计算模块4021、第一选择模块4022和融合模块4023。
计算模块4021用于接收来自检测模块401的目标队列和来自跟踪存储模块403的跟踪队列,计算所述跟踪队列中各基准框与所述目标队列中各检测框的匹配度,将接收到的目标队列、跟踪队列以及计算出的匹配度发送至第一选择模块4022;
第一选择模块4022用于接收来自计算模块4021的目标队列、跟踪队列和匹配度,在所述目标队列中,为所述跟踪队列中的每个基准框选择出匹配框组,所述匹配框组为:与该基准框的匹配度高于预先设定的第一阈值、同属于一个目标且与该基准框匹配度之和最大的一组检测框,将选择结果、接收到的目标队列和接收到的跟踪队列发送至融合模块4023。
第一选择模块4022包括:阈值判断模块01、分组模块02和组选择模块03。
阈值判断模块01用于接收来自计算模块4021的目标队列、跟踪队列和匹配度,在所述目标队列中为跟踪队列的每个基准框选择出与该基准框匹配度大于预先设定的第一阈值的检测框,将选择结果、接收到的目标队列和接收到的跟踪队列发送至分组模块02。
分组模块02用于接收来自阈值判断模块01的选择结果、目标队列和跟踪队列,根据选择结果,在为每个基准框选择出的检测框中,将同属于一个目标的检测分为一组,将分组结果、接收到的目标队列和接收到的跟踪队列发送至组选择模块03。
组选择模块03用于接收来自分组模块02的分组结果、目标队列和跟踪队列,根据所述分组结果,在为每个基准框选择并分组后的检测框中,选择与所述基准框匹配度之和最大的一组检测框作为所述基准框的匹配框组,将选择结果、接收到的目标队列和接收到的跟踪队列发送至融合模块4023。
融合模块4023用于接收来自第一选择模块4022选择结果、目标队列和跟踪队列,在所述目标队列中,根据所述选择结果将每个基准框的匹配框组融合为该基准框的匹配框,删除所有与匹配框相交叠的检测框,将所述目标队列中除匹配框的检测框融合为非匹配框。
融合模块4023包括:匹配框融合模块11和非匹配框融合模块12。
匹配框融合模块11用于接收来自第一选择模块4022选择结果、目标队列和跟踪队列,在所述目标队列中,根据所述选择结果将每个基准框的匹配框组融合为该基准框的匹配框,将所述匹配框作为该基准框的跟踪结果,删除所有与匹配框相交叠的检测框,生成的新的目标队列,将所述目标队列发送至非匹配框融合模块12。
非匹配框融合模块12用于接收来自匹配融合模块11的目标队列,将所述目标队列中除匹配框以外的检测框融合为非匹配框,生成新的目标队列。
匹配融合模块11包括加权平均模块1和删除模块2;
加权平均模块1用于接收来自第一选择模块4022的选择结果、目标队列和跟踪队列,在所述目标队列每个基准框的匹配框组中,对所有检测框的位置进行加权平均,每个检测框的权值为该检测框与所述基准框的匹配度,将加权平均后的位置作为所述基准框的匹配框,将所述匹配框作为该基准框的跟踪结果,用所述匹配框替换所述匹配框对应的匹配框组,生成的新的目标队列,将所述目标队列发送至删除模块2。
删除模块2用于接收来自加权平均模块1的目标队列,在所述目标队列中,删除所有与匹配框相交叠的检测框,生成的新的目标队列,将所述目标队列发送至非匹配框融合模块12。
跟踪存储模块403用于存储跟踪对象,将跟踪对象发送至匹配模块402。
另外,本发明实施例提供的目标跟踪装置中,匹配模块402还可以为以下结构,如图5所示:
匹配模块402包括:计算模块21和第二选择模块22;
计算模块21用于接收来自检测模块401的目标队列和来自跟踪存储模块403的跟踪队列,所述目标队列为融合后的目标队列,计算所述跟踪队列中各基准框与所述目标队列中各检测框的匹配度,将接收到的目标队列、跟踪队列以及计算出的匹配度发送至第二选择模块22。
第二选择模块22用于接收来自计算模块21的目标队列、跟踪队列和匹配度,在所述目标队列中,为每个基准框选择出匹配框,所述匹配框为目标队列中与该基准框的匹配度最大,且所述匹配度高于预先设定的第二阈值的检测框,将所述匹配框作为该基准框的跟踪结果,将目标队列中除匹配框以外的检测框作为非匹配框。
以上所述装置中,计算模块4021和计算模块21均可以采用图6所示的结构,如图6所示:计算模块包括分配模块001和匹配度计算模块002。
分配模块001用于接收来自检测模块401的目标队列和来自跟踪存储模块403的跟踪队列,将所述目标队列中的每个检测框与跟踪队列中的每个基准框进行两两组合,将接收到的目标队列、跟踪队列以及组合结果发送至匹配度计算模块002。
匹配度计算模块002用于接收来自分配模块001的目标队列、跟踪队列以及组合结果,根据组合结果计算每对组合中基准框与检测框的直方图匹配度和尺度位置匹配度,将所述直方图匹配度乘以所述尺度位置匹配度作为所述基准框与所述检测框的匹配度,将接收到的目标队列、跟踪队列以及计算出的匹配度发送出去。
以上所述装置还可以进一步包括跟踪模块404。
匹配模块402在用接收到的各跟踪对象与接收到的各目标对象一一匹配之后,进一步用于将匹配结果发送至跟踪模块403。
跟踪模块404用于接收来自匹配模块402的匹配结果,根据匹配结果更新跟踪存储模块403中的跟踪对象。
较佳地,跟踪模块404的结构可以为图7所示:跟踪模块404包括:基本跟踪模块31和优化判断模块32;
基本跟踪模块31用于接收来自匹配模块402的匹配结果,在跟踪存储模块403中,用目标队列中的匹配框替换跟踪队列中对应的基准框,将所述目标队列中的非匹配框添加到跟踪队列中,向优化判断模块32发送触发消息。
优化判断模块32用于接收来自基本跟踪模块31的触发消息,接收到所述触发消息后,在跟踪存储模块403中,为跟踪队列的每个该基准框记录该基准框的已匹配次数和未匹配次数,判断所述每个基准框的匹配次数是否大于预先设定第三阈值,如果是,则将所述该基准框设置为真实目标;判断所述每个基准框的未匹配次数是否大于预先设定的第四阈值,如果是,则将所述基准框从跟踪队列中删除。
从上述技术方案中可以看出,本发明实施例提供的目标跟踪方法及装置,将检测应用于目标跟踪中,先从当前帧采集图像中检测出目标队列,这样就能够预先获取当前帧采集图像中的前景区域,再根据检测出的目标对象匹配跟踪对象,从而滤除背景干扰,减少了需要处理的区域,进而减少了目标跟踪中的工作量。
另外,依据滤除了背景干扰的匹配结果对跟踪队列进行更新,提高了目标跟踪的效果。
综上所述,以上仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (20)
1.一种目标跟踪方法,其特征在于,该方法包括:
从当前帧采集图像中检测出各目标对象;
用各跟踪对象与检测出的各目标对象一一匹配,将与跟踪对象匹配的目标对象作为该跟踪对象的跟踪结果。
2.根据权利要求1所述的方法,其特征在于,所述目标对象为融合前的目标队列中的检测框,所述跟踪对象为跟踪队列中的基准框,所述用各跟踪对象与检测出的各目标对象一一匹配包括:
计算跟踪队列中各基准框与目标队列中各检测框的匹配度;
在目标队列中为每个基准框选择出匹配框组,所述匹配框组为:与该基准框的匹配度高于预先设定的第一阈值、同属于一个目标且与该基准框匹配度之和最大的一组检测框;
在目标队列中,将每个基准框的匹配框组融合为该基准框的匹配框,将所述匹配框作为该基准框的跟踪结果,删除所有与匹配框相交叠的检测框,将所述目标队列中除匹配框以外的检测框融合为非匹配框。
3.根据权利要求2所述的方法,其特征在于,所述为基准框选择出匹配框组包括:
为基准框选择出与该基准框匹配度大于预先设定的第一阈值的检测框;
在选择出的检测框中,将同属于一个目标的检测框分为一组;
在分组后的检测框中,选择与所述基准框匹配度之和最大的一组检测框作为所述基准框的匹配框组。
4.根据权利要求2所述的方法,其特征在于,所述将基准框的匹配框组融合为该基准框的匹配框包括:
在基准框的匹配框组中,对所有检测框的位置进行加权平均,每个检测框的权值为该检测框与所述基准框的匹配度,将加权平均后的位置作为所述基准框的匹配框;
用所述匹配框替换所述匹配框组。
5.根据权利要求1所述的方法,其特征在于,所述目标对象为融合后的目标队列中的检测框,所述跟踪对象为跟踪队列中的基准框,所述用检测出的目标队列匹配跟踪队列包括:
计算跟踪队列中各基准框与目标队列中各检测框的匹配度;
在目标队列中为每个基准框选择出匹配框,将所述匹配框作为该基准框的跟踪结果,所述匹配框为目标队列中与该基准框的匹配度最大,且所述匹配度高于预先设定的第二阈值的检测框,将目标队列中除匹配框以外的检测框作为非匹配框。
6.根据权利要求2~5任一所述的方法,其特征在于,所述计算基准框与检测框的匹配度包括:
计算基准框与检测框的直方图匹配度和尺度位置匹配度;
将所述直方图匹配度乘以所述尺度位置匹配度作为所述基准框与所述检测框的匹配度。
7.根据权利要求6所述的方法,其特征在于,所述计算基准框与检测框的尺度位置匹配度包括:
计算基准框与检测框的中心距离,将所述中心距离除以两框宽度和之后作平方运算,将平方运算后结果的相反数加权,将加权后得到的数值作为第一指数;
在所述基准框与所述检测框的宽度中,取小值作为被除数取大值作为除数作相除运算,将得到的商减一后作平方运算,将平方运算后结果的相反数加权,将加权后得到的数值作为第二指数;
以欧拉常数e为底数,分别以第一指数和第二指数为指数求幂,将得到的两个幂值的乘积作为所述基准框与所述检测框的尺度位置匹配度。
8.根据权利要求6所述的方法,其特征在于,所述计算基准框与检测框的直方图匹配度包括:
将检测框的直方图按照与所述检测框中心的距离成反比加权;
计算所述基准框直方图与所述检测框加权后直方图的匹配度,将所述匹配度作为所述基准框与所述检测框的直方图匹配度。
9.根据权利要求2~5任一所述的方法,其特征在于,在所述用各跟踪对象与检测出的各目标对象一一匹配之后,进一步包括:根据匹配结果更新跟踪队列。
10.根据权利要求9所述的方法,其特征在于,所述根据匹配结果更新跟踪队列包括:
用目标队列中的匹配框替换跟踪队列中对应的基准框;
将所述目标队列中的非匹配框添加到跟踪队列中。
11.根据权利要求10所述的方法,其特征在于,在将所述目标队列中的非匹配框添加到跟踪队列中之后,进一步包括:
记录跟踪队列中每个该基准框的已匹配次数和未匹配次数;
如果基准框的匹配次数大于预先设定的第三阈值,则将所述该基准框作为真实目标;
如果基准框的未匹配次数大于预先设定的第四阈值,则将所述基准框从跟踪队列中删除。
12.一种目标跟踪装置,其特征在于,该装置包括:检测模块、匹配模块、跟踪模块和跟踪存储模块;
所述检测模块用于从当前帧采集图像中检测出各目标对象,将检测到的目标对象发送至匹配模块;
所述匹配模块用于接收来自检测模块的目标对象和来自跟踪存储模块的跟踪对象,用接收到的各跟踪对象与接收到的各目标对象一一匹配,将与所述跟踪对象匹配的目标对象作为跟踪结果;
所述跟踪存储模块用于存储跟踪对象,将跟踪对象发送至匹配模块。
13.根据权利要求12所述的装置,其特征在于,所述匹配模块包括:计算模块、第一选择模块和融合模块;
所述计算模块用于接收来自检测模块的目标队列和来自跟踪存储模块的跟踪队列,计算所述跟踪队列中各基准框与所述目标队列中各检测框的匹配度,将接收到的目标队列、跟踪队列以及计算出的匹配度发送至第一选择模块,所述每个检测框代表一个目标对象,所述每个基准框代表一个跟踪对象;
所述第一选择模块用于接收来自计算模块的目标队列、跟踪队列和匹配度,在所述目标队列中,为所述跟踪队列中的每个基准框选择出匹配框组,所述匹配框组为:与该基准框的匹配度高于预先设定的第一阈值、同属于一个目标且与该基准框匹配度之和最大的一组检测框,将选择结果、接收到的目标队列和接收到的跟踪队列发送至融合模块;
所述融合模块用于接收来自选择模块选择结果、目标队列和跟踪队列,在所述目标队列中,根据所述选择结果将每个基准框的匹配框组融合为该基准框的匹配框,将所述匹配框作为该基准框的跟踪结果,删除所有与匹配框相交叠的检测框,将所述目标队列中除匹配框的检测框融合为非匹配框。
14.根据权利要求13所述的装置,其特征在于,所述第一选择模块包括:阈值判断模块、分组模块和组选择模块;
所述阈值判断模块用于接收来自计算模块的目标队列、跟踪队列和匹配度,在所述目标队列中为跟踪队列的每个基准框选择出与该基准框匹配度大于预先设定的第一阈值的检测框,将选择结果、接收到的目标队列和接收到的跟踪队列发送至分组模块;
所述分组模块用于接收来自阈值判断模块的选择结果、目标队列和跟踪队列,根据选择结果,在为每个基准框选择出的检测框中,将同属于一个目标的检测分为一组,将分组结果、接收到的目标队列和接收到的跟踪队列发送至组选择模块;
所述组选择模块用于接收来自分组模块的分组结果、目标队列和跟踪队列,根据所述分组结果,在为每个基准框选择并分组后的检测框中,选择与所述基准框匹配度之和最大的一组检测框作为所述基准框的匹配框组,将选择结果、接收到的目标队列和接收到的跟踪队列发送至融合模块。
15.根据权利要求13所述的装置,其特征在于,所述融合模块包括:匹配框融合模块和非匹配框融合模块;
所述匹配框融合模块用于接收来自第一选择模块的选择结果、目标队列和跟踪队列,在所述目标队列中,根据所述选择结果将每个基准框的匹配框组融合为该基准框的匹配框,将所述匹配框作为该基准框的跟踪结果,删除所有与匹配框相交叠的检测框,生成的新的目标队列,将所述目标队列发送至非匹配框融合模块;
所述非匹配框融合模块用于接收来自匹配融合模块的目标队列,将所述目标队列中除匹配框以外的检测框融合为非匹配框,生成新的目标队列。
16.根据权利要求15所述的装置,其特征在于,所述匹配融合模块包括加权平均模块和删除模块;
所述加权平均模块用于接收来自第一选择模块的选择结果、目标队列和跟踪队列,在所述目标队列每个基准框的匹配框组中,对所有检测框的位置进行加权平均,每个检测框的权值为该检测框与所述基准框的匹配度,将加权平均后的位置作为所述基准框的匹配框,将所述匹配框作为该基准框的跟踪结果,用所述匹配框替换所述匹配框对应的匹配框组,生成的新的目标队列,将所述目标队列发送至删除模块;
所述删除模块用于接收来自加权平均模块的目标队列,在所述目标队列中,删除所有与匹配框相交叠的检测框,生成的新的目标队列,将所述目标队列发送至非匹配框融合模块。
17.根据权利要求12所述的装置,其特征在于,所述匹配模块包括:计算模块和第二选择模块;
所述计算模块用于接收来自检测模块的目标队列和来自跟踪存储模块的跟踪队列,所述目标队列为融合后的目标队列,计算所述跟踪队列中各基准框与所述目标队列中各检测框的匹配度,将接收到的目标队列、跟踪队列以及计算出的匹配度发送至第二选择模块,所述每个检测框代表一个目标对象,所述每个基准框代表一个跟踪对象;
所述第二选择模块用于接收来自计算模块的目标队列、跟踪队列和匹配度,在所述目标队列中,为每个基准框选择出匹配框,所述匹配框为目标队列中与该基准框的匹配度最大,且所述匹配度高于预先设定的阈值的检测框,将所述匹配框作为该基准框的跟踪结果,将目标队列中除匹配框以外的检测框作为非匹配框。
18.根据权利要求13~17所述的装置,其特征在于,所述计算模块包括:分配模块和匹配度计算模块;
所述分配模块用于接收来自检测模块的目标队列和来自跟踪存储模块的跟踪队列,将所述目标队列中的每个检测框与跟踪队列中的每个基准框进行两两组合,将接收到的目标队列、跟踪队列以及组合结果发送至匹配度计算模块;
所述匹配度计算模块用于接收来自分配模块的目标队列、跟踪队列以及组合结果,根据组合结果计算每对组合中基准框与检测框的直方图匹配度和尺度位置匹配度,将所述直方图匹配度乘以所述尺度位置匹配度作为所述基准框与所述检测框的匹配度,将接收到的目标队列、跟踪队列以及计算出的匹配度发送出去。
19.根据权利要求12所述的装置,其特征在于,该装置进一步包括跟踪模块;
所述匹配模块在用接收到的各跟踪对象与接收到的各目标对象一一匹配之后,进一步用于将匹配结果发送至跟踪模块;
所述跟踪模块用于接收来自匹配模块的匹配结果,根据匹配结果更新跟踪存储模块中的跟踪对象。
20.根据权利要求19所述的装置,其特征在于,所述跟踪模块包括:基本跟踪模块和优化判断模块;
所述基本跟踪模块用于接收来自匹配模块的匹配结果,在跟踪存储模块中,用与跟踪对象匹配的目标对象替换所述跟踪对象,将与所有跟踪对象均不匹配的目标对象添加到跟踪对象中,向优化判断模块发送触发消息;
所述优化判断模块用于接收来自基本跟踪模块的触发消息,接收到所述触发消息后,在跟踪存储模块中,记录每个跟踪对象的已匹配次数和未匹配次数,判断所述每个跟踪对象的匹配次数是否大于预先设定的第三阈值,如果是,则将所述跟踪对象设置为真实目标;判断所述每个跟踪对象的未匹配次数是否大于预先设定的第四阈值,如果是,则删除所述跟踪对象。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN200710303908XA CN101212658B (zh) | 2007-12-21 | 2007-12-21 | 一种目标跟踪方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN200710303908XA CN101212658B (zh) | 2007-12-21 | 2007-12-21 | 一种目标跟踪方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101212658A true CN101212658A (zh) | 2008-07-02 |
CN101212658B CN101212658B (zh) | 2010-06-02 |
Family
ID=39612265
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN200710303908XA Active CN101212658B (zh) | 2007-12-21 | 2007-12-21 | 一种目标跟踪方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101212658B (zh) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101339663B (zh) * | 2008-08-22 | 2010-06-30 | 北京矿冶研究总院 | 基于属性匹配的浮选视频测速方法 |
CN101877132A (zh) * | 2009-11-27 | 2010-11-03 | 北京中星微电子有限公司 | 用于运动跟踪的交互事件处理方法和装置 |
CN102012769A (zh) * | 2010-11-18 | 2011-04-13 | 无锡中星微电子有限公司 | 利用摄像头对屏幕上的内容进行多点控制的方法和装置 |
CN102103754A (zh) * | 2009-12-21 | 2011-06-22 | 佳能株式会社 | 被摄体跟踪设备、被摄体区域提取设备及其控制方法 |
CN101324922B (zh) * | 2008-07-30 | 2012-04-18 | 北京中星微电子有限公司 | 手指尖轨迹获取方法和装置 |
CN101339664B (zh) * | 2008-08-27 | 2012-04-18 | 北京中星微电子有限公司 | 一种目标跟踪方法及系统 |
CN102065275B (zh) * | 2009-11-17 | 2012-09-12 | 中国科学院电子学研究所 | 智能视频监控系统中多目标跟踪方法 |
US8345102B2 (en) | 2009-01-13 | 2013-01-01 | Futurewei Technologies, Inc. | Image processing system and method for object tracking |
CN104182958A (zh) * | 2013-05-21 | 2014-12-03 | 索尼公司 | 目标检测方法和装置 |
CN104966304A (zh) * | 2015-06-08 | 2015-10-07 | 深圳市赛为智能股份有限公司 | 基于卡尔曼滤波与非参数背景模型的多目标检测跟踪方法 |
CN105261035A (zh) * | 2015-09-15 | 2016-01-20 | 杭州中威电子股份有限公司 | 一种高速公路运动目标跟踪方法及装置 |
CN105744152A (zh) * | 2014-12-25 | 2016-07-06 | 佳能株式会社 | 被摄体追踪设备、摄像设备和被摄体追踪方法 |
CN106960446A (zh) * | 2017-04-01 | 2017-07-18 | 广东华中科技大学工业技术研究院 | 一种面向无人艇应用的水面目标检测跟踪一体化方法 |
WO2018099268A1 (zh) * | 2016-11-29 | 2018-06-07 | 深圳云天励飞技术有限公司 | 目标跟踪方法、装置及存储介质 |
WO2019144296A1 (zh) * | 2018-01-23 | 2019-08-01 | 深圳市大疆创新科技有限公司 | 可移动平台的控制方法、装置和可移动平台 |
CN111383246A (zh) * | 2018-12-29 | 2020-07-07 | 杭州海康威视数字技术股份有限公司 | 条幅检测方法、装置及设备 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100224752B1 (ko) * | 1997-06-11 | 1999-10-15 | 윤종용 | 표적 추적 방법 및 장치 |
GB0326375D0 (en) * | 2003-11-12 | 2003-12-17 | British Telecomm | Object tracking within video images |
DE602006017812D1 (de) * | 2005-03-17 | 2010-12-09 | British Telecomm | Verfahren zur verfolgung von objekten in einer videosequenz |
-
2007
- 2007-12-21 CN CN200710303908XA patent/CN101212658B/zh active Active
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101324922B (zh) * | 2008-07-30 | 2012-04-18 | 北京中星微电子有限公司 | 手指尖轨迹获取方法和装置 |
CN101339663B (zh) * | 2008-08-22 | 2010-06-30 | 北京矿冶研究总院 | 基于属性匹配的浮选视频测速方法 |
CN101339664B (zh) * | 2008-08-27 | 2012-04-18 | 北京中星微电子有限公司 | 一种目标跟踪方法及系统 |
US8345102B2 (en) | 2009-01-13 | 2013-01-01 | Futurewei Technologies, Inc. | Image processing system and method for object tracking |
CN102065275B (zh) * | 2009-11-17 | 2012-09-12 | 中国科学院电子学研究所 | 智能视频监控系统中多目标跟踪方法 |
CN101877132B (zh) * | 2009-11-27 | 2014-03-26 | 北京中星微电子有限公司 | 用于运动跟踪的交互事件处理方法和装置 |
CN101877132A (zh) * | 2009-11-27 | 2010-11-03 | 北京中星微电子有限公司 | 用于运动跟踪的交互事件处理方法和装置 |
CN102103754A (zh) * | 2009-12-21 | 2011-06-22 | 佳能株式会社 | 被摄体跟踪设备、被摄体区域提取设备及其控制方法 |
CN102103754B (zh) * | 2009-12-21 | 2014-05-07 | 佳能株式会社 | 被摄体跟踪设备、被摄体区域提取设备及其控制方法 |
CN102012769A (zh) * | 2010-11-18 | 2011-04-13 | 无锡中星微电子有限公司 | 利用摄像头对屏幕上的内容进行多点控制的方法和装置 |
CN102012769B (zh) * | 2010-11-18 | 2013-03-27 | 无锡中星微电子有限公司 | 利用摄像头对屏幕上的内容进行多点控制的方法和装置 |
CN104182958A (zh) * | 2013-05-21 | 2014-12-03 | 索尼公司 | 目标检测方法和装置 |
CN104182958B (zh) * | 2013-05-21 | 2019-01-08 | 索尼公司 | 目标检测方法和装置 |
US10013632B2 (en) | 2014-12-25 | 2018-07-03 | Canon Kabushiki Kaisha | Object tracking apparatus, control method therefor and storage medium |
CN105744152A (zh) * | 2014-12-25 | 2016-07-06 | 佳能株式会社 | 被摄体追踪设备、摄像设备和被摄体追踪方法 |
CN105744152B (zh) * | 2014-12-25 | 2019-06-18 | 佳能株式会社 | 被摄体追踪设备、摄像设备和被摄体追踪方法 |
CN104966304A (zh) * | 2015-06-08 | 2015-10-07 | 深圳市赛为智能股份有限公司 | 基于卡尔曼滤波与非参数背景模型的多目标检测跟踪方法 |
CN104966304B (zh) * | 2015-06-08 | 2019-07-16 | 深圳市赛为智能股份有限公司 | 基于卡尔曼滤波与非参数背景模型的多目标检测跟踪方法 |
CN105261035B (zh) * | 2015-09-15 | 2018-05-11 | 杭州中威电子股份有限公司 | 一种高速公路运动目标跟踪方法及装置 |
CN105261035A (zh) * | 2015-09-15 | 2016-01-20 | 杭州中威电子股份有限公司 | 一种高速公路运动目标跟踪方法及装置 |
WO2018099268A1 (zh) * | 2016-11-29 | 2018-06-07 | 深圳云天励飞技术有限公司 | 目标跟踪方法、装置及存储介质 |
CN106960446A (zh) * | 2017-04-01 | 2017-07-18 | 广东华中科技大学工业技术研究院 | 一种面向无人艇应用的水面目标检测跟踪一体化方法 |
WO2019144296A1 (zh) * | 2018-01-23 | 2019-08-01 | 深圳市大疆创新科技有限公司 | 可移动平台的控制方法、装置和可移动平台 |
CN110651274A (zh) * | 2018-01-23 | 2020-01-03 | 深圳市大疆创新科技有限公司 | 可移动平台的控制方法、装置和可移动平台 |
CN111383246A (zh) * | 2018-12-29 | 2020-07-07 | 杭州海康威视数字技术股份有限公司 | 条幅检测方法、装置及设备 |
CN111383246B (zh) * | 2018-12-29 | 2023-11-07 | 杭州海康威视数字技术股份有限公司 | 条幅检测方法、装置及设备 |
Also Published As
Publication number | Publication date |
---|---|
CN101212658B (zh) | 2010-06-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101212658B (zh) | 一种目标跟踪方法及装置 | |
CN109919981B (zh) | 一种基于卡尔曼滤波辅助的多特征融合的多目标跟踪方法 | |
Gao et al. | Error analysis of background adaption | |
CN100578563C (zh) | 基于视频图像的车辆计数方法 | |
US8401292B2 (en) | Identifying high saliency regions in digital images | |
CN107330372A (zh) | 一种基于视频的人群密度与异常行为检测系统的分析方法 | |
CN105989594A (zh) | 一种图像区域检测方法及装置 | |
Huang et al. | Automatic moving object extraction through a real-world variable-bandwidth network for traffic monitoring systems | |
CN109740573B (zh) | 视频分析方法、装置、设备及服务器 | |
CN106803263A (zh) | 一种目标跟踪方法及装置 | |
CN103826102A (zh) | 一种运动目标的识别方法、装置 | |
Bansod et al. | Transfer learning for video anomaly detection | |
Shen et al. | A convolutional neural‐network‐based pedestrian counting model for various crowded scenes | |
CN103164693B (zh) | 一种监控视频行人检测匹配方法 | |
CN111008600A (zh) | 一种车道线检测方法 | |
Seo et al. | Effective and efficient human action recognition using dynamic frame skipping and trajectory rejection | |
Jiang et al. | A hardware architecture for real-time video segmentation utilizing memory reduction techniques | |
Ratre et al. | Tucker tensor decomposition‐based tracking and Gaussian mixture model for anomaly localisation and detection in surveillance videos | |
CN112580536A (zh) | 一种高位视频车辆及车牌的检测方法及装置 | |
CN105469054A (zh) | 正常行为的模型构建方法及异常行为的检测方法 | |
Park et al. | Study on 3D action recognition based on deep neural network | |
CN106777159A (zh) | 一种基于内容的视频片段检索及定位方法 | |
CN105700415A (zh) | 一种以脚印检测作为媒介的人流量监测装置及方法 | |
Li et al. | Time-spatial multiscale net for vehicle counting and traffic volume estimation | |
CN110889347A (zh) | 基于时空计数特征的密度交通流计数方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
C41 | Transfer of patent application or patent right or utility model | ||
TR01 | Transfer of patent right |
Effective date of registration: 20160516 Address after: 519031 Guangdong city of Zhuhai province Hengqin Baohua Road No. 6, room 105 -478 Patentee after: GUANGDONG ZHONGXING ELECTRONICS CO., LTD. Address before: 100083, Haidian District, Xueyuan Road, Beijing No. 35, Nanjing Ning building, 15 Floor Patentee before: Beijing Vimicro Corporation |