CN106127807A - 一种实时的视频多类多目标跟踪方法 - Google Patents

一种实时的视频多类多目标跟踪方法 Download PDF

Info

Publication number
CN106127807A
CN106127807A CN201610452558.2A CN201610452558A CN106127807A CN 106127807 A CN106127807 A CN 106127807A CN 201610452558 A CN201610452558 A CN 201610452558A CN 106127807 A CN106127807 A CN 106127807A
Authority
CN
China
Prior art keywords
target
video
cluster centre
track
super
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610452558.2A
Other languages
English (en)
Inventor
刘玉杰
窦长红
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China University of Petroleum East China
Original Assignee
China University of Petroleum East China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China University of Petroleum East China filed Critical China University of Petroleum East China
Priority to CN201610452558.2A priority Critical patent/CN106127807A/zh
Publication of CN106127807A publication Critical patent/CN106127807A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Image Analysis (AREA)

Abstract

本发明属于计算机图形与图像处理领域,具体公开了一种实时的视频多类多目标跟踪方法,该跟踪方法包括如下步骤:s1、视频帧的预处理,比如超像素分割;s2、基于超像素块设计目标检测器并进行线下训练,充分利用运动特征从而检测到视频中所有运动的目标;s3、利用训练好的检测器对给定的视频进行目标检测;s4、设计训练目标跟踪模型,并对视频中的目标进行跟踪;s5、轨迹的可视化。本发明方法的有益效果是:1、本文方法通过对视频进行基于超像素块的目标检测,大大降低算法的复杂度和时间消耗;2、本文方法能够检测出视频中所有的运动的多类目标,从而在一个摄像头的情况下,能够实现对视频中所有移动物体的跟踪,大大降低硬件成本。

Description

一种实时的视频多类多目标跟踪方法
技术领域
本发明属于计算机图形与图像处理领域,涉及一种实时的视频多类多目标跟踪方法。
背景技术
运动目标在军事制导、视觉导航、机器人、智能交通、公共安全等领域有着广泛的应用。例如,在车辆违章抓拍系统中,车辆的跟踪就是必不可少的;在小区入侵检测系统中,人、车辆、动物等大型运动目标的检测与跟踪也是整个系统的关键之处。但是,现今的视觉跟踪算法,主要针对单目标或同类多目标跟踪,这就大大限制了应用范围,也不符合实际情况。如果想要实现小区入侵检测这样的实际应用,就需要多个摄像头同时工作,这样不仅造成硬件成本增加,而且实时性也不够好。
因此,有必要设计一个实时的视频多类多目标跟踪方法,能够对视频中所有的运动目标进行定位与跟踪,不限定目标类别,从而解决现今所面临的问题。
发明内容
针对现有方法存在的不足之处,本发明的目的在于提出一种实时的视频多类多目标跟踪方法,其采用如下方案:
一种实时的视频多类多目标跟踪方法,包括如下步骤:
s1、视频帧的预处理,比如超像素分割;
s2、基于超像素块设计目标检测器并进行线下训练,充分利用运动特征从而检测到视频中所有运动的目标;
s3、利用训练好的检测器对给定的视频进行目标检测;
s4、设计目标跟踪模型,并对视频中的目标进行跟踪;
s5、轨迹的可视化。
进一步,上述步骤s1中,采用基于k-means聚类方法的SLIC超像素分割方法对视频帧进行预处理,进一步包括:
s11、初始化聚类中心,确定生成超像素的个数,设图像内有N个像素点,则超像素的大小为N/K,聚类中心之间的距离为
s12、迭代聚类,每一次迭代中,在包含聚类中心的2S*2S区域内搜索,使得所有像素都和一个最邻近(min(Ds))的聚类中心联系在一起,当所有像素都和最近的聚类中心建立了联系,接下来更新聚类中心,新的聚类中心是当前所有属于这一聚类中心所在区域的像素的特征向量的均值,记当前聚类中心和之前聚类中心之间的残留偏差为E,重复迭代至偏差小于设定的阈值。
其中Ds是像素i和聚类中心k之间位置坐标(x,y)的距离和lab的颜色距离的加权距离,计算过程如下:
d c = ( l k - k i ) 2 + ( a k - a i ) 2 + ( b k - b i ) 2
d s = ( x k - x i ) 2 + ( y k - y i ) 2
D ′ = ( d c N c ) 2 + ( d s N s ) 2
其中,Ns是最大空间距离,Nc是最大颜色距离。最大空间距离和聚类中心的间距相关,从而令Ns=S。但是最大颜色距离Nc是不能直接确定的,我们直接将其设置为一个常量m。则公式可化为:
D ′ = ( d c m ) 2 + ( d s s ) 2
s13、后续处理,在s12结束后,可能有像素点没有所属聚类,则通过把这些不连续的孤立点和最邻近的聚类联系起来,保证连通性。
进一步,上述步骤s2中,检测出视频中所有运动的目标,进一步包括:
s21、背景建模,在场景中存在运动目标的情况下获得背景图像。视频流中某一像素点只有在前景运动目标通过时,它的亮度值才会发生大的变化,在一段时间内,亮度值主要集中在很小的一个区域中,可以用这个区域内的平均值作为该点的背景值。
s22、特征提取,分别提取背景和前景超像素块的颜色直方图特征和光流运动特征,并将两种特征进行加权处理;
其中,颜色直方图特征用来描述图像的颜色信息。光流的基本思想是,在空间中运动可以用运动场描述,而在一个图像平面上,物体的运动往往是通过图像序列中图像之间灰度分布的不同体现的,从而空间中的运动场转移到图像上就表示为光流场。光流场反映了图像上每一点灰度的变化趋势,它能够检测独立运动的对象,不需要预先知道场景的任何信息,可以很精确地计算出运动物体的速度,并且可用于摄像机运动的情况。
s23、线下训练,利用s22中提取的特征进行前景和背景分类器的训练,得到一个联级的boosted分类器,训练的负样本是背景,正样本是前景,所有的样本在操作前会被归一化为相同的大小。
s24、噪声分类器,s23步训练完成后,可以区分背景和前景,此时的前景就是视频中所有运动的区域,但这时可能会有噪声,比如阴影等。训练一个噪声二分类分类器,负样本是噪声,正样本是目标,从而能够区分出前景中的目标和噪声。
进一步,上述步骤s3中,利用s2训练好的分类器,对给定的视频序列进行目标检测,记下检测区域的位置、大小等信息。
进一步,上述步骤s4中进一步包括:
s41、轨迹初始化,利用前5帧的目标检测结果(detection)初始化轨迹,具体操作是,计算前5帧中相邻帧之间所有detection的特征相似度,主要包括颜色、速度和尺寸特征。利用匈牙利算法,根据计算出来的相似度进行detection的匹配,从而形成初始轨迹。
s42、位置预测,在处理当前帧时,先利用空间上下文信息,使用贝叶斯模型进行目标的位置预测,确定目标可能出现的位置范围,从而减小匹配范围,降低算法复杂度。
s43、区域分块,根据s42的预测结果,如果两个目标的预测位置的重叠率超过了70%,则将这两个目标划所对应的tracklets(detection不断关联形成轨迹,中间产生的结果成为tracklet)分到同一个区域块中,最终将视频帧划分成多个不同的区域块,以备后续关联。
s44、局部关联,该步是分别处理s43产生的不同区域块里面包含的tracklets,在该区域块范围内,计算所有tracklets和detections的相似度,利用匈牙利算法进行最优关联。依次对视频帧中所有的区域块进行如上处理。
相似度计算:计算出detection和tracklet的颜色特征、尺寸特征以及速度特征,将这三种特征进行加权求和,计算不同特征之间的余弦距离作为相似度。
s45、全局关联,该步处理s44中没有关联成功的tracklets,此时不再局限于各个区域块内,而是将整个帧中剩余的tracklets放在一起处理。计算s44没有关联成功的tracklets和detections的相似度,然后利用匈牙利算法进行最优匹配。
s46、遮挡处理,如果目标被严重遮挡,此时目标会被丢失,轨迹被中断。我们s42中利用贝叶斯进行了位置预测,也就是说目标就算被严重遮挡,也会有一个大体的预测位置,该位置可以依次预测下去,但是预测帧数太多就会发生漂移,所以我们在此设定一个阈值,超过一定帧数,目标还没有出现而只有预测值,此时不再记录该目标对应的tracklet,终止该tracklet成为一条完整的轨迹。如果该目标在规定帧数内又出现了,则继续对该目标进行跟踪。
进一步,上述步骤s5中,对目标的位置和轨迹进行绘制,框出目标的位置,画出他们的轨迹和标号。
本发明具有如下优点:
本发明方法提出一种实时的视频多类多目标跟踪方法,在只有一个摄像头的情况下,能够对视频中的所有运动目标进行定位与跟踪,没有类别限定。这样就避免了为了实现多类目标跟踪而增加摄像头个数,大大降低了使用成本,降低了复杂度,提高了效率。
附图说明
图1为本发明中实时的视频多类多目标跟踪方法的流程框图;
图2为视频帧超像素分割的流程框图;
图3为视频目标检测的流程框图;
图4为视频目标跟踪的流程框图。
具体实施方式
下面结合附图以及具体实施方式对本发明作进一步详细说明:
结合图1所示,一种实时的视频多类多目标跟踪方法,包括如下步骤:
s1、视频预处理,采用基于k-means聚类方法的SLIC超像素分割方法对视频帧进行预处理,结合图2所示,具体步骤包括:
s11、初始化聚类中心,确定生成超像素的个数,假设图像内有N个像素点,则超像素的大小为N/K,聚类中心间的距离为生成的超像素大小近似为S2。设超像素的聚类中心为Ck=[lk,ak,bk,xk,yk]T,其中k的范围为1到K。为了避免噪点成为聚类中心,对后续的聚类过程造成干扰,需要将聚类中心移动到以它为中心的N×N区域内梯度值最小的地方,同时为聚类中心分配一个单独的标签。计算图像梯度公式如下:
G(x,y)=||I(x+1,y)-I(x-1,y)||2+||I(x,y+1)-I(x,y-1)||2
其中,I(x,y)为[l a b]向量对应于[x y]向量,||.||是L2norm也就是欧几里德距离。这样就同时考虑了颜色和强度信息。
s12、迭代聚类,每一次迭代中,在包含聚类中心的2S*2S区域内搜素,使所有像素都和一个最邻近(min(Ds))的聚类中心联系在一起,当所有像素都和最近的聚类中心建立了联系,接下来更新聚类中心,新的聚类中心为所有属于这一聚类中心的像素的向量的均值,记当前聚类中心和之前聚类中心之间的残留偏差为E,重复迭代至偏差收敛。
其中Ds是像素i和聚类中心k之间位置坐标(x,y)的距离和lab的颜色距离的加权距离,计算过程如下:
d c = ( l k - k i ) 2 + ( a k - a i ) 2 + ( b k - b i ) 2
d s = ( x k - x i ) 2 + ( y k - y i ) 2
D ′ = ( d c N c ) 2 + ( d s N s ) 2
其中,Ns是最大空间距离,Nc是最大颜色距离。最大空间距离和聚类中心的间距相关,从而令Ns=S。但是最大颜色距离Nc是不能直接确定的,我们直接将其设置为一个常量m。则公式可化为:
D ′ = ( d c m ) 2 + ( d s s ) 2
s13、后续处理,通过把不连续的孤立点和最邻近的超像素联系起来,保证连通性。
在迭代聚类结束时,并不能保证一个聚类里的像素点来自于一个连通分量,也就是说会存在极少数的像素点是孤立的。为了解决这一问题,我们可以在算法的最后一步加强联通性,使用联通元素算法使这些孤立的像素与邻近的聚类中心关联。如果有多个符合条件的聚类中心,则选取五维特征空间中距离最邻近的那个中心与孤立点关联。
s2、目标检测器设计与训练,结合图3所示,具体步骤包括:
s21、背景建模,在场景中存在运动目标的情况下获得背景图像。视频流中某一像素点只有在前景运动目标通过时,它的亮度值才会发生大的变化,在一段时间内,亮度值主要集中在很小的一个区域中,可以用这个区域内的平均值作为该点的背景值。
s22、特征提取,分别提取背景和前景超像素块的颜色直方图特征和运动特征的加权特征。
其中,颜色直方图特征用来描述图像的颜色信息。光流的基本思想是,在空间中运动可以用运动场描述,而在一个图像平面上,物体的运动往往是通过图像序列中图像之间灰度分布的不同体现的,从而空间中的运动场转移到图像上就表示为光流场。光流场反映了图像上每一点灰度的变化趋势,它能够检测独立运动的对象,不需要预先知道场景的任何信息,可以很精确地计算出运动物体的速度,并且可用于摄像机运动的情况。
s23、线下训练,利用s22步中提取的特征进行前景和背景分类器的训练,得到一个联级的boosted分类器,训练的负样本是背景,正样本是前景,所有的样本首先被归一化为同样的大小。
s24、噪声分类器,s23步训练完成后,可以区分背景和前景,此时的前景就是视频中所有运动的区域,但这时可能会有噪声,比如阴影等。训练一个噪声二分类分类器,负样本是噪声,正样本是目标,从而能够区分出前景中的目标和噪声。
s3、对视频帧进行目标检测,利用s2训练好的分类器,对给定的视频序列进行目标检测,记下检测区域的位置、大小等信息。
s4、目标跟踪模型设计并对目标进行跟踪,结合图4所示,具体步骤包括:
s41、轨迹初始化,利用前5帧的目标检测结果(detection)初始化轨迹,具体操作是,计算前5帧中相邻帧之间所有detection的特征相似度,主要包括颜色、速度和尺寸特征。利用匈牙利算法,根据计算出来的相似度进行detection的匹配,从而形成初始轨迹。
s42、位置预测,在处理当前帧时,先利用空间上下文信息,使用贝叶斯模型进行目标的位置预测,确定目标可能出现的位置范围,从而减小匹配范围,降低算法复杂度。
s43、区域分块,根据s42的预测结果,如果两个目标的预测位置的重叠率超过了70%,则将这两个目标划所对应的tracklets(detection不断关联形成轨迹,中间产生的结果成为tracklet)分到同一个区域块中,最终将视频帧划分成多个不同的区域块,以备后续关联。
s44、局部关联,该步是分别处理s43产生的不同区域块里面包含的tracklets,在该区域块范围内,计算所有tracklets和detections的相似度,利用匈牙利算法进行最优关联。依次对视频帧中所有的区域块进行如上处理。
s45、全局关联,该步处理s44中没有关联成功的tracklets,此时不再局限于各个区域块内,而是将整个帧中剩余的tracklets放在一起处理。计算s44没有关联成功的tracklets和detections的相似度,然后利用匈牙利算法进行最优匹配。
s46、遮挡处理,如果目标被严重遮挡,此时目标会被丢失,轨迹被中断。我们s42中利用贝叶斯进行了位置预测,也就是说目标就算被严重遮挡,也会有一个大体的预测位置,该位置可以依次预测下去,但是预测帧数太多就会发生漂移,所以我们在此设定一个阈值,超过一定帧数,目标还没有出现而只有预测值,此时不再记录该目标对应的tracklet,终止该tracklet成为一条完整的轨迹。如果该目标在规定帧数内又出现了,则继续对该目标进行跟踪。
s5、轨迹可视化,对目标的位置和轨迹进行绘制,框出目标的位置,画出他们的轨迹和标号。

Claims (6)

1.一种实时的视频多类多目标跟踪方法,其特征在于,包括如下步骤:
s1、视频帧的预处理,比如超像素分割;
s2、基于超像素块设计目标检测器并进行线下训练,充分利用运动特征从而检测到视频中所有运动的目标;
s3、利用训练好的检测器对给定的视频进行目标检测;
s4、设计目标跟踪模型,并对视频中的目标进行跟踪;
s5、轨迹的可视化。
2.根据权利要求1所述的一种实时的视频多类多目标跟踪方法,其特征在于,所述步骤s1中,采用基于k-means聚类方法的SLIC超像素分割方法对视频帧进行预处理,进一步包括:
s11、初始化聚类中心,确定生成超像素的个数,假设图像内有N个像素点,则超像素的大小为N/K,聚类中心之间的距离为
s12、迭代聚类,每一次迭代中,在包含聚类中心的2S*2S大小区域内搜素,使所有像素都和一个最邻近的聚类中心联系在一起,当所有像素都和最近的聚类中心建立了联系,接下来更新聚类中心,新的聚类中心为当前所有属于这一聚类中心的像素的特征向量的均值,记当前聚类中心和之前聚类中心之间的残留偏差为E,重复迭代至偏差小于规定的阈值;
s13、后续处理,通过把不连续的孤立点和最邻近的超像素联系起来,保证连通性。
3.根据权利要求1所述的一种实时的视频多类多目标跟踪方法,其特征在于,所述s2步骤中,检测出视频中所有运动的目标,进一步包括:
s21、背景建模,在场景中存在运动目标的情况下获得背景图像;
s22、特征提取,分别提取背景和前景超像素块的颜色直方图特征和光流运动特征,并将两种特征进行加权处理;
s23、线下训练,利用s22步中提取的特征进行前景和背景分类器的训练,得到一个联级的boosted分类器,训练的负样本是背景,正样本是前景,所有的样本首先被归一化为同样的大小;
s24、噪声分类器,s23步训练完成后,可以区分背景和前景,此时的前景就是视频中所有运动的区域,但这时可能会有噪声,比如阴影等。训练一个噪声二分类分类器,负样本是噪声,正样本是目标,从而能够区分出前景中的目标和噪声。
4.根据权利要求1所述的一种实时的视频多类多目标跟踪方法,其特征在于,所述步骤s3中,利用s2训练好的分类器,对给定的视频序列进行目标检测,记下检测区域的位置、大小等信息。
5.根据权利要求4所述的一种实时的视频多类多目标跟踪方法,其特征在于,所述步骤s4进一步包括:
s41、轨迹初始化,利用前5帧的目标检测结果(detection)初始化轨迹,具体操作是,计算前5帧中相邻帧之间所有detection的特征相似度,主要包括颜色、速度和尺寸特征。利用匈牙利算法,根据计算出来的相似度进行detection的匹配,从而形成初始轨迹;
s42、位置预测,在处理当前帧时,先利用空间上下文信息,使用贝叶斯模型进行目标的位置预测,确定目标可能出现的位置范围,从而减小匹配范围,降低算法复杂度;
s43、区域分块,根据s42的预测结果,如果两个目标的预测位置的重叠率超过了70%,则将这两个目标划所对应的tracklets(detection不断关联形成轨迹,中间产生的结果称为tracklet)分到同一个区域块中,最终将视频帧划分成多个不同的区域块,以备后续关联;
s44、局部关联,该步是分别处理s43产生的不同区域块里面包含的tracklets,在该区域块范围内,计算所有tracklets和detections的相似度,利用匈牙利算法进行最优关联。依次对视频帧中所有的区域块进行如上处理;
s45、全局关联,该步处理s44中没有关联成功的tracklets,此时不再局限于各个区域块内,而是将整个帧中剩余的tracklets放在一起处理。计算s44没有关联成功的tracklets和detections的相似度,然后利用匈牙利算法进行最优匹配;
s46、遮挡处理,如果目标被严重遮挡,此时目标会被丢失,轨迹被中断。我们s42中利用贝叶斯进行了位置预测,也就是说目标就算被严重遮挡,也会有一个大体的预测位置,该位置可以依次预测下去,但是预测帧数太多就会发生漂移,所以我们在此设定一个阈值,超过一定帧数,目标还没有出现而只有预测值,此时不再记录该目标对应的tracklet,终止该tracklet成为一条完整的轨迹。如果该目标在规定帧数内又出现了,则继续对该目标进行跟踪。
6.根据权利要求1所述的一种实时的视频多类多目标跟踪方法,其特征在于,所述步骤s5中,对目标的位置和轨迹进行绘制,框出目标的位置,画出他们的轨迹和标号。
CN201610452558.2A 2016-06-21 2016-06-21 一种实时的视频多类多目标跟踪方法 Pending CN106127807A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610452558.2A CN106127807A (zh) 2016-06-21 2016-06-21 一种实时的视频多类多目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610452558.2A CN106127807A (zh) 2016-06-21 2016-06-21 一种实时的视频多类多目标跟踪方法

Publications (1)

Publication Number Publication Date
CN106127807A true CN106127807A (zh) 2016-11-16

Family

ID=57470515

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610452558.2A Pending CN106127807A (zh) 2016-06-21 2016-06-21 一种实时的视频多类多目标跟踪方法

Country Status (1)

Country Link
CN (1) CN106127807A (zh)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106709948A (zh) * 2016-12-21 2017-05-24 浙江大学 一种基于超像素分割的快速双目立体匹配方法
CN106803263A (zh) * 2016-11-29 2017-06-06 深圳云天励飞技术有限公司 一种目标跟踪方法及装置
CN106846343A (zh) * 2017-03-09 2017-06-13 东南大学 一种基于聚类超像素分割的病理图像特征提取方法
CN107154045A (zh) * 2017-03-31 2017-09-12 南京航空航天大学 一种基于计算机视觉的导流区违章轧线车辆精确定位方法
CN108346158A (zh) * 2017-01-22 2018-07-31 山东大学 基于主块数据关联的多目标跟踪方法及系统
CN108446634A (zh) * 2018-03-20 2018-08-24 北京天睿空间科技股份有限公司 基于视频分析和定位信息结合的航空器持续跟踪方法
CN108447080A (zh) * 2018-03-02 2018-08-24 哈尔滨工业大学深圳研究生院 基于分层数据关联和卷积神经网络的目标跟踪方法、系统和存储介质
CN108986138A (zh) * 2018-05-24 2018-12-11 北京飞搜科技有限公司 目标跟踪方法及设备
WO2019001505A1 (zh) * 2017-06-30 2019-01-03 杭州海康威视数字技术股份有限公司 一种目标特征提取方法、装置及应用系统
CN109212545A (zh) * 2018-09-19 2019-01-15 长沙超创电子科技有限公司 基于主动视觉的多信源目标跟踪测量系统及跟踪方法
CN109272022A (zh) * 2018-08-22 2019-01-25 天津大学 一种联合场景和运动多特征的视频行为聚类方法
CN109740533A (zh) * 2018-12-29 2019-05-10 北京旷视科技有限公司 遮挡比例确定方法、装置和电子系统
CN109788433A (zh) * 2019-03-13 2019-05-21 东南大学 一种基于深度卷积自编码网络的室内定位轨迹聚类方法
CN110111338A (zh) * 2019-04-24 2019-08-09 广东技术师范大学 一种基于超像素时空显著性分割的视觉跟踪方法
CN110176027A (zh) * 2019-05-27 2019-08-27 腾讯科技(深圳)有限公司 视频目标跟踪方法、装置、设备及存储介质
CN110378189A (zh) * 2019-04-22 2019-10-25 北京旷视科技有限公司 一种监控布置方法、装置、终端及存储介质
CN110769259A (zh) * 2019-11-05 2020-02-07 智慧视通(杭州)科技发展有限公司 一种视频目标跟踪轨迹内容的图像数据压缩方法
CN111402301A (zh) * 2020-03-17 2020-07-10 浙江大华技术股份有限公司 积水检测方法及装置、存储介质及电子装置
CN113160273A (zh) * 2021-03-25 2021-07-23 常州工学院 一种基于多目标跟踪的监控视频智能分段方法
CN113269109A (zh) * 2021-06-03 2021-08-17 重庆市畜牧科学院 基于视觉ai的猪只状态分析系统和方法
CN113362379A (zh) * 2021-07-09 2021-09-07 肇庆学院 一种基于虚拟超声图像的运动目标轨迹追踪检测方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103489199A (zh) * 2012-06-13 2014-01-01 通号通信信息集团有限公司 视频图像目标跟踪处理方法和系统
CN104112282A (zh) * 2014-07-14 2014-10-22 华中科技大学 一种基于在线学习跟踪监控视频中多个运动目标的方法
CN104298968A (zh) * 2014-09-25 2015-01-21 电子科技大学 一种基于超像素的复杂场景下的目标跟踪方法
CN105046220A (zh) * 2015-07-10 2015-11-11 华为技术有限公司 一种多目标跟踪方法、装置及设备
CN105678804A (zh) * 2016-01-06 2016-06-15 北京理工大学 一种耦合目标检测与数据关联的实时在线多目标跟踪方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103489199A (zh) * 2012-06-13 2014-01-01 通号通信信息集团有限公司 视频图像目标跟踪处理方法和系统
CN104112282A (zh) * 2014-07-14 2014-10-22 华中科技大学 一种基于在线学习跟踪监控视频中多个运动目标的方法
CN104298968A (zh) * 2014-09-25 2015-01-21 电子科技大学 一种基于超像素的复杂场景下的目标跟踪方法
CN105046220A (zh) * 2015-07-10 2015-11-11 华为技术有限公司 一种多目标跟踪方法、装置及设备
CN105678804A (zh) * 2016-01-06 2016-06-15 北京理工大学 一种耦合目标检测与数据关联的实时在线多目标跟踪方法

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106803263A (zh) * 2016-11-29 2017-06-06 深圳云天励飞技术有限公司 一种目标跟踪方法及装置
CN106709948A (zh) * 2016-12-21 2017-05-24 浙江大学 一种基于超像素分割的快速双目立体匹配方法
CN108346158A (zh) * 2017-01-22 2018-07-31 山东大学 基于主块数据关联的多目标跟踪方法及系统
CN106846343A (zh) * 2017-03-09 2017-06-13 东南大学 一种基于聚类超像素分割的病理图像特征提取方法
CN107154045B (zh) * 2017-03-31 2020-06-09 南京航空航天大学 一种基于计算机视觉的导流区违章轧线车辆精确定位方法
CN107154045A (zh) * 2017-03-31 2017-09-12 南京航空航天大学 一种基于计算机视觉的导流区违章轧线车辆精确定位方法
WO2019001505A1 (zh) * 2017-06-30 2019-01-03 杭州海康威视数字技术股份有限公司 一种目标特征提取方法、装置及应用系统
US11398084B2 (en) 2017-06-30 2022-07-26 Hangzhou Hikvision Digital Technology Co., Ltd. Method, apparatus and application system for extracting a target feature
CN108447080A (zh) * 2018-03-02 2018-08-24 哈尔滨工业大学深圳研究生院 基于分层数据关联和卷积神经网络的目标跟踪方法、系统和存储介质
CN108447080B (zh) * 2018-03-02 2023-05-23 哈尔滨工业大学深圳研究生院 基于分层数据关联和卷积神经网络的目标跟踪方法、系统和存储介质
CN108446634A (zh) * 2018-03-20 2018-08-24 北京天睿空间科技股份有限公司 基于视频分析和定位信息结合的航空器持续跟踪方法
CN108986138A (zh) * 2018-05-24 2018-12-11 北京飞搜科技有限公司 目标跟踪方法及设备
CN109272022B (zh) * 2018-08-22 2021-06-04 天津大学 一种联合场景和运动多特征的视频行为聚类方法
CN109272022A (zh) * 2018-08-22 2019-01-25 天津大学 一种联合场景和运动多特征的视频行为聚类方法
CN109212545A (zh) * 2018-09-19 2019-01-15 长沙超创电子科技有限公司 基于主动视觉的多信源目标跟踪测量系统及跟踪方法
CN109740533A (zh) * 2018-12-29 2019-05-10 北京旷视科技有限公司 遮挡比例确定方法、装置和电子系统
CN109788433B (zh) * 2019-03-13 2020-09-25 东南大学 一种基于深度卷积自编码网络的室内定位轨迹聚类方法
CN109788433A (zh) * 2019-03-13 2019-05-21 东南大学 一种基于深度卷积自编码网络的室内定位轨迹聚类方法
CN110378189A (zh) * 2019-04-22 2019-10-25 北京旷视科技有限公司 一种监控布置方法、装置、终端及存储介质
CN110111338A (zh) * 2019-04-24 2019-08-09 广东技术师范大学 一种基于超像素时空显著性分割的视觉跟踪方法
WO2020238560A1 (zh) * 2019-05-27 2020-12-03 腾讯科技(深圳)有限公司 视频目标跟踪方法、装置、计算机设备及存储介质
CN110176027B (zh) * 2019-05-27 2023-03-14 腾讯科技(深圳)有限公司 视频目标跟踪方法、装置、设备及存储介质
CN110176027A (zh) * 2019-05-27 2019-08-27 腾讯科技(深圳)有限公司 视频目标跟踪方法、装置、设备及存储介质
CN110769259A (zh) * 2019-11-05 2020-02-07 智慧视通(杭州)科技发展有限公司 一种视频目标跟踪轨迹内容的图像数据压缩方法
CN111402301A (zh) * 2020-03-17 2020-07-10 浙江大华技术股份有限公司 积水检测方法及装置、存储介质及电子装置
CN111402301B (zh) * 2020-03-17 2023-06-13 浙江大华技术股份有限公司 积水检测方法及装置、存储介质及电子装置
CN113160273A (zh) * 2021-03-25 2021-07-23 常州工学院 一种基于多目标跟踪的监控视频智能分段方法
CN113269109A (zh) * 2021-06-03 2021-08-17 重庆市畜牧科学院 基于视觉ai的猪只状态分析系统和方法
CN113269109B (zh) * 2021-06-03 2023-12-05 重庆市畜牧科学院 基于视觉ai的猪只状态分析系统和方法
CN113362379A (zh) * 2021-07-09 2021-09-07 肇庆学院 一种基于虚拟超声图像的运动目标轨迹追踪检测方法
CN113362379B (zh) * 2021-07-09 2023-04-07 肇庆学院 一种基于虚拟超声图像的运动目标轨迹追踪检测方法

Similar Documents

Publication Publication Date Title
CN106127807A (zh) 一种实时的视频多类多目标跟踪方法
Mukojima et al. Moving camera background-subtraction for obstacle detection on railway tracks
Min et al. A new approach to track multiple vehicles with the combination of robust detection and two classifiers
Tian et al. Rear-view vehicle detection and tracking by combining multiple parts for complex urban surveillance
CN102598057B (zh) 自动对象识别、然后根据对象形状进行对象跟踪的方法和系统
Yuan et al. Tracking as a whole: Multi-target tracking by modeling group behavior with sequential detection
CN101739551B (zh) 运动目标识别方法及系统
CN106778712B (zh) 一种多目标检测与跟踪方法
Rout A survey on object detection and tracking algorithms
CN103971386A (zh) 一种动态背景场景下的前景检测方法
Zou et al. Robust nighttime vehicle detection by tracking and grouping headlights
CN108776974B (zh) 一种适用于公共交通场景的实时目标跟踪方法
CN104008371A (zh) 一种基于多摄像机的区域可疑目标跟踪与识别方法
CN102147861A (zh) 一种基于颜色-纹理双重特征向量进行贝叶斯判决的运动目标检测方法
Zhao et al. APPOS: An adaptive partial occlusion segmentation method for multiple vehicles tracking
Hosseinyalamdary et al. A Bayesian approach to traffic light detection and mapping
Ghazvini et al. A recent trend in individual counting approach using deep network
Chau et al. Object tracking in videos: Approaches and issues
Dong et al. Detection method for vehicles in tunnels based on surveillance images
Li et al. Moving vehicle detection based on an improved interframe difference and a Gaussian model
Kim et al. Unsupervised moving object segmentation and recognition using clustering and a neural network
Chandorkar et al. Vehicle Detection and speed tracking
Shbib et al. Distributed monitoring system based on weighted data fusing model
Said et al. Real-time detection and classification of traffic light signals
Joshi Vehicle speed determination using image processing

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20161116