CN106875415B - 一种动态背景中弱小动目标的连续稳定跟踪方法 - Google Patents
一种动态背景中弱小动目标的连续稳定跟踪方法 Download PDFInfo
- Publication number
- CN106875415B CN106875415B CN201611246454.2A CN201611246454A CN106875415B CN 106875415 B CN106875415 B CN 106875415B CN 201611246454 A CN201611246454 A CN 201611246454A CN 106875415 B CN106875415 B CN 106875415B
- Authority
- CN
- China
- Prior art keywords
- target
- moving target
- image
- frame
- tracking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Abstract
本发明公开了一种动态背景中弱小动动目标的连续稳定跟踪方法,首先获取视频数据,针对每一帧图像进行如下处理:在当前帧图像中,获取待跟踪动目标位置坐标,依据该位置确定目标追踪框;采用贝叶斯框架对目标追踪框内区域建立当前帧图像的空间上下文模型;利用当前帧图像的空间上下文模型与下一帧图像进行卷积计算获得下一帧图像中待跟踪动目标出现位置的置信图,置信度最大的位置即下一帧图像中的待跟踪动目标位置;基于双阈值动目标危机判定,判定待跟踪动目标没有被遮挡或者丢失时,则输出下一帧图像中的动目标位置,当前帧图像的跟踪处理过程结束;否则更新目标追踪框进行重检。该方法实现了目标在背景干扰和遮挡情况下的连续稳定跟踪。
Description
技术领域
本发明属于目标检测跟踪研究领域,具体为一种在动态背景下弱小动目标连续稳定跟踪方法。
背景技术
运动目标的跟踪在军事、国防以及工业等领域具有广泛的应用前景,引起了国内外广大科研工作者的浓厚兴趣,使之发展成为计算机视觉的一个热点领域。目前,典型的运动目标跟踪方法主要有:帧差法、基于模板匹配的跟踪方法、基于特征点的跟踪方法和基于周域统计特性的跟踪方法。帧差法适用于背景变化较小的静态场景,算法复杂度低,但对大目标慢动情况只能提取目标的轮廓。基于模板匹配的跟踪方法事先建立的跟踪目标模板直接决定了跟踪的效果,精确有效的目标模板比较难获得,且模板更新过程比较复杂,实时性差。基于特征点的跟踪方法由于不用考虑目标持征的整体性,所以目标跟踪精度高且鲁棒性好,但对简单结构特征点不突出的目标跟踪效果不理想。基于周域统计特性的跟踪方法是目前在实际应用中比较多的一种方法,此算法实现过程简单,并且程序运算速度快。
如何准确的判断目标的遮挡及准确定位重新出现的目标,是实现目标连续稳定跟踪的重点。所谓弱小目标,是指当成像系统和目标的相对位置较远时,虽然目标本身可能有几米甚至十几米的直径,但在成像平面内仅表现为十几个像素的面积。而动态背景下的弱小动目标,由于摄像机运载平台的运动影响及目标自身大小、特征的限制,使其成为运动目标跟踪问题的一个难点。
发明内容
有鉴于此,本发明提供了一种动态背景中弱小动目标的连续稳定跟踪方法,该方法能够对目标被遮挡或者丢失的状况进行判定,从而实现了目标在背景干扰和遮挡情况下的连续稳定跟踪。
为了达到上述目的,本发明的技术方案为:一种动态背景中弱小动动目标的连续稳定跟踪方法,包括以下具体步骤:
S1:获取视频数据,针对视频数据中的每一帧图像按照时间顺序进行如下S2~S6的跟踪处理。
S2:在当前帧图像中,获取待跟踪动目标位置坐标,对当前帧图像进行阈值分割和形态学运算,得到多个连通域,并以包含所述待跟踪动目标位置坐标的连通域作为目标区域,取该目标区域的外接矩形框为目标追踪框。
若当前帧图像为初始帧,则通过外部输入获得该待跟踪动目标位置坐标,否则直接获取上一帧图像跟踪获得的目标位置坐标。
S3:采用贝叶斯框架对目标追踪框内区域建立当前帧图像的空间上下文模型。
S4:利用所述当前帧图像的空间上下文模型与所述下一帧图像进行卷积计算获得下一帧图像中待跟踪动目标出现位置的置信图,置信度最大的位置即下一帧图像中的待跟踪动目标位置。
S5:基于双阈值动目标危机判定,以确定动目标是否遮挡或丢失,具体步骤为:
针对所述下一帧图像中待跟踪动目标出现位置的置信图的峰值尖锐度PSR,计算PSR的标准化值Rt。
统计当前帧图像和下一帧图像目标区域差值的绝对值的元素和作为差异值St。
当Rt小于第一设定阈值,St小于第二设定阈值时,判定待跟踪动目标被遮挡或者丢失。
当判定待跟踪动目标没有被遮挡或者丢失时,则输出下一帧图像中的动目标位置,当前帧图像的跟踪处理过程结束。
若判定待跟踪动目标存在被遮挡或者丢失时,进入步S6。
S6、以S4中得到动目标位置为中心确定搜索区域,所述搜索区域尺寸为预先设定值,采用尺度不变特征变换匹配SIFT算法对下一帧图像以及下一帧图像后第k帧图像进行匹配,k为预设的帧间隔,然后利用帧差法对匹配结果中的搜索区域进行帧差得到二值图像,若二值图像中包含动目标且与待跟踪动目标的尺寸限定条件相差在设定范围内,则以所述二值图像中动目标的最小外接矩形作为目标追踪框返回S3,否则增大k值重复本步骤。
进一步地,S3包括如下步骤:
S31:针对当前帧图像t,针对动目标追踪框,利用置信图函数c(x)计算出动目标所在帧的置信度图:
其中,x是动目标追踪框内的像素值,x*为所述动目标的点坐标对应像素值;b是置信图函数中预设的规则化常数,α是置信图函数中预设的尺度参数,β是置信图函数中预设的形状参数;
S32:基于在生物视觉系统中的关注焦点特性,计算出当前帧图像的先验概率图P(c(z)|o):P(c(z)|o)=I(z)ωσ(z-x*);
其中,I(z)表示图像中z坐标处像素的灰度值,a是加权高斯函数中预设的规则化的常数,σ是加权高斯函数中预设的尺度参数,z为动目标追踪框区域内的各像素点的位置坐标;
F代表快速傅里叶变换。
优选地,第一设定阈值为2,第二设定阈值为5。
优选地,β=1。
有益效果:
1、本发明基于当前目标位置置信图来自适应更新时空上下文模型,避免了目标轻微遮挡时产生模型更新错误,实现目标在背景干扰、轻微遮挡等情况下的稳健长时间跟踪。本发明基于目标位置置信图峰值尖锐度PSR和目标区域灰度强度变化信息的目标危机判别函数,可以对强干扰、严重遮挡情况下目标可能丢失的情况进行判别。
2、本发明中,当目标严重丢失时,基于SIFT实现帧间图像的匹配,并利用区域帧差法对目标进行重新位置确定,将定位结果传送给时空上下文模型,完成线上目标的连续稳定长时跟踪。
附图说明
图1为发明流程图;
图2为采集的视频数据的初始帧图像;
图3为目标区域提取图像,图中(a)为截取的目标128×128的包含目标的处理区域,(b)为自适应分割的模板与目标区域的组合显示,(c)分割结果;
图4为分割目标框在初始帧图像的显示;
图5为追踪丢失时的图像及目标框的显示;
图6为利用SIFT和帧差法重捕获目标及目标外接矩形框的显示;
图7再次利用本文追踪方法的追踪结果显示。
具体实施方式
下面结合附图并举实施例,对本发明进行详细描述。
实施例:本实施例提供了一种针对动态背景中弱小动目标的连续稳定跟踪方法,流程如图1所示,包括以下具体步骤:
S1:获取视频数据,本实施例中所获取的视频数据为利用无人机自主拍摄,采集视频的图像尺寸为720×1280像素的彩色数据,无人机飞行高度为103米,视频帧频为100帧/秒。针对视频数据中的每一帧图像按照时间顺序进行如下处理。本实施例中所采集的初始帧图像如图2所示。
S2:在当前帧图像中,获取待跟踪动目标位置坐标,若当前帧图像为初始帧,则通过外部输入获得该待跟踪动目标位置坐标,否则直接获取上一帧跟踪获得的目标位置坐标即可对当前帧图像进行阈值分割和形态学运算,得到多个连通域,并以包含目标的点坐标的连通域作为目标区域,取该目标区域的外接矩形框为目标追踪框。
本实施例中,点选目标,获得图像目标上的一个点坐标[x,y],以点坐标周围128×128的包含目标的区域进行目标的预识别,首先,采用小波低通滤波系数对图像进行水平和垂直方向的滤波,通过二者进行算数平方根运算,得到区域的特征图像;其次对特征图像进行迭代阈值分割得到分割结果;通过对分割结果进行三阶卷积平滑处理和空洞填充处理,使目标形状信息更加突出;对各连通域进行标记,去除与边界相连的连通域,并通过面积、长宽比、及离点选坐标距离等信息确定目标二值图像区域,取其外接矩形框为目标框。本实施例中,目标区域提取图像如图3所示,图中(a)为截取的目标128×128的包含目标的处理区域,(b)为自适应分割的模板与目标区域的组合显示,(c)分割结果。图4为分割目标框在初始帧图像的显示。
S3:采用贝叶斯框架对目标追踪框内区域建立其空间上下文模型。
本实施例中,S3包括S31~S34四个步骤。
S31:针对当前帧图像t,针对目标追踪框,利用置信图函数c(x)计算出目标所在帧的置信度图:
其中,x是目标追踪框内的像素值,x*为目标的点坐标对应像素值;b是置信图函数中预设的规则化常数,α是置信图函数中预设的尺度参数,β是置信图函数中预设的形状参数;当β>1时,其图形比较平滑,不利于跟踪过程中目标中心点的定位,而当β<1时,图形的尖锋又过于尖锐,会造成跟踪器对噪声过于敏感。这里取β=1作为最终的参数。
S32:基于在生物视觉系统中的关注焦点特性,计算出当前帧图像的先验概率图P(c(z)|o):
P(c(z)|o)=I(z)ωσ(z-x*) (2)
其中,I(z)表示图像中z坐标处像素的灰度值,a是加权高斯函数中预设的规则化的常数,σ是加权高斯函数中预设的尺度参数,z为目标追踪框区域内的各像素点的位置坐标;
S33:利用所得到的置信度图和先验概率图建立目标的空间上下文模型
P(x|c(z),o)=hsc(x-z) (3)
将式(2)~(3)代入式(1)中,可以得到
F(c(x))=F(hsc(x))*F(I(z)ωσ(z-x*)) (5)
其中,F代表快速傅里叶变换,表示对应像素相乘.再对上述公式进行一个简单的变换,即可得到空间上下文模型的计算公式,即
F代表快速傅里叶变换;
S4:利用当前帧图像的空间上下文模型与下一帧图像进行卷积计算获得下一帧图像中目标出现位置的置信图,置信度最大的位置即下一帧图像中的目标位置;
本实施例中可以采用如下步骤执行S4:
S41:在第t+1帧中:当第t+1帧图像到来之前,首先,根据第t侦的目标中心点,提取空间信息区域(即目标和目标所在的位置一定范围内的信息(local context),Ωc(X*);X为搜索区域的像素值。
S42:构建相应的上下文特征集输入第t+1帧图像后,利用第t帧的所得到的时空上下文模型,将其与输入图像进行卷积运算,这样就能够得到第t+1峽图像中目标区域的置信度图,在置信度图中,置信度取值最大的位置就是所跟踪的目标中心点所在的位置。用公式表示为:
其中,ct+1(x)是计算第t+1帧图像的置信度图,由公式(6)推导出来:
由式(8)所得的目标位置是主要由空间信息跟踪的结果,即新的数据图像中的目标位置,基于S4循环进行目标的连续追踪。
S5:基于双阈值目标危机判定,以确定目标是否遮挡或丢失;
(1)每一帧得到的目标位置置信图峰值尖锐度(PSR)是不一样的。PSR大小反映了目标受遮挡、快速运动等因素影响的程度,实验表明目标在不同因素影响下PSR有较大区别,PSR值越大目标位置置信度越高。实验表明:当PSR值稳定在2.5~4时跟踪结果可信度较高,而低于2.5时目标可能受到遮挡、快速运动、光照变化等因素的影响,随着影响程度的增加PSR值也逐步降低。
现有方法中直接采用峰值max表征峰值尖锐度;本发明中采用峰值max值相对均值的偏移量来表征峰值尖锐度;通过减去均值、除以方差运算,将原有的ct(x)分布变为标准正太分布,使不同帧图像下的置信区域(11*11)分布有通用的阈值进行位置置信度的判别。
式中,ct(x)是计算第t帧图像的置信度图;μ和σ分别是置信图峰值位置周围11×11邻域内的均值和标准差,Rmax表示当前所有帧中PSR的最大值,一旦Rt低于阈值Rth(本发明根据目标框的大小取值为2.0),表明目标遮挡严重。
(2)为了提高遮挡判别的性能,将目标所在矩形区域分成n个4×4的子块,通过统计相邻帧目标框区域内的灰度相关匹配程度来进行目标是否遮挡或丢失进行判别,公式如下:
式中,p=1,…,n,对应n个子块区域的块数,u和v对应子块区域的最大长和宽;ft+1(i,j)表示t+1帧目标区域图像中某子块区域(i,j)位置的像素灰度值,ft(i,j)表示t+1帧目标区域图像中某子块区域(i,j)位置的像素灰度值;表示目标区域内目标灰度特征偏移量,即相邻帧图像中目标框区域内目标的灰度相关匹配程度;其[0,10]表示微小差异变化,[10,30]表示重度差异变化,30以上表示严重差异变化。
其中图5为追踪丢失时的图像及目标框的显示。
当判定待跟踪动目标没有被遮挡或者丢失时,则输出下一帧图像中的目标位置;
若判定待跟踪动目标存在被遮挡或者丢失时,进入步S6;
S6、以S4中得到动目标位置为中心确定搜索区域,搜索区域尺寸为预先设定值,采用尺度不变特征变换匹配算法即SIFT算法对下一帧图像以及下一帧图像后第k帧图像进行匹配,k为预设的帧间隔,k的值不必过大,可以根据帧率的动目标速度确定,应当能够保证动目标能够出现,然后利用帧差法对匹配结果中的搜索区域进行帧差得到二值图像,若二值图像中包含动目标且与待跟踪动目标的尺寸限定条件相差在设定范围内,则以二值图像中动目标的最小外接矩形作为目标追踪框返回S3,否则增大k值重新进行匹配,k值增大部分不必过大,可以直接自增k。
上述尺寸限定条件可以为预先设定,或者依据S2中所跟踪到的目标区域尺寸进行设定。
图6为利用SIFT算法和帧差法重捕获目标及目标外接矩形框的显示;图7再次利用本文追踪方法的追踪结果显示。
综上,以上仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (4)
1.一种动态背景中弱小动目标的连续稳定跟踪方法,其特征在于,包括以下具体步骤:
S1:获取视频数据,针对视频数据中的每一帧图像按照时间顺序进行如下S2~S6的跟踪处理;
S2:在当前帧图像中,获取待跟踪动目标位置坐标,对当前帧图像进行阈值分割和形态学运算,得到多个连通域,并以包含所述待跟踪动目标位置坐标的连通域作为目标区域,取该目标区域的外接矩形框为目标追踪框;
若当前帧图像为初始帧,则通过外部输入获得该待跟踪动目标位置坐标,否则直接获取上一帧图像跟踪获得的目标位置坐标;
S3:采用贝叶斯框架对目标追踪框内区域建立当前帧图像的空间上下文模型;
S4:利用所述当前帧图像的空间上下文模型与下一帧图像进行卷积计算获得下一帧图像中待跟踪动目标出现位置的置信图,置信度最大的位置即下一帧图像中的待跟踪动目标位置;
S5:基于双阈值动目标危机判定,以确定动目标是否遮挡或丢失,具体步骤为:
针对所述下一帧图像中待跟踪动目标出现位置的置信图的峰值尖锐度PSR,计算PSR的标准化值Rt;
统计当前帧图像和下一帧图像目标区域差值的绝对值的元素和作为差异值St;
当Rt小于第一设定阈值,St大于第二设定阈值时,判定待跟踪动目标被遮挡或者丢失;
当判定待跟踪动目标没有被遮挡或者丢失时,则输出下一帧图像中的动目标位置,当前帧图像的跟踪处理过程结束;
若判定待跟踪动目标存在被遮挡或者丢失时,进入步骤S6;
S6、以S4中得到动目标位置为中心确定搜索区域,所述搜索区域尺寸为预先设定值,采用尺度不变特征变换匹配SIFT算法对下一帧图像以及下一帧图像后第k帧图像进行匹配,k为预设的帧间隔,然后利用帧差法对匹配结果中的搜索区域进行帧差得到二值图像,若二值图像中包含动目标且与待跟踪动目标的尺寸限定条件相差在设定范围内,则以所述二值图像中动目标的最小外接矩形作为目标追踪框返回S3,否则增大k值重复本步骤。
2.如权利要求1所述的一种动态背景中弱小动目标的连续稳定跟踪方法,其特征在于,所述S3包括如下步骤:
S31:针对当前帧图像t,针对动目标追踪框,利用置信图函数c(x)计算出动目标所在帧的置信度图:
其中,x是动目标追踪框内的像素值,x*为所述动目标的点坐标对应像素值;b是置信图函数中预设的规则化常数,α是置信图函数中预设的尺度参数,β是置信图函数中预设的形状参数;
S32:基于在生物视觉系统中的关注焦点特性,计算出当前帧图像的先验概率图P(c(z)|o):P(c(z)|o)=I(z)ωσ(z-x*);
其中,I(z)表示图像中z坐标处像素的灰度值,a是加权高斯函数中预设的规则化的常数,σ是加权高斯函数中预设的尺度参数,z为动目标追踪框区域内的各像素点的位置坐标;
F代表快速傅里叶变换。
3.如权利要求2所述的一种动态背景中弱小动目标的连续稳定跟踪方法,其特征在于,所述第一设定阈值为2,第二设定阈值为5。
4.如权利要求1、2或者3所述的一种动态背景中弱小动目标的连续稳定跟踪方法,其特征在于,β=1。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611246454.2A CN106875415B (zh) | 2016-12-29 | 2016-12-29 | 一种动态背景中弱小动目标的连续稳定跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611246454.2A CN106875415B (zh) | 2016-12-29 | 2016-12-29 | 一种动态背景中弱小动目标的连续稳定跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106875415A CN106875415A (zh) | 2017-06-20 |
CN106875415B true CN106875415B (zh) | 2020-06-02 |
Family
ID=59164301
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611246454.2A Active CN106875415B (zh) | 2016-12-29 | 2016-12-29 | 一种动态背景中弱小动目标的连续稳定跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106875415B (zh) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10720672B2 (en) | 2017-04-24 | 2020-07-21 | Autel Robotics Co., Ltd | Series-multiple battery pack management system |
CN108062761A (zh) * | 2017-12-25 | 2018-05-22 | 北京奇虎科技有限公司 | 基于自适应跟踪框的图像分割方法、装置及计算设备 |
WO2019140609A1 (zh) | 2018-01-18 | 2019-07-25 | 深圳市道通智能航空技术有限公司 | 目标检测方法及无人机 |
CN110363210B (zh) * | 2018-04-10 | 2023-05-05 | 腾讯科技(深圳)有限公司 | 一种图像语义分割模型的训练方法和服务器 |
CN108320298B (zh) * | 2018-04-28 | 2022-01-28 | 亮风台(北京)信息科技有限公司 | 一种视觉目标跟踪方法与设备 |
CN108564601B (zh) * | 2018-05-07 | 2021-03-02 | 北京禾泽方圆智能科技有限公司 | 一种基于深度学习算法的果实识别跟踪方法和系统 |
CN108898086B (zh) * | 2018-06-20 | 2023-05-26 | 腾讯科技(深圳)有限公司 | 视频图像处理方法及装置、计算机可读介质和电子设备 |
CN109118519A (zh) * | 2018-07-26 | 2019-01-01 | 北京纵目安驰智能科技有限公司 | 基于实例分割的目标Re-ID方法、系统、终端和存储介质 |
CN109446978B (zh) * | 2018-10-25 | 2022-01-07 | 哈尔滨工程大学 | 基于凝视卫星复杂场景的飞机动目标跟踪方法 |
CN109785358B (zh) * | 2018-11-23 | 2023-06-16 | 山东航天电子技术研究所 | 一种基于循环确认机制的抗遮挡红外小目标跟踪方法 |
CN110018468B (zh) * | 2019-02-26 | 2020-12-18 | 北京理工雷科电子信息技术有限公司 | 一种基于频率步进lfmcw的高重频测速方法 |
CN110084830B (zh) * | 2019-04-07 | 2022-12-09 | 西安电子科技大学 | 一种视频运动目标检测与跟踪方法 |
CN110136171B (zh) * | 2019-05-20 | 2023-04-18 | 哈尔滨工程大学 | 一种目标跟踪过程中判断遮挡的方法 |
CN110570451B (zh) * | 2019-08-05 | 2022-02-01 | 武汉大学 | 基于stc和分块重检测的多线程视觉目标跟踪方法 |
CN110738686B (zh) * | 2019-10-12 | 2022-12-02 | 四川航天神坤科技有限公司 | 静动态结合的视频人车检测方法及系统 |
CN110868600B (zh) * | 2019-11-11 | 2022-04-26 | 腾讯云计算(北京)有限责任公司 | 目标跟踪视频推流方法、显示方法、装置和存储介质 |
CN111260681A (zh) * | 2020-02-05 | 2020-06-09 | 河北科技大学 | 一种运动目标跟踪方法及运动目标跟踪装置 |
CN111429478B (zh) * | 2020-04-13 | 2022-08-26 | 展讯通信(上海)有限公司 | 目标追踪方法及相关设备 |
CN111429477B (zh) * | 2020-04-13 | 2022-08-26 | 展讯通信(上海)有限公司 | 目标追踪方法及装置、存储介质、计算机设备 |
CN112614154B (zh) * | 2020-12-08 | 2024-01-19 | 深圳市优必选科技股份有限公司 | 目标跟踪轨迹的获取方法、装置及计算机设备 |
CN112633168B (zh) * | 2020-12-23 | 2023-10-31 | 长沙中联重科环境产业有限公司 | 一种垃圾车翻桶动作识别方法、装置及垃圾车 |
CN112669297B (zh) * | 2020-12-31 | 2022-05-27 | 中国科学院长春光学精密机械与物理研究所 | 一种目标探测方法 |
CN113724290B (zh) * | 2021-07-22 | 2024-03-05 | 西北工业大学 | 一种用于红外图像的多层次模板自适应匹配目标跟踪方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102184550A (zh) * | 2011-05-04 | 2011-09-14 | 华中科技大学 | 一种动平台地面运动目标检测方法 |
CN103325112A (zh) * | 2013-06-07 | 2013-09-25 | 中国民航大学 | 动态场景中运动目标快速检测方法 |
CN103886322A (zh) * | 2012-12-20 | 2014-06-25 | 中山大学深圳研究院 | 一种基于SVM和Mean-Shift的视频目标跟踪方法 |
CN104463911A (zh) * | 2014-12-09 | 2015-03-25 | 上海新跃仪表厂 | 基于复杂背景估计的红外运动小目标检测方法 |
CN106250850A (zh) * | 2016-07-29 | 2016-12-21 | 深圳市优必选科技有限公司 | 人脸检测跟踪方法及装置、机器人头部转动控制方法及系统 |
US9959466B2 (en) * | 2012-09-06 | 2018-05-01 | Sony Corporation | Object tracking apparatus and method and camera |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7526101B2 (en) * | 2005-01-24 | 2009-04-28 | Mitsubishi Electric Research Laboratories, Inc. | Tracking objects in videos with adaptive classifiers |
US9607228B2 (en) * | 2014-02-14 | 2017-03-28 | Toyota Motor Engineering & Manufacturing North America, Inc. | Parts based object tracking method and apparatus |
-
2016
- 2016-12-29 CN CN201611246454.2A patent/CN106875415B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102184550A (zh) * | 2011-05-04 | 2011-09-14 | 华中科技大学 | 一种动平台地面运动目标检测方法 |
US9959466B2 (en) * | 2012-09-06 | 2018-05-01 | Sony Corporation | Object tracking apparatus and method and camera |
CN103886322A (zh) * | 2012-12-20 | 2014-06-25 | 中山大学深圳研究院 | 一种基于SVM和Mean-Shift的视频目标跟踪方法 |
CN103325112A (zh) * | 2013-06-07 | 2013-09-25 | 中国民航大学 | 动态场景中运动目标快速检测方法 |
CN104463911A (zh) * | 2014-12-09 | 2015-03-25 | 上海新跃仪表厂 | 基于复杂背景估计的红外运动小目标检测方法 |
CN106250850A (zh) * | 2016-07-29 | 2016-12-21 | 深圳市优必选科技有限公司 | 人脸检测跟踪方法及装置、机器人头部转动控制方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN106875415A (zh) | 2017-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106875415B (zh) | 一种动态背景中弱小动目标的连续稳定跟踪方法 | |
CN107256225B (zh) | 一种基于视频分析的热度图生成方法及装置 | |
CN106780576B (zh) | 一种面向rgbd数据流的相机位姿估计方法 | |
CN108062525B (zh) | 一种基于手部区域预测的深度学习手部检测方法 | |
CN109086724B (zh) | 一种加速的人脸检测方法及存储介质 | |
CN111539273A (zh) | 一种交通视频背景建模方法及系统 | |
CN109934224B (zh) | 基于马尔科夫随机场和视觉对比机制的小目标检测方法 | |
CN109685045B (zh) | 一种运动目标视频跟踪方法及系统 | |
CN109767454B (zh) | 基于时-空-频显著性的无人机航拍视频运动目标检测方法 | |
CN110910421B (zh) | 基于分块表征和可变邻域聚类的弱小运动目标检测方法 | |
JP2014504410A (ja) | 移動オブジェクトの検出及び追跡 | |
CN103093198B (zh) | 一种人群密度监测方法及装置 | |
CN111161313B (zh) | 一种视频流中的多目标追踪方法及装置 | |
CN110930411B (zh) | 一种基于深度相机的人体分割方法及系统 | |
CN112364865B (zh) | 一种复杂场景中运动小目标的检测方法 | |
CN110599489A (zh) | 一种目标空间定位方法 | |
CN107403451B (zh) | 自适应二值特征单目视觉里程计方法及计算机、机器人 | |
CN110827262B (zh) | 一种基于连续有限帧红外图像的弱小目标检测方法 | |
Sun et al. | Fusion of infrared and visible images for remote detection of low-altitude slow-speed small targets | |
CN109002777B (zh) | 一种面向复杂场景的红外小目标检测方法 | |
CN111507340B (zh) | 一种基于三维点云数据的目标点云数据提取方法 | |
CN115239882A (zh) | 一种基于弱光图像增强的农作物三维重建方法 | |
Chen et al. | A color-guided, region-adaptive and depth-selective unified framework for Kinect depth recovery | |
CN105719251A (zh) | 一种用于大像移线性模糊的压缩降质图像复原方法 | |
CN107067411B (zh) | 一种结合密集特征的Mean-shift跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB03 | Change of inventor or designer information |
Inventor after: Chen Tianming Inventor after: Zeng Dazhi Inventor after: Liang Ruofei Inventor after: Wang Changjie Inventor before: Zeng Dazhi Inventor before: Chen Tianming Inventor before: Liang Ruofei Inventor before: Wang Changjie |
|
CB03 | Change of inventor or designer information | ||
GR01 | Patent grant | ||
GR01 | Patent grant |