CN102063725A - 一种基于深度信息的多目标跟踪方法 - Google Patents
一种基于深度信息的多目标跟踪方法 Download PDFInfo
- Publication number
- CN102063725A CN102063725A CN2010106162228A CN201010616222A CN102063725A CN 102063725 A CN102063725 A CN 102063725A CN 2010106162228 A CN2010106162228 A CN 2010106162228A CN 201010616222 A CN201010616222 A CN 201010616222A CN 102063725 A CN102063725 A CN 102063725A
- Authority
- CN
- China
- Prior art keywords
- characteristic information
- depth
- information
- characteristic
- information database
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 230000009471 action Effects 0.000 claims abstract description 26
- 238000005352 clarification Methods 0.000 claims description 27
- 239000000284 extract Substances 0.000 claims description 11
- 230000008859 change Effects 0.000 claims description 6
- 238000012217 deletion Methods 0.000 claims description 4
- 230000037430 deletion Effects 0.000 claims description 4
- 230000013011 mating Effects 0.000 claims description 3
- 230000008878 coupling Effects 0.000 claims description 2
- 238000010168 coupling process Methods 0.000 claims description 2
- 238000005859 coupling reaction Methods 0.000 claims description 2
- 238000012545 processing Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 230000003993 interaction Effects 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012797 qualification Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
Images
Abstract
本发明提供一种基于深度信息的多目标跟踪方法,包括步骤:A.连续获取场景区域的深度帧;B.判断当前深度帧中是否出现启动动作,是则进入步骤C,否则进入步骤D;C.获取产生该启动动作的目标的特征信息并加入特征信息数据库;D.检查特征信息数据库中是否存在已经记录的特征信息,有则进入步骤E,否则返回步骤A;E.读取特征信息数据库中的特征信息,以其中深度位置信息为参数,在当前深度帧中提取参考轮廓;F.计算出所有参考轮廓的特征信息集合;G.将特征信息数据库中记录的特征信息与参考轮廓的特征信息集合进行对比,发现满足匹配条件的数据则进入步骤H,未发现则返回步骤A;H.更新特征信息数据库中记录的特征信息并输出满足匹配条件的特征信息。
Description
技术领域
本发明涉及图像处理技术,尤其涉及一种基于深度信息的多目标跟踪方法。
背景技术
图像处理(image processing)是用计算机对图像进行分析,以达到所需结果的技术,又称影像处理。图像处理技术的主要内容包括图像压缩,图像增强和复原,图像匹配、描述和识别等三大部分。
常见的处理有图像数字化、图像编码、图像增强、图像复原、图像分割和图像分析等,图像处理一般指数字图像处理。数字图像是指用数字摄像机、扫描仪等设备经过采样和数字化得到的一个大的二维数组,该数组的元素称为像素,其值为一整数,称为灰度值。虽然某些处理也可以用光学方法或模拟技术实现,但它们远不及数字图像处理那样灵活和方便,因而数字图像处理成为图像处理的主要方面。
目前普通的图像主要由二维的像素点组成的平面图像,这种二维平面图像只能反映图像场景的X、Y的位置坐标信息,而无法反映图像场景的深度位置信息Z坐标,随着技术的进步,越来越多的出现了能够采集深度位置信息的装置设备,这些能够采集深度图(Depth Map)的设备,将图像处理技术从二维图像X、Y坐标带入到三维图像X、Y、Z坐标新时代。
获取场景中各点相对于摄象机的距离是计算机视觉系统的重要任务之一,场景中各点相对于摄象机的距离可以用深度图来表示,深度图生成的技术目前主要有三种方法,结构光测距方法、激光测距雷达方法、变焦测距方法,通过各种方法获取真实场景的深度信息并生成深度图,能够应用于各种技术领域的图像处理需求。
目前市场上已经开始出现能够实时输出深度图的设备,如何使用这些设备,来开发出各种人机交互的应用,已经成为未来人机交互技术发展方向之一,在深度Z方向上,如何能对多个目标进行跟踪,使我们能够获取更多的人机交互控制信息,这是非常有意义的技术,比如,我们将多目标跟踪应用互动游戏当中,那么就能实现多人和游戏进行互动,由于多目标跟踪存在目标相互遮挡、相互交汇的情况,所以目前很多基于2D图像的多目标跟踪算法,往往因为复杂度高不能满足实时性的要求,然而在基于深度信息的图像中,由于存在X、Y、Z坐标,就使得目标跟踪算法的参考对象更多从而大大增加了算法的复杂度,目前如何利用深度信息环境下实现多目标跟踪,已经成为深度信息图像处理技术领域亟待解决的问题。
发明内容
本发明方法提供一种基于深度信息的多目标跟踪方法,能够在基于深度信息的条件下,根据多目标的特征约束集合态,对多目标进行识别、分析和跟踪。
本发明的技术方案如下:
一种基于深度信息的多目标跟踪方法,包括以下步骤:
A.连续获取场景区域的深度帧;
B.判断当前深度帧中是否出现启动动作,是则进入步骤C,否则进入步骤D;
C.获取产生该启动动作的目标的特征信息,将目标的特征信息加入特征信息数据库;
D.检查特征信息数据库中是否存在已经记录的特征信息,有则进入步骤E,否则返回步骤A实时获取深度帧;
E.读取特征信息数据库中的特征信息,以其中深度位置信息为参数,在当前深度帧中提取参考轮廓;
F.计算出所有参考轮廓的特征信息集合;
G.将特征信息数据库中记录的特征信息与参考轮廓的特征信息集合进行对比,发现满足匹配条件的数据则进入步骤H,未发现则返回步骤A;
H.更新特征信息数据库中记录的特征信息并输出满足匹配条件的特征信息。
所述的基于深度信息的多目标跟踪方法,其中,所述步骤B进一步包括步骤:
B1.设定启动条件集合;
B2.将当前深度帧与前一深度帧进行深度值变化比较获得深度变化值;
B3.判断深度变化值是否属于启动条件集合,属于则判定出现启动动作,进入步骤C,否则判定未出现启动动作,进入步骤D。
所述的基于深度信息的多目标跟踪方法,其中,所述步骤C进一步包括步骤:
C1.通过对深度帧变化值进行阈值判断,提取变化轮廓区域,获取产生该启动动作的目标;
C2.在变化轮廓区域内获得该目标的特征信息;
C3.将目标的特征信息与特征信息数据库中的数据进行比较,检查其和已记录数据有没有相似性,如没有相似性则将其加入特征信息数据库。
所述的基于深度信息的多目标跟踪方法,其中,在所述步骤C3中,将目标的特征信息加入特征信息数据库时进行编号以区分其所对应的目标。
所述的基于深度信息的多目标跟踪方法,其中,所述步骤E进一步包括步骤:
E1.从特征信息数据库记录的特征信息中,提取深度位置的最小值、最大值以及轮廓形态特征;
E2.使用信息中深度位置为参数设定加权值,获取轮廓点,提取参考轮廓。
所述的基于深度信息的多目标跟踪方法,其中,在步骤G中,具体是将特征信息数据库中记录的对应每个目标的特征信息,与参考轮廓的目标特征信息集合进行遍历对比,按照特征约束相似性原则进行匹配,当发现记录的某一目标的特征信息与某一参考轮廓的特征信息满足设定阈值条件时,则判定为匹配。
所述的基于深度信息的多目标跟踪方法,其中,在所述步骤H中,更新特征信息数据库中记录的特征信息具体为:如发现与目标匹配的参考轮廓,则用参考轮廓的特征信息替换特征信息数据库中对应目标的特征信息;如目标没有发现匹配的参考轮廓,则启动有效时间记录,当超过设定的有效时间后,依然没有发现可以与该目标的特征信息匹配的参考轮廓,则从特征信息数据库中将该目标对应的特征信息删除。
所述的基于深度信息的多目标跟踪方法,其中,所述特征信息包括轮廓面积、深度位置、投影表面深度特征以及轮廓形态特征。
上述方法对每一个产生启动动作的目标均在特征信息数据库中记录其特征信息,以便于对该目标的后续动作进行跟踪,通过遍历对比的方式可以对多个目标同时进行跟踪,并在某一目标消失后在数据库中删除其对应的特征信息以提高运算效率。
附图说明
图1为本发明基于深度信息的多目标跟踪方法较佳实施方式的流程图;
图2为本发明中深度帧的示意图;
图3为本发明中特征信息数据库的结构示意图;
图4为本发明中从深度图中提取目标轮廓的示意图;
图5为本发明中目标拟矩形的示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
参考图1,本发明基于深度信息的多目标跟踪方法较佳实施方式包括步骤:
S1、启动深度图采集设备,通过深度摄像机实时监测场景区域,按照每秒采集25幅深度图的频率获取深度图序列,该序列中每张深度图即为深度帧,如图2所示;
S2、在获取当前深度帧之后,将当前深度帧与前一深度帧进行深度值变化比较,当深度值变化状态满足预先设定的阈值条件时,则认为在当前深度帧中发现了启动动作,若不满足预设的阈值条件则直接进入步骤S4,检查是否存在已记录的信息数据;
具体包括:设定启用条件集合SARTUP(D),启动动作是以深度前帧DEPTHx1(z,x,y)作为参考帧,其中,z为深度值,x和y是位置信息,以深度后帧(当前深度帧)DEPTHx2(z,x,y)作为比较帧,通过计算获取深度帧变化值DEPTHc(z,x,y),其中:
DEPTHc(z,x,y)=DEPTHx2(z,x,y)-DEPTHx1(z,x,y),深度帧变化值DEPTHc(z,x,y)有正负值区分,正值表示产生启动动作的目标向后运动,负值则表示产生启动动作的目标向前运动,当深度帧变化值满足深度值变化阈值范围时,表达式为:DEPTHc(z,x,y)∈SARTUP(D),表示发现目标的启动动作,反之则不是启动动作,直接进入步骤S4;如图2所示,其中目标A、目标B和目标C即为在场景区域中产生启动动作的目标,其变化值满足阈值范围的区域即为变化轮廓区域,表达式为f(z,x,y);
S3、发现启动动作后,获取产生该启动动作的目标的特征信息,将该目标的特征信息与特征信息数据库中存在的特征信息数据进行比对,如发现该特征信息和已记录数据没有相似性,则将该特征信息加入特征信息数据库中,并建立唯一识别ID号和有效时间值,如发现该特征信息已经存在特征信息数据库中,则不进行记录;
具体包括:发现启动动作后,通过对深度帧变化值进行阈值判断,提取变化轮廓区域f(z,x,y),在变化轮廓区域内获得轮廓面积、深度位置、投影表面深度特征以及轮廓形态特征,然后将这些特征信息与特征信息数据库中的数据进行比较,检查其和已记录数据有没有相似性,如没有相似性则将其加入特征信息数据库,特征信息数据库的数据存储格式如图3所示;
其中特征信息数据库为创建的特征信息记录数据库,用于记录需要跟踪的目标的相关识别信息,其中,ID号与发现的目标相对应;轮廓面积为变化轮廓区域内所有深度点的数量n;深度位置为变化轮廓区域内所有深度点Z值的算术平均值zaver、最小值zmin、最大值zmax三个元素组成,表达式为:zmin=MIN(z1,z2,……,zn),zmax=MAX(z1,z2,……,zn);投影表面深度特征为变化轮廓区域内所有深度点z值与最小值zmin差值,将所有差值进行累加后获取的累加值Zadd,表达式为:轮廓形态特征为变化轮廓区域在x、y坐标上拟多边形的各边长度和拟多边形的中心点x、y坐标,这里我们使用拟矩形作为特征;有效时间值的作用是,当发现跟踪的目标消失后,在通过一段时间的检测发现依然没有找到目标,则认为该目标已经不在监测场景区域之内,移除在特征信息数据库中与该目标对应的特征信息;
S4、检查特征信息数据库中的数据,是否存在已经记录的特征信息,如果有特征信息数据,则进入步骤S5获取参考轮廓,如果没有特征信息,则返回步骤S1实时获取深度帧;上述特征信息数据库中的特征信息数据是在步骤S3中添加的,如果在当前深度帧之前从未出现过启动动作,则特征信息数据库为空,要返回步骤S1继续获取下一个深度帧并判断是否出现启动动作,如果特征信息数据库中存在特征信息数据,则证明在当前深度帧之前已经发现启动动作;
S5、读取特征信息数据库中已经记录的每个ID所对应的目标的特征信息,以其中深度位置信息为参数,使用加权值范围判断方式,在当前深度帧中提取参考轮廓;
具体包括:从特征信息数据库记录的特征信息中,提取深度位置的最小值zmin、最大值zmax以及轮廓形态特征,比如有m个记录特征信息T1、T2、T3、......、Tm,使用信息中深度位置为参数,设定加权值为Δz,我们可以在深度图DEPTHnow(z,x,y)中,对深度点值z进行判断,如果在阈值范围内则为轮廓点,反之则认为不是轮廓点,表达式条件:
(zmin-Δz)≤z≤(zmax+Δz),获取m个参考轮廓L1(D)、L2(D)、L3(D)、......、Lm(D)
参考图4,在特征信息数据库中已经记录了目标A、目标B和目标C的特征信息,以特征信息中深度位置和轮廓形态特征作为参数,按照深度点的值在阈值范围内进行判断,分别获取参考轮廓A、参考轮廓B和参考轮廓C;
S6、提取参考轮廓后,计算出所有参考轮廓的特征信息集合,获取每一参考轮廓的轮廓面积、深度位置、投影表面深度特征和轮廓形态特征,例如获取m个参考轮廓的目标特征信息集合,我们记录为CT1、CT2、CT3、CT4、......、CTk;如图5所示,按照目标A、目标B和目标C的参考轮廓,在x、y方向上的边界所绘制出的矩形(拟矩形),该矩形就是对应目标的轮廓形态特征;
S7、将特征信息数据库中记录的每个ID所对应目标的特征信息,与参考轮廓的目标特征信息集合进行对比,按照特征约束相似性原则进行匹配,如果发现满足匹配条件的数据,则代表发现跟踪对象,否则返回步骤S1;
具体包括:如有特征信息数据库中记录了m个目标的特征信息T1、T2、T3、......、Tm,用每个目标的特征信息T,与获取的m个参考轮廓的目标特征信息集合进行遍历对比,当发现记录的目标的特征信息与参考轮廓的特征信息满足设定阈值条件时,则认为满足匹配条件,该参考轮廓就是所对应目标运动后的轮廓;
S8、如发现与某一目标匹配的参考轮廓,则用参考轮廓的特征信息替换特征信息数据库中对应目标的特征信息,且ID号保持不变;如某一目标没有发现匹配的参考轮廓,则从特征信息数据库中删除相应ID号的信息记录;
本实施例中目标A至C均持续出现,所以在当前帧中可以获得目标A至C的参考轮廓,如果此时产生启动动作的某一目标消失,则在当前深度帧中就无法获得该目标的参考轮廓,因此比对后就会发现某一ID号所对应的目标在当前深度帧中没有对应的参考轮廓,此时则启动有效时间记录,当在后面的深度帧匹配过程中超过设定的有效时间后,依然没有发现满足可以与该目标的特征信息匹配的参考轮廓,则从特征信息数据库中将该ID号对应的信息删除,避免已经退出的无效目标影响整体的匹配运算效率;
S9、向应用程序输出目标的特征信息,即可将上述信息输出到电视机、游戏机等设备上作为控制信号使用,并返回步骤S1继续获取下一帧深度图,以此类推进行对目标的跟踪。
上述方法对每一个产生启动动作的目标均在特征信息数据库中记录其特征信息,以便于对该目标的后续动作进行跟踪,通过遍历对比的方式可以对多个目标同时进行跟踪,并在某一目标消失后在数据库中删除其对应的特征信息以提高运算效率。
应当理解的是,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,而所有这些改进和变换都应属于本发明所附权利要求的保护范围。
Claims (8)
1.一种基于深度信息的多目标跟踪方法,包括以下步骤:
A.连续获取场景区域的深度帧;
B.判断当前深度帧中是否出现启动动作,是则进入步骤C,否则进入步骤D;
C.获取产生该启动动作的目标的特征信息,将目标的特征信息加入特征信息数据库;
D.检查特征信息数据库中是否存在已经记录的特征信息,有则进入步骤E,否则返回步骤A实时获取深度帧;
E.读取特征信息数据库中的特征信息,以其中深度位置信息为参数,在当前深度帧中提取参考轮廓;
F.计算出所有参考轮廓的特征信息集合;
G.将特征信息数据库中记录的特征信息与参考轮廓的特征信息集合进行对比,发现满足匹配条件的数据则进入步骤H,未发现则返回步骤A;
H.更新特征信息数据库中记录的特征信息并输出满足匹配条件的特征信息。
2.根据权利要求1所述的基于深度信息的多目标跟踪方法,其特征在于:所述步骤B进一步包括步骤:
B1.设定启动条件集合;
B2.将当前深度帧与前一深度帧进行深度值变化比较获得深度变化值;
B3.判断深度变化值是否属于启动条件集合,属于则判定出现启动动作,进入步骤C,否则判定未出现启动动作,进入步骤D。
3.根据权利要求1所述的基于深度信息的多目标跟踪方法,其特征在于:所述步骤C进一步包括步骤:
C1.通过对深度帧变化值进行阈值判断,提取变化轮廓区域,获取产生该启动动作的目标;
C2.在变化轮廓区域内获得该目标的特征信息;
C3.将目标的特征信息与特征信息数据库中的数据进行比较,检查其和已记录数据有没有相似性,如没有相似性则将其加入特征信息数据库。
4.根据权利要求3所述的基于深度信息的多目标跟踪方法,其特征在于:在所述步骤C3中,将目标的特征信息加入特征信息数据库时进行编号以区分其所对应的目标。
5.根据权利要求1所述的基于深度信息的多目标跟踪方法,其特征在于:所述步骤E进一步包括步骤:
E1.从特征信息数据库记录的特征信息中,提取深度位置的最小值、最大值以及轮廓形态特征;
E2.使用信息中深度位置为参数设定加权值,获取轮廓点,提取参考轮廓。
6.根据权利要求1所述的基于深度信息的多目标跟踪方法,其特征在于:在步骤G中,具体是将特征信息数据库中记录的对应每个目标的特征信息,与参考轮廓的目标特征信息集合进行遍历对比,按照特征约束相似性原则进行匹配,当发现记录的某一目标的特征信息与某一参考轮廓的特征信息满足设定阈值条件时,则判定为匹配。
7.根据权利要求1所述的基于深度信息的多目标跟踪方法,其特征在于:在所述步骤H中,更新特征信息数据库中记录的特征信息具体为:如发现与目标匹配的参考轮廓,则用参考轮廓的特征信息替换特征信息数据库中对应目标的特征信息;如目标没有发现匹配的参考轮廓,则启动有效时间记录,当超过设定的有效时间后,依然没有发现可以与该目标的特征信息匹配的参考轮廓,则从特征信息数据库中将该目标对应的特征信息删除。
8.根据权利要求1至7中任一权利要求所述的基于深度信息的多目标跟踪方法,其特征在于:所述特征信息包括轮廓面积、深度位置、投影表面深度特征以及轮廓形态特征。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 201010616222 CN102063725B (zh) | 2010-12-30 | 2010-12-30 | 一种基于深度信息的多目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 201010616222 CN102063725B (zh) | 2010-12-30 | 2010-12-30 | 一种基于深度信息的多目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102063725A true CN102063725A (zh) | 2011-05-18 |
CN102063725B CN102063725B (zh) | 2013-05-08 |
Family
ID=43998989
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN 201010616222 Expired - Fee Related CN102063725B (zh) | 2010-12-30 | 2010-12-30 | 一种基于深度信息的多目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102063725B (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102867311A (zh) * | 2011-07-07 | 2013-01-09 | 株式会社理光 | 目标跟踪方法和目标跟踪设备 |
WO2013091369A1 (zh) * | 2011-12-22 | 2013-06-27 | 中国科学院自动化研究所 | 一种基于深度图像的多目标分割和跟踪方法 |
CN103679742A (zh) * | 2012-09-06 | 2014-03-26 | 株式会社理光 | 对象跟踪方法和装置 |
CN105261033A (zh) * | 2015-09-15 | 2016-01-20 | 山东大学 | 一种基于深度图像或深度视频序列的实时跟踪目标的计算方法 |
CN107239744A (zh) * | 2017-05-15 | 2017-10-10 | 深圳奥比中光科技有限公司 | 人体关联关系的监控方法、系统及存储装置 |
CN107239076A (zh) * | 2017-06-28 | 2017-10-10 | 仲训昱 | 基于虚拟扫描与测距匹配的agv激光slam方法 |
CN107479061A (zh) * | 2017-08-25 | 2017-12-15 | 重庆交通大学 | 一种基于图像识别与雷达测距的安全预警方法及系统 |
CN107977984A (zh) * | 2017-12-01 | 2018-05-01 | 天津大学 | 基于深度图的权重关联目标跟踪算法 |
CN109522879A (zh) * | 2018-12-19 | 2019-03-26 | 南京理工大学 | 一种基于hevc中cu划分模式的人脸追踪方法 |
CN113554683A (zh) * | 2021-09-22 | 2021-10-26 | 成都考拉悠然科技有限公司 | 一种基于视频分析和物体检测的特征追踪方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004107266A1 (en) * | 2003-05-29 | 2004-12-09 | Honda Motor Co., Ltd. | Visual tracking using depth data |
CN101231755A (zh) * | 2007-01-25 | 2008-07-30 | 上海遥薇实业有限公司 | 运动目标跟踪及数量统计方法 |
CN101257641A (zh) * | 2008-03-14 | 2008-09-03 | 清华大学 | 基于人机交互的平面视频转立体视频的方法 |
CN101710426A (zh) * | 2009-10-30 | 2010-05-19 | 无锡景象数字技术有限公司 | 一种深度图像跟踪方法 |
WO2010088032A2 (en) * | 2009-01-30 | 2010-08-05 | Microsoft Corporation | Visual target tracking |
CN101877131A (zh) * | 2009-04-28 | 2010-11-03 | 青岛海信数字多媒体技术国家重点实验室有限公司 | 一种目标识别方法、装置及目标识别系统 |
-
2010
- 2010-12-30 CN CN 201010616222 patent/CN102063725B/zh not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004107266A1 (en) * | 2003-05-29 | 2004-12-09 | Honda Motor Co., Ltd. | Visual tracking using depth data |
CN101231755A (zh) * | 2007-01-25 | 2008-07-30 | 上海遥薇实业有限公司 | 运动目标跟踪及数量统计方法 |
CN101257641A (zh) * | 2008-03-14 | 2008-09-03 | 清华大学 | 基于人机交互的平面视频转立体视频的方法 |
WO2010088032A2 (en) * | 2009-01-30 | 2010-08-05 | Microsoft Corporation | Visual target tracking |
CN101877131A (zh) * | 2009-04-28 | 2010-11-03 | 青岛海信数字多媒体技术国家重点实验室有限公司 | 一种目标识别方法、装置及目标识别系统 |
CN101710426A (zh) * | 2009-10-30 | 2010-05-19 | 无锡景象数字技术有限公司 | 一种深度图像跟踪方法 |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102867311A (zh) * | 2011-07-07 | 2013-01-09 | 株式会社理光 | 目标跟踪方法和目标跟踪设备 |
CN102867311B (zh) * | 2011-07-07 | 2015-11-25 | 株式会社理光 | 目标跟踪方法和目标跟踪设备 |
WO2013091369A1 (zh) * | 2011-12-22 | 2013-06-27 | 中国科学院自动化研究所 | 一种基于深度图像的多目标分割和跟踪方法 |
CN103679742A (zh) * | 2012-09-06 | 2014-03-26 | 株式会社理光 | 对象跟踪方法和装置 |
CN103679742B (zh) * | 2012-09-06 | 2016-08-03 | 株式会社理光 | 对象跟踪方法和装置 |
CN105261033A (zh) * | 2015-09-15 | 2016-01-20 | 山东大学 | 一种基于深度图像或深度视频序列的实时跟踪目标的计算方法 |
CN107239744A (zh) * | 2017-05-15 | 2017-10-10 | 深圳奥比中光科技有限公司 | 人体关联关系的监控方法、系统及存储装置 |
CN107239076A (zh) * | 2017-06-28 | 2017-10-10 | 仲训昱 | 基于虚拟扫描与测距匹配的agv激光slam方法 |
CN107239076B (zh) * | 2017-06-28 | 2020-06-23 | 仲训昱 | 基于虚拟扫描与测距匹配的agv激光slam方法 |
CN107479061A (zh) * | 2017-08-25 | 2017-12-15 | 重庆交通大学 | 一种基于图像识别与雷达测距的安全预警方法及系统 |
CN107977984A (zh) * | 2017-12-01 | 2018-05-01 | 天津大学 | 基于深度图的权重关联目标跟踪算法 |
CN107977984B (zh) * | 2017-12-01 | 2020-09-01 | 天津大学 | 基于深度图的权重关联目标跟踪算法 |
CN109522879A (zh) * | 2018-12-19 | 2019-03-26 | 南京理工大学 | 一种基于hevc中cu划分模式的人脸追踪方法 |
CN113554683A (zh) * | 2021-09-22 | 2021-10-26 | 成都考拉悠然科技有限公司 | 一种基于视频分析和物体检测的特征追踪方法 |
Also Published As
Publication number | Publication date |
---|---|
CN102063725B (zh) | 2013-05-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102063725B (zh) | 一种基于深度信息的多目标跟踪方法 | |
US10395126B2 (en) | Sign based localization | |
Leibe et al. | Coupled object detection and tracking from static cameras and moving vehicles | |
KR101870902B1 (ko) | 영상 처리 장치 및 영상 처리 방법 | |
US8908915B2 (en) | Devices and methods for tracking moving objects | |
CN104134222A (zh) | 基于多特征融合的车流监控图像检测和跟踪系统及方法 | |
Sappa et al. | An efficient approach to onboard stereo vision system pose estimation | |
CN103716687A (zh) | 使用指纹以在视频中追踪移动对象的系统和方法 | |
Santoro et al. | Crowd analysis by using optical flow and density based clustering | |
Józsa et al. | Towards 4D virtual city reconstruction from Lidar point cloud sequences | |
CN103985142A (zh) | 联合数据关联的Mean Shift多目标跟踪方法 | |
CN106023261B (zh) | 一种电视视频目标跟踪的方法及装置 | |
Schiopu et al. | Pothole detection and tracking in car video sequence | |
KR101406334B1 (ko) | 신뢰도와 지연된 결정을 활용한 다중 객체 추적 시스템 및 방법 | |
JP3577875B2 (ja) | 移動物体抽出装置 | |
CN114219829A (zh) | 车辆跟踪方法、计算机设备及存储装置 | |
JP2016018494A (ja) | 走行路認識装置 | |
Wu et al. | An efficient semi-automated scheme for infrastructure lidar annotation | |
Ellenfeld et al. | Deep fusion of appearance and frame differencing for motion segmentation | |
Pellis et al. | 2D to 3D Label propagation for the semantic segmentation of Heritage building point clouds | |
Giosan et al. | Superpixel-based obstacle segmentation from dense stereo urban traffic scenarios using intensity, depth and optical flow information | |
Börcs et al. | Dynamic 3D environment perception and reconstruction using a mobile rotating multi-beam Lidar scanner | |
CN113450457A (zh) | 道路重建方法、装置、计算机设备和存储介质 | |
Abdein et al. | Self-supervised learning of optical flow, depth, camera pose and rigidity segmentation with occlusion handling | |
Garibotto et al. | 3D scene analysis by real-time stereovision |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20130508 |