CN105957106A - 三维目标跟踪的方法和装置 - Google Patents

三维目标跟踪的方法和装置 Download PDF

Info

Publication number
CN105957106A
CN105957106A CN201610266078.7A CN201610266078A CN105957106A CN 105957106 A CN105957106 A CN 105957106A CN 201610266078 A CN201610266078 A CN 201610266078A CN 105957106 A CN105957106 A CN 105957106A
Authority
CN
China
Prior art keywords
target
dimensional
gray
image
next frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610266078.7A
Other languages
English (en)
Other versions
CN105957106B (zh
Inventor
滕书华
张文广
李洪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hunan Fenghua Intelligent Technology Co.,Ltd.
Original Assignee
Hunan Visualtouring Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hunan Visualtouring Information Technology Co Ltd filed Critical Hunan Visualtouring Information Technology Co Ltd
Priority to CN201610266078.7A priority Critical patent/CN105957106B/zh
Publication of CN105957106A publication Critical patent/CN105957106A/zh
Application granted granted Critical
Publication of CN105957106B publication Critical patent/CN105957106B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image

Landscapes

  • Image Analysis (AREA)

Abstract

本发明实施例提供一种三维目标跟踪的方法和装置。所述方法包括:获取一帧包括预定跟踪目标在内的三维点云数据,从所述三维点云数据中所述跟踪目标所处的基准空间区域提取灰度特征,得到基准三维灰度图像;获取下一帧图像,并根据所述基准空间区域在所述三维点云中的位置,在所述下一帧图像中设定目标空间区域,并从所述目标空间区域提取灰度特征,得到目标三维灰度图像;根据所述基准三维灰度图像和所述目标三维灰度图像采用均值偏移算法确定所述跟踪目标在所述下一帧图像中的位置。采用本发明实施例,可以提高目标的跟踪精度。

Description

三维目标跟踪的方法和装置
技术领域
本发明涉及计算机视觉技术,尤其涉及一种三维目标跟踪的方法和装置。
背景技术
目标跟踪技术通过对图像序列中的每一帧图像进行分析,确定跟踪目标在每一帧图像中的位置,并将其关联起来形成跟踪目标的运动轨迹,从而达到对运动目标的跟踪目的。
对于目标跟踪通常采用Mean Shift算法进行,具体包括三个处理过程:建立目标模型、相似度匹配和通过Mean Shift向量迭代搜索相似性最大的点,其中,在建立目标模型的处理中,通过颜色直方图的方式表示目标。然而,尽管颜色直方图能够在一定程度上反映物体的颜色组成及成分比例,但却丢失了颜色在图像中的位置分布信息,因此很容易被光照等因素干扰而丢失目标。
发明内容
本发明的目的在于,提供一种三维目标跟踪的方法以及实现该方法的装置,以实现对跟踪目标的快速准确的跟踪,有效避免光照等因素的影响,从而提高跟踪目标的跟踪精度。
根据本发明的一方面,提供一种三维目标跟踪的方法。所述方法包括,获取一帧包括预定跟踪目标在内的三维点云数据,从所述三维点云数据中所述跟踪目标所处的基准空间区域提取灰度特征,得到基准三维灰度图像;获取下一帧图像,并根据所述基准空间区域在所述三维点云中的位置,在所述下一帧图像中设定目标空间区域,并从所述目标空间区域提取灰度特征,得到目标三维灰度图像;根据所述基准三维灰度图像和所述目标三维灰度图像采用均值偏移算法确定所述跟踪目标在所述下一帧图像中的位置。
优选地,所述根据所述基准三维灰度图像和所述目标三维灰度图像采用均值偏移算法确定所述跟踪目标在所述下一帧图像中的位置的处理包括:概率密度确定步骤:计算所述基准三维灰度图像的灰度概率分布密度,并计算所述目标三维灰度图像的灰度概率分布密度;预期位置确定步骤:将所述基准灰度图像的灰度概率分布密度和所述目标三维灰度图像的灰度概率分布密度代入均值偏移算法中计算,得到所述跟踪目标在所述下一帧图像中的预期位置;目标位置确定步骤:如果所述跟踪目标在所述三维点云数据的初始位置与所述预期位置之间的差值小于预设的差值阈值,则将所述预期位置确定为所述跟踪目标在所述下一帧图像中的位置;搜索空间重设步骤:如果所述初始位置与所述预期位置之间的差值大于或等于预设的差值阈值,则重新在所述下一帧图像中设定目标空间区域。
优选地,所述目标空间区域为长方体,则其带宽为
T = 1 4 ( a 2 + b 2 + c 2 )
其中,T为带宽,a为所述目标空间区域的长,b为所述目标空间区域的宽,c为所述目标空间区域的高。
优选地,所述方法还包括:获取所述下一帧图像中所述跟踪目标的标定位置;根据所述标定位置与确定的所述跟踪目标在所述下一帧图像中的位置的差值是否小于预设阈值判定跟踪精度。
优选地,所述灰度概率分布密度的函数表达式为:
q ( n ) = r n Σ i = 1 a Σ j = 1 b Σ k = 1 c h ( i , j , k )
其中,n表示灰度级别,rn表示灰度级别为第n级的像素的权值之和,q(n)表示灰度级别为第n级的灰度概率分布密度,h(i,j,k)表示位置坐标为(i,j,k)处的灰度的权值,0<i≤a,0<j≤b,0<k≤c。
根据本发明的另一方面,提供一种三维目标跟踪的装置。所述装置包括:基准图像获取模块,用于获取一帧包括预定跟踪目标在内的三维点云数据,从所述三维点云数据中所述跟踪目标所处的基准空间区域提取灰度特征,得到基准三维灰度图像;目标图像获取模块,用于获取下一帧图像,并根据所述基准空间区域在所述三维点云中的位置,在所述下一帧图像中设定目标空间区域,并从所述目标空间区域提取灰度特征,得到目标三维灰度图像;跟踪目标确定模块,用于根据所述基准三维灰度图像和所述目标三维灰度图像采用均值偏移算法确定所述跟踪目标在所述下一帧图像中的位置。
优选地,所述跟踪目标确定模块包括:概率密度确定单元,用于计算所述基准三维灰度图像的灰度概率分布密度,并计算所述目标三维灰度图像的灰度概率分布密度;预期位置确定单元,用于将所述基准灰度图像的灰度概率分布密度和所述目标三维灰度图像的灰度概率分布密度代入均值偏移算法中计算,得到所述跟踪目标在所述下一帧图像中的预期位置;目标位置确定单元,用于如果所述跟踪目标在所述三维点云数据的初始位置与所述预期位置之间的差值小于预设的差值阈值,则将所述预期位置确定为所述跟踪目标在所述下一帧图像中的位置;搜索空间重设单元,用于如果所述初始位置与所述预期位置之间的差值大于或等于预设的差值阈值,则重新在所述下一帧图像中设定目标空间区域。
优选地,所述目标空间区域为长方体,则其带宽为
T = 1 4 ( a 2 + b 2 + c 2 )
其中,T为带宽,a为所述目标空间区域的长,b为所述目标空间区域的宽,c为所述目标空间区域的高。
优选地,所述装置还包括:标定位置获取模块,用于获取所述下一帧图像中所述跟踪目标的标定位置;跟踪精度判定模块,用于根据所述标定位置与确定的所述跟踪目标在所述下一帧图像中的位置的差值是否小于预设阈值判定跟踪精度。
优选地,所述灰度概率分布密度的函数表达式为:
q ( n ) = r n Σ i = 1 a Σ j = 1 b Σ k = 1 c h ( i , j , k )
其中,n表示灰度级别,rn表示灰度级别为第n级的像素的权值之和,q(n)表示灰度级别为第n级的灰度概率分布密度,h(i,j,k)表示位置坐标为(i,j,k)处的灰度的权值,0<i≤a,0<j≤b,0<k≤c。
根据本发明实施例提供的三维目标跟踪的方法和装置,通过从获取的一帧包括预定跟踪目标在内的三维点云数据中所述跟踪目标所处的基准空间区域提取灰度特征,得到基准三维灰度图像,并在下一帧图像中根据基准空间区域在三维点云中的位置设定目标空间区域,从目标空间区域提取灰度特征得到目标三维灰度图像,根据基准三维灰度图像和目标三维灰度图像采用均值偏移算法确定跟踪目标在下一帧图像中的位置,以实现对跟踪目标的快速准确的跟踪,有效避免光照等因素的影响,从而提高跟踪目标的跟踪精度。
附图说明
图1是示出根据本发明实施例一的三维目标跟踪的方法的流程图;
图2是示出根据本发明实施例二的三维目标跟踪的方法的流程图;
图3是示出根据本发明实施例三的三维目标跟踪的装置的一种逻辑框图;
图4是示出根据本发明实施例三的三维目标跟踪的装置的另一种逻辑框图。
具体实施方式
本方案的发明构思是,通过对一帧三维点云数据中跟踪目标所处的基准空间区域提取灰度特征得到基准三维灰度图像,并基于该基准三维灰度图像,在下一帧图像中搜索跟踪目标的位置,以实现对跟踪目标的快速准确的跟踪,有效避免光照等因素的影响,从而提高跟踪目标的跟踪精度。
下面结合附图详细描述本发明的示例性实施例。
实施例一
图1是示出根据本发明实施例一的三维目标跟踪的方法的流程图。通过包括如图3所示的装置的计算机系统执行所述方法。
参照图1,在步骤S110,获取一帧包括预定跟踪目标在内的三维点云数据,从所述三维点云数据中所述跟踪目标所处的基准空间区域提取灰度特征,得到基准三维灰度图像。
其中,跟踪目标可以为人体、车辆和动物等,本发明实施例中跟踪目标以人体为例进行详细说明,其它跟踪目标的处理方式与此相同,在此不再赘述。基准空间区域为包括跟踪目标在内的三维区域,例如长方体区域、立方体区域或圆柱体区域等。三维点云数据为以点的形式记录的数据,每一个点包含有三维坐标,并且还可以包含有灰度信息。三维点云数据中包含有跟踪目标的几何结构信息。
具体地,运动目标跟踪是计算机视觉技术中的重要部分,如何通过计算机等相关设备对运动目标进行快速准确地跟踪成为计算机视觉技术中的重要问题。为了快速获得跟踪目标的三维形状信息,可以采用激光成像雷达(具体如阵列式激光雷达)。激光成像雷达可以安装在需要对某区域内的目标进行跟踪的相应位置,并通过发射和接收的激光光束确定进入该区域内的跟踪目标的三维形状信息。由于激光成像雷达发射的是多条激光光束,当多条激光光束打在跟踪目标上时构成了多个点,这些点展现出了跟踪目标的三维形状信息,可称为三维点云数据。
当需要对跟踪目标进行跟踪时,可以在激光成像雷达中提取最新的一帧包括预定跟踪目标在内的三维点云数据。由于三维点云数据中会包含有大量的冗余信息,对该三维点云数据的处理计算量很大。为了减少计算机的处理压力,可以只对跟踪目标所处的基准空间区域进行分析处理,具体地,可以在三维点云中划分一空间区域(即基准空间区域),该空间区域可为以该跟踪目标的中心为中心的三维空间区域,且其中包括跟踪目标,例如跟踪目标为人体,该空间区域为包括该人体点云数据的长方体区域。考虑到跟踪目标的外形及结构能很好地表征跟踪目标的信息,因此,可对跟踪目标的三维点云数据进行体素化处理,即将跟踪目标的三维点云数据分割成多个立方体,可将每个立方体包含的点的个数作为三维图像的灰度值存储,从而将跟踪目标的三维点云数据转化为粗分辨率的三维灰度图像。
在步骤S120,获取下一帧图像,并根据所述基准空间区域在所述三维点云中的位置,在所述下一帧图像中设定目标空间区域,并从所述目标空间区域提取灰度特征,得到目标三维灰度图像。
其中,下一帧图像为上述步骤S110获取的一帧三维点云数据对应的图像的相邻的下一帧图像。目标空间区域可以与上述基准空间区域相同,也可以与上述基准空间区域不同。本发明实施例中,为了提高数据处理速度,目标空间区域与上述基准空间区域相同。
具体地,对于激光成像雷达,距离相同条件下其分辨率不变,相邻两帧图像所间隔的时间非常短,如0.05秒(即频率为20Hz)等,这样,跟踪目标与激光成像雷达之间的距离变化不大,因此,可以在该基准空间区域周围任意选择一个空间区域作为目标空间区域。由于跟踪目标与激光成像雷达之间的距离变化不大,因此,包括跟踪目标在内的空间区域的点云数据的数量并不会发生较大的变化,从而落在每个体素的点云个数也不会有较大的变化,这样,每个体素的灰度值本身就是一个相对不变的特征,所以,可以提取相应的灰度值和矩特征作为跟踪目标的特征空间。根据上述的跟踪目标的特征空间可以对上述目标空间区域进行灰度特征提取,得到目标三维灰度图像。
在步骤S130,根据所述基准三维灰度图像和所述目标三维灰度图像采用均值偏移算法确定所述跟踪目标在所述下一帧图像中的位置。
其中,均值偏移算法(即Mean Shift算法)可以为一种自动迭代跟踪算法,可由Mean Shift补偿向量不断沿着预定的方向移动,在一定条件下,Mean Shift算法能收敛到局部最优点,从而实现对跟踪目标的准确定位。
具体地,基于所述基准三维灰度图像,分别计算其灰度概率密度、质心位置和权重等参数的参数值,基于目标三维灰度图像,分别计算其灰度概率密度和权重等参数的参数值,然后,可以将基准三维灰度图像的灰度概率密度和目标三维灰度图像的灰度概率密度代入到均值偏移算法中进行计算,得到所述跟踪目标在所述下一帧图像中的位置。如果得到的跟踪目标的位置不符合预先设定的标准,可以重新执行上述步骤S120和S130,直到搜索到符合预先设定的标准的跟踪目标的位置为止。
本发明实施例提供的三维目标跟踪的方法,通过从获取的一帧包括预定跟踪目标在内的三维点云数据中所述跟踪目标所处的基准空间区域提取灰度特征,得到基准三维灰度图像,并在下一帧图像中根据基准空间区域在三维点云中的位置设定目标空间区域,从目标空间区域提取灰度特征得到目标三维灰度图像,根据基准三维灰度图像和目标三维灰度图像采用均值偏移算法确定跟踪目标在下一帧图像中的位置,以实现对跟踪目标的快速准确的跟踪,有效避免光照等因素的影响,从而提高跟踪目标的跟踪精度。
实施例二
图2是示出根据本发明实施例二的三维目标跟踪的方法的流程图,所述实施例可视为图1的又一种具体的实现方案。
参照图2,在步骤S210,获取一帧包括预定跟踪目标在内的三维点云数据,从所述三维点云数据中所述跟踪目标所处的基准空间区域提取灰度特征,得到基准三维灰度图像。
在步骤S220,获取下一帧图像,并根据所述基准空间区域在所述三维点云中的位置,在所述下一帧图像中设定目标空间区域,并从所述目标空间区域提取灰度特征,得到目标三维灰度图像。
其中,基准空间区域的长度、宽度和高度分别与目标空间区域的长度、宽度和高度都相同,所述目标空间区域为长方体,则其带宽可为
T = 1 4 ( a 2 + b 2 + c 2 ) ... ( 1 )
其中,T为带宽,a为所述目标空间区域的长度,b为所述目标空间区域的宽度,c为所述目标空间区域的高度。如果三维点云数据中,在(x,y,z)处的灰度用f(x,y,z)表示,则其带宽可为公式(1)所示,相应的权值矩阵
h ( x , y , z ) = 1 - 1 T [ ( x - a 2 ) 2 + ( y - b 2 ) 2 + ( z - c 2 ) 2 ] ... ( 2 )
其中,h(x,y,z)为权值,0<x≤a,0<x≤b,0<z≤c。
上述步骤S210和步骤S220的步骤内容与上述实施例一中的步骤S110和步骤S120的步骤内容相同,在此不再赘述。
在步骤S230,计算所述基准三维灰度图像的灰度概率分布密度,并计算所述目标三维灰度图像的灰度概率分布密度。
具体地,基于基准三维灰度图像,使用灰度概率分布密度的函数表达式
q ( n ) = r n Σ i = 1 a Σ j = 1 b Σ k = 1 c h ( i , j , k ) ... ( 3 )
进行计算,得到基准三维灰度图像的灰度概率分布密度;同时,基于目标三维灰度图像,使用上述灰度概率分布密度的函数表达式(3)进行计算,得到目标三维灰度图像的灰度概率分布密度。
其中,n表示灰度级别,rn表示灰度级别为第n级的像素的权值之和,q(n)表示灰度级别为第n级的灰度概率分布密度,h(i,j,k)表示位置坐标为(i,j,k)处的灰度的权值,0<i≤a,0<j≤b,0<k≤c。
在步骤S240,将所述基准灰度图像的灰度概率分布密度和所述目标三维灰度图像的灰度概率分布密度代入均值偏移算法中计算,得到所述跟踪目标在所述下一帧图像中的预期位置。
具体地,在均值偏移算法中可以使用Bhattacharyya系数作为跟踪目标(如人体)与待甄别跟踪目标(如待甄别人体)的相似性度量。Bhattacharyya系数通常可被用于计算两个分布的相似性,Bhattacharyya系数的值即为两个分布重叠量的大小。在三维灰度特征空间中,跟踪目标的基准空间区域的灰度特征与目标空间区域的灰度特征均服从一定的分布函数,跟踪目标的空间区域的分布函数与目标空间区域的分布函数的Bhattacharyya系数越大,意味着两者的三维灰度分布相似度也越大,即二者在同样的体素内所包含的点云个数也就越接近,两者点云在空间的分布也越相似。
如果所述基准灰度图像的灰度概率分布密度为f(i,j,k),(i,j,k∈N+),所述目标三维灰度图像的灰度概率分布密度为g(i,j,k),(i,j,k∈N+),则Bhattacharyya系数可表示为:
B h a t t a c h a r y y a = ∫ f ( i , j , k ) · g ( i , j , k ) d i · d j · d k ... ( 4 )
可以对上述公式(4)进行微分处理,使得Bhattacharyya系数取得最大值,从而得到所述跟踪目标在所述下一帧图像中的预期位置。
除了可采用上述方法外,还可以通过其它方式计算得到所述跟踪目标在所述下一帧图像中的预期位置,即通过以下公式(5)
y 1 = Σ i = 1 m x i w i g ( | | y 0 - x i h | | 2 ) Σ i = 1 m w i g ( | | y 0 - x i h | | 2 ) ... ( 5 )
其中,y0表示一帧三维点云数据中基准空间区域的中心位置,y1表示下一帧图像中跟踪目标的预期位置,h为权值,为跟踪目标的位置,wi为跟踪目标的权值,为跟踪目标的轮廓函数。
可以通过所述跟踪目标在所述三维点云数据的初始位置与所述预期位置之间的差值与预设的差值阈值之间的大小关系,确定所述跟踪目标在所述下一帧图像中的位置,相应的处理可以参见下述步骤S250或步骤S260的处理。
在步骤S250,如果所述跟踪目标在所述三维点云数据的初始位置与所述预期位置之间的差值小于预设的差值阈值,则将所述预期位置确定为所述跟踪目标在所述下一帧图像中的位置。
其中,差值阈值具体如0.8等,该差值阈值不宜过小,也不宜过大;如果差值阈值过小则会大幅增加计算量,直接影响跟踪目标的跟踪实时性,如果差值阈值过大则会降低跟踪目标的跟踪精度。差值阈值的选取可视具体应用场景而定,对于实时性要求极高但跟踪精度不高的应用场景,可以选用较大的差值阈值,而对于跟踪精度要求较高的场景,可选取较小的差值阈值。
在步骤S260,如果所述初始位置与所述预期位置之间的差值大于或等于预设的差值阈值,则重新在所述下一帧图像中设定目标空间区域。
具体地,如果所述初始位置与所述预期位置之间的差值大于或等于预设的差值阈值,则可确定所述预期位置与实际位置偏差较大,此时,可以执行上述步骤S220中的根据所述基准空间区域在所述三维点云中的位置,在所述下一帧图像中设定目标空间区域,并从所述目标空间区域提取灰度特征,得到目标三维灰度图像的处理,同时继续执行上述步骤S230~步骤S240的处理,直到所述跟踪目标在所述三维点云数据的初始位置与所述预期位置之间的差值小于预设的差值阈值为止。
在步骤S270,获取所述下一帧图像中所述跟踪目标的标定位置。
其中,标定位置可以为下一帧图像中跟踪目标的实际位置。
在步骤S280,根据所述标定位置与确定的所述跟踪目标在所述下一帧图像中的位置的差值是否小于预设阈值判定跟踪精度。
上述步骤S280的处理方式可以多种多样,以下提供一种可选的处理方式,具体可包括以下内容:评估一个跟踪目标的跟踪方法的优劣,跟踪精度是一个重要指标。在三维激光图像中,跟踪目标的三维点云存在尺度不变性,即可以在点云中获取跟踪目标的实际尺寸大小,因此在跟踪过程中,可以用图像的量度直接表示跟踪误差,即可通过计算跟踪目标中心的实际位置与预期位置的误差距离来表征跟踪精度。误差距离D的数学表达式如下:
D = ( x i - x 0 ) 2 + ( y i - y 0 ) 2 + ( z i - z 0 ) 2 ... ( 6 )
其中,(xi,yi,zi)表示目标空间区域的中心坐标,(x0,y0,z0)表示空间区域的中心坐标(即跟踪目标的实际位置坐标)。通过上述数学表达式(6)可知,误差距离D越小表示跟踪精度越高。
本发明实施例提供的三维目标跟踪的方法,一方面,考虑到跟踪目标三维点云数据中可能包含太多的冗余信息,对跟踪目标的三维点云数据进行体素化处理,将三维点云数据转化为粗分辨率的三维灰度图像,舍去了跟踪目标点云中每个点的三维坐标信息,使得跟踪目标的三维点云数据被大幅压缩,同时保留了点云的空间分布信息并以灰度值的形式体现出来,从而提高了目标跟踪的速度和精度;另一方面,考虑到激光成像雷达前后两帧图像之间的间隔时间非常短,分辨率不变,因此目标区域的点云个数并不会发生较大的变化,落在每个体素的点云个数相应的也不会有较大变化,因此,可将每个体素的灰度值作为一个相对不变的特征,进而提取相应的灰度值及矩特征作为跟踪目标的特征空间,以实现对跟踪目标的快速准确的跟踪,有效避免光照等因素的影响。
实施例三
基于相同的技术构思,图3是示出根据本发明实施例三的三维目标跟踪的装置的逻辑框图。参照图3,所述装置包括基准图像获取模块310、目标图像获取模块320和跟踪目标确定模块330。
基准图像获取模块310用于获取一帧包括预定跟踪目标在内的三维点云数据,从所述三维点云数据中所述跟踪目标所处的基准空间区域提取灰度特征,得到基准三维灰度图像。
目标图像获取模块320用于获取下一帧图像,并根据所述基准空间区域在所述三维点云中的位置,在所述下一帧图像中设定目标空间区域,并从所述目标空间区域提取灰度特征,得到目标三维灰度图像。
跟踪目标确定模块330用于根据所述基准三维灰度图像和所述目标三维灰度图像采用均值偏移算法确定所述跟踪目标在所述下一帧图像中的位置。
另外,跟踪目标确定模块330包括:概率密度确定单元,用于计算所述基准三维灰度图像的灰度概率分布密度,并计算所述目标三维灰度图像的灰度概率分布密度;预期位置确定单元,用于将所述基准灰度图像的灰度概率分布密度和所述目标三维灰度图像的灰度概率分布密度代入均值偏移算法中计算,得到所述跟踪目标在所述下一帧图像中的预期位置;目标位置确定单元,用于如果所述跟踪目标在所述三维点云数据的初始位置与所述预期位置之间的差值小于预设的差值阈值,则将所述预期位置确定为所述跟踪目标在所述下一帧图像中的位置;搜索空间重设单元,用于如果所述初始位置与所述预期位置之间的差值大于或等于预设的差值阈值,则重新在所述下一帧图像中设定目标空间区域。
此外,所述目标空间区域为长方体,则其带宽为
T = 1 4 ( a 2 + b 2 + c 2 )
其中,T为带宽,a为所述目标空间区域的长,b为所述目标空间区域的宽,c为所述目标空间区域的高。
进一步地,在如图3所示的装置的基础上,如图4所示的装置还包括:标定位置获取模块340,用于获取所述下一帧图像中所述跟踪目标的标定位置;跟踪精度判定模块350,用于根据所述标定位置与确定的所述跟踪目标在所述下一帧图像中的位置的差值是否小于预设阈值判定跟踪精度。
此外,所述灰度概率分布密度的函数表达式为:
q ( n ) = r n Σ i = 1 a Σ j = 1 b Σ k = 1 c h ( i , j , k )
其中,n表示灰度级别,rn表示灰度级别为第n级的像素的权值之和,q(n)表示灰度级别为第n级的灰度概率分布密度,h(i,j,k)表示位置坐标为(i,j,k)处的灰度的权值,0<i≤a,0<j≤b,0<k≤c。
本发明实施例提供的三维目标跟踪的装置,通过从获取的一帧包括预定跟踪目标在内的三维点云数据中所述跟踪目标所处的基准空间区域提取灰度特征,得到基准三维灰度图像,并在下一帧图像中根据基准空间区域在三维点云中的位置设定目标空间区域,从目标空间区域提取灰度特征得到目标三维灰度图像,根据基准三维灰度图像和目标三维灰度图像采用均值偏移算法确定跟踪目标在下一帧图像中的位置,以实现对跟踪目标的快速准确的跟踪,有效避免光照等因素的影响,从而提高跟踪目标的跟踪精度。
进一步地,本发明实施例中,一方面,考虑到跟踪目标三维点云数据中可能包含太多的冗余信息,对跟踪目标的三维点云数据进行体素化处理,将三维点云数据转化为粗分辨率的三维灰度图像,舍去了跟踪目标点云中每个点的三维坐标信息,使得跟踪目标的三维点云数据被大幅压缩,同时保留了点云的空间分布信息并以灰度值的形式体现出来,从而提高了目标跟踪的速度和精度;另一方面,考虑到激光成像雷达前后两帧图像之间的间隔时间非常短,分辨率不变,因此目标区域的点云个数并不会发生较大的变化,落在每个体素的点云个数相应的也不会有较大变化,因此,可将每个体素的灰度值作为一个相对不变的特征,进而提取相应的灰度值及矩特征作为跟踪目标的特征空间,以实现对跟踪目标的快速准确的跟踪,有效避免光照等因素的影响。
需要指出,根据实施的需要,可将本申请中描述的各个步骤/部件拆分为更多步骤/部件,也可将两个或多个步骤/部件或者步骤/部件的部分操作组合成新的步骤/部件,以实现本发明的目的。
上述根据本发明的方法可在硬件、固件中实现,或者被实现为可存储在记录介质(诸如CD ROM、RAM、软盘、硬盘或磁光盘)中的软件或计算机代码,或者被实现通过网络下载的原始存储在远程记录介质或非暂时机器可读介质中并将被存储在本地记录介质中的计算机代码,从而在此描述的方法可被存储在使用通用计算机、专用处理器或者可编程或专用硬件(诸如ASIC或FPGA)的记录介质上的这样的软件处理。可以理解,计算机、处理器、微处理器控制器或可编程硬件包括可存储或接收软件或计算机代码的存储组件(例如,RAM、ROM、闪存等),当所述软件或计算机代码被计算机、处理器或硬件访问且执行时,实现在此描述的处理方法。此外,当通用计算机访问用于实现在此示出的处理的代码时,代码的执行将通用计算机转换为用于执行在此示出的处理的专用计算机。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。

Claims (10)

1.一种三维目标跟踪的方法,其特征在于,所述方法包括:
获取一帧包括预定跟踪目标在内的三维点云数据,从所述三维点云数据中所述跟踪目标所处的基准空间区域提取灰度特征,得到基准三维灰度图像;
获取下一帧图像,并根据所述基准空间区域在所述三维点云中的位置,在所述下一帧图像中设定目标空间区域,并从所述目标空间区域提取灰度特征,得到目标三维灰度图像;
根据所述基准三维灰度图像和所述目标三维灰度图像采用均值偏移算法确定所述跟踪目标在所述下一帧图像中的位置。
2.根据权利要求1所述的方法,其特征在于,所述根据所述基准三维灰度图像和所述目标三维灰度图像采用均值偏移算法确定所述跟踪目标在所述下一帧图像中的位置的处理包括:
计算所述基准三维灰度图像的灰度概率分布密度,并计算所述目标三维灰度图像的灰度概率分布密度;
将所述基准灰度图像的灰度概率分布密度和所述目标三维灰度图像的灰度概率分布密度代入均值偏移算法中计算,得到所述跟踪目标在所述下一帧图像中的预期位置;
如果所述跟踪目标在所述三维点云数据的初始位置与所述预期位置之间的差值小于预设的差值阈值,则将所述预期位置确定为所述跟踪目标在所述下一帧图像中的位置;
如果所述初始位置与所述预期位置之间的差值大于或等于预设的差值阈值,则重新在所述下一帧图像中设定目标空间区域。
3.根据权利要求2所述的方法,其特征在于,所述目标空间区域为长方体,则其带宽为
T = 1 4 ( a 2 + b 2 + c 2 )
其中,T为带宽,a为所述目标空间区域的长,b为所述目标空间区域的宽,c为所述目标空间区域的高。
4.根据权利要求3所述的方法,其特征在于,所述方法还包括:
获取所述下一帧图像中所述跟踪目标的标定位置;
根据所述标定位置与确定的所述跟踪目标在所述下一帧图像中的位置的差值是否小于预设阈值判定跟踪精度。
5.根据权利要求3所述的方法,其特征在于,所述灰度概率分布密度的函数表达式为:
q ( n ) = r n Σ i = 1 a Σ j = 1 b Σ k = 1 c h ( i , j , k )
其中,n表示灰度级别,rn表示灰度级别为第n级的像素的权值之和,q(n)表示灰度级别为第n级的灰度概率分布密度,h(i,j,k)表示位置坐标为(i,j,k)处的灰度的权值,0<i≤a,0<j≤b,0<k≤c。
6.一种三维目标跟踪的装置,其特征在于,所述装置包括:
基准图像获取模块,用于获取一帧包括预定跟踪目标在内的三维点云数据,从所述三维点云数据中所述跟踪目标所处的基准空间区域提取灰度特征,得到基准三维灰度图像;
目标图像获取模块,用于获取下一帧图像,并根据所述基准空间区域在所述三维点云中的位置,在所述下一帧图像中设定目标空间区域,并从所述目标空间区域提取灰度特征,得到目标三维灰度图像;
跟踪目标确定模块,用于根据所述基准三维灰度图像和所述目标三维灰度图像采用均值偏移算法确定所述跟踪目标在所述下一帧图像中的位置。
7.根据权利要求6所述的装置,其特征在于,所述跟踪目标确定模块包括:
概率密度确定单元,用于计算所述基准三维灰度图像的灰度概率分布密度,并计算所述目标三维灰度图像的灰度概率分布密度;
预期位置确定单元,用于将所述基准灰度图像的灰度概率分布密度和所述目标三维灰度图像的灰度概率分布密度代入均值偏移算法中计算,得到所述跟踪目标在所述下一帧图像中的预期位置;
目标位置确定单元,用于如果所述跟踪目标在所述三维点云数据的初始位置与所述预期位置之间的差值小于预设的差值阈值,则将所述预期位置确定为所述跟踪目标在所述下一帧图像中的位置;
搜索空间重设单元,用于如果所述初始位置与所述预期位置之间的差值大于或等于预设的差值阈值,则重新在所述下一帧图像中设定目标空间区域。
8.根据权利要求7所述的装置,其特征在于,所述目标空间区域为长方体,则其带宽为
T = 1 4 ( a 2 + b 2 + c 2 )
其中,T为带宽,a为所述目标空间区域的长,b为所述目标空间区域的宽,c为所述目标空间区域的高。
9.根据权利要求8所述的装置,其特征在于,所述装置还包括:
标定位置获取模块,用于获取所述下一帧图像中所述跟踪目标的标定位置;
跟踪精度判定模块,用于根据所述标定位置与确定的所述跟踪目标在所述下一帧图像中的位置的差值是否小于预设阈值判定跟踪精度。
10.根据权利要求8所述的装置,其特征在于,所述灰度概率分布密度的函数表达式为:
q ( n ) = r n Σ i = 1 a Σ j = 1 b Σ k = 1 c h ( i , j , k )
其中,n表示灰度级别,rn表示灰度级别为第n级的像素的权值之和,q(n)表示灰度级别为第n级的灰度概率分布密度,h(i,j,k)表示位置坐标为(i,j,k)处的灰度的权值,0<i≤a,0<j≤b,0<k≤c。
CN201610266078.7A 2016-04-26 2016-04-26 三维目标跟踪的方法和装置 Active CN105957106B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610266078.7A CN105957106B (zh) 2016-04-26 2016-04-26 三维目标跟踪的方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610266078.7A CN105957106B (zh) 2016-04-26 2016-04-26 三维目标跟踪的方法和装置

Publications (2)

Publication Number Publication Date
CN105957106A true CN105957106A (zh) 2016-09-21
CN105957106B CN105957106B (zh) 2019-02-22

Family

ID=56916403

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610266078.7A Active CN105957106B (zh) 2016-04-26 2016-04-26 三维目标跟踪的方法和装置

Country Status (1)

Country Link
CN (1) CN105957106B (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106771329A (zh) * 2016-12-27 2017-05-31 歌尔科技有限公司 一种无人机减速过程中运行速度的检测方法
CN109949347A (zh) * 2019-03-15 2019-06-28 百度在线网络技术(北京)有限公司 人体跟踪方法、装置、系统、电子设备和存储介质
CN110472553A (zh) * 2019-08-12 2019-11-19 北京易航远智科技有限公司 图像和激光点云融合的目标追踪方法、计算装置和介质
CN111010590A (zh) * 2018-10-08 2020-04-14 传线网络科技(上海)有限公司 一种视频裁剪方法及装置
CN111045023A (zh) * 2018-10-15 2020-04-21 图森有限公司 一种基于光检测和测距的车辆追踪方法和系统
CN111656762A (zh) * 2017-12-05 2020-09-11 交互数字Ce专利控股公司 编码表示三维对象的点云的方法和装置
WO2021121247A1 (zh) * 2019-12-16 2021-06-24 华为技术有限公司 一种确定目标对象跟踪门限的方法、装置
CN113536850A (zh) * 2020-04-20 2021-10-22 长沙莫之比智能科技有限公司 基于77g毫米波雷达的目标物体大小测试方法和装置
CN114663682A (zh) * 2022-03-18 2022-06-24 北京理工大学 一种提高抗干扰性能的目标显著性检测方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7003136B1 (en) * 2002-04-26 2006-02-21 Hewlett-Packard Development Company, L.P. Plan-view projections of depth image data for object tracking
CN103112015A (zh) * 2013-01-29 2013-05-22 山东电力集团公司电力科学研究院 一种适用于工业机器人的操作物位置姿态识别方法
CN103150559A (zh) * 2013-03-01 2013-06-12 南京理工大学 基于Kinect三维深度图像的头部识别与跟踪方法
CN103456029A (zh) * 2013-09-03 2013-12-18 中国民航大学 一种抗相似颜色和光照变化干扰的Mean Shift跟踪方法
CN104715471A (zh) * 2014-01-03 2015-06-17 杭州海康威视数字技术股份有限公司 目标定位跟踪方法及其装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7003136B1 (en) * 2002-04-26 2006-02-21 Hewlett-Packard Development Company, L.P. Plan-view projections of depth image data for object tracking
CN103112015A (zh) * 2013-01-29 2013-05-22 山东电力集团公司电力科学研究院 一种适用于工业机器人的操作物位置姿态识别方法
CN103150559A (zh) * 2013-03-01 2013-06-12 南京理工大学 基于Kinect三维深度图像的头部识别与跟踪方法
CN103456029A (zh) * 2013-09-03 2013-12-18 中国民航大学 一种抗相似颜色和光照变化干扰的Mean Shift跟踪方法
CN104715471A (zh) * 2014-01-03 2015-06-17 杭州海康威视数字技术股份有限公司 目标定位跟踪方法及其装置

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
MARKUS HAHN ET AL.: "3D Mean-Shift Tracking of Human Body Parts and Recognition of Working Actions in an Industrial Environment", 《SPRINGER BERLIN HEIDELBERG》 *
WENGUANG ZHANG ET AL.: "Ground Target Detection in LiDAR Point Clouds using AdaBoost", 《2015 INTERNATIONAL CONFERENCE ON CONTROL, AUTOMATION AND INFORMATION SCIENCES 》 *
孙雪: "单目标跟踪方法的研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
张旭光 等: "基于Mean-shift的灰度目标跟踪新算法", 《光学技术》 *

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106771329B (zh) * 2016-12-27 2020-06-05 歌尔科技有限公司 一种无人机减速过程中运行速度的检测方法
CN106771329A (zh) * 2016-12-27 2017-05-31 歌尔科技有限公司 一种无人机减速过程中运行速度的检测方法
US11095920B2 (en) 2017-12-05 2021-08-17 InterDigital CE Patent Holdgins, SAS Method and apparatus for encoding a point cloud representing three-dimensional objects
CN111656762A (zh) * 2017-12-05 2020-09-11 交互数字Ce专利控股公司 编码表示三维对象的点云的方法和装置
CN111010590A (zh) * 2018-10-08 2020-04-14 传线网络科技(上海)有限公司 一种视频裁剪方法及装置
CN111045023A (zh) * 2018-10-15 2020-04-21 图森有限公司 一种基于光检测和测距的车辆追踪方法和系统
CN109949347A (zh) * 2019-03-15 2019-06-28 百度在线网络技术(北京)有限公司 人体跟踪方法、装置、系统、电子设备和存储介质
US11600008B2 (en) 2019-03-15 2023-03-07 Baidu Online Network Technology (Beijing) Co., Ltd. Human-tracking methods, systems, and storage media
CN109949347B (zh) * 2019-03-15 2021-09-17 百度在线网络技术(北京)有限公司 人体跟踪方法、装置、系统、电子设备和存储介质
CN110472553B (zh) * 2019-08-12 2022-03-11 北京易航远智科技有限公司 图像和激光点云融合的目标追踪方法、计算装置和介质
CN110472553A (zh) * 2019-08-12 2019-11-19 北京易航远智科技有限公司 图像和激光点云融合的目标追踪方法、计算装置和介质
CN113064153A (zh) * 2019-12-16 2021-07-02 华为技术有限公司 一种确定目标对象跟踪门限的方法、装置
WO2021121247A1 (zh) * 2019-12-16 2021-06-24 华为技术有限公司 一种确定目标对象跟踪门限的方法、装置
CN113064153B (zh) * 2019-12-16 2024-01-02 华为技术有限公司 一种确定目标对象跟踪门限的方法、装置
CN113536850A (zh) * 2020-04-20 2021-10-22 长沙莫之比智能科技有限公司 基于77g毫米波雷达的目标物体大小测试方法和装置
CN114663682A (zh) * 2022-03-18 2022-06-24 北京理工大学 一种提高抗干扰性能的目标显著性检测方法
CN114663682B (zh) * 2022-03-18 2023-04-07 北京理工大学 一种提高抗干扰性能的目标显著性检测方法

Also Published As

Publication number Publication date
CN105957106B (zh) 2019-02-22

Similar Documents

Publication Publication Date Title
CN105957106A (zh) 三维目标跟踪的方法和装置
CN110032949B (zh) 一种基于轻量化卷积神经网络的目标检测与定位方法
US8050458B2 (en) Frontal view imaging and control device installed on movable object
CN101826157A (zh) 一种地面静止目标实时识别跟踪方法
CN112949519B (zh) 目标检测方法、装置、设备及存储介质
CN111144213A (zh) 一种对象检测方法和相关设备
CN108596032B (zh) 一种视频中打架行为检测方法、装置、设备及介质
CN110096993A (zh) 双目立体视觉的目标检测设备及方法
CN112085761A (zh) 乒乓球轨迹捕捉分析方法及分析系统
CN113012063A (zh) 一种动态点云修复方法、装置及计算机设备
CN116012428A (zh) 一种雷视联合定位方法、装置及存储介质
CN116543361A (zh) 车辆的多模态融合感知方法、装置、车辆及存储介质
CN110163896B (zh) Sar图像匹配方法
CN114913500B (zh) 位姿确定方法、装置、计算机设备和存储介质
CN114280583B (zh) 无gps信号下激光雷达定位精度验证方法及系统
CN114283081B (zh) 基于金字塔加速的深度恢复方法、电子设备及存储介质
CN112146647B (zh) 一种地面纹理的双目视觉定位方法及芯片
CN114359891A (zh) 一种三维车辆检测方法、系统、装置及介质
CN114140659A (zh) 一种基于无人机视角下人体检测的社交距离监控方法
JP3697433B2 (ja) 目標識別装置
JP2020034772A (ja) 静止物データ生成装置、制御方法、プログラム及び記憶媒体
JP7466418B2 (ja) Isar画像データ学習装置、目標類別装置及びレーダ装置
JP2020034452A (ja) 位置推定装置、制御方法、プログラム及び記憶媒体
CN113029166B (zh) 定位方法、装置、电子设备及存储介质
CN112396611B (zh) 一种点线视觉里程计自适应优化方法、装置及存储介质

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20221012

Address after: Room 1016, Block C, Haiyong International Building 2, No. 489, Lusong Road, High tech Zone, Changsha City, Hunan Province, 410221

Patentee after: Hunan Fenghua Intelligent Technology Co.,Ltd.

Address before: 410205 A645, room 39, Changsha central software park headquarters, No. 39, Jian Shan Road, hi tech Development Zone, Hunan.

Patentee before: HUNAN VISUALTOURING INFORMATION TECHNOLOGY Co.,Ltd.