CN104392465A - 基于d-s证据理论信息融合的多核目标跟踪方法 - Google Patents

基于d-s证据理论信息融合的多核目标跟踪方法 Download PDF

Info

Publication number
CN104392465A
CN104392465A CN201410642611.6A CN201410642611A CN104392465A CN 104392465 A CN104392465 A CN 104392465A CN 201410642611 A CN201410642611 A CN 201410642611A CN 104392465 A CN104392465 A CN 104392465A
Authority
CN
China
Prior art keywords
target
tracking
evidence theory
sigma
theory information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201410642611.6A
Other languages
English (en)
Inventor
杨欣
沈雷
周延培
张亚红
张燕
周大可
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Aeronautics and Astronautics
Original Assignee
Nanjing University of Aeronautics and Astronautics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Aeronautics and Astronautics filed Critical Nanjing University of Aeronautics and Astronautics
Priority to CN201410642611.6A priority Critical patent/CN104392465A/zh
Publication of CN104392465A publication Critical patent/CN104392465A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Abstract

本发明公开了一种基于D-S证据理论信息融合的多核目标跟踪方法,其特征在于,包括以下步骤:(1)对初始选定的目标跟踪框划分;(2)计算颜色特征和边缘特征的联合概率密度;(3)计算子块的权重系数;(4)利用mean-shift非参数密度估计算法对位移矢量求取极大值;(5)利用D-S证据理论信息融合方法,对多个目标位置估计进行融合计算以获得最佳的跟踪目标位置。本发明能够有效地处理目标被遮挡下特征单一、光线的强烈变化及目标自身形状的改变的情况、具有良好的跟踪效果。

Description

基于D-S证据理论信息融合的多核目标跟踪方法
技术领域
本发明属于数字图像处理及计算机视觉目标跟踪技术领域,涉及一种对视频图像序列目标跟踪技术,特别是涉及一种基于D-S证据理论信息融合的多核目标跟踪方法。
背景技术
随着计算机视觉技术的蓬勃发展,电子设备以及数字存储设备的完善。利用计算机视觉技术来帮助我们处理、理解,分析图像和视频得到广泛的普及。其中运动目标跟踪是一个热点研究问题。运动目标跟踪就是在一段序列图像中的每幅图像中实时地找到所感兴趣的运动目标(包括位置、速度及加速度等运动参数。在运动目标跟踪问题的研究上,总体来说有两种思路:a)不依赖于先验知识,直接从图像序列中检测到运动目标,并进行目标识别,最终跟踪感兴趣的运动目标;b)依赖于目标的先验知识,首先为运动目标建模,然后在图像序列中实时找到相匹配的运动目标。围绕这两种思路,产生了大量的运动检测与跟踪算法。但迄今为止,运动检测与跟踪算法的鲁棒性、准确性和实时性的统一仍是尚未解决和正在努力追求的目标。运动目标跟踪作为一门跨学科的前沿技术,融合了图像处理、模式识别、人工智能、自动控制等多种不同领域的理论知识。在军事制导、视觉导航、安全监控、智能交通、气象分析及天文观测等众多领域中有着广阔的应用前景,跟踪算法的研究具有重要的实际意义。
通过多年的发展和改进,运动目标跟踪的方法主要有以下几种:(1)基于区域匹配的方法,其主要是把参考图像的某一块整体与实时图像的在所有可能位置上进行叠加,然后计算某种图像相似性度量的相应值,其最大相似性相对应的位置就是目标的位置。(2)基于特征匹配方法,即在提取特征后,对特征属性矢量(点、边缘、线段、小面或局部能量)作相关度计算,相关系数的峰值即为匹配位置。(3)基于频率域匹配是将视频图像变换到频率域,然后根据变换系数的幅值或相位来检测目标的运动。傅立叶变换是常用的频率分析方法。(4)基于模型的匹配跟踪是通过一定的先验知识对所跟踪目标建立模型,然后通过匹配跟踪目标进行模型的实时更新。
文献“Mean shift在目标跟踪中的应用[J].”(宋新、沈振康、王平、王鲁平,系统工程与电子技术,2007.09:1405-1409.)。提出了采用获取颜色空间直方图结合Mean Shift算法来对目标进行跟踪。但由于只选择单一颜色的特征,其他的特征信息就被忽略,导致信息量不够充分。在实际情景中,由于目标被遮挡或光线的强烈变化以及目标自身形状的改变都会影响目标的跟踪效果。
发明内容
本发明的目的在于克服上述现有技术的缺陷,提出一种能够有效地处理目标被遮挡下特征单一、光线的强烈变化及目标自身形状改变的情况、具有良好的跟踪效果的基于D-S证据理论信息融合的多核目标跟踪方法。
本发明为解决所述技术问题采用的技术方案是:
一种基于D-S证据理论信息融合的多核目标跟踪方法,其特征在于,包括以下步骤:
(1)对初始选定的目标跟踪框划分;当手动框选目标区域后,根据目标框的坐标即可求出目标框的长和宽,选取长和宽的一半划分目标框大小。
(2)计算颜色特征和边缘特征的联合概率密度;颜色直方图是目标颜色的整体统计特征,边缘直方图是目标边缘的整体统计特征,将两者有机的融合在一起,获取各自重要的特征信息。
(3)计算子块的权重系数;每个分块各自的巴氏系数值与整体的巴氏系数值的比值。
(4)求取跟踪目标位置估计;利用mean-shift非参数密度估计算法对位移矢量求取极大值。
利用D-S证据理论信息融合方法,对多个目标位置估计进行融合计算以获得最佳的跟踪目标位置。
所述步骤(1)中,对跟踪框等分情况实施方法为:
x=m/2
y=n/2
其中,m为选定目标跟踪框的宽度,n为选定目标跟踪框的高度。
所述步骤(2)中,对计算颜色特征和边缘特征的联合概率密度实施方法为:
q ui = q u max { q u }    i=1,…,m
p ui = q ui × g ( x , y ) = q ui × g ( x , y ) max { q ui }    i=1,…,m
其中,g(x,y)是Sobel算子进行边缘检测后在坐标(x,y)处的值,当存在边缘时为1,否则为0。
所述步骤(3)中,计算子块的权重系数实施方法为:
w ( k ) = ρ [ q ui k ^ ( y ) , p ui k ^ ] Σ i = 1 K ρ [ q ui k ^ ( y ) , p ui k ^ ]
式中,为候选模型和目标模型第k块的联合特征概率密度分布;K为总的块数。
所述步骤(4)中,对求取跟踪目标位置估计实施方法为:
y 1 = Σ i = 1 n h x i w i g [ | | y 0 - x i h | | ] Σ i = 1 n h w i g [ | | y 0 - x i h | | ]
其中,h表示核函数的带宽,wi加权系数为:
w i = Σ u = 1 m q u p u ( y 0 ) δ [ b ( x i ) - u ]
其中,qu,pu(y0),分别为候选模型和目标模型的特征概率密度值。
所述步骤(5)中,对多个目标位置估计进行融合计算以获得最佳的跟踪目标位置:
在目标跟踪方法中根据证据组合公式原理构建数学模型,采用N个不同的核函数,分别利用Mean-Shift方法,可获得当前帧中N个不同的跟踪目标的位置估计(l1,l2,…ln),令l′为前一帧中的目标位置,根据D-S证据理论中焦元结构定义一组mass函数如下:
M1(l1)=(l1-l′)/l′
M2(l2)=(l2-l′)/l′
.
.
.
Mn(ln)=(ln-l′)/l′
然后利用D-S合成公式计算得到目标位于ln的概率:
M ( l n ) = 1 C Σ ∩ i = 1 N A i = l n ∏ i = 1 N M i ( A i ) = 1 C ( M 1 ⊕ . . . ⊕ M N ) ( l n )
式中: C = Σ ∩ i = 1 N A i ≠ φ ∏ i = 1 N M i ( A i )
通过上述公式计算获得的最大概率时所对应的目标位置即为最后所求得的实际目标位置。
相比现有技术,本发明包括以下优点和技术效果:
1.本发明采用了颜色特征和边缘特征的融合技术,并加入了多核函数和D-S证据理论信息融合方法,有效地解决了在光线变化情况下,对目标被长时间的遮挡或目标的自身形状的改变的多目标跟踪。
2.通过对多跟踪目标的位置估计进行融合判断,取得最佳的目标跟踪位置和跟踪效果。
附图说明
图1是本发明所述方法的总体流程图。
图2是本发明所述方法的分布流程图。
图3本发明所述方法的跟踪实验效果图。
图4为本发明所述方法的中心点偏移误差曲线图。其中,图3a是传统的Mean-Shift算法,3b是本发明所述方法的算法。
具体实施方式
下面结合附图对本发明做进一步说明。
本发明所述方法,首先手动选定目标跟踪区域,将目标跟踪区域等分成四个子区域,分别算出四个区域的颜色直方图和边缘方向直方图的联合概率密度分布,赋予各个区域的Bhattacharyya权重系数,再根据加权后的概率密度分布获得整体的联合概率密度分布,接着采用多个核函数计算出多个目标跟踪位置估计,然后利用D-S证据理论信息融合方法对多组目标位置估计进行融合判断,最终获得精确的目标跟踪位置。基于D-S证据理论信息融合的多核目标跟踪方法能够有效的提升目标跟踪的准确性,可以用于指导民用的视频监控软件的开发。
本发明所述方法包括以下步骤:
一种基于D-S证据理论信息融合的多核目标跟踪方法,其特征在于,包括以下步骤:
(1)对初始选定的目标跟踪框划分;当手动框选目标区域后,根据目标框的坐标即可求出目标框的长和宽,选取长和宽的一半划分目标框大小。
(2)计算颜色特征和边缘特征的联合概率密度;颜色直方图是目标颜色的整体统计特征,边缘直方图是目标边缘的整体统计特征,将两者有机的融合在一起,获取各自重要的特征信息。
(3)计算子块的权重系数;每个分块各自的巴氏系数值与整体的巴氏系数值的比值。
(4)求取跟踪目标位置估计;利用mean-shift非参数密度估计算法对位移矢量求取极大值。
利用D-S证据理论信息融合方法,对多个目标位置估计进行融合计算以获得最佳的跟踪目标位置。
所述步骤(1)中,对跟踪框等分情况实施方法为:
x=m/2
y=n/2
其中,m为选定目标跟踪框的宽度,n为选定目标跟踪框的高度;以目标框的中心点为坐标,将目标框划分开。
所述步骤(2)中,对计算颜色特征和边缘特征的联合概率密度实施方法为:
q ui = q u max { q u }    i=1,…,m
p ui = q ui × g ( x , y ) = q ui × g ( x , y ) max { q ui }    i=1,…,m
其中,g(x,y)是Sobel算子进行边缘检测后在坐标(x,y)处的值,当存在边缘时为1,否则为0;这样能够解决特征单一化问题,也可保证特征信息的充分性,更好的突显目标的特征以便于后续的跟踪。
所述步骤(3)中,计算子块的权重系数实施方法为:
w ( k ) = ρ [ q ui k ^ ( y ) , p ui k ^ ] Σ i = 1 K ρ [ q ui k ^ ( y ) , p ui k ^ ]
式中,为候选模型和目标模型第k块的联合特征概率密度分布;K为总的块数;为每个子块赋予权值,区别被遮挡的区域,即可不使用被遮挡的区域特征信息,以提高信息的准确性。
所述步骤(4)中,对求取跟踪目标位置估计实施方法为:
y 1 = Σ i = 1 n h x i w i g [ | | y 0 - x i h | | ] Σ i = 1 n h w i g [ | | y 0 - x i h | | ]
其中,h表示核函数的带宽,wi加权系数为:
w i = Σ u = 1 m q u p u ( y 0 ) δ [ b ( x i ) - u ]
其中,qu,pu(y0),分别为候选模型和目标模型的特征概率密度值;获得目标的估计位置。
所述步骤(5)中,对多个目标位置估计进行融合计算以获得最佳的跟踪目标位置:
在目标跟踪方法中根据证据组合公式原理构建数学模型,采用N个不同的核函数,分别利用Mean-Shift方法,可获得当前帧中N个不同的跟踪目标的位置估计(l1,l2,…ln),令l′为前一帧中的目标位置,根据D-S证据理论中焦元结构定义一组mass函数如下:
M1(l1)=(l1-l′)/l′
M2(l2)=(l2-l′)/l′
.
.
.
Mn(ln)=(ln-l′)/l′
然后利用D-S合成公式计算得到目标位于ln的概率:
M ( l n ) = 1 C Σ ∩ i = 1 N A i = l n ∏ i = 1 N M i ( A i ) = 1 C ( M 1 ⊕ . . . ⊕ M N ) ( l n )
式中: C = Σ ∩ i = 1 N A i ≠ φ ∏ i = 1 N M i ( A i )
首先在上一步骤中获得了多个“可信”的目标位置,但这些“可信”的目标位置并不是最佳的目标位置,所以通过上述公式计算获得的最大概率时所对应的目标位置即为最后所求得的最佳目标位置。

Claims (6)

1.一种基于D-S证据理论信息融合的多核目标跟踪方法,其特征在于,包括以下步骤:
(1)对初始选定的目标跟踪框划分:手动框选目标区域后,根据目标框的坐标求出目标框的长和宽,选取长和宽的一半划分目标框大小;
(2)计算颜色特征和边缘特征的联合概率密度:颜色直方图是目标颜色的整体统计特征,边缘直方图是目标边缘的整体统计特征,将两者有机的融合在一起,获取各自重要的特征信息;
(3)计算子块的权重系数:每个分块各自的巴氏系数值与整体的巴氏系数值的比值:
(4)求取跟踪目标位置估计:利用mean-shift非参数密度估计算法对位移矢量求取极大值;
(5)利用D-S证据理论信息融合方法,对多个目标位置估计进行融合计算以获得最佳的跟踪目标位置。
2.根据权利要求1所述的一种基于D-S证据理论信息融合的多核目标跟踪方法,其特征在于所述步骤(1)中,对跟踪框等分情况实施方法为:
x=m/2
y=n/2
其中,m为选定目标跟踪框的宽度,n为选定目标跟踪框的高度。
3.根据权利要求1所述的一种基于D-S证据理论信息融合的多核目标跟踪方法,其特征在于:所述步骤(2)中,对计算颜色特征和边缘特征的联合概率密度实施方法为:
q ui = q u max { q u } , i = 1 , . . . , m
p ui = q ui × g ( x , y ) = q ui × g ( x , y ) max { q ui } , i = 1 , . . . , m
其中,g(x,y)是Sobel算子进行边缘检测后在坐标(x,y)处的值,当存在边缘时为1,否则为0。
4.根据权利要求1所述的一种基于D-S证据理论信息融合的多核目标跟踪方法,其特征在于所述步骤(3)中,计算子块的权重系数实施方法为:
w ( k ) = ρ [ q ui k ( y ) ^ , p ui k ^ ] Σ i = 1 K ρ [ q ui k ( y ) ^ , p ui k ^ ]
式中,为候选模型和目标模型第k块的联合特征概率密度分布;K为总的块数。
5.根据权利要求1所述的一种基于D-S证据理论信息融合的多核目标跟踪方法,其特征在于所述步骤(4)中,对求取跟踪目标位置估计实施方法为:
y 1 = Σ i = 1 n h x i w i g [ | | y 0 - x i h | | ] Σ i = 1 n h w i g [ | | y 0 - x i h | | ]
其中,h表示核函数的带宽,wi加权系数为:
w i = Σ u = 1 m q u p u ( y 0 ) δ [ b ( x i ) - u ]
其中,qu,pu(y0),分别为候选模型和目标模型的特征概率密度值。
6.根据权利要求1所述的一种基于D-S证据理论信息融合的多核目标跟踪方法,其特征在于所述步骤(5)中,对多个目标位置估计进行融合计算以获得最佳的跟踪目标位置的实现方法是:
在目标跟踪方法中根据证据组合公式原理构建数学模型,采用N个不同的核函数,分别利用Mean-Shift方法,可获得当前帧中N个不同的跟踪目标的位置估计(l1,l2,…ln),令l′为前一帧中的目标位置,根据D-S证据理论中焦元结构定义一组mass函数如下:
M1(l1)=(l1-l′)/l′
M2(l2)=(l2-l′)/l′
.
.
.
Mn(ln)=(ln-l′)/l′
然后利用D-S合成公式计算得到目标位于ln的概率:
M ( l n ) = 1 C Σ ∩ i = 1 N A i = l n Π i = 1 N M i ( A i ) = 1 C ( M 1 ⊕ . . . ⊕ M N ) ( l n )
式中: C = Σ ∩ i = 1 N A i ≠ φ Π i = 1 N M i ( A i )
通过上述公式计算获得的最大概率时所对应的目标位置即为最后所求得的实际目标位置。
CN201410642611.6A 2014-11-13 2014-11-13 基于d-s证据理论信息融合的多核目标跟踪方法 Pending CN104392465A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410642611.6A CN104392465A (zh) 2014-11-13 2014-11-13 基于d-s证据理论信息融合的多核目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410642611.6A CN104392465A (zh) 2014-11-13 2014-11-13 基于d-s证据理论信息融合的多核目标跟踪方法

Publications (1)

Publication Number Publication Date
CN104392465A true CN104392465A (zh) 2015-03-04

Family

ID=52610363

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410642611.6A Pending CN104392465A (zh) 2014-11-13 2014-11-13 基于d-s证据理论信息融合的多核目标跟踪方法

Country Status (1)

Country Link
CN (1) CN104392465A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104820996A (zh) * 2015-05-11 2015-08-05 河海大学常州校区 一种基于视频的自适应分块的目标跟踪方法
CN106951841A (zh) * 2017-03-09 2017-07-14 广东顺德中山大学卡内基梅隆大学国际联合研究院 一种基于颜色和距离聚类的多目标跟踪方法
CN109508000A (zh) * 2018-12-16 2019-03-22 西南电子技术研究所(中国电子科技集团公司第十研究所) 异构多传感器多目标跟踪方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101286237A (zh) * 2008-05-22 2008-10-15 重庆大学 基于视觉仿生的运动目标检测方法
CN101894269A (zh) * 2010-07-16 2010-11-24 西安电子科技大学 基于多分类器系统的合成孔径雷达自动目标识别方法
CN102004910A (zh) * 2010-12-03 2011-04-06 上海交通大学 基于surf特征点图匹配和运动生成模型的视频目标跟踪方法
KR20140035176A (ko) * 2012-09-13 2014-03-21 한국전자통신연구원 적응적 다중 특징 가중치를 반영한 객체 추적 장치 및 방법
US20140307917A1 (en) * 2013-04-12 2014-10-16 Toyota Motor Engineering & Manufacturing North America, Inc. Robust feature fusion for multi-view object tracking

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101286237A (zh) * 2008-05-22 2008-10-15 重庆大学 基于视觉仿生的运动目标检测方法
CN101894269A (zh) * 2010-07-16 2010-11-24 西安电子科技大学 基于多分类器系统的合成孔径雷达自动目标识别方法
CN102004910A (zh) * 2010-12-03 2011-04-06 上海交通大学 基于surf特征点图匹配和运动生成模型的视频目标跟踪方法
KR20140035176A (ko) * 2012-09-13 2014-03-21 한국전자통신연구원 적응적 다중 특징 가중치를 반영한 객체 추적 장치 및 방법
US20140307917A1 (en) * 2013-04-12 2014-10-16 Toyota Motor Engineering & Manufacturing North America, Inc. Robust feature fusion for multi-view object tracking

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
丁业兵等: "基于颜色和边缘特征CAM Shift目标跟踪算法", 《华东理工大学学报(自然科学版)》 *
肖鹏等: "基于多核融合的目标大面积遮挡处理方法", 《北京航空航天大学学报》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104820996A (zh) * 2015-05-11 2015-08-05 河海大学常州校区 一种基于视频的自适应分块的目标跟踪方法
CN104820996B (zh) * 2015-05-11 2018-04-03 河海大学常州校区 一种基于视频的自适应分块的目标跟踪方法
CN106951841A (zh) * 2017-03-09 2017-07-14 广东顺德中山大学卡内基梅隆大学国际联合研究院 一种基于颜色和距离聚类的多目标跟踪方法
CN106951841B (zh) * 2017-03-09 2020-05-12 广东顺德中山大学卡内基梅隆大学国际联合研究院 一种基于颜色和距离聚类的多目标跟踪方法
CN109508000A (zh) * 2018-12-16 2019-03-22 西南电子技术研究所(中国电子科技集团公司第十研究所) 异构多传感器多目标跟踪方法
CN109508000B (zh) * 2018-12-16 2021-09-03 西南电子技术研究所(中国电子科技集团公司第十研究所) 异构多传感器多目标跟踪方法

Similar Documents

Publication Publication Date Title
CN102426019B (zh) 一种无人机景象匹配辅助导航方法及系统
Paton et al. Bridging the appearance gap: Multi-experience localization for long-term visual teach and repeat
CN103679674B (zh) 一种无人飞行器实时图像拼接方法及系统
CN101800890B (zh) 一种高速公路监控场景下多车辆视频跟踪方法
CN103411609B (zh) 一种基于在线构图的飞行器返航路线规划方法
CN101853511B (zh) 一种抗遮挡目标轨迹预测跟踪方法
CN105335986A (zh) 基于特征匹配和MeanShift算法的目标跟踪方法
CN101567046B (zh) 一种基于最小覆盖圆匹配的无人机目标识别方法
CN103729872B (zh) 一种基于分段重采样和表面三角化的点云增强方法
CN103617328B (zh) 一种飞机三维姿态解算方法
CN104537689B (zh) 基于局部对比显著性联合特征的目标跟踪方法
CN103093466A (zh) 基于LiDAR点云和影像的建筑物三维变化检测方法
CN104156984A (zh) 一种不均匀杂波环境下多目标跟踪的概率假设密度方法
CN111781608A (zh) 一种基于fmcw激光雷达的运动目标检测方法及系统
CN104881029A (zh) 基于一点ransac和fast算法的移动机器人导航方法
CN105513094A (zh) 基于三维Delaunay三角剖分的立体视觉跟踪方法及系统
CN102289822A (zh) 一种多摄像机协同跟踪运动目标的方法
CN115015911B (zh) 一种基于雷达图像的导航地图制作和使用方法及系统
CN103679740B (zh) 一种无人机对地目标roi提取方法
CN104392465A (zh) 基于d-s证据理论信息融合的多核目标跟踪方法
CN104240265A (zh) 一种基于全局约束的多目标跟踪方法和系统
Wang et al. Urban road information extraction from high resolution remotely sensed image based on semantic model
Li et al. Ground target tracking and trajectory prediction by UAV using a single camera and 3D road geometry recovery
Zhang et al. Efficient semantic segmentation backbone evaluation for unmanned surface vehicles based on likelihood distribution estimation
Guo et al. 3D Lidar SLAM Based on Ground Segmentation and Scan Context Loop Detection

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20150304

RJ01 Rejection of invention patent application after publication