CN108958296A - 一种无人机自主跟踪方法 - Google Patents
一种无人机自主跟踪方法 Download PDFInfo
- Publication number
- CN108958296A CN108958296A CN201810569455.3A CN201810569455A CN108958296A CN 108958296 A CN108958296 A CN 108958296A CN 201810569455 A CN201810569455 A CN 201810569455A CN 108958296 A CN108958296 A CN 108958296A
- Authority
- CN
- China
- Prior art keywords
- target
- unmanned plane
- tracking
- classifier
- sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 24
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 14
- 238000003384 imaging method Methods 0.000 claims description 16
- 238000006073 displacement reaction Methods 0.000 claims description 9
- 239000011159 matrix material Substances 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 8
- 230000004044 response Effects 0.000 claims description 7
- 230000003287 optical effect Effects 0.000 claims description 6
- 230000008859 change Effects 0.000 claims description 4
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 claims description 3
- 238000007476 Maximum Likelihood Methods 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000012937 correction Methods 0.000 claims description 3
- 230000004069 differentiation Effects 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 238000011426 transformation method Methods 0.000 claims description 3
- 238000005259 measurement Methods 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract description 8
- 238000005286 illumination Methods 0.000 abstract description 3
- 230000008447 perception Effects 0.000 abstract description 3
- 230000006978 adaptation Effects 0.000 abstract description 2
- 230000002411 adverse Effects 0.000 abstract description 2
- 230000006870 function Effects 0.000 abstract description 2
- 230000000007 visual effect Effects 0.000 abstract description 2
- 238000012544 monitoring process Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 230000009975 flexible effect Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/12—Target-seeking control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明涉及一种无人机自主跟踪方法,确保了跟踪的有效性和稳定性。实现了无人机的自主跟踪功能。其基于视觉的无人机跟踪主要需要保证的就是实时性和鲁棒性,实时性是为了确保算法运行速度,保证可以及时提供相关信息控制无人机跟踪目标,鲁棒性是为了保证适应环境的变化,目标外观变化等非固定因素可能造成的跟踪的不利影响。本发明方法图像感知的方式信息采集丰富,具有较大计算量,该发明提供的跟踪算法,完全可以满足无人机跟踪移动目标的实时性要求。同时基于视觉的跟踪对复杂背景,光照变化,以及目标的视角转换等具有良好的适应性,满足无人机跟踪移动目标的鲁棒性要求。
Description
技术领域
本发明涉及目标跟踪领域,具体涉及一种无人机自主跟踪方法。
背景技术
四旋翼无人机具有结构简单,成本低廉,灵活机动性好,环境适应能力强,目前应用于众多领域,如:环境监测,军事打击,安保防卫等。在实际应用中,无人机对地面的目标跟踪是无人机的常见任务之一,如利用无人机对犯罪分子进行跟踪监控,跟踪管道监视管道安全等。但是目前无人机的跟踪方法一般是将图像传至地面工作站,地面工作站担任着跟踪,姿态解算等任务,然后将飞行信息传给无人机,使实现对地面目标的跟随飞行。然而这种方法存在着智能性不足,跟踪不稳定。特别是通信网络时延大时,跟踪任务基本宣告失败。因此,为了进一步扩大无人机跟踪应用领域,研究其自主跟踪是尤为必要的。
无人机自主跟踪方式,是地面站确定无人机跟踪目标后,无人机对目标进行自主跟踪。
无人机跟踪方法一般运用的是计算机视觉技术,利用图像传感器进行图像信息的采集,利用计算机视觉技术,对图像进行处理,解算位姿信息,控制无人机进行飞行。但现有的自主跟踪方式存在着下述的问题:1、虽然可以排除网络时延的干扰,但是一般跟踪任务中,跟踪目标通常是运动,因此基于计算机视觉的目标跟踪算法,需要较好的实时性,以保证无人机可以实时的进行飞行跟踪,但是现有算法有些是采用的颜色特征或者形状特征,在背景复杂的环境中,对移动目标的跟踪效果较差,或生成伪目标影响目标跟踪。2、在跟踪过程中,无人机飞行跟踪的过程中,可能出现的目标部分遮挡,光照变化等干扰因素。
发明内容
本发明要提供一种无人机自主跟踪方法,以克服现有技术存在的对移动目标的跟踪效果较差、易生成伪目标影响目标,同时跟踪算法漂移导致最终跟踪失败的问题。
一种无人机自主跟踪方法,包括下述步骤:
步骤一、对采集到的图像进行处理,运用目标跟踪算法对图像进行处理,所述目标跟踪算法的步骤如下:
(1)、算法初始化,初始化分类器和跟踪目标窗口;在此过程中对目标进行正负样本采集,样本的表达形式为一种灰度差异性特征,特征采集表示为:
(2)、对下一帧图像进行样本正负样本采集,利用分类器进行目标和背景的判别,使用kalman滤波器校正目标位置,Kalman滤波器结合现在目标的预测位置和现在目标的测量值,计算可知目标所在位置的最优估算值X(k|k);
X(k|k)=X(k|k-1)+Kg(k)(Z(k)-HX(k|k-1)
式中,Kg(k)为Kalman增益。通过Kalman滤波器得到的预测位置后,计算每一个样本与预测位置的距离,将位置距离信息变换为位置权系数加入到分类器中;
(3)、对目标进行第二次尺度变换的正负样本采集,在此位置上进行多个尺度模板的采集,利用分类器再次进行分类,得到最大响应值,更新分类器;
(4)、得到尺度改变后的目标位置后,再次采集正负样本用于更新分类器参数。
步骤二、对连续图像序列上计算目标跟踪目标和图像中心点的像素位置差;
步骤三、通过计算出的图像的位置差按照相应的映射关系计算无人机与目标在真实三维空间中的相对位移:在计算无人机与目标在真实三维空间中的相对位移式,所使用的相机标定坐标系包括:像素坐标系:原点O在图像的左上角,设定原点向右方向为U轴,原点向下放下为V轴;成像平面坐标系:设定坐标系原点OR为图像中心,即相机的光轴与成像平面的交点,向右为XR轴,向下为YR轴;相机坐标系:坐标系原点OC为相机光心,XC轴与YC轴平面与镜头面重合且平行于成像平面坐标系与像素坐标系,ZC轴与光轴方向重合;惯性坐标系:原点OW为四旋翼无人机云台位置在地面上的投影,机头方向为XI轴方向,以右手准则确定YI轴方向,ZI轴垂直于地面;坐标系间的坐标转换方法是:利用成像平面坐标系作为转换过程的中间条件,从像素坐标系先转换到成像平面坐标系,然后转换到相机坐标系,最后推导得出惯性坐标系中的坐标;
步骤四、计算出的相对位移相关信息提供给飞行控制模块,进而调整无人机的飞行姿态,最后实现飞行跟随。
上述步骤一,
(1)中,利用压缩感知矩阵对特征维度进行压缩;
式中,y表示标号,y=1代表正样本即目标,y=0代表负样本即背景。数学上可证高维的随机向量的随机投影总是符合高斯分布的,因此在分类器H(v)中的条件分布p(vi|y=1)和p(vi|y=0)符合高斯分布:
式中,表示正样本的第i个特征的均值和,表示正样本的第i个特征的标准差,表示为负样本的第i个特征的均值,表示为负样本的第i个特征的标准差,则H(v)最大响应值位置即为理论认为最可能的目标位置;
(2)中,此时分类器表达为:
为了减少误差因素影响,其位置权系数做tanh归一化处理;
(3)中,分类器更新表达为:
式中,表示正样本的第i个特征的均值和,表示正样本的第i个特征的标准差,表示为负样本的第i个特征的均值,表示为负样本的第i个特征的标准差,λ为学习速率,λ>0且为常数,新的学习速率由下式可得:
λ'=λ/L
式中,L为上一帧和当前帧处理结果的Bhattacharyya距离。
本发明的有益效果:
本发明提供了一种保证实时性的同时具有较好鲁棒性的跟踪算法。确保了跟踪的有效性和稳定性。实现了无人机的自主跟踪功能。基于视觉的无人机跟踪主要需要保证的就是实时性和鲁棒性,实时性是为了确保算法运行速度,保证可以及时提供相关信息控制无人机跟踪目标,鲁棒性是为了保证适应环境的变化,目标外观变化等非固定因素可能造成的跟踪的不利影响。图像感知的方式信息采集丰富,具有较大计算量,该发明提供的跟踪算法,完全可以满足无人机跟踪移动目标的实时性要求。同时基于视觉的跟踪对复杂背景,光照变化,以及目标的视角转换等具有良好的适应性,满足无人机跟踪移动目标的鲁棒性要求。
附图说明
图1是步骤一(1)中利用压缩感知矩阵对特征维度进行压缩的原理示意;
图2是步骤三的坐标系示意图。
具体实施方式
下面通过具体实施方式结合附图对本发明作进一步详细说明。其中不同实施方式中类似元件采用了相关联的类似的元件标号。在以下的实施方式中,很多细节描述是为了使得本申请能被更好的理解。然而,本领域技术人员可以毫不费力的认识到,其中部分特征在不同情况下是可以省略的,或者可以由其他元件、材料、方法所替代。在某些情况下,本申请相关的一些操作并没有在说明书中显示或者描述,这是为了避免本申请的核心部分被过多的描述所淹没,而对于本领域技术人员而言,详细描述这些相关操作并不是必要的,他们根据说明书中的描述以及本领域的一般技术知识即可完整了解相关操作。
无人机自主跟踪方法流程通常包括下述步骤:无人机采用机载CCD相机进行目标的图像采集,并且通过视觉模块进行无线传输到地面工作站,然后地面工作站在传来的图像中选中图像上要跟踪的目标,接下来由无人机自主飞行跟随目标。
本发明提供的一种无人机自主跟踪方法,包括下述步骤:
步骤一:对采集到的图像进行处理,运用目标跟踪算法对图像进行处理,所述目标跟踪算法的步骤如下:
(1)算法初始化,初始化分类器和跟踪目标窗口;在此过程中对目标进行正负样本采集,样本的表达形式为一种类haar-like特征的CT特征,本质上为一种灰度差异性特征。特征采集可以表示为:
其本质是利用不同长宽的矩形框对图像进行卷积操作;
为了减少计算量,利用压缩感知矩阵对特征维度进行压缩。压缩原理参见图1:图中网格代表随机感知矩阵,黑色块代表矩阵中元素为1,灰色块代表矩阵元素为-1,白色代表矩阵元素为0。降维的结果V是每一个元素是原始特征的的线性组合,物理含义就是不同尺度下的矩阵特征之和。在工程应用中为了进一步加速计算,采用积分图方式计算。利用采集到的并已经进行降维后的特征进行分类器的初始化。分类器基于贝叶斯分类器在线学习思想;
式中,y表示标号,y=1代表正样本即目标,y=0代表负样本即背景。数学上可证高维的随机向量的随机投影总是符合高斯分布的,因此在分类器H(v)中的条件分布p(vi|y=1)和p(vi|y=0)符合高斯分布:
式中,表示正样本的第i个特征的均值和,表示正样本的第i个特征的标准差,表示为负样本的第i个特征的均值,表示为负样本的第i个特征的标准差,则H(v)最大响应值位置即为理论认为最可能的目标位置。
(2)对下一帧图像进行样本正负样本采集,利用分类器进行目标和背景的判别,为了进一步提高准确率,减少背景误差引入,使用kalman滤波器校正目标位置。Kalman滤波器结合现在目标的预测位置和现在目标的测量值,计算可知目标所在位置的最优估算值X(k|k)。
X(k|k)=X(k|k-1)+Kg(k)(Z(k)-HX(k|k-1)
式中Kg(k)为Kalman增益。通过Kalman滤波器得到的预测位置后,计算每一个样本与预测位置的距离,将位置距离信息变换为位置权系数加入到分类器中。此时分类器可表达为:
为了减少误差因素影响,其位置权系数做tanh归一化处理;
对目标进行第二次尺度变换的正负样本采集,此次采集主要是在此位置上进行多个尺度模板的采集,利用分类器再次进行分类。得到最大响应值,即为尺度变换的结果。更新分类器,分类器更新可表达为:
式中,表示正样本的第i个特征的均值和,表示正样本的第i个特征的标准差,表示为负样本的第i个特征的均值,表示为负样本的第i个特征的标准差,λ为学习速率,λ>0且为常数,其大小反应参数更新速度的快慢。为了进一步避免背景误差引入,新的学习速率由下式可得:
λ'=λ/L
式中,L为上一帧和当前帧处理结果的Bhattacharyya距离。L越大表明两种结果相似,此时需要小的学习速率,L越小表明两种结果差别较大,此时需要大的学习速率。
(4)得到尺度改变后的目标位置后,再次采集正负样本用于更新分类器参数,更新方式如上文所示。
步骤二、对连续图像序列上计算目标跟踪目标和图像中心点的像素位置差;
步骤三、通过计算出的图像的位置差按照相应的映射关系计算无人机与目标在真实三维空间中的相对位移:在计算无人机与目标在真实三维空间中的相对位移式,所使用的相机标定坐标系包括:像素坐标系:原点O在图像的左上角,设定原点向右方向为U轴,原点向下放下为V轴;成像平面坐标系:设定坐标系原点OR为图像中心,即相机的光轴与成像平面的交点,向右为XR轴,向下为YR轴;相机坐标系:坐标系原点OC为相机光心,XC轴与YC轴平面与镜头面重合且平行于成像平面坐标系与像素坐标系,ZC轴与光轴方向重合;惯性坐标系:原点OW为四旋翼无人机云台位置在地面上的投影,机头方向为XI轴方向,以右手准则确定YI轴方向,ZI轴垂直于地面;坐标系间的坐标转换方法是:利用成像平面坐标系作为转换过程的中间条件,从像素坐标系先转换到成像平面坐标系,然后转换到相机坐标系,最后推导得出惯性坐标系中的坐标。
步骤四、计算出的相对位移相关信息提供给飞行控制模块,进而调整无人机的飞行姿态,最后实现飞行跟随。
以上应用了具体个例对本发明进行阐述,只是用于帮助理解本发明,并不用以限制本发明。对于本发明所属技术领域的技术人员,依据本发明的思想,还可以做出若干简单推演、变形或替换。
Claims (2)
1.一种无人机自主跟踪方法,其特征在于,包括下述步骤:
步骤一、对采集到的图像进行处理,运用目标跟踪算法对图像进行处理,所述目标跟踪算法的步骤如下:
(1)、算法初始化,初始化分类器和跟踪目标窗口;在此过程中对目标进行正负样本采集,样本的表达形式为一种灰度差异性特征,特征采集表示为:
(2)、对下一帧图像进行样本正负样本采集,利用分类器进行目标和背景的判别,使用kalman滤波器校正目标位置,Kalman滤波器结合现在目标的预测位置和现在目标的测量值,计算可知目标所在位置的最优估算值X(k|k);
X(k|k)=X(k|k-1)+Kg(k)(Z(k)-HX(k|k-1)
式中,Kg(k)为Kalman增益。通过Kalman滤波器得到的预测位置后,计算每一个样本与预测位置的距离,将位置距离信息变换为位置权系数加入到分类器中;
(3)、对目标进行第二次尺度变换的正负样本采集,在此位置上进行多个尺度模板的采集,利用分类器再次进行分类,得到最大响应值,更新分类器;
(4)、得到尺度改变后的目标位置后,再次采集正负样本用于更新分类器参数。
步骤二、对连续图像序列上计算目标跟踪目标和图像中心点的像素位置差;
步骤三、通过计算出的图像的位置差按照相应的映射关系计算无人机与目标在真实三维空间中的相对位移:在计算无人机与目标在真实三维空间中的相对位移式,所使用的相机标定坐标系包括:像素坐标系:原点O在图像的左上角,设定原点向右方向为U轴,原点向下放下为V轴;成像平面坐标系:设定坐标系原点OR为图像中心,即相机的光轴与成像平面的交点,向右为XR轴,向下为YR轴;相机坐标系:坐标系原点OC为相机光心,XC轴与YC轴平面与镜头面重合且平行于成像平面坐标系与像素坐标系,ZC轴与光轴方向重合;惯性坐标系:原点OW为四旋翼无人机云台位置在地面上的投影,机头方向为XI轴方向,以右手准则确定YI轴方向,ZI轴垂直于地面;坐标系间的坐标转换方法是:利用成像平面坐标系作为转换过程的中间条件,从像素坐标系先转换到成像平面坐标系,然后转换到相机坐标系,最后推导得出惯性坐标系中的坐标;
步骤四、计算出的相对位移相关信息提供给飞行控制模块,进而调整无人机的飞行姿态,最后实现飞行跟随。
2.根据权利要求1所述无人机自主跟踪方法,其特征在于,
上述步骤一,
(1)中,利用压缩感知矩阵对特征维度进行压缩;
式中,y表示标号,y=1代表正样本即目标,y=0代表负样本即背景。数学上可证高维的随机向量的随机投影总是符合高斯分布的,因此在分类器H(v)中的条件分布p(vi|y=1)和p(vi|y=0)符合高斯分布:
式中,表示正样本的第i个特征的均值和,表示正样本的第i个特征的标准差,表示为负样本的第i个特征的均值,表示为负样本的第i个特征的标准差,则H(v)最大响应值位置即为理论认为最可能的目标位置;
(2)中,此时分类器表达为:
为了减少误差因素影响,其位置权系数做tanh归一化处理;
(3)中,分类器更新表达为:
式中,表示正样本的第i个特征的均值和,表示正样本的第i个特征的标准差,表示为负样本的第i个特征的均值,表示为负样本的第i个特征的标准差,λ为学习速率,λ>0且为常数,新的学习速率由下式可得:
λ'=λ/L
式中,L为上一帧和当前帧处理结果的Bhattacharyya距离。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810569455.3A CN108958296A (zh) | 2018-06-05 | 2018-06-05 | 一种无人机自主跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810569455.3A CN108958296A (zh) | 2018-06-05 | 2018-06-05 | 一种无人机自主跟踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108958296A true CN108958296A (zh) | 2018-12-07 |
Family
ID=64493712
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810569455.3A Pending CN108958296A (zh) | 2018-06-05 | 2018-06-05 | 一种无人机自主跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108958296A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109947138A (zh) * | 2019-03-29 | 2019-06-28 | 西安工业大学 | 云台控制方法及云台 |
CN111798514A (zh) * | 2020-06-29 | 2020-10-20 | 山东大学日照智能制造研究院 | 一种海洋牧场智能运动目标跟踪监测方法及系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8229163B2 (en) * | 2007-08-22 | 2012-07-24 | American Gnc Corporation | 4D GIS based virtual reality for moving target prediction |
CN103455797A (zh) * | 2013-09-07 | 2013-12-18 | 西安电子科技大学 | 航拍视频中运动小目标的检测与跟踪方法 |
CN105352509A (zh) * | 2015-10-27 | 2016-02-24 | 武汉大学 | 地理信息时空约束下的无人机运动目标跟踪与定位方法 |
CN106447697A (zh) * | 2016-10-09 | 2017-02-22 | 湖南穗富眼电子科技有限公司 | 一种基于动平台的特定动目标快速跟踪方法 |
CN107421706A (zh) * | 2017-06-13 | 2017-12-01 | 西安工业大学 | 强冲击环境下目标动态特性多元化测试平台 |
CN107644430A (zh) * | 2017-07-27 | 2018-01-30 | 孙战里 | 基于自适应特征融合的目标跟踪 |
CN107747941A (zh) * | 2017-09-29 | 2018-03-02 | 歌尔股份有限公司 | 一种双目视觉定位方法、装置及系统 |
-
2018
- 2018-06-05 CN CN201810569455.3A patent/CN108958296A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8229163B2 (en) * | 2007-08-22 | 2012-07-24 | American Gnc Corporation | 4D GIS based virtual reality for moving target prediction |
CN103455797A (zh) * | 2013-09-07 | 2013-12-18 | 西安电子科技大学 | 航拍视频中运动小目标的检测与跟踪方法 |
CN105352509A (zh) * | 2015-10-27 | 2016-02-24 | 武汉大学 | 地理信息时空约束下的无人机运动目标跟踪与定位方法 |
CN106447697A (zh) * | 2016-10-09 | 2017-02-22 | 湖南穗富眼电子科技有限公司 | 一种基于动平台的特定动目标快速跟踪方法 |
CN107421706A (zh) * | 2017-06-13 | 2017-12-01 | 西安工业大学 | 强冲击环境下目标动态特性多元化测试平台 |
CN107644430A (zh) * | 2017-07-27 | 2018-01-30 | 孙战里 | 基于自适应特征融合的目标跟踪 |
CN107747941A (zh) * | 2017-09-29 | 2018-03-02 | 歌尔股份有限公司 | 一种双目视觉定位方法、装置及系统 |
Non-Patent Citations (7)
Title |
---|
WANG PENG,等: "Vehicle image mosaics technology based on improved SIFT algorithm", 《IEEE 13TH INTERNATIONAL CONFERENCE ON ELECTRONIC MEASUREMENT & INSTRUMENTS》 * |
YICHEN DUAN,等: "Multi - scale Target Tracking Algorithm with Kalman Filter in Compression Sensing", 《INTERNATIONAL CONFERENCE ON COMPUTER NETWORK, ELECTRONIC AND AUTOMATION》 * |
张雨婷,等: "适应目标尺度变化的改进压缩跟踪算法", 《模式识别与人工智能》 * |
易凯: "一种改进的基于SIFT的图像拼接技术", 《图像与信号处理》 * |
段连飞: "《无人机图像处理》", 30 June 2017 * |
毛建森,屈玉福: "基于压缩感知的变尺度目标跟踪技术", 《液晶与显示》 * |
王庆伟,应自炉: "一种基于Haar-Like T特征的人脸检测算法", 《模式识别与人工工智》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109947138A (zh) * | 2019-03-29 | 2019-06-28 | 西安工业大学 | 云台控制方法及云台 |
CN111798514A (zh) * | 2020-06-29 | 2020-10-20 | 山东大学日照智能制造研究院 | 一种海洋牧场智能运动目标跟踪监测方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Sani et al. | Automatic navigation and landing of an indoor AR. drone quadrotor using ArUco marker and inertial sensors | |
CN110874100B (zh) | 用于使用视觉稀疏地图进行自主导航的系统和方法 | |
Gomez-Balderas et al. | Tracking a ground moving target with a quadrotor using switching control: nonlinear modeling and control | |
Kümmerle et al. | Large scale graph-based SLAM using aerial images as prior information | |
CN104197928B (zh) | 多摄像机协同的无人机检测、定位及跟踪方法 | |
Dönmez et al. | A vision-based real-time mobile robot controller design based on gaussian function for indoor environment | |
Omari et al. | Dense visual-inertial navigation system for mobile robots | |
US11687086B2 (en) | Autonomous robotic navigation in storage site | |
CN111964680B (zh) | 一种巡检机器人的实时定位方法 | |
Roberts et al. | Saliency detection and model-based tracking: a two part vision system for small robot navigation in forested environment | |
CN116619358A (zh) | 一种矿山自主探测机器人自适应定位优化与建图方法 | |
CN108074251A (zh) | 基于单目视觉的移动机器人导航控制方法 | |
CN111998862A (zh) | 一种基于bnn的稠密双目slam方法 | |
EP3614341A1 (en) | Apparatus, method and computer program for detecting the form of a deformable object | |
CN117367427A (zh) | 一种适用于室内环境中的视觉辅助激光融合IMU的多模态slam方法 | |
CN108958296A (zh) | 一种无人机自主跟踪方法 | |
CN116681733B (zh) | 一种空间非合作目标近距离实时位姿跟踪方法 | |
Yu et al. | Indoor Localization Based on Fusion of AprilTag and Adaptive Monte Carlo | |
Giordano et al. | 3D structure identification from image moments | |
CN115166686B (zh) | 卫星拒止环境下多无人机分布式协同定位与建图方法 | |
CN113310484B (zh) | 一种移动机器人定位方法和系统 | |
Saeedi et al. | 3D localization and tracking in unknown environments | |
Li et al. | Laser-based SLAM with efficient occupancy likelihood map learning for dynamic indoor scenes | |
Cupec et al. | Global localization based on 3d planar surface segments | |
Gomez-Balderas et al. | Vision-based autonomous hovering for a miniature quad-rotor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20181207 |