CN109191504A - 一种无人机目标跟踪方法 - Google Patents
一种无人机目标跟踪方法 Download PDFInfo
- Publication number
- CN109191504A CN109191504A CN201810860429.6A CN201810860429A CN109191504A CN 109191504 A CN109191504 A CN 109191504A CN 201810860429 A CN201810860429 A CN 201810860429A CN 109191504 A CN109191504 A CN 109191504A
- Authority
- CN
- China
- Prior art keywords
- unmanned plane
- target
- image
- camera
- mesh image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
- G06T3/4038—Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
Abstract
本发明公开了一种无人机目标跟踪方法,该方法包括以下步骤:(1)使用双目相机图像采集装置获取到左目图像和右目图像;(2)通过视觉SLAM算法计算输出无人机在世界坐标系中的位置坐标;(3)在左目、右目图像拼接成的全景图中进行目标检测,通过计算输出跟踪目标在相机坐标系下的三维坐标;(4)无人机在世界坐标系中的实时位置和跟踪目标在相机坐标系下的实时位置作为速度控制算法的输入,计算输出期望速度,作为无人机飞行控制器输入,控制无人机的飞行参数,实现目标跟踪。本发明在目标检测的同时通过视觉定位进行自主跟踪,尤其适用于弱GPS或无GPS环境下的跟踪任务。
Description
技术领域
本发明涉及一种无人机目标跟踪方法,特别涉及一种基于双目视觉SLAM的视觉跟踪方法,属于无人机自主导航技术领域。
背景技术
随着无人机(Unmanned Aerial Vehicle,UAV)开始在工业和农业领域发挥着越来越重要的作用,各种新的应用需求不断出现,如何实现无人机跟随地面移动目标飞行成为了无人机的关键技术之一。目前常用的视觉传感器主要有单目相机、双目相机、RGB-D相机等,但是单目相机拥有尺度不确定性,RGB-D相机有效测量范围有限并且不适合于室外环境。双目相机既可以确定尺度信息,估计到真实尺度的无人机自身位置和目标坐标,同时还可以拓展视野范围,所以采用双目相机可以实现更好的目标跟踪效果。
在普通的目标跟踪方法中,视觉传感器仅仅用于目标检测,没有充分利用视觉信息。尤其在没有GPS环境下,无人机无法获取自身位置,从而无法控制飞行轨迹,会失去控制,也就无法实现目标跟踪。同步定位与构图(Simultaneous Localization and Mapping,SLAM)可解决基于外在传感器定位和构建环境地图的问题,SLAM技术可以通过构建环境地图从而实现无人机的定位问题。
发明内容
发明目的:针对以上问题,本发明提出了一种无人机目标跟踪方法,在检测目标的同时获取无人机自身的位置,从而实现无人机跟随地面移动目标飞行,尤其适用于无GPS环境或弱GPS环境下的跟踪任务。
技术方案:为实现本发明的目的,本发明所采用的技术方案是:
一种无人机目标跟踪方法,在目标检测的同时通过视觉SLAM定位无人机的位置,实现无人机自主跟踪,包括如下步骤:
(1)双目相机图像采集装置获取到左目图像和右目图像,作为视觉SLAM算法和目标检测算法的输入;
(2)视觉SLAM算法通过计算输出无人机在世界坐标系中的位置坐标;
(3)目标检测,在左目、右目图像拼接成的全景图中进行目标检测,通过计算输出跟踪目标在相机坐标系下的三维坐标;
(4)无人机在世界坐标系中的实时位置和跟踪目标在相机坐标系下的实时位置作为速度控制算法的输入,计算输出期望速度,作为无人机飞行控制器输入,控制无人机的飞行参数,实现目标跟踪。
所述的一种无人机目标跟踪方法,无人机使用了双目相机采集装置,用以获取外部图像。
步骤(2)中,所述的视觉SLAM算法包括以下步骤:
(2.1)视觉SLAM算法先将左目、右目图像分别进行特征提取,计算特征点对应的特征描述子;
(2.2)计算左目图像特征点对应的深度值d;
(2.3)计算左目图像特征点在相机坐标系下的三维坐标p,计算公式为:p=(px,py,pz)T,px=(ul-cx)*d/fx,py=(vl-cy)*d/fy,pz=d,其中fx为相机的焦距水平分量,fy为相机的焦距垂直分量,ul为特征匹配对在左图像的水平方向像素坐标,vl为特征点对在左图像的垂直方向像素坐标,cx为相机的像素坐标水平中心偏移,cy为相机的像素坐标垂直中心偏移;
(2.4)无人机定位:计算出当前无人机在世界坐标系中的位置坐标。
其中,步骤(2.2)包括以下步骤:
(2.2.1)对左目、右目图像进行特征匹配:针对左目图像的某个特征点,在右目图像沿着极线搜索,比较特征描述子,计算极线方向所有特征点和左目图像该特征点的描述子之间的欧式距离,选出距离最小的特征点,再通过最小化灰度值差进行亚像素级定位,得到左目、右目图像的特征匹配对;
(2.2.2)依据视差计算深度d,计算公式为:d=fx*B/(ul-ur),其中fx为相机的焦距水平分量,B为双目相机的基线长,ul,ur分别为特征匹配对在左右图像的水平方向像素坐标。
步骤(2.4)包括以下过程:
(2.4.1)相邻两帧图像特征匹配:依据左目图像的当前帧图像,即第k帧和前一帧图像,即第k-1帧图像的特征描述子,通过最近邻距离比率匹配策略,得到相邻两帧图像的特征匹配对;
(2.4.2)依据特征匹配对在第k-1帧图像相机坐标系下的三维坐标Pk-1和在第k帧图像的二维像素坐标,通过PnP求解得到前后两帧图像的位姿变换矩阵Tk,k-1;
(2.4.3)计算第k帧相对于世界坐标系的位姿矩阵:Tk,w=Tk,k-1Tk-1,w,其中Tk-1,w为第k-1帧图像相对于世界坐标系的位姿矩阵;
(2.4.4)对Tk,w求逆后得到其中为当前无人机在世界坐标系中的位置坐标。
步骤(3)中,所述的目标检测算法包括以下步骤:
(3.1)提取跟踪目标的模板特征,计算模板的特征描述子;
(3.2)将左目图像和右目图像拼接为全景图;
(3.3)在左目、右目图像拼接成的全景图中进行跟踪目标的模板的特征匹配,采取最近邻距离比率匹配策略,获得跟踪目标在全景图像素平面的投影坐标;
(3.4)进一步通过像素匹配KLT光流法提高匹配精度,依据最小化光度误差,获得亚像素级投影坐标;
(3.5)通过三角化计算跟踪目标在相机坐标系下的三维坐标。
其中,步骤(3.5)包括以下过程:
(3.5.1)依据左目图像、右目图像和全景图之间的像素映射关系,将亚像素级投影坐标从全景图映射至左目图像,得到跟踪目标在左目图像像素平面的投影位置
(3.5.2)极线搜索跟踪目标在右目图像的投影位置可以得到该目标的深度值dklt,计算公式为:其中fx为相机的焦距水平分量,B为双目相机的基线长;
(3.5.3)计算跟踪目标在当前帧图像对应相机坐标系下的三维坐标计算方法为:其中其中cx为相机的像素坐标水平中心偏移,fx为相机的焦距水平分量;其中cy为相机的像素坐标垂直中心偏移,fy为相机的焦距垂直分量。
步骤(4)中,所述的速度控制算法包括以下步骤:
(4.1)通过坐标变换,计算跟踪目标在世界坐标系下的位置坐标计算公式为:其中Tw,k是第k帧图像相对于世界坐标系的位姿矩阵,由步骤(2.4.4)计算得到,是跟踪目标在相机坐标系的位置坐标,由步骤(3.5.3)计算得到;
(4.2)速度计算,依据当前无人机的位置和跟踪目标的位置计算无人机的速度和跟踪目标的速度计算方式为: 其中Δt是两次迭代的时间间隔;
(4.3)速度PID控制算法输出期望速度计算公式为:其中,为当前无人机与跟踪目标的速度误差,KP、KI、KD为PID控制器的PID参数。
有益效果:本发明与现有技术相比,其显著优点是:1、在目标检测的同时通过视觉SLAM定位无人机的位置,实现无人机自主跟踪,在GPS定位信号弱或者无GPS的情况下实现目标跟踪;2、目标检测将左目、右目两幅图像拼接为全景图,可以拓展搜索范围,避免移动目标的投影不在像素平面。
附图说明
图1是本发明一种无人机目标跟踪方法的步骤图;
图2是本发明的视觉SLAM算法流程图;
图3是本发明的目标检测算法流程图;
图4是本发明的速度控制算法流程图。
具体实施方式
下面结合附图和实施例对本发明的技术方案作进一步的说明。
如图1所示,一种无人机目标跟踪方法,该方法在目标检测的同时通过视觉SLAM定位无人机的位置,实现无人机的自主跟踪,包括如下步骤:
(1)双目相机图像采集装置获取到左目图像Il和右目图像Ir,作为视觉SLAM算法和目标检测算法的输入。
(2)视觉SLAM算法通过计算输出无人机在世界坐标系中的位置坐标
(3)目标检测,在左目、右目图像拼接成的全景图中进行目标检测,通过计算输出跟踪目标在相机坐标系下的三维坐标
(4)无人机在世界坐标系中的实时位置和跟踪目标在相机坐标系下的实时位置作为速度控制算法的输入,计算输出期望速度作为无人机飞行控制器输入,控制无人机的飞行参数,实现目标跟踪。
所述的无人机跟踪方法使用了双目相机采集装置,用以获取外部图像。
如图2所示,步骤(2)中所述的视觉SLAM算法流程如下:
(2.1)视觉SLAM算法先将左目、右目图像分别进行特征提取,计算特征点对应的特征描述子。
(2.2)计算左目图像特征点对应的深度值d:
(2.2.1)对左目、右目图像进行特征匹配:针对左目图像的某个特征点,在右目图像沿着极线搜索,比较特征描述子,计算极线方向所有特征点和左目图像该特征点的描述子之间的欧式距离,选出距离最小的特征点,再通过最小化灰度值差进行亚像素级定位,得到左目、右目图像的特征匹配对;
(2.2.2)依据视差计算深度d,计算公式为:d=fx*B/(ul-ur),其中fx为相机的焦距水平分量,B为双目相机的基线长,ul,ur分别为特征匹配对在左右图像的水平方向像素坐标。
(2.3)计算左目图像特征点在相机坐标系下的三维坐标p,计算公式为:p=(px,py,pz)T,px=(ul-cx)*d/fx,py=(vl-cy)*d/fy,pz=d,其中fx为相机的焦距水平分量,fy为相机的焦距垂直分量,ul为特征匹配对在左图像的水平方向像素坐标,vl为特征点对在左图像的垂直方向像素坐标,cx为相机的像素坐标水平中心偏移,cy为相机的像素坐标垂直中心偏移。
(2.4)无人机定位:计算出当前无人机在世界坐标系中的位置坐标:
(2.4.1)相邻两帧图像特征匹配:依据左目图像的当前帧图像,即第k帧和前一帧图像,即第k-1帧图像的特征描述子,通过最近邻距离比率匹配策略,得到相邻两帧图像的特征匹配对;
(2.4.2)依据特征匹配对在第k-1帧图像相机坐标系下的三维坐标Pk-1和在第k帧图像的二维像素坐标,通过PnP求解得到前后两帧图像的位姿变换矩阵Tk,k-1;
(2.4.3)计算第k帧相对于世界坐标系的位姿矩阵:Tk,w=Tk,k-1Tk-1,w,其中Tk-1,w为第k-1帧图像相对于世界坐标系的位姿矩阵;
(2.4.4)对Tk,w求逆后得到其中为当前无人机在世界坐标系中的位置坐标。
如图3所示,步骤(3)中所述的目标检测算法流程如下:
(3.1)提取跟踪目标的模板特征,计算模板的特征描述子。
(3.2)将左目图像Il和右目图像Ir拼接为全景图Icomposited,通过组合全景图可以扩大无人机的视野范围,从而避免地面移动目标的投影超出像素平面。
(3.3)在左目、右目图像拼接成的全景图Icomposited中进行跟踪目标的模板的特征匹配,采取最近邻距离比率匹配策略,获得跟踪目标在全景图像素平面的投影坐标
(3.4)通过像素匹配KLT光流法提高匹配精度,依据最小化光度误差,获得亚像素级投影坐标
(3.5)通过三角化计算跟踪目标在相机坐标系下的三维坐标
(3.5.1)依据左目图像、右目图像和全景图之间的像素映射关系,将亚像素级投影坐标从全景图映射至左目图像,得到跟踪目标在左目图像像素平面的投影位置
(3.5.2)极线搜索跟踪目标在右目图像的投影位置可以得到该目标的深度值dklt,计算公式为:其中fx为相机的焦距水平分量,B为双目相机的基线长;
(3.5.3)计算跟踪目标在当前帧图像对应相机坐标系下的三维坐标计算方法为:其中其中cx为相机的像素坐标水平中心偏移,fx为相机的焦距水平分量;其中cy为相机的像素坐标垂直中心偏移,fy为相机的焦距垂直分量。
如图4所示,步骤(4)中所述的速度控制算法流程如下:
(4.1)通过坐标变换,计算跟踪目标在世界坐标系下的位置坐标计算公式为:其中Tw,k是第k帧图像相对于世界坐标系的位姿矩阵,由步骤(2.4.4)计算得到,是跟踪目标在相机坐标系的位置坐标,由步骤(3.5.3)计算得到。
(4.2)速度计算,依据当前无人机的位置和跟踪目标的位置计算无人机的速度和跟踪目标的速度计算方式为: 其中Δt是两次迭代的时间间隔。
(4.3)速度PID控制算法输出期望速度计算公式为:其中,为当前无人机与跟踪目标的速度误差,KP、KI、KD为PID控制器的PID参数。
以上实施例中左目图像和右目图像指的是双目相机中的其中一个摄像头拍摄的图像,用以区分双目相机的两个不同的摄像头所拍摄的图像。
Claims (8)
1.一种无人机目标跟踪方法,其特征在于,包括如下步骤:
(1)双目相机图像采集装置获取到左目图像和右目图像,作为视觉SLAM算法和目标检测算法的输入;
(2)通过视觉SLAM算法计算输出无人机在世界坐标系中的位置坐标;
(3)目标检测,在左目、右目图像拼接成的全景图中进行目标检测,通过目标检测算法计算输出跟踪目标在相机坐标系下的三维坐标;
(4)无人机在世界坐标系中的实时位置和跟踪目标在相机坐标系下的实时位置作为速度控制算法的输入,计算输出期望速度,作为无人机飞行控制器输入,控制无人机的飞行参数,实现目标跟踪。
2.根据权利要求1所述的一种无人机目标跟踪方法,其特征在于,无人机使用了双目相机采集装置,用以获取外部图像。
3.根据权利要求1所述的一种无人机目标跟踪方法,其特征在于,所述的步骤(2)包括以下过程:
(2.1)视觉SLAM算法先将左目、右目图像分别进行特征提取,计算特征点对应的特征描述子;
(2.2)计算左目图像特征点对应的深度值d;
(2.3)计算左目图像特征点在相机坐标系下的三维坐标p,计算公式为:p=(px,py,pz)T,px=(ul-cx)*d/fx,py=(vl-cy)*d/fy,pz=d,其中fx为相机的焦距水平分量,fy为相机的焦距垂直分量,ul为特征匹配对在左图像的水平方向像素坐标,vl为特征点对在左图像的垂直方向像素坐标,cx为相机的像素坐标水平中心偏移,cy为相机的像素坐标垂直中心偏移;
(2.4)无人机定位:计算出当前无人机在世界坐标系中的位置坐标。
4.根据权利要求3中所述的一种无人机目标跟踪方法,其特征在于,所述的步骤(2.2)左目图像特征点对应的深度值计算,包括以下步骤:
(2.2.1)对左目、右目图像进行特征匹配:针对左目图像的某个特征点,在右目图像沿着极线搜索,比较特征描述子,计算极线方向所有特征点和左目图像该特征点的描述子之间的欧式距离,选出距离最小的特征点,再通过最小化灰度值差进行亚像素级定位,得到左目、右目图像的特征匹配对;
(2.2.2)依据视差计算深度d,计算公式为:d=fx*B/(ul-ur),其中fx为相机的焦距水平分量,B为双目相机的基线长,ul,ur分别为特征匹配对在左右图像的水平方向像素坐标。
5.根据权利要求3中所述的一种无人机目标跟踪方法,其特征在于,所述的步骤(2.4)包括以下过程:
(2.4.1)相邻两帧图像特征匹配:依据左目图像的当前帧图像,即第k帧和前一帧图像,即第k-1帧图像的特征描述子,通过最近邻距离比率匹配策略,得到相邻两帧图像的特征匹配对;
(2.4.2)依据特征匹配对在第k-1帧图像相机坐标系下的三维坐标Pk-1和在第k帧图像的二维像素坐标,通过PnP求解得到前后两帧图像的位姿变换矩阵Tk,k-1;
(2.4.3)计算第k帧相对于世界坐标系的位姿矩阵:Tk,w=Tk,k-1Tk-1,w,其中Tk-1,w为第k-1帧图像相对于世界坐标系的位姿矩阵;
(2.4.4)对Tk,w求逆后得到其中为当前无人机在世界坐标系中的位置坐标。
6.根据权利要求1所述的一种无人机目标跟踪方法,其特征在于,所述的步骤(3)包括以下过程:
(3.1)提取跟踪目标的模板特征,计算模板的特征描述子;
(3.2)将左目图像和右目图像拼接为全景图;
(3.3)在左目、右目图像拼接成的全景图中进行跟踪目标的模板的特征匹配,采取最近邻距离比率匹配策略,获得跟踪目标在全景图像素平面的投影坐标;
(3.4)进一步通过像素匹配KLT光流法提高匹配精度,依据最小化光度误差,获得亚像素级投影坐标;
(3.5)通过三角化计算跟踪目标在相机坐标系下的三维坐标。
7.根据权利要求6所述的一种无人机目标跟踪方法,其特征在于,所述的步骤(3.5)包括以下过程:
(3.5.1)依据左目图像、右目图像和全景图之间的像素映射关系,将亚像素级投影坐标从全景图映射至左目图像,得到跟踪目标在左目图像像素平面的投影位置
(3.5.2)极线搜索跟踪目标在右目图像的投影位置可以得到该目标的深度值dklt,计算公式为:其中fx为相机的焦距水平分量,B为双目相机的基线长;
(3.5.3)计算跟踪目标在当前帧图像对应相机坐标系下的三维坐标计算方法为:其中其中cx为相机的像素坐标水平中心偏移,fx为相机的焦距水平分量;其中cy为相机的像素坐标垂直中心偏移,fy为相机的焦距垂直分量。
8.根据权利要求1所述的无人机目标跟踪方法,其特征在于,步骤(4)中,所述的速度控制算法包括以下步骤:
(4.1)通过坐标变换,计算跟踪目标在世界坐标系下的位置坐标计算公式为:其中Tw,k是第k帧图像相对于世界坐标系的位姿矩阵,由步骤(2.4.4)计算得到,是跟踪目标在相机坐标系的位置坐标,由步骤(3.5.3)计算得到;
(4.2)速度计算,依据当前无人机的位置和跟踪目标的位置计算无人机的速度和跟踪目标的速度计算方式为: 其中Δt是两次迭代的时间间隔;
(4.3)速度PID控制算法输出期望速度计算公式为:其中,为当前无人机与跟踪目标的速度误差,KP、KI、KD为PID控制器的PID参数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810860429.6A CN109191504A (zh) | 2018-08-01 | 2018-08-01 | 一种无人机目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810860429.6A CN109191504A (zh) | 2018-08-01 | 2018-08-01 | 一种无人机目标跟踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109191504A true CN109191504A (zh) | 2019-01-11 |
Family
ID=64937616
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810860429.6A Pending CN109191504A (zh) | 2018-08-01 | 2018-08-01 | 一种无人机目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109191504A (zh) |
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109982036A (zh) * | 2019-02-20 | 2019-07-05 | 华为技术有限公司 | 一种全景视频数据处理的方法、终端以及存储介质 |
CN110187720A (zh) * | 2019-06-03 | 2019-08-30 | 深圳铂石空间科技有限公司 | 无人机导引方法、装置、系统、介质及电子设备 |
CN110222581A (zh) * | 2019-05-13 | 2019-09-10 | 电子科技大学 | 一种基于双目相机的四旋翼无人机视觉目标跟踪方法 |
CN110347186A (zh) * | 2019-07-17 | 2019-10-18 | 中国人民解放军国防科技大学 | 基于仿生双目联动的地面运动目标自主跟踪系统 |
CN110338993A (zh) * | 2019-07-12 | 2019-10-18 | 扬州大学 | 一种电动轮椅及电动轮椅自动跟随人员的方法 |
CN110361005A (zh) * | 2019-06-26 | 2019-10-22 | 深圳前海达闼云端智能科技有限公司 | 定位方法、定位装置、可读存储介质及电子设备 |
CN111024066A (zh) * | 2019-12-10 | 2020-04-17 | 中国航空无线电电子研究所 | 一种无人机视觉-惯性融合室内定位方法 |
CN111402309A (zh) * | 2020-03-05 | 2020-07-10 | 中国科学院上海微系统与信息技术研究所 | 一种多目立体相机的校准及深度图像处理方法 |
CN111580542A (zh) * | 2019-02-15 | 2020-08-25 | 北京京东尚科信息技术有限公司 | 动态无人机编队控制方法、装置及存储介质 |
CN111814659A (zh) * | 2020-07-07 | 2020-10-23 | 杭州海康威视数字技术股份有限公司 | 一种活体检测方法、和系统 |
CN112419363A (zh) * | 2020-11-06 | 2021-02-26 | 南京邮电大学 | 无人机目标跟随方法及系统 |
WO2021035703A1 (zh) * | 2019-08-30 | 2021-03-04 | 深圳市大疆创新科技有限公司 | 跟踪方法和可移动平台 |
CN112633096A (zh) * | 2020-12-14 | 2021-04-09 | 深圳云天励飞技术股份有限公司 | 客流的监测方法、装置、电子设备及存储介质 |
CN112686963A (zh) * | 2021-01-22 | 2021-04-20 | 西湖大学 | 一种应对遮挡的空中作业机器人的目标定位方法 |
CN112734797A (zh) * | 2019-10-29 | 2021-04-30 | 浙江商汤科技开发有限公司 | 图像特征跟踪方法、装置及电子设备 |
CN113091627A (zh) * | 2021-04-26 | 2021-07-09 | 吉林大学 | 一种基于主动双目视觉的黑暗环境下车辆高度的测量方法 |
CN113228103A (zh) * | 2020-07-27 | 2021-08-06 | 深圳市大疆创新科技有限公司 | 目标跟踪方法、装置、无人机、系统及可读存储介质 |
CN113311873A (zh) * | 2021-05-07 | 2021-08-27 | 中国科学院沈阳自动化研究所 | 一种基于视觉的无人机伺服跟踪方法 |
CN113506337A (zh) * | 2021-05-17 | 2021-10-15 | 南京理工大学 | 一种基于EPnP的双目相机位姿估计方法 |
CN113721661A (zh) * | 2021-09-03 | 2021-11-30 | 中国人民解放军32802部队 | 一种合作式无人机集群观测装置 |
CN113724299A (zh) * | 2021-08-30 | 2021-11-30 | 上海大学 | 一种基于电液可调焦镜头的移动机器人追踪目标三维轨迹方法 |
CN113808195A (zh) * | 2021-08-26 | 2021-12-17 | 领翌技术(横琴)有限公司 | 视觉定位方法、装置及存储介质 |
CN114358133A (zh) * | 2021-12-09 | 2022-04-15 | 武汉市虎联智能科技有限公司 | 一种基于语义辅助双目视觉slam检测回环帧的方法 |
CN114581480A (zh) * | 2022-05-07 | 2022-06-03 | 西湖大学 | 多无人机协同目标状态估计控制方法及其应用 |
WO2023036260A1 (zh) * | 2021-09-10 | 2023-03-16 | 深圳市道通智能航空技术股份有限公司 | 一种图像获取方法、装置、飞行器和存储介质 |
CN116012422A (zh) * | 2023-03-23 | 2023-04-25 | 西湖大学 | 基于单目视觉的无人机6d位姿估计跟踪方法及其应用 |
CN116403380A (zh) * | 2023-06-08 | 2023-07-07 | 北京中科慧眼科技有限公司 | 基于路侧双目相机的超限监控方法和装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106595659A (zh) * | 2016-11-03 | 2017-04-26 | 南京航空航天大学 | 城市复杂环境下多无人机视觉slam的地图融合方法 |
CN107831776A (zh) * | 2017-09-14 | 2018-03-23 | 湖南优象科技有限公司 | 基于九轴惯性传感器的无人机自主返航方法 |
-
2018
- 2018-08-01 CN CN201810860429.6A patent/CN109191504A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106595659A (zh) * | 2016-11-03 | 2017-04-26 | 南京航空航天大学 | 城市复杂环境下多无人机视觉slam的地图融合方法 |
CN107831776A (zh) * | 2017-09-14 | 2018-03-23 | 湖南优象科技有限公司 | 基于九轴惯性传感器的无人机自主返航方法 |
Non-Patent Citations (3)
Title |
---|
EWENWAN: "双目SLAM基础", 《HTTPS://GITHUB.COM/EWENWAN/MVISION/BLOB/MASTER/VSLAM/%E5%8F%8C%E7%9B%AESLAM%E5%9F%BA%E7%A1%80.MD》 * |
于文率等: "基于机载视频影像的运动目标检测与跟踪", 《国防科学》 * |
曹美会等: "基于视觉的四旋翼无人机自主定位与控制系统", 《信息与控制》 * |
Cited By (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111580542A (zh) * | 2019-02-15 | 2020-08-25 | 北京京东尚科信息技术有限公司 | 动态无人机编队控制方法、装置及存储介质 |
CN109982036A (zh) * | 2019-02-20 | 2019-07-05 | 华为技术有限公司 | 一种全景视频数据处理的方法、终端以及存储介质 |
CN110222581A (zh) * | 2019-05-13 | 2019-09-10 | 电子科技大学 | 一种基于双目相机的四旋翼无人机视觉目标跟踪方法 |
CN110222581B (zh) * | 2019-05-13 | 2022-04-19 | 电子科技大学 | 一种基于双目相机的四旋翼无人机视觉目标跟踪方法 |
CN110187720A (zh) * | 2019-06-03 | 2019-08-30 | 深圳铂石空间科技有限公司 | 无人机导引方法、装置、系统、介质及电子设备 |
CN110361005A (zh) * | 2019-06-26 | 2019-10-22 | 深圳前海达闼云端智能科技有限公司 | 定位方法、定位装置、可读存储介质及电子设备 |
CN110361005B (zh) * | 2019-06-26 | 2021-03-26 | 达闼机器人有限公司 | 定位方法、定位装置、可读存储介质及电子设备 |
CN110338993A (zh) * | 2019-07-12 | 2019-10-18 | 扬州大学 | 一种电动轮椅及电动轮椅自动跟随人员的方法 |
CN110347186A (zh) * | 2019-07-17 | 2019-10-18 | 中国人民解放军国防科技大学 | 基于仿生双目联动的地面运动目标自主跟踪系统 |
CN110347186B (zh) * | 2019-07-17 | 2022-04-05 | 中国人民解放军国防科技大学 | 基于仿生双目联动的地面运动目标自主跟踪系统 |
WO2021035703A1 (zh) * | 2019-08-30 | 2021-03-04 | 深圳市大疆创新科技有限公司 | 跟踪方法和可移动平台 |
CN112734797A (zh) * | 2019-10-29 | 2021-04-30 | 浙江商汤科技开发有限公司 | 图像特征跟踪方法、装置及电子设备 |
CN111024066B (zh) * | 2019-12-10 | 2023-08-01 | 中国航空无线电电子研究所 | 一种无人机视觉-惯性融合室内定位方法 |
CN111024066A (zh) * | 2019-12-10 | 2020-04-17 | 中国航空无线电电子研究所 | 一种无人机视觉-惯性融合室内定位方法 |
CN111402309B (zh) * | 2020-03-05 | 2023-11-03 | 中国科学院上海微系统与信息技术研究所 | 一种多目立体相机的校准及深度图像处理方法 |
CN111402309A (zh) * | 2020-03-05 | 2020-07-10 | 中国科学院上海微系统与信息技术研究所 | 一种多目立体相机的校准及深度图像处理方法 |
CN111814659B (zh) * | 2020-07-07 | 2024-03-29 | 杭州海康威视数字技术股份有限公司 | 一种活体检测方法、和系统 |
CN111814659A (zh) * | 2020-07-07 | 2020-10-23 | 杭州海康威视数字技术股份有限公司 | 一种活体检测方法、和系统 |
WO2022021027A1 (zh) * | 2020-07-27 | 2022-02-03 | 深圳市大疆创新科技有限公司 | 目标跟踪方法、装置、无人机、系统及可读存储介质 |
CN113228103A (zh) * | 2020-07-27 | 2021-08-06 | 深圳市大疆创新科技有限公司 | 目标跟踪方法、装置、无人机、系统及可读存储介质 |
CN112419363B (zh) * | 2020-11-06 | 2022-09-02 | 南京邮电大学 | 无人机目标跟随方法及系统 |
CN112419363A (zh) * | 2020-11-06 | 2021-02-26 | 南京邮电大学 | 无人机目标跟随方法及系统 |
CN112633096A (zh) * | 2020-12-14 | 2021-04-09 | 深圳云天励飞技术股份有限公司 | 客流的监测方法、装置、电子设备及存储介质 |
CN112686963B (zh) * | 2021-01-22 | 2024-03-29 | 西湖大学 | 一种应对遮挡的空中作业机器人的目标定位方法 |
CN112686963A (zh) * | 2021-01-22 | 2021-04-20 | 西湖大学 | 一种应对遮挡的空中作业机器人的目标定位方法 |
CN113091627A (zh) * | 2021-04-26 | 2021-07-09 | 吉林大学 | 一种基于主动双目视觉的黑暗环境下车辆高度的测量方法 |
CN113311873A (zh) * | 2021-05-07 | 2021-08-27 | 中国科学院沈阳自动化研究所 | 一种基于视觉的无人机伺服跟踪方法 |
CN113506337B (zh) * | 2021-05-17 | 2024-04-16 | 南京理工大学 | 一种基于EPnP的双目相机位姿估计方法 |
CN113506337A (zh) * | 2021-05-17 | 2021-10-15 | 南京理工大学 | 一种基于EPnP的双目相机位姿估计方法 |
CN113808195B (zh) * | 2021-08-26 | 2024-04-12 | 领翌技术(横琴)有限公司 | 视觉定位方法、装置及存储介质 |
CN113808195A (zh) * | 2021-08-26 | 2021-12-17 | 领翌技术(横琴)有限公司 | 视觉定位方法、装置及存储介质 |
CN113724299B (zh) * | 2021-08-30 | 2023-09-19 | 上海大学 | 一种基于电液可调焦镜头的移动机器人追踪目标三维轨迹方法 |
CN113724299A (zh) * | 2021-08-30 | 2021-11-30 | 上海大学 | 一种基于电液可调焦镜头的移动机器人追踪目标三维轨迹方法 |
CN113721661B (zh) * | 2021-09-03 | 2022-02-25 | 中国人民解放军32802部队 | 一种合作式无人机集群观测装置 |
CN113721661A (zh) * | 2021-09-03 | 2021-11-30 | 中国人民解放军32802部队 | 一种合作式无人机集群观测装置 |
WO2023036260A1 (zh) * | 2021-09-10 | 2023-03-16 | 深圳市道通智能航空技术股份有限公司 | 一种图像获取方法、装置、飞行器和存储介质 |
CN114358133A (zh) * | 2021-12-09 | 2022-04-15 | 武汉市虎联智能科技有限公司 | 一种基于语义辅助双目视觉slam检测回环帧的方法 |
CN114581480B (zh) * | 2022-05-07 | 2022-08-05 | 西湖大学 | 多无人机协同目标状态估计控制方法及其应用 |
CN114581480A (zh) * | 2022-05-07 | 2022-06-03 | 西湖大学 | 多无人机协同目标状态估计控制方法及其应用 |
CN116012422A (zh) * | 2023-03-23 | 2023-04-25 | 西湖大学 | 基于单目视觉的无人机6d位姿估计跟踪方法及其应用 |
CN116403380A (zh) * | 2023-06-08 | 2023-07-07 | 北京中科慧眼科技有限公司 | 基于路侧双目相机的超限监控方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109191504A (zh) | 一种无人机目标跟踪方法 | |
CN109579843B (zh) | 一种空地多视角下的多机器人协同定位及融合建图方法 | |
CN109166149B (zh) | 一种融合双目相机与imu的定位与三维线框结构重建方法与系统 | |
CN106197422B (zh) | 一种基于二维标签的无人机定位及目标跟踪方法 | |
CN106548173B (zh) | 一种基于分级匹配策略的改进无人机三维信息获取方法 | |
US8213706B2 (en) | Method and system for real-time visual odometry | |
WO2020014909A1 (zh) | 拍摄方法、装置和无人机 | |
CN105352509B (zh) | 地理信息时空约束下的无人机运动目标跟踪与定位方法 | |
CN110446159A (zh) | 一种室内无人机精确定位与自主导航的系统及方法 | |
US11906983B2 (en) | System and method for tracking targets | |
CN107689063A (zh) | 一种基于天花板图像的机器人室内定位方法 | |
CN106887037B (zh) | 一种基于gpu和深度相机的室内三维重建方法 | |
CN110033480B (zh) | 基于航摄测量的机载光电系统目标运动矢量估计方法 | |
CN106444837A (zh) | 一种无人机避障方法及系统 | |
CN111968177B (zh) | 一种基于固定摄像头视觉的移动机器人定位方法 | |
CN106373159A (zh) | 一种简化的无人机多目标定位方法 | |
CN109947097A (zh) | 一种基于视觉和激光融合的机器人定位方法及导航应用 | |
CN110163963B (zh) | 一种基于slam的建图装置和建图方法 | |
CN111383205B (zh) | 一种基于特征点和三维模型的图像融合定位方法 | |
CN110992487B (zh) | 手持式飞机油箱快速三维地图重建装置及重建方法 | |
CN112129281A (zh) | 一种基于局部邻域地图的高精度图像导航定位方法 | |
CN110223233B (zh) | 一种基于图像拼接的无人机航拍建图方法 | |
CN103617631A (zh) | 一种基于中心检测的跟踪方法 | |
CN117115271A (zh) | 无人机飞行过程中的双目相机外参数自标定方法及系统 | |
CN108090930A (zh) | 基于双目立体相机的障碍物视觉检测系统及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190111 |