CN110108894B - 一种基于相位相关和光流法的多旋翼速度测量方法 - Google Patents
一种基于相位相关和光流法的多旋翼速度测量方法 Download PDFInfo
- Publication number
- CN110108894B CN110108894B CN201910342593.2A CN201910342593A CN110108894B CN 110108894 B CN110108894 B CN 110108894B CN 201910342593 A CN201910342593 A CN 201910342593A CN 110108894 B CN110108894 B CN 110108894B
- Authority
- CN
- China
- Prior art keywords
- image
- optical flow
- value
- layer
- pyramid
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003287 optical effect Effects 0.000 title claims abstract description 76
- 238000000034 method Methods 0.000 title claims abstract description 68
- 230000033001 locomotion Effects 0.000 claims abstract description 23
- 230000000007 visual effect Effects 0.000 claims abstract description 21
- 238000001914 filtration Methods 0.000 claims abstract description 8
- 238000013519 translation Methods 0.000 claims description 29
- 239000011159 matrix material Substances 0.000 claims description 26
- 230000001133 acceleration Effects 0.000 claims description 6
- 238000012937 correction Methods 0.000 claims description 6
- 230000000694 effects Effects 0.000 claims description 6
- 230000014509 gene expression Effects 0.000 claims description 6
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 5
- 230000004438 eyesight Effects 0.000 claims description 5
- 239000000126 substance Substances 0.000 claims description 5
- 238000005314 correlation function Methods 0.000 claims description 3
- 238000012546 transfer Methods 0.000 claims description 3
- 230000007704 transition Effects 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 abstract description 7
- 238000005259 measurement Methods 0.000 abstract description 7
- 238000003384 imaging method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000000691 measurement method Methods 0.000 description 3
- 230000010363 phase shift Effects 0.000 description 3
- 238000007430 reference method Methods 0.000 description 2
- 230000009012 visual motion Effects 0.000 description 2
- 230000016776 visual perception Effects 0.000 description 2
- 238000013016 damping Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01P—MEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
- G01P3/00—Measuring linear or angular speed; Measuring differences of linear or angular speeds
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01P—MEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
- G01P3/00—Measuring linear or angular speed; Measuring differences of linear or angular speeds
- G01P3/36—Devices characterised by the use of optical means, e.g. using infrared, visible, or ultraviolet light
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Electromagnetism (AREA)
- Power Engineering (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种基于相位相关和光流法的多旋翼速度测量方法,其特征在于:该方法步骤具体如下:步骤一:单目相机内参数离线标定;步骤二:基于相邻图像之间的运动估计;步骤三:基于视觉信息的速度估计;步骤四:基于卡尔曼滤波的速度估计。本发明提出的基于相位相关和光流法的多旋翼速度测量方法,是一种利用多旋翼机载的单目相机和其它传感器进行视觉测量的方法,不依靠额外增加设备,成本低廉,克服地面纹理简单而无法获取特征点的困难,算法计算量小,算法鲁棒性高等优点。
Description
技术领域
本发明涉及一种基于相位相关和光流法的多旋翼速度测量方法,属于视觉测量领域。
背景技术
多旋翼是一种依靠旋翼旋转产生升力的无人机。这类无人机通常具有优异的机动性能,可以垂直起降,悬停,灵活转向,因此广泛应用于航拍、遥感、农业、救援、监测、邮递等领域。对于多旋翼来说,快速且准确的获取自身速度能有效提高多旋翼控制的稳定性(提高阻尼),从而达到更好的悬停和操控效果,因此测速工作为多旋翼更广泛使用起到十分重要的作用。
在无GPS环境下,视觉传感器能提供比较精确的速度信息,融合惯性传感器信息可以获得比较精确的速度估计。而目前视觉处理的方法一方面是利用动作捕捉系统或者人工标志点,安装复杂且对环境要求严格;另一方面是利用机载视觉,采用特征点匹配的方法,计算量大,计算耗时,也要求环境中纹理特征丰富。因此,本专利申请提出了一种基于相位相关和光流法的多旋翼速度测量方法,该方法不需要额外增加设备,仅利用多旋翼的机载传感器,如单目下视相机、惯性传感器、高度传感器,来实时测量机体速度,在频域中分析图像信息,抗干扰性强,对环境没有特别要求,且在无GPS信号的未知环境中仍有效果。
发明内容
本发明提供了一种基于相位相关和光流法的多旋翼速度测量方法,它是一种融合图像频域信息以及全局光流信息的测速方法。利用视觉信息、惯性传感器信息、高度传感器信息,并结合多旋翼运动学模型,提出了一种基于卡尔曼滤波的融合测速算法。它解决了小型无人机无法安装空速管、在室内等未知复杂环境中无法获取GPS信号进行速度测量,不需要进行特征点匹配带来的耗时的困难,不需要额外增加传感设备,方法简单便捷,计算量小,测量精度高,实用性好。
本发明采用的相机模型为线性模型,即针孔成像模型,模型描述如下:
如图1所示,空间一点pe在图像平面的成像位置可以用针孔成像模型近似表示,即点pe在图像平面中的投影位置pc,为光心O与空间点pe的连线与图像平面的交点。因而世界坐标系下pe点坐标(xe,ye,ze)T与投影点pc的像素坐标(u,v)T之间的关系可以描述如下
其中αx为u轴上的尺度因子,αy为v轴上的尺度因子,且αx=f/dx,αy=f/dy(f为焦距,dx和dy分别为u轴和v轴方向的像素尺寸);(u0,v0)是摄像机光轴与图像平面的交点,称为主点坐标。αx,αy,u0,v0只与摄像机内部参数有关,称为相机的内参数。分别为相机坐标系与世界坐标系的旋转矩阵和平移向量,称为摄像机的外部参数。
本发明中被测对象为一台多旋翼无人飞行器,要求其机载设备有单目下视相机、高度传感器和惯性传感器。本测速方法是一种实时在线估计方法,在测速之前,需要对相机进行离线标定操作,提前获取相机的内参数。整个在线测速流程见图2,主要包含以下三个部分:
1)基于相邻图像之间的运动估计
本部分的主要目的是根据相邻两帧图像之间的信息,估计帧间平移量。主要考虑两种情况:图像平移量较大和平移量小。针对图像有较大平移量时,频域上相位偏移明显,可以利用图像傅里叶变换,然后计算出相位偏移,频域上的相位偏移表征了图像之间的空间平移量;对于图像平移量较小的情况,利用LK光流算法;整个过程通过构建图像金字塔来克服大运动情况,通过迭代求精算法来降低噪声影响。
2)基于视觉信息的速度估计
本部分的主要目的是利用相机模型以及视觉运动约束,根据相邻图像之间的运动情况,估计速度信息。这部分根据视觉数据直接给出多旋翼速度信息。
3)基于卡尔曼滤波的速度估计
本部分的主要目的是利用卡尔曼滤波算法,融合视觉运动信息、惯性传感器信息以及高度传感器信息,并结合多旋翼运动学模型,估计多旋翼实时的速度信息,利用卡尔曼滤波可以有效地减小噪声影响,且在视觉信息短暂丢失的情况下滤波器仍能发挥作用,保证实时性。
本发明提出了一种基于相位相关和光流法的多旋翼速度测量方法,其实现步骤具体如下:
步骤一:单目相机内参数离线标定
在具体实现过程中,本发明利用二维棋盘格标定板(如图3)作为靶标,固定单目相机,在相机视场内多角度移动靶标,保证整个靶标尽量占满图片。这样就可以得到图片序列(至少13张),接下来,直接利用MATLAB R2017a自带的相机标定工具箱,根据工具箱界面依次导入图片序列,然后进行标定,获取最终标定结果,我们需要标定的是相机的内参数αx,αy,u0,v0。
步骤二:基于相邻图像之间的运动估计
本步骤是利用相邻图像数据,来估计全局光流(表征图像中像素的整体运动情况),分为两种情况,一种是图像平移量较大的情况,另一种是图像平移量较小的情况。具体操作如下:
S21、对于图像平移量较大的情况
针对相邻帧图像I1,I2,直接利用OpenCv的相位相关函数phaseCorrelate来获取图像之间亚像素级精度的平移量Tu,Tv,即需要的全局光流值。其中采用createHanningWindow函数生成汉宁窗来去除图像的边界效应。
S22、对于图像平移量较小的情况
本部分利用LK光流、迭代求精和图像金字塔原理,估计图像仿射运动模型参数,进而估计全局光流。
S221、给定两帧相邻图像,可以粗略估计出其LK光流,具体过程如下:
S2211、针对相邻帧图像I1,I2,分别计算当前图像每个像素(x,y)的灰度相对于时间、空间上的偏导数Iu(x,y),Iv(x,y),It(x,y)如下(为方便以下简写为Iu,Iv,It):
S2212、利用最小二乘法求解方程:
[Iu Iux Iuy Iv Ivx Ivy]a=-It (3)
其中a=[a1 a2 a3 a4 a5 a6]T为待求解的仿射运动参数。
S2213、根据步骤S2212求解的运动参数,直接给出当前图像中每个像素的光流表达式:
S222、为了进一步提高精度,设计迭代求精算法,根据步骤S221估计出的LK光流值对图像进行扭转操作(MATLAB中的warp函数),然后再进一步求取LK光流,由粗到精,经过三次迭代后确定光流值。具体方法见图4所示。
S223、针对简单纹理环境,还增加了图像金字塔,来克服飞行器作快速大运动的情况所带来的跟踪困难,最终全局光流的计算方法见图5,具体如下:
S2231、针对相邻图像I1,I2,分别获取其三层图像金字塔。金字塔图像分辨率成倍数缩小,即金字塔最底层(第0层)分辨率是图像原始分辨率u_0,v_0;第一层是最底层分辨率的1/2,第二层是最底层分辨率的1/4,第三层是最底层分辨率的1/8。
S2235、得到最终全局光流估计
步骤三:基于视觉信息的速度估计
根据步骤S21在平移量大的情况下得到的全局光流以及步骤S22在平移量小的情况下得到的全局光流,假定pk-1,pk为相邻两帧像素点,其中当前帧像素点pk为中心像素坐标,上一帧对应像素点根据所述两个全局光流获得,即有
最后,直接给出基于视觉信息的速度估计
其中,为根据视觉直接得到的飞行器速度估计值,为高度传感器的读数,为三维单位矩阵,e3=[0 0 1]T,δt=0.05s为相邻图像时间间隔,为陀螺仪测得的三维角速度,直接由公式(7)得出,为旋转矩阵,直接由多旋翼的欧拉角得出:
其中,θ,φ,ψ分别是多旋翼的俯仰角、滚转角和偏航角。
步骤四:基于卡尔曼滤波的速度估计
S41、构建系统的状态变量、过程模型和观测模型。
状态变量:
其中,vk为待测三维速度,zk为飞行器z轴方向的高度值,ba为三维加速度偏移。
过程模型:
xk=Axk-1+uk-1+wk (11)
观测模型:
zk=Hxk+vk (13)
S42、滤波初始化
令状态初值为:
x0=[vc dsonarcosθcosφ 03×1]T (15)
其中,vc=[vx vy vz]T为公式(8)给出的初始视觉速度,高度初值由高度传感器给出,其中dsonar为高度传感器读数,加速度偏移初值设为零。
令状态估计误差协方差初值为对角矩阵:
S43、状态一步预测
S44、误差协方差一步预测
Pk|k-1=APk-1|k-1AT+Qk-1 (18)
S45、卡尔曼滤波增益更新
Kk=Pk|k-1HT(HPk|k-1HT+Rk)-1 (19)
S46、状态更新校正
S47、误差协方差更新校正
Pk|k=(I7-KkH)Pk|k-1 (21)
S48、k=k+1,返回步骤S43继续运行。
至此,卡尔曼滤波器不断迭代递推,就可以实时估计出飞行器的速度。
本发明提出的基于相位相关和光流法的多旋翼速度测量方法,是一种利用多旋翼机载的单目相机和其它传感器进行视觉测量的方法,不依靠额外增加设备,成本低廉,克服地面纹理简单而无法获取特征点的困难,算法计算量小,算法鲁棒性高等优点。
附图说明
图1是相机针孔成像模型示意图;
图2是本发明在线测速流程图;
图3是相机标定所用的二维棋盘格靶标示意图;
图4是迭代求精算法示意图;
图5是基于相邻图像进行运动估计流程图
图6a、b是本发明方法与Guidance参考方法的水平速度估计值对比图
图中符号说明如下:
图1中的符号说明:O表示摄像机光心,OI表示图像坐标系原点。(u,v)表示图像坐标系的坐标轴,(Xc,Yc,Zc)表示摄像机坐标系的坐标轴。pe(xe,ye,ze)表示三维点在摄像机坐标系下的坐标,pc(u,v)表示点pe(xe,ye,ze)在图像上的投影。
图4中的符号说明:I1,I2表示相邻帧图像,LK表示直接由LK光流计算方法(公式(2)-(4)),WARP表示图像扭转操作,ui,vi,i=1,2,3表示LK光流,Tu,Tv表示全局光流。
具体实施方式
下面结合附图和实施例,对本发明的技术方案做进一步的说明。
一种基于相位相关和光流法的多旋翼速度测量方法,其实现步骤具体如下:
步骤一:单目相机内参数离线标定
在具体实现过程中,本发明利用二维棋盘格标定板(如图3)作为靶标,固定单目相机,在相机视场内多角度移动靶标,保证整个靶标尽量占满图片。这样就可以得到图片序列(至少13张),接下来,直接利用MATLAB R2017a自带的相机标定工具箱,根据工具箱界面依次导入图片序列,然后进行标定,获取最终标定结果,我们需要标定的是相机的内参数αx,αy,u0,v0。
步骤二:基于相邻图像之间的运动估计
本步骤是利用相邻图像数据,来估计全局光流(表征图像中像素的整体运动情况),分为两种情况,一种是图像平移量较大的情况,另一种是图像平移量较小的情况。具体操作如下:
S21、对于图像平移量较大的情况
针对相邻帧图像I1,I2,直接利用OpenCv的相位相关函数phaseCorrelate来获取图像之间亚像素级精度的平移量Tu,Tv,即需要的全局光流值。其中采用createHanningWindow函数生成汉宁窗来去除图像的边界效应。
S22、对于图像平移量较小的情况
本部分利用LK光流、迭代求精和图像金字塔原理,估计图像仿射运动模型参数,进而估计全局光流。
S221、给定两帧相邻图像,可以粗略估计出其LK光流,具体过程如下:
S2211、针对相邻帧图像I1,I2,分别计算当前图像每个像素(x,y)的灰度相对于时间、空间上的偏导数Iu(x,y),Iv(x,y),It(x,y)如下(为方便以下简写为Iu,Iv,It):
S2212、利用最小二乘法求解方程:
[Iu Iux Iuy Iv Ivx Ivy]a=-It (3)
其中a=[a1 a2 a3 a4 a5 a6]T为待求解的仿射运动参数。
S2213、根据步骤S2212求解的运动参数,直接给出当前图像中每个像素的光流表达式:
S222、为了进一步提高精度,设计迭代求精算法,根据步骤S221估计出的LK光流值对图像进行扭转操作(MATLAB中的warp函数),然后再进一步求取LK光流(即利用公式(2)~公式(4)),由粗到精,经过三次迭代后确定光流值。具体方法见图4所示。
S223、针对简单纹理环境,还增加了图像金字塔,来克服飞行器作快速大运动的情况所带来的跟踪困难,最终全局光流的计算方法见图5,具体如下:
S2231、针对相邻图像I1,I2,分别获取其三层图像金字塔。金字塔图像分辨率成倍数缩小,即金字塔最底层(第0层)分辨率是图像原始分辨率u_0,v_0;第一层是最底层分辨率的1/2,第二层是最底层分辨率的1/4,第三层是最底层分辨率的1/8。
S2235、得到最终全局光流估计
步骤三:基于视觉信息的速度估计
根据步骤S21在平移量大的情况下得到的全局光流以及步骤S22在平移量小的情况下得到的全局光流,假定pk-1,pk为相邻两帧像素点,其中当前帧像素点pk为中心像素坐标,上一帧对应像素点根据所述两个全局光流获得,即有
最后,直接给出基于视觉信息的速度估计
其中,为根据视觉直接得到的飞行器速度估计值,为高度传感器的读数,为三维单位矩阵,e3=[0 0 1]T,δt=0.05s为相邻图像时间间隔,为陀螺仪测得的三维角速度,直接由公式(7)得出,为旋转矩阵,直接由多旋翼的欧拉角得出:
其中,θ,φ,ψ分别是多旋翼的俯仰角、滚转角和偏航角。
步骤四:基于卡尔曼滤波的速度估计
S41、构建系统的状态变量、过程模型和观测模型。
状态变量:
其中,vk为待测三维速度,zk为飞行器z轴方向的高度值,ba为三维加速度偏移。
过程模型:
xk=Axk-1+uk-1+wk (11)
观测模型:
zk=Hxk+vk (13)
S42、滤波初始化
令状态初值为:
x0=[vc dsonarcosθcosφ03×1]T (15)
其中,vc=[vx vy vz]T为公式(8)给出的初始视觉速度,高度初值由高度传感器给出,其中dsonar为高度传感器读数,加速度偏移初值设为零。
令状态估计误差协方差初值为对角矩阵:
S43、状态一步预测
S44、误差协方差一步预测
Pk|k-1=APk-1|k-1AT+Qk-1 (18)
S45、卡尔曼滤波增益更新
Kk=Pk|k-1HT(HPk|k-1HT+Rk)-1 (19)
S46、状态更新校正
S47、误差协方差更新校正
Pk|k=(I7-KkH)Pk|k-1 (21)
S48、k=k+1,返回步骤S43继续运行。
至此,卡尔曼滤波器不断迭代递推,就可以实时估计出飞行器的速度。
实施例
本发明提出了一种基于相位相关和光流法的多旋翼速度测量方法,并以大疆公司的Matrix 100四轴旋翼飞行器以及Guidance视觉感知模块进行真实实验。
首先我们需要进行相机内参数离线标定操作。由于大疆公司提供的Guidance视觉感知模块是五块双目相机和超声波传感模块,我们只需要安装一个下视相机,针对其中左侧相机取图,进行标定操作。我们采用的棋盘格靶标如图3所示,规格为6×9,每个格子的长度为29.5mm。Guidance相机的分辨率设置为320×240像素,标定得到的内参数为:
αx=334.4204,αy=333.4688,u0=149.4593,v0=114.9624
接着,我们直接按照步骤二到步骤四的操作,对多旋翼飞行速度实时测量,并与Guidance内部直接提供的水平速度值进行对比,结果如图6a、b所示,可以看出,我们提出的测量方法能够准确地估计速度值。同时,我们控制四轴旋翼飞行器飞行一个回环,保证起飞点和降落点相同。我们利用本发明的方法估计的速度以及Guidance自身提供的水平速度,分别对它们积分,得到整个轨迹长度,然后得到起飞点与降落点的水平位置误差值,最终对比结果如表1,为水平位置估计误差值(单位:米)。结果表明,本发明方法能够较好地估计飞行速度值。
实验场景 | 本发明方法 | Guidance参考方法 |
室内悬停 | 0.0744 | 0.2475 |
室内飞行 | 0.0036 | 0.1701 |
室外悬停 | 0.4351 | 0.2605 |
室外飞行 | 0.4351 | 0.5575 |
表1。
Claims (4)
1.一种基于相位相关和光流法的多旋翼速度测量方法,其特征在于:该方法步骤具体如下:
步骤一:单目相机内参数离线标定
步骤二:基于相邻图像之间的运动估计
利用相邻图像数据,来估计全局光流,分为两种情况,一种是图像平移量较大的情况,另一种是图像平移量较小的情况;具体操作如下:
S21、对于图像平移量较大的情况
针对相邻帧图像I1,I2,直接利用OpenCv的相位相关函数phaseCorrelate来获取图像之间亚像素级精度的平移量Tu,Tv,即需要的全局光流值;其中采用createHanningWindow函数生成汉宁窗来去除图像的边界效应;
S22、对于图像平移量较小的情况
利用LK光流、迭代求精和图像金字塔原理,估计图像仿射运动模型参数,进而估计全局光流;
步骤三:基于视觉信息的速度估计
根据步骤S21在平移量大的情况下得到的全局光流以及步骤S22在平移量小的情况下得到的全局光流,假定pk-1,pk为相邻两帧像素点,其中当前帧像素点pk为中心像素坐标,上一帧对应像素点根据所述两个全局光流获得,即有
最后,直接给出基于视觉信息的速度估计
其中,αx为u轴上的尺度因子,αy为v轴上的尺度因子;u0,v0是摄像机光轴与图像平面的交点,称为主点坐标;为根据视觉直接得到的飞行器速度估计值,hk-1,为高度传感器的读数,为三维单位矩阵,e3=[0 0 1]T,δt=0.05s为相邻图像时间间隔,为陀螺仪测得的三维角速度,直接由公式(7)得出,Rk-1,为旋转矩阵,直接由多旋翼的欧拉角得出:
其中,θ,φ,ψ分别是多旋翼的俯仰角、滚转角和偏航角;
步骤四:基于卡尔曼滤波的速度估计
S41、构建系统的状态变量、过程模型和观测模型;
状态变量:
其中,vk为待测三维速度,zk为飞行器z轴方向的高度值,ba,k为三维加速度偏移;
过程模型:
xk=Axk-1+uk-1+wk (11)
观测模型:
zk=Hxk+γk (13)
S42、滤波初始化
令状态初值为:
x0=[vc dsonarcosθcosφ 03×1]T (15)
其中,vc=[vx vy vz]T为公式(8)给出的初始视觉速度,高度初值由高度传感器给出,其中dsonar为高度传感器读数,加速度偏移初值设为零;
令状态估计误差协方差初值为对角矩阵:
S43、状态一步预测
S44、误差协方差一步预测
Pk|k-1=APk-1|k-1AT+Qk-1 (18)
S45、卡尔曼滤波增益更新
Kk=Pk|k-1HT(HPk|k-1HT+Rk)-1 (19)
S46、状态更新校正
S47、误差协方差更新校正
Pk|k=(I7-KkH)Pk|k-1 (21)
S48、k=k+1,返回步骤S43继续运行;
至此,卡尔曼滤波器不断迭代递推,就可以实时估计出飞行器的速度。
2.根据权利要求1所述的一种基于相位相关和光流法的多旋翼速度测量方法,其特征在于:所述步骤S22对于图像平移量较小的情况,估计全局光流的具体过程如下:
S221、给定两帧相邻图像,粗略估计出其LK光流;
S222、为进一步提高精度,设计迭代求精算法,根据步骤S221估计出的LK光流值对图像进行扭转操作,然后再进一步求取LK光流,由粗到精,经过三次迭代后确定光流值;
S223、针对简单纹理环境,增加图像金字塔,克服飞行器作快速大运动的情况所带来的跟踪困难。
4.根据权利要求2所述的一种基于相位相关和光流法的多旋翼速度测量方法,其特征在于:所述步骤S223具体过程如下:
S2231、针对相邻图像I1,I2,分别获取其三层图像金字塔;金字塔图像分辨率成倍数缩小,即金字塔最底层分辨率是图像原始分辨率u_0,v_0;第一层是最底层分辨率的1/2,第二层是最底层分辨率的1/4,第三层是最底层分辨率的1/8;
S2235、得到最终全局光流估计
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910342593.2A CN110108894B (zh) | 2019-04-26 | 2019-04-26 | 一种基于相位相关和光流法的多旋翼速度测量方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910342593.2A CN110108894B (zh) | 2019-04-26 | 2019-04-26 | 一种基于相位相关和光流法的多旋翼速度测量方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110108894A CN110108894A (zh) | 2019-08-09 |
CN110108894B true CN110108894B (zh) | 2020-07-21 |
Family
ID=67486827
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910342593.2A Active CN110108894B (zh) | 2019-04-26 | 2019-04-26 | 一种基于相位相关和光流法的多旋翼速度测量方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110108894B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113295164B (zh) * | 2021-04-23 | 2022-11-04 | 四川腾盾科技有限公司 | 一种基于机场跑道的无人机视觉定位方法及装置 |
CN114812513A (zh) * | 2022-05-10 | 2022-07-29 | 北京理工大学 | 一种基于红外信标的无人机定位系统及方法 |
CN117739972B (zh) * | 2024-02-18 | 2024-05-24 | 中国民用航空飞行学院 | 一种无全球卫星定位系统的无人机进近阶段定位方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5676502B2 (ja) * | 2012-01-31 | 2015-02-25 | 古河電気工業株式会社 | 光式流速水圧測定装置 |
CN103913588B (zh) * | 2014-04-10 | 2016-06-22 | 深圳市大疆创新科技有限公司 | 无人飞行器的飞行参数的测量方法及装置 |
CN105954536B (zh) * | 2016-06-29 | 2019-02-22 | 英华达(上海)科技有限公司 | 一种光流测速模块与测速方法 |
CN107093187B (zh) * | 2017-03-31 | 2019-11-01 | 上海拓攻机器人有限公司 | 一种无人机飞行速度的测量方法及装置 |
US10612951B2 (en) * | 2017-05-31 | 2020-04-07 | Pixart Imaging Inc. | Optical flow sensor, methods, remote controller device, and rotatable electronic device |
-
2019
- 2019-04-26 CN CN201910342593.2A patent/CN110108894B/zh active Active
Non-Patent Citations (2)
Title |
---|
Visual-inertial estimation of velocity for multicopters based on vision;Heng Deng et al.;《Robotics and Autonomous Systems》;20180704;第262-279页 * |
基于图像光流的运动速度计算理论及应用;黄波 等;《信息通信》;20150228(第2期);第8-9页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110108894A (zh) | 2019-08-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109540126B (zh) | 一种基于光流法的惯性视觉组合导航方法 | |
CN106989744A (zh) | 一种融合机载多传感器的旋翼无人机自主定位方法 | |
Mondragón et al. | 3D pose estimation based on planar object tracking for UAVs control | |
CN107390704B (zh) | 一种基于imu姿态补偿的多旋翼无人机光流悬停方法 | |
CN110108894B (zh) | 一种基于相位相关和光流法的多旋翼速度测量方法 | |
Meingast et al. | Vision based terrain recovery for landing unmanned aerial vehicles | |
CN110865650B (zh) | 基于主动视觉的无人机位姿自适应估计方法 | |
CN106708066A (zh) | 基于视觉/惯导的无人机自主着陆方法 | |
CN112116651B (zh) | 一种基于无人机单目视觉的地面目标定位方法和系统 | |
CN110487267A (zh) | 一种基于vio&uwb松组合的无人机导航系统及方法 | |
CN108645416B (zh) | 基于视觉测量系统的非合作目标相对导航仿真验证方法 | |
CN107831776A (zh) | 基于九轴惯性传感器的无人机自主返航方法 | |
Gur fil et al. | Partial aircraft state estimation from visual motion using the subspace constraints approach | |
CN115371665A (zh) | 一种基于深度相机和惯性融合的移动机器人定位方法 | |
JP2017524932A (ja) | ビデオ支援着艦誘導システム及び方法 | |
CN110136168B (zh) | 一种基于特征点匹配和光流法的多旋翼速度测量方法 | |
Karam et al. | Integrating a low-cost mems imu into a laser-based slam for indoor mobile mapping | |
CN110598370A (zh) | 基于sip和ekf融合的多旋翼无人机鲁棒姿态估计 | |
CN112862818B (zh) | 惯性传感器和多鱼眼相机联合的地下停车场车辆定位方法 | |
CN112945233B (zh) | 一种全局无漂移的自主机器人同时定位与地图构建方法 | |
Pan et al. | An optical flow-based integrated navigation system inspired by insect vision | |
CN108227734A (zh) | 用于控制无人机的电子控制装置、相关的无人机、控制方法及计算机程序 | |
CN116952229A (zh) | 无人机定位方法、装置、系统和存储介质 | |
Wang et al. | Pose and velocity estimation algorithm for UAV in visual landing | |
Wang et al. | Micro aerial vehicle navigation with visual-inertial integration aided by structured light |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |