CN109544696A - 一种基于视觉惯性组合的机载增强合成视景虚实图像精确配准方法 - Google Patents
一种基于视觉惯性组合的机载增强合成视景虚实图像精确配准方法 Download PDFInfo
- Publication number
- CN109544696A CN109544696A CN201811471438.2A CN201811471438A CN109544696A CN 109544696 A CN109544696 A CN 109544696A CN 201811471438 A CN201811471438 A CN 201811471438A CN 109544696 A CN109544696 A CN 109544696A
- Authority
- CN
- China
- Prior art keywords
- runway
- actual situation
- image
- vision
- synthetic vision
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20164—Salient point detection; Corner detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Navigation (AREA)
Abstract
本公开提供了一种基于视觉惯性组合的机载增强合成视景虚实图像精确配准方法,所述方法包括:视觉特征提取过程、视觉惯性融合过程和虚实图像配准过程;其中视觉特征提取过程包括:接收惯性测量单元输出的位姿参数,采集2D图像,从所述2D图像提取跑道区域,在所述跑道区域中进行直线检测,并提取跑道边缘线;视觉惯性融合过程包括:定义系统状态、建立惯性误差传递方程、获取量测信息、非线性卡尔曼滤波、修正位姿参数;并且虚实图像配准过程包括:用修正后的位姿参数驱动三维地形引擎生成3D合成视景,并在3D合成视景上叠加所述2D图像以实现虚实图像配准。
Description
技术领域
本发明属于计算机领域,具体涉及一种基于视觉惯性组合的机载增强合成视景虚实图像精确配准方法。
背景技术
机载增强合成视景是一种能够有效提升飞行员态势感知能力的辅助导航手段,目前机载增强合成视景依赖于机载高精度惯性导航设备和地基增强设施的辅助来保证增强视景与合成视景配准,硬件成本高昂,仅应用于大型飞机和高端公务机,且运行在具有LAAS支持的北美地区。
针对现有机载增强合成视景技术的缺陷,本发明提出了一种基于前视红外图像辅助位姿估计的虚实图像精确配准方法。
发明内容
本发明的目的:降低机载增强合成视景系统的使用成本,提升导航精度和鲁棒性,使其不仅适用于大型飞机和高端公务机,而且适用于通用飞机。
本发明的技术方案:通过本发明的基于视觉惯性组合的机载增强合成视景虚实图像精确配准方法实现上述目的,所述方法包括:视觉特征提取过程、视觉惯性融合过程和虚实图像配准过程;其中视觉特征提取过程包括:接收惯性测量单元输出的位姿参数,采集2D图像,从所述2D图像提取跑道区域,在所述跑道区域中进行直线检测,并提取跑道边缘线;视觉惯性融合过程包括:定义系统状态、建立惯性误差传递方程、获取量测信息、非线性卡尔曼滤波、修正位姿参数;并且虚实图像配准过程包括:用修正后的位姿参数驱动三维地形引擎生成3D合成视景,并在3D合成视景上叠加所述2D图像以实现虚实图像配准。
在上述基于视觉惯性组合的机载增强合成视景虚实图像精确配准方法中,在所述视觉特征提取过程中,
1)提取跑道区域包括:输入惯性测量位置、姿态以及机场地理信息,计算得到跑道区域在相机CCD像素平面的投影,估计跑道区域;计算出合成视景中跑道的前端左、右角点和消失点的坐标,以及跑道边缘线端点处的邻域宽度;
2)直线检测包括:采用Hough、LSD或EDLines线段检测子从跑道区域中提取直线段;
3)提取跑道边缘线包括:利用跑道区域在相机CCD像素平面的投影的四边轮廓,选取跑道区域的前边缘、左边缘和右边缘线邻域内的直线段,按照直线段与边缘线的距离和夹角做进一步筛选,为选出的直线段赋予权重值,按照权重值从直线段中随机选取点,再利用RANSAC方法分别拟合各邻域内直线段上提取的随机点,依次得到跑道前端边缘线、左边缘线和右边缘线,利用这三条直线两两相交,计算出跑道在像素平面上的前端左、右角点和消失点的坐标。
在上述基于视觉惯性组合的机载增强合成视景虚实图像精确配准方法中,在所述视觉惯性融合过程中,
定义系统状态包括:位置误差、速度误差、姿态误差、加速度误差和角速度误差,即
建立惯性误差传递方程
获取量测信息:从红外图像中提取跑道前端左、右角点和消失点坐标作为量测信息;
非线性卡尔曼滤波:利用惯性误差传递方程和量测信息进行非线性卡尔曼滤波,输出惯性误差估计值;
位姿参数修正:利用惯性误差估计值修正位姿参数。
在本发明的方法中,首先,利用惯性导航测量位姿及其误差范围估计出图像坐标系下跑道投影所在区域,运用直线检测子提取区域内直线,并拟合跑道轮廓邻域内的小线段得到跑道边缘线。其次,采用同一时刻合成跑道特征与真实跑道特征建立视觉量测方程,将惯性导航误差传递方程作为系统状态方程,通过SR-UKF融合视觉与惯性信息,消除惯性累计误差,修正位姿参数,从而实现合成视景与增强视景精确配准。通过真实飞行数据验证了本发明的方法能够满足机载增强组合视景系统虚实图像的精确配准需求。本发明的方法适用于晴、阴、小雨、雾、霾等天气条件下,飞机从相对于机场高度200英尺下降至60英尺的着陆过程。
本发明的方法鲁棒性强、配准精度高、设计与维护成本较低,且无需安装高精度激光惯性测量单元和地基增强系统。
附图说明
图1示出本发明的基于视觉惯性组合的机载增强合成视景虚实图像精确配准方法框图。
图2示出跑道边缘线拟合示意。
图3示出本发明的方法中各设备互联关系图。
具体实施方式
在本发明的基于视觉惯性组合的机载增强合成视景虚实图像精确配准方法中,主要包括如下过程:
1、机载增强合成视景虚实图像精确配准方法框架
一个完整的机载增强合成视景系统包含图像传感器、惯性导航部件、机载数据库、图形图像处理部件和显示终端,具有3D视景生成、2D图像增强、3D图形(虚)与2D图像(实)配准融合等主要功能。其中,虚实图像配准是该系统的核心算法,配准精度直接影响飞行员的工作负荷和飞行决策。本发明提案的配准方法框架主要包括了视觉量测构建、视觉惯性融合、虚实图像配准;其中,视觉量测建立了2D图像中跑道特征和3D图形中跑道特征之间的数学关系,即视觉量测方程;视觉惯性融合单元定义载体运动状态误差为系统状态,采用惯性误差传递方程作为系统状态方程,运用非线性系统滤波方法融合视觉量测和惯性数据,完成载体运动状态误差的估计,消除惯性累计误差,修正位姿参数;虚实图像配准则用修正位姿驱动三维地形引擎生成的3D合成视景,并叠加2D图像实现虚实图像配准。
图1示出机载增强合成视景虚实图像配准算法框架,虚线框内为算法核心部分,信息处理流程如下:
1)跑道检测:借助惯性参数辅助从红外图像中选取跑道区域,再从中检测线段,仅拟合跑道的左、右、前边缘邻域内的线段,精确提取出左、右、前边缘线,并计算出跑道前端的左(a)、右(d)角点和消失点(v);
2)视觉量测方程:3D图形中的跑道特征通过大地坐标系到像素坐标系的投影变换结合机场地理信息获得,即合成跑道特征;2D图像中的跑道特征通过步骤(1)获得,即真实跑道特征;
3)视觉惯性融合:定义载体运动状态误差为系统状态,采用惯性误差传递方程作为系统状态方程,运用非线性系统滤波方法融合视觉量测和惯性数据,完成载体运动状态误差的估计,消除惯性累计误差,修正位姿参数;
4)虚实图像配准:用修正位姿驱动三维地形引擎生成的3D合成视景,并叠加2D图像实现虚实图像配准,2D图像在上层,3D图形在下层,叠加显示。
2、视觉特征提取
跑道检测包括跑道区域选取、直线检测和跑道边缘线提取,如图2所示。
1)跑道投影区域选取:输入惯性测量位置、姿态以及机场地理信息(跑道四个角点的纬度、经度和海拔高度),通过大地坐标系到像素坐标系的坐标变换,计算得到机场跑道区域在相机CCD像素平面的投影,考虑到惯性测量的误差范围,估计出跑道投影区域(ROI),见图2中蓝色框;经过投影变换计算出合成视景中跑道的前端左、右角点和消失点的坐标(和)。
地面任一点DPi=(Li,λi,hi)投影至像素平面一点PPi的坐标变换等价于如下函数:
PPi=F(DPi,La,λa,ha,ψ,θ,φ) (1)
惯性测量的位置误差和姿态误差近似服从零均值高斯分布,则Δr和Δc近似服从均值为零的高斯分布,即:
δk和βk分别为式(1)中的偏微分项,δk为位姿测量精度。跑道边缘线端点处邻域宽度:
2)直线检测:采用Hough、LSD或EDLines线段检测子从ROI中提取直线段,这些直线段杂散地分布于ROI内,见图2中黑色直线段。
3)跑道边缘线提取:利用跑道投影的四边轮廓,选取跑道前边缘、左边缘和右边缘线邻域内的直线段,再按照直线段与边缘线的距离和夹角做进一步筛选,为选出的直线段赋予权重值,即线长×线宽×系数。按照权重值从直线段中随机选取点,再利用RANSAC方法分别拟合各邻域内直线段上提取的随机点,依次得到跑道前端边缘线、左边缘线和右边缘线,见图2中红色线段,利用这三条直线两两相交,计算出跑道在像素平面上的前端左、右角点和消失点的坐标(PPa=[ar ac]T,PPd=[dr dc]T和PPv=[vr vc]T)。
3、视觉惯性融合
本方法针对非线性视觉测量系统的滤波,采用了扩展卡尔曼滤波(EKF)或无迹卡尔曼滤波(UKF)或平方根无迹卡尔曼滤波(SR-UKF),在滤波框架下融合视觉测量信息和惯性数据,利用精确的视觉量测修正惯性累计误差,提升导航精度。
系统状态为:位置误差、速度误差、姿态误差、加速度误差和角速度误差,即
状态模型为:惯性误差传递方程
量测模型为:红外图像中提取出的跑道前端左、右角点和消失点坐标(PPa=[arac]T,PPd=[dr dc]T和PPv=[vr vc]T)与合成视景中经投影获得跑道前端左、右角点和消失点坐标(和)构成的量测方程;
系统输入为:视觉提取的相对位置和姿态、IMU加速度和角速度以及载体的位置、姿态和速度的初值;
系统输出为:状态估计,即误差估计值。
4、虚实图像配准
用修正位姿驱动三维地形引擎生成的3D合成视景,并叠加2D图像实现虚实图像配准。
[关于实施条件]
实施方案选择了中波/短波红外图像传感器采集前视红外图像(FLIR),机载惯性导航系统(INS)采集飞机当前运动状态(位置、速度、姿态、三轴加速度、三轴角速度)。方案实施中需在飞机雷达罩上方安装FLIR传感器组件,在飞机设备舱安装INS,并且在地面利用全站仪标定FLIR与INS的相对位置和姿态;同时,标定红外相机的内部参数。此外,还需获取机场地理信息数据库,如跑道各角点的纬度、经度和海拔高度信息。信息处理平台可以选用嵌入式处理板卡,如Nvidia TX2,各部件互联关系见图3所示。
[关于跑道检测]
1)ROI选取
地面任一点DPi=(Li,λi,hi)投影至像素平面一点PPi的坐标变换等价于函数:PPi=F(DPi,La,λa,ha,ψ,θ,φ)。
由于INS测量位置和姿态的误差服从零均值高斯分布,则Δr和Δc近似服从均值为零的高斯分布,即:
跑道边缘线端点处邻域宽度:
2)跑道特征提取
在选定的跑道边缘线邻域内将满足5≤Td≤10和-2°<Tθ<2°条件的检测线段保留下来,并计算它们的权重(线宽×线长),按照权重值从线段中随机取出像素点,权重越高随机抽取的点数越多,在线段拟合中的贡献也就越大,再用RANSAC方法拟合成一条直线,即跑道边缘线。
[关于状态估计]
以SR-UKF滤波算法为例,滤波器融合了视觉信息和惯性测量数据,具体流程如下:
1)初始化
S0=cholesky(Px,0)
其中,cholesky()函数用于矩阵的下三角分解。
2)时间更新
计算Sigma点:
一步状态预测:
χk/k-1=Φ(χk-1)
一步状态预测平方根:
其中Rv为系统噪声协方差矩阵
测量值估计:
yk/k-1=H(χk/k-1)
其中,qr()函数表示对矩阵QR分解,返回R矩阵的上三角阵。
3)量测更新
其中Rn为测量噪声协方差矩阵
状态噪声估计:
Claims (3)
1.一种基于视觉惯性组合的机载增强合成视景虚实图像精确配准方法,所述方法包括:视觉特征提取过程、视觉惯性融合过程和虚实图像配准过程;其中
视觉特征提取过程包括:接收惯性测量单元输出的位姿参数,采集2D图像,从所述2D图像提取跑道区域,在所述跑道区域中进行直线检测,并提取跑道边缘线;
视觉惯性融合过程包括:定义系统状态、建立惯性误差传递方程、获取量测信息、非线性卡尔曼滤波、修正位姿参数;并且
虚实图像配准过程包括:用修正后的位姿参数驱动三维地形引擎生成3D合成视景,并在3D合成视景上叠加所述2D图像以实现虚实图像配准。
2.根据权利要求1所述的基于视觉惯性组合的机载增强合成视景虚实图像精确配准方法,其中,在所述视觉特征提取过程中,
1)提取跑道区域包括:输入惯性测量位置、姿态以及机场地理信息,计算得到跑道区域在相机CCD像素平面的投影,估计跑道区域;计算出合成视景中跑道的前端左、右角点和消失点的坐标,以及跑道边缘线端点处的邻域宽度;
2)直线检测包括:采用Hough、LSD或EDLines线段检测子从跑道区域中提取直线段;
3)提取跑道边缘线包括:利用跑道区域在相机CCD像素平面的投影的四边轮廓,选取跑道区域的前边缘、左边缘和右边缘线邻域内的直线段,按照直线段与边缘线的距离和夹角做进一步筛选,为选出的直线段赋予权重值,按照权重值从直线段中随机选取点,再利用RANSAC方法分别拟合各邻域内直线段上提取的随机点,依次得到跑道前端边缘线、左边缘线和右边缘线,利用这三条直线两两相交,计算出跑道在像素平面上的前端左、右角点和消失点的坐标。
3.根据权利要求1所述的基于视觉惯性组合的机载增强合成视景虚实图像精确配准方法,其中,在所述视觉惯性融合过程中,
定义系统状态包括:位置误差、速度误差、姿态误差、加速度误差和角速度误差,即XT=[ψT δvT δpT εT ▽T];
建立惯性误差传递方程
获取量测信息:从红外图像中提取跑道前端左、右角点和消失点坐标作为量测信息;
非线性卡尔曼滤波:利用惯性误差传递方程和量测信息进行非线性卡尔曼滤波,输出惯性误差估计值;
位姿参数修正:利用惯性误差估计值修正位姿参数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811471438.2A CN109544696B (zh) | 2018-12-04 | 2018-12-04 | 一种基于视觉惯性组合的机载增强合成视景虚实图像精确配准方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811471438.2A CN109544696B (zh) | 2018-12-04 | 2018-12-04 | 一种基于视觉惯性组合的机载增强合成视景虚实图像精确配准方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109544696A true CN109544696A (zh) | 2019-03-29 |
CN109544696B CN109544696B (zh) | 2022-12-20 |
Family
ID=65853634
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811471438.2A Active CN109544696B (zh) | 2018-12-04 | 2018-12-04 | 一种基于视觉惯性组合的机载增强合成视景虚实图像精确配准方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109544696B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111145362A (zh) * | 2020-01-02 | 2020-05-12 | 中国航空工业集团公司西安航空计算技术研究所 | 一种机载综合视景系统虚实融合显示方法及系统 |
CN111223191A (zh) * | 2020-01-02 | 2020-06-02 | 中国航空工业集团公司西安航空计算技术研究所 | 面向机载增强合成视景系统的大规模场景红外成像实时仿真方法 |
CN112017303A (zh) * | 2020-09-04 | 2020-12-01 | 中筑科技股份有限公司 | 一种基于增强现实技术的设备维修辅助方法 |
CN112419211A (zh) * | 2020-09-29 | 2021-02-26 | 西安应用光学研究所 | 一种基于合成视觉的夜视系统图像增强方法 |
CN112734768A (zh) * | 2020-12-31 | 2021-04-30 | 网御安全技术(深圳)有限公司 | 一种影像消失点的搜寻方法、装置及电子设备 |
CN112862768A (zh) * | 2021-01-28 | 2021-05-28 | 重庆邮电大学 | 一种基于点线特征的自适应单目vio初始化方法 |
CN113295164A (zh) * | 2021-04-23 | 2021-08-24 | 四川腾盾科技有限公司 | 一种基于机场跑道的无人机视觉定位方法及装置 |
CN113790719A (zh) * | 2021-08-13 | 2021-12-14 | 北京自动化控制设备研究所 | 一种基于线特征的无人机惯性/视觉着陆导航方法 |
WO2024087764A1 (zh) * | 2022-10-27 | 2024-05-02 | 安胜(天津)飞行模拟系统有限公司 | eVTOL导航合成视觉方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014134442A (ja) * | 2013-01-10 | 2014-07-24 | Mitsubishi Electric Corp | 赤外線目標検出装置 |
US9489575B1 (en) * | 2015-01-30 | 2016-11-08 | Rockwell Collins, Inc. | Sensor-based navigation correction |
CN108731670A (zh) * | 2018-05-18 | 2018-11-02 | 南京航空航天大学 | 基于量测模型优化的惯性/视觉里程计组合导航定位方法 |
-
2018
- 2018-12-04 CN CN201811471438.2A patent/CN109544696B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014134442A (ja) * | 2013-01-10 | 2014-07-24 | Mitsubishi Electric Corp | 赤外線目標検出装置 |
US9489575B1 (en) * | 2015-01-30 | 2016-11-08 | Rockwell Collins, Inc. | Sensor-based navigation correction |
CN108731670A (zh) * | 2018-05-18 | 2018-11-02 | 南京航空航天大学 | 基于量测模型优化的惯性/视觉里程计组合导航定位方法 |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111145362B (zh) * | 2020-01-02 | 2023-05-09 | 中国航空工业集团公司西安航空计算技术研究所 | 一种机载综合视景系统虚实融合显示方法及系统 |
CN111223191A (zh) * | 2020-01-02 | 2020-06-02 | 中国航空工业集团公司西安航空计算技术研究所 | 面向机载增强合成视景系统的大规模场景红外成像实时仿真方法 |
CN111145362A (zh) * | 2020-01-02 | 2020-05-12 | 中国航空工业集团公司西安航空计算技术研究所 | 一种机载综合视景系统虚实融合显示方法及系统 |
CN112017303A (zh) * | 2020-09-04 | 2020-12-01 | 中筑科技股份有限公司 | 一种基于增强现实技术的设备维修辅助方法 |
CN112017303B (zh) * | 2020-09-04 | 2024-01-19 | 中筑科技股份有限公司 | 一种基于增强现实技术的设备维修辅助方法 |
CN112419211A (zh) * | 2020-09-29 | 2021-02-26 | 西安应用光学研究所 | 一种基于合成视觉的夜视系统图像增强方法 |
CN112419211B (zh) * | 2020-09-29 | 2024-02-02 | 西安应用光学研究所 | 一种基于合成视觉的夜视系统图像增强方法 |
CN112734768A (zh) * | 2020-12-31 | 2021-04-30 | 网御安全技术(深圳)有限公司 | 一种影像消失点的搜寻方法、装置及电子设备 |
CN112862768B (zh) * | 2021-01-28 | 2022-08-02 | 重庆邮电大学 | 一种基于点线特征的自适应单目vio初始化方法 |
CN112862768A (zh) * | 2021-01-28 | 2021-05-28 | 重庆邮电大学 | 一种基于点线特征的自适应单目vio初始化方法 |
CN113295164A (zh) * | 2021-04-23 | 2021-08-24 | 四川腾盾科技有限公司 | 一种基于机场跑道的无人机视觉定位方法及装置 |
CN113790719A (zh) * | 2021-08-13 | 2021-12-14 | 北京自动化控制设备研究所 | 一种基于线特征的无人机惯性/视觉着陆导航方法 |
CN113790719B (zh) * | 2021-08-13 | 2023-09-12 | 北京自动化控制设备研究所 | 一种基于线特征的无人机惯性/视觉着陆导航方法 |
WO2024087764A1 (zh) * | 2022-10-27 | 2024-05-02 | 安胜(天津)飞行模拟系统有限公司 | eVTOL导航合成视觉方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN109544696B (zh) | 2022-12-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109544696A (zh) | 一种基于视觉惯性组合的机载增强合成视景虚实图像精确配准方法 | |
CN109341700B (zh) | 一种低能见度下固定翼飞机视觉辅助着陆导航方法 | |
CN107194989B (zh) | 基于无人机飞机航拍的交通事故现场三维重建系统及方法 | |
Chiabrando et al. | UAV and RPV systems for photogrammetric surveys in archaelogical areas: two tests in the Piedmont region (Italy) | |
Rhudy et al. | Onboard wind velocity estimation comparison for unmanned aircraft systems | |
Alonso et al. | Accurate global localization using visual odometry and digital maps on urban environments | |
AU2012328156B2 (en) | Identification and analysis of aircraft landing sites | |
US20160093225A1 (en) | Landing system for an aircraft | |
CN109341724B (zh) | 一种机载相机-惯性测量单元相对位姿在线标定方法 | |
CN111649737B (zh) | 一种面向飞机精密进近着陆的视觉-惯性组合导航方法 | |
US20160086497A1 (en) | Landing site tracker | |
Gurtner et al. | Investigation of fish-eye lenses for small-UAV aerial photography | |
Anitha et al. | Vision based autonomous landing of an unmanned aerial vehicle | |
CN109341686B (zh) | 一种基于视觉-惯性紧耦合的飞行器着陆位姿估计方法 | |
CN102506867B (zh) | 基于Harris角点匹配的SINS/SMANS组合导航方法及系统 | |
CN105644785A (zh) | 一种基于光流法和地平线检测的无人机着陆方法 | |
CN110186468B (zh) | 用于自动驾驶的高精度地图制作方法和制作装置 | |
Yun et al. | IMU/Vision/Lidar integrated navigation system in GNSS denied environments | |
CN103697883B (zh) | 一种基于天际线成像的飞行器水平姿态确定方法 | |
KR20210034253A (ko) | 위치 추정 장치 및 방법 | |
Kawamura et al. | Simulated vision-based approach and landing system for advanced air mobility | |
Kawamura et al. | Vision-Based Precision Approach and Landing for Advanced Air Mobility | |
CN109341685A (zh) | 一种基于单应变换的固定翼飞机视觉辅助着陆导航方法 | |
Zhang et al. | Infrared-based autonomous navigation for civil aircraft precision approach and landing | |
Lee et al. | Calibration of a UAV based low altitude multi-sensor photogrammetric system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |