CN115451920A - 一种面向无人自主着降的相对位姿测量方法 - Google Patents
一种面向无人自主着降的相对位姿测量方法 Download PDFInfo
- Publication number
- CN115451920A CN115451920A CN202211321758.6A CN202211321758A CN115451920A CN 115451920 A CN115451920 A CN 115451920A CN 202211321758 A CN202211321758 A CN 202211321758A CN 115451920 A CN115451920 A CN 115451920A
- Authority
- CN
- China
- Prior art keywords
- led
- image
- pose
- target
- leds
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000691 measurement method Methods 0.000 title claims description 5
- 238000000034 method Methods 0.000 claims abstract description 45
- 238000001514 detection method Methods 0.000 claims description 9
- 238000005457 optimization Methods 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000003384 imaging method Methods 0.000 claims description 5
- 238000001228 spectrum Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 claims description 3
- 238000005259 measurement Methods 0.000 abstract description 5
- 230000000007 visual effect Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Multimedia (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明提供一种面向无人自主着降的相对位姿测量方法,它的步骤:(1)在无人机上安装垂直下视的日盲区紫外波段摄像机并采集合作靶标图像;(2)检测当前时刻摄像机采集合作靶标图像中的LED的像素坐标;使用前一时刻无人机位姿,进行基于位姿预测的LED的2D‑3D匹配;如果匹配失败,则用组合遍历法重新确定图像中LED与合作靶标中LED的2D‑3D匹配关系;(3)使用匹配后的多组LED点对,以P3P算法的一个解作为位姿初值,迭代计算LED的重投影误差最小值,求解输出位姿优化估计值。本发明能够大幅度提升无人机相对位姿测量系统在多种环境下的适应性和稳定性。
Description
技术领域
本发明涉及位姿测量领域,具体涉及一种面向无人自主着降的相对位姿测量方法。
背景技术
无人机自主着降是实现无人机自主飞行的关键技术之一。
在该研究领域中,基于视觉的无人机自主着降引导技术是一个新兴的研究方向。传统有人机着降时,飞行员依靠视觉所提供信息定位飞机空间位置和飞机相对着陆平台的旋转关系。而无人机视觉自主着降引导主要依赖于预设的地面合作目标,通过对地面合作目标的检测、识别、跟踪和相对位姿测量实现无人机的定位与自主导航,并根据合作目标在实时图像中的尺度、形状等信息估计无人机降落过程中的飞行姿态。
国内外学者针对无人机视觉自主着降引导开展了一系列研究。南加州大学设计了“H”形标识着陆目标,采用透视投影不变特征技术提取“H”形特征,依据“H”不变矩特性对大量目标图像上“H”形的区域矩进行统计,得到一个统计量作为该“H”形目标正确的区域矩。加利福尼亚大学设计的视觉辅助着陆目标采用已知的正方形着陆目标图识,视觉算法是用机载摄像机采集目标视频图像,然后对其目标图像进行分割和提取目标角点,继而得到基于视觉状态估计运动信息引导无人机着陆化。
斯坦福大学航空机器人实验室设计的视觉着陆目标为多个圆环形着陆目标图识。
南京航空航天大学设计了一种新型着陆目标图识进行辅助视觉着陆,该图识包含两个同心彩色圆。
上述相对位姿测量基于可见光成像,成像过程受气候条件、环境照度、自然光背景等条件影响较大,信标图案的识别以及特征信息提取算法复杂、稳健性差,严重影响算法的稳定性,从而导致无人机自主着降失败。另外,高分辨率的可见光图像带来巨大的运算量,尤其是在算力有限的机载平台上,容易导致实时性不足。本发明设计了一种基于“日盲区”波段的无人机相对位姿测量方法,通过对光谱的过滤,从物理层面上大幅度削除了无效信息,凸显出合作靶标上感兴趣目标点,从而提升系统在复杂环境下的适应性、稳定性以及实时性。
Perspective-n-Points (PnP)是一种常见的3D-2D的位姿求解方法,该类算法需要已知匹配的3D点和图像2D点。
此发明可应用于无人机灾情救援、物流运输、智能巡线等领域,可带来较大社会效益和经济效益。
发明内容
本发明设计一种基于“日盲区”波段的无人机相对位姿测量方法,能够大幅度提升系统在多种环境下的适应性和稳定性;本发明旨在提供一种基于视觉的无人机与地面靶标相对位姿测量方法,适用于无人机自主着降领域。
在“日盲区”波段图像中,合作靶标上的多个LED均体现为亮度较高的光斑,具有较大的相似性,难以辨识不同的LED像点,导致无法直接使用PnP位姿求解方法。
本发明提出了一种基于组合遍历思想的LED的 2D像点和3D物点匹配方法,遍历LED像点和物点所有的匹配组合的候选位姿,使用LED重投影的方法验证匹配组合的可能性;考虑到系统实施的实时性,进一步提出一种基于位姿预测的LED 2D-3D匹配方法,采用线性预测的方法推导下一时刻LED 2D像点的坐标,通过与真实像点坐标比对,判断2D-3D匹配是否有效。
本发明通过组合遍历法实现匹配初始化和重匹配,通过位姿预测法实现匹配关系持续跟踪,两种方法的切换使用,既保证了2D-3D匹配的精度,也提升了匹配速度。稳定、高速的LED 2D-3D匹配方法,为下一步基于P3P的无人机相对位姿优化求解提供了技术基础。
一种面向无人自主着降的相对位姿测量方法,其特征在于,包括以下步骤:
步骤(1)在无人机上安装固定垂直下视摄像机,以当前时刻采集合作靶标的图像、无人机前一时刻与靶标的相对位姿、当前时刻合作靶标中多个LED的物理坐标作为测量系统的输入;
步骤(2)当输入为当前时刻摄像机采集的合作靶标图像时,检测出图像中多个LED的像素坐标;
使用无人机前一时刻相对位姿,进行基于位姿预测的LED灯2D-3D匹配;如果匹配失败,则用组合遍历法重新确定图像中LED与合作靶标中LED的2D-3D匹配关系;
步骤(3)使用匹配后的多组LED点对,以P3P算法的一个解作为位姿初值,迭代计算LED的重投影误差最小值,求解输出位姿优化估计值。
其中,所述步骤(1)中的在无人机上安装固定垂直下视摄像机为:
无人机搭载垂直朝下的摄像机,为了避免到日光干扰,成像器件配合窄带滤光片,将工作谱段限制在日盲区紫外波段,以消除自然背景光的干扰。
其中,所述步骤(1)中的合作靶标中多个LED的工作波段限制在200nm-280nm。
其中,所述步骤(2)中包括以下步骤:
步骤①当前时刻图像中多个LED的检测;
步骤②基于组合遍历法进行当前时刻图像中多个LED的匹配。
其中,在所述步骤①之前,还包括一个定义的过程:
其中,所述步骤①具体为:
LED为紫外LED,其波长与摄像机中的滤镜相匹配;因此,LED在图像中显得非常明亮,通过下述阈值函数检测出LED灯;
其中阈值参数threshold根据经验设置为125;
使用图像一阶矩来计算LED光斑中心,其定义为
其中,p、q分别取0或1;
图像中的LED检测的坐标为
其中,所述步骤②具体为:
由于图像的LED均体现为亮度较高的光斑,具有较大的相似性,因此无法直接区分不同的LED;
首先,在图像中选取3个检测到的LED像点,然后在靶标上选取3个LED物点,这样会有多种组合方式;
然后,利用P3P算法来计算每种组合;根据P3P算法的特点,每种组合会产生的四个候选位姿;对于每个候选位姿,将靶标上未参与P3P计算的LED再投影到摄像机图像中;如果该LED重投影像点与检测到的像点距离小于阈值,则认为此组LED匹配成功;
靶标上的LED和图像中检测到的LED配对组合,用P3P算法来计算每种组合,将获得N个候选位姿,
其中,C、P分别表示组合、排列;
在实际工程中,迭代搜索直方图中最大的数字,并取对应的靶标LED和图像检测LED作为配对,然后在后续的迭代中忽略这一列。
其中,所述步骤(2)中的基于位姿预测的LED 2D-3D匹配,具体为:
首先,假设靶标的位姿是从固定参考坐标系出发,以一个恒定的速度twist积分指定的时间得到,这种运动类似于螺旋运动;因此可以采用线性预测来估计下一时刻靶标的位姿,
最后检查基于位姿预测的LED匹配关系是否正确;选取3个匹配好的点对,使用P3P算法计算出4个候选位姿;分别利用这4个候选位姿,计算剩余LED的重投影,检查它们中是否至少有75%低于重投影阈值;如果是,则认为基于位姿预测的LED匹配结果是正确的;如果不是,则使用基于组合遍历法的LED匹配重新初始化。
其中,所述步骤(3)具体为:
本发明的技术效果:
本发明设计一种基于“日盲区”波段的无人机相对位姿测量方法,能够有效克服气候条件、环境照度、自然光背景等条件影响,大幅度提升系统在多种环境下的适应性和稳定性,为无人机在复杂环境下的自主着降提供了一种新技术方案。
附图说明
附图大体上通过举例而不是限制的方式示出各种实施例,并且与说明书以及权利要求书一起用于对所发明的实施例进行说明。在适当的时候,在所有附图中使用相同的附图标记指代同一或相似的部分。这样的实施例是例证性的,而并非旨在作为本装置或方法的穷尽或排他实施例。
图1示出了本发明的系统工作模式示意图;
图2示出了本发明的相对位姿测量流程示意图。
具体实施方式
本发明提供的一种面向无人自主着降的相对位姿测量方法,包括以下步骤:
步骤(1)在无人机上安装固定垂直下视摄像机,以当前时刻采集合作靶标的图像、无人机前一时刻与靶标的相对位姿、当前时刻合作靶标中多个LED的物理坐标作为测量系统的输入;
步骤(2)当输入为当前时刻摄像机采集的合作靶标图像时,检测出图像中多个LED的像素坐标;
使用无人机前一时刻相对位姿,进行基于位姿预测的LED灯2D-3D匹配;如果匹配失败,则用组合遍历法重新确定图像中LED与合作靶标中LED的2D-3D匹配关系;
当输入为当前时刻合作靶标中多个LED的物理坐标时,直接进入下一步的处理;
步骤(3)使用匹配后的多组LED点对,以P3P算法的一个解作为位姿初值,迭代计算LED的重投影误差最小值,求解输出位姿优化估计值。
其中,所述步骤(1)中的在无人机上安装固定垂直下视摄像机为:
无人机搭载垂直朝下的摄像机,为了避免到日光干扰,成像器件配合窄带滤光片,将工作谱段限制在日盲区紫外波段,以消除自然背景光的干扰。
其中,所述步骤(1)中的合作靶标中多个LED的工作波段限制在200nm-280nm。
其中,所述步骤(2)中包括以下步骤:
步骤①当前时刻图像中多个LED的检测;
步骤②基于组合遍历法进行当前时刻图像中多个LED的匹配。
其中,在所述步骤①之前,还包括一个定义的过程:
其中,所述步骤①具体为:
LED为紫外LED,其波长与摄像机中的滤镜相匹配;因此,LED在图像中显得非常明亮,通过下述阈值函数检测出LED灯;
其中阈值参数threshold根据经验设置为125;
使用图像一阶矩来计算LED光斑中心,其定义为
其中,p、q分别取0或1;
图像中的LED检测的坐标为
其中,所述步骤②具体为:
由于图像的LED均体现为亮度较高的光斑,具有较大的相似性,因此无法直接区分不同的LED;
首先,在图像中选取3个检测到的LED像点,然后在靶标上选取3个LED物点,这样会有多种组合方式;
然后,利用P3P算法来计算每种组合;根据P3P算法的特点,每种组合会产生的四个候选位姿;对于每个候选位姿,将靶标上未参与P3P计算的LED再投影到摄像机图像中;如果该LED重投影像点与检测到的像点距离小于阈值,则认为此组LED匹配成功;
对于重投影距离阈值,通常使用像素;为了对异常值具有鲁棒性,为每个组合的LED配对生成一个计数直方图;当一个配对被认为是正确匹配,直方图就会加1;从直方图中可以找到最终对应关系,如表1的匹配关系直方图统计表格所示;
表1 匹配关系直方图统计表格
靶标上的LED和图像中检测到的LED配对组合,用P3P算法来计算每种组合,将获得N个候选位姿,
其中,C、P分别表示组合、排列;
在实际工程中,迭代搜索直方图中最大的数字,并取对应的靶标LED和图像检测LED作为配对,然后在后续的迭代中忽略这一列。
其中,所述步骤(2)中的基于位姿预测的LED灯2D-3D匹配,具体为:
首先,假设靶标的位姿是从固定参考坐标系出发,以一个恒定的速度twist积分指定的时间得到,这种运动类似于螺旋运动;因此可以采用线性预测来估计下一时刻靶标的位姿,
最后检查基于位姿预测的LED匹配关系是否正确;选取3个匹配好的点对,使用P3P算法计算出4个候选位姿;分别利用这4个候选位姿,计算剩余LED的重投影,检查它们中是否至少有75%低于重投影阈值;如果是,则认为基于位姿预测的LED匹配结果是正确的;如果不是,则使用基于组合遍历法的LED匹配重新初始化。
其中,所述步骤(3)具体为:
请参阅图1、图2。
以上所述,仅为本发明优选的具体实施方式,但本发明的保护范围不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围之内。
Claims (9)
1.一种面向无人自主着降的相对位姿测量方法,其特征在于,包括以下步骤:
步骤(1)在无人机上安装固定垂直下视摄像机,以当前时刻采集合作靶标的图像、无人机前一时刻与靶标的相对位姿、当前时刻合作靶标中多个LED的物理坐标作为测量系统的输入;
步骤(2)当输入为当前时刻摄像机采集的合作靶标图像时,检测出图像中多个LED的像素坐标;
使用无人机前一时刻相对位姿,进行基于位姿预测的LED灯2D-3D匹配;如果匹配失败,则用组合遍历法重新确定图像中LED与合作靶标中LED的2D-3D匹配关系;
步骤(3)使用匹配后的多组LED点对,以P3P算法的一个解作为位姿初值,迭代计算LED的重投影误差最小值,求解输出位姿优化估计值。
2.根据权利要求1所述的方法,其特征在于,所述步骤(1)中的在无人机上安装固定垂直下视摄像机为:
无人机搭载垂直朝下的摄像机,为了避免到日光干扰,成像器件配合窄带滤光片,将工作谱段限制在日盲区紫外波段,以消除自然背景光的干扰。
3.根据权利要求1所述的方法,其特征在于,所述步骤(1)中的合作靶标中多个LED的工作波段限制在200nm-280nm。
4.根据权利要求1所述的方法,其特征在于,所述步骤(2)中包括以下步骤:
步骤①当前时刻图像中多个LED的检测;
步骤②基于组合遍历法进行当前时刻图像中多个LED的匹配。
7.根据权利要求4所述的方法,其特征在于,所述步骤②具体为:
由于图像的LED均体现为亮度较高的光斑,具有较大的相似性,因此无法直接区分不同的LED;
首先,在图像中选取3个检测到的LED像点,然后在靶标上选取3个LED物点,这样会有多种组合方式;
然后,利用P3P算法来计算每种组合;根据P3P算法的特点,每种组合会产生的四个候选位姿;对于每个候选位姿,将靶标上未参与P3P计算的LED再投影到摄像机图像中;如果该LED重投影像点与检测到的像点距离小于阈值,则认为此组LED匹配成功;
靶标上的LED和图像中检测到的LED配对组合,用P3P算法来计算每种组合,将获得N个候选位姿,
其中,C、P分别表示组合、排列计算;
在实际工程中,迭代搜索直方图中最大的数字,并取对应的靶标LED和图像检测LED作为配对,然后在后续的迭代中忽略这一列。
8.根据权利要求1所述的方法,其特征在于,所述步骤(2)中的基于位姿预测的LED灯2D-3D匹配,具体为:
首先,假设靶标的位姿是从固定参考坐标系出发,以一个恒定的速度twist积分指定的时间得到,这种运动类似于螺旋运动;因此可以采用线性预测来估计下一时刻靶标的位姿,
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211321758.6A CN115451920B (zh) | 2022-10-27 | 2022-10-27 | 一种面向无人自主着降的相对位姿测量方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211321758.6A CN115451920B (zh) | 2022-10-27 | 2022-10-27 | 一种面向无人自主着降的相对位姿测量方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115451920A true CN115451920A (zh) | 2022-12-09 |
CN115451920B CN115451920B (zh) | 2023-03-14 |
Family
ID=84310612
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211321758.6A Active CN115451920B (zh) | 2022-10-27 | 2022-10-27 | 一种面向无人自主着降的相对位姿测量方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115451920B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104732518A (zh) * | 2015-01-19 | 2015-06-24 | 北京工业大学 | 一种基于智能机器人地面特征的ptam改进方法 |
CN107202982A (zh) * | 2017-05-22 | 2017-09-26 | 徐泽宇 | 一种基于无人机位姿计算的信标布置及图像处理方法 |
CN110799921A (zh) * | 2018-07-18 | 2020-02-14 | 深圳市大疆创新科技有限公司 | 拍摄方法、装置和无人机 |
CN113808152A (zh) * | 2021-09-14 | 2021-12-17 | 南京信息工程大学 | 一种基于orb_slam2的无人机自主导航方法 |
WO2022070184A1 (en) * | 2020-10-01 | 2022-04-07 | Rafael Advanced Defense Systems Ltd. | System and method for visual localization |
CN114812513A (zh) * | 2022-05-10 | 2022-07-29 | 北京理工大学 | 一种基于红外信标的无人机定位系统及方法 |
-
2022
- 2022-10-27 CN CN202211321758.6A patent/CN115451920B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104732518A (zh) * | 2015-01-19 | 2015-06-24 | 北京工业大学 | 一种基于智能机器人地面特征的ptam改进方法 |
CN107202982A (zh) * | 2017-05-22 | 2017-09-26 | 徐泽宇 | 一种基于无人机位姿计算的信标布置及图像处理方法 |
CN110799921A (zh) * | 2018-07-18 | 2020-02-14 | 深圳市大疆创新科技有限公司 | 拍摄方法、装置和无人机 |
WO2022070184A1 (en) * | 2020-10-01 | 2022-04-07 | Rafael Advanced Defense Systems Ltd. | System and method for visual localization |
CN113808152A (zh) * | 2021-09-14 | 2021-12-17 | 南京信息工程大学 | 一种基于orb_slam2的无人机自主导航方法 |
CN114812513A (zh) * | 2022-05-10 | 2022-07-29 | 北京理工大学 | 一种基于红外信标的无人机定位系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN115451920B (zh) | 2023-03-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109685066B (zh) | 一种基于深度卷积神经网络的矿井目标检测与识别方法 | |
CN110426046B (zh) | 一种无人机自主着陆跑道区域障碍物判断与跟踪方法 | |
CN106092090B (zh) | 一种用于室内移动机器人定位的红外路标及其使用方法 | |
He et al. | Color-based road detection in urban traffic scenes | |
CN106097304B (zh) | 一种无人机实时在线地图生成方法 | |
CN110458161B (zh) | 一种结合深度学习的移动机器人门牌定位方法 | |
CN111598952B (zh) | 一种多尺度合作靶标设计与在线检测识别方法及系统 | |
CN110874100A (zh) | 用于使用视觉稀疏地图进行自主导航的系统和方法 | |
Lebedev et al. | Accurate autonomous uav landing using vision-based detection of aruco-marker | |
CN101359400A (zh) | 一种基于视觉的管口空间位置定位方法 | |
CN107886541B (zh) | 基于反向投影法的单目运动目标位姿实时测量方法 | |
CN110174092B (zh) | 一种基于红外编码靶标的密集集群相对定位方法 | |
Tsalatsanis et al. | Vision based target tracking and collision avoidance for mobile robots | |
CN109697428B (zh) | 基于rgb_d和深度卷积网络的无人机识别定位系统 | |
CN109949229A (zh) | 一种多平台多视角下的目标协同检测方法 | |
CN107097256B (zh) | 基于视觉非完整机器人在极坐标下的无模型目标跟踪方法 | |
Fan et al. | Vision algorithms for fixed-wing unmanned aerial vehicle landing system | |
CN108106617A (zh) | 一种无人机自动避障方法 | |
CN114721001A (zh) | 一种基于多传感器融合的移动机器人定位方法 | |
Xiao-Hong et al. | UAV's automatic landing in all weather based on the cooperative object and computer vision | |
CN115451920B (zh) | 一种面向无人自主着降的相对位姿测量方法 | |
Bian et al. | A robust vanishing point detection method for UAV autonomous power line inspection | |
CN116185049A (zh) | 基于视觉引导的无人直升机自主着舰方法 | |
Li et al. | Visual localization and object tracking for the NAO robot in dynamic environment | |
Jiaxin et al. | Vision-based autonomous landing of unmanned aerial vehicles |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |