CN102914302B - 一种无人机着陆视觉导航合作目标鲁棒检测方法 - Google Patents

一种无人机着陆视觉导航合作目标鲁棒检测方法 Download PDF

Info

Publication number
CN102914302B
CN102914302B CN201210336686.2A CN201210336686A CN102914302B CN 102914302 B CN102914302 B CN 102914302B CN 201210336686 A CN201210336686 A CN 201210336686A CN 102914302 B CN102914302 B CN 102914302B
Authority
CN
China
Prior art keywords
angle point
mpp
cooperative target
point
profile
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201210336686.2A
Other languages
English (en)
Other versions
CN102914302A (zh
Inventor
马旭
程咏梅
郝帅
赵建涛
王涛
睢志佳
孔若男
宋林
刘楠
杜立一
阮小明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN201210336686.2A priority Critical patent/CN102914302B/zh
Publication of CN102914302A publication Critical patent/CN102914302A/zh
Application granted granted Critical
Publication of CN102914302B publication Critical patent/CN102914302B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及一种无人机着陆视觉导航合作目标鲁棒检测方法,解决了机载摄像机拍摄的合作目标畸变大以及图像中含有很多非合作目标,而造成合作目标难以准确检测的问题。设计了以红色方形作为大背板,用荧光绿色的H和小正三角形作为合作目标,提出MPP法和Harris法相结合的角点检测算法来实现合作目标在复杂环境以及大尺度畸变时角点的精确检测,该方法有效的结合了Harris角点检测精度高以及MPP法角点具有方向性的优点。与传统的无人机视觉导航着陆合作目标检测方案相比,本发明不仅易于实现,而且可以有效地解决复杂背景大尺度畸变情况下的合作目标检测问题。不仅提高了检测的准确性,而且便于工程实现,对无人机自主安全着陆具有重要的意义。

Description

一种无人机着陆视觉导航合作目标鲁棒检测方法
技术领域
本发明是一种面向工程应用的视觉导航技术,归属于导航技术领域,具体涉及一种无人机着陆视觉导航合作目标鲁棒检测方法。
背景技术
计算机视觉技术由于其无源、自主以及信息量大等优点,在许多领域都有广泛的应用。利用视觉传感器与其它传感器相结合的机载自主着陆导航方式成为近年来的研究热点。国内外很多研究机构都对此项工作展开了研究,如国外的加州的伯克利分校、南加州大学、佛罗里达大学等,国内的西工大、北航、南航以及清华大学等。对于合作目标的检测是整个视觉导航着陆方法中最为关键的部分,它的检测精度和速度直接影响着导航参数的解算性能。
目前,国内外的研究机构通过自己设计的特征图案可以完成合作目标的检测,通常适用于背景较单纯,合作目标拍摄理想的情况下。由于机载摄像机受到飞机姿态的影响很可能使拍摄到的合作目标出现大尺度畸变,而且所拍摄到的背景会有很多非合作目标,以及其他干扰因素,对此,在目前的研究成果尚未发现合适的检测方法。
发明内容
要解决的技术问题
为了避免现有技术的不足之处,本发明提出一种无人机着陆视觉导航合作目标鲁棒检测方法,
技术方案
一种无人机着陆视觉导航合作目标鲁棒检测方法,其特征在于步骤如下:
步骤1合作目标的设计:采用红色方形作为大背板,用荧光绿色的H和小正三角形作为合作目标,并将小正三角形放置于H形斜下方45度方向;
步骤2图像预处理:采用自适应阈值分割对图像进行阈值分割,R(i,j)>90&&R(i,j)^2>2*(G(i,j)^2+B(i,j)^2);然后进行中值滤波,腐蚀以及膨胀预处理,分离出目标和背景;其中,R(i,j)、G(i,j)和B(i,j)分别为图像的红色、绿色以及蓝色分量;
步骤3合作目标提取:对图像进行边缘提取,在提取的边缘中选取封闭轮廓并按轮廓周长从大到小排序,其中最长的为红色背板轮廓,次长的为H形轮廓,另一个为正三角形轮廓;
步骤4对H形轮廓进行MPP角点检测:利用MPP法对H形轮廓提取角点,得到具有顺时针方向的角点;
步骤5H形轮廓上MPP角点初始位置的确定:将正三角形轮廓上每个点的横、纵坐标分别求和,然后除以轮廓上的点数得到小三角形上的重心;在H形轮廓上的MPP点找出距离该重心最近的MPP点,以该点作为起点,将H形上的MPP点按顺时针重新排序;
步骤6:以斜率和距离双重约束剔除MPP角点中的伪角点,得到所需数目的MPP角点;
斜率约束:设x(i-1)、x(i)、x(i+1)分别为前一角点、当前角点以及下一角点的横坐标,y(i-1)、y(i)、y(i+1)为对应点的纵坐标,k1、k2分别为当前角点和前一角点连线的向量,下一角点和当前角点连线的向量,k为k1与k2的夹角余弦值,夹角取值范围为0到180度,表达式如下:
k1=(x(i-1)-x(i),y(i-1)-y(i))
k2=(x(i)-x(i+1),y(i)-y(i+1))
k = k 1 · k 2 | k 1 | · | k 2 |
给定斜率值记为Thresh,当满足k>Thresh时,将当前角点记为待剔除角点;
距离约束:将待剔除的角点与前一角点求距离,如果他们之间的距离小于所设定的距离阈值则将该待剔除的角点剔除,否则保留该角点;距离约束的条件表达式如下:
(x(i)-x(i-1))2+(y(i)-y(i-1))2<Dis
其中Dis为设定的距离阈值;
步骤7:对H形轮廓进行Harris角点提取;
步骤8:将Harris提取的角点和经过约束后的MPP角点进行匹配,其匹配原则是将MPP法的每一个角点找到与它对应距离最小的Harris角点,按顺时针排列Harris角点,最终得到精度高并具有方向性的H形角点。
所述Thresh选为0.9。
所述Dis选取为10。
有益效果
本发明提出的一种无人机着陆视觉导航合作目标鲁棒检测方法,在复杂背景下以及合作目标发生大尺度畸变时,对合作目标精确检测的方法。本发明以无人机自主安全着陆为研究背景,为解决机载摄像机拍摄的合作目标畸变大以及图像中含有很多非合作目标的问题,设计了一种Harris法结合MPP法的角点检测算法,该方法有效的结合了Harris角点检测精度高以及MPP法角点具有方向性的优点,使得本发明可以在复杂背景下以及合作目标出现大尺度畸变时都可以完成合作目标鲁棒检测,实现旋翼无人机安全、自主着陆。该方法检测精度高、抗干扰能力强、实时性好以及工程上易于实现,对基于视觉导航的无人机着陆方法具有重要的指导意义。
本发明方案与传统无人机视觉导航着陆合作目标检测系统相比具有以下优势:
1、可以解决复杂背景下,拍摄的合作目标出现大尺度畸变条件下,合作目标精确检测问题。
2、本方案所提供的测试方法,可以为真实飞机着陆提供地面数据的前期验证以及前期数据优化与性能改进工作。
3、本方案的实施,解决了飞机着陆精度差、需要昂贵的辅助设备引导问题。
4、本方案实施方便、灵活,具有发展前景以及工程应用价值。
附图说明
图1:无人机着陆视觉导航合作目标鲁棒检测方法原理图
具体实施方式
现结合实施例、附图对本发明作进一步描述:
以下对本发明方法作进一步具体的描述,各部分具体实施步骤细节如下:
1.合作目标的设计
采用红色方形作为大背板,用荧光绿色的H和小正三角形作为合作目标,并将小正三角形放置于H形斜下方45度方向。
2.图像预处理
对图像进行阈值分割,中值滤波,腐蚀以及膨胀等预处理,以分离出目标和背景。阈值分割方法采用自适应阈值分割,公式如下所示:
R(i,j)>90&&R(i,j)^2>2*(G(i,j)^2+B(i,j)^2)    (1)
其中,R(i,j)、G(i,j)和B(i,j)分别为图像的红色、绿色以及蓝色分量。
3.合作目标的提取
在图像预处理完后,对图像进行边缘提取,在提取的边缘中选取封闭轮廓并按轮廓周长从大到小排序,其中最长的为红色背板轮廓,次长的为H形轮廓,另一个为正三角形轮廓。
4.利用MPP法检测合作目标角点
在得到H形和小三角形轮廓后,利用MPP法检测H形轮廓角点。MPP法的原理在冈萨雷斯出版的《数字图像处理》一书中有详细的理论介绍,MPP法的主要思想是是首先对合作目标图像进行轮廓跟踪,本发明采用的是Freeman跟踪法,其中采用的是8-方向链码,然后利用最小多边形周长原理,提取合作目标轮廓上检测出来的角点。该方法可以保证提取的角点在合作目标上而且具有方向性,受噪声影响小,有很强的鲁棒性,但是其主要缺点是会检测出合作目标边缘上的一些伪角点,而且检测出的角点可能存在一些偏差。
5.将MPP法检测到角点进行排序
由于MPP法检测出的角点顺序是随机排列的,当合作目标发生尺度畸变后,其角点的顺序难以确定。本发明利用小三角形信息来对MPP法提取的角点排序。即将正三角形轮廓上每个点的横、纵坐标分别求和然后除以轮廓上的点数,就可得到小三角形上的重心。在H形轮廓上的MPP点找出距离该重心最近的MPP点,以该点作为起点,将H形上的MPP点按顺时针重新排序,即可得到所需的顺序。
6.剔除MPP法检测出的伪角点
由于在图像预处理阶段进行了滤波、边缘提取、以及为了防止边缘断裂而进行的边缘联通,使得MPP提取的角点中有很多伪角点,因此提出斜率约束和距离约束这双重约束剔除伪角点。
6.1斜率约束
设x(i-1)、x(i)、x(i+1)分别为前一角点、当前角点以及下一角点的横坐标,y(i-1)、y(i)、y(i+1)为对应点的纵坐标,k1、k2分别为当前角点和前一角点连线的向量,下一角点和当前角点连线的向量,k为k1与k2的夹角余弦值,夹角取值范围为0到180度。表达式如式(2)、(3)和(4)所示。
k1=(x(i-1)-x(i),y(i-1)-y(i))    (2)
k2=(x(i)-x(i+1),y(i)-y(i+1))    (3)
k = k 1 · k 2 | k 1 | · | k 2 | - - - ( 6 )
给定斜率值记为Thresh,当满足(5)式时,把当前角点记为待剔除角点,本发明Thresh选取为0.9。
k>Thresh    (5)
6.2距离约束
将待剔除的角点与前一角点求距离,如果他们之间的距离小于所设定的距离阈值则将该待剔除的角点剔除,否则保留该角点。距离约束的条件表达式如式(6)所示,其中Dis为设定的距离阈值,本发明Dis选取为10。
(x(i)-x(i-1))2+(y(i)-y(i-1))2<Dis    (6)
经过斜率约束和距离约束后,得到所需的MPP角点。
5.对H形轮廓进行Harris角点提取
对H形轮廓进行Harris角点提取,其中Harris的主要原理是:取以目标像素点为中心的一个小窗口,计算窗口沿任何方向移动后的灰度变化,并用解析形式表达。设以像素点(x,y)为中心的小窗口在X方向上移动u,y方向上移动v,Harris给出了灰度变化度量的解析表达式:
E x , y = Σ w x , y ( I x | u , y | v - I x , y ) = Σ w x , y ( u ∂ I ∂ X + v ∂ I ∂ Y + o ( u 2 + v 2 ) ) 2 - - - ( 7 )
其中,Ex,y为窗口内的灰度变化度量;wx,y为窗口函数,一般定义为I为图像灰度函数,略去无穷小项有:
Ex,y=∑wx,y[u2(Ix)2+v2(Iy)2+2uvIxIy]=Au2+2Cuv+Bv2    (8)
将Ex,y化为二次型有:
E x , y = u v M u v - - - ( 9 )
M为实对称矩阵:
M = Σ w x , y I x 2 I x · I y I x · I y I y 2 - - - ( 10 )
通过对角化处理得到:
E x , y = R - 1 λ 1 0 0 λ 2 R - - - ( 11 )
其中,R为旋转因子,对角化处理后并不改变以u,v为坐标参数的空间曲面的形状,其特征值反应了两个主轴方向的图像表面曲率。当两个特征值均较小时,表明目标点附近区域为“平坦区域”;特征值一大一小时,表明特征点位于“边缘”上;只有当两个特征值均比较大时,沿任何方向的移动均将导致灰度的剧烈变化。Harris的角点响应函数(CRF)表达式由此而得到:
CRF(x,y)=det(M)-k(trace(M))2    (12)
其中:det(M)表示矩阵M的行列式,trace(M)表示矩阵的迹。当目标像素点的CRF值大于给定的阈值时,该像素点即为角点。Ix和Iy分别为x方向和y方向的梯度;为卷积;Det为矩阵的行列式;Tr为矩阵的迹;k为经验值,本发明取为0.06。该方法检测精度高,但是容易受到噪声干扰,而且当合作目标出现大尺度畸变时难以确定角点的顺序。
6.MPP角点与Harris角点的匹配。
在经过上述步骤后,将Harris提取的角点和经过约束后的MPP角点进行匹配,其匹配原则主要是将MPP法的每一个角点找到与它对应距离最小的Harris角点,从而可以得到按顺时针排序的Harris角点,最终就可以得到精度高并具有方向性的H形角点。
经过上述步骤,最终可以完成合作目标角点的精确、快速检测,实现整个旋翼无人机视觉导航自主着陆合作目标鲁棒检测。

Claims (3)

1.一种无人机着陆视觉导航合作目标鲁棒检测方法,其特征在于步骤如下:
步骤1:合作目标的设计:采用红色方形作为大背板,用荧光绿色的H和小正三角形作为合作目标,并将小正三角形放置于H形斜下方45度方向;
步骤2:图像预处理:采用自适应阈值分割对图像进行阈值分割,R(i,j)>90&&R(i,j)^2>2*(G(i,j)^2+B(i,j)^2);然后进行中值滤波,腐蚀以及膨胀预处理,分离出目标和背景;其中,R(i,j)、G(i,j)和B(i,j)分别为图像的红色、绿色以及蓝色分量;
步骤3:合作目标提取:对图像进行边缘提取,在提取的边缘中选取封闭轮廓并按轮廓周长从大到小排序,其中最长的为红色背板轮廓,次长的为H形轮廓,另一个为小正三角形轮廓;
步骤4:对H形轮廓进行MPP角点检测:利用MPP法对H形轮廓提取角点,得到具有顺时针方向的角点;
步骤5:H形轮廓上MPP角点初始位置的确定:将小正三角形轮廓上每个点的横、纵坐标分别求和,然后除以轮廓上的点数得到小正三角形上的重心;在H形轮廓上的MPP点找出距离该重心最近的MPP点,以该点作为起点,将H形上的MPP点按顺时针重新排序;
步骤6:以斜率和距离双重约束剔除MPP角点中的伪角点,得到所需数目的MPP角点;
斜率约束:设x(i-1)、x(i)、x(i+1)分别为前一角点、当前角点以及下一角点的横坐标,y(i-1)、y(i)、y(i+1)为对应点的纵坐标,k1、k2分别为当前角点和前一角点连线的向量,下一角点和当前角点连线的向量,k为k1与k2的夹角余弦值,夹角取值范围为0到180度,表达式如下:
k1=(x(i-1)-x(i),y(i-1)-y(i))
k2=(x(i)-x(i+1),y(i)-y(i+1))
k = k 1 · k 2 | k 1 | · | k 2 |
给定斜率值记为Thresh,当满足k>Thresh时,将当前角点记为待剔除角点;
距离约束:将待剔除的角点与前一角点求距离,如果它们之间的距离小于所设定的距离阈值则将该待剔除的角点剔除,否则保留该角点;距离约束的条件表达式如下:
(x(i)-x(i-1))2+(y(i)-y(i-1))2<Dis
其中Dis为设定的距离阈值;
步骤7:对H形轮廓进行Harris角点提取;
步骤8:将Harris提取的角点和经过约束后的MPP角点进行匹配,其匹配原则是将MPP法的每一个角点找到与它对应距离最小的Harris角点,按顺时针排列Harris角点,最终得到精度高并具有方向性的H形角点。
2.根据权利要求1所述无人机着陆视觉导航合作目标鲁棒检测方法,其特征在于:所述Thresh选为0.9。
3.根据权利要求1所述无人机着陆视觉导航合作目标鲁棒检测方法,其特征在于:所述Dis选取为10。
CN201210336686.2A 2012-09-12 2012-09-12 一种无人机着陆视觉导航合作目标鲁棒检测方法 Expired - Fee Related CN102914302B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210336686.2A CN102914302B (zh) 2012-09-12 2012-09-12 一种无人机着陆视觉导航合作目标鲁棒检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210336686.2A CN102914302B (zh) 2012-09-12 2012-09-12 一种无人机着陆视觉导航合作目标鲁棒检测方法

Publications (2)

Publication Number Publication Date
CN102914302A CN102914302A (zh) 2013-02-06
CN102914302B true CN102914302B (zh) 2015-04-29

Family

ID=47612774

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210336686.2A Expired - Fee Related CN102914302B (zh) 2012-09-12 2012-09-12 一种无人机着陆视觉导航合作目标鲁棒检测方法

Country Status (1)

Country Link
CN (1) CN102914302B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104197928B (zh) * 2014-08-29 2017-01-18 西北工业大学 多摄像机协同的无人机检测、定位及跟踪方法
CN106500699B (zh) * 2016-05-25 2019-06-18 上海铸天智能科技有限公司 一种适用于无人机室内自主降落的位姿估计方法
CN107544550B (zh) * 2016-06-24 2021-01-15 西安电子科技大学 一种基于视觉引导的无人机自动着陆方法
CN106546233A (zh) * 2016-10-31 2017-03-29 西北工业大学 一种面向合作目标的单目视觉定位方法
CN107202982B (zh) * 2017-05-22 2018-08-07 徐泽宇 一种基于无人机位姿计算的信标布置及图像处理方法
CN107677274B (zh) * 2017-09-12 2019-02-19 西北工业大学 基于双目视觉的无人机自主着陆导航信息实时解算方法
CN110083177A (zh) * 2019-05-06 2019-08-02 湖北汽车工业学院 一种基于视觉着陆的四旋翼飞行器及控制方法
CN111145198B (zh) * 2019-12-31 2023-06-30 哈尔滨智兀科技有限公司 一种基于快速角点检测的非合作目标运动估计方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1916801A (zh) * 2005-10-28 2007-02-21 南京航空航天大学 无人机自主着陆的合作目标识别方法
CN102156480A (zh) * 2010-12-30 2011-08-17 清华大学 基于自然地标和视觉导航的无人直升机自主着陆方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1916801A (zh) * 2005-10-28 2007-02-21 南京航空航天大学 无人机自主着陆的合作目标识别方法
CN102156480A (zh) * 2010-12-30 2011-08-17 清华大学 基于自然地标和视觉导航的无人直升机自主着陆方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Stereo Vision based Relative Pose and Motion Estimation for Unmanned Helicopter Landing;Cui Xu et al.;《Proceedings of the 2006 IEEE International Conference on Information Acquisition》;20060823;31-36 *
Vision-based Autonomous Landing of an Unmanned Aerial Vehicle;Srikanth Saripalli et al.;《Proceedings of the 2002 IEEE International Conference on Robotics & Automation》;20020531;2799-2804 *
无人机视觉着舰导航鲁棒角点精确检测算法;郝帅等;《系统工程与电子技术》;20130630;第35卷(第6期);1262-1267 *

Also Published As

Publication number Publication date
CN102914302A (zh) 2013-02-06

Similar Documents

Publication Publication Date Title
CN102914302B (zh) 一种无人机着陆视觉导航合作目标鲁棒检测方法
CN106355151B (zh) 一种基于深度置信网络的三维sar图像目标识别方法
CN103353988B (zh) 异源sar景象特征匹配算法性能评估方法
CN106874894A (zh) 一种基于区域全卷积神经网络的人体目标检测方法
CN105139412A (zh) 一种高光谱图像角点检测方法与系统
CN102651132B (zh) 一种基于交叉视觉皮质模型的医学图像配准方法
Kang et al. SFR-Net: Scattering feature relation network for aircraft detection in complex SAR images
CN110309747A (zh) 一种支持多尺度快速深度行人检测模型
CN103226196B (zh) 基于稀疏特征的雷达目标识别方法
CN106096506A (zh) 基于子类类间判别双字典的sar目标识别方法
CN110189304A (zh) 基于人工智能的光学遥感图像目标在线快速检测方法
CN110516525A (zh) 基于gan和svm的sar图像目标识别方法
CN103955701A (zh) 多层次结合的多视合成孔径雷达图像目标识别方法
CN105138983B (zh) 基于加权部件模型和选择性搜索分割的行人检测方法
CN103886337A (zh) 基于多稀疏描述的最近邻子空间sar目标识别方法
CN102945374A (zh) 一种高分辨率遥感图像中民航飞机自动检测方法
CN109034213B (zh) 基于相关熵原则的高光谱图像分类方法和系统
CN101964060A (zh) 基于局部纹理特征的sar变体目标识别方法
CN110110618A (zh) 一种基于pca和全局对比度的sar目标检测方法
CN107133648A (zh) 基于自适应多尺度融合稀疏保持投影的一维距离像识别方法
CN106897730B (zh) 基于融合类别信息与局部保持投影的sar目标型号识别方法
CN112949380B (zh) 一种基于激光雷达点云数据的智能水下目标识别系统
Liu et al. A Multi-scale Feature Pyramid SAR Ship Detection Network with Robust Background Interference
CN116778341A (zh) 一种雷达图像多视角特征提取与鉴别方法
CN109977892A (zh) 基于局部显著性特征和cnn-svm的舰船检测方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20150429

Termination date: 20150912

EXPY Termination of patent right or utility model