CN105225232A - 一种基于视觉注意机制的彩色着舰合作目标检测方法 - Google Patents

一种基于视觉注意机制的彩色着舰合作目标检测方法 Download PDF

Info

Publication number
CN105225232A
CN105225232A CN201510577905.XA CN201510577905A CN105225232A CN 105225232 A CN105225232 A CN 105225232A CN 201510577905 A CN201510577905 A CN 201510577905A CN 105225232 A CN105225232 A CN 105225232A
Authority
CN
China
Prior art keywords
image
cooperative target
warship
colour
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510577905.XA
Other languages
English (en)
Other versions
CN105225232B (zh
Inventor
郝帅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian University of Science and Technology
Original Assignee
Xian University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian University of Science and Technology filed Critical Xian University of Science and Technology
Priority to CN201510577905.XA priority Critical patent/CN105225232B/zh
Publication of CN105225232A publication Critical patent/CN105225232A/zh
Application granted granted Critical
Publication of CN105225232B publication Critical patent/CN105225232B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于视觉注意机制的彩色着舰合作目标检测方法,包括步骤:一、着舰区域图像获取:采用图像采集设备获取着舰区域的图像,并将所获取图像同步传送至处理器进行处理;二、合作目标图像处理:对各采样时刻所获取的图像分别进行处理,过程如下:201、图像颜色空间转换;202、基于显著性区域的图像分割;203、基于三重约束的合作目标检测:调用三重约束检测模块,从候选合作目标图像中识别出彩色着舰合作目标,包括步骤:尺寸约束、颜色约束和形状约束。本发明方法步骤简单、设计合理且实现方便、检测精度高、使用效果好,能在光线发生变化以及合作目标图像存在大尺度、角度畸变情况下实现合作目标的精确、鲁棒检测。

Description

一种基于视觉注意机制的彩色着舰合作目标检测方法
技术领域
本发明属于视觉导航技术领域,尤其是涉及一种基于视觉注意机制的彩色着舰合作目标检测方法。
背景技术
视觉相对导航以其自主性强、无源、引导精度高等优点,使得基于视觉引导无人机着舰技术成为国内外一个重要研究领域。并且,利用计算机视觉技术引导无人机自主着舰是国内外一个研究热点。其中,对着舰合作目标进行准确检测是无人机利用视觉进行着舰相对导航的一个关键步骤。国内外很多研究机构都对此项工作展开了研究,如国外的加州伯克利分校、南加州大学、佛罗里达大学等,国内的西工大、北航、南航以及清华大学等。研究中,研究人员往往选择合作目标的颜色与背景差异较大,以便于检测;然后,根据所设计合作目标的颜色特征设置一个固定阈值,认为不满足阈值条件的是非合作目标,满足阈值条件的是候选合作目标;再通过一些约束条件(如形状约束等)从候选合作目标中识别出所要的合作目标。然而当光线变化以及无人机着降过程中获取的目标图像存在尺度、角度畸变等情况,利用固定阈值的方法往往会检测出很多非合作目标或是无法检测出合作目标,造成后续图像处理算法难度增大,鲁棒性差。
视觉注意实质上是一种生物机制,这种机制能够从外界复杂的环境中选出重要的和所需要关注的信息,逐步排除相对不重要的信息,通过这种方式能够将十分复杂的外界视觉场景进行简化和分解,进而在接下来对重要的信息进行进一步处理。这种机制的优势在于它能够使得我们在十分复杂的外界视觉场景环境中,可以十分迅速的注意所需要关注的重要的信息和物体。因而,需设计一种方法步骤简单、设计合理且实现方便、使用效果好的基于视觉注意机制的彩色着舰合作目标检测方法,能在光线发生变化以及合作目标图像存在大尺度、角度畸变情况下实现合作目标的精确、鲁棒检测,检测精度高、抗干扰能力强、实时性好且易于实现。
发明内容
本发明所要解决的技术问题在于针对上述现有技术中的不足,提供一种基于视觉注意机制的彩色着舰合作目标检测方法,其方法步骤简单、设计合理且实现方便、检测精度高、使用效果好,能在光线发生变化以及合作目标图像存在大尺度、角度畸变情况下实现合作目标的精确、鲁棒检测。
为解决上述技术问题,本发明采用的技术方案是:一种基于视觉注意机制的彩色着舰合作目标检测方法,其特征在于该方法包括以下步骤:
步骤一、着舰区域图像获取:采用图像采集设备且按照预先设计的采样频率,获取着舰区域的图像,并将所获取图像同步传送至处理器进行处理;所获取图像中包含彩色着舰合作目标的图像;所述图像采集设备与所述处理器相接;
所述彩色着舰合作目标由红色矩形背板和位于红色矩形背板上的绿色H形目标与绿色正三角形目标组成,所述绿色正三角形目标位于所述绿色H形目标一侧;所述绿色H形目标为涂覆于红色矩形背板上的绿色H形涂层、放置于红色矩形背板上的绿色H形板或平铺在红色矩形背板上的绿色H形平铺层,所述绿色正三角形目标为涂覆于红色矩形背板上的绿色正三角形涂层、放置于红色矩形背板上的绿色正三角形板或平铺在红色矩形背板上的绿色正三角形平铺层;
步骤二、合作目标图像处理:采用所述处理器,同步对步骤一中各采样时刻所获取的图像分别进行处理,各采样时刻所获取图像的处理方法均相同;对任一个采样时刻所获取的图像进行处理时,过程如下:
步骤201、图像颜色空间转换:调用图像颜色空间转换模块,将待处理图像由RGB颜色空间转换到CIELab颜色空间,获得待处理图像的CIELab颜色空间图像;
步骤二、合作目标图像处理:采用所述处理器,同步对步骤一中各采样时刻所获取的图像分别进行处理,各采样时刻所获取图像的处理方法均相同;对任一个采样时刻所获取的图像进行处理时,过程如下:
步骤201、图像颜色空间转换:调用图像颜色空间转换模块,将待处理图像由RGB颜色空间转换到CIELab颜色空间,获得待处理图像的CIELab颜色空间图像;
步骤202、基于显著性区域的图像分割:调用图像分割模块,先从步骤201中所述CIELab颜色空间图像中提取出a通道图像,再对提取出的a通道图像进行图像显著性检测,并检测出所提取a通道图像中的多个图像显著性区域;再根据所检测出的多个所述图像显著性区域,对所提取a通道图像进行图像分割,获得候选合作目标图像;
所述候选合作目标图像中包括多个候选合作目标的图像区域,多个所述候选合作目标的图像区域分别与多个所述图像显著性区域一一对应;
步骤203、基于三重约束的合作目标检测:调用三重约束检测模块,从步骤202中所述候选合作目标图像中识别出所述彩色着舰合作目标的图像,包括以下步骤:
步骤2031、尺寸约束:调用尺寸约束模块,且根据步骤一中所述彩色着舰合作目标的实际尺寸,计算出所述彩色着舰合作目标的图像面积和图像外接圆半径radius;
步骤2032、颜色约束:调用颜色约束模块,先从步骤202中所述候选合作目标图像中,找出多个所述候选合作目标的图像区域;再分别以各候选合作目标的图像区域的几何中心点为圆心且以R为半径截取多个圆形图像区域,并对多个所述圆形图像区域的显著值均值分别进行计算;按照显著值均值从大到小的顺序,对多个所述圆形图像区域进行排序,并将排序后的前N个所述圆形图像区域均作为待识别图像区域;
其中,R=(1~1.1)×radius;N为正整数且N=2~5;
步骤2033、形状约束:调用Hu矩计算模块,分别计算出步骤2032中N个所述待识别图像区域的七个不变矩特征;再结合预先计算得出的所述彩色着舰合作目标的Hu矩参考值,从N个所述待识别图像区域中找出所述彩色着舰合作目标的图像;
所述Hu矩参考值为采用所述图像采集设备获取所述彩色着舰合作目标的图像,并调用所述Hu矩计算模块计算得出的所获取图像的七个不变矩特征。
上述一种基于视觉注意机制的彩色着舰合作目标检测方法,其特征是:步骤一中所述绿色正三角形目标位于所述绿色H形目标的斜下方。
上述一种基于视觉注意机制的彩色着舰合作目标检测方法,其特征是:步骤201中进行图像颜色空间转换时,根据公式 L = 116 f ( Y ) - 16 a = 500 [ f ( X 0.982 ) - f ( Y ) ] b = 200 [ f ( Y ) - f ( Z 1.183 ) ] ( 1 ) , 进行计算;公式(1)中,L、a和b分别为转换后的CIELab颜色空间图像中对应三个通道的灰度值; X = 0.49 × R + 0.31 × G + 0.2 × B Y = 0.177 × R + 0.812 × G + 0.011 × B Z = 0.01 × G + 0.99 × B , 其中函数 f ( ϵ ) = { 7.787 ϵ + 0.138 , ϵ ≤ 0.008856 ϵ 1 / 3 , ϵ > 0.008856 , ε为自变量;R、G和B分别为转换前的RGB颜色空间图像中红色、绿色和蓝色的灰度值。
上述一种基于视觉注意机制的彩色着舰合作目标检测方法,其特征是:步骤201中所提取a通道图像记作I(u,v);
步骤202中进行基于显著性区域的图像分割时,包括以下步骤:
步骤2021、幅值谱和相位谱求取:对所提取a通道图像I(u,v)进行二维离散傅里叶变换,得到所提取a通道图像I(u,v)的幅值谱A(f)和相位谱P(f),并求取幅值谱A(f)的log谱L(f);其中,A(f)=|F[Ia(u,v)]|,L(f)=ln(A(f));F[]为二维离散傅里叶变换,||为求取幅值,为求取相位;
步骤2022、谱残差计算:根据公式R(f)=L(f)-hn(f)*L(f)(2),求取所提取a通道图像I(u,v)的谱残差R(f);公式(2)中,*为卷积,hn(f)为一个n×n的方阵且其中,n为正整数且n≥3;
步骤2023、显著图生成:根据公式S(x)=|F-1[exp(R(f)+P(f))]2|(3),生成所提取a通道图像I(u,v)的显著图S(x);公式(3)中,F-1[]为求取二维离散傅里叶逆变换;
步骤2024、候选合作目标图像确定:根据公式 O ( x ) = 255 i f S ( x ) > T h r e s h o l d 0 o t h e r w i s e - - - ( 4 ) , 对显著图S(x)进行图像分割,获得候选合作目标图像O(x);公式(4)中,Thresh为图像分割判断阈值且Thresh=c×E(S(x)),E()为求取均值;其中c=2~3。
上述一种基于视觉注意机制的彩色着舰合作目标检测方法,其特征是:步骤2022中所述的n=3;步骤2024中所述候选合作目标图像O(x)中标记为“255”的区域为候选合作目标的图像区域,标记为“0”的区域为背景。
上述一种基于视觉注意机制的彩色着舰合作目标检测方法,其特征是:步骤一中所述彩色着舰合作目标为无人机的着舰合作目标;所述图像采集设备和所述处理器均安装在所述无人机上;
所述无人机上还安装有对所述图像采集设备与所述彩色着舰合作目标之间的距离进行测量的机载测距装置,所述机载测距装置与所述处理器相接。
上述一种基于视觉注意机制的彩色着舰合作目标检测方法,其特征是:步骤2031中进行尺寸约束时,根据所述机载测距装置测量出的所述图像采集设备与所述彩色着舰合作目标之间的距离D,并根据小孔成像原理推算出所述彩色着舰合作目标的图像面积cirS,cirS=u'×v';其中,所述彩色着舰合作目标的图像面积cirS为所述彩色着舰合作目标在步骤一中所获取图像中所占的面积,u'和v'分别为所述彩色着舰合作目标的图像中沿横坐标轴和纵坐标轴上的像素个数;
根据小孔成像原理对所述彩色着舰合作目标的图像面积cirS进行推算时,按照公式 u ′ = W × m 2 × D × t a n ( α 2 ) v ′ = L × n 2 × D × t a n ( β 2 ) - - - ( 5 ) , 计算得出u'和v';公式(5)中,f为所述图像采集设备的焦距,α和β分别为所述图像采集设备的水平视场角和垂直视场角,L和W分别为所述彩色着舰合作目标的长度和宽度且二者的单位均与D的单位相同;所述图像采集设备的分辨率为m×n;
再根据公式计算得出图像外接圆半径radius。
上述一种基于视觉注意机制的彩色着舰合作目标检测方法,其特征是:步骤2032中所述的N=3;所述圆形图像区域的显著值均值为该圆形图像区域内所有像素点的显著值均值,每个所述像素点的显著值均为步骤201中所提取a通道图像I(u,v)的显著图S(x)中该像素点的数值。
上述一种基于视觉注意机制的彩色着舰合作目标检测方法,其特征是:步骤2033中从N个所述待识别图像区域中找出所述彩色着舰合作目标的图像时,按照步骤2032中N个所述待识别图像区域的排序结果,由先至后对各待识别图像区域进行形状差异判断,直至找出形状差异参数d小于d0的待识别图像区域,所找出的待识别图像区域为所述彩色着舰合作目标的图像;其中,d0为预先设定的距离阈值;形状差异参数d为所述待识别图像区域的k个不变矩特征与所述Hu矩参考值中对应k个不变矩特征之间的欧式距离;其中,k为正整数且k≤7。
上述一种基于视觉注意机制的彩色着舰合作目标检测方法,其特征是:所述的k=4;所述形状差异参数d为所述待识别图像区域的前4个不变矩特征与所述Hu矩参考值中的前4个不变矩特征之间的欧式距离。
本发明与现有技术相比具有以下优点:
1、方法步骤简单、设计合理且实现方便,投入成本较低。
2、使用操作简便,采用处理器能自动、同步完成合作目标检测过程。
3、所采用的彩色着舰合作目标结构简单、设计合理且易于检测,能有效减小合作目标的检测难度,并能提高检测精度。
4、使用效果好,具有检测精度高、抗干扰能力强、实时性好且易于实现等优点,能在光线发生变化以及合作目标图像存在大尺度、角度畸变情况下实现合作目标的精确、鲁棒检测,工程上易于实现,对基于视觉的无人机着舰系统具有重要的指导意义。本发明以无人机自主安全着舰为研究背景,与传统的着舰合作目标检测方法相比,本发明实际使用时能解决光线变化以及合作目标图像发生尺度、角度畸变情况下,合作目标难以精确、鲁棒检测的问题,能为真实无人机视觉着舰时的着舰合作目标检测提供地面数据的前期验证以及前期数据优化与性能改进工作,实施方便、灵活,具有发展前景以及工程应用价值。
实际使用时,本发明根据所识别彩色着舰合作目标的尺寸、颜色以及形状特征,提出了由尺寸约束、颜色约束和形状约束构成的三重约束策略实现合作目标的鲁棒检测,最终能实现在光线变化条件下以及合作目标图像出现大尺度、角度变化情况下,彩色着舰合作目标的精确、鲁棒检测。本发明所采用的检测方法以以红色矩形作为大背板,用绿色(具体是荧光绿色)的H形和小正三角形构成的合作目标为研究对象,在视觉注意机制下结合该合作目标的尺寸信息、颜色信息和形状信息设计了一种合作目标鲁棒检测方法;与传统的着舰合作目标检测方法相比,本发明不仅易于工程实现,而且能在光线变化情况下以及合作目标图像存在大尺度、角度畸变条件下实现合作目标的准确、鲁棒检测,不仅检测精度高、鲁棒性强,而且为彩色着舰合作目标的鲁棒检测提供了一种新的思路,对无人机自主安全着舰具有重要的意义。
综上所述,本发明方法步骤简单、设计合理且实现方便、使用效果好,能在光线发生变化以及合作目标图像存在大尺度、角度畸变情况下实现合作目标的精确、鲁棒检测,检测精度高、抗干扰能力强、实时性好且易于实现。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
图1为本发明彩色着舰合作目标的结构示意图。
图2为本发明的方法流程框图。
附图标记说明:
1—红色矩形背板;2—绿色H形板;3—绿色正三角形板。
具体实施方式
如图2所示的一种基于视觉注意机制的彩色着舰合作目标检测方法,其特征在于该方法包括以下步骤:
步骤一、着舰区域图像获取:采用图像采集设备且按照预先设计的采样频率,获取着舰区域的图像,并将所获取图像同步传送至处理器进行处理;所获取图像中包含彩色着舰合作目标的图像;所述图像采集设备与所述处理器相接;
如图1所示,所述彩色着舰合作目标由红色矩形背板1和位于红色矩形背板1上的绿色H形目标与绿色正三角形目标组成,所述绿色正三角形目标位于所述绿色H形目标一侧;所述绿色H形目标为涂覆于红色矩形背板1上的绿色H形涂层、放置于红色矩形背板1上的绿色H形板2或平铺在红色矩形背板1上的绿色H形平铺层,所述绿色正三角形目标为涂覆于红色矩形背板1上的绿色正三角形涂层、放置于红色矩形背板1上的绿色正三角形板3或平铺在红色矩形背板1上的绿色正三角形平铺层;
步骤二、合作目标图像处理:采用所述处理器,同步对步骤一中各采样时刻所获取的图像分别进行处理,各采样时刻所获取图像的处理方法均相同;对任一个采样时刻所获取的图像进行处理时,过程如下:
步骤201、图像颜色空间转换:调用图像颜色空间转换模块,将待处理图像由RGB颜色空间转换到CIELab颜色空间,获得待处理图像的CIELab颜色空间图像;
步骤202、基于显著性区域的图像分割:调用图像分割模块,先从步骤201中所述CIELab颜色空间图像中提取出a通道图像,再对提取出的a通道图像进行图像显著性检测,并检测出所提取a通道图像中的多个图像显著性区域;再根据所检测出的多个所述图像显著性区域,对所提取a通道图像进行图像分割,获得候选合作目标图像;
所述候选合作目标图像中包括多个候选合作目标的图像区域,多个所述候选合作目标的图像区域分别与多个所述图像显著性区域一一对应;
步骤203、基于三重约束的合作目标检测:调用三重约束检测模块,从步骤202中所述候选合作目标图像中识别出所述彩色着舰合作目标的图像,包括以下步骤:
步骤2031、尺寸约束:调用尺寸约束模块,且根据步骤一中所述彩色着舰合作目标的实际尺寸,计算出所述彩色着舰合作目标的图像面积和图像外接圆半径radius;
步骤2032、颜色约束:调用颜色约束模块,先从步骤202中所述候选合作目标图像中,找出多个所述候选合作目标的图像区域;再分别以各候选合作目标的图像区域的几何中心点为圆心且以R为半径截取多个圆形图像区域,并对多个所述圆形图像区域的显著值均值分别进行计算;按照显著值均值从大到小的顺序,对多个所述圆形图像区域进行排序,并将排序后的前N个所述圆形图像区域均作为待识别图像区域;
其中,R=(1~1.1)×radius;N为正整数且N=2~5;
步骤2033、形状约束:调用Hu矩计算模块,分别计算出步骤2032中N个所述待识别图像区域的七个不变矩特征;再结合预先计算得出的所述彩色着舰合作目标的Hu矩参考值,从N个所述待识别图像区域中找出所述彩色着舰合作目标的图像;
所述Hu矩参考值为采用所述图像采集设备获取所述彩色着舰合作目标的图像,并调用所述Hu矩计算模块计算得出的所获取图像的七个不变矩特征。
本实施例中,所述绿色H形目标为放置于红色矩形背板1上的绿色H形板2,所述绿色正三角形目标为放置于红色矩形背板1上的绿色正三角形板3。
实际使用时,所述绿色H形目标也可以为涂覆于红色矩形背板1上的绿色H形涂层或平铺在红色矩形背板1上的绿色H形平铺层。所述绿色正三角形目标也可以为涂覆于红色矩形背板1上的绿色正三角形涂层或平铺在红色矩形背板1上的绿色正三角形平铺层。
本实施例中,步骤一中所述绿色正三角形目标位于所述绿色H形目标的斜下方。并且,所述绿色正三角形目标位于所述绿色H形目标的斜下方45°方向。
因而,所述绿色正三角形目标位于所述绿色H形目标的斜下方。实际使用时,可根据具体需要,对所述绿色正三角形目标的布设位置进行相应调整。所述绿色正三角形目标也可以位于所述绿色H形目标的斜下方。
需注意的是:所述绿色正三角形目标不能位于所述绿色H形目标的正上方、正下方、正左侧和正右侧。
本实施例中,步骤一中所述图像采集设备为彩色CCD相机。
并且,步骤一中所获取图像为RGB颜色空间图像。
本实施例中,步骤201中进行图像颜色空间转换时,根据公式 L = 116 f ( Y ) - 16 a = 500 [ f ( X 0.982 ) - f ( Y ) ] b = 200 [ f ( Y ) - f ( Z 1.183 ) ] - - - ( 1 ) , 进行计算;公式(1)中,L、a和b分别为转换后的CIELab颜色空间图像中对应三个通道的灰度值; X = 0.49 × R + 0.31 × G + 0.2 × B Y = 0.177 × R + 0.812 × G + 0.011 × B Z = 0.01 × G + 0.99 × B , 其中函数 f ( ϵ ) = { 7.787 ϵ + 0.138 , ϵ ≤ 0.008856 ϵ 1 / 3 , ϵ > 0.008856 , ε为自变量;R、G和B分别为转换前的RGB颜色空间图像中红色、绿色和蓝色的灰度值。
在CIELab颜色空间中,a通道为的是颜色从绿色到红色之间的变化。因而,步骤202中提取的是所述CIELab颜色空间图像中的a通道图像。由于步骤一中所述的彩色着舰合作目标由红色矩形背板1和绿色H形目标与绿色正三角形目标组成,该彩色着舰合作目标相对于周围环境具有更强的显著性,利用CIELab颜色空间的a通道图像生成基于谱残差的显著图,以便对候选合作目标图像进行提取。此处,将显著度值(也称为显著值)大于所设置阈值Thresh的区域作为候选合作目标图像。
本实施例中,步骤201中所提取a通道图像记作I(u,v);
步骤202中进行基于显著性区域的图像分割时,包括以下步骤:
步骤2021、幅值谱和相位谱求取:对所提取a通道图像I(u,v)进行二维离散傅里叶变换,得到所提取a通道图像I(u,v)的幅值谱A(f)和相位谱P(f),并求取幅值谱A(f)的log谱L(f);其中,A(f)=|F[Ia(u,v)]|,L(f)=ln(A(f));F[]为二维离散傅里叶变换,||为求取幅值,为求取相位;log谱L(f)也称为对数谱;
布骤2022、谱残差计算:根据公式R(f)=L(f)-hn(f)*L(f)(2),求取所提取a通道图像I(u,v)的谱残差R(f);公式(2)中,*为卷积,hn(f)为一个n×n的方阵且其中,n为正整数且n≥3;
步骤2023、显著图生成:根据公式S(x)=|F-1[exp(R(f)+P(f))]2|(3),生成所提取a通道图像I(u,v)的显著图S(x);公式(3)中,F-1[]为求取二维离散傅里叶逆变换;
步骤2024、候选合作目标图像确定:根据公式 O ( x ) = 255 i f S ( x ) > T h r e s h o l d 0 o t h e r w i s e - - - ( 4 ) , 对显著图S(x)进行图像分割,获得候选合作目标图像O(x);公式(4)中,Thresh为图像分割判断阈值且Thresh=c×E(S(x)),E()为求取均值;其中c=2~3。
步骤2024中所述候选合作目标图像O(x)中标记为“255”的区域为候选合作目标的图像区域,标记为“0”的区域为背景。
本实施例中,步骤2022中所述的n=3。
实际使用时,可根据具体需要,对n的取值大小进行相应调整。
本实施例中,步骤2024中所述的c=2.5。
实际使用时,可根据具体需要,对c的取值大小进行相应调整。
本实施例中,步骤一中所述彩色着舰合作目标为无人机的着舰合作目标;所述图像采集设备和所述处理器均安装在所述无人机上。
所述无人机上还安装有对所述图像采集设备与所述彩色着舰合作目标之间的距离进行测量的机载测距装置,所述机载测距装置与所述处理器相接。
本实施例中,步骤2031中进行尺寸约束时,根据所述机载测距装置测量出的所述图像采集设备与所述彩色着舰合作目标之间的距离D,并根据小孔成像原理推算出所述彩色着舰合作目标的图像面积cirS,cirS=u'×v';其中,所述彩色着舰合作目标的图像面积cirS为所述彩色着舰合作目标在步骤一中所获取图像中所占的面积,u'和v'分别为所述彩色着舰合作目标的图像中沿横坐标轴和纵坐标轴上的像素个数;
根据小孔成像原理对所述彩色着舰合作目标的图像面积cirS进行推算时,按照公式 u ′ = W × m 2 × D × t a n ( α 2 ) v ′ = L × n 2 × D × t a n ( β 2 ) - - - ( 5 ) , 计算得出u'和v';公式(5)中,f为所述图像采集设备的焦距,α和β分别为所述图像采集设备的水平视场角和垂直视场角,L和W分别为所述彩色着舰合作目标的长度和宽度且二者的单位均与D的单位相同;所述图像采集设备的分辨率为m×n;
再根据公式计算得出图像外接圆半径radius。
本实施例中,D、L和W的单位均为m。
实际操作过程中,由于所述彩色着舰合作目标的长度和宽度已知,利用所述机载测距装置测量彩色CCD相机相对于彩色着舰合作目标所在平面的距离D,通过小孔成像原理能简便推算出合作目标在图像中所占的面积cirS。
本实施例中,步骤2032中所述的N=3。
所述圆形图像区域的显著值均值为该圆形图像区域内所有像素点的显著值均值,每个所述像素点的显著值均为步骤201中所提取a通道图像I(u,v)的显著图S(x)中该像素点的数值。
由于生成的显著图S(x)中,可能受噪声干扰使得获取的图像显著图中显著性最大的区域不止一个,考虑到彩色着舰合作目标具有较强的颜色显著信息,因而在显著性最大区域处的合作目标大小范围(即所述圆形图像区域)内,所述彩色着舰合作目标的显著度均值应该较高。
本实施例中,步骤202中检测出所提取a通道图像中图像显著性区域的数量为多个。并且,所述候选合作目标图像中候选合作目标的图像区域数量大于N个,各候选合作目标的图像区域均为候选合作目标的图像。
而步骤203中从步骤202中所述候选合作目标图像中识别出所述彩色着舰合作目标时,具体是从多个所述待识别图像区域中识别出所述彩色着舰合作目标的图像。并且,所述待识别图像区域为修正后的候选合作目标图像区域。
本实施例中,步骤2032中3个所述待识别图像区域,分别记作N1、N2和N3。并且,N1的显著值均值不小于的N2的显著值均值,且N2的显著值均值不小于N3的显著值均值。
本实施例中,步骤2033中从N个所述待识别图像区域中找出所述彩色着舰合作目标的图像时,按照步骤2032中N个所述待识别图像区域的排序结果,由先至后对各待识别图像区域进行形状差异判断,直至找出形状差异参数d小于d0的待识别图像区域,所找出的待识别图像区域为所述彩色着舰合作目标的图像;其中,d0为预先设定的距离阈值;形状差异参数d为所述待识别图像区域的k个不变矩特征与所述Hu矩参考值中对应k个不变矩特征之间的欧式距离;其中,k为正整数且k≤7。
因而,对各待识别图像区域进行形状差异判断,均对各待识别图像区域的形状差异参数d进行计算。任一个所述待识别图像区域的形状差异参数d,均为该待识别图像区域的k个不变矩特征与所述Hu矩参考值中对应k个不变矩特征之间的欧式距离。
本实施例中,k=4。所述形状差异参数d为所述待识别图像区域的前4个不变矩特征与所述Hu矩参考值中的前4个不变矩特征之间的欧式距离。
本实施例中,d0=1。实际使用时,可根据具体需要,对d0的取值大小进行相应调整。
由于无人机着舰过程中相对于合作目标的位姿不断变化,因此所获取的合作目标图形也会变化。1962年Hu将代数不变矩理论应用于归一化中心矩,构造出具有平移、旋转以及比例不变的7个矩特征。Hu矩计算速度快,且适合描述物体形状特征的不变性。由于所述彩色着舰合作目标具有明显的形状特性,因而采用Hu矩对N1、N2和N3进行识别。
Hu矩的7个不变矩特征的计算方法为本领域技术人员熟知的方法。根据Hu矩的7个不变矩特征的计算方法,对图像f(x,y)(即灰度分布为f(x,y)的图像)的7个不变矩特征进行计算时,f(x,y)的p+q阶几何矩定义为: m p q = Σ x Σ y x p y q f ( x , y ) - - - ( 6 ) , 式(6)中,p为整数且p=0、1、2、…,q为整数且q=0、1、2、…;
f(x,y)的p+q阶中心矩定义为: u p q = Σ x Σ y ( x - x ‾ ) p ( y - y ‾ ) q f ( x , y ) - - - ( 7 ) , 式(6)中,p为整数且p=0、1、2、…,q为整数且q=0、1、2、…; 为图像f(x,y)的中矩心为
f(x,y)的归一化p+q阶中心矩定义为:式(8)中: γ = p + q 2 + 1 , p + q = 2 , 3 , ... ;
Hu利用二阶和三阶中心矩构造了7个不变矩,即获得7个不变矩特征。
7个Hu不变矩为为:
φ 1 = η 20 + η 02 φ 2 ( η 20 - η 02 ) 2 + 4 η 11 2 φ 3 = ( η 30 - 3 η 12 ) 2 + ( 3 η 21 - η 03 ) 2 φ 4 = ( η 30 + η 12 ) 2 + ( η 21 + η 03 ) 2 φ 5 = ( η 30 - 3 η 12 ) ( η 30 + η 12 ) [ ( η 30 + η 12 ) 2 - 3 ( η 21 + η 03 ) 2 ] + ( 3 η 21 - η 03 ) [ 3 ( η 30 + η 12 ) 2 - ( η 21 + η 03 ) 2 ] φ 6 = ( η 20 - η 02 ) [ ( η 30 + η 12 ) 2 - ( η 21 + η 03 ) 2 ] + 4 η 11 ( η 30 + η 12 ) ( η 21 + η 03 ) φ 7 = ( 3 η 21 - η 02 ) ( η 30 + η 12 ) [ ( η 30 + η 12 ) 2 - 3 ( η 21 + η 03 ) 2 ] + ( 3 η 12 - η 30 ) ( η 21 + η 03 ) [ 3 ( η 30 + η 12 ) 2 - ( η 21 + η 03 ) 2 ] - - - ( 9 ) ,
在计算过程中,由于后3个不变矩对合作目标检测影响较小,因而选取Hu矩中的前4个不变矩进行计算。考虑到Hu矩中各不变矩的变化范围较大,因此对求出的矩值取对数。此外,由于矩值可能出现负值,因而在取对数前取绝对值。
因而,Hu矩中的前4个不变矩(也称为前4个不变矩特征)分别为φ1、φ2、φ3和φ4
本实施例中,对任一个所述待识别图像区域的形状差异参数d进行计算时,均根据公式d=sqrt[(φ1-φ1')2+(φ2-φ2')2+(φ3-φ3')2+(φ4-φ4')2](10),进行计算;公式(10)中,sqrt[]为开平方,φ1'、φ2'、φ3'和φ4'分别为所述待识别图像区域的前4个不变矩特征,φ1、φ2、φ3和φ4分别为所述Hu矩参考值中的前4个不变矩特征。
本实施例中,对所述Hu矩参考值进行计算时,在步骤一中进行着舰区域图像获取之前,先采用所述图像采集设备获取所述彩色着舰合作目标的图像,具体是在所述彩色着舰合作目标的位置已知的情况下,采用所述图像采集设备获取所述彩色着舰合作目标的图像,再对所获取的所述彩色着舰合作目标的图像的七个不变矩特征进行计算。
本实施例中,先对采用Hu矩对N1进行识别,具体是根据公式(10)计算得出N1的形状差异参数d,且当N1的形状差异参数d小于d0时,说明N1为所述彩色着舰合作目标的图像,完成所述彩色着舰合作目标的检测过程;否则,采用Hu矩对N2进行识别;
采用Hu矩对N2进行识别时,具体是根据公式(10)计算得出N2的形状差异参数d,且当N2的形状差异参数d小于d0时,说明N2为所述彩色着舰合作目标的图像,完成所述彩色着舰合作目标的检测过程;否则,采用Hu矩对N3进行识别;
采用Hu矩对N3进行识别时,具体是根据公式(10)计算得出N3的形状差异参数d,且当N3的形状差异参数d小于d0时,说明N3为所述彩色着舰合作目标的图像,完成所述彩色着舰合作目标的检测过程。
为了保证所述彩色着舰合作目标能够全部被检测到,步骤2032中所述的R应大于radius。
本实施例中,步骤2032中所述的R=1.05×radius。
实际使用时,可根据具体需要,对R的取值大小进行相应调整。
以上所述,仅是本发明的较佳实施例,并非对本发明作任何限制,凡是根据本发明技术实质对以上实施例所作的任何简单修改、变更以及等效结构变化,均仍属于本发明技术方案的保护范围内。

Claims (10)

1.一种基于视觉注意机制的彩色着舰合作目标检测方法,其特征在于该方法包括以下步骤:
步骤一、着舰区域图像获取:采用图像采集设备且按照预先设计的采样频率,获取着舰区域的图像,并将所获取图像同步传送至处理器进行处理;所获取图像中包含彩色着舰合作目标的图像;所述图像采集设备与所述处理器相接;
所述彩色着舰合作目标由红色矩形背板(1)和位于红色矩形背板(1)上的绿色H形目标与绿色正三角形目标组成,所述绿色正三角形目标位于所述绿色H形目标一侧;所述绿色H形目标为涂覆于红色矩形背板(1)上的绿色H形涂层、放置于红色矩形背板(1)上的绿色H形板(2)或平铺在红色矩形背板(1)上的绿色H形平铺层,所述绿色正三角形目标为涂覆于红色矩形背板(1)上的绿色正三角形涂层、放置于红色矩形背板(1)上的绿色正三角形板(3)或平铺在红色矩形背板(1)上的绿色正三角形平铺层;
步骤二、合作目标图像处理:采用所述处理器,同步对步骤一中各采样时刻所获取的图像分别进行处理,各采样时刻所获取图像的处理方法均相同;对任一个采样时刻所获取的图像进行处理时,过程如下:
步骤201、图像颜色空间转换:调用图像颜色空间转换模块,将待处理图像由RGB颜色空间转换到CIELab颜色空间,获得待处理图像的CIELab颜色空间图像;
步骤202、基于显著性区域的图像分割:调用图像分割模块,先从步骤201中所述CIELab颜色空间图像中提取出a通道图像,再对提取出的a通道图像进行图像显著性检测,并检测出所提取a通道图像中的多个图像显著性区域;再根据所检测出的多个所述图像显著性区域,对所提取a通道图像进行图像分割,获得候选合作目标图像;
所述候选合作目标图像中包括多个候选合作目标的图像区域,多个所述候选合作目标的图像区域分别与多个所述图像显著性区域一一对应;
步骤203、基于三重约束的合作目标检测:调用三重约束检测模块,从步骤202中所述候选合作目标图像中识别出所述彩色着舰合作目标的图像,包括以下步骤:
步骤2031、尺寸约束:调用尺寸约束模块,且根据步骤一中所述彩色着舰合作目标的实际尺寸,计算出所述彩色着舰合作目标的图像面积和图像外接圆半径radius;
步骤2032、颜色约束:调用颜色约束模块,先从步骤202中所述候选合作目标图像中,找出多个所述候选合作目标的图像区域;再分别以各候选合作目标的图像区域的几何中心点为圆心且以R为半径截取多个圆形图像区域,并对多个所述圆形图像区域的显著值均值分别进行计算;按照显著值均值从大到小的顺序,对多个所述圆形图像区域进行排序,并将排序后的前N个所述圆形图像区域均作为待识别图像区域;
其中,R=(1~1.1)×radius;N为正整数且N=2~5;
步骤2033、形状约束:调用Hu矩计算模块,分别计算出步骤2032中N个所述待识别图像区域的七个不变矩特征;再结合预先计算得出的所述彩色着舰合作目标的Hu矩参考值,从N个所述待识别图像区域中找出所述彩色着舰合作目标的图像;
所述Hu矩参考值为采用所述图像采集设备获取所述彩色着舰合作目标的图像,并调用所述Hu矩计算模块计算得出的所获取图像的七个不变矩特征。
2.按照权利要求1所述的一种基于视觉注意机制的彩色着舰合作目标检测方法,其特征在于:步骤一中所述绿色正三角形目标位于所述绿色H形目标的斜下方。
3.按照权利要求1或2所述的一种基于视觉注意机制的彩色着舰合作目标检测方法,其特征在于:步骤201中进行图像颜色空间转换时,根据公式 L = 116 f ( Y ) - 16 a = 500 [ f ( X 0.982 ) - f ( Y ) ] b = 200 [ f ( Y ) - f ( Z 1.183 ) ] - - - ( 1 ) , 进行计算;公式(1)中,L、a和b分别为转换后的CIELab颜色空间图像中对应三个通道的灰度值; X = 0.49 × R + 0.31 × G + 0.2 × B Y = 0.177 × R + 0.812 × G + 0.011 × B Z = 0.01 × G + 0.99 × B , 其中函数 f ( ϵ ) = 7.787 ϵ + 0.138 , ϵ ≤ 0.008856 ϵ 1 / 3 , ϵ > 0.008856 , ε为自变量;R、G和B分别为转换前的RGB颜色空间图像中红色、绿色和蓝色的灰度值。
4.按照权利要求1或2所述的一种基于视觉注意机制的彩色着舰合作目标检测方法,其特征在于:步骤201中所提取a通道图像记作I(u,v);
步骤202中进行基于显著性区域的图像分割时,包括以下步骤:
步骤2021、幅值谱和相位谱求取:对所提取a通道图像I(u,v)进行二维离散傅里叶变换,得到所提取a通道图像I(u,v)的幅值谱A(f)和相位谱P(f),并求取幅值谱A(f)的log谱L(f);其中,A(f)=|F[Ia(u,v)]|,L(f)=ln(A(f));F[]为二维离散傅里叶变换,||为求取幅值,为求取相位;
步骤2022、谱残差计算:根据公式R(f)=L(f)-hn(f)*L(f)(2),求取所提取a通道图像I(u,v)的谱残差R(f);公式(2)中,*为卷积,hn(f)为一个n×n的方阵且其中,n为正整数且n≥3;
步骤2023、显著图生成:根据公式S(x)=|F-1[exp(R(f)+P(f))]2|(3),生成所提取a通道图像I(u,v)的显著图S(x);公式(3)中,F-1[]为求取二维离散傅里叶逆变换;
步骤2024、候选合作目标图像确定:根据公式 O ( x ) = 255 i f S ( x ) > T h r e s h o l d 0 o t h e r w i s e - - - ( 4 ) , 对显著图S(x)进行图像分割,获得候选合作目标图像O(x);公式(4)中,Thresh为图像分割判断阈值且Thresh=c×E(S(x)),E()为求取均值;其中c=2~3。
5.按照权利要求4所述的一种基于视觉注意机制的彩色着舰合作目标检测方法,其特征在于:步骤2022中所述的n=3;步骤2024中所述候选合作目标图像O(x)中标记为“255”的区域为候选合作目标的图像区域,标记为“0”的区域为背景。
6.按照权利要求1或2所述的一种基于视觉注意机制的彩色着舰合作目标检测方法,其特征在于:步骤一中所述彩色着舰合作目标为无人机的着舰合作目标;所述图像采集设备和所述处理器均安装在所述无人机上;
所述无人机上还安装有对所述图像采集设备与所述彩色着舰合作目标之间的距离进行测量的机载测距装置,所述机载测距装置与所述处理器相接。
7.按照权利要求6所述的一种基于视觉注意机制的彩色着舰合作目标检测方法,其特征在于:步骤2031中进行尺寸约束时,根据所述机载测距装置测量出的所述图像采集设备与所述彩色着舰合作目标之间的距离D,并根据小孔成像原理推算出所述彩色着舰合作目标的图像面积cirS,cirS=u'×v';其中,所述彩色着舰合作目标的图像面积cirS为所述彩色着舰合作目标在步骤一中所获取图像中所占的面积,u'和v'分别为所述彩色着舰合作目标的图像中沿横坐标轴和纵坐标轴上的像素个数;
根据小孔成像原理对所述彩色着舰合作目标的图像面积cirS进行推算时,按照公式 u ′ = W × m 2 × D × t a n ( α 2 ) v ′ = L × n 2 × D × t a n ( β 2 ) - - - ( 5 ) , 计算得出u'和v';公式(5)中,f为所述图像采集设备的焦距,α和β分别为所述图像采集设备的水平视场角和垂直视场角,L和W分别为所述彩色着舰合作目标的长度和宽度且二者的单位均与D的单位相同;所述图像采集设备的分辨率为m×n;
再根据公式计算得出图像外接圆半径radius。
8.按照权利要求1或2所述的一种基于视觉注意机制的彩色着舰合作目标检测方法,其特征在于:步骤2032中所述的N=3;所述圆形图像区域的显著值均值为该圆形图像区域内所有像素点的显著值均值,每个所述像素点的显著值均为步骤201中所提取a通道图像I(u,v)的显著图S(x)中该像素点的数值。
9.按照权利要求1或2所述的一种基于视觉注意机制的彩色着舰合作目标检测方法,其特征在于:步骤2033中从N个所述待识别图像区域中找出所述彩色着舰合作目标的图像时,按照步骤2032中N个所述待识别图像区域的排序结果,由先至后对各待识别图像区域进行形状差异判断,直至找出形状差异参数d小于d0的待识别图像区域,所找出的待识别图像区域为所述彩色着舰合作目标的图像;其中,d0为预先设定的距离阈值;形状差异参数d为所述待识别图像区域的k个不变矩特征与所述Hu矩参考值中对应k个不变矩特征之间的欧式距离;其中,k为正整数且k≤7。
10.按照权利要求9所述的一种基于视觉注意机制的彩色着舰合作目标检测方法,其特征在于:所述的k=4;所述形状差异参数d为所述待识别图像区域的前4个不变矩特征与所述Hu矩参考值中的前4个不变矩特征之间的欧式距离。
CN201510577905.XA 2015-09-11 2015-09-11 一种基于视觉注意机制的彩色着舰合作目标检测方法 Expired - Fee Related CN105225232B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510577905.XA CN105225232B (zh) 2015-09-11 2015-09-11 一种基于视觉注意机制的彩色着舰合作目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510577905.XA CN105225232B (zh) 2015-09-11 2015-09-11 一种基于视觉注意机制的彩色着舰合作目标检测方法

Publications (2)

Publication Number Publication Date
CN105225232A true CN105225232A (zh) 2016-01-06
CN105225232B CN105225232B (zh) 2018-04-20

Family

ID=54994181

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510577905.XA Expired - Fee Related CN105225232B (zh) 2015-09-11 2015-09-11 一种基于视觉注意机制的彩色着舰合作目标检测方法

Country Status (1)

Country Link
CN (1) CN105225232B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107194406A (zh) * 2017-05-09 2017-09-22 重庆大学 一种基于cs特征值的全景机器视觉目标识别方法
CN107291089A (zh) * 2017-07-18 2017-10-24 西安电子科技大学 一种用于无人机自主着舰的合作目标方法
CN109635917A (zh) * 2018-10-17 2019-04-16 北京大学 一种多智能体合作决策及训练方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2273424A1 (en) * 2009-07-08 2011-01-12 Honeywell International Inc. Automated target detection and recognition system and method
CN103106671A (zh) * 2013-01-25 2013-05-15 西北工业大学 一种基于视觉注意机制的图像感兴趣区域检测方法
CN103218607A (zh) * 2013-04-11 2013-07-24 北京航空航天大学 一种用于无人机自主着舰的合作目标设计与定位方法
CN104050477A (zh) * 2014-06-27 2014-09-17 西北工业大学 基于道路辅助信息和显著性检测的红外图像车辆检测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2273424A1 (en) * 2009-07-08 2011-01-12 Honeywell International Inc. Automated target detection and recognition system and method
CN103106671A (zh) * 2013-01-25 2013-05-15 西北工业大学 一种基于视觉注意机制的图像感兴趣区域检测方法
CN103218607A (zh) * 2013-04-11 2013-07-24 北京航空航天大学 一种用于无人机自主着舰的合作目标设计与定位方法
CN104050477A (zh) * 2014-06-27 2014-09-17 西北工业大学 基于道路辅助信息和显著性检测的红外图像车辆检测方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
ANDRES HUERTAS 等: "Passive Imaging Based Multi-cue Hazard Detection for Spacecraft Safe Landing", 《AEROSPACE CONFERENCE,2016 IEEE》 *
JOAO SILVA 等: "Saliency-Based Cooperative Landing of a Multirotor Aerial Vehicle on an Autonomous Surface Vehicle", 《ROBOTICS AND BIOMIMETICS(ROBIO),2014 IEEE INTERNATIONAL CONFERENCE ON》 *
郝帅 等: "无人机视觉着舰导航鲁棒角点精确检测算法", 《系统工程与电子技术》 *
郝帅 等: "面向近红外合作目标的鲁棒检测与匹配算法", 《系统工程与电子技术》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107194406A (zh) * 2017-05-09 2017-09-22 重庆大学 一种基于cs特征值的全景机器视觉目标识别方法
CN107291089A (zh) * 2017-07-18 2017-10-24 西安电子科技大学 一种用于无人机自主着舰的合作目标方法
CN109635917A (zh) * 2018-10-17 2019-04-16 北京大学 一种多智能体合作决策及训练方法

Also Published As

Publication number Publication date
CN105225232B (zh) 2018-04-20

Similar Documents

Publication Publication Date Title
CN111862126B (zh) 深度学习与几何算法结合的非合作目标相对位姿估计方法
CN106909902B (zh) 一种基于改进的层次化显著模型的遥感目标检测方法
CN105957054B (zh) 一种图像变化检测方法
CN104318569A (zh) 基于深度变分模型的空间显著性区域提取方法
CN107560592B (zh) 一种用于光电跟踪仪联动目标的精确测距方法
CN105974412B (zh) 一种用于合成孔径雷达的目标特征提取方法
RU2550811C1 (ru) Способ и устройство определения координат объектов
CN105574527A (zh) 一种基于局部特征学习的快速物体检测方法
Golovko et al. Development of solar panels detector
CN106156758B (zh) 一种sar海岸图像中海岸线提取方法
CN107632964A (zh) 一种平面地磁异常场向下延拓递归余弦变换法
CN103679694A (zh) 一种基于全景视觉的舰船小目标检测方法
CN112946679B (zh) 一种基于人工智能的无人机测绘果冻效应检测方法及系统
CN103679740B (zh) 一种无人机对地目标roi提取方法
CN105488541A (zh) 增强现实系统中基于机器学习的自然特征点识别方法
CN108036786A (zh) 基于辅助线的位姿检测方法、装置和计算机可读存储介质
CN105225232A (zh) 一种基于视觉注意机制的彩色着舰合作目标检测方法
CN106897730B (zh) 基于融合类别信息与局部保持投影的sar目标型号识别方法
CN103942786A (zh) 无人机可见光和红外图像的自适应团块目标检测方法
CN112884795A (zh) 一种基于多特征显著性融合的输电线路巡检前景与背景分割方法
CN112184785B (zh) 基于mcd度量和vtm的多模态遥感图像配准方法
Huang et al. Edge detection in UAV remote sensing images using the method integrating Zernike moments with clustering algorithms
CN105279755A (zh) 一种无人机全天候着舰合作目标鲁棒检测及匹配方法
CN109215122B (zh) 一种街景三维重建系统及方法、智能小车
CN106682668A (zh) 一种使用无人机标记影像的输电线路地质灾害监测方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20180420

Termination date: 20180911

CF01 Termination of patent right due to non-payment of annual fee