CN103679740A - 一种无人机对地目标roi提取方法 - Google Patents

一种无人机对地目标roi提取方法 Download PDF

Info

Publication number
CN103679740A
CN103679740A CN201310745111.0A CN201310745111A CN103679740A CN 103679740 A CN103679740 A CN 103679740A CN 201310745111 A CN201310745111 A CN 201310745111A CN 103679740 A CN103679740 A CN 103679740A
Authority
CN
China
Prior art keywords
target
pattern
image
value
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201310745111.0A
Other languages
English (en)
Other versions
CN103679740B (zh
Inventor
朱承飞
常红星
李书晓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Automation of Chinese Academy of Science
Original Assignee
Institute of Automation of Chinese Academy of Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Automation of Chinese Academy of Science filed Critical Institute of Automation of Chinese Academy of Science
Priority to CN201310745111.0A priority Critical patent/CN103679740B/zh
Publication of CN103679740A publication Critical patent/CN103679740A/zh
Application granted granted Critical
Publication of CN103679740B publication Critical patent/CN103679740B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种无人机对地目标ROI提取方法,包括:对基准卫星图像进行预处理,提取能够反映目标局部特征的模式;统计分析目标区域和关联环境区域的模式分布情况,计算出各个模式的显著性值,并建立目标视觉显著性模型;对于实时图像,获取每个像素点的模式和每个像素点的模式对应的显著性值,每个像素点的模式对应的显著性值对应实时图像的视觉显著性图像;根据视觉显著性图像估计目标粗略位置;利用目标粗略位置为中心、大小与目标区域大小一致的区域中的模式的尺度分布信息估计出实时图像大致的分辨率;根据目标粗略位置、估计分辨率值得到与基准卫星图像分辨率基本一致的ROI。

Description

一种无人机对地目标ROI提取方法
技术领域
本发明属于图像目标检测识别技术领域,特别涉及一种无人机对地目标ROI提取方法。
背景技术
航空图像中的特定目标检测技术在战场特定区域监测、目标精确打击等方面具有重要的意义。由于客观条件的限制,很多情况下取得特定目标的基准图像比较困难。目前常用的方式是利用卫星光学图像或者高空侦察机拍摄到的航空图像作为特定目标的基准图像,以机载摄像机在飞行过程中拍摄到的图像作为实时图像,通过目标检测算法在实时图像中完成特定目标的检测和定位,如图1所示。该应用方式的主要难点包括:(1)基准图像与实时图像的成像环境存在较大差异,主要包括成像时间、天气状况、载体姿态、成像分辨率等因素。这就要求检测算法对目标图像的光照变化、尺度变化、旋转角度具有较强的适应性。(2)小型无人机负载有限,且存在载体抖动,从算法稳定性考虑一般要求在DSP上运行。目前的目标检测算法的计算复杂度相对较高,存在机制上的问题,无法满足机载实时处理要求。
目前,国内外研究者通常采用特征检测与匹配的方法实现特定目标的精确定位。该方法首先分别从基准图像和实时图像中提取出具有光照不变性、尺度不变性或仿射不变性的特征,以期使得算法对光照、尺度、仿射变化具有一定的环境适应性。然后,利用特征描述与匹配的方法获得实时图像目标特征与基准图像目标特征的对应关系,由此推算出目标在实时图像中的位置。该类方法存在的主要问题是:实时图像特征数量庞大,使得特征匹配的搜索范围很大,且提取出具有尺度或仿射不变性的特征也需要较高的计算复杂度,难以满足机载处理的需要。
为减小特征匹配的搜索空间,部分研究者提出采用视觉显著性分析技术从实时图像中提取可能包含目标区域的感兴趣区域ROI(Region OfInterest),然后将基准图像目标特征与ROI中的特征进行匹配定位。然而,目前的ROI定位方法均是基于自底向上的思想,没有利用目标本身的信息,提取的ROI可能会漏掉感兴趣的目标,致使检测失败。另外,该类方法只能在PC上达到实时的速度,不能满足机载处理的需求。
总的来说,目前的方法仍然无法解决无人机对地特定目标的机载实时检测问题,亟需在新的视觉显著性计算机制、特定目标检测技术的系统性与适用性等方面进一步开展深入的研究工作,力图在算法正确率、效率、环境适应性等方面取得进展,形成系统性的成果。
发明内容
本发明的主要目的在于提供一种新的视觉显著性计算机制,以解决ROI的快速可靠定位问题,使得基于特征匹配的目标精确计算的复杂度大大降低。另外,本发明提出了目标描述结构邻域的选择方法、特征的统计方法、及各种计算方法的DSP优化方法,用于解决无人机对特定目标的ROI定位问题。
为实现上述目的,本发明提供一种无人机对地目标ROI提取方法,其特征在于,所述方法包括步骤:
步骤1:对基准卫星图像进行预处理,并从不同尺度和不同姿态的基准图像中提取能够反映目标局部特征的模式,包括目标区域的模式和关联环境区域的模式;
步骤2:统计分析目标区域和关联环境区域的模式分布情况,根据目标区域和关联环境区域模式分布情况的对比关系,计算出各个模式的显著性值,并建立目标视觉显著性模型;
步骤3:对于实时图像,经过图像增强预处理后,与步骤1和2同样的方式,获取每个像素点的模式,根据所述目标视觉显著性模型获取每个像素点的模式对应的显著性值,每个像素点的模式对应的显著性值对应实时图像的视觉显著性图像;
步骤4:采用和基准图像中目标区域大小一致的窗口在所述实时图像的目标显著性图像上滑动,取均值或者加权均值最大的位置为估计的目标粗略位置;利用目标粗略位置为中心、大小与目标区域大小一致的区域中的模式的尺度分布信息估计出实时图像大致的分辨率;根据目标粗略位置、估计分辨率值得到与基准卫星图像分辨率基本一致的ROI。
本发明的技术效果:本发明提出一种综合利用目标及其关联环境知识的目标视觉显著性模型表示与构建方法。利用模式表达局部结构特征克服了特征描述方法维数高、匹配搜索范围大的缺陷。本发明检测的目标为特定的固定目标,目标与周围环境的关系较为稳定,因此基于目标区域模式与关联环境区域模式的互斥性来计算目标模式的显著性符合人类视觉的特点。本发明提出一种方便快捷地提高目标视觉显著性模型环境适应性的方法。由于特定目标检测通常只能提供单幅卫星图像作为基准图像,本发明通过利用模式分布来表达目标区域及周围关联区域特性的方法,使得可以在不增加实时图像计算量的情况下将经过不同分辨率、姿态变换的基准图像信息融合到目标视觉显著性模型中,从而使得目标视觉显著性模型具有较高的环境适应性。本发明提出基于目标视觉显著性模型的ROI提取方法,可克服传统显著性区域提取针对性不强的问题,利用目标显著性模型,采用模式检索的方法得到目标显著图,并完成候选目标的ROI提取以及大致的目标尺度信息估计,大大提高了算法的针对性和效率,同时由于提取的ROI与基准图像具有基本一致的分辨率,降低了目标精确定位的难度。
附图说明
图1为特定目标检测的典型应用示例示意图;
图2为本发明中无人机对地目标ROI提取方法流程示意图;
图3为本发明中模式采样点选取方式示意图;
图4为本发明中视觉显著性图像求取示意图;
图5为本发明中积分图像计算滑动窗口均值示意图;
图6为本发明中双线性插值方法示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明作进一步的详细说明。
本发明将针对只提供单幅基准图像的情况,研究从实时图像中快速检测特定目标的方法。图1示出了特定目标检测的典型应用示例,其中上排为基准图像,红色框内为待检测的特定目标区域;下排为待处理的实时图像。本发明中,特定目标指的是图1上排基准图像中的矩形框标注的典型区域,也称为目标区域。我们将以目标中心为中心,4*4倍目标区域大小的区域作为关联环境区域。
本发明的技术思想是,采用结构模式作为描述目标局部特征的基本方式,利用不同尺度和旋转角度下的基准图像提供的目标知识,结合其与周围环境的关系,得到目标模式的置信度及其相关属性,建立目标显著性模型;然后,利用模式检索的方式得到实时图像的显著性图像,从而提取包含候选目标的ROI。其中,我们将图像局部结构特征的描述称为结构模式,下文中结构模式也简称为模式,常用的有LBP等。本技术思想不涉及大规模的数值计算,可满足无人机对地特定目标检测的计算复杂度需求。
图2示出了本发明中基于目标视觉显著性模型的无人机对地目标检测方法流程图。如图2所示,该方法包括以下步骤:
步骤1:对基准卫星图像进行图像增强等预处理,并对其进行缩放、旋转角度变换,然后利用结构模式表示和计算方法,从不同尺度和不同姿态的基准图像中提取能够反映目标局部特征的模式,包括目标区域的模式和关联环境区域中的模式;所述模式指图像局部结构特征。
所述图像增强预处理主要指高斯平滑。高斯平滑计算方法如下:采用3×3的模板同基准卫星图像进行卷积来实现,得到平滑后的图像G(x,y)。3×3的模板可采用如下的两个算子卷积近似求得:
1 4 1 2 1 , 1 4 1 2 1
因此,高斯平滑可由整数加法及移位操作完成,适合DSP运算。
图像缩放旋转的计算方法如下:设基准卫星图像的宽度和高度分别为w和h,旋转角度为θ,缩放因子为σ,旋转角度和缩放因子根据环境适应能力推算获得,则变换后图像上的像素点(x1,y1)与对应的基准图像上的位置(x,y)之间有如下关系:
x - w / 2 y - h / 2 = σ ′ cos θ ′ - sin θ ′ sin θ ′ cos θ ′ x 1 - w / 2 y 1 - h / 2
σ′=1/σ;θ′=-θ
由于基准图像比目标区域大很多,变换后图像舍弃(原始图像的边角)或多余(变换后存在的空隙)的部分对目标模型的建立影响不大。因此,此应用中只需求得w×h大小的变换后的图像,超出此区域的舍弃,不足的以0填充(因其模式与目标区域存在明显不同,故无需对此部分区域进行标记)。
上述公式可简化为:
x=σ′cosθ′(x1-w/2)-σ′sinθ′(y1-h/2)+w/2=σ′cosθ′x1-σ′sinθ′y1+(w/2-wσ′cosθ′/2+hσ′sinθ′/2)
y=σ′sinθ′(x1-w/2)+σ′cosθ′(y1-h/2)+h/2=σ′sinθ′x1+σ′cosθ′y1+(h/2-wσ′sinθ′/2-hσ′cosθ′/2)
令:
a=σ′cosθ′ c=w/2-aw/2+bh/2
b=σ′sinθ′ d=h/2-bw/2-ah/2
则:
x=ax1-by1+c
y=bx1+ay1+d
由此可计算出变换后图像的每一像素点(x1,y1)对应变换前图像的(x,y)位置。由于a、b、c、d的值一般为浮点数,则(x,y)为浮点坐标,其灰度值可利用(x,y)点周围的四个整数坐标像素点的灰度值进行双线性插值得到。双线性差值方法将在下面根据图6详细说明。
图3示出了所述模式的表示和计算方法示例图。如图3所示,由于模式编码为一维的整数且数量不能太大,通常只采用16对采样点的特性来刻画当前点的邻域结构。模式计算主要包括采样点选取和模式值计算。
采样点选取采用DAISY-16采样方法,如图3所示,除中心点外,采样16个点,每个点的加权和的邻域大小不同。可利用上述的高斯平滑方法分别平滑一次、两次和三次建立1、2、3级高斯平滑图像,中心像素取1级高斯平滑后的值,中间环邻域像素取2级高斯平滑后的值,外环邻域像素取3级高斯平滑后的值,共得到1个基准点和16个邻域点。邻域点的间距可以在2-10之间变动。
模式值计算采用局部二值模式(LBP)方法。利用图3所示的DAISY-16采样方法,对16个采样点的每个点Pi的灰度值I(Pi),依据其与中心像素Pc的灰度值I(Pc)的关系建立模式表示:
&tau; ( P i ) = 1 , I ( P i ) < I ( P c ) 0 , otherwise
将16个τ(Pi)的值连接起来则可以得到一个16位二进制数,即模式值。
步骤2:统计分析目标区域和关联环境区域的模式分布情况,根据目标区域和关联环境区域模式分布的对比关系,采用推理与决策规则,计算出各个模式的显著性值,并建立目标视觉显著性模型;
所述图像缩放、旋转变换只在模型建立时使用。本发明中算法的设计环境适应能力为:尺度变化范围为±15%,旋转角度变化范围为±15度。为此,我们拟将尺度缩放因子σ、旋转角度θ的变化范围分别量化为d级(本发明中d=7),则有:
θ∈{-15°,-10°,-5°,0°,5°,10°,15°}
σ∈{-1.15,-1.1,-1.05,1,1.05,1.1,1.15}
根据上述不同量化级别的参数,对基准图像进行尺度、旋转变换,一共得到d*d=49个变换后的基准图像。利用49个变换后的基准图像进行模型训练,将使目标模型具有设定的环境适应能力。
由于本发明检测的特定固定目标与关联环境区域的关系较为稳定,为了有效地获取和利用目标知识,除了需要分析基准图像中指定的目标区域,还需要同时对关联环境区域进行分析。本发明选取以目标中心为中心,4*4倍目标区域大小区域作为关联环境区域。
首先建立目标的中间模型,如下述表示:
Modelmedium={Pobject,u,Pwhole,u,scaleu[d]|u=0,1,...,m}
其中,各分量的含义分别为:Pobject,u为第u个模式在目标区域的发生频次、Pwhole,u为第u个模式在关联环境区域的发生频次、scaleu为第u个模式在d个尺度下分别发生的频次,m为可能出现的模式的总数。在本发明中模式值用一个16位二进制数表示,因此m=216=65536,即最多可能存在65536种模式。
此步骤中需要统计目标区域中各模式的发生频次、关联环境区域各模式的发生频次以及各模式在各个尺度下的发生频次,计算上类似于直方图的统计方法。首先将中间模型Modelmedium置零,然后对每一个尺度、旋转变换后的图像Ii,j(i=1,2,…,d;j=1,2,…,r),根据变换的尺度参数和旋转角度参数计算目标区域R在变换后图像中的区域R′,同时在Ii,j选取候选区域C(变换后的基准图像);对Ii,j进行高斯平滑滤波得到Ii,j′,计算Ii,j′每个像素点的模式,对R′中的每一个像素k,设其模式为Fk∈[0,65535],则Pobject,Fk的值加1;对候选区域C中的每一个像素k,设其模式为Fk∈[0,65535],则Pwhole,Fk的值加1,同时scaleFk[i]的值加1。至此,得到了各种模式在候选区域和目标区域的发生频次以及各种模式在d个尺度下分别发生的频次。
在求取模式权重前,将上面求得的目标区域模式发生频次、关联环境区域模式发生频次进行归一化,得到模式u在目标区域及关联环境区域的发生概率pobject,u、pwhole,u。然后按照下式求得模式的显著性值(权重):
W u = p object , u p whole , u , p object , u > 0 0 p object , u = 0
同样,对模式u在d个尺度下的发生频次scaleu[d]进行归一化操作,得到各个模式的尺度分布su[d],即在每个尺度下模式出现的概率。
最后,目标视觉显著性模型可表示为:
Modelfinal={Wu,su[d]|u=0,1,...,m}
步骤3:对于实时图像,经过图像增强预处理后,采用与目标显著性模型建立过程中同样的结构模式表示方法,提取每个像素点的模式,然后对图像中的每一个像素点,依据其模式序号从目标视觉显著性模型中索引出该模式的置信度、尺度等属性信息,得到实时图像的视觉显著性图像;
图4示出了本发明中视觉显著性图像求取示意图。如图4所示,对当前实时图像,采用与目标显著性模型一致的模式计算方法提取出当前图像中每一个像素点的模式u,依据Modelfinal→Wu检索得到当前模式的权重Wu(即显著性值),图像中所有像素点的模式对应的显著性值都检索得到后即生成了目标的视觉显著性图像,如图4右下图所示。
步骤4:采用和基准图像中目标区域大小一致的窗口在显著性图像上滑动,取均值或者加权均值最大的位置为估计的目标粗略位置;利用目标粗略位置为中心、大小与目标区域大小一致的区域中的模式的尺度分布信息估计出实时图像大致的分辨率;根据目标粗略位置、估计分辨率值得到与基准卫星图像分辨率基本一致的ROI。
所述目标粗略位置估计方法,其主要步骤如下:在实时计算得到目标视觉显著性图后,可以据此估计出目标的粗略位置
Figure BDA0000450174200000082
采用和基准图像中目标区域大小一致的窗口滑动,取均值或者加权均值最大的位置为目标粗略位置。考虑到计算效率,取均值最大的位置即可,此时可由积分图像的方法加速。
积分图像定义为:
S ( x , y ) = &Sigma; i &le; x &Sigma; j &le; y I ( i , j )
其中,I(i,j)表示图像中第i列j行的像素点的灰度值。则S(x,y)可以通过迭代计算求得:
line(x,y)=line(x-1,y)+I(x,y);line(-1,y)=0;
S(x,y)=S(x,y-1)+line(x,y);S(x,-1)=0;
其中,line(x,y)表示第y行前x个像素点灰度值的和。利用上面的迭代表达式,对图像的每个像素点(x,y)可计算对应的S(x,y),即得到积分图像。
图5示出了本发明中利用积分图像计算滑动窗口内的值的和的方法示意图。如图5所示,图像坐标原点为左上角,A、B、C、D为矩形内的图像区域,设区域D为以(x0,y0)为中心的滑动窗口,则D内的所有像素点的灰度值之和可表示为:
D=(A+B+C+D)-(A+B)-(A+C)+A=S(x4,y4)-S(x3,y3)-S(x2,y2)+S(x1,y1)
上式右边四项可以通过索引积分图像得到,因此可以快速计算滑动窗口D内像素灰度值之和。由于滑动窗口的大小固定,因此滑动窗口均值最大的位置就是窗口内灰度值和最大的位置,因此目标粗略位置可直接选取窗口内灰度值和最大的位置即可。
所述尺度估计方法,其主要步骤包括:对以目标粗略位置为中心、大小与基准图像中的目标区域大小一致的区域,按照目标显著性模型中的模式计算方法计算每个像素点的模式u,依据Modelfinal检索得到当前模式的尺度分布su[d],则可得统计区域内目标尺度分布曲线:
s [ k ] = &Sigma; i &RightArrow; u i W u i s u i [ k ] , k = 1,2 , . . . , d
根据分布曲线的极值位置(经过插值)估计出目标的大致尺度
所述ROI图像获取方法的步骤包括:
利用估计的尺度信息及目标估计位置,经过双线性插值得到与基准图像具有基本一致分辨率的ROI图像。ROI的大小选取为:
wroi=2wobject,hroi=2hobject
其中,wobject、hobject分别为基准图像中目标区域的宽和高,wroi、hroi表示ROI区域的宽和高。
由积分图像快速估计的目标粗略位置为
Figure BDA0000450174200000096
预将其映射到ROI的中心位置。根据估计出的目标大致尺度
Figure BDA0000450174200000097
则ROI图像上的像素点(x1,y1)与对应的实时图像上的位置(x,y)之间有如下关系:
x - x ^ y - y ^ = s &prime; x 1 - w roi / 2 y 1 - h roi / 2
s &prime; = 1 / s ^
同样的,不足的以0填充即可(因其局部结构特征与目标区域存在明显不同,故无需对此部分区域进行标记)。
上述公式可简化为:
x = s &prime; x 1 - w roi s &prime; / 2 + x ^
y = s &prime; y 1 - h roi s &prime; / 2 + y ^
令:
c = x ^ - w roi s &prime; / 2 d = y ^ - h roi s &prime; / 2
则:
x=s′x1+c
y=s′y1+d
x1=0,1,...,wroi;y1=0,1,...,hroi
由此可计算出变换后图像的每一像素点对应变换前图像的位置。之后利用双线性插值得到其灰度值。
图6示出了本发明提出的双线性插值方法图形示意图。如图6所示,双线性插值计算(x,y)的灰度值I(x,y)可表示为:
I(x,y)=(1-u)×(1-v)×f1+(1-u)×v×f2+u×(1-v)×f3+u×v×f4;
其中:
Figure BDA0000450174200000103
Figure BDA0000450174200000104
表示向下取整,表示向上取整。如图6所示,f1、f2、f3、f4分别表示(x,y)点周围的四个整数坐标像素点的灰度值。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (9)

1.一种无人机对地目标ROI提取方法,其特征在于,所述方法包括步骤:
步骤1:对基准卫星图像进行预处理,并从不同尺度和不同姿态的基准图像中提取能够反映目标局部特征的模式,包括目标区域的模式和关联环境区域的模式;
步骤2:统计分析目标区域和关联环境区域的模式分布情况,根据目标区域和关联环境区域模式分布情况的对比关系,计算出各个模式的显著性值,并建立目标视觉显著性模型;
步骤3:对于实时图像,经过图像增强预处理后,与步骤1和2同样的方式,获取每个像素点的模式,根据所述目标视觉显著性模型获取每个像素点的模式对应的显著性值,每个像素点的模式对应的显著性值对应实时图像的视觉显著性图像;
步骤4:采用和基准图像中目标区域大小一致的窗口在所述实时图像的目标显著性图像上滑动,取均值或者加权均值最大的位置为估计的目标粗略位置;利用目标粗略位置为中心、大小与目标区域大小一致的区域中的模式的尺度分布信息估计出实时图像大致的分辨率;根据目标粗略位置、估计分辨率值得到与基准卫星图像分辨率基本一致的ROI。
2.根据权利要求1所述的方法,其特征在于,步骤1中不同尺度和不同姿态的基准图像如下得到:
x=ax1-by1+c
y=bx1+ay1+d
a=σ′cosθ′ c=w/2-aw/2+bh/2
b=σ′sinθ′ d=h/2-bw/2-ah/2
σ′=1/σ,θ′=-θ
其中,基准图像的宽度和高度分别为w和h,,(x,y)为基准图像上的像素点,(x1,y1)为尺度和姿态转换后的图像上的像素点,θ和σ为尺度和姿态转换使用的旋转角度和缩放因子。
3.如权利要求1所述的方法,其中,所述目标区域和关联环境区域的模式的提取包括模式采样和模式值计算;其中,模式采样方式采用DAISY-16采样方法;模式值计算方式采用局部二值模式。
4.如权利要求3所述的方法,其中,对于目标区域和关联环境区域的模式采样包括对于目标区域和关联环境区域的所有像素点提取16个邻域点,所述16个邻域点的加权和的邻域大小不同。
5.如权利要求4所述的方法,其中,对目标区域和关联环境区域中每个像素点的模式值如下:
&tau; ( P i ) = 1 , I ( P i ) < I ( P c ) 0 , otherwise
其中,Pi为第i个邻域点,I(Pi)为第i个邻域点的灰度值,Pc为像素点,I(Pc)为像素点的灰度值,将16个邻域点的模式值连接起来得到相应像素点的模式值。
6.如权利要求1所述的方法,其中,步骤2中统计分析目标区域和关联环境区域的模式分布情况具体为统计不同尺度和不同姿态下目标区域和关联环境区域中各个像素点对应的模式值出现的次数,根据其出现次数得到各个模式的显著性值。
7.如权利要求6所述的方法,其中,步骤2中目标视觉显著性模型如下表示:
Modelfinal={Wu,su[d]|u=0,1,...,m}
W u = p object , u p whole , u , p object , u > 0 0 p object , u = 0
其中,Wu为模式u的显著性值,pobject,u、pwhole,u为模式u在目标区域及关联环境区域的出现概率,su[d]为模式u的尺度分布,m为模式的个数。
8.如权利要求7所述的方法,其中,步骤3中根据实时图像上每个像素点的模式值索引所述目标视觉显著性模型中相应模式对应的显著性值,并根据各个像素点的模式对应的显著性值得到实时图像的目标视觉显著性图。
9.如权利要求1所述的方法,其中,步骤4中根据实时图像上各个像素点的模式检索目标视觉显著性模型获得各个模式对应的尺度分布,并统计区域内目标尺度分布曲线,根据分布曲线的极值位置估计出目标的大致尺度。
CN201310745111.0A 2013-12-30 2013-12-30 一种无人机对地目标roi提取方法 Active CN103679740B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310745111.0A CN103679740B (zh) 2013-12-30 2013-12-30 一种无人机对地目标roi提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310745111.0A CN103679740B (zh) 2013-12-30 2013-12-30 一种无人机对地目标roi提取方法

Publications (2)

Publication Number Publication Date
CN103679740A true CN103679740A (zh) 2014-03-26
CN103679740B CN103679740B (zh) 2017-02-08

Family

ID=50317191

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310745111.0A Active CN103679740B (zh) 2013-12-30 2013-12-30 一种无人机对地目标roi提取方法

Country Status (1)

Country Link
CN (1) CN103679740B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104159031A (zh) * 2014-08-19 2014-11-19 湖北易瓦特科技有限公司 针对目标对象进行定位跟踪的方法及其设备
CN107360093A (zh) * 2017-07-19 2017-11-17 哈尔滨工业大学深圳研究生院 无人机与卫星混合网络通信路由方法及系统
CN107895384A (zh) * 2017-12-01 2018-04-10 中国科学院长春光学精密机械与物理研究所 目标提取方法及装置
CN111063056A (zh) * 2019-11-21 2020-04-24 中国电子产品可靠性与环境试验研究所((工业和信息化部电子第五研究所)(中国赛宝实验室)) 航空事故分析方法、装置、计算机设备和存储介质
CN111191650A (zh) * 2019-12-30 2020-05-22 北京市新技术应用研究所 基于rgb-d图像视觉显著性的物品定位方法与系统
CN113311830A (zh) * 2016-06-03 2021-08-27 苏州宝时得电动工具有限公司 自动行走设备及目标区域识别方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040240749A1 (en) * 2003-03-31 2004-12-02 Seiko Epson Corporation Image processing device, image processing method, and program
CN102929288A (zh) * 2012-08-23 2013-02-13 山东电力集团公司电力科学研究院 基于视觉伺服的输电线路无人机巡检云台控制方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040240749A1 (en) * 2003-03-31 2004-12-02 Seiko Epson Corporation Image processing device, image processing method, and program
CN102929288A (zh) * 2012-08-23 2013-02-13 山东电力集团公司电力科学研究院 基于视觉伺服的输电线路无人机巡检云台控制方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
FAN ZHANG等: "A visual saliency based method for vehicle logo detection", 《FIFTH INTERNATIONAL CONFERENCE ON DIGITAL IMAGE PROCESSING (ICDIP 2013)》 *
JAN SOKALSKI等: "Automatic salient object detection in uav imagery", 《25TH INTERNATIONAL UNMANNED AIR VEHICLE SYSTEMS》 *
苏娟 等: "一种基于知识模型的红外目标检测方法", 《光子学报》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104159031A (zh) * 2014-08-19 2014-11-19 湖北易瓦特科技有限公司 针对目标对象进行定位跟踪的方法及其设备
CN113311830A (zh) * 2016-06-03 2021-08-27 苏州宝时得电动工具有限公司 自动行走设备及目标区域识别方法
CN107360093A (zh) * 2017-07-19 2017-11-17 哈尔滨工业大学深圳研究生院 无人机与卫星混合网络通信路由方法及系统
CN107360093B (zh) * 2017-07-19 2020-06-19 哈尔滨工业大学深圳研究生院 无人机与卫星混合网络通信路由方法及系统
CN107895384A (zh) * 2017-12-01 2018-04-10 中国科学院长春光学精密机械与物理研究所 目标提取方法及装置
CN111063056A (zh) * 2019-11-21 2020-04-24 中国电子产品可靠性与环境试验研究所((工业和信息化部电子第五研究所)(中国赛宝实验室)) 航空事故分析方法、装置、计算机设备和存储介质
CN111191650A (zh) * 2019-12-30 2020-05-22 北京市新技术应用研究所 基于rgb-d图像视觉显著性的物品定位方法与系统
CN111191650B (zh) * 2019-12-30 2023-07-21 北京市新技术应用研究所 基于rgb-d图像视觉显著性的物品定位方法与系统

Also Published As

Publication number Publication date
CN103679740B (zh) 2017-02-08

Similar Documents

Publication Publication Date Title
CN111862126B (zh) 深度学习与几何算法结合的非合作目标相对位姿估计方法
CN111563442B (zh) 基于激光雷达的点云和相机图像数据融合的slam方法及系统
Chen et al. Vehicle detection in high-resolution aerial images via sparse representation and superpixels
CN103455797B (zh) 航拍视频中运动小目标的检测与跟踪方法
CN108596108B (zh) 基于三元组语义关系学习的航拍遥感图像变化检测方法
CN103679740B (zh) 一种无人机对地目标roi提取方法
CN111161317A (zh) 一种基于多重网络的单目标跟踪方法
CN104200495A (zh) 一种视频监控中的多目标跟踪方法
CN105160649A (zh) 基于核函数非监督聚类的多目标跟踪方法及系统
CN104574401A (zh) 一种基于平行线匹配的图像配准方法
Wang et al. An overview of 3d object detection
CN113888461A (zh) 基于深度学习的小五金件缺陷检测方法、系统及设备
CN103778436A (zh) 一种基于图像处理的行人姿态检测方法
CN112348758B (zh) 一种光学遥感图像数据增强方法及目标识别方法
Sun et al. An improved FAST feature extraction based on RANSAC method of vision/SINS integrated navigation system in GNSS-denied environments
CN114299405A (zh) 一种无人机图像实时目标检测方法
CN110766782A (zh) 基于多无人机视觉协同的大型施工场景实时重构方法
Alsanad et al. Real-time fuel truck detection algorithm based on deep convolutional neural network
Wang et al. 3D-LIDAR based branch estimation and intersection location for autonomous vehicles
CN114266947A (zh) 一种基于激光点云和可见光图像融合的分类方法及装置
CN111031258B (zh) 月球车导航相机曝光参数确定方法及装置
CN113284221B (zh) 一种目标物检测方法、装置及电子设备
CN113316080B (zh) 基于Wi-Fi与图像融合指纹的室内定位方法
Li et al. Low-cost 3D building modeling via image processing
Wang et al. The unified object detection framework with arbitrary angle

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant