CN115035326A - 一种雷达图像与光学图像精确匹配方法 - Google Patents

一种雷达图像与光学图像精确匹配方法 Download PDF

Info

Publication number
CN115035326A
CN115035326A CN202210645447.9A CN202210645447A CN115035326A CN 115035326 A CN115035326 A CN 115035326A CN 202210645447 A CN202210645447 A CN 202210645447A CN 115035326 A CN115035326 A CN 115035326A
Authority
CN
China
Prior art keywords
image
optical image
radar image
points
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210645447.9A
Other languages
English (en)
Other versions
CN115035326B (zh
Inventor
张永伟
裴季方
王毅刚
杨建宇
赵勇
黄钰林
张寅�
霍伟博
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202210645447.9A priority Critical patent/CN115035326B/zh
Publication of CN115035326A publication Critical patent/CN115035326A/zh
Application granted granted Critical
Publication of CN115035326B publication Critical patent/CN115035326B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种雷达图像与光学图像精确匹配方法,包括以下步骤:S1、获取雷达图像及光学图像,并转化为灰度图像;S2、增加图像边缘信息;S3、ROWEA滑动窗口滤波;S4、分别对雷达图像和光学图像构建特征空间;S5、分别对雷达图像和光学图像进行极值点检测;S6、分别对雷达图像和光学图像的极值点进行特征描述;S7、将雷达图像和光学图像的极值点进行匹配;S8、进行极值点筛选,得到匹配图像。本发明构造基于像素点的特征空间进行极值点求解,同时实现雷达图像和光学图像极值点的筛选与匹配,从而达到雷达图像和光学图像的精确配准。

Description

一种雷达图像与光学图像精确匹配方法
技术领域
本发明属于雷达图像处理技术领域,特别涉及一种合成孔径雷达图像与光学图像的精确匹配方法。
背景技术
实现机载雷达图像与光学图像精确配准,对提高飞行导航系统定位能力、引导武器精确打击目标、实施空中警戒等具有重要意义。但由于常规图像匹配算法仅针对相同传感器图像之前的配准,无法实现异源传感器图像之间的精确配准;利用区域模板匹配可以实现图像配准,但由于光学图像和雷达图像成像机理不同、特征差异明显,造成区域匹配也比较困难。
图像匹配这一技术最早应用于例如飞行导航系统、武器投射系统等军事领域,之后国内外很多学者纷纷针对图像配准的应用开始了进一步的应用型研究。图像匹配主要分为三个方法,即基于图像变换域、基于像素灰度、基于特征的配准方法,下面主要介绍基于特征的配准方法:
基于特征的配准算法主要分为基于点、线、区域特征几类。其中点特征是近年来研究者们较为关注的方向,主要有边缘点特征、交叉点特征与角点特征等;线特征指的是图像的纹理边缘轮廓;区域特征指的是具有显著特征信息的目标闭环区域。基于特征提取常用的是点特征提取,主要的算子有Harris检测算子、SUSSUN算子、ORB算子等。LOWE在1999年首次提出尺度不变特征变换算法,之后学者们纷纷对尺度不变特征变换算法进行研究改进,2004年YAN等人通过将PCA引入尺度不变特征变换算法,2007年Bay等人提出了一种基于积分图的SURF算法,对SAR图像的噪声具有明显的抑制作用,但是该算法仍然具有局限性。
2010年杨雪梅等人通过优化尺度不变特征变换算法主方向以提升SAR与可见光图像配准精度,2013年张谦等人针对尺度不变特征变换误匹配问题,通过控制极值点数量和分布情况提高了配准精度,2015年罗宇提出一种基于空间约束的改进尺度不变特征变换算法,较大提升了配准的精度。2016年王辉等人提出基于NSST和FAST结合的配准算法,从而解决图像配准速度较慢的问题,却只针对同源图像问题,异源图像尤其是SAR图像与光学匹配效果不佳。
虽然国内外针对异源图像匹配提出了许多算法,但目前仍存在的主要问题和技术难点有:
(1)SAR图像几何畸变:山区等地面剧烈起伏的待处理区域普遍存在着透视收缩、叠掩、阴影等严重的几何畸变情况,这将会给以后的匹配操作带来一定难度。
(2)SAR图像的相干斑噪声:SAR图像固有的相干斑噪声易使大部分传统的图像处理算法结果不佳,甚至失效,因此,如何恰当去除SAR图像的相干斑噪声同时保持目标的基本特征成为一大难点。
(3)匹配算法实时性保证:由于异源图像匹配的最终目的是服务于后续图像融合、目标检测与识别等工作,因此,如何保证该匹配算法的实时性成为了一大难点。
发明内容
本发明的目的在于克服现有技术的不足,提供一种构造基于像素点的特征空间进行极值点求解,同时实现雷达图像和光学图像极值点的筛选与匹配,从而达到雷达图像和光学图像的精确配准的雷达图像与光学图像精确匹配方法。
本发明的目的是通过以下技术方案来实现的:一种雷达图像与光学图像精确匹配方法,包括以下步骤:
S1、获取雷达图像及光学图像,并转化为灰度图像,得到雷达图像灰度矩阵S(x,y)与光学图像灰度矩阵O(x,y);x、y为图像中点的坐标;
S2、增加图像边缘信息:利用canny算子提取雷达图像和光学图像的边缘特性SE(x,y)与OE(x,y),并计算雷达图像与光学图像之间的相关系数r,以此更新雷达图像灰度矩阵S(x,y)与光学图像灰度矩阵O(x,y):
Figure BDA0003685714850000021
Figure BDA0003685714850000022
Figure BDA0003685714850000023
分别为雷达图像和光学图像的图像平均灰度值矩阵;
S3、采用加权指数平滑滤波器ROWEA进行滑动窗口滤波;
S4、分别对雷达图像和光学图像构建特征空间;
S5、分别对雷达图像和光学图像进行极值点检测;
S6、分别对雷达图像和光学图像的极值点进行特征描述;
S7、将雷达图像和光学图像的极值点进行匹配;
S8、进行极值点筛选,得到匹配图像。
进一步地,所述步骤S4具体实现方法为:构建如下特征空间:
Figure BDA0003685714850000031
RSH(x,y|α)=det(CSH)-dth×trace(CSH)2 (4)
其中,Gx,α、Gy,分别为水平方向和垂直方向上的梯度估计的对数;CSH(x,y|α)是过渡矩阵,σ2是高斯核,
Figure BDA0003685714850000032
是高斯标准差,det(CSH)为过渡矩阵的行列式,dth是预设阈值,trace(CSH)2表示秩的平方;通过将RSH与阈值比较大小来判定极值点可能出现的位置:如果RSH>阈值dth,则该点为潜在极值点。
进一步地,所述步骤S5具体实现方法为:经过构建(4)式矩阵,生成与(4)相同的Laplace空间:
F(x,y|α)=α2|Lxx(x,y|α)+Lyy(x,y|α)| (5)
Lxx(x,y|α)、Lyy(x,y|α)分别为x方向和y方向的拉普拉斯响应值;根据像素点的拉普拉斯响应值作为参考,通过峰值检测进行极值点检测;
由于Laplace空间是离散的,所以为了得出极值点精确位置需要进行插值操作:
Figure BDA0003685714850000033
其中,X代表连续空间坐标,X0代表离散空间坐标,上标T是转置,G(X)是连续点空间响应值,G(X0)是离散点空间响应值;对(6)式求偏导得:
Figure BDA0003685714850000034
利用ΔX对极值点坐标进行插值操作。
进一步地,所述步骤S6具体实现方法为:由邻域内像素点幅值和方向共同对极值点予以加权描述;首先,以极值点为中心将邻域以主方向角θ1进行旋转,将主方向放在X轴上,旋转矩阵为:
Figure BDA0003685714850000035
邻域的大小由极值点所在空间层的尺度α决定,将邻域设置为高斯标准差的3倍,将0-360度的邻域平均分为36个子区域,每个子区域内横坐标代表梯度方向角,纵坐标为梯度幅值,每个子区域大小为m×m,每个子区域的直方图具有8个方向的梯度幅值,将这些梯度幅值按方向排列得到极值点的作为特征描述向量,每个子区域具有8×m×m维的特征描述向量。
进一步地,所述步骤S7具体实现方法为:在特征空间内,以特征向量的欧式距离衡量两个极值点的相似度,距离越近表示越相似,若值小于0.8则认为它们为正确的匹配点,称为局内点,否则为局外点:
Figure BDA0003685714850000041
(x1,y1)、(x2,y2)分别为雷达图像和光学图像上极值点的坐标。
进一步地,所述步骤S8具体实现方法为:雷达图像和光学图像之间的匹配关系为:
S(x,y)=T((x,y),θ) (10)
其中,(x,y)是光学图像极值点,(x,y)代表雷达图像极值点,θ代表雷达图像旋转角度,T代表匹配模型;
分别从雷达图像和光学图像选取经过匹配的两组极值点{p1,....,pl}和{p1,....,pl},l表示匹配的极值点总数量;将极值点用S6得到的特征描述向量表示,然后对两组极值点样本迭代地进行数据采样、最小二乘法拟合、一致集验证,生成最终的正确匹配点对集和由正确点对集拟合的仿射矩阵T(xi,yi),并计算映射范数:
e(ci,θ)=||S(xi,yi)-T(xi,yi)θ|| (11)
其中,e(ci,θ)为映射范数,该值越小说明图像匹配效果越好。
首先,为n个局内点选择一个模型T,并通过计算得到模型所有的未知参数;然后用该模型去测试局外点,如果某局外点的数据也适用于该模型,那么将该局外点也转为局内点;依此类推,如果有足够数量((l-n)/2)的局外点被转为局内点,那么选择的模型就是合适的;最后,利用所有的局内点对模型进行估算和误差分析,将以上过程重复操作l-n次,选取映射范数最小的模型为最佳模型,得到最佳仿射矩阵,然后利用最佳仿射矩阵对雷达图像和光学图像进行匹配。
本发明的有益效果是:本发明构造基于像素点的特征空间进行极值点求解,同时实现雷达图像和光学图像极值点的筛选与匹配,从而达到雷达图像和光学图像的精确配准。
附图说明
图1为本发明雷达图像与光学图像精确匹配方法的流程图;
图2为极值点特征描述示意图。
具体实施方式
下面结合附图进一步说明本发明的技术方案。
如图1所示,本发明的一种雷达图像与光学图像精确匹配方法,包括以下步骤:
S1、获取雷达图像及光学图像,并转化为灰度图像,得到雷达图像灰度矩阵S(x,y)与光学图像灰度矩阵O(x,y);x、y为图像中点的坐标;
S2、增加图像边缘信息:利用canny算子提取雷达图像和光学图像的边缘特性SE(x,y)与OE(x,y),并计算雷达图像与光学图像之间的相关系数r,以此更新雷达图像灰度矩阵S(x,y)与光学图像灰度矩阵O(x,y):
Figure BDA0003685714850000051
Figure BDA0003685714850000052
Figure BDA0003685714850000053
分别为雷达图像和光学图像的图像平均灰度值矩阵;
S3、采用加权指数平滑滤波器ROWEA进行滑动窗口滤波;滑动窗口函数如下所示:
Figure BDA0003685714850000054
其中,ω为加权函数,Ix、Iy为图像x、y坐标的灰度;加窗后的灰度图像为:
Figure BDA0003685714850000055
其中,a、b为滑动窗口中心点的坐标,
Figure BDA0003685714850000056
为指数加权函数,α为尺度因子进行伸缩变换,W1,α(i)是水平方向经过加窗后的灰度图像,W2,α(i)是垂直方向上经过加窗后的灰度图像,R、R+是分别是左邻域和右邻域;
在ROEWA算子i方向上的比值为(算子的方向与灰度的方向不是同一个):
Figure BDA0003685714850000057
i=1或3;
S4、分别对雷达图像和光学图像构建特征空间:
Figure BDA0003685714850000061
RSH(x,y|α)=det(CSH)-dth×trace(CSH)2 (18)
其中,Gx,α、Gy,α为(16)式中的比值取对数后的结果,CSH(x,y|α)是过渡矩阵,σ2是高斯核,
Figure BDA0003685714850000065
是高斯标准差,det(CSH)为过渡矩阵的行列式,dth是预设阈值,trace(CSH)2表示秩的平方;通过将RSH与阈值比较大小来判定极值点可能出现的位置:如果RSH>阈值dth,则该点为潜在极值点。
S5、分别对雷达图像和光学图像进行极值点检测;具体实现方法为:经过构建(18)式矩阵,生成与(18)相同的Laplace空间:
F(x,y|α)=α2|Lxx(x,y|α)+Lyy(x,y|α)| (19)
Lxx(x,y|α)、Lyy(x,y|α)分别为x方向和y方向的拉普拉斯响应值;根据像素点的拉普拉斯响应值作为参考,通过峰值检测进行极值点检测:Lxx(x,y|α)、Lyy(x,y|α)是关于x,y的二元函数;分别求偏导得0的点并满足黑塞矩阵大于0的点为极值点;
由于Laplace空间是离散的,所以为了得出极值点精确位置需要进行插值操作:
Figure BDA0003685714850000063
其中,X代表连续空间坐标,X0代表离散空间坐标,上标T是转置,G(X)是连续点空间响应值,G(X0)是离散点空间响应值;对(20)式求偏导得:
Figure BDA0003685714850000064
利用ΔX对极值点坐标进行插值操作。
S6、分别对雷达图像和光学图像的极值点进行特征描述;具体实现方法为:由邻域内像素点幅值和方向共同对极值点予以加权描述;首先,以极值点为中心将邻域以主方向角θ1进行旋转,将主方向放在X轴上,旋转矩阵为:
Figure BDA0003685714850000071
邻域的大小由极值点所在空间层的尺度α决定,将邻域设置为高斯标准差的3倍,将0-360度的邻域平均分为36个子区域,每个子区域内横坐标代表梯度方向角,纵坐标为梯度幅值,每个子区域大小为m×m,每个子区域的直方图具有8个方向的梯度幅值,如图2所示。将这些梯度幅值按方向排列得到极值点的作为特征描述向量,每个子区域具有8×m×m维的特征描述向量。
S7、将雷达图像和光学图像的极值点进行匹配;具体实现方法为:在特征空间内,以特征向量的欧式距离衡量两个极值点的相似度,距离越近表示越相似,若值小于0.8则认为它们为正确的匹配点,称为局内点,否则为局外点:
Figure BDA0003685714850000072
(x1,y1)、(x2,y2)分别为雷达图像和光学图像上极值点的坐标。
S8、进行极值点筛选,得到匹配图像;具体实现方法为:雷达图像和光学图像之间的匹配关系为:
S(x,y)=T((x,y),θ) (24)
其中,S(x,y)是光学图像极值点(模板),(x,y)代表雷达图像极值点,θ代表雷达图像旋转角度,T代表匹配模型。
分别从雷达图像和光学图像选取经过匹配的两组极值点{p1,....,pl}和{p1,....,pl},l表示匹配的极值点总数量;将极值点用S6得到的特征描述向量表示,然后对两组极值点样本迭代地进行数据采样、最小二乘法拟合、一致集验证,生成最终的正确匹配点对集和由正确点对集拟合的仿射矩阵T(xi,yi),并计算映射范数:
e(ci,θ)=||S(xi,yi)-T(xi,yi)θ|| (25)
其中,e(ci,θ)为映射范数,该值越小说明图像匹配效果越好。
首先,为n(n<l)个局内点选择一个合适的模型T,并通过计算得到模型所有的未知参数;然后用该模型去测试局外点,如果某局外点的数据也适用于该模型,那么将该局外点也转为局内点;依此类推,如果有足够数量((l-n)/2)的局外点被转为局内点,那么选择的模型就是合适的;最后,利用所有的局内点对模型进行估算和误差分析,将以上过程重复操作l-n次,选取映射范数最小的模型为最佳模型,得到最佳仿射矩阵,然后利用最佳仿射矩阵对雷达图像和光学图像进行匹配。
本领域的普通技术人员将会意识到,这里所述的实施例是为了帮助读者理解本发明的原理,应被理解为本发明的保护范围并不局限于这样的特别陈述和实施例。本领域的普通技术人员可以根据本发明公开的这些技术启示做出各种不脱离本发明实质的其它各种具体变形和组合,这些变形和组合仍然在本发明的保护范围内。

Claims (6)

1.一种雷达图像与光学图像精确匹配方法,其特征在于,包括以下步骤:
S1、获取雷达图像及光学图像,并转化为灰度图像,得到雷达图像灰度矩阵S(x,y)与光学图像灰度矩阵O(x,y);x、y为图像中点的坐标;
S2、增加图像边缘信息:利用canny算子提取雷达图像和光学图像的边缘特性SE(x,y)与OE(x,y),并计算雷达图像与光学图像之间的相关系数r,以此更新雷达图像灰度矩阵S(x,y)与光学图像灰度矩阵O(x,y):
Figure FDA0003685714840000011
Figure FDA0003685714840000012
Figure FDA0003685714840000013
分别为雷达图像和光学图像的图像平均灰度值矩阵;
S3、采用加权指数平滑滤波器ROWEA进行滑动窗口滤波;
S4、分别对雷达图像和光学图像构建特征空间;
S5、分别对雷达图像和光学图像进行极值点检测;
S6、分别对雷达图像和光学图像的极值点进行特征描述;
S7、将雷达图像和光学图像的极值点进行匹配;
S8、进行极值点筛选,得到匹配图像。
2.根据权利要求1所述的一种雷达图像与光学图像精确匹配方法,其特征在于,所述步骤S4具体实现方法为:构建如下特征空间:
Figure FDA0003685714840000014
RSH(x,y|α)=det(CSH)-dth×trace(CSH)2 (4)
其中,Gx,α、Gy,α分别为水平方向和垂直方向上的梯度估计的对数;CSH(x,y|α)是过渡矩阵,σ2是高斯核,
Figure FDA0003685714840000015
是高斯标准差,det(CSH)为过渡矩阵的行列式,dth是预设阈值,trace(CSH)2表示秩的平方;通过将RSH与阈值比较大小来判定极值点可能出现的位置:如果RSH>阈值dth,则该点为潜在极值点。
3.根据权利要求2所述的一种雷达图像与光学图像精确匹配方法,其特征在于,所述步骤S5具体实现方法为:经过构建(4)式矩阵,生成与(4)相同的Laplace空间:
F(x,y|α)=α2|Lxx(x,y|α)+Lyy(x,y|α)| (5)
Lxx(x,y|α)、Lyy(x,y|α)分别为x方向和y方向的拉普拉斯响应值;根据像素点的拉普拉斯响应值作为参考,通过峰值检测进行极值点检测;
由于Laplace空间是离散的,所以为了得出极值点精确位置需要进行插值操作:
Figure FDA0003685714840000021
其中,X代表连续空间坐标,X0代表离散空间坐标,上标T是转置,G(X)是连续点空间响应值,G(X0)是离散点空间响应值;对(6)式求偏导得:
Figure FDA0003685714840000022
利用ΔX对极值点坐标进行插值操作。
4.根据权利要求1所述的一种雷达图像与光学图像精确匹配方法,其特征在于,所述步骤S6具体实现方法为:由邻域内像素点幅值和方向共同对极值点予以加权描述;首先,以极值点为中心将邻域以主方向角θ1进行旋转,将主方向放在X轴上,旋转矩阵为:
Figure FDA0003685714840000023
邻域的大小由极值点所在空间层的尺度α决定,将邻域设置为高斯标准差的3倍,将0-360度的邻域平均分为36个子区域,每个子区域内横坐标代表梯度方向角,纵坐标为梯度幅值,每个子区域大小为m×m,每个子区域的直方图具有8个方向的梯度幅值,将这些梯度幅值按方向排列得到极值点的作为特征描述向量,每个子区域具有8×m×m维的特征描述向量。
5.根据权利要求1所述的一种雷达图像与光学图像精确匹配方法,其特征在于,所述步骤S7具体实现方法为:在特征空间内,以特征向量的欧式距离衡量两个极值点的相似度,距离越近表示越相似,若值小于0.8则认为它们为正确的匹配点,称为局内点,否则为局外点:
Figure FDA0003685714840000024
(x1,y1)、(x2,y2)分别为雷达图像和光学图像上极值点的坐标。
6.根据权利要求1所述的一种雷达图像与光学图像精确匹配方法,其特征在于,所述步骤S8具体实现方法为:雷达图像和光学图像之间的匹配关系为:
S(x,y)=T((x,y),θ) (10)
其中,(x,y)是光学图像极值点,(x,y)代表雷达图像极值点,θ代表雷达图像旋转角度,T代表匹配模型;
分别从雷达图像和光学图像选取经过匹配的两组极值点{p1,....,pl}和{p1,....,pl},l表示匹配的极值点总数量;将极值点用S6得到的特征描述向量表示,然后对两组极值点样本迭代地进行数据采样、最小二乘法拟合、一致集验证,生成最终的正确匹配点对集和由正确点对集拟合的仿射矩阵T(xi,yi),并计算映射范数:
e(ci,θ)=||S(xi,yi)-T(xi,yi)θ|| (11)
其中,e(ci,θ)为映射范数,该值越小说明图像匹配效果越好。
首先,为n个局内点选择一个模型T,并通过计算得到模型所有的未知参数;然后用该模型去测试局外点,如果某局外点的数据也适用于该模型,那么将该局外点也转为局内点;依此类推,如果有足够数量((l-n)/2)的局外点被转为局内点,那么选择的模型就是合适的;最后,利用所有的局内点对模型进行估算和误差分析,将以上过程重复操作l-n次,选取映射范数最小的模型为最佳模型,得到最佳仿射矩阵,然后利用最佳仿射矩阵对雷达图像和光学图像进行匹配。
CN202210645447.9A 2022-06-09 2022-06-09 一种雷达图像与光学图像精确匹配方法 Active CN115035326B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210645447.9A CN115035326B (zh) 2022-06-09 2022-06-09 一种雷达图像与光学图像精确匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210645447.9A CN115035326B (zh) 2022-06-09 2022-06-09 一种雷达图像与光学图像精确匹配方法

Publications (2)

Publication Number Publication Date
CN115035326A true CN115035326A (zh) 2022-09-09
CN115035326B CN115035326B (zh) 2024-04-12

Family

ID=83123131

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210645447.9A Active CN115035326B (zh) 2022-06-09 2022-06-09 一种雷达图像与光学图像精确匹配方法

Country Status (1)

Country Link
CN (1) CN115035326B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115932823A (zh) * 2023-01-09 2023-04-07 中国人民解放军国防科技大学 基于异源区域特征匹配的飞行器对地面目标定位方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101556695A (zh) * 2009-05-15 2009-10-14 广东工业大学 一种图像匹配方法
CN102495407A (zh) * 2011-11-14 2012-06-13 电子科技大学 一种极化合成孔径雷达图像相似度的表征方法
US20120328203A1 (en) * 2011-06-22 2012-12-27 The Boeing Company Image Registration
CN104867126A (zh) * 2014-02-25 2015-08-26 西安电子科技大学 基于点对约束和三角形网的有变化区域的合成孔径雷达图像配准方法
CN107292922A (zh) * 2017-06-23 2017-10-24 电子科技大学 一种用于光学与合成孔径雷达图像配准的方法
CN109035152A (zh) * 2018-05-23 2018-12-18 电子科技大学 一种合成孔径雷达图像非局部均值滤波方法
CN112017223A (zh) * 2020-09-11 2020-12-01 西安电子科技大学 基于改进SIFT-Delaunay的异源图像配准方法
CN114283213A (zh) * 2021-12-23 2022-04-05 陈林霞 联合LiDAR点云与光学图像的房屋自适应矢量化方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101556695A (zh) * 2009-05-15 2009-10-14 广东工业大学 一种图像匹配方法
US20120328203A1 (en) * 2011-06-22 2012-12-27 The Boeing Company Image Registration
CN102495407A (zh) * 2011-11-14 2012-06-13 电子科技大学 一种极化合成孔径雷达图像相似度的表征方法
CN104867126A (zh) * 2014-02-25 2015-08-26 西安电子科技大学 基于点对约束和三角形网的有变化区域的合成孔径雷达图像配准方法
CN107292922A (zh) * 2017-06-23 2017-10-24 电子科技大学 一种用于光学与合成孔径雷达图像配准的方法
CN109035152A (zh) * 2018-05-23 2018-12-18 电子科技大学 一种合成孔径雷达图像非局部均值滤波方法
CN112017223A (zh) * 2020-09-11 2020-12-01 西安电子科技大学 基于改进SIFT-Delaunay的异源图像配准方法
CN114283213A (zh) * 2021-12-23 2022-04-05 陈林霞 联合LiDAR点云与光学图像的房屋自适应矢量化方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
WANNAN ZHANG: "Combination of SIFT and Canny Edge Detection for Registration Between SAR and Optical Images", 《IEEE GEOSCIENCE AND REMOTE SENSING LETTERS》, 21 December 2020 (2020-12-21) *
YIGANG WANG等: "An Adaptive SAR and Optical Images Registration Approach Based on SOI-SIFT", 《 IGARSS 2022 - 2022 IEEE INTERNATIONAL GEOSCIENCE AND REMOTE SENSING SYMPOSIUM》, 28 September 2022 (2022-09-28) *
刘佳敏, 周荫清, 李春升: "基于边缘信息的SAR与可见光景像匹配算法", 遥测遥控, no. 02, 20 April 2003 (2003-04-20) *
张皖南;杨学志;董张玉;: "一种改进的SAR与可见光图像的快速配准算法", 图学学报, no. 02, 15 April 2018 (2018-04-15) *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115932823A (zh) * 2023-01-09 2023-04-07 中国人民解放军国防科技大学 基于异源区域特征匹配的飞行器对地面目标定位方法

Also Published As

Publication number Publication date
CN115035326B (zh) 2024-04-12

Similar Documents

Publication Publication Date Title
CN110097093B (zh) 一种异源图像精确匹配方法
CN109409292B (zh) 基于精细化特征优化提取的异源图像匹配方法
CN111079556A (zh) 一种多时相无人机视频图像变化区域检测及分类方法
CN110992263B (zh) 一种图像拼接方法及系统
CN109584193A (zh) 一种基于目标预提取的无人机红外与可见光图像融合方法
CN105096317A (zh) 一种复杂背景中的高性能相机全自动标定方法
CN110569861B (zh) 一种基于点特征和轮廓特征融合的图像匹配定位方法
CN111369605B (zh) 一种基于边缘特征的红外与可见光图像的配准方法和系统
CN113256653B (zh) 一种面向高层地物的异源高分遥感影像配准方法
CN108647580B (zh) 基于改进sift引导isar图像特征点提取匹配方法
CN107240130B (zh) 遥感影像配准方法、装置及系统
CN110222661B (zh) 一种用于运动目标识别及跟踪的特征提取方法
CN110245566B (zh) 一种基于背景特征的红外目标远距离追踪方法
CN102938147A (zh) 一种基于快速鲁棒特征的低空无人机视觉定位方法
CN114331879A (zh) 一种均衡化二阶梯度直方图描述子的可见光与红外图像配准方法
CN106897730B (zh) 基于融合类别信息与局部保持投影的sar目标型号识别方法
CN115035326A (zh) 一种雷达图像与光学图像精确匹配方法
CN109508674B (zh) 基于区域划分的机载下视异构图像匹配方法
CN112734816B (zh) 基于CSS-Delaunay的异源图像配准方法
CN110738098A (zh) 一种目标的识别定位与锁定跟踪方法
CN114565653B (zh) 一种存在旋转变化和尺度差异的异源遥感图像匹配方法
CN116665097A (zh) 一种结合上下文感知的自适应目标跟踪方法
CN116128919A (zh) 基于极线约束的多时相图像异动目标检测方法及系统
CN110223250B (zh) 基于单应变换的sar几何校正方法
CN113592953A (zh) 一种基于特征点集的双目非合作目标位姿测量方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant