CN113066015B - 一种基于神经网络的多模态遥感影像旋转差异校正方法 - Google Patents
一种基于神经网络的多模态遥感影像旋转差异校正方法 Download PDFInfo
- Publication number
- CN113066015B CN113066015B CN202110530035.6A CN202110530035A CN113066015B CN 113066015 B CN113066015 B CN 113066015B CN 202110530035 A CN202110530035 A CN 202110530035A CN 113066015 B CN113066015 B CN 113066015B
- Authority
- CN
- China
- Prior art keywords
- image
- neural network
- rotation
- remote sensing
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 39
- 238000000034 method Methods 0.000 title claims abstract description 31
- 238000012937 correction Methods 0.000 title claims abstract description 26
- 239000013598 vector Substances 0.000 claims abstract description 47
- 238000007781 pre-processing Methods 0.000 claims abstract description 8
- 238000004364 calculation method Methods 0.000 claims description 13
- 238000010586 diagram Methods 0.000 claims description 9
- 238000010606 normalization Methods 0.000 claims description 7
- 238000012545 processing Methods 0.000 claims description 6
- 238000012549 training Methods 0.000 claims description 6
- 238000010276 construction Methods 0.000 claims description 2
- 230000003247 decreasing effect Effects 0.000 claims 1
- 230000005855 radiation Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 238000009412 basement excavation Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000003313 weakening effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/60—Rotation of whole images or parts thereof
- G06T3/608—Rotation of whole images or parts thereof by skew deformation, e.g. two-pass or three-pass rotation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于神经网络的多模态遥感影像旋转差异校正方法。包括以下步骤:S1:获取一组具有相同目标场景的多模态遥感影像对,进行影像预处理;S2:针对每幅预处理后的影像,计算相位一致性特征值与方向角,并根据相位一致性特征值与方向角计算影像的旋转特征向量;S3:分别将两幅影像的旋转特征向量作为神经网络的输入,计算输出两幅影像的预测差异角;S4:基于预测差异角,完成多模态遥感影像旋转差异角的校正。本发明有效解决了在仅有简单影像数据信息的情况下,快速准确地预测多模态遥感影像间旋转差异角的技术问题,摆脱了辅助地理空间信息的限制。
Description
技术领域
本发明涉及遥感图像处理技术领域,更具体的说是涉及多模态遥感影像匹配中针对旋转差异进行粗校准的预处理方法。
背景技术
多模态遥感影像匹配是遥感图像处理技术领域的重要研究任务,具有十分广阔的应用前景。实现遥感影像间的精确配准有助于将不同成像源、不同时相等的各类遥感影像数据的内在信息相互关联起来,从多个角度提高联合影像的可利用性。
然而,几何差异与非线性辐射畸变是制约遥感影像配准精度的关键难点,几何差异主要包括尺度差异与旋转差异。尺度不变特征变换(SIFT)及其改进算法通过尺度金字塔的构建与标记主方向等方法较好地实现了算法对同源影像间几何差异的鲁棒性,然而,由于多模态影像潜在的非线性辐射畸变与噪声,该算法仍然受到一定的局限;近年来,叶沅鑫等学者提出的定向相位一致性直方图(HOPC)算法与定向梯度通道特征(CFOG)算法则在配准过程中利用了相对准确的辅助几何地理信息分别对参考图像与目标图像进行几何校正,通过初始配准消除图像对之间明显的旋转和平移差异,但在实践中,图像的地理信息可能不够准确甚至无法使用,相关算法也将失去原有的作用;周微硕,安博文等人在论文《基于几何不变性和局部相似特征的异源遥感图像配准算法》(红外技术,2019,41(06):561-571)中公开了一种基于几何不变性与局部相似特征进行遥感影像匹配的方法,该方法利用了加速鲁棒特征算子对存在几何差异的异源遥感图像进行了预匹配,随后利用SURF(SpeededUp Robust Features,加速鲁棒特征)算法的特征方向生成原理获得已提取粗匹配点的特征方向矢量,并消除粗大误差,然后计算两幅图像之间的特征方向角度差,接着根据相应角度差,并结合双三次插值法对图像进行旋转校正,最后将待配准图像中的粗匹配点进行与图像校正一致的点坐标校正转换,虽然该方法在特征点的方向提取与生成上做出了较好的改进,在一定程度上实现了异源图像旋转差异的校正,但该方法中主方向的选取主要基于SURF算法,对于有较大辐射畸变的各类多模态遥感影像很难取得很好的表现,同时,该方法对初始粗匹配具有较高的依赖,因此仍然具有一定的局限性。
因此,如何提供一种无需利用任何辅助地理空间信息并能够对多模态遥感影像旋转差异进行较高精度校正的方法是本领域技术人员亟需解决的问题。
发明内容
有鉴于此,本发明提供了一种基于神经网络的多模态遥感影像旋转差异校正方法,以解决背景技术存在的技术问题,拓展影像匹配算法的普适性。
为了实现上述目的,本发明采用如下技术方案:
一种基于神经网络的多模态遥感影像旋转差异校正方法,包括以下步骤:
S1:获取一组具有相同目标场景的多模态遥感影像对,进行影像预处理;
S2:针对每幅预处理后的影像,计算相位一致性特征值与方向角,并根据相位一致性特征值与方向角计算影像的旋转特征向量;
S3:分别将两幅影像的旋转特征向量作为神经网络的输入,计算输出两幅影像的预测差异角;
S4:基于预测差异角,完成多模态遥感影像旋转差异角的校正。
优选的,所述校正方法还包括:构建并训练神经网络,所述神经网络包括两个输入分支,步骤S2计算的两幅影像的旋转特征向量分别作为所述神经网络两个分支的输入。
优选的,所述神经网络两个输入分支结构相同,包括五个输出维度依次递减的全连接层与一个Dropout层,所述两个输入分支通过欧氏距离相连接为一个主干。
优选的,所述两个输入分支连接成的主干依次接入两个全连接层与一个Log-softmax层输出层。
优选的,所述S1中影像预处理包括以下过程,判断两幅影像是否为全色黑白影像,如果是则调整两幅影像的分辨率,使两幅影像的分辨率大小相同;如果不是则先通过加权将影像转换成为全色黑白影像再进行分辨率的调整。
优选的,所述步骤S2中的相位一致性特征值与方向角,具体计算过程包括对影像每个像素点(x,y),其在log-Gabor滤波器所有不同尺度s、不同方向o下的相位一致性测度PC(x,y)的计算公式为:
构建中间变量a、b如下式所示:
优选的,所述每幅影像的旋转特征向量的计算包括以下步骤:
S21对单幅影像,将每个像素点的相位一致性特征值的集合构成该影像的相位一致性特征图,每个像素点的相位一致性方向角的集合构成该影像的方向图;
S22在相位一致性特征图上,对影像的每个像素点的相位一致性特征值PC(x,y)与方向角影像的初始化旋转特征向量为Rot=(r0,r1,……,rj,……,r359),令其中符号表示向下取整,当n+1=360时,令rn+1=r0,则有如下计算式:
S23依次遍历影像的所有像素点,将初始化旋转特征向量Rot中每一个元素rj进行归一化处理后即为该影像的旋转特征向量Rotn,归一化计算式如下:
nj=(rj-rm)/(rM-rm)
式中rM、rm分别表示初始化旋转特征向量Rot中元素最大值与最小值,nj表示rj归一化处理后对应的旋转特征向量Rotn中元素。
优选的,所述步骤S3中的预测差异角的计算包括以下步骤:
S31:将两幅影像的旋转特征向量作为神经网络的输入,经过神经网络输出1×1×180维特征向量,记为:
Aout=(a0,a1,……,ai,……,a179)
S32:将向量Aout视为向量环,即a0的前一位元素为a179,取Aout中元素的最大值,记为am,其位于向量中的位置为m,计算am前89位元素的和为Sm1,后89位元素的和为Sm2,设网络训练误差为error,则预测差异角为:
Ang=(m+(Sm1-Sm2)×error/2(Sm1+Sm2))
经由上述的技术方案可知,本发明公开提供了一种基于神经网络的多模态遥感影像旋转差异校正方法,对待配准图像进行旋转仿射校正,与现有技术相比具有以下有益效果:
1、在本发明中,首先应用了相位一致性信息来构建影像的旋转特征向量,该思想一方面利用了相位一致性信息对非线性辐射畸变的鲁棒性,从根本上减弱了多模态遥感影像辐射畸变的影响,加强了算法对各类多模态影像应用的普适性;另一方面,以提取的稳健特征向量作为后续步骤中神经网络的输入有利于简化网络结构,可潜在地提高旋转差异预测精度与算法执行速度。
2、本发明搭建了双分支结构神经网络进行旋转差异的预测。该过程在旋转差异预测任务中首次引入神经网络,有助于对影像内在旋转特征进行更深入的挖掘,较大程度地消除校正误差,权重共享的双分支结构则充分联合了两幅影像的相似与差异信息,最终实现旋转差异的精确校正。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1是根据本发明实施例的基于神经网络的多模态遥感影像旋转差异校正方法的步骤流程图;
图2是根据本发明实施例的神经网络结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例公开了一种基于神经网络的多模态遥感影像旋转差异校正方法,如图1所示包括以下步骤:
S1:获取一组具有相同目标场景的多模态遥感影像对,进行影像预处理;
S2:针对每幅预处理后的影像,计算相位一致性特征值与方向角,并根据相位一致性特征值与方向角计算影像的旋转特征向量;
S3:分别将两幅影像的旋转特征向量作为神经网络的输入,计算输出两幅影像的预测差异角;
S4:基于预测差异角,完成多模态遥感影像旋转差异角的校正。
为了进一步优化上述技术方案,上述校正方法还包括:构建并训练神经网络,所述神经网络包括两个输入分支,步骤S2计算的两幅影像的旋转特征向量分别作为所述神经网络两个分支的输入。
如图2所示用于预测差异角的神经网络具有两个输入分支,每个分支结构相同,均由五个全连接层与一个Dropout层构成,两个分支通过欧氏距离相连接为一个主干,随后主干再接入两个全连接层与一个Log-softmax层,神经网络具体结构参见下表
层名称 | 层位置 | 层性质 | 输出维度 | 激活函数 |
Branch-FC0 | 分支 | 全连接层 | 1×1×1024 | ReLU |
Branch-FC1 | 分支 | 全连接层 | 1×1×512 | ReLU |
Branch-FC2 | 分支 | 全连接层 | 1×1×256 | ReLU |
Branch-FC3 | 分支 | 全连接层 | 1×1×128 | ReLU |
Branch-FC4 | 分支 | 全连接层 | 1×1×64 | ReLU |
Dropout | 分支 | Dropout层 | 1×1×64 | - |
FC5 | 主干 | 全连接层 | 1×1×128 | ReLU |
FC6 | 主干 | 全连接层 | 1×1×180 | ReLU |
Log-softmax | 主干 | 输出层 | 1×1×180 | - |
步骤S1中影像预处理首先判断影像是否为全色黑白,如果是则转入第二步将两幅影像重采样,调整两幅影像的分辨率,使其分辨率大小相同,否则将多通道影像加权转换成为黑白影像再转入第二步进行分辨率的调整;
步骤S2中对每幅影像的每个像素点(x,y),其在log-Gabor滤波器所有不同尺度s、不同方向o下的相位一致性测度PC(x,y)如下式(1)所示:
式(1)中wo(x,y)为基于频响范围的权值函数,T为噪声阈值,ξ为一个小量,运算符表示当且仅当表达式为正时取本身,否则取0,振幅分量Aso(x,y)、相位偏差函数ΔΦso(x,y)的定义分别如式(2)、(3)所示:
上述式(2)~(6)中Eso(x,y)、Oso(x,y)为滤波后的响应分量,定义如式(7)所示:
[Eso(x,y),Oso(x,y)]
=[I(x,y)*Leven(x,y,s,o),I(x,y)*Lodd(x,y,s,o)] (7)
式(7)中Leven(x,y,s,o)与Lodd(x,y,s,o)分别为二维log-Gabor滤波函数在空间域内的实部与虚部,其中二维log-Gabor滤波函数的形式如式(8)所示:
式(8)中(ρ,θ)代表对数极坐标,s、o为滤波器的尺度与方向,ρs、θso为中心频率对应参数,σρ、σθ为ρ、θ的带宽;
计算像素点(x,y)的相位一致性方向角,设式(7)中响应分量Oso(x,y)在方向θ下的值为Oso(θ),构建中间变量a、b如下所示:
a=∑θ(Oso(θ)cos(θ)) (9)
b=∑θ(Oso(θ)sin(θ)) (10)
其中,方向角范围在[0°,360°)内;
对单幅影像,由公式(1)计算得每个像素点的相位一致性特征值的集合构成该影像的相位一致性特征图,公式(11)计算的每个像素点的相位一致性方向角的集合构成该影像的方向图;
初始化影像的旋转特征向量为Rot=(r0,r1,……,rj,……,r359),对影像的每个像素点的相位一致性特征值PC(x,y)与方向角令其中符号表示向下取整。当n+1=360时,令rn+1=r0,则有如下计算式:
依次遍历影像的所有像素点,根据其相位一致性方向角的大小,以特征值为权重,更新向量Rot的各元素值,并对向量Rot进行归一化处理后即为该影像的旋转特征向量Rotn:
设向量Rotn=(n0,n1,……,nj,……,n359),rM、rm分别为向量Rot中元素最大值与最小值,对Rotn中每一个元素nj(j∈[0,359],j∈Z),归一化计算式如下:
nj=(rj-rm)/(rM-rm) (13)
最终得到大小为1×360的旋转特征向量Rotn。
步骤S3中分别将两幅影像的旋转特征向量作为神经网络的两个分支的输入,输出1×1×180维特征向量,记为Aout=(a0,a1,……,ai,……,a179),其中a0=a1=...ai...=a179=0;将向量Aout视为向量环,即a0的前一位元素为a179,取Aout中元素的最大值,记为am,其位于向量中的位置为m(m∈[0,179],m∈Z)。计算am前89位元素的和为Sm1,后89位元素的和为Sm2,舍去am向前第90位(或向后第90位)的元素,设网络的训练误差error=5°,则预测差异角由下式计算:
Ang=(m+(Sm1-Sm2)×error/2(Sm1+Sm2)) (14)
步骤S3计算获取预测差异角后对影像进行相应角度的旋转,使两幅影像角度近乎一致,完成多模态遥感影像旋转差异角的校正。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (5)
1.一种基于神经网络的多模态遥感影像旋转差异校正方法,其特征在于,所述校正方法包括以下步骤:
S1:获取一组具有相同目标场景的多模态遥感影像对,进行影像预处理;
S2:针对每幅预处理后的影像,计算相位一致性特征值与方向角,并根据相位一致性特征值与方向角计算影像的旋转特征向量;
构建并训练神经网络,所述神经网络包括两个输入分支,计算的两幅影像的旋转特征向量分别作为所述神经网络两个分支的输入;
所述每幅影像的旋转特征向量的计算包括以下步骤:
S21对单幅影像,将每个像素点的相位一致性特征值的集合构成该影像的相位一致性特征图,每个像素点的相位一致性方向角的集合构成该影像的方向图;
S22在相位一致性特征图上,对影像的每个像素点的相位一致性特征值PC(x,y)与方向角影像的初始化旋转特征向量为Rot=(r0,r1,……,rj,……,r359),令其中符号表示向下取整,当n+1=360时,令rn+1=r0,则有如下计算式:
S23依次遍历影像的所有像素点,将初始化旋转特征向量Rot中每一个元素rj进行归一化处理后即为该影像的旋转特征向量Rotn,归一化计算式如下:
nj=(rj-rm)/(rM-rm)
式中rM、rm分别表示初始化旋转特征向量Rot中元素最大值与最小值,nj表示rj归一化处理后对应的旋转特征向量Rotn中元素;
S3:分别将两幅影像的旋转特征向量作为神经网络的输入,计算输出两幅影像的预测差异角;
具体包括以下步骤:
S31:将两幅影像的旋转特征向量作为神经网络的输入,经过神经网络输出1×1×180维特征向量,记为:
Aout=(a0,a1,……,ai,……,a179)
S32:将向量Aout视为向量环,即a0的前一位元素为a179,取Aout中元素的最大值,记为am,其位于向量中的位置为m,计算am前89位元素的和为Sm1,后89位元素的和为Sm2,设网络训练误差为error,则预测差异角为:
Ang=(m+(Sm1-Sm2)×error/2(Sm1+Sm2))
S4:基于预测差异角,完成多模态遥感影像旋转差异角的校正。
2.根据权利要求1所述的基于神经网络的多模态遥感影像旋转差异校正方法,其特征在于:所述神经网络两个输入分支结构相同,包括五个输出维度依次递减的全连接层与一个Dropout层,所述两个输入分支通过欧氏距离相连接为一个主干。
3.根据权利要求2的基于神经网络的多模态遥感影像旋转差异校正方法,其特征在于:所述两个输入分支连接成的主干依次接入两个全连接层与一个Log-softmax层输出层。
4.根据权利要求1所述的基于神经网络的多模态遥感影像旋转差异校正方法,其特征在于:所述S1中影像预处理包括以下过程,判断两幅影像是否为全色黑白影像,如果是则调整两幅影像的分辨率,使两幅影像的分辨率大小相同;如果不是则先通过加权将影像转换成为全色黑白影像再进行分辨率的调整。
5.根据权利要求1所述的基于神经网络的多模态遥感影像旋转差异校正方法,其特征在于:
所述步骤S2中的相位一致性特征值与方向角,具体计算过程包括,对影像每个像素点(x,y),其在log-Gabor滤波器所有不同尺度s、不同方向o下的相位一致性测度PC(x,y)的计算公式为:
构建中间变量a、b如下式所示:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110530035.6A CN113066015B (zh) | 2021-05-14 | 2021-05-14 | 一种基于神经网络的多模态遥感影像旋转差异校正方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110530035.6A CN113066015B (zh) | 2021-05-14 | 2021-05-14 | 一种基于神经网络的多模态遥感影像旋转差异校正方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113066015A CN113066015A (zh) | 2021-07-02 |
CN113066015B true CN113066015B (zh) | 2022-06-03 |
Family
ID=76568630
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110530035.6A Expired - Fee Related CN113066015B (zh) | 2021-05-14 | 2021-05-14 | 一种基于神经网络的多模态遥感影像旋转差异校正方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113066015B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113689479B (zh) * | 2021-07-23 | 2023-05-23 | 电子科技大学 | 一种无人机热红外可见光影像配准的方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111414968B (zh) * | 2020-03-26 | 2022-05-03 | 西南交通大学 | 一种基于卷积神经网络特征图的多模态遥感影像匹配方法 |
CN112634335A (zh) * | 2020-12-25 | 2021-04-09 | 清华大学 | 面向非线性辐射畸变的稳健遥感影像特征点对提取方法 |
-
2021
- 2021-05-14 CN CN202110530035.6A patent/CN113066015B/zh not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
CN113066015A (zh) | 2021-07-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110097093B (zh) | 一种异源图像精确匹配方法 | |
Wu et al. | PSOSAC: Particle swarm optimization sample consensus algorithm for remote sensing image registration | |
Chang et al. | Remote sensing image registration based on modified SIFT and feature slope grouping | |
JP5289412B2 (ja) | 局所特徴量算出装置及び方法、並びに対応点探索装置及び方法 | |
CN112150520A (zh) | 一种基于特征点的图像配准方法 | |
CN110135438B (zh) | 一种基于梯度幅值预运算的改进surf算法 | |
CN107862708A (zh) | 一种sar与可见光图像配准方法 | |
CN112634335A (zh) | 面向非线性辐射畸变的稳健遥感影像特征点对提取方法 | |
Zhang | Combination of SIFT and Canny edge detection for registration between SAR and optical images | |
Xiang et al. | Progressive keypoint detection with dense Siamese network for SAR image registration | |
Lee et al. | Accurate registration using adaptive block processing for multispectral images | |
CN116664892A (zh) | 基于交叉注意与可形变卷积的多时相遥感图像配准方法 | |
CN113066015B (zh) | 一种基于神经网络的多模态遥感影像旋转差异校正方法 | |
CN114066954B (zh) | 一种用于多模态图像的特征提取配准方法 | |
Fan et al. | A robust oriented filter-based matching method for multisource, multitemporal remote sensing images | |
CN114358150A (zh) | 一种sar-可见光遥感图像匹配方法 | |
CN113763274A (zh) | 一种联合局部相位锐度定向描述的多源图像匹配方法 | |
CN106651756B (zh) | 一种基于sift和验证机制的图像配准方法 | |
CN112837353A (zh) | 一种基于多阶特征点线匹配的异源影像匹配方法 | |
CN115564808B (zh) | 基于公共空-谱子空间的多分辨率高光谱/sar影像配准方法 | |
CN116363175A (zh) | 基于注意力机制的极化sar图像配准方法 | |
Teng et al. | OMIRD: Orientated modality independent region descriptor for Optical-to-SAR image matching | |
CN116188249A (zh) | 基于图像块三阶段匹配的遥感图像配准方法 | |
Tang et al. | An SIFT-Based Fast Image Alignment Algorithm for High-Resolution Image | |
Yu et al. | SAR pixelwise registration via multiscale coherent point drift with iterative residual map minimization |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20220603 |
|
CF01 | Termination of patent right due to non-payment of annual fee |