CN112861714A - 一种基于深度学习和多子图匹配的遥感图像匹配方法 - Google Patents

一种基于深度学习和多子图匹配的遥感图像匹配方法 Download PDF

Info

Publication number
CN112861714A
CN112861714A CN202110166034.8A CN202110166034A CN112861714A CN 112861714 A CN112861714 A CN 112861714A CN 202110166034 A CN202110166034 A CN 202110166034A CN 112861714 A CN112861714 A CN 112861714A
Authority
CN
China
Prior art keywords
remote sensing
sensing image
feature
image
sub
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110166034.8A
Other languages
English (en)
Inventor
王雨菡
李华旺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Engineering Center for Microsatellites
Innovation Academy for Microsatellites of CAS
Original Assignee
Shanghai Engineering Center for Microsatellites
Innovation Academy for Microsatellites of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Engineering Center for Microsatellites, Innovation Academy for Microsatellites of CAS filed Critical Shanghai Engineering Center for Microsatellites
Priority to CN202110166034.8A priority Critical patent/CN112861714A/zh
Publication of CN112861714A publication Critical patent/CN112861714A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/176Urban or other man-made structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/182Network patterns, e.g. roads or rivers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation

Abstract

本发明涉及遥感图像处理领域,提出了一种基于深度学习和多子图匹配的遥感图像匹配方法,包括:提供用于生成遥感图像的子图的神经网络;将待匹配遥感图像和参考图像输入所述神经网络中生成子图;对所述子图进行特征的提取以获得子图的特征点的分布图;对所述特征点进行特征匹配,以选取最优特征对集合;以及将所述最优特征对集合取并集,并且映射回待匹配遥感图像。通过多子图的图像匹配替代现有技术中遥感图像整体的图像匹配,以及通过深度学习的方式生成遥感图像子图的方法,能够提取遥感图像的有效语义信息,从而过滤掉遥感图像中语义不明的信息点,实现对遥感图像的冗余信息的过滤,提升了遥感图像匹配的精度和效率。

Description

一种基于深度学习和多子图匹配的遥感图像匹配方法
技术领域
本发明总的来说涉及遥感图像处理领域,具体而言涉及一种基于深度学习和多子图匹配的遥感图像匹配方法。
背景技术
图像匹配的任务是寻找两幅或多幅图像中像素点间的对应关系。目前针对遥感图像做匹配的方法主要有两类,一类是基于区域的匹配方法,一类是基于特征的匹配方法。这两类方法中,基于特征的匹配方法计算量小,鲁棒性好,且对图像形变不敏感。由于遥感图像的成像会受到噪声、季节变化、光照变化等因素的影响,因此基于特征的匹配方法是更为合适也更为常用的方法。
基于特征的图像匹配方法主要包括三个步骤:特征提取、特征描述和特征匹配。
特征选取具有如下要求:在图像匹配的过程中,应依据实际待匹配图像的特性来决定特征的选取。所选取的特征应显著、易于提取、且在参考图像和模板图像上都有足够的分布。在特征选取中,常用的特征主要包括三类:点特征,包括拐点和角点;线特征,包括边缘曲线和直线段;以及面特征,包括小面元、闭合区域。以SIFT(Scale-invariant featuretransform)方法为例,它通过建立高斯差分尺度空间DoG(Difference of Gaussians),在DoG空间中检测出极值点作为特征点。
特征描述,仍以SIFT方法为例,SIFT算子通过梯度方向直方图对提取出的特征点进行描述。
特征匹配,在SIFT方法中,特征点的匹配通过计算两组特征点的128维的关键点的欧式距离实现。欧式距离越小,则相似度越高,当欧式距离小于设定的阈值时,可以判定为匹配成功。
对遥感图像而言,由于遥感图像具有纹理细节丰富、重复结构较多等特点,在进行特征点匹配时,容易受到图像背景冗余信息的影响,导致特征点错误匹配率较高,匹配性能低下。
具体而言,现有技术中的遥感图像匹配方法存在以下问题:在对遥感图像进行特征提取时,会很容易提取到大量极为相似的特征点;在特征匹配的过程中,由于进行的是全局特征点匹配,将很容易受到图像背景信息的影响,导致特征点的错误匹配率高;以及由于图像信息较为繁杂,会导致特征匹配的性能低下。
发明内容
针对上述现有技术中的问题,本发明提出一种基于深度学习和多子图匹配的遥感图像匹配方法,通过对遥感图像的冗余信息进行过滤,以至少部分解决上述问题。
具体而言,本发明提出一种基于深度学习和多子图匹配的遥感图像匹配方法,包括下列步骤:
提供用于生成遥感图像的子图的神经网络;
将待匹配遥感图像和参考图像输入所述神经网络中生成子图;
对所述子图进行特征的提取以获得子图的特征点的分布图;
对所述特征点进行特征匹配,以选取最优特征对集合;以及
将所述最优特征对集合取并集,并且映射回待匹配遥感图像。
在本发明的一个实施例中规定,提供用于生成遥感图像的子图的神经网络包括下列步骤:
选取所述神经网络的训练内容,包括:
选取遥感图像中的地物类别;
将所述地物类别编号,其中所述编号作为地物编号标签;
生成所述地物类别与地物编号标签的映射关系;以及
选取遥感图像打上地物编号标签作为神经网络的训练内容;
构建语义分割神经网络;以及
使用所述训练内容对语义分割神经网络进行训练,以获得用于生成遥感图像的子图的神经网络。
在本发明的一个实施例中规定,其中
所述地物类别包括建筑物、水域、道路、耕地和植被;
所述地物编号标签的集合表示为:T{0,1,2,3,4…};以及
所述地物类别与地物编号标签的映射关系表示为:{建筑物:0,水域:1,道路:2,耕地:3,植被:4,…}。
在本发明的一个实施例中规定,所述子图还包括:建筑物分布图、水域分布图、道路分布图、耕地分布图和植被分布图。
在本发明的一个实施例中规定,将待匹配遥感图像和参考图像输入所述神经网络中生成子图包括下列步骤:
将待匹配遥感图像A和参考图像B输入所述神经网络;以及
输出匹配遥感图像A的子图的集合Am和参考图像B的子图的集合Bn,表示为下式:
Am{a1,a2,…,am},Bn{b1,b2,…,bn},
其中一个子图表示一种地物类别,地物类别与地物编号标签的映射关系表示为C。
在本发明的一个实施例中规定,将所述特征点进行特征匹配,以选取最优特征对集合包括下列步骤:
选取Am和Bn中地物类别相同的子图,表示为下式:
C(ai)=C(bj)
其中ai和bj表示地物类别相同的子图;以及
将ai和bj的特征点的分布图进行匹配,并且选取匹配程度最高的ai和bj以作为最优特征对集合。
在本发明的一个实施例中规定,对所述子图进行特征的提取,以获得子图的特征点的分布图还包括:对所述子图进行surf特征的提取,以获得子图的surf特征点的分布图。
在本发明的一个实施例中规定,对所述特征点进行特征匹配,以选取最优特征对集合还包括:进行surf方法匹配,并且通过RANSAC方法进行去误匹配,以选取最优特征对集合。
本发明通过多子图的图像匹配替代现有技术中遥感图像整体的图像匹配,通过以深度学习的方式生成遥感图像子图的方法,能够提取遥感图像的有效语义信息,从而过滤掉遥感图像中语义不明的信息点,实现对遥感图像的冗余信息的过滤,提升了遥感图像匹配的精度和效率。
附图说明
为进一步阐明本发明的各实施例中具有的及其它的优点和特征,将参考附图来呈现本发明的各实施例的更具体的描述。可以理解,这些附图只描绘本发明的典型实施例,因此将不被认为是对其范围的限制。在附图中,为了清楚明了,相同或相应的部件将用相同或类似的标记表示。
图1示出了本发明一个实施例中的整体流程。
图2示出了本发明一个实施例中遥感图像的子图生成的过程。
具体实施方式
应当指出,各附图中的各组件可能为了图解说明而被夸大地示出,而不一定是比例正确的。在各附图中,给相同或功能相同的组件配备了相同的附图标记。
在本发明中,除非特别指出,“布置在…上”、“布置在…上方”以及“布置在…之上”并未排除二者之间存在中间物的情况。此外,“布置在…上或上方”仅仅表示两个部件之间的相对位置关系,而在一定情况下、如在颠倒产品方向后,也可以转换为“布置在…下或下方”,反之亦然。
在本发明中,各实施例仅仅旨在说明本发明的方案,而不应被理解为限制性的。
在本发明中,除非特别指出,量词“一个”、“一”并未排除多个元素的场景。
在此还应当指出,在本发明的实施例中,为清楚、简单起见,可能示出了仅仅一部分部件或组件,但是本领域的普通技术人员能够理解,在本发明的教导下,可根据具体场景需要添加所需的部件或组件。另外,除非另行说明,本发明的不同实施例中的特征可以相互组合。例如,可以用第二实施例中的某特征替换第一实施例中相对应或功能相同或相似的特征,所得到的实施例同样落入本申请的公开范围或记载范围。
在此还应当指出,在本发明的范围内,“相同”、“相等”、“等于”等措辞并不意味着二者数值绝对相等,而是允许一定的合理误差,也就是说,所述措辞也涵盖了“基本上相同”、“基本上相等”、“基本上等于”。以此类推,在本发明中,表方向的术语“垂直于”、“平行于”等等同样涵盖了“基本上垂直于”、“基本上平行于”的含义。
另外,本发明的各方法的步骤的编号并未限定所述方法步骤的执行顺序。除非特别指出,各方法步骤可以以不同顺序执行。
下面结合具体实施方式参考附图进一步阐述本发明。
选取包括地物类别为建筑物、水域、道路、耕地和植被的遥感图像。
构建用于遥感图像语义识别的神经网络,用于对遥感图像进行常见地物类型的识别,并且生成遥感图像相应的子图集合,包括:
选取训练内容:对遥感图像中所包含的地物类别唯一编号,编号标签集合为集合T{0,1,2,3,4…},地物类别与地物编号标签的映射关系为:{建筑物:0,水域:1,道路:2,耕地:3,植被:4,…};选取训练集所需遥感图像,打上常见地物类别的标签用于神经网络的训练;
搭建基于UNet的语义分割网络,并用所述训练内容进行训练,得到遥感图像子图生成神经网络;以及
向所述神经网络中输入待处理遥感图像,输出为不同地物类别各自的分布图;由于此遥感图像中可被识别的地物有5类,则通过网络将会生成5张子图,分别为建筑物分布图、水域分布图、道路分布图、耕地分布图和植被分布图,其中每张子图根据其所包含的地物类型具有唯一的地物类型标签,标签与其所包含的地物类型的编号相同,分别为T{0,1,2,3,4}。
将待匹配遥感图像A和参考图像B分别输入所述遥感图像子图生成神经网络,得到每张遥感图像相对应的子图集合,包括:
待匹配遥感图像A的子图集合表示为A5{a0,a1,a2,a3,a4},表示图像A有5张子图;参考图像B的子图集合表示为B5{b0,b1,b2,b3,b4},代表图像B同样也有5张子图;
对于遥感图像子图集合中的每张子图,通过相应映射关系C得到子图地物类型标签t,其对应关系为:图像A{a0:0,a1:1,a2:2,a3:3,a4:4}。
对待匹配遥感图像A和参考图像B的子图集合中的所有子图进行surf(Speeded UpRobust Features)特征的提取,得到每张子图的surf特征点的分布图,其中surf特征包括:
搜索所有尺度空间上的图像,通过Hessian(黑塞矩阵)来识别潜在的对尺度和选择不变的兴趣点,以提取特征;
统计特征点圆形邻域内的Haar小波特征,包括在60度扇形内,每次将60度扇形区域旋转0.2弧度进行统计,将值最大的那个扇形的方向作为该特征点的主方向;以及
沿着特征点的主方向周围的邻域内,取4×4个矩形小区域,统计每个小区域的Haar小波特征,然后每个区域得到一个4维的特征向量,其中一个特征点共有64维的特征向量作为surf特征的描述子。
将待匹配遥感图像A和参考图像B的surf特征点进行特征匹配,得到最优特征对集合,包括:
选取Am和Bn中地物类别相同的子图,表示为下式:
C(ai)=C(bj)
其中ai和bj表示地物类别相同的子图;
将ai和bj的特征点的分布图进行匹配,由于surf方法容易得到误匹配的特征点对,因此在进行surf方法匹配后,再通过RANSAC(random sample consensus)方法进行去误匹配,得到匹配程度最高的最优特征对集合;其中,RANSAC方法从SURF方法预匹配中随机取出一些匹配点对,计算出变换矩阵,再根据得到的变换矩阵遍历预匹配中所得到的所有匹配对,计算所有预匹配对中在某个特定阈值下满足该变换矩阵模型的百分比。重复上面的步骤多次,比较每个变换矩阵下满足该模型的匹配对百分比,取对应百分比最大的那个矩阵作为最终得到的最好的变换矩阵;将在该最好变换下误差超过某个特定阈值的匹配对去除。
将所有最优特征对集合取并集,并映射回原图,作为原图的特征对,从而实现对原图的匹配。
尽管上文描述了本发明的各实施例,但是,应该理解,它们只是作为示例来呈现的,而不作为限制。对于相关领域的技术人员显而易见的是,可以对其做出各种组合、变型和改变而不背离本发明的精神和范围。因此,此处所公开的本发明的宽度和范围不应被上述所公开的示例性实施例所限制,而应当仅根据所附权利要求书及其等同替换来定义。

Claims (8)

1.一种基于深度学习和多子图匹配的遥感图像匹配方法,其特征在于包括下列步骤:
提供用于生成遥感图像的子图的神经网络;
将待匹配遥感图像和参考图像输入所述神经网络中生成子图;
对所述子图进行特征的提取以获得子图的特征点的分布图;
对所述特征点进行特征匹配,以选取最优特征对集合;以及
将所述最优特征对集合取并集,并且映射回待匹配遥感图像。
2.根据权利要求1所述的基于深度学习和多子图匹配的遥感图像匹配方法,其中提供用于生成遥感图像的子图的神经网络包括下列步骤:
选取所述神经网络的训练内容,包括:
选取遥感图像中的地物类别;
将所述地物类别编号,其中所述编号作为地物编号标签;
生成所述地物类别与地物编号标签的映射关系;以及
选取遥感图像打上地物编号标签作为神经网络的训练内容;
构建语义分割神经网络;以及
使用所述训练内容对语义分割神经网络进行训练,以获得用于生成遥感图像的子图的神经网络。
3.根据权利要求2所述的基于深度学习和多子图匹配的遥感图像匹配方法,其中:
所述地物类别包括建筑物、水域、道路、耕地和植被;
所述地物编号标签的集合表示为:T{0,1,2,3,4…};以及
所述地物类别与地物编号标签的映射关系表示为:{建筑物:0,水域:1,道路:2,耕地:3,植被:4,…}。
4.根据权利要求3所述的基于深度学习和多子图匹配的遥感图像匹配方法,其中所述子图还包括:建筑物分布图、水域分布图、道路分布图、耕地分布图和植被分布图。
5.根据权利要求2所述的基于深度学习和多子图匹配的遥感图像匹配方法,其中将待匹配遥感图像和参考图像输入所述神经网络中生成子图包括下列步骤:
将待匹配遥感图像A和参考图像B输入所述神经网络;以及
输出匹配遥感图像A的子图的集合Am和参考图像B的子图的集合Bn,表示为下式:
Am{a1,a2,…,am},Bn{b1,b2,…,bn},
其中一个子图表示一种地物类别,地物类别与地物编号标签的映射关系表示为C。
6.根据权利要求5所述的基于深度学习和多子图匹配的遥感图像匹配方法,其中将所述特征点进行特征匹配,以选取最优特征对集合包括下列步骤:
选取Am和Bn中地物类别相同的子图,表示为下式:
C(ai)=C(bj)
其中ai和bj表示地物类别相同的子图;以及
将ai和bj的特征点的分布图进行匹配,并且选取匹配程度最高的ai和bj以作为最优特征对集合。
7.根据权利要求1-6之一所述的基于深度学习和多子图匹配的遥感图像匹配方法,其中对所述子图进行特征的提取,以获得子图的特征点的分布图还包括:对所述子图进行surf特征的提取,以获得子图的surf特征点的分布图。
8.根据权利要求7所述的基于深度学习和多子图匹配的遥感图像匹配方法,其中对所述特征点进行特征匹配,以选取最优特征对集合还包括:进行surf方法匹配,并且通过RANSAC方法进行去误匹配,以选取最优特征对集合。
CN202110166034.8A 2021-02-05 2021-02-05 一种基于深度学习和多子图匹配的遥感图像匹配方法 Pending CN112861714A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110166034.8A CN112861714A (zh) 2021-02-05 2021-02-05 一种基于深度学习和多子图匹配的遥感图像匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110166034.8A CN112861714A (zh) 2021-02-05 2021-02-05 一种基于深度学习和多子图匹配的遥感图像匹配方法

Publications (1)

Publication Number Publication Date
CN112861714A true CN112861714A (zh) 2021-05-28

Family

ID=75988800

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110166034.8A Pending CN112861714A (zh) 2021-02-05 2021-02-05 一种基于深度学习和多子图匹配的遥感图像匹配方法

Country Status (1)

Country Link
CN (1) CN112861714A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115205558A (zh) * 2022-08-16 2022-10-18 中国测绘科学研究院 一种具有旋转和尺度不变性的多模态影像匹配方法及装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001059708A1 (en) * 2000-02-11 2001-08-16 Btg International Limited Method of 3d/2d registration of object views to a surface model
EP1124201A1 (en) * 2000-02-11 2001-08-16 BTG INTERNATIONAL LIMITED (Company No. 2664412) Method for 3D/2D registration using multiple views and a surface model of an object
JP2008071127A (ja) * 2006-09-14 2008-03-27 Mitsubishi Space Software Kk 画像マッチング装置、画像マッチングプログラム及び画像マッチング方法
US20080193035A1 (en) * 2005-03-15 2008-08-14 Mitsubishi Electric Information Technology Image Analysis and Representation
CN103337077A (zh) * 2013-07-01 2013-10-02 武汉大学 一种基于多尺度分割和sift的可见光与红外图像配准的方法
CN104200461A (zh) * 2014-08-04 2014-12-10 西安电子科技大学 基于互信息图像选块和sift特征的遥感图像配准方法
CN110197505A (zh) * 2019-05-30 2019-09-03 西安电子科技大学 基于深度网络及语义信息的遥感图像双目立体匹配方法
CN110660023A (zh) * 2019-09-12 2020-01-07 中国测绘科学研究院 一种基于图像语义分割的视频拼接方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001059708A1 (en) * 2000-02-11 2001-08-16 Btg International Limited Method of 3d/2d registration of object views to a surface model
EP1124201A1 (en) * 2000-02-11 2001-08-16 BTG INTERNATIONAL LIMITED (Company No. 2664412) Method for 3D/2D registration using multiple views and a surface model of an object
US20080193035A1 (en) * 2005-03-15 2008-08-14 Mitsubishi Electric Information Technology Image Analysis and Representation
JP2008071127A (ja) * 2006-09-14 2008-03-27 Mitsubishi Space Software Kk 画像マッチング装置、画像マッチングプログラム及び画像マッチング方法
CN103337077A (zh) * 2013-07-01 2013-10-02 武汉大学 一种基于多尺度分割和sift的可见光与红外图像配准的方法
CN104200461A (zh) * 2014-08-04 2014-12-10 西安电子科技大学 基于互信息图像选块和sift特征的遥感图像配准方法
CN110197505A (zh) * 2019-05-30 2019-09-03 西安电子科技大学 基于深度网络及语义信息的遥感图像双目立体匹配方法
CN110660023A (zh) * 2019-09-12 2020-01-07 中国测绘科学研究院 一种基于图像语义分割的视频拼接方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
AMIN SEDAGHAT ET AL.: "Illumination-Robust remote sensing image matching based on oriented self-similarity", 《ISPRS JOURNAL OF PHOTOGRAMMETRY AND REMOTE SENSING》 *
王佐成;薛丽霞;凌聪;: "遥感图像纹理关联规则挖掘", 重庆邮电大学学报(自然科学版), no. 04 *
钱坤;沈小林;侯泽雄;张睿;: "一种基于特征点的遥感图像匹配算法", 传感器世界, no. 07 *
高仉生;赵英俊;: "高分辨率卫星图像变化检测方法研究", 铀矿地质, no. 04 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115205558A (zh) * 2022-08-16 2022-10-18 中国测绘科学研究院 一种具有旋转和尺度不变性的多模态影像匹配方法及装置

Similar Documents

Publication Publication Date Title
Gao et al. Automatic change detection in synthetic aperture radar images based on PCANet
Melekhov et al. Dgc-net: Dense geometric correspondence network
Jia et al. Collaborative representation-based multiscale superpixel fusion for hyperspectral image classification
Gaetano et al. Marker-controlled watershed-based segmentation of multiresolution remote sensing images
Sirmacek et al. Urban-area and building detection using SIFT keypoints and graph theory
Zhang et al. Cof-net: A progressive coarse-to-fine framework for object detection in remote-sensing imagery
Wang et al. Fan shape model for object detection
Hu et al. Video object matching based on SIFT algorithm
Abidin et al. Copy-move image forgery detection using deep learning methods: a review
CN104123554A (zh) 基于mmtd的sift图像特征提取方法
Li et al. 4FP-structure: A robust local region feature descriptor
Mattes et al. Tree representation for image matching and object recognition
Ma et al. A multi-scale progressive collaborative attention network for remote sensing fusion classification
KR101753360B1 (ko) 시점 변화에 강인한 특징점 정합 방법
Luft et al. Automatic content‐based georeferencing of historical topographic maps
Chen et al. Strengthen the feature distinguishability of geo-object details in the semantic segmentation of high-resolution remote sensing images
Zhang et al. Convmatch: Rethinking network design for two-view correspondence learning
Wu et al. Learning robust feature descriptor for image registration with genetic programming
Donoser et al. Robust planar target tracking and pose estimation from a single concavity
Kristollari et al. Change detection in VHR imagery with severe co-registration errors using deep learning: A comparative study
CN112861714A (zh) 一种基于深度学习和多子图匹配的遥感图像匹配方法
Xu et al. SAR-optical feature matching: A large-scale patch dataset and a deep local descriptor
Wang et al. Attention guided encoder-decoder network with multi-scale context aggregation for land cover segmentation
Li et al. Automatic Road Extraction from High-Resolution Remote Sensing Image Based on Bat Model and Mutual Information Matching.
Samet et al. An implementation of automatic contour line extraction from scanned digital topographic maps

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination