CN114998630A - 一种从粗到精的地对空图像配准方法 - Google Patents
一种从粗到精的地对空图像配准方法 Download PDFInfo
- Publication number
- CN114998630A CN114998630A CN202210844306.XA CN202210844306A CN114998630A CN 114998630 A CN114998630 A CN 114998630A CN 202210844306 A CN202210844306 A CN 202210844306A CN 114998630 A CN114998630 A CN 114998630A
- Authority
- CN
- China
- Prior art keywords
- image
- matching
- registration
- result
- feature point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 81
- 230000000007 visual effect Effects 0.000 claims abstract description 8
- 238000005520 cutting process Methods 0.000 claims abstract description 7
- 238000013135 deep learning Methods 0.000 claims abstract description 7
- 230000009466 transformation Effects 0.000 claims description 13
- 239000011159 matrix material Substances 0.000 claims description 12
- 239000000523 sample Substances 0.000 claims description 6
- 238000001514 detection method Methods 0.000 claims description 5
- 229920001651 Cyanoacrylate Polymers 0.000 claims description 4
- 239000004830 Super Glue Substances 0.000 claims description 4
- 238000013528 artificial neural network Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000004590 computer program Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 230000002688 persistence Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种从粗到精的地对空图像配准方法,包括:S1,获取待配准的图像对;S2,采用模板匹配的方法对图像对进行配准,得到初步配准结果;S3,基于初步配准结果在目标图像中裁剪出感兴趣区域,采用深度学习的方法对源图像和裁剪出的感兴趣区域提取特征点并匹配,得到特征点匹配结果;S4,基于特征点匹配结果,采用基于随机抽样一致RANSAC的方法对图像对进行尺度对齐,然后对完成尺度对齐的图像对再次执行S3,得到新的特征点匹配结果;S5,重复执行S4预设次数,得到最终的配准结果。本发明的方法能够针对卫星影像和机载图像,实现不同视角下立体结构图像间的像素级配准,具有通用性。
Description
技术领域
本发明涉及计算机视觉中的模板匹配和图像配准技术领域,特别涉及一种适用于大视角下的图像变换估计的从粗到精的地对空图像配准方法。
背景技术
目前在大外观、视点和距离变化下的图像特征配准一直是该领域的难题。在现有的图像配准技术中,配准方法主要可以分为基于区域的方法和基于特征的方法。基于区域的方法在给定图像变换模型下通过最优化技术搜索得到最优的模型参数,通常非常依赖一个较好的初始值。基于特征的方法一般包括图像特征点检测、图像特征点描述、图像特征点匹配、图像变换模型估计四步。
这些方法在有限的外观变化和背景杂波下都能取得不错的效果,例如传统的图像匹配方法包括SIFT(Scale-invariant feature transform,尺度不变特征变换)、ORB(Oriented Fast and Rotated Brief,定向快速旋转简报)等,对视角变化、仿射变换、噪声都有一定的适应性。但在地对空领域,由于两者成像上的巨大差异,如:气候的差异、太阳角度的变化引起阴影方位的差异、成像角度的差异,加上两者成像的传感器自身的差异,使得相同目标在两幅图像中会表现出很大的光谱信息差异,仅通过特征点描述子的方法很难在一些特定的图像变化下取得较好的效果,而目前还不存在能够处理绝大多数图像变化、适用能力强的特征点检测与描述方法。
发明内容
本发明提供了一种从粗到精的地对空图像配准方法,以解决现有技术很难在一些特定的图像变化下取得较好效果的技术问题。
为解决上述技术问题,本发明提供了如下技术方案:
一种从粗到精的地对空图像配准方法,包括:
S1,获取待配准的图像对;其中,所述图像对包括源图像和目标图像;
S2,采用模板匹配的方法对所述图像对进行配准,得到初步配准结果;
S3,基于初步配准结果在目标图像中裁剪出感兴趣区域,采用深度学习的方法对源图像和裁剪出的感兴趣区域提取特征点并匹配,得到特征点匹配结果;
S4,基于特征点匹配结果,采用基于RANSAC(RANdom SAmple Consensus,随机抽样一致)的方法对所述图像对进行尺度对齐,然后对完成尺度对齐的图像对再次执行S3,得到新的特征点匹配结果;
S5,重复执行S4预设次数,得到最终的配准结果。
进一步地,所述源图像为卫星图,所述目标图像为无人机鸟瞰图;
所述源图像和目标图像中包含不同视角下立体结构建筑物的图像信息。
进一步地,所述采用模板匹配的方法对所述图像对进行配准,包括:
将源图像和目标图像输入到QATM(Quality-Aware Template Matching,质量
感知模板匹配方法)模型中,对图像对中立体结构建筑物的图像信息进行提取并进行相似
度度量,最终输出在上感兴趣区域,区域框记为 ,分别代表框选区域
的位置坐标以及高度和宽度。
进一步地,所述基于初步配准结果在目标图像中裁剪出感兴趣区域,包括:
进一步地,所述采用深度学习的方法对源图像和裁剪出的感兴趣区域提取特征点并匹配,包括:
将和输入到Superpoint(Self-Supervised Interest Point Detection and
Description,自监督的兴趣点检测和描述)模型中进行特征提取,分别得到两幅图像的特
征点信息和描述符信息;分别将提取到的特征点信息和描述符信息输入到Superglue
(Learning Feature Matching With Graph Neural Networks, 使用图神经网络学习特征
匹配)网络中,得到两幅图的特征点匹配关系矩阵P,将中的所有点坐标加上来映
射回原图;其中,P代表了两幅图像 和 的匹配概率。
进一步地,基于特征点匹配结果,采用基于RANSAC的方法对所述图像对进行尺度对齐,包括:
进一步地,所述重复执行S4预设次数,得到最终的配准结果,包括:
本发明提供的技术方案带来的有益效果至少包括:
本发明提供的从粗到精的地对空图像配准方法,首先利用基于QATM的模板匹配方法对目标区域进行初步定位,然后使用基于Superpoint+Superglue的特征点匹配的方法对目标区域做尺度对齐,最后利用改进的RANSAC算法进一步优化配准结果,实现地对空图像的高精度对齐配准。本发明提供的融合方法能够针对卫星影像和机载图像,实现不同视角下立体结构图像间的像素级配准。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的图像配准方法的执行流程示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
针对地对空匹配中的问题,本实施例提供了一种从粗到精的多特征、多级别、多模型自适应图像配准方法,该方法可以由电子设备实现。该方法采集图像并输入计算机、基于QATM的源图像粗定位、使用深度学习方法对源图像编码并提取特征、处理特征信息做最优匹配、使用RANSAC+单应估计去除误匹配点、利用配准信息对目标区域做尺度对齐、动态更新匹配点,精确优化匹配点。
具体地,该方法的执行流程如图1所示,具体包括以下步骤:
S1,获取待配准的图像对;其中,所述图像对包括源图像和目标图像;
具体地,在本实施例中,源图像为卫星图,目标图像为无人机鸟瞰图;且源图像和目标图像中包含不同视角下立体结构建筑物的图像信息。
S2,采用模板匹配的方法对所述图像对进行配准,得到初步配准结果;
需要说明的是,本实施例使用的模板匹配方法为QATM模板匹配,QATM模板匹配方法可以通过VGG(VGGNet是牛津大学计算机视觉组和DeepMind公司的研究员一起研发的深度卷积神经网络, “VGG”代表了牛津大学的Oxford Visual Geometry Group)特征提取网络对图像对中立体结构建筑物的图像信息进行提取,将模板特征与预先设定的固定大小的候选窗口R的特征进行相似度度量,选择固定大小的相似度最高的目标区域作为匹配结果。
具体地,在本实施例中,上述S2的执行过程如下:
通过上述步骤可使用模板匹配方法实现图像特定区域的粗定位。
S3,基于初步配准结果在目标图像中裁剪出感兴趣区域,采用深度学习的方法对源图像和裁剪出的感兴趣区域提取特征点并匹配,得到特征点匹配结果;
具体地,在本实施例中,上述S3的执行过程如下:
S31,图像特征信息提取。
将和输入到Superpoint(Self-Supervised Interest Point Detection and
Description,自监督的兴趣点检测和描述) 模型中进行特征提取,分别得到两幅图像的特
征点信息和描述符信息;具体方式为:
S311,对图像的目标区域进行编码,具体方式为:对于输入的目标图像,利用初
步配准得到的区域框信息进行裁剪,以坐标为起始点,为高度和宽度建立
裁剪框区域,得到最终的框选区域。然后输入到构建好的Encode层中,其作用是对图片降
维,提取特征,编码器由卷积层、池化层和非线性激活函数组成,我们将低维输出中的像素
称为“单元”,使用三个最大池层, 其中编码器中的三个非重叠最大池操作产生
像素单元,将输入为的图像映射到中间张量(具有更小的空间尺
度和更大的通道深度);和分别表示输出图像的高和宽,代表卷积过后的特
征图的高和宽,F代表通道数,。
S312,特征点提取,具体方式为:设计一个解码器,对图片的每个像素都计算一个
概率,这个概率表示的就是其为特征点的可能性大小,这一步把寻找兴趣点的回归问题变
成了分类问题,兴趣点探测头计算并输出大小为张量;
S313,描述符提取,具体方式为:计算并输出大小为的
张量,先学习半稠密的描述子(不使用稠密的方式是为了减少计算量和内存),然后进行双
三次插值算法(bicubic interpolation)得到完整描述子,最后再使用L2标准化(L2-
normalizes)得到单位长度的描述;D表示中间变量的通道数。
S32,图像特征点匹配。
分别将提取到的特征点信息和描述符信息输入到Superglue(Learning Feature
Matching With Graph Neural Networks, 使用图神经网络学习特征匹配)网络中,得到两
幅图的特征点匹配关系矩阵P,将中的所有点坐标加上来映射回原图;其中,P代
表了两幅图像 和 的匹配概率。具体方式为:
S321,融合特征点位置信息和描述信息,具体方式为:对于获取的特征点和描述
子,以5个多层感知器(全连接)为核心,将关键点位置信息转换为可以与描述符直接相加的
256维数据,使图形网络能够在以后对外观和位置进行联合推理
(其中,表示特征点位置信息,为特征点描述符信息;MLP(Multilayer Perception,多
层感知机));然后使用交替的自我和交叉注意层来创建更强大的特征表示f,;(其中:表示当前关键点与所
有邻接点的聚合,,当为奇数时,为,为偶数时,为,表示为图像A上第i个元素在第层的中间表达式);
S322,对融合后的信息计算最优匹配,具体方式为:对上一步得到的特征和
计算得分矩阵,A中的M个特征点和B中的N个特征点的乘积,,我们加上一列dustbin
来处理某些不匹配点,将问题转化为最优传输问题,我们需要找到一种映射关系矩阵P,使
得最大,其中,和是原始特征经历了L次的self/cross-attention后
得到的输出,对两者求内积得到;这里使用Sinkhorn算法求解(用来解决最优传输问
题),最后给定真值标签,最小化分配矩阵P的负对数似然函数。
S4,基于特征点匹配结果,采用基于RANSAC的方法对所述图像对进行尺度对齐,然后对完成尺度对齐的图像对再次执行S3,得到新的特征点匹配结果;
需要说明的是,RANSAC算法的执行过程如下:
1.随机从数据集中抽出4个样本数据(此4个样本之间不能共线),计算出变换矩阵H,记为模型M;
2. 计算数据集中所有数据与模型M的投影误差,若误差小于阈值,则加入内点集
I,误差计算公式如下所示;其中,代表第i对样本在目标图像的坐标,代表
第i对样本在源图像的坐标,代表变换矩阵H第i行第j列的元素,公式计算了投影点和目
标图像真实点之间的欧氏距离和:
4. 如果迭代次数大于K则退出,否则迭代次数加1并重复上述步骤,K在迭代过程中是不断更新而不是固定不变的,K一般通过下式定义:
其中,p为置信度,一般取0.995,w为内点的比例,m为计算模型所需要的最少样本数,其值为4。
基于上述,在本实施例中,上述S4中实现尺度对齐的执行过程如下:
基于特征点匹配关系矩阵P,使用单应估计的方法估计最优单应模
型,这里直接调用库中的函数实现;然后使用对做
单应变换得到,具体为:首先对源图像的目标区域添加对称填充以扩大采样区域,然后使
用估计得到的最优单应模型对其做单应变换,并裁剪掉黑色缺失部分。这一步是为了对和做尺度对齐,减小两幅图的视点上的差异。
S5,重复执行S4预设次数,得到最终的配准结果。
具体地,在本实施例中,上述S5的执行过程如下:
需要说明的是,通过将对齐后的图像,再次输入到本实施例构建的图像匹配框架中,动态更新匹配点数,在动态更新的过程中,两幅图最终会逐渐收敛到相似的视角和尺度,单应矩阵也会慢慢最终收敛到一个定值,当匹配点性能的提升小于设定的阈值Y时,停止迭代,输出两幅图像的精确配准模型。如此通过执行S4至S5即可使用基于RANSAC的方法对匹配后的图像做高精度配准。
本实施例首先利用模板匹配方法对目标区域进行初步定位和尺度对齐,然后引导后续的高精度的特征点匹配,最后利用改进的RANSAC算法进一步优化配准结果,实现地对空图像的高精度对齐配准。本实施例的方法能够针对卫星影像和机载图像,实现不同视角下立体结构图像间的像素级配准。同时,该方法具有通用性,可用于各种成像差异,视点,角度差异较大的图像对间的匹配。
此外,需要说明的是,本发明可提供为方法、装置或计算机程序产品。因此,本发明实施例可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本发明实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质上实施的计算机程序产品的形式。
本发明实施例是参照根据本发明实施例的方法、终端设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、嵌入式处理机或其他可编程数据处理终端设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理终端设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理终端设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。这些计算机程序指令也可装载到计算机或其他可编程数据处理终端设备上,使得在计算机或其他可编程终端设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程终端设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
还需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者终端设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者终端设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者终端设备中还存在另外的相同要素。
最后需要说明的是,以上所述是本发明优选实施方式,应当指出,尽管已描述了本发明优选实施例,但对于本技术领域的技术人员来说,一旦得知了本发明的基本创造性概念,在不脱离本发明所述原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明实施例范围的所有变更和修改。
Claims (8)
1.一种从粗到精的地对空图像配准方法,其特征在于,包括:
S1,获取待配准的图像对;其中,所述图像对包括源图像和目标图像;
S2,采用模板匹配的方法对所述图像对进行配准,得到初步配准结果;
S3,基于初步配准结果在目标图像中裁剪出感兴趣区域,采用深度学习的方法对源图像和裁剪出的感兴趣区域提取特征点并匹配,得到特征点匹配结果;
S4,基于特征点匹配结果,采用基于RANSAC(RANdom SAmple Consensus,随机抽样一致)的方法对所述图像对进行尺度对齐,然后对完成尺度对齐的图像对再次执行S3,得到新的特征点匹配结果;
S5,重复执行S4预设次数,得到最终的配准结果。
2.如权利要求1所述的从粗到精的地对空图像配准方法,其特征在于,所述源图像为卫星图,所述目标图像为无人机鸟瞰图;
所述源图像和目标图像中包含不同视角下立体结构建筑物的图像信息。
5.如权利要求4所述的从粗到精的地对空图像配准方法,其特征在于,所述采用深度学习的方法对源图像和裁剪出的感兴趣区域提取特征点并匹配,包括:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210844306.XA CN114998630B (zh) | 2022-07-19 | 2022-07-19 | 一种从粗到精的地对空图像配准方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210844306.XA CN114998630B (zh) | 2022-07-19 | 2022-07-19 | 一种从粗到精的地对空图像配准方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114998630A true CN114998630A (zh) | 2022-09-02 |
CN114998630B CN114998630B (zh) | 2022-11-04 |
Family
ID=83021077
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210844306.XA Active CN114998630B (zh) | 2022-07-19 | 2022-07-19 | 一种从粗到精的地对空图像配准方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114998630B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115457222A (zh) * | 2022-09-14 | 2022-12-09 | 北京建筑大学 | 一种在地理信息系统中地理配准三维模型的方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104318548A (zh) * | 2014-10-10 | 2015-01-28 | 西安电子科技大学 | 一种基于空间稀疏度和sift特征提取的快速图像配准实现方法 |
WO2018223950A1 (zh) * | 2017-06-05 | 2018-12-13 | 中国测绘科学研究院 | 卫星激光测高数据辅助提取高程控制点方法 |
CN112147078A (zh) * | 2020-09-22 | 2020-12-29 | 华中农业大学 | 一种农作物表型信息多源遥感监测方法 |
CN112508826A (zh) * | 2020-11-16 | 2021-03-16 | 哈尔滨工业大学(深圳) | 一种基于特征配准及梯度形状匹配融合的印刷品缺陷检测方法 |
CN114494373A (zh) * | 2022-01-19 | 2022-05-13 | 深圳市比一比网络科技有限公司 | 基于目标检测与图像配准的轨道高精度对齐方法及系统 |
-
2022
- 2022-07-19 CN CN202210844306.XA patent/CN114998630B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104318548A (zh) * | 2014-10-10 | 2015-01-28 | 西安电子科技大学 | 一种基于空间稀疏度和sift特征提取的快速图像配准实现方法 |
WO2018223950A1 (zh) * | 2017-06-05 | 2018-12-13 | 中国测绘科学研究院 | 卫星激光测高数据辅助提取高程控制点方法 |
CN112147078A (zh) * | 2020-09-22 | 2020-12-29 | 华中农业大学 | 一种农作物表型信息多源遥感监测方法 |
CN112508826A (zh) * | 2020-11-16 | 2021-03-16 | 哈尔滨工业大学(深圳) | 一种基于特征配准及梯度形状匹配融合的印刷品缺陷检测方法 |
CN114494373A (zh) * | 2022-01-19 | 2022-05-13 | 深圳市比一比网络科技有限公司 | 基于目标检测与图像配准的轨道高精度对齐方法及系统 |
Non-Patent Citations (1)
Title |
---|
蓝朝桢等: "无人机影像与卫星影像配准的卷积神经网络方法", 《测绘科学技术学报》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115457222A (zh) * | 2022-09-14 | 2022-12-09 | 北京建筑大学 | 一种在地理信息系统中地理配准三维模型的方法 |
CN115457222B (zh) * | 2022-09-14 | 2023-06-16 | 北京建筑大学 | 一种在地理信息系统中地理配准三维模型的方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114998630B (zh) | 2022-11-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111902825B (zh) | 多边形对象标注系统和方法以及训练对象标注系统的方法 | |
CN112529015B (zh) | 一种基于几何解缠的三维点云处理方法、装置及设备 | |
CN108388896B (zh) | 一种基于动态时序卷积神经网络的车牌识别方法 | |
CN104574347B (zh) | 基于多源遥感数据的在轨卫星图像几何定位精度评价方法 | |
CN110781756A (zh) | 基于遥感图像的城市道路提取方法及装置 | |
CN114187450B (zh) | 一种基于深度学习的遥感图像语义分割方法 | |
CN111126385A (zh) | 一种可变形活体小目标的深度学习智能识别方法 | |
CN112329662B (zh) | 基于无监督学习的多视角显著性估计方法 | |
CN116188996A (zh) | 一种多尺度语义信息和边界信息的遥感图像语义分割方法 | |
CN116246119A (zh) | 3d目标检测方法、电子设备及存储介质 | |
CN116258877A (zh) | 土地利用场景相似度变化检测方法、装置、介质及设备 | |
CN113112547A (zh) | 机器人及其重定位方法、定位装置及存储介质 | |
CN114550014B (zh) | 道路分割方法及计算机装置 | |
CN114998630B (zh) | 一种从粗到精的地对空图像配准方法 | |
CN113592015B (zh) | 定位以及训练特征匹配网络的方法和装置 | |
Zhang et al. | Data association between event streams and intensity frames under diverse baselines | |
CN117237623B (zh) | 一种无人机遥感图像语义分割方法及系统 | |
CN117649526A (zh) | 一种面向自动驾驶道路场景的高精度语义分割方法 | |
CN116863349A (zh) | 基于三角网密集匹配的遥感影像变化区域确定方法及装置 | |
CN116758419A (zh) | 针对遥感图像的多尺度目标检测方法、装置和设备 | |
CN108154107B (zh) | 一种确定遥感图像归属的场景类别的方法 | |
Yao et al. | Matching wide-baseline stereo images with weak texture using the perspective invariant local feature transformer | |
CN110135474A (zh) | 一种基于深度学习的倾斜航空影像匹配方法和系统 | |
CN113705731A (zh) | 一种基于孪生网络的端到端图像模板匹配方法 | |
Jospin et al. | Bayesian learning for disparity map refinement for semi-dense active stereo vision |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |