CN113723447B - 一种多模态影像的端到端的模板匹配方法 - Google Patents

一种多模态影像的端到端的模板匹配方法 Download PDF

Info

Publication number
CN113723447B
CN113723447B CN202110801659.7A CN202110801659A CN113723447B CN 113723447 B CN113723447 B CN 113723447B CN 202110801659 A CN202110801659 A CN 202110801659A CN 113723447 B CN113723447 B CN 113723447B
Authority
CN
China
Prior art keywords
image
score
images
feature extraction
template
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110801659.7A
Other languages
English (en)
Other versions
CN113723447A (zh
Inventor
李波
万哲雄
王帅
贾华荣
倪亮
戴玉超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN202110801659.7A priority Critical patent/CN113723447B/zh
Publication of CN113723447A publication Critical patent/CN113723447A/zh
Application granted granted Critical
Publication of CN113723447B publication Critical patent/CN113723447B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种多模态影像的端到端的模板匹配方法,包括如下步骤:步骤Sc、获取多模态影像,并分为训练样本集和测试样本集;步骤S0、为训练阶段:构建特征提取网络A和B,并训练,得到训练后的特征提取网络A和B;步骤S1、为推理阶段,选取测试样本集中成对的模板图像和参考图像,将模板图像输入训练后的特征提取网络A中,参考图像输入训练后的特征提取网络B中,傅里叶卷积后,得到score map1*图像,对score map1*图像上采样后得到score map2*图像,在score map 2*上选取score值最大的位置作为匹配点。采用该模板匹配法避免了人工设计特征描述子,是一种数据驱动的方式,泛化性强,具有快速性与精确性的优点。

Description

一种多模态影像的端到端的模板匹配方法
技术领域
本发明属于多模态影像技术领域,具体涉及一种多模态影像的端到端的模板匹配方法。
背景技术
多模态影像一般指不同传感器获得的影像,比如星载遥感影像中的光学、红外、合成孔径雷达,激光雷达等。医学图像中的MR核磁共振图像,CT图像,PET超声波图像等。或者指同一传感器在不同成像条件下获得的图像,比如不同时间(白天-黑天),不同季节,不同天气条件等。由于多模态图像的成像原理,成像条件不同,因此多模态图像之间存在比较明显的非线性辐射差异,这就造成传统的图像配准方法不能适用于多模态影像的快速精确配准。
模板匹配是一种基本的模式识别方法,研究某一特定模板图像位于参考图像的什么位置,是一个匹配问题。它是图像处理中最基本、最常用的匹配方法。一般而言,模板匹配只能进行平行移动,即不考虑匹配目标发生旋转或大小变化。虽然模板匹配算法有一定局限性,但是在特定情况下,它具有很大的使用价值。比如,目前遥感卫星传感器装载有全球定位系统和惯性导航系统,可对遥感影像进行直接定位和粗匹配,消除影像间明显的旋转和尺度变化,使影像间仅存在一定量(如几十个像素内)的平移差异。因此,研发一种快速、高精度的多模态影像模板匹配方法在遥感影像分析,医学图像处理,计算机视觉等领域系统有着较大的业务需求和应用前景。它是诸多影像分析如影像融合,变化检测,影像镶嵌等的基本预处理步骤,其匹配精度对后续的分析工作产生重要的影响。
目前多模态影像的模板匹配方法主要基于简单的灰度信息或者人工设计的特征描述子,并以某种匹配相似性测度为准则,在影像间进行同名点识别。在此过程中,相似性测度的选择至关重要,直接影响到后续的匹配精度。常用的相似性测度包括了灰度差平方和、归一化相关系数和互信息等。但这些相似性测度都是利用影像间灰度的相似性进行同名点识别,而由于多模态影像间的灰度信息存在较大的差异,所以它们无法较好适用于多模态影像的自动匹配。相比于灰度信息,最近的一些研究利用影像的结构和形状属性设计特征描述子,比如利用梯度方向直方图(Histogram of Orientated Gradient,HOG)、局部自相似(Local Self-Similarity,LSS)等局部描述符提取影像的结构和形状特征,并在此基础上建立相似性测度进行影像匹配,提高了匹配性能。尽管如此,人工设计的描述子鲁棒性、泛化性不强的缺点并没有得到根本的有效解决。
发明内容
本发明的目的是提供一种多模态影像的端到端的模板匹配方法,避免了人工设计特征描述子,是一种数据驱动的方式,泛化性强,具有快速性与精确性的优点。
本发明采用以下技术方案:一种多模态影像的端到端的模板匹配方法,该方法包括如下步骤:
步骤Sc、获取多模态影像,并分为训练样本集和测试样本集,所述训练样本集和测试样本集中均包括成对的模板图像和参考图像,且参考图像中的内容包含模板图像中的内容;
步骤S0、为训练阶段:构建特征提取网络A和B,并训练,得到训练后的特征提取网络A和B;具体如下:
步骤S00、构建特征提取网络A和B,所述特征提取网络A和B均为卷积神经网络结构,且下采样率相同;
步骤S01、选取训练样本集中成对的模板图像和参考图像,将模板图像输入特征提取网络A中,得到训练模板图像的特征图张量F1,将参考图像输入特征提取网络B中,得到训练参考图像的特征图张量F2;
步骤S02、在训练模板图像的特征图张量F1上随机选取N个不同大小,不同长宽比,不同位置的局部张量作为多粒度特征图张量集合;其中,N为自然数;
步骤S03、将多粒度特征图张量集合中的每一个元素作为卷积核,分别与训练参考图像的特征图张量F2进行傅里叶卷积,获得N张score map 1;
步骤S04、对各张score map 1进行上采样,得到多张score map 2,且上采样时上采样率与特征提取网络A和B的下采样率相同;
步骤S05、在各score map 2上施加多粒度对比损失函数,并根据损失函数值作为监督,使用反向梯度传播更新算法,对特征提取网络A和B中的参数进行更新,得训练后的特征提取网络A和B;
步骤S1、为推理阶段,选取测试样本集中成对的模板图像和参考图像,将模板图像输入训练后的特征提取网络A中,参考图像输入训练后的特征提取网络B中,傅里叶卷积后,得到score map1*图像,对score map1*图像上采样后得到score map 2*图像,在score map2*上选取score值最大的位置作为匹配点。
进一步地,在步骤S05中,多粒度对比损失函数如下:
其中,sip表示score map 2上正确匹配位置的score值;
sij表示score map 2上所有位置的score值;
R代表scor map 2的整个位置空间;
τ代表温度系数;
N代表特征张量F1中选取的多粒度卷积核个数。
进一步地,在步骤S1中,得出最佳匹配点的推理的过程如下:
步骤S10、将待处理图像的模板图像和待处理图像的参考图像输入训练后的特征提取网络A和B,获得对应的特征图张量F1*和F2*
步骤S11、分别将各特征图张量F1*作为卷积核,与对应的特征图张量F2*进行傅里叶卷积获得一张score map 1*
步骤S12、对一张score map 1*进行上采样,得到一张score map 2*,其中,上采样率与训练后的特征提取网络A和B的下采样率相同;
步骤S13、在该张score map 2*上根据不同匹配位置上的score值,选取score值最大的位置作为最佳匹配点,即:
其中:sk表示score map 2*上位置k的score值,
R代表score map 2*上所有的位置。
进一步地,多模态影像为多模态遥感影像、多模态医学图像或多模态自然图像。
进一步地,模板图像和参考图像以任意尺寸输入。
本发明的有益效果是:1.采用数据驱动的方式,避免了人为设计特征描述子。因此适用于各种多模态异源图像的匹配,包含但不限于多模态遥感图像,多模态医学图像,多模态自然图像等。2.对比损失函数在该问题中具有很好的可训练性与泛化性,多粒度对比损失函数进一步增强了算法的泛化能力。3.根据模板图像对应的特征图卷积核比较大的特点,提出使用傅里叶卷积代替空间卷积,大大提升了算法的速度。4.本发明主要涉及卷积运算,因此在GPU,FPGA,TPU等硬件平台上具有很高的计算效率。5.对score map进行上采样的策略可大大提升算法的精度。6.对输入图片的大小没有要求,可处理任意尺寸的图片,算法更具灵活性。
附图说明
图1为一种多模态影像的端到端的模板匹配方法的算法示意图;
图2为采用本发明中的模板匹配法处理图像的过程图。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明一种多模态影像的端到端的模板匹配方法,适用于多模态影像为多模态遥感影像、多模态医学图像或多模态自然图像。设定影像之间只存在平移差异或者叠加轻微的尺度、旋转差异。如图1所示,该方法包括如下步骤:
步骤Sc、获取多模态影像,并分为训练样本集和测试样本集,训练样本集和测试样本集中均包括成对的模板图像和参考图像,且参考图像中的内容包含模板图像中的内容;
步骤S0、为训练阶段:构建特征提取网络A和B,并训练,得到训练后的特征提取网络A和B;具体如下:
步骤S00、构建特征提取网络A和B,所述特征提取网络A和B均为卷积神经网络结构,且下采样率相同;特征提取网络A和B的结构并没有特别的要求,两者的参数不需要相同,常见的典型卷积神经网络结构均可,比如u-net,resnet等,但是特征提取网络的下采样率不大于4。
步骤S01、步骤S01、选取训练样本集中成对的模板图像和参考图像,将模板图像输入特征提取网络A中,得到训练模板图像的特征图张量F1,将参考图像输入特征提取网络B中,得到训练参考图像的特征图张量F2。当特征图张量F1的元素个数大于100时,傅里叶卷积要快于普通卷积,这是这里使用傅里叶卷积的原因。
步骤S02、在所述训练模板图像的特征图张量F1上随机选取N个不同大小,不同长宽比,不同位置的局部张量作为多粒度特征图张量集合;其中,N为自然数;
步骤S03、将所述多粒度特征图张量集合中的每一个元素作为卷积核,分别与训练参考图像的特征图张量F2进行傅里叶卷积,获得N张score map 1;
步骤S04、对各张所述score map 1进行上采样,得到多张score map 2,且上采样时上采样率与特征提取网络A和B的下采样率相同;由于特征提取网络往往涉及下采样,为避免特征提取阶段由于下采样所导致的匹配位置模糊,则在网络输出的score map1后加入对score map1的上采样模块。任何一种在神经网络训练过程中可以进行反向梯度传播的上采样算法理论上均可,比如最近邻插值或者双三次插值等。
步骤S05、在各所述score map 2上施加多粒度对比损失函数,并根据损失函数值作为监督,使用反向梯度传播更新算法,对特征提取网络A和B中的参数进行更新,得训练后的特征提取网络A和B;
在所述步骤S05中,所述多粒度对比损失函数如下:
其中,sip表示score map 2上正确匹配位置的score值;
sij表示score map 2上所有位置的score值;
R代表scor map 2的整个位置空间;
τ代表温度系数;
N代表特征张量F1中选取的多粒度卷积核个数。
由于使用的多粒度对比损失函数只有一个超参数温度系数г需要调节,因而具有很好的便利性,同时可以极大抑制训练阶段的过拟合。可以使用基于反向梯度传播的各种优化算法进行训练,比如SGD,adam,adamW等。在深度学习开源平台pytorch,tensorflow等中均有提供。
步骤S1、为推理阶段,选取测试样本集中成对的模板图像和参考图像,将模板图像输入训练后的特征提取网络A中,参考图像输入训练后的特征提取网络B中,傅里叶卷积后,得到score map1*图像,对score map1*图像上采样后得到score map 2*图像,在score map2*上选取score值最大的位置作为最佳的匹配点。
在所述步骤S1中,得出最佳的匹配点的推理的过程如下:
步骤S10、将待处理图像的模板图像和待处理图像的参考图像输入训练后的特征提取网络A和B,获得对应的特征图张量F1*和F2*
步骤S11、分别将各特征图张量F1*作为卷积核,与对应的特征图张量F2*进行傅里叶卷积获得一张score map 1*
步骤S12、对一张所述score map 1*进行上采样,得到一张score map 2*,其中,上采样率与训练后的特征提取网络A和B的下采样率相同;
步骤S13、在该张所述score map 2*上根据不同匹配位置上的score*值,选取score*值最大的位置作为最佳匹配点,即:
其中:sk表示score map 2*上位置k的score值,
R代表score map 2*上所有的位置。
在上述步骤中,模板图像和参考图像以任意尺寸输入到对应的特征提取网络A和B,从而避免了图像块的选取与划分操作,保证了参考图像较大的搜索空间。同样,较大的模板图像尺寸有效的利用了全局上下文信息。
在本发明中,模板图像和参考图像不同位置的相似性以对应位置区域的特征图内积的方式进行度量,整个过程可以将模板图像的特征图作为卷积核,以参考图像的特征图作为搜索模板,使用卷积运算高效地计算待匹配图像在参考图像不同位置的相似性。由于此时的卷积核为模板图像的特征图,卷积核的尺寸比较大,可以极大的提高运算速度。
采用本发明中的方法用于多模态图像匹配,如图2中a为配准合成孔径雷达图像SAR,为模板图像,分辨率为500*500,b为光学图像,作为参考图像,分辨率850*850,模板图像和参考图像均不需要进行前处理,以前尺寸输入。
按照本发明中的方法,选取卷积神经网络为特征提取网络,特征提取网络A和B的下采样率均取4,多粒度区域N为30,在3000对配准合成孔径雷达图像SAR和光学图像上进行训练,在2000对配准合成孔径雷达图像SAR和光学图像上进行测试评估。得到图2中的c,在c中,方框中的图像为图a中的配准合成孔径雷达图像SAR,其在光学图像中确定了配准的位置,可得看出,配准合成孔径雷达图像SAR和光学图像精确匹配。
采用本发明中的方法在欧空局开源的Sen1-2数据集上进行了测试,Sen1-2数据集包含282384对严格配准的SAR-Optical图像对。我们选取其中的90%作为训练集,剩下的10%作为测试集,结果如表1所示。同时还与其他典型的异源图像匹配方法相比较。
在表1中,CAMRI,CFOG,DDFN为典型的异源图像匹配方法,我们与其他典型的异源图像匹配方法在相同的实验条件下进行测试比较。T<=1表示匹配位置误差小于1个像素的百分比,其越大表示越精确,从表中可以看到,采用本发明中的方法,T<=1的对应值为58.0,大于其他方法中的对应值,具有明显的优势。
在表中:T<=1表示匹配位置误差小于1个像素的百分比,T<=2表示匹配位置误差小于2个像素的百分比,T<=3表示匹配位置误差小于2个像素的百分比,百分比值越大表示越精确,从表中可以看到,采用本发明中的方法的百分比值分别为58.0,79.1和86.9,远大于采用CAMRI,CFOG和DDFN方法的百分比值,则采用本发明中的方法精确度更好,具有明显的优势。
表1对比试验结果

Claims (3)

1.一种多模态影像的端到端的模板匹配方法,其特征在于,该方法包括如下步骤:
步骤Sc、获取多模态影像,并分为训练样本集和测试样本集,所述训练样本集和测试样本集中均包括成对的模板图像和参考图像,且参考图像中的内容包含模板图像中的内容;
步骤S0、为训练阶段:构建特征提取网络A和B,并训练,得到训练后的特征提取网络A和B;具体如下:
步骤S00、构建特征提取网络A和B,所述特征提取网络A和B均为卷积神经网络结构,且下采样率相同;
步骤S01、选取训练样本集中成对的模板图像和参考图像,将模板图像输入特征提取网络A中,得到训练模板图像的特征图张量F1,将参考图像输入特征提取网络B中,得到训练参考图像的特征图张量F2;
步骤S02、在所述训练模板图像的特征图张量F1上随机选取N个不同大小,不同长宽比,不同位置的局部张量作为多粒度特征图张量集合;其中,N为自然数;
步骤S03、将所述多粒度特征图张量集合中的每一个元素作为卷积核,分别与训练参考图像的特征图张量F2进行傅里叶卷积,获得N张score map 1;
步骤S04、对各张所述score map 1进行上采样,得到多张score map 2,且上采样时上采样率与特征提取网络A和B的下采样率相同;
步骤S05、在各所述score map 2上施加多粒度对比损失函数,并根据损失函数值作为监督,使用反向梯度传播更新算法,对特征提取网络A和B中的参数进行更新,得训练后的特征提取网络A和B;
步骤S1、为推理阶段,选取测试样本集中成对的模板图像和参考图像,将模板图像输入训练后的特征提取网络A中,参考图像输入训练后的特征提取网络B中,傅里叶卷积后,得到score map1*图像,对score map1*图像上采样后得到score map 2*图像,在score map 2*上选取score值最大的位置作为匹配点;
在所述步骤S05中,所述多粒度对比损失函数如下:
其中,sip表示score map 2上正确匹配位置的score值;
sij表示score map 2上所有位置的score值;
R代表scor map 2的整个位置空间;
τ代表温度系数;
N代表特征张量F1中选取的多粒度卷积核个数;
在所述步骤S1中,得出最佳匹配点的推理的过程如下:
步骤S10、将待处理图像的模板图像和待处理图像的参考图像输入训练后的特征提取网络A和B,获得对应的特征图张量F1*和F2*
步骤S11、分别将各特征图张量F1*作为卷积核,与对应的特征图张量F2*进行傅里叶卷积获得一张score map 1*
步骤S12、对一张所述score map 1*进行上采样,得到一张score map 2*,其中,上采样率与训练后的特征提取网络A和B的下采样率相同;
步骤S13、在该张所述score map 2*上根据不同匹配位置上的score值,选取score值最大的位置作为最佳匹配点,即:
其中:sk表示score map 2*上位置k的score值,
R代表score map 2*上所有的位置。
2.根据权利要求1所述的一种多模态影像的端到端的模板匹配方法,其特征在于,所述多模态影像为多模态遥感影像、多模态医学图像或多模态自然图像。
3.根据权利要求2所述的一种多模态影像的端到端的模板匹配方法,其特征在于,所述模板图像和参考图像以任意尺寸输入。
CN202110801659.7A 2021-07-15 2021-07-15 一种多模态影像的端到端的模板匹配方法 Active CN113723447B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110801659.7A CN113723447B (zh) 2021-07-15 2021-07-15 一种多模态影像的端到端的模板匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110801659.7A CN113723447B (zh) 2021-07-15 2021-07-15 一种多模态影像的端到端的模板匹配方法

Publications (2)

Publication Number Publication Date
CN113723447A CN113723447A (zh) 2021-11-30
CN113723447B true CN113723447B (zh) 2024-03-08

Family

ID=78673344

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110801659.7A Active CN113723447B (zh) 2021-07-15 2021-07-15 一种多模态影像的端到端的模板匹配方法

Country Status (1)

Country Link
CN (1) CN113723447B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117041601B (zh) * 2023-10-09 2024-01-12 海克斯康制造智能技术(青岛)有限公司 一种基于isp神经网络模型的图像处理方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10546216B1 (en) * 2019-04-11 2020-01-28 Seetree Systems Ltd. Recurrent pattern image classification and registration
CN111047629A (zh) * 2019-11-04 2020-04-21 中国科学院深圳先进技术研究院 多模态图像配准的方法、装置、电子设备及存储介质
CN111414968A (zh) * 2020-03-26 2020-07-14 西南交通大学 一种基于卷积神经网络特征图的多模态遥感影像匹配方法
AU2020103901A4 (en) * 2020-12-04 2021-02-11 Chongqing Normal University Image Semantic Segmentation Method Based on Deep Full Convolutional Network and Conditional Random Field
JP6830707B1 (ja) * 2020-01-23 2021-02-17 同▲済▼大学 ランダムバッチマスクとマルチスケール表現学習を融合した人物再同定方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10546216B1 (en) * 2019-04-11 2020-01-28 Seetree Systems Ltd. Recurrent pattern image classification and registration
CN111047629A (zh) * 2019-11-04 2020-04-21 中国科学院深圳先进技术研究院 多模态图像配准的方法、装置、电子设备及存储介质
JP6830707B1 (ja) * 2020-01-23 2021-02-17 同▲済▼大学 ランダムバッチマスクとマルチスケール表現学習を融合した人物再同定方法
CN111414968A (zh) * 2020-03-26 2020-07-14 西南交通大学 一种基于卷积神经网络特征图的多模态遥感影像匹配方法
AU2020103901A4 (en) * 2020-12-04 2021-02-11 Chongqing Normal University Image Semantic Segmentation Method Based on Deep Full Convolutional Network and Conditional Random Field

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"A post-classification comparison method for sar and optical images change detection";L. Wan et al.;《IEEE Geoscience and Remote Sensing Letters》;第16卷(第7期);全文 *
"基于模板匹配的图像无损压缩预测编码";张建华等;《信息技术与信息化》(第1期);全文 *

Also Published As

Publication number Publication date
CN113723447A (zh) 2021-11-30

Similar Documents

Publication Publication Date Title
CN111414968B (zh) 一种基于卷积神经网络特征图的多模态遥感影像匹配方法
WO2021249233A1 (zh) 一种图像处理方法、目标识别模型训练方法和目标识别方法
CN113223068B (zh) 一种基于深度全局特征的多模态图像配准方法及系统
CN112528059A (zh) 基于深度学习的交通目标图像检索方法、装置及可读介质
Martínez-Otzeta et al. Ransac for robotic applications: A survey
CN108428220A (zh) 静止轨道卫星序列遥感影像海岛礁区域自动几何校正方法
CN111369601B (zh) 一种基于孪生网络的遥感图像配准方法
CN115471437B (zh) 一种基于卷积神经网络的影像融合方法以及遥感影像融合方法
CN113313047B (zh) 一种基于车道结构先验的车道线检测方法及系统
CN112669348A (zh) 一种鱼体姿势估计和鱼体表型数据测量方法及装置
CN111985502A (zh) 具有尺度与旋转不变性的多模态影像特征匹配方法
CN113963240A (zh) 多源遥感图像融合目标综合检测方法
CN112330701A (zh) 基于极坐标表示的组织病理图像细胞核分割方法及系统
EP4046061A1 (en) Weakly supervised multi-task learning for cell detection and segmentation
CN115019201B (zh) 一种基于特征精细化深度网络的弱小目标检测方法
CN116228792A (zh) 一种医学图像分割方法、系统及电子装置
CN113723447B (zh) 一种多模态影像的端到端的模板匹配方法
CN110246165B (zh) 提高可见光图像与sar图像配准速度的方法及系统
CN116994135A (zh) 一种基于视觉与雷达融合的船舶目标检测方法
US20220155441A1 (en) Lidar localization using optical flow
Jiang et al. Leveraging vocabulary tree for simultaneous match pair selection and guided feature matching of UAV images
CN116503677B (zh) 一种湿地分类信息提取方法、系统、电子设备及存储介质
Zhao et al. Building outline delineation: From very high resolution remote sensing imagery to polygons with an improved end-to-end learning framework
CN117274627A (zh) 一种基于图像转换的多时相积雪遥感图像匹配方法及系统
CN116385477A (zh) 一种基于图像分割的杆塔图像配准方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant