CN109544610A - 一种基于卷积神经网络的图像配准方法 - Google Patents

一种基于卷积神经网络的图像配准方法 Download PDF

Info

Publication number
CN109544610A
CN109544610A CN201811193622.5A CN201811193622A CN109544610A CN 109544610 A CN109544610 A CN 109544610A CN 201811193622 A CN201811193622 A CN 201811193622A CN 109544610 A CN109544610 A CN 109544610A
Authority
CN
China
Prior art keywords
characteristic point
point
matrix
distance
neural networks
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811193622.5A
Other languages
English (en)
Inventor
吕卫
赵薇
褚晶辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN201811193622.5A priority Critical patent/CN109544610A/zh
Publication of CN109544610A publication Critical patent/CN109544610A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于卷积神经网络的图像配准方法,所述方法包括以下步骤:利用VGG‑16卷积网络对参考图像、移动图像分别提取特征点,以此生成参考特征点集以及移动特征点集;当特征点的距离矩阵同时满足第一、第二约束条件时,执行预匹配操作,即所述参考特征点集中的特征点x、与所述移动特征点集中的特征点y是匹配点;设置某一阈值,结合迭代对预匹配后的特征点进行动态的内点选择,筛选出最终的特征点,并获取先验概率矩阵;根据先验概率矩阵、EM算法寻找最优参数,实现图像配准。本发明在特征点匹配时通过动态内点选择动态地逐步增加内点,提高了配准准确率。

Description

一种基于卷积神经网络的图像配准方法
技术领域
本发明涉及图像处理技术领域,尤其涉及一种基于卷积神经网络的图像配准方法。
背景技术
图像配准是图像处理领域的重要任务之一,也是图像融合的基础。由于图像配准的数据来自于不同的拍摄时间,不同的角度或者不同的物理设备等等,如何选取稳定的特征点并将其正确地匹配成为配准的关键问题。
目前传统的尺度不变特征变换(SIFT)检测算法以及在此基础上的一些改进算法,已经能基本实现特征点的选取,但对于多时相或者多模态的图像配准,因其表面存在较大的差异,SIFT算法可能产生诸多外点,甚至检测不到足够的特征点,因此限制了图像配准的应用。
目前深度学习的应用遍及各种领域并取得了卓越的成绩。尤其在图像处理方面,卷积神经网络通过学习能够提取大量稳健的特征点。但是在特征点匹配方面,神经网络只能产生有限的,恒定数量的变换参数,不能纠正复杂的失真。
发明内容
本发明提供了一种基于卷积神经网络的图像配准方法,本发明在图片有较大差异的情况下能够提取足够多的特征点,在特征点匹配时通过动态内点选择动态地逐步增加内点,提高了配准准确率,详见下文描述:
一种基于卷积神经网络的图像配准方法,所述方法包括以下步骤:
利用VGG-16卷积网络对参考图像、移动图像分别提取特征点,以此生成参考特征点集以及移动特征点集;
当特征点的距离矩阵同时满足第一、第二约束条件时,执行预匹配操作,即所述参考特征点集中的特征点x、与所述移动特征点集中的特征点y是匹配点;
设置某一阈值,结合迭代对预匹配后的特征点进行动态的内点选择,筛选出最终的特征点,并获取先验概率矩阵;
根据先验概率矩阵、EM算法寻找最优参数,实现图像配准。
进一步地,所述特征点的距离矩阵具体为:三个距离的加权和,即:
其中,每个距离均为对应的特征描述子的欧式距离:
di(x,y)=Euclidean-distance(Di(x),Di(y))
式中,Euclidean-distance为欧式距离;Di(x)为特征点x的特征描述子;Di(y)为特征点y的特征描述子。
进一步地,
第一约束条件:距离矩阵d(x,y)是所有d(·,y)里面的最小值,d(·,y)表示对于某一特征点y,参考特征点集X中的每一个特征x与特征点y之间的距离;
第二约束条件:不存在d(z,y),使得d(z,y)<θ·d(x,y),d(z,y)表示特征点z与特征点y之间的距离,θ为匹配阈值,z即移动特征点集Y通过变换后得到的对应点集中的点。
其中,所述设置某一阈值,结合迭代对预匹配后的特征点进行动态的内点选择具体为:
初始化时,设置一个较大的阈值使得较多的特征点都能满足内点条件,保留下来,
然后较大的阈值减去一个步长δ,作为更新后的阈值,对第一次迭代后的特征点进行进一步地筛选,依次类推。
具体实现时,所述根据先验概率矩阵、EM算法寻找最优参数具体包括:
将移动特征点集Y视为高斯混合模型的质心;省略派生冗余项,获取用EM算法最小化负的log似然函数的期望表达式;
基于高斯径向基函数生成的矩阵、运动相干理论的正则化项得到似然函数;
用EM算法迭代地计算期望并最小化梯度,直到收敛,用薄板样条插值法计算变换图像。
进一步地,所述负的log似然函数的期望表达式具体为:
其中,τ(ym,W)指ym的相对应的变换位置,σ2为标准方差,ym指向移动特征点集Y的索引m处,即点集Y的第m个特征点;ω为加权参数;N为点集X中特征点的总个数;M为点集Y中特征点的总个数;Pold(m|xn)表示使用最后一次迭代的参数计算的后验概率项;xn指向参考特征点集X的索引n处。
其中,所述似然函数具体为:
其中,tr(·)表示跟踪操作,λ为常数,W为转换系数矩阵,G为基于高斯径向基函数生成的矩阵,Q为似然函数的期望。
进一步地,所述获取先验概率矩阵具体为:
计算M×N的卷积特征损失矩阵、计算几何结构损失矩阵、利用哈达马积计算联合损失矩阵;
采用Jonker-Volgenant算法在联合损失矩阵C上解决线性配准问题,匹配到的点对被视为是概率相关的,计算先验概率矩阵,并进行归一化处理。
其中,所述卷积特征损失矩阵具体为:
其中,condition1表示xn和ym是低于阈值θ的一对有效的匹配点,是所有满足阈值θ的特征点对的距离的最大值;d(ym,xn)为前面定义的特征点之间的距离矩阵;
其中,所述几何结构损失矩阵具体为:
其中,分别指落在ym,xn周围弧形域中的点的个数,B为邻域设置的最大值。
其中,所述先验概率矩阵具体为:
其中,ε为超参,其值0<ε<1。
本发明提供的技术方案的有益效果是:
1、由于VGG-16卷积网络在分类问题上的优异表现以及其结构简洁和已被大量数据训练过的特点,故本发明选择VGG-16卷积网络的三层池化层的输出作为特征,保证能够提取到足够的良好特征点;
2、本发明在正式进行图像匹配之前,先进行预匹配,排除大量不相关点,保证了后续匹配的正确率;
3、本发明考虑卷积特征以及几何结构信息两方面特征来构造函数,迭代更新阈值θ,使得图像配准方法更加具有鲁棒性;
4、本发明利用EM算法更新参数(W,σ2,ω),迭代计算期望并最小化梯度,直到函数收敛。
附图说明
图1为本发明提供的卷积神经网络的结构示意图;
图2为本发明提供的一种基于卷积神经网络的图像配准方法的流程图;
图3为参考图像与配准后图像的示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面对本发明实施方式作进一步地详细描述。
实施例1
本发明实施例提供了一种基于卷积神经网络的图像配准方法,参见图1和图2,该方法包括以下步骤:
101:利用VGG-16卷积网络对参考图像、移动图像分别提取特征点,以此生成参考特征点集以及移动特征点集;
102:当特征点的距离矩阵同时满足第一、第二约束条件时,执行预匹配操作,即所述参考特征点集中的特征点x、与所述移动特征点集中的特征点y是匹配点;
103:设置某一阈值,结合迭代对预匹配后的特征点进行动态的内点选择,筛选出最终的特征点,并获取先验概率矩阵;
104:根据先验概率矩阵、EM算法寻找最优参数,实现图像配准。
其中,步骤102中的第一约束条件:距离矩阵d(x,y)是所有d(·,y)里面的最小值,d(·,y)表示对于某一特征点y,参考特征点集X中的每一个特征x与特征点y之间的距离;
第二约束条件:不存在d(z,y),使得d(z,y)<θ·d(x,y),d(z,y)表示特征点z与特征点y之间的距离,θ为匹配阈值,z即移动特征点集Y通过变换后得到的对应点集中的点。
其中,步骤103中的设置某一阈值,结合迭代对预匹配后的特征点进行动态的内点选择具体为:
初始化时,设置一个较大的阈值使得较多的特征点都能满足内点条件,保留下来,然后较大的阈值减去一个步长δ,作为更新后的阈值,对第一次迭代后的特征点进行进一步地筛选,依次类推。
综上所述,本发明实施例通过上述步骤101-步骤104即使在图片有较大差异的情况下也能够提取足够多的特征点,在特征点匹配时通过动态内点选择动态地逐步增加内点,提高了配准准确率。
实施例2
下面结合具体的计算公式、实例、图1-图2,对实施例1中的方案进行进一步地介绍,详见下文描述:
201:利用VGG-16卷积网络在参考图像IX上提取出所有特征点,进而生成参考特征点集X,利用VGG-16卷积网络在移动图像IY上提取出所有特征点,进而生成移动特征点集Y;
具体实现时,将参考图像IX和移动图像IY统一为长宽为224×224大小,以此来获得合适大小的感受野(本领域所公知的专业术语)并减小计算量。
其中,VGG-16卷积网络包括五段卷积,每一段内有2-3个卷积层,同时每段尾部会连接一个最大池化层,五段卷积依次分别为:pool1、pool2、pool3、pool4、以及pool5_1,本发明实施例利用pool3、pool4以及pool5_1三层的输出搭建网络,并输出特征点。
其中,参考图像IX通常为需要进行配准的遥感图像,在将参考图像IX输入到VGG-16卷积网络之前,一般会对参考图像IX进行预处理,例如:图像降噪、图像增强等。具体实现时,本发明实施例对此不做限制。
其中,移动图像IY通常为需要进行配准的遥感图像,在将移动图像IY输入到VGG-16卷积网络之前,也会对移动图像IY进行预处理,预处理的操作参见对参考图像IX的处理,本发明实施例在此不做赘述。
202:定义距离矩阵d(x,y),当满足如下2个约束条件时,认为步骤201中的参考特征点集X中的特征点x、与移动特征点集Y中的特征点y是匹配点;
第一条件:距离矩阵d(x,y)是所有d(·,y)里面的最小值,d(·,y)表示对于某一特征点y,参考特征点集X中的每一个特征x与特征点y之间的距离。
第二条件:不存在d(z,y),使得d(z,y)<θ·d(x,y),z即移动特征点集Y通过非线性变换后得到的对应点集中的点,d(z,y)表示特征点z与特征点y之间的距离,其中θ为匹配阈值,其值大于1。
具体实现时,通过上述2个约束条件,实现了对参考特征点集X中的特征点x、与移动特征点集Y中的特征点之间的预匹配,筛选出部分较好的匹配点进行后续的操作。
203:设置另一阈值,并结合迭代对步骤202预匹配后的特征点进行动态的内点选择,筛选出最终的特征点,并通过对内点的选择获取到一个M×N大小的先验概率矩阵PR
在采用期望极大值(expectation maximization,EM)算法迭代求解Z(其中,Z为每次迭代中移动特征点集Y对应的变换位置)时,本发明实施例在每k次迭代中更新内点(其中,内点为具有重叠区域的特征点)的选择。
在步骤202中的特征预匹配阶段,使用匹配阈值θ从特征点集合中选择大量特征点同时滤除不相关的点。
该步骤203中需初始化一个较大的阈值只有内点才能满足。在接下来的配准过程中,在每k次迭代中较大的阈值逐次减去一个步长δ,作为更新后的阈值,使得每次迭代有更多一部分的特征点来影响变换过程。
具体实现时,首先在初始化的时候,设置一个较大的阈值使得较多的特征点都能满足内点条件,保留下来,然后较大的阈值减去一个步长δ,作为更新后的阈值,对第一次迭代后的特征点进行进一步地筛选,依次类推。
例如:初始特征点为1000个,第一次筛选后保留下来800个,将减去一个步长δ,使得满足条件的特征点减少,经过第二次筛选后保留下来500个特征点,依次类推,使得越来越少的点能满足条件保留下来,经过多次迭代筛选出最终的特征点。
通过对内点的选择产生一个M×N大小的先验概率矩阵PR,此先验概率矩阵PR接下来由基于高斯混合模型(Gaussianmixturemodel,GMM)的变换求解器获得。
先验概率矩阵PR中的元素PR[m,n]代表了xn和ym相关性的概率大小,其中xn指向参考特征点集X的索引n处,ym指向移动特征点集Y的索引m处。假设xn和ym是特征匹配点,则会得到一个较大的元素PR[m,n]。该大概率值将会导致ym的显著变化,进而促进得到正确的特征匹配点对。其中,概率PR[m,n]由两个方面的信息决定,一是卷积特征,二是几何结构信息。
204:通过EM算法寻找最优参数;
a)将移动特征点集Y视为GMM的质心;
其中,GMM的概率密度函数定义为gm(x)为正太分布密度函数:
其中,均匀分布项是考虑到存在一部分具有加权参数ω的外点,且0<ω<1,x为参考特征点集X中的任一点,N为点集X中特征点的总个数,σ2为标准方差,ym指向移动特征点集Y的索引m处,即点集Y的第m个特征点。
使用EM算法来寻找最优参数值(W,σ2,ω)。该方法原理为最大化一个似然函数,也就等同于最小化一个负的log似然函数:
其中,W为转换系数矩阵,M为点集Y中特征点的总个数,gm(xn)为在xn处的正态分布函数值。
该式(2)中由于包含隐变量m,无法直接计算梯度。故可用EM算法最小化负的log似然函数的期望:
其中,Pold(m|xn)表示使用来自最后一次迭代的参数计算的后验概率项。扩展此等式并省略派生冗余项后,该等式可以重写为:
其中,τ(ym,W)指ym的相对应的变换位置。
b)非线性变换公式定义为:
Z=Y+GW (5)
其中,G是由高斯径向基函数(GRBF)生成的矩阵。
其中β为高斯径向基方差,xj为点集X中的第j个点,为点集Y中的第i个点。
加一个基于运动相干理论(MCT)的正则化项得到其中tr(·)表示跟踪操作,λ为常数2,Qr为最终得到的似然函数。
c)用EM算法迭代地计算期望并最小化梯度,直到收敛。
①E步:用上一轮迭代的参数计算后验概率矩阵PO
②M步:更新参数:
其中,Pd=diag(P1),P1是列向量,元素全为1。
d)用薄板样条插值法计算变换图像IZ
205:参数设定:
在特征点预匹配阶段,阈值θ0由最可靠的128对特征点自动确定。同样的,由最可靠的64对特征点确定;
在内点选择阶段,步长由确定。置信参数ε设为0.5。在参考图像与移动图像几何结构信息的径向方向采用5个单位,切线方向采用10个单位。
在特征点集配准阶段,高斯径向基方差β设为2。
将参考图像与移动图像在进行特征点提取前统一调整为224×224大小;外点平衡权重ω初始化为0.5;λ初始化为2;转换系数矩阵W初始化为全零矩阵。
方差σ2初始化得到。
综上所述,本发明实施例通过上述步骤201-步骤205即使在图片有较大差异的情况下也能够提取足够多的特征点,在特征点匹配时通过动态内点选择,动态地逐步增加内点,提高了配准准确率。
实施例3
下面结合具体的实例、计算公式对实施例1和2中的方案进行进一步地介绍,详见下文描述:
301:提取特征点:
利用VGG-16卷积网络在参考图像IX上提取特征点生成参考特征点集X,在移动图像IY上提取特征点生成移动特征点集Y,结合附图1对网络搭建做进一步说明;
1)将参考图像IX、移动图像IY统一为224×224大小,来获得合适大小的感受野并减小计算量。
2)VGG-16卷积网络包含5部分卷积计算,利用28×28的网格去分割参考图像IX、移动图像IY。在池化层pool3层的输出得到256d的特征图,在每个8×8的区域上生成一个特征描述子,每个图像块的中心被视为一个特征点。
a)池化层pool3层的输出直接形成pool3层的特征图F1,大小为28×28×256。
b)池化层pool4层的输出为14×14×512,与池化层pool3层略有不同的是在每16×16的区域上生成一个特征描述子,被4个特征点共享。
其中,池化层pool4层的特征图F2由克罗内克积(用表示)获得:其中,Opool4表示pool4层的输出,I2×2×1表示一个2×2的矩阵,元素均为1。
c)pool5_1层的输出为7×7×512,每个pool5_1层的特征描述子被16个特征点共享:
d)获得F1,F2,F3之后,将其归一化:
其中,σ(·)表示计算矩阵中元素的标准差。
e)pool3,pool4以及pool5_1三层的特征描述子分别用D1(x),D2(x),D3(x)表示。
302:特征预匹配;
定义特征点x和y的距离矩阵为三个距离的加权和:
其中,每个距离均为对应的特征描述子的欧式距离:
di(x,y)=Euclidean-distance(Di(x),Di(y)) (14)
当满足实施例2中的二个条件时,认为特征点x与特征点y是匹配点。
303:动态内点选择;
内点选择产生一个M×N大小的先验概率矩阵PR此矩阵接下来由基于高斯混合模型的变换求解器获得。假设xn和ym是匹配点,则会得到一个较大的元素PR[m,n]。该大概率值将会导致ym的显著变化,进而促进得到正确的匹配点对。
概率PR[m,n]由两个方面的信息决定,一是卷积特征,二是几何结构信息。先验概率矩阵由以下方法获得:
1)计算M×N的卷积特征损失矩阵:
其中,condition1表示xn和ym是低于阈值θ的一对有效的匹配点,是所有满足阈值θ的特征点对的距离的最大值。
2)计算几何结构损失矩阵:
这是一个基于直方图的描述符,它包含一个点的邻域结构。描述符将引导点放在极坐标系的中心,并记录落在弧形域中的点数。
其中,分别指落在ym,xn周围弧形域中的点的个数。
3)利用哈达马积计算联合损失矩阵:
4)采用Jonker-Volgenant算法在联合损失矩阵C上解决线性配准问题。匹配到的点对被视为是概率相关的。最后计算先验概率矩阵:
其中,ε为超参,其值0<ε<1,另外先验概率矩阵需要归一化:
步长值
具体实现时,主要的处理流程与参数设定与实施例2相同,本发明实施例对此不做赘述。
综上所述,本发明实施例通过上述步骤301-步骤303在特征点匹配时通过动态内点选择,动态地逐步增加内点,提高了配准准确率。
实施例4
下面结合图3对实施例1-3中的方案进行可行性验证,详见下文描述:
401:数据集:采用公开数据集多时相卫星图像数据集。数据集包含15对图像,图像大小为600×400到1566×874不等。图像表面多有较大的形变,以及较小范围的旋转和视角的变化。
402:参数设定:如实施例2的205部分;
403:配准图像:输入参考图像与移动图像,加载搭建好的网络,输出原参考图像与配准完成后的图像。
404:评价指标:计算均方根误差(RMSD),RMSD定义为:
其中,yt分别为观测值与真实值,n为总的观察次数。RMSD值越小代表配准的结果越好,最终计算出的RMSD为12.63,验证了本方法的可行性。
本领域技术人员可以理解附图只是一个优选实施例的示意图,上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种基于卷积神经网络的图像配准方法,其特征在于,所述方法包括以下步骤:
利用VGG-16卷积网络对参考图像、移动图像分别提取特征点,以此生成参考特征点集以及移动特征点集;
当特征点的距离矩阵同时满足第一、第二约束条件时,执行预匹配操作,即所述参考特征点集中的特征点x、与所述移动特征点集中的特征点y是匹配点;
设置某一阈值,结合迭代对预匹配后的特征点进行动态的内点选择,筛选出最终的特征点,并获取先验概率矩阵;
根据先验概率矩阵、EM算法寻找最优参数,实现图像配准。
2.根据权利要求1所述的一种基于卷积神经网络的图像配准方法,其特征在于,所述特征点的距离矩阵具体为:三个距离的加权和,即:
其中,每个距离均为对应的特征描述子的欧式距离:
di(x,y)=Euclidean-distance(Di(x),Di(y))
式中,Euclidean-distance为欧式距离;Di(x)为特征点x的特征描述子;Di(y)为特征点y的特征描述子。
3.根据权利要求2所述的一种基于卷积神经网络的图像配准方法,其特征在于,
第一约束条件:距离矩阵d(x,y)是所有d(·,y)里面的最小值,d(·,y)表示对于某一特征点y,参考特征点集X中的每一个特征x与特征点y之间的距离;
第二约束条件:不存在d(z,y),使得d(z,y)<θ·d(x,y),d(z,y)表示特征点z与特征点y之间的距离,θ为匹配阈值,z即移动特征点集Y通过变换后得到的对应点集中的点。
4.根据权利要求3所述的一种基于卷积神经网络的图像配准方法,其特征在于,所述设置某一阈值,结合迭代对预匹配后的特征点进行动态的内点选择具体为:
初始化时,设置一个较大的阈值使得较多的特征点都能满足内点条件,保留下来,然后较大的阈值减去一个步长δ,作为更新后的阈值,对第一次迭代后的特征点进行进一步地筛选,依次类推。
5.根据权利要求1所述的一种基于卷积神经网络的图像配准方法,其特征在于,所述根据先验概率矩阵、EM算法寻找最优参数具体包括:
将移动特征点集Y视为高斯混合模型的质心;省略派生冗余项,获取用EM算法最小化负的log似然函数的期望表达式;
基于高斯径向基函数生成的矩阵、运动相干理论的正则化项得到似然函数;
用EM算法迭代地计算期望并最小化梯度,直到收敛,用薄板样条插值法计算变换图像。
6.根据权利要求5所述的一种基于卷积神经网络的图像配准方法,其特征在于,所述负的log似然函数的期望表达式具体为:
其中,τ(ym,W)指ym的相对应的变换位置,σ2为标准方差,ym指向移动特征点集Y的索引m处,即点集Y的第m个特征点;ω为加权参数;N为点集X中特征点的总个数;M为点集Y中特征点的总个数;Pold(m|xn)表示使用最后一次迭代的参数计算的后验概率项;xn指向参考特征点集X的索引n处。
7.根据权利要求6所述的一种基于卷积神经网络的图像配准方法,其特征在于,所述似然函数具体为:
其中,tr(·)表示跟踪操作,λ为常数,W为转换系数矩阵,G为基于高斯径向基函数生成的矩阵,Q为似然函数的期望。
8.根据权利要求1所述的一种基于卷积神经网络的图像配准方法,其特征在于,所述获取先验概率矩阵具体为:
计算M×N的卷积特征损失矩阵、计算几何结构损失矩阵、利用哈达马积计算联合损失矩阵;
采用Jonker-Volgenant算法在联合损失矩阵C上解决线性配准问题,匹配到的点对被视为是概率相关的,计算先验概率矩阵,并进行归一化处理。
9.根据权利要求8所述的一种基于卷积神经网络的图像配准方法,其特征在于,
所述卷积特征损失矩阵具体为:
其中,condition1表示xn和ym是低于阈值θ的一对有效的匹配点,是所有满足阈值θ的特征点对的距离的最大值;d(ym,xn)为特征点之间的距离矩阵;
所述几何结构损失矩阵具体为:
其中,分别指落在ym,xn周围弧形域中的点的个数,B为邻域设置的最大值。
10.根据权利要求8所述的一种基于卷积神经网络的图像配准方法,其特征在于,所述先验概率矩阵具体为:
其中,ε为超参,其值0<ε<1。
CN201811193622.5A 2018-10-15 2018-10-15 一种基于卷积神经网络的图像配准方法 Pending CN109544610A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811193622.5A CN109544610A (zh) 2018-10-15 2018-10-15 一种基于卷积神经网络的图像配准方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811193622.5A CN109544610A (zh) 2018-10-15 2018-10-15 一种基于卷积神经网络的图像配准方法

Publications (1)

Publication Number Publication Date
CN109544610A true CN109544610A (zh) 2019-03-29

Family

ID=65843962

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811193622.5A Pending CN109544610A (zh) 2018-10-15 2018-10-15 一种基于卷积神经网络的图像配准方法

Country Status (1)

Country Link
CN (1) CN109544610A (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110111371A (zh) * 2019-04-16 2019-08-09 昆明理工大学 一种基于卷积神经网络的斑点图图像配准方法
CN110503110A (zh) * 2019-08-12 2019-11-26 北京影谱科技股份有限公司 特征匹配方法和装置
CN111199558A (zh) * 2019-12-25 2020-05-26 北京自行者科技有限公司 一种基于深度学习的图像匹配方法
CN111260701A (zh) * 2020-01-08 2020-06-09 华南理工大学 多模态视网膜眼底图像配准方法及装置
CN111724424A (zh) * 2020-06-24 2020-09-29 上海应用技术大学 图像配准方法
CN112652002A (zh) * 2020-12-25 2021-04-13 江苏集萃复合材料装备研究所有限公司 一种基于idc算法的医疗影像配准方法
CN113344030A (zh) * 2021-05-11 2021-09-03 淮阴工学院 一种基于判决相关分析的遥感图像特征融合方法及系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105938615A (zh) * 2016-04-01 2016-09-14 武汉熹光科技有限公司 基于特征导向gmm和边缘图像的图像配准方法及系统

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105938615A (zh) * 2016-04-01 2016-09-14 武汉熹光科技有限公司 基于特征导向gmm和边缘图像的图像配准方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ZHUOQIAN YANG ET AL.: "Multi-Temporal Remote Sensing Image Registration Using Deep Convolutional Features", 《IEEE ACCESS》 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110111371A (zh) * 2019-04-16 2019-08-09 昆明理工大学 一种基于卷积神经网络的斑点图图像配准方法
CN110503110A (zh) * 2019-08-12 2019-11-26 北京影谱科技股份有限公司 特征匹配方法和装置
CN111199558A (zh) * 2019-12-25 2020-05-26 北京自行者科技有限公司 一种基于深度学习的图像匹配方法
CN111260701A (zh) * 2020-01-08 2020-06-09 华南理工大学 多模态视网膜眼底图像配准方法及装置
CN111260701B (zh) * 2020-01-08 2023-06-30 华南理工大学 多模态视网膜眼底图像配准方法及装置
CN111724424A (zh) * 2020-06-24 2020-09-29 上海应用技术大学 图像配准方法
CN111724424B (zh) * 2020-06-24 2024-05-14 上海应用技术大学 图像配准方法
CN112652002A (zh) * 2020-12-25 2021-04-13 江苏集萃复合材料装备研究所有限公司 一种基于idc算法的医疗影像配准方法
CN112652002B (zh) * 2020-12-25 2024-05-03 江苏集萃复合材料装备研究所有限公司 一种基于idc算法的医疗影像配准方法
CN113344030A (zh) * 2021-05-11 2021-09-03 淮阴工学院 一种基于判决相关分析的遥感图像特征融合方法及系统
CN113344030B (zh) * 2021-05-11 2023-11-03 淮阴工学院 一种基于判决相关分析的遥感图像特征融合方法及系统

Similar Documents

Publication Publication Date Title
CN109544610A (zh) 一种基于卷积神经网络的图像配准方法
US11645835B2 (en) Hypercomplex deep learning methods, architectures, and apparatus for multimodal small, medium, and large-scale data representation, analysis, and applications
CN106845529B (zh) 基于多视野卷积神经网络的影像特征识别方法
Thakur et al. State‐of‐art analysis of image denoising methods using convolutional neural networks
WO2022002150A1 (zh) 一种视觉点云地图的构建方法、装置
Zhao et al. Hyperspectral anomaly detection based on stacked denoising autoencoders
Gall et al. Optimization and filtering for human motion capture: A multi-layer framework
Zhang et al. Global and local saliency analysis for the extraction of residential areas in high-spatial-resolution remote sensing image
Montazer et al. An improved radial basis function neural network for object image retrieval
CN106991388B (zh) 关键点定位方法
Venugopal Automatic semantic segmentation with DeepLab dilated learning network for change detection in remote sensing images
CN113095333B (zh) 无监督特征点检测方法及装置
Zhang et al. High-quality face image generation based on generative adversarial networks
Etezadifar et al. A new sample consensus based on sparse coding for improved matching of SIFT features on remote sensing images
Yuan et al. Neighborloss: a loss function considering spatial correlation for semantic segmentation of remote sensing image
Song et al. Multi-scale feature based land cover change detection in mountainous terrain using multi-temporal and multi-sensor remote sensing images
Ge et al. Adaptive hash attention and lower triangular network for hyperspectral image classification
US11475595B2 (en) Extrinsic calibration of multi-camera system
Gao et al. Integrated GANs: Semi-supervised SAR target recognition
Lu et al. Image-specific prior adaptation for denoising
Hu et al. A total variation regularized bipartite network for unsupervised change detection
US11354535B2 (en) Device and method with sensor-specific image recognition
CN115082533A (zh) 一种基于自监督的临近空间遥感图像配准方法
CN115439669A (zh) 基于深度学习的特征点检测网络及跨分辨率图像匹配方法
S. P et al. Image restoration model using Jaya‐Bat optimization‐enabled noise prediction map

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20190329

WD01 Invention patent application deemed withdrawn after publication