CN111488937A - 一种基于多尺度邻居深度神经网络的图像匹配方法 - Google Patents

一种基于多尺度邻居深度神经网络的图像匹配方法 Download PDF

Info

Publication number
CN111488937A
CN111488937A CN202010293038.8A CN202010293038A CN111488937A CN 111488937 A CN111488937 A CN 111488937A CN 202010293038 A CN202010293038 A CN 202010293038A CN 111488937 A CN111488937 A CN 111488937A
Authority
CN
China
Prior art keywords
scale
matching
data
image
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010293038.8A
Other languages
English (en)
Other versions
CN111488937B (zh
Inventor
肖国宝
钟振
汪涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hefei Jiuzhou Longteng Scientific And Technological Achievement Transformation Co ltd
Original Assignee
Minjiang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minjiang University filed Critical Minjiang University
Priority to CN202010293038.8A priority Critical patent/CN111488937B/zh
Publication of CN111488937A publication Critical patent/CN111488937A/zh
Application granted granted Critical
Publication of CN111488937B publication Critical patent/CN111488937B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于多尺度邻居深度神经网络的图像匹配方法。该方法通过分析输入需要匹配的匹配对,通过新型神经网络训练自适应地输出匹配好的图像对,具体来说,给定两个视图特征点的匹配数据,设计了一个端到端的神经网络框架,该神经网络将图像匹配问题表述为二分类问题,它使用基于特异相容的距离度量每个匹配对之间的距离,再使用多尺度邻居将匹配对与其邻居组合成图。本发明方法可以充分挖掘匹配对的局部信息;本发明方法与其他匹配算法相比,在基准数据集取得了最先进的性能,具备较好的鲁棒性。

Description

一种基于多尺度邻居深度神经网络的图像匹配方法
技术领域
本发明涉及计算机视觉技术,具体涉及一种基于多尺度邻居深度神经网络的图像匹配方法。
背景技术
建立可靠的特征匹配是计算机视觉中的一个基本问题,例如,多标签分类,全景拼接和几何模型拟合。找到鲁棒的特征匹配主要依赖于两个步骤,即匹配生成和匹配选择。第一步利用特征点初步生成匹配集。然而,由于局部特征点的定位误差和局部描述子的含糊不清,最初的匹配常常不可避免地被异常值所污染。因此,第二步(即从初步匹配中选择正确的匹配)在鲁棒匹配中扮演着重要的角色。
特征匹配方法方法主要可以分为参数方法,非参数方法和基于学习的方法。参数方法主要包括RANSAC(MartinA Fischler and Robert C Bolles.Random sampleconsensus:a paradigm for model fitting with applications to image analysisand automated cartography.Communications ofthe ACM,24(6):381–395,1981.)及其变体(例如SCRAMSAC(Torsten Sattler,Bastian Leibe,andLeif Kobbelt.Scramsac:Improving ransac’s efficiency with a spatial consistency filter.In ICCV,pages2090–2097,2009.)和LORANSAC(Ondˇrej Chum,Jiˇr′1Matas,andJosefKittler.Locally optimized ransac.InDAGM,pages 236–243,2003.))。它们首先对数据集进行采样生成单应性矩阵或基本矩阵,然后对生成的矩阵进行判定(即它是否为最大内点子集)并循环第一步和第二步。然而,这些方法有两个基本的缺点:1)当正确匹配占总匹配的比率较低时,它们不能有效地工作;2)参数方法善于描述单个几何模型,很难表达复杂模型(比如非刚性匹配和多一致性匹配)。
非参数方法主要挖掘特征点的局部信息以进行匹配。LPM(Jiayi Ma,JiZhao,JunjunJiang,Huabing Zhou,and Xiaojie Guo.Locality preservingmatching.International Journal of Computer Vision,127(5):512–531,2019.)假定同一场景或物体的图像对的特征点之间的空间邻域关系相似。GLPM(Jiayi Ma,JunjunJiang,Huabing Zhou,Ji Zhao,and Xiaojie Guo.Guided locality preserving featurematchingforremote sensing imageregistration.)将两个图像之间潜在的真实匹配的邻域结构公式化为数学模型,并利用数学模型进行快速匹配。非参数方法虽然利用了特征点的局部信息,但没有充分挖掘匹配对之间的局部信息。
基于深度学习的方法在计算机视觉任务被广泛的的使用。许多研究人员试图采用基于学习的方法来解决匹配任务。尽管已证明基于学习的方法优于参数方法和非参数方法,但在生成的推定匹配项中仍然存在大量错误匹配项。MooYi(Kwang Moo Yi,EduardTrulls,Yuki Ono,Vincent Lepetit,Mathieu Salzmann,and Pascal Fua.Learning tofind good correspondences.In Proceedings ofthe IEEE Conference on ComputerVision and Pattern Recognition,pages 2666–2674,2018.)等人的网络模型通过上下文标准化捕获全局上下文信息,并将上下文信息嵌入节点中,但是其上下文标准化不仅容易受到其他匹配对的影响,而且忽视了局部信息的挖掘。为了解决这个问题,NM-Net(ChenZhao,Zhiguo Cao,Chi Li,Xin Li,and Jiaqi Yang.Nm-net:Mining reliable neighborsfor robust feature correspondences.In CVPR,pages 215–224,2019.)通过匹配的特异相容的距离来定义邻居,并将定义的邻居组合形成新的邻居图以挖掘每个匹配对的局部信息。虽然NM-Net解决了LGC-Net的局部信息挖掘问题,但是NM-Net以相同的权重对待所有的邻居,忽视了不同邻居之间的信息。为了解决这个问题,我们提出了基于多尺度邻居的匹配神经网络模型。
发明内容
本发明的目的在于提供一种基于多尺度邻居深度神经网络的图像匹配方法,在基准数据集取得了最先进的性能,具备较好的鲁棒性。
为实现上述目的,本发明的技术方案是:一种基于多尺度邻居深度神经网络的图像匹配方法,首先,准备数据集;其次,对数据集进行预处理,并对处理后的数据进行特征增强;然后,对增强后的特征进行多尺度组合,之后对多尺度组合后的特征进行提取特征;最后,在测试阶段输出结果;所述方法具体包括如下步骤:
步骤S1、准备数据集:对于给定的图像对(I,I'),采用基于黑塞映射的检测子从图像中提取特征点kpi,kp′i,其中图像I提取的特征点集为KP={kpi}i∈N,图像I′提取的特征点集为KP′={kp′i}i∈N,每个对应关系(kpi,kp′i)可生成4D数据:
D=[d1;d2;d3;.......dN;],di=[xi,yi,x′i,y′i]
其中,D表示图像对的匹配组,di表示匹配对,(xi,yi),(x′i,y′i)表示图像对匹配中相应两个特征点的坐标;
步骤S2、特征增强:采用一个卷积核大小为1×1的卷积层将原始特征数据映射为一个32维的特征向量,即D(1×N×4)→D(1×N×32),其中,N为一张图片提取的特征点个数;
步骤S3、多尺度组合:通过基于黑塞映射方法提取局部信息的特征点,提出基于黑塞映射的兼容性距离,而后,采用多尺度近邻挖掘不同邻居的信息,按升序对数据之间的距离进行排序,最后,构造多尺度信息构造邻域图;
步骤S4、特征学习:使用残差网络作为预训练编码器对多尺度组合后的特征进行特征提取,其中残差网络由一个个残差块叠加而成;
步骤S5、测试:在测试阶段,将残差网络的输出设为初步预测结果,并且使用激活函数tanh和relu对初步预测结果进行处理,即:fx=relu(tanh(xout)),fx为最终结果。
在本发明一实施例中,所述步骤S3具体实现步骤如下:
S31、采用基于黑塞映射方法提取可以提供局部信息的特征点,该特征点可描述为一个3×3的矩阵:
Figure BDA0002450995460000031
其中,Ai代表特征点描述子,vi是一个通过黑塞映射提取的局部仿射信息组成的2×2矩阵,ui表示特征点的坐标位置;
S32、提出基于黑塞映射的兼容性距离,可表示为:
Figure BDA0002450995460000032
其中,α[a b c]T=[a/c b/c]T,由于sli(Ai·Aj)经常小于0,因此再使用高斯核评估数据之间的兼容性距离:
Figure BDA0002450995460000035
S33、采用多尺度近邻挖掘不同邻居的信息:首先,计算每两个数据的兼容性距离,其次,按升序对数据之间的距离进行排序:
Figure BDA0002450995460000033
其中,σ(Ai)表示相似排列的顺序集合;
Figure BDA0002450995460000036
表示与Ai相似度排名的第m个数据;
S34、使用从Ai中提取的多尺度信息构造邻域图:
Figure BDA0002450995460000034
其中,kn表示多尺度近邻的尺度,kn的下标m表示最大邻居。
在本发明一实施例中,所述步骤S4中,残差块的输入和输出的关系映射如下式所示:
x′=F(x,w)+x
其中x,x′是残差块的输入和输出,w是权重,F(·)是非线性变换。
在本发明一实施例中,该方法采用交叉熵损失函数来指导网络的学习,交叉熵损失函数如下式所示:
Figure BDA0002450995460000041
其中,yi就表示label,y'i表示预测值。
相较于现有技术,本发明具有以下有益效果:本发明方法在基准数据集取得了最先进的性能,具备较好的鲁棒性。
附图说明
图1为残差块结构图。
图2为本发明本发明的实施例的流程图。
图3为本发明实施的神经网络构架。
具体实施方式
下面结合附图,对本发明的技术方案进行具体说明。
本发明提供了一种基于多尺度邻居深度神经网络的图像匹配方法,首先,准备数据集;其次,对数据集进行预处理,并对处理后的数据进行特征增强;然后,对增强后的特征进行多尺度组合,之后对多尺度组合后的特征进行提取特征;最后,在测试阶段输出结果;所述方法具体包括如下步骤:
步骤S1、准备数据集:对于给定的图像对(I,I'),采用基于黑塞映射的检测子从图像中提取特征点kpi,kp′i,其中图像I提取的特征点集为KP={kpi}i∈N,图像I′提取的特征点集为KP′={kp′i}i∈N,每个对应关系(kpi,kp′i)可生成4D数据:
D=[d1;d2;d3;.......dN;],di=[xi,yi,x′i,y′i]
其中,D表示图像对的匹配组,di表示匹配对,(xi,yi),(x′i,y′i)表示图像对匹配中相应两个特征点的坐标;
步骤S2、特征增强:采用一个卷积核大小为1×1的卷积层将原始特征数据映射为一个32维的特征向量,即D(1×N×4)→D(1×N×32),其中,N为一张图片提取的特征点个数;
步骤S3、多尺度组合:通过基于黑塞映射方法提取局部信息的特征点,提出基于黑塞映射的兼容性距离,而后,采用多尺度近邻挖掘不同邻居的信息,按升序对数据之间的距离进行排序,最后,构造多尺度信息构造邻域图;
步骤S4、特征学习:使用残差网络作为预训练编码器对多尺度组合后的特征进行特征提取,其中残差网络由一个个残差块叠加而成;
步骤S5、测试:在测试阶段,将残差网络的输出设为初步预测结果,并且使用激活函数tanh和relu对初步预测结果进行处理,即:fx=relu(tanh(xout)),fx为最终结果。
以下为本发明的具体实现过程。
如图2、3所示,本发明一种基于多尺度邻居深度神经网络的图像匹配方法,首先,准备数据集;其次,对数据集进行预处理,并对处理后的数据进行特征增强;然后,对增强后的特征进行多尺度组合,之后对多尺度组合后的特征进行提取特征;最后,在测试阶段输出结果;所述方法具体包括如下步骤:
A、准备数据集:
对于给定的图像对(I,I'),采用基于黑塞映射的检测子从图像中提取特征点kpi,kp′i,其中图像I提取的特征点集为KP={kpi}i∈N,图像I′提取的特征点集为KP′={kp′i}i∈N,每个对应关系(kpi,kp′i)可生成4D数据:
D=[d1;d2;d3;.......dN;],di=[xi,yi,x′i,y′i]
其中,D表示图像对的匹配组,di表示匹配对,(xi,yi),(x′i,y′i)表示图像对匹配中相应两个特征点的坐标;
B、特征增强:
在特征增强阶段,为了减少网络特征学习带来的信息损失,采用一个卷积核大小为1×1的卷积层将原始特征数据映射为一个32维的特征向量,即D(1×N×4)→D(1×N×32),其中,N为一张图片提取的特征点个数;
C、多尺度组合:
C1、采用基于黑塞映射(hessian-affine)方法提取可以提供局部信息的特征点,该特征点可描述为一个3×3的矩阵:
Figure BDA0002450995460000051
其中,Ai代表特征点描述子,vi是一个通过黑塞映射提取的局部仿射信息组成的2×2矩阵,ui表示特征点的坐标位置;
C2、匹配数据普遍不符合欧式距离,为了更好的度量数据的距离,本申请提出了一种基于黑塞映射的兼容性距离,可表示为:
Figure BDA0002450995460000061
其中,α[a b c]T=[a/c b/c]T,由于sli(Ai·Aj)经常小于0,因此再使用高斯核评估数据之间的兼容性距离:
Figure BDA0002450995460000065
C3、为了进一步挖掘局部信息,本申请中采用多尺度近邻挖掘不同邻居的信息:首先,计算每两个数据的兼容性距离,其次,按升序对数据之间的距离进行排序:
Figure BDA0002450995460000062
其中,σ(Ai)表示相似排列的顺序集合;
Figure BDA0002450995460000066
表示与Ai相似度排名的第m个数据;
C4、使用从Ai中提取的多尺度信息构造邻域图:
Figure BDA0002450995460000063
其中,kn表示多尺度近邻的尺度,kn的下标m表示最大邻居。
D、特征学习:
在特征学习阶段,本申请采用残差网络作为预训练编码器进行多尺度特征提取,其中残差网络由一个个残差块叠加而成,如图1所示;残差块的输入和输出的关系映射如下式所示:
x′=F(x,w)+x
其中x,x′是残差块的输入和输出,w是权重,F(·)是非线性变换。
E、测试:
在模型测试阶段,我们使用卷积层聚合残差网络的输出结果。最后,本申请使用激活函数tanh和relu对预测的输出结果进行处理,即:fx=relu(tanh(xout)),fx为最终结果。在整个网络的训练中,本申请采用交叉熵损失函数来指导网络的学习,交叉熵损失函数如下式所示:
Figure BDA0002450995460000064
其中,yi就表示label,y'i表示预测值。
实验数据:
表1
F-测量值 准确率 召回率
Ransac 0.8003 0.8189 0.8003
LPM 0.7867 0.8765 0.7328
Point-Net 0.9143 0.8937 0.9402
Piont-Net++ 0.9683 0.9634 0.9741
LCG-Net 0.9690 0.9690 0.9700
NM-Net 0.9614 0.9587 0.9658
MS-Net 0.9714 0.9717 0.9715
表1为本实施例与其他几种匹配算法COLMAP数据集的F-测量值,准确率,召回率量化对比。对比方法有Ransac(Martin A Fischler and Robert C Bolles.Random sampleconsensus:a paradigm for model fitting with applications to image analysisand automated cartography.Communications of the ACM,24(6):381–395,1981.),LPM(Jiayi Ma,Ji Zhao,Junjun Jiang,Huabing Zhou,and Xiaojie Guo.Localitypreserving matching.International Journal of Computer Vision,127(5):512–531,2019.),Point-Net(Charles R Qi,Hao Su,Kaichun Mo,and Leonidas JGuibas.Pointnet:Deep learning on point sets for 3d classification andsegmentation.In CVPR,pages652–660,2017.),Point-Net++(Charles Ruizhongtai Qi,Li Yi,Hao Su,and Leonidas J Guibas.Pointnet++:Deep hierarchical featurelearning on point sets in a metric space.In NIPS,pages 5099–5108,2017.),LCG-Net(Kwang Moo Yi,Eduard Trulls,Yuki Ono,Vincent Lepetit,Mathieu Salzmann,andPascal Fua.Learning to find good correspondences.In Proceedings of the IEEEConference on Computer Vision and Pattern Recognition,pages 2666–2674,2018.),NM-Net(Nm-net:Mining reliable neighbors for robust feature correspondences.InCVPR,pages 215–224,2019.)。从表1中,可以看到本发明方法显著提升了检测准确率,在六种方法中取得最好的效果。
综上所述,本发明提出的一种基于多尺度邻居深度神经网络的图像匹配方法,搜索每个对应关系的一致邻居以进行特征聚合;本发明方法定量和定性在公共数据集(NARROW)上进行测试,结果表明本发明方法明显优于其他算法。
以上是本发明的较佳实施例,凡依本发明技术方案所作的改变,所产生的功能作用未超出本发明技术方案的范围时,均属于本发明的保护范围。

Claims (4)

1.一种基于多尺度邻居深度神经网络的图像匹配方法,其特征在于,首先,准备数据集;其次,对数据集进行预处理,并对处理后的数据进行特征增强;然后,对增强后的特征进行多尺度组合,之后对多尺度组合后的特征进行提取特征;最后,在测试阶段输出结果;所述方法具体包括如下步骤:
步骤S1、准备数据集:对于给定的图像对(I,I'),采用基于黑塞映射的检测子从图像中提取特征点kpi,kp′i,其中图像I提取的特征点集为KP={kpi}i∈N,图像I′提取的特征点集为KP′={kp′i}i∈N,每个对应关系(kpi,kp′i)可生成4D数据:
D=[d1;d2;d3;.......dN;],di=[xi,yi,x′i,y′i]
其中,D表示图像对的匹配组,di表示匹配对,(xi,yi),(x′i,y′i)表示图像对匹配中相应两个特征点的坐标;
步骤S2、特征增强:采用一个卷积核大小为1×1的卷积层将原始特征数据映射为一个32维的特征向量,即D(1×N×4)→D(1×N×32),其中,N为一张图片提取的特征点个数;
步骤S3、多尺度组合:通过基于黑塞映射方法提取局部信息的特征点,提出基于黑塞映射的兼容性距离,而后,采用多尺度近邻挖掘不同邻居的信息,按升序对数据之间的距离进行排序,最后,构造多尺度信息构造邻域图;
步骤S4、特征学习:使用残差网络作为预训练编码器对多尺度组合后的特征进行特征提取,其中残差网络由一个个残差块叠加而成;
步骤S5、测试:在测试阶段,将残差网络的输出设为初步预测结果,并且使用激活函数tanh和relu对初步预测结果进行处理,即:fx=relu(tanh(xout)),fx为最终结果。
2.根据权利要求1所述的一种基于多尺度邻居深度神经网络的图像匹配方法,其特征在于,所述步骤S3具体实现步骤如下:
S31、采用基于黑塞映射方法提取可以提供局部信息的特征点,该特征点可描述为一个3×3的矩阵:
Figure FDA0002450995450000011
其中,Ai代表特征点描述子,vi是一个通过黑塞映射提取的局部仿射信息组成的2×2矩阵,ui表示特征点的坐标位置;
S32、提出基于黑塞映射的兼容性距离,可表示为:
Figure FDA0002450995450000021
其中,α[a b c]T=[a/c b/c]T,由于sli(Ai·Aj)经常小于0,因此再使用高斯核评估数据之间的兼容性距离:
Figure FDA0002450995450000022
S33、采用多尺度近邻挖掘不同邻居的信息:首先,计算每两个数据的兼容性距离,其次,按升序对数据之间的距离进行排序:
Figure FDA0002450995450000023
其中,σ(Ai)表示相似排列的顺序集合;
Figure FDA0002450995450000024
表示与Ai相似度排名的第m个数据;
S34、使用从Ai中提取的多尺度信息构造邻域图:
Figure FDA0002450995450000025
其中,kn表示多尺度近邻的尺度,kn的下标m表示最大邻居。
3.根据权利要求1所述的一种基于多尺度邻居深度神经网络的图像匹配方法,其特征在于,所述步骤S4中,残差块的输入和输出的关系映射如下式所示:
x′=F(x,w)+x
其中x,x′是残差块的输入和输出,w是权重,F(·)是非线性变换。
4.根据权利要求1所述的一种基于多尺度邻居深度神经网络的图像匹配方法,其特征在于,该方法采用交叉熵损失函数来指导网络的学习,交叉熵损失函数如下式所示:
Figure FDA0002450995450000026
其中,yi就表示label,y'i表示预测值。
CN202010293038.8A 2020-04-15 2020-04-15 一种基于多尺度邻居深度神经网络的图像匹配方法 Active CN111488937B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010293038.8A CN111488937B (zh) 2020-04-15 2020-04-15 一种基于多尺度邻居深度神经网络的图像匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010293038.8A CN111488937B (zh) 2020-04-15 2020-04-15 一种基于多尺度邻居深度神经网络的图像匹配方法

Publications (2)

Publication Number Publication Date
CN111488937A true CN111488937A (zh) 2020-08-04
CN111488937B CN111488937B (zh) 2021-09-28

Family

ID=71794964

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010293038.8A Active CN111488937B (zh) 2020-04-15 2020-04-15 一种基于多尺度邻居深度神经网络的图像匹配方法

Country Status (1)

Country Link
CN (1) CN111488937B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112164100A (zh) * 2020-09-25 2021-01-01 闽江学院 一种基于图卷积神经网络的图像配准方法
CN112308137A (zh) * 2020-10-30 2021-02-02 闽江学院 一种利用注意力机制聚合邻域点和全局特征的图像匹配方法
CN112308128A (zh) * 2020-10-28 2021-02-02 闽江学院 一种基于注意力机制神经网络的图像匹配方法
CN112949765A (zh) * 2021-04-07 2021-06-11 闽江学院 融合局部和全局信息的图像匹配方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106022380A (zh) * 2016-05-25 2016-10-12 中国科学院自动化研究所 基于深度学习的个体身份识别方法
CN108830888A (zh) * 2018-05-24 2018-11-16 中北大学 基于改进的多尺度协方差矩阵特征描述子的粗匹配方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106022380A (zh) * 2016-05-25 2016-10-12 中国科学院自动化研究所 基于深度学习的个体身份识别方法
CN108830888A (zh) * 2018-05-24 2018-11-16 中北大学 基于改进的多尺度协方差矩阵特征描述子的粗匹配方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CHEN ZHAO: "NM-Net: Mining Reliable Neighbors for Robust Feature Correspondences", 《ARXIV》 *
许锐: "基于残差神经网络的嵌入式人脸属性识别系统", 《电子世界》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112164100A (zh) * 2020-09-25 2021-01-01 闽江学院 一种基于图卷积神经网络的图像配准方法
CN112164100B (zh) * 2020-09-25 2023-12-12 闽江学院 一种基于图卷积神经网络的图像配准方法
CN112308128A (zh) * 2020-10-28 2021-02-02 闽江学院 一种基于注意力机制神经网络的图像匹配方法
CN112308128B (zh) * 2020-10-28 2024-01-05 闽江学院 一种基于注意力机制神经网络的图像匹配方法
CN112308137A (zh) * 2020-10-30 2021-02-02 闽江学院 一种利用注意力机制聚合邻域点和全局特征的图像匹配方法
CN112308137B (zh) * 2020-10-30 2022-05-13 闽江学院 一种利用注意力机制聚合邻域点和全局特征的图像匹配方法
CN112949765A (zh) * 2021-04-07 2021-06-11 闽江学院 融合局部和全局信息的图像匹配方法

Also Published As

Publication number Publication date
CN111488937B (zh) 2021-09-28

Similar Documents

Publication Publication Date Title
CN110728209B (zh) 一种姿态识别方法、装置、电子设备及存储介质
CN111488937A (zh) 一种基于多尺度邻居深度神经网络的图像匹配方法
CN108460338B (zh) 人体姿态估计方法和装置、电子设备、存储介质、程序
CN110246181B (zh) 基于锚点的姿态估计模型训练方法、姿态估计方法和系统
CN110866907A (zh) 基于注意力机制的全卷积网络织物疵点检测方法
CN113052185A (zh) 一种基于Faster R-CNN的小样本目标检测方法
CN111881804B (zh) 基于联合训练的姿态估计模型训练方法、系统、介质及终端
CN107944459A (zh) 一种rgb‑d物体识别方法
CN109635726B (zh) 一种基于对称式深度网络结合多尺度池化的滑坡识别方法
CN107301643B (zh) 基于鲁棒稀疏表示与拉普拉斯正则项的显著目标检测方法
CN108154133B (zh) 基于非对称联合学习的人脸画像-照片识别方法
CN109740539B (zh) 基于超限学习机和融合卷积网络的3d物体识别方法
CN112257741B (zh) 一种基于复数神经网络的生成性对抗虚假图片的检测方法
CN111104941B (zh) 图像方向纠正方法、装置及电子设备
Ming et al. Application of convolutional neural network in defect detection of 3C products
CN114049568B (zh) 基于图像比对的标的物形变检测方法、装置、设备及介质
CN112364974B (zh) 一种基于激活函数改进的YOLOv3算法
Li et al. Extracting buildings from high-resolution remote sensing images by deep ConvNets equipped with structural-cue-guided feature alignment
CN111353325A (zh) 关键点检测模型训练方法及装置
CN110163095B (zh) 回环检测方法、回环检测装置及终端设备
CN116912574A (zh) 一种基于孪生网络的多尺度目标感知分类方法及系统
CN111523586A (zh) 一种基于噪声可知的全网络监督目标检测方法
CN115049833A (zh) 一种基于局部特征增强和相似性度量的点云部件分割方法
CN110991563A (zh) 一种基于特征融合的胶囊网络随机路由算法
CN118089669A (zh) 一种基于航空测绘技术的地形测绘系统及测绘方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20240426

Address after: 230000 Room 203, building 2, phase I, e-commerce Park, Jinggang Road, Shushan Economic Development Zone, Hefei City, Anhui Province

Patentee after: Hefei Jiuzhou Longteng scientific and technological achievement transformation Co.,Ltd.

Country or region after: China

Address before: 200 xiyuangong Road, Shangjie Town, Minhou County, Fuzhou City, Fujian Province

Patentee before: MINJIANG University

Country or region before: China