CN113688842B - 一种基于解耦合的局部图像特征提取方法 - Google Patents

一种基于解耦合的局部图像特征提取方法 Download PDF

Info

Publication number
CN113688842B
CN113688842B CN202110898241.2A CN202110898241A CN113688842B CN 113688842 B CN113688842 B CN 113688842B CN 202110898241 A CN202110898241 A CN 202110898241A CN 113688842 B CN113688842 B CN 113688842B
Authority
CN
China
Prior art keywords
image
network
feature
loss function
descriptor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110898241.2A
Other languages
English (en)
Other versions
CN113688842A (zh
Inventor
刘红敏
杨玉竹
樊彬
曾慧
张利欣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cicc Yuneng Technology Group Co ltd
Original Assignee
University of Science and Technology Beijing USTB
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Science and Technology Beijing USTB filed Critical University of Science and Technology Beijing USTB
Priority to CN202110898241.2A priority Critical patent/CN113688842B/zh
Publication of CN113688842A publication Critical patent/CN113688842A/zh
Application granted granted Critical
Publication of CN113688842B publication Critical patent/CN113688842B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及图像特征提取技术领域,特别是指一种基于解耦合的局部图像特征提取方法,方法包括:获取待提取图像;将图像输入到训练好的局部图像特征提取模型中,局部图像特征提取模型包括特征编码器网络FE和局部图像特征点和描述子提取网络E;基于图像以及特征编码器网络FE和局部图像特征点和描述子提取网络E,得到图像的特征点和描述子,完成对图像的特征提取。本发明是一种分解本质信息和外部环境因素特征的深度解耦合学习的局部图像特征提取与匹配的方法,从而在根本上解决复杂图像变化条件下的图像特征匹配问题。

Description

一种基于解耦合的局部图像特征提取方法
技术领域
本发明涉及图像特征提取技术领域,特别是指一种基于解耦合的局部图像特征提取方法。
背景技术
图像特征提取与匹配是计算机视觉和图像处理领域中的研究重点。在过去的几十年里,基于手工设计的图像特征提取与匹配方法取得了巨大的成功,在目标检测、图像匹配、三维重建、图像检索等任务中有着不错的表现,其中最具有代表性的是SIFT算法。SIFT算法通过引入尺度空间的信息,构建图像金字塔,并在该图像空间上进行特征点检测,然后在检测到的特征点的邻域空间内计算相应的描述子,从而使特征具备尺度不变性。在SIFT算法的基础上,涌现出了许多相应的改进算法,如ASIFT,SURF,BRIEF,ORB等,这些算法在传统的计算机视觉任务中也取得了不错的效果。以SIFT算法为代表的图像特征计算速度快、具备一定的尺度不变性和光照不变性,但是在剧烈光照变化和尺度变化下表现仍然差强人意。
近年来,基于深度学习的图像特征提取与匹配方法逐渐兴起,并在各种计算机视觉任务中超过了基于手工设计的方法。基于深度学习的图像特征提取与匹配方法主要分为基于块匹配的方法和检测描述子联合训练的方法,基于块匹配的方法如L2-Net、LF-Net、HardNet、SOSNet等沿袭基于手工设计的方法,在特征点的邻域范围内计算描述子;基于特征检测与描述联合训练的方法如LIFT、SuperPoint、D2-Net、R2D2、ASLFeat等,使用全卷积网络提取稠密特征描述子。目前这些基于深度学习的方法切实解决了很多计算机视觉中的问题,但是这些方法在处理复杂光照、图像变换等条件下的图像匹配问题时,不能获得高质量的特征点匹配,归根结底在于特征点检测和描述均从原始的图像出发,里面包含过多的由于成像条件引起的干扰因素,给后续的鲁棒特征提取带来了挑战。
发明内容
本发明实施例提供了一种基于解耦合的局部图像特征提取方法。所述技术方案如下:
获取待提取图像;
将所述图像输入到训练好的局部图像特征提取模型中,所述局部图像特征提取模型包括特征编码器网络FE和局部图像特征点和描述子提取网络E;
基于所述图像以及所述特征编码器网络FE和所述局部图像特征点和描述子提取网络E,得到所述图像的特征点和描述子,完成对所述图像的特征提取。
可选地,所述特征编码器网络FE和所述局部图像特征点和描述子提取网络E的训练过程包括:
S201、获取用于训练使用的图像对I1、I2及每幅图像的深度图和内外参,根据所述深度图和内外参获得所述图像对I1、I2之间的像素对应关系C;
S202、根据所述图像对I1、I2,获得所述图像对的本质信息特征图A1、A2和外在环境特征图B1、B2
S203、根据所述图像对的本质信息特征图A1、A2和外在环境特征图B1、B2,获得重构图像G11、G22
S204、根据所述图像对的本质信息特征图A1、A2,获得所述图像对的特征分数
Figure BDA0003198710420000031
和描述子D(1)、D(2),将所述特征分数大于0.5的位置标记为特征点;
S205、根据所述图像对的特征分数
Figure BDA0003198710420000032
和描述子D(1)、D(2),设计图像特征提取与匹配损失函数Lm
S206、根据所述图像对I1、I2和所述重构图像G11、G22,设计图像重建损失函数Lp
S207、将所述图像特征提取与匹配损失函数Lm和所述图像重建损失函数Lp按不同权重λ结合,得到总体目标损失函数Ltot,给定初始学习率为1e-2,对所述总体目标损失函数Ltot进行训练,直到相邻两次迭代的差小于0.1时停止训练,得到训练好的局部图像特征提取模型。
可选地,所述获取用于训练使用的图像对I1、I2及每幅图像的深度图和内外参,根据所述深度图和内外参获得所述图像对I1、I2之间的像素对应关系C包括:
获取MegaDepth数据集和基于三维重建的几何学习GL3D数据集,获取所述用于训练使用的图像对I1、I2及每幅图像的深度图和内外参,使用所述内外参将图像I2的点投影到图像I1上,使用投影点的深度信息进行深度一致性检查,从而获得所述图像对I1,I2之间的像素对应关系C。
可选地,所述根据所述图像对I1、I2,获得所述图像对的本质信息特征图和外在环境特征图包括:
将图像I1输入FE网络,将FE网络记为FE1,获得所述图像I1的解耦合的本质信息特征图A1和外在环境特征图B1;将图像I2输入FE网络,将FE网络记为FE2,获得所述图像I2的解耦合的本质信息特征图A2和外在环境特征图B2;所述FE网络为U-Net特征编码器网络,所述FE1和所述FE2参数共享。
可选地,所述根据所述图像对的本质信息特征图A1、A2和外在环境特征图B1、B2,获得重构图像G11、G22包括:
将所述本质信息特征图A1和外在环境特征图B1输入FD网络,将FD网络记为FD1,输出所述图像I1的所述重构图像G11;将所述本质信息特征图A2和外在环境特征图B2输入FD网络,将FD网络记为FD2,输出所述图像I2的重构图像G22
其中,所述FD网络为U-Net特征解码器网络,所述FD1和所述FD2参数共享。
可选地,根据所述图像对的本质信息特征图A1、A2,获得所述图像对的特征分数
Figure BDA0003198710420000041
和描述子D(1)、D(2),将所述特征分数大于0.5的位置标记为特征点包括:
将所述本质信息特征图A1输入到E网络中,将E网络记为E1,输出所述图像I1的所述描述子D(1)∈Rh×w×k;将所述的本质信息特征图A2输入到E网络中,将E网络记为E2,输出所述图像I2的所述描述子D(2)∈Rh×w×k;其中h、w为特征图的高、宽,k为描述子维度,R为实数集;所述E网络为L2-Net局部图像特征点和描述子提取网络,所述E1和所述E2参数共享;
对于所述本质信息特征图Al,l=1,2,所述本质信息特征图Al上的任意像素点(i,j),i=1,2,…,h,j=1,2,…,w,计算特征分数为:
Figure BDA0003198710420000042
其中
Figure BDA0003198710420000043
获得所述本质信息特征图Al的特征分数图,记为S(l);对于所述特征分数图S(l),将
Figure BDA0003198710420000044
大于0.5的位置标记为所述特征点。
可选地,根据所述图像对的特征分数
Figure BDA0003198710420000051
和描述子D(1)、D(2),设计图像特征提取与匹配损失函数Lm为:
Figure BDA0003198710420000052
其中,
Figure BDA0003198710420000053
c、q为任两组所述像素对应关系C,p(c)表示所述图像对上对应点位置处描述子的距离,n(c)表示所述图像对上非对应位置处描述子距离的最小值,M为常数1。
可选地,所述根据所述图像对I1、I2,所述重构图像G11、G22,设计图像重建损失函数为:
Lp=∑‖I1(x,y)-G11(x,y)‖1+‖I2(x,y)-G22(x,y)‖1 (3)
可选地,所述将所述图像特征提取与匹配损失函数Lm和所述图像重建损失函数Lp按不同权重λ结合,得到总体目标损失函数Ltot,给定初始学习率为1e-2,对所述总体目标损失函数Ltot进行训练,直到相邻两次迭代的差小于0.1时停止训练,得到训练好的局部图像特征提取模型包括:
将所述图像特征提取与匹配损失函数Lm和所述图像重建损失函数Lp按不同权重结合获得总体目标损失函数Ltot,
Ltot=Lm+λ×Lp (4)
其中,λ为所述图像重建损失函数权重,设为0.1;
根据BP算法以及所述图像特征提取与匹配损失函数和所述图像重建损失函数,对所述特征编码器网络、所述特征解码器网络、所述局部图像特征点和描述子提取网络的网络参数进行学习,给定初始学习率为1e-2,训练所述总体目标损失函数Ltot至相邻两次迭代的差小于0.1时停止,训练得到可进行图像解耦合的特征编码器网络、特征解码器网络以及局部图像特征点和描述子提取网络。
本发明实施例提供的技术方案带来的有益效果至少包括:
本发明研究解耦合特征学习,通过深度神经网络强大的特征表达能力,将图像的特征表达分解为内在本质特征与外在环境特征两部分,通过在本质特征部分进行特征点检测和描述子构造,综合利用神经网络、特征提取、图像生成、风格迁移、深度解耦合等技术,以实现对各种复杂光谱变化鲁棒的图像获得高质量的特征点匹配。
本发明的方法精度高、适用范围广、推广性强,可广泛应用于图像配准、图像检索、视觉定位、三维重建、增强现实等系统中。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种基于解耦合的局部图像特征提取方法流程图;
图2是本发明实施例提供的一种局部图像特征提取模型训练流程图;
图3是本发明实施例提供的一种局部图像特征提取模型训练框架图。
具体实施方式
为使本发明要解决的技术问题、技术方案和优点更加清楚,下面将结合附图及具体实施例进行详细描述。
本发明实施例提供了一种基于解耦合的局部图像特征提取方法,如图1所示的基于解耦合的局部图像特征提取方法流程图,该方法的处理流程可以包括如下的步骤:
S101、获取待提取图像;
S102、将图像输入到训练好的局部图像特征提取模型中,局部图像特征提取模型包括特征编码器网络FE和局部图像特征点和描述子提取网络E;
S103、基于图像以及特征编码器网络FE和局部图像特征点和描述子提取网络E,得到图像的特征点和描述子,完成对图像的特征提取。
本发明研究解耦合特征学习,通过深度神经网络强大的特征表达能力,将图像的特征表达分解为内在本质特征与外在环境特征两部分,通过在本质特征部分进行特征点检测和描述子构造,综合利用神经网络、特征提取、图像生成、风格迁移、深度解耦合等技术,以实现对各种复杂光谱变化鲁棒的图像获得高质量的特征点匹配。
本发明的方法精度高、适用范围广、推广性强,可广泛应用于图像配准、图像检索、视觉定位、三维重建、增强现实等系统中。
本发明实施例提供了一种基于解耦合的局部图像特征提取方法,如图2所示的局部图像特征提取模型训练流程图,图3所示的局部图像特征提取模型训练框架图;
该方法的处理流程可以包括如下的步骤:
S201、获取用于训练使用的图像对I1、I2及每幅图像的深度图和内外参,根据深度图和内外参获得图像对I1、I2之间的像素对应关系C;
可选地,获取用于训练使用的图像对I1、I2及每幅图像的深度图和内外参,根据深度图和内外参获得图像对I1、I2之间的像素对应关系C包括:
获取MegaDepth数据集和基于三维重建的几何学习GL3D数据集,获取用于训练使用的图像对I1、I2及每幅图像的深度图和内外参,使用内外参将图像I2的点投影到图像I1上,使用投影点的深度信息进行深度一致性检查,从而获得图像对I1,I2之间的像素对应关系C。
S202、根据图像对I1、I2,获得图像对的本质信息特征图A1、A2和外在环境特征图B1、B2
可选地,根据图像对I1、I2,获得图像对的本质信息特征图和外在环境特征图包括:
将图像I1输入FE网络,将FE网络记为FE1,获得图像I1的解耦合的本质信息特征图A1和外在环境特征图B1;将图像I2输入FE网络,将FE网络记为FE2,获得图像I2的解耦合的本质信息特征图A2和外在环境特征图B2;FE网络为U-Net特征编码器网络,FE1和FE2参数共享。
S203、根据图像对的本质信息特征图A1、A2和外在环境特征图B1、B2,获得重构图像G11、G22
可选地,根据图像对的本质信息特征图A1、A2和外在环境特征图B1、B2,获得重构图像G11、G22包括:
将本质信息特征图A1和外在环境特征图B1输入FD网络,将FD网络记为FD1,输出图像I1的重构图像G11;将本质信息特征图A2和外在环境特征图B2输入FD网络,将FD网络记为FD2,输出图像I2的重构图像G22
其中,FD网络为U-Net特征解码器网络,FD1和FD2参数共享。
S204、根据图像对的本质信息特征图A1、A2,获得图像对的特征分数
Figure BDA0003198710420000091
Figure BDA0003198710420000092
和描述子D(1)、D(2),将特征分数大于0.5的位置标记为特征点;
可选地,根据图像对的本质信息特征图A1、A2,获得图像对的特征分数
Figure BDA0003198710420000093
Figure BDA0003198710420000094
和描述子D(1)、D(2),将特征分数大于0.5的位置标记为特征点包括:
将本质信息特征图A1输入到E网络中,将E网络记为E1,输出图像I1的描述子D(1)∈Rh×w×k;将的本质信息特征图A2输入到E网络中,将E网络记为E2,输出图像I2的描述子D(2)∈Rh×w×k;其中h、w为特征图的高、宽,k为描述子维度,R为实数集;E网络为L2-Net局部图像特征点和描述子提取网络,E1和E2参数共享;
对于本质信息特征图Al,l=1,2,本质信息特征图Al上的任意像素点(i,j),i=1,2,…,h,j=1,2,…,w,计算特征分数为:
Figure BDA0003198710420000095
其中
Figure BDA0003198710420000096
获得本质信息特征图Al的特征分数图,记为S(l);对于特征分数图S(l),将
Figure BDA0003198710420000097
大于0.5的位置标记为特征点。
S205、根据图像对的特征分数
Figure BDA0003198710420000098
和描述子D(1)、D(2),设计图像特征提取与匹配损失函数Lm
可选地,根据图像对的特征分数
Figure BDA0003198710420000099
和描述子D(1)、D(2),设计图像特征提取与匹配损失函数Lm为:
Figure BDA0003198710420000101
其中,
Figure BDA0003198710420000102
c、q为任两组像素对应关系C,p(c)表示图像对上对应点位置处描述子的距离,n(c)表示图像对上非对应位置处描述子距离的最小值,M为常数1。
一种可行的实施方式中,结合训练数据,根据图像对提取的特征点和描述子,构建图像特征提取与匹配学习误差。
S206、根据图像对I1、I2和重构图像G11、G22,设计图像重建损失函数Lp
可选地,根据图像对I1、I2,重构图像G11、G22,设计图像重建损失函数为:
Lp=∑‖I1(x,y)-G11(x,y)‖1+‖I2(x,y)-G22(x,y)‖1 (3)
一种可行的实施方式中,结合训练数据,根据图像对与图像对重构图像,构建图像重建学习误差。
S207、将图像特征提取与匹配损失函数Lm和图像重建损失函数Lp按不同权重λ结合,得到总体目标损失函数Ltot,给定初始学习率为1e-2,对总体目标损失函数Ltot进行训练,直到相邻两次迭代的差小于0.1时停止训练,得到训练好的局部图像特征提取模型。
可选地,将图像特征提取与匹配损失函数Lm和图像重建损失函数Lp按不同权重λ结合,得到总体目标损失函数Ltot,给定初始学习率为1e-2,对总体目标损失函数Ltot进行训练,直到相邻两次迭代的差小于0.1时停止训练,得到训练好的局部图像特征提取模型包括:
将图像特征提取与匹配损失函数Lm和图像重建损失函数Lp按不同权重结合获得总体目标损失函数Ltot,
Ltot=Lm+λ×Lp (4)
其中,λ为图像重建损失函数权重,设为0.1;
根据BP算法以及图像特征提取与匹配损失函数和图像重建损失函数,对特征编码器网络、特征解码器网络、局部图像特征点和描述子提取网络的网络参数进行学习,给定初始学习率为1e-2,训练总体目标损失函数Ltot至相邻两次迭代的差小于0.1时停止,训练得到可进行图像解耦合的特征编码器网络、特征解码器网络以及局部图像特征点和描述子提取网络。
一种可行的实施方式中,根据图像特征提取与匹配损失函数和图像重建损失函数按照不同权重结合,对整个网络进行训练,得到特征编码器网络和局部图像特征点和描述子提取网络的网络参数,从而得到局部图像特征提取模型,根据本模型可得到图像特征点和描述子,进行图像特征点匹配相关应用。上述训练过程为现有技术,本发明此处不再赘述。
本发明研究解耦合特征学习,通过深度神经网络强大的特征表达能力,将图像的特征表达分解为内在本质特征与外在环境特征两部分,通过在本质特征部分进行特征点检测和描述子构造,综合利用神经网络、特征提取、图像生成、风格迁移、深度解耦合等技术,以实现对各种复杂光谱变化鲁棒的图像获得高质量的特征点匹配。
本发明的方法精度高、适用范围广、推广性强,可广泛应用于图像配准、图像检索、视觉定位、三维重建、增强现实等系统中。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (6)

1.一种基于解耦合的局部图像特征提取方法,其特征在于,所述方法包括:
获取待提取图像;
将所述图像输入到训练好的局部图像特征提取模型中,所述局部图像特征提取模型包括特征编码器网络FE和局部图像特征点和描述子提取网络E;
基于所述图像以及所述特征编码器网络FE和所述局部图像特征点和描述子提取网络E,得到所述图像的特征点和描述子,完成对所述图像的特征提取;
所述特征编码器网络FE和所述局部图像特征点和描述子提取网络E的训练过程包括:
S201、获取用于训练使用的图像对I1、I2及每幅图像的深度图和内外参,根据所述深度图和内外参获得所述图像对I1、I2之间的像素对应关系C;
S202、根据所述图像对I1、I2,获得所述图像对的本质信息特征图A1、A2和外在环境特征图B1、B2
将图像I1输入FE网络,将FE网络记为FE1,获得所述图像I1的解耦合的本质信息特征图A1和外在环境特征图B1;将图像I2输入FE网络,将FE网络记为FE2,获得所述图像I2的解耦合的本质信息特征图A2和外在环境特征图B2;所述FE网络为U-Net特征编码器网络,所述FE1和所述FE2参数共享;
S203、根据所述图像对的本质信息特征图A1、A2和外在环境特征图B1、B2,获得重构图像G11、G22
将所述本质信息特征图A1和外在环境特征图B1输入FD网络,将FD网络记为FD1,输出所述图像I1的所述重构图像G11;将所述本质信息特征图A2和外在环境特征图B2输入FD网络,将FD网络记为FD2,输出所述图像I2的重构图像G22
其中,所述FD网络为U-Net特征解码器网络,所述FD1和所述FD2参数共享;
S204、根据所述图像对的本质信息特征图A1、A2,获得所述图像对的特征分数
Figure FDA0003538790520000021
和描述子D(1)、D(2),将所述特征分数大于0.5的位置标记为特征点;
将所述本质信息特征图A1输入到E网络中,将E网络记为E1,输出所述图像I1的所述描述子D(1)∈Rh×w×k;将所述的本质信息特征图A2输入到E网络中,将E网络记为E2,输出所述图像I2的所述描述子D(2)∈Rh×w×k;其中h、w为特征图的高、宽,k为描述子维度,R为实数集;所述E网络为L2-Net局部图像特征点和描述子提取网络,所述E1和所述E2参数共享;
S205、根据所述图像对的特征分数
Figure FDA0003538790520000022
和描述子D(1)、D(2),设计图像特征提取与匹配损失函数Lm
S206、根据所述图像对I1、I2和所述重构图像G11、G22,设计图像重建损失函数Lp
S207、将所述图像特征提取与匹配损失函数Lm和所述图像重建损失函数Lp按不同权重λ结合,得到总体目标损失函数Ltot,给定初始学习率为1e-2,对所述总体目标损失函数Ltot进行训练,直到相邻两次迭代的差小于0.1时停止训练,得到训练好的局部图像特征提取模型。
2.根据权利要求1所述的方法,其特征在于,所述获取用于训练使用的图像对I1、I2及每幅图像的深度图和内外参,根据所述深度图和内外参获得所述图像对I1、I2之间的像素对应关系C包括:
获取MegaDepth数据集和基于三维重建的几何学习GL3D数据集,获取所述用于训练使用的图像对I1、I2及每幅图像的深度图和内外参,使用所述内外参将图像I2的点投影到图像I1上,使用投影点的深度信息进行深度一致性检查,从而获得所述图像对I1,I2之间的像素对应关系C。
3.根据权利要求1所述的方法,其特征在于,将所述特征分数大于0.5的位置标记为特征点包括:
对于所述本质信息特征图Al,l=1,2,所述本质信息特征图Al上的任意像素点(i,j),i=1,2,…,h,j=1,2,…,w,计算特征分数为:
Figure FDA0003538790520000031
其中
Figure FDA0003538790520000032
获得所述本质信息特征图Al的特征分数图,记为S(l);对于所述特征分数图S(l),将
Figure FDA0003538790520000033
大于0.5的位置标记为所述特征点。
4.根据权利要求3所述的方法,其特征在于,根据所述图像对的特征分数
Figure FDA0003538790520000034
Figure FDA0003538790520000035
和描述子D(1)、D(2),设计图像特征提取与匹配损失函数Lm为:
Figure FDA0003538790520000036
其中,
Figure DEST_PATH_IMAGE002
c、q为任两组所述像素对应关系C,p(c)表示所述图像对上对应点位置处描述子的距离,n(c)表示所述图像对上非对应位置处描述子距离的最小值,M为常数1。
5.根据权利要求4所述的方法,其特征在于,所述根据所述图像对I1、I2,所述重构图像G11、G22,设计图像重建损失函数为:
Lp=∑||I1(x,y)-G11(x,y)||1+||I2(x,y)-G22(x,y)||1 (3)。
6.根据权利要求4和5任一所述的方法,其特征在于,所述将所述图像特征提取与匹配损失函数Lm和所述图像重建损失函数Lp按不同权重λ结合,得到总体目标损失函数Ltot,给定初始学习率为1e-2,对所述总体目标损失函数Ltot进行训练,直到相邻两次迭代的差小于0.1时停止训练,得到训练好的局部图像特征提取模型包括:
将所述图像特征提取与匹配损失函数Lm和所述图像重建损失函数Lp按不同权重结合获得总体目标损失函数Ltot,
Ltot=Lm+λ×Lp (4)
其中,λ为所述图像重建损失函数权重,设为0.1;
根据BP算法以及所述图像特征提取与匹配损失函数和所述图像重建损失函数,对所述特征编码器网络、所述特征解码器网络、所述局部图像特征点和描述子提取网络的网络参数进行学习,给定初始学习率为1e-2,训练所述总体目标损失函数Ltot至相邻两次迭代的差小于0.1时停止,训练得到可进行图像解耦合的特征编码器网络、特征解码器网络以及局部图像特征点和描述子提取网络。
CN202110898241.2A 2021-08-05 2021-08-05 一种基于解耦合的局部图像特征提取方法 Active CN113688842B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110898241.2A CN113688842B (zh) 2021-08-05 2021-08-05 一种基于解耦合的局部图像特征提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110898241.2A CN113688842B (zh) 2021-08-05 2021-08-05 一种基于解耦合的局部图像特征提取方法

Publications (2)

Publication Number Publication Date
CN113688842A CN113688842A (zh) 2021-11-23
CN113688842B true CN113688842B (zh) 2022-04-29

Family

ID=78578978

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110898241.2A Active CN113688842B (zh) 2021-08-05 2021-08-05 一种基于解耦合的局部图像特征提取方法

Country Status (1)

Country Link
CN (1) CN113688842B (zh)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6035057A (en) * 1997-03-10 2000-03-07 Hoffman; Efrem H. Hierarchical data matrix pattern recognition and identification system
CN110335337B (zh) * 2019-04-28 2021-11-05 厦门大学 一种基于端到端半监督生成对抗网络的视觉里程计的方法
CN110929748A (zh) * 2019-10-12 2020-03-27 杭州电子科技大学 一种基于深度学习的运动模糊图像特征匹配方法
CN111368624A (zh) * 2019-10-28 2020-07-03 北京影谱科技股份有限公司 基于生成对抗网络的回环检测方法和装置
CN110866953B (zh) * 2019-10-31 2023-12-29 Oppo广东移动通信有限公司 地图构建方法及装置、定位方法及装置
CN113112547A (zh) * 2021-04-23 2021-07-13 北京云迹科技有限公司 机器人及其重定位方法、定位装置及存储介质

Also Published As

Publication number Publication date
CN113688842A (zh) 2021-11-23

Similar Documents

Publication Publication Date Title
Melekhov et al. Dgc-net: Dense geometric correspondence network
CN109886121B (zh) 一种遮挡鲁棒的人脸关键点定位方法
CN111401384B (zh) 一种变电设备缺陷图像匹配方法
CN108427924B (zh) 一种基于旋转敏感特征的文本回归检测方法
Kadam et al. Detection and localization of multiple image splicing using MobileNet V1
CN110334762B (zh) 一种基于四叉树结合orb和sift的特征匹配方法
CN107301643B (zh) 基于鲁棒稀疏表示与拉普拉斯正则项的显著目标检测方法
CN109635726B (zh) 一种基于对称式深度网络结合多尺度池化的滑坡识别方法
CN112163990B (zh) 360度图像的显著性预测方法及系统
Huang et al. TISNet‐Enhanced Fully Convolutional Network with Encoder‐Decoder Structure for Tongue Image Segmentation in Traditional Chinese Medicine
CN112801945A (zh) 基于双重注意力机制特征提取的深度高斯混合模型颅骨配准方法
CN116664892A (zh) 基于交叉注意与可形变卷积的多时相遥感图像配准方法
CN114444565A (zh) 一种图像篡改检测方法、终端设备及存储介质
CN110751271B (zh) 一种基于深度神经网络的图像溯源特征表征方法
CN110246165B (zh) 提高可见光图像与sar图像配准速度的方法及系统
CN115829942A (zh) 基于非负性约束稀疏自编码器的电子电路缺陷检测方法
CN115018999A (zh) 一种多机器人协作的稠密点云地图构建方法及装置
CN114663880A (zh) 基于多层级跨模态自注意力机制的三维目标检测方法
CN112329662B (zh) 基于无监督学习的多视角显著性估计方法
CN107358625B (zh) 基于SPP Net和感兴趣区域检测的SAR图像变化检测方法
CN117011465A (zh) 一种树木三维重建方法、装置、电子设备及存储介质
CN113688842B (zh) 一种基于解耦合的局部图像特征提取方法
CN114723973A (zh) 大尺度变化鲁棒的图像特征匹配方法及装置
CN115170599A (zh) 通过图神经网络的链路预测进行血管分割的方法和装置
CN114863132A (zh) 图像空域信息的建模与捕捉方法、系统、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20231126

Address after: Room 15, 7th Floor, Building 5, No. 186 South Fourth Ring West Road, Fengtai District, Beijing, 100000

Patentee after: CICC Yuneng Technology Group Co.,Ltd.

Address before: 100083 No. 30, Haidian District, Beijing, Xueyuan Road

Patentee before: University OF SCIENCE AND TECHNOLOGY BEIJING

TR01 Transfer of patent right