CN113688842B - 一种基于解耦合的局部图像特征提取方法 - Google Patents
一种基于解耦合的局部图像特征提取方法 Download PDFInfo
- Publication number
- CN113688842B CN113688842B CN202110898241.2A CN202110898241A CN113688842B CN 113688842 B CN113688842 B CN 113688842B CN 202110898241 A CN202110898241 A CN 202110898241A CN 113688842 B CN113688842 B CN 113688842B
- Authority
- CN
- China
- Prior art keywords
- image
- network
- feature
- loss function
- descriptor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000605 extraction Methods 0.000 title claims abstract description 74
- 238000000034 method Methods 0.000 claims abstract description 34
- 230000006870 function Effects 0.000 claims description 58
- 238000010586 diagram Methods 0.000 claims description 34
- 238000012549 training Methods 0.000 claims description 33
- 230000007613 environmental effect Effects 0.000 claims description 20
- 238000013461 design Methods 0.000 claims description 11
- 230000008569 process Effects 0.000 claims description 4
- 239000000126 substance Substances 0.000 claims description 3
- 238000002372 labelling Methods 0.000 claims 1
- 230000008859 change Effects 0.000 abstract description 6
- 238000013528 artificial neural network Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 4
- 238000011160 research Methods 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 230000005012 migration Effects 0.000 description 3
- 238000013508 migration Methods 0.000 description 3
- 230000003595 spectral effect Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及图像特征提取技术领域,特别是指一种基于解耦合的局部图像特征提取方法,方法包括:获取待提取图像;将图像输入到训练好的局部图像特征提取模型中,局部图像特征提取模型包括特征编码器网络FE和局部图像特征点和描述子提取网络E;基于图像以及特征编码器网络FE和局部图像特征点和描述子提取网络E,得到图像的特征点和描述子,完成对图像的特征提取。本发明是一种分解本质信息和外部环境因素特征的深度解耦合学习的局部图像特征提取与匹配的方法,从而在根本上解决复杂图像变化条件下的图像特征匹配问题。
Description
技术领域
本发明涉及图像特征提取技术领域,特别是指一种基于解耦合的局部图像特征提取方法。
背景技术
图像特征提取与匹配是计算机视觉和图像处理领域中的研究重点。在过去的几十年里,基于手工设计的图像特征提取与匹配方法取得了巨大的成功,在目标检测、图像匹配、三维重建、图像检索等任务中有着不错的表现,其中最具有代表性的是SIFT算法。SIFT算法通过引入尺度空间的信息,构建图像金字塔,并在该图像空间上进行特征点检测,然后在检测到的特征点的邻域空间内计算相应的描述子,从而使特征具备尺度不变性。在SIFT算法的基础上,涌现出了许多相应的改进算法,如ASIFT,SURF,BRIEF,ORB等,这些算法在传统的计算机视觉任务中也取得了不错的效果。以SIFT算法为代表的图像特征计算速度快、具备一定的尺度不变性和光照不变性,但是在剧烈光照变化和尺度变化下表现仍然差强人意。
近年来,基于深度学习的图像特征提取与匹配方法逐渐兴起,并在各种计算机视觉任务中超过了基于手工设计的方法。基于深度学习的图像特征提取与匹配方法主要分为基于块匹配的方法和检测描述子联合训练的方法,基于块匹配的方法如L2-Net、LF-Net、HardNet、SOSNet等沿袭基于手工设计的方法,在特征点的邻域范围内计算描述子;基于特征检测与描述联合训练的方法如LIFT、SuperPoint、D2-Net、R2D2、ASLFeat等,使用全卷积网络提取稠密特征描述子。目前这些基于深度学习的方法切实解决了很多计算机视觉中的问题,但是这些方法在处理复杂光照、图像变换等条件下的图像匹配问题时,不能获得高质量的特征点匹配,归根结底在于特征点检测和描述均从原始的图像出发,里面包含过多的由于成像条件引起的干扰因素,给后续的鲁棒特征提取带来了挑战。
发明内容
本发明实施例提供了一种基于解耦合的局部图像特征提取方法。所述技术方案如下:
获取待提取图像;
将所述图像输入到训练好的局部图像特征提取模型中,所述局部图像特征提取模型包括特征编码器网络FE和局部图像特征点和描述子提取网络E;
基于所述图像以及所述特征编码器网络FE和所述局部图像特征点和描述子提取网络E,得到所述图像的特征点和描述子,完成对所述图像的特征提取。
可选地,所述特征编码器网络FE和所述局部图像特征点和描述子提取网络E的训练过程包括:
S201、获取用于训练使用的图像对I1、I2及每幅图像的深度图和内外参,根据所述深度图和内外参获得所述图像对I1、I2之间的像素对应关系C;
S202、根据所述图像对I1、I2,获得所述图像对的本质信息特征图A1、A2和外在环境特征图B1、B2;
S203、根据所述图像对的本质信息特征图A1、A2和外在环境特征图B1、B2,获得重构图像G11、G22;
S206、根据所述图像对I1、I2和所述重构图像G11、G22,设计图像重建损失函数Lp;
S207、将所述图像特征提取与匹配损失函数Lm和所述图像重建损失函数Lp按不同权重λ结合,得到总体目标损失函数Ltot,给定初始学习率为1e-2,对所述总体目标损失函数Ltot进行训练,直到相邻两次迭代的差小于0.1时停止训练,得到训练好的局部图像特征提取模型。
可选地,所述获取用于训练使用的图像对I1、I2及每幅图像的深度图和内外参,根据所述深度图和内外参获得所述图像对I1、I2之间的像素对应关系C包括:
获取MegaDepth数据集和基于三维重建的几何学习GL3D数据集,获取所述用于训练使用的图像对I1、I2及每幅图像的深度图和内外参,使用所述内外参将图像I2的点投影到图像I1上,使用投影点的深度信息进行深度一致性检查,从而获得所述图像对I1,I2之间的像素对应关系C。
可选地,所述根据所述图像对I1、I2,获得所述图像对的本质信息特征图和外在环境特征图包括:
将图像I1输入FE网络,将FE网络记为FE1,获得所述图像I1的解耦合的本质信息特征图A1和外在环境特征图B1;将图像I2输入FE网络,将FE网络记为FE2,获得所述图像I2的解耦合的本质信息特征图A2和外在环境特征图B2;所述FE网络为U-Net特征编码器网络,所述FE1和所述FE2参数共享。
可选地,所述根据所述图像对的本质信息特征图A1、A2和外在环境特征图B1、B2,获得重构图像G11、G22包括:
将所述本质信息特征图A1和外在环境特征图B1输入FD网络,将FD网络记为FD1,输出所述图像I1的所述重构图像G11;将所述本质信息特征图A2和外在环境特征图B2输入FD网络,将FD网络记为FD2,输出所述图像I2的重构图像G22;
其中,所述FD网络为U-Net特征解码器网络,所述FD1和所述FD2参数共享。
将所述本质信息特征图A1输入到E网络中,将E网络记为E1,输出所述图像I1的所述描述子D(1)∈Rh×w×k;将所述的本质信息特征图A2输入到E网络中,将E网络记为E2,输出所述图像I2的所述描述子D(2)∈Rh×w×k;其中h、w为特征图的高、宽,k为描述子维度,R为实数集;所述E网络为L2-Net局部图像特征点和描述子提取网络,所述E1和所述E2参数共享;
对于所述本质信息特征图Al,l=1,2,所述本质信息特征图Al上的任意像素点(i,j),i=1,2,…,h,j=1,2,…,w,计算特征分数为:
可选地,所述根据所述图像对I1、I2,所述重构图像G11、G22,设计图像重建损失函数为:
Lp=∑‖I1(x,y)-G11(x,y)‖1+‖I2(x,y)-G22(x,y)‖1 (3)
可选地,所述将所述图像特征提取与匹配损失函数Lm和所述图像重建损失函数Lp按不同权重λ结合,得到总体目标损失函数Ltot,给定初始学习率为1e-2,对所述总体目标损失函数Ltot进行训练,直到相邻两次迭代的差小于0.1时停止训练,得到训练好的局部图像特征提取模型包括:
将所述图像特征提取与匹配损失函数Lm和所述图像重建损失函数Lp按不同权重结合获得总体目标损失函数Ltot,
Ltot=Lm+λ×Lp (4)
其中,λ为所述图像重建损失函数权重,设为0.1;
根据BP算法以及所述图像特征提取与匹配损失函数和所述图像重建损失函数,对所述特征编码器网络、所述特征解码器网络、所述局部图像特征点和描述子提取网络的网络参数进行学习,给定初始学习率为1e-2,训练所述总体目标损失函数Ltot至相邻两次迭代的差小于0.1时停止,训练得到可进行图像解耦合的特征编码器网络、特征解码器网络以及局部图像特征点和描述子提取网络。
本发明实施例提供的技术方案带来的有益效果至少包括:
本发明研究解耦合特征学习,通过深度神经网络强大的特征表达能力,将图像的特征表达分解为内在本质特征与外在环境特征两部分,通过在本质特征部分进行特征点检测和描述子构造,综合利用神经网络、特征提取、图像生成、风格迁移、深度解耦合等技术,以实现对各种复杂光谱变化鲁棒的图像获得高质量的特征点匹配。
本发明的方法精度高、适用范围广、推广性强,可广泛应用于图像配准、图像检索、视觉定位、三维重建、增强现实等系统中。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种基于解耦合的局部图像特征提取方法流程图;
图2是本发明实施例提供的一种局部图像特征提取模型训练流程图;
图3是本发明实施例提供的一种局部图像特征提取模型训练框架图。
具体实施方式
为使本发明要解决的技术问题、技术方案和优点更加清楚,下面将结合附图及具体实施例进行详细描述。
本发明实施例提供了一种基于解耦合的局部图像特征提取方法,如图1所示的基于解耦合的局部图像特征提取方法流程图,该方法的处理流程可以包括如下的步骤:
S101、获取待提取图像;
S102、将图像输入到训练好的局部图像特征提取模型中,局部图像特征提取模型包括特征编码器网络FE和局部图像特征点和描述子提取网络E;
S103、基于图像以及特征编码器网络FE和局部图像特征点和描述子提取网络E,得到图像的特征点和描述子,完成对图像的特征提取。
本发明研究解耦合特征学习,通过深度神经网络强大的特征表达能力,将图像的特征表达分解为内在本质特征与外在环境特征两部分,通过在本质特征部分进行特征点检测和描述子构造,综合利用神经网络、特征提取、图像生成、风格迁移、深度解耦合等技术,以实现对各种复杂光谱变化鲁棒的图像获得高质量的特征点匹配。
本发明的方法精度高、适用范围广、推广性强,可广泛应用于图像配准、图像检索、视觉定位、三维重建、增强现实等系统中。
本发明实施例提供了一种基于解耦合的局部图像特征提取方法,如图2所示的局部图像特征提取模型训练流程图,图3所示的局部图像特征提取模型训练框架图;
该方法的处理流程可以包括如下的步骤:
S201、获取用于训练使用的图像对I1、I2及每幅图像的深度图和内外参,根据深度图和内外参获得图像对I1、I2之间的像素对应关系C;
可选地,获取用于训练使用的图像对I1、I2及每幅图像的深度图和内外参,根据深度图和内外参获得图像对I1、I2之间的像素对应关系C包括:
获取MegaDepth数据集和基于三维重建的几何学习GL3D数据集,获取用于训练使用的图像对I1、I2及每幅图像的深度图和内外参,使用内外参将图像I2的点投影到图像I1上,使用投影点的深度信息进行深度一致性检查,从而获得图像对I1,I2之间的像素对应关系C。
S202、根据图像对I1、I2,获得图像对的本质信息特征图A1、A2和外在环境特征图B1、B2;
可选地,根据图像对I1、I2,获得图像对的本质信息特征图和外在环境特征图包括:
将图像I1输入FE网络,将FE网络记为FE1,获得图像I1的解耦合的本质信息特征图A1和外在环境特征图B1;将图像I2输入FE网络,将FE网络记为FE2,获得图像I2的解耦合的本质信息特征图A2和外在环境特征图B2;FE网络为U-Net特征编码器网络,FE1和FE2参数共享。
S203、根据图像对的本质信息特征图A1、A2和外在环境特征图B1、B2,获得重构图像G11、G22;
可选地,根据图像对的本质信息特征图A1、A2和外在环境特征图B1、B2,获得重构图像G11、G22包括:
将本质信息特征图A1和外在环境特征图B1输入FD网络,将FD网络记为FD1,输出图像I1的重构图像G11;将本质信息特征图A2和外在环境特征图B2输入FD网络,将FD网络记为FD2,输出图像I2的重构图像G22;
其中,FD网络为U-Net特征解码器网络,FD1和FD2参数共享。
将本质信息特征图A1输入到E网络中,将E网络记为E1,输出图像I1的描述子D(1)∈Rh×w×k;将的本质信息特征图A2输入到E网络中,将E网络记为E2,输出图像I2的描述子D(2)∈Rh×w×k;其中h、w为特征图的高、宽,k为描述子维度,R为实数集;E网络为L2-Net局部图像特征点和描述子提取网络,E1和E2参数共享;
对于本质信息特征图Al,l=1,2,本质信息特征图Al上的任意像素点(i,j),i=1,2,…,h,j=1,2,…,w,计算特征分数为:
一种可行的实施方式中,结合训练数据,根据图像对提取的特征点和描述子,构建图像特征提取与匹配学习误差。
S206、根据图像对I1、I2和重构图像G11、G22,设计图像重建损失函数Lp;
可选地,根据图像对I1、I2,重构图像G11、G22,设计图像重建损失函数为:
Lp=∑‖I1(x,y)-G11(x,y)‖1+‖I2(x,y)-G22(x,y)‖1 (3)
一种可行的实施方式中,结合训练数据,根据图像对与图像对重构图像,构建图像重建学习误差。
S207、将图像特征提取与匹配损失函数Lm和图像重建损失函数Lp按不同权重λ结合,得到总体目标损失函数Ltot,给定初始学习率为1e-2,对总体目标损失函数Ltot进行训练,直到相邻两次迭代的差小于0.1时停止训练,得到训练好的局部图像特征提取模型。
可选地,将图像特征提取与匹配损失函数Lm和图像重建损失函数Lp按不同权重λ结合,得到总体目标损失函数Ltot,给定初始学习率为1e-2,对总体目标损失函数Ltot进行训练,直到相邻两次迭代的差小于0.1时停止训练,得到训练好的局部图像特征提取模型包括:
将图像特征提取与匹配损失函数Lm和图像重建损失函数Lp按不同权重结合获得总体目标损失函数Ltot,
Ltot=Lm+λ×Lp (4)
其中,λ为图像重建损失函数权重,设为0.1;
根据BP算法以及图像特征提取与匹配损失函数和图像重建损失函数,对特征编码器网络、特征解码器网络、局部图像特征点和描述子提取网络的网络参数进行学习,给定初始学习率为1e-2,训练总体目标损失函数Ltot至相邻两次迭代的差小于0.1时停止,训练得到可进行图像解耦合的特征编码器网络、特征解码器网络以及局部图像特征点和描述子提取网络。
一种可行的实施方式中,根据图像特征提取与匹配损失函数和图像重建损失函数按照不同权重结合,对整个网络进行训练,得到特征编码器网络和局部图像特征点和描述子提取网络的网络参数,从而得到局部图像特征提取模型,根据本模型可得到图像特征点和描述子,进行图像特征点匹配相关应用。上述训练过程为现有技术,本发明此处不再赘述。
本发明研究解耦合特征学习,通过深度神经网络强大的特征表达能力,将图像的特征表达分解为内在本质特征与外在环境特征两部分,通过在本质特征部分进行特征点检测和描述子构造,综合利用神经网络、特征提取、图像生成、风格迁移、深度解耦合等技术,以实现对各种复杂光谱变化鲁棒的图像获得高质量的特征点匹配。
本发明的方法精度高、适用范围广、推广性强,可广泛应用于图像配准、图像检索、视觉定位、三维重建、增强现实等系统中。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (6)
1.一种基于解耦合的局部图像特征提取方法,其特征在于,所述方法包括:
获取待提取图像;
将所述图像输入到训练好的局部图像特征提取模型中,所述局部图像特征提取模型包括特征编码器网络FE和局部图像特征点和描述子提取网络E;
基于所述图像以及所述特征编码器网络FE和所述局部图像特征点和描述子提取网络E,得到所述图像的特征点和描述子,完成对所述图像的特征提取;
所述特征编码器网络FE和所述局部图像特征点和描述子提取网络E的训练过程包括:
S201、获取用于训练使用的图像对I1、I2及每幅图像的深度图和内外参,根据所述深度图和内外参获得所述图像对I1、I2之间的像素对应关系C;
S202、根据所述图像对I1、I2,获得所述图像对的本质信息特征图A1、A2和外在环境特征图B1、B2;
将图像I1输入FE网络,将FE网络记为FE1,获得所述图像I1的解耦合的本质信息特征图A1和外在环境特征图B1;将图像I2输入FE网络,将FE网络记为FE2,获得所述图像I2的解耦合的本质信息特征图A2和外在环境特征图B2;所述FE网络为U-Net特征编码器网络,所述FE1和所述FE2参数共享;
S203、根据所述图像对的本质信息特征图A1、A2和外在环境特征图B1、B2,获得重构图像G11、G22;
将所述本质信息特征图A1和外在环境特征图B1输入FD网络,将FD网络记为FD1,输出所述图像I1的所述重构图像G11;将所述本质信息特征图A2和外在环境特征图B2输入FD网络,将FD网络记为FD2,输出所述图像I2的重构图像G22;
其中,所述FD网络为U-Net特征解码器网络,所述FD1和所述FD2参数共享;
将所述本质信息特征图A1输入到E网络中,将E网络记为E1,输出所述图像I1的所述描述子D(1)∈Rh×w×k;将所述的本质信息特征图A2输入到E网络中,将E网络记为E2,输出所述图像I2的所述描述子D(2)∈Rh×w×k;其中h、w为特征图的高、宽,k为描述子维度,R为实数集;所述E网络为L2-Net局部图像特征点和描述子提取网络,所述E1和所述E2参数共享;
S206、根据所述图像对I1、I2和所述重构图像G11、G22,设计图像重建损失函数Lp;
S207、将所述图像特征提取与匹配损失函数Lm和所述图像重建损失函数Lp按不同权重λ结合,得到总体目标损失函数Ltot,给定初始学习率为1e-2,对所述总体目标损失函数Ltot进行训练,直到相邻两次迭代的差小于0.1时停止训练,得到训练好的局部图像特征提取模型。
2.根据权利要求1所述的方法,其特征在于,所述获取用于训练使用的图像对I1、I2及每幅图像的深度图和内外参,根据所述深度图和内外参获得所述图像对I1、I2之间的像素对应关系C包括:
获取MegaDepth数据集和基于三维重建的几何学习GL3D数据集,获取所述用于训练使用的图像对I1、I2及每幅图像的深度图和内外参,使用所述内外参将图像I2的点投影到图像I1上,使用投影点的深度信息进行深度一致性检查,从而获得所述图像对I1,I2之间的像素对应关系C。
5.根据权利要求4所述的方法,其特征在于,所述根据所述图像对I1、I2,所述重构图像G11、G22,设计图像重建损失函数为:
Lp=∑||I1(x,y)-G11(x,y)||1+||I2(x,y)-G22(x,y)||1 (3)。
6.根据权利要求4和5任一所述的方法,其特征在于,所述将所述图像特征提取与匹配损失函数Lm和所述图像重建损失函数Lp按不同权重λ结合,得到总体目标损失函数Ltot,给定初始学习率为1e-2,对所述总体目标损失函数Ltot进行训练,直到相邻两次迭代的差小于0.1时停止训练,得到训练好的局部图像特征提取模型包括:
将所述图像特征提取与匹配损失函数Lm和所述图像重建损失函数Lp按不同权重结合获得总体目标损失函数Ltot,
Ltot=Lm+λ×Lp (4)
其中,λ为所述图像重建损失函数权重,设为0.1;
根据BP算法以及所述图像特征提取与匹配损失函数和所述图像重建损失函数,对所述特征编码器网络、所述特征解码器网络、所述局部图像特征点和描述子提取网络的网络参数进行学习,给定初始学习率为1e-2,训练所述总体目标损失函数Ltot至相邻两次迭代的差小于0.1时停止,训练得到可进行图像解耦合的特征编码器网络、特征解码器网络以及局部图像特征点和描述子提取网络。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110898241.2A CN113688842B (zh) | 2021-08-05 | 2021-08-05 | 一种基于解耦合的局部图像特征提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110898241.2A CN113688842B (zh) | 2021-08-05 | 2021-08-05 | 一种基于解耦合的局部图像特征提取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113688842A CN113688842A (zh) | 2021-11-23 |
CN113688842B true CN113688842B (zh) | 2022-04-29 |
Family
ID=78578978
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110898241.2A Active CN113688842B (zh) | 2021-08-05 | 2021-08-05 | 一种基于解耦合的局部图像特征提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113688842B (zh) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6035057A (en) * | 1997-03-10 | 2000-03-07 | Hoffman; Efrem H. | Hierarchical data matrix pattern recognition and identification system |
CN110335337B (zh) * | 2019-04-28 | 2021-11-05 | 厦门大学 | 一种基于端到端半监督生成对抗网络的视觉里程计的方法 |
CN110929748A (zh) * | 2019-10-12 | 2020-03-27 | 杭州电子科技大学 | 一种基于深度学习的运动模糊图像特征匹配方法 |
CN111368624A (zh) * | 2019-10-28 | 2020-07-03 | 北京影谱科技股份有限公司 | 基于生成对抗网络的回环检测方法和装置 |
CN110866953B (zh) * | 2019-10-31 | 2023-12-29 | Oppo广东移动通信有限公司 | 地图构建方法及装置、定位方法及装置 |
CN113112547A (zh) * | 2021-04-23 | 2021-07-13 | 北京云迹科技有限公司 | 机器人及其重定位方法、定位装置及存储介质 |
-
2021
- 2021-08-05 CN CN202110898241.2A patent/CN113688842B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN113688842A (zh) | 2021-11-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Melekhov et al. | Dgc-net: Dense geometric correspondence network | |
CN109886121B (zh) | 一种遮挡鲁棒的人脸关键点定位方法 | |
CN111401384B (zh) | 一种变电设备缺陷图像匹配方法 | |
CN108427924B (zh) | 一种基于旋转敏感特征的文本回归检测方法 | |
Kadam et al. | Detection and localization of multiple image splicing using MobileNet V1 | |
CN110334762B (zh) | 一种基于四叉树结合orb和sift的特征匹配方法 | |
CN107301643B (zh) | 基于鲁棒稀疏表示与拉普拉斯正则项的显著目标检测方法 | |
CN109635726B (zh) | 一种基于对称式深度网络结合多尺度池化的滑坡识别方法 | |
CN112163990B (zh) | 360度图像的显著性预测方法及系统 | |
Huang et al. | TISNet‐Enhanced Fully Convolutional Network with Encoder‐Decoder Structure for Tongue Image Segmentation in Traditional Chinese Medicine | |
CN112801945A (zh) | 基于双重注意力机制特征提取的深度高斯混合模型颅骨配准方法 | |
CN116664892A (zh) | 基于交叉注意与可形变卷积的多时相遥感图像配准方法 | |
CN114444565A (zh) | 一种图像篡改检测方法、终端设备及存储介质 | |
CN110751271B (zh) | 一种基于深度神经网络的图像溯源特征表征方法 | |
CN110246165B (zh) | 提高可见光图像与sar图像配准速度的方法及系统 | |
CN115829942A (zh) | 基于非负性约束稀疏自编码器的电子电路缺陷检测方法 | |
CN115018999A (zh) | 一种多机器人协作的稠密点云地图构建方法及装置 | |
CN114663880A (zh) | 基于多层级跨模态自注意力机制的三维目标检测方法 | |
CN112329662B (zh) | 基于无监督学习的多视角显著性估计方法 | |
CN107358625B (zh) | 基于SPP Net和感兴趣区域检测的SAR图像变化检测方法 | |
CN117011465A (zh) | 一种树木三维重建方法、装置、电子设备及存储介质 | |
CN113688842B (zh) | 一种基于解耦合的局部图像特征提取方法 | |
CN114723973A (zh) | 大尺度变化鲁棒的图像特征匹配方法及装置 | |
CN115170599A (zh) | 通过图神经网络的链路预测进行血管分割的方法和装置 | |
CN114863132A (zh) | 图像空域信息的建模与捕捉方法、系统、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20231126 Address after: Room 15, 7th Floor, Building 5, No. 186 South Fourth Ring West Road, Fengtai District, Beijing, 100000 Patentee after: CICC Yuneng Technology Group Co.,Ltd. Address before: 100083 No. 30, Haidian District, Beijing, Xueyuan Road Patentee before: University OF SCIENCE AND TECHNOLOGY BEIJING |
|
TR01 | Transfer of patent right |