CN112308137B - 一种利用注意力机制聚合邻域点和全局特征的图像匹配方法 - Google Patents

一种利用注意力机制聚合邻域点和全局特征的图像匹配方法 Download PDF

Info

Publication number
CN112308137B
CN112308137B CN202011185008.1A CN202011185008A CN112308137B CN 112308137 B CN112308137 B CN 112308137B CN 202011185008 A CN202011185008 A CN 202011185008A CN 112308137 B CN112308137 B CN 112308137B
Authority
CN
China
Prior art keywords
feature
point
features
points
neighborhood
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011185008.1A
Other languages
English (en)
Other versions
CN112308137A (zh
Inventor
肖国宝
陈煜楷
钟振
陈顺兴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hefei Jiuzhou Longteng Scientific And Technological Achievement Transformation Co ltd
Original Assignee
Minjiang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minjiang University filed Critical Minjiang University
Priority to CN202011185008.1A priority Critical patent/CN112308137B/zh
Publication of CN112308137A publication Critical patent/CN112308137A/zh
Application granted granted Critical
Publication of CN112308137B publication Critical patent/CN112308137B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种利用注意力机制聚合邻域点和全局特征的图像匹配方法,首先通过邻居搜索算法为每一个特征点寻找欧式空间中最近的若干的邻域点,对于这些领域点进行编码相对点的位置,然后将这些点位置与对应点特征串联获得一个新的增强特征值。这些特征值通过注意力权重的筛选留下关键特征,我们将这些关键特征与全局特征融合来去除误匹配。本发明能够提高匹配精度和速度。

Description

一种利用注意力机制聚合邻域点和全局特征的图像匹配方法
技术领域
本发明涉及计算机视觉技术领域,特别是一种利用注意力机制聚合邻域点和全局特征的图像匹配方法。
背景技术
图像匹配是计算机视觉一项重要的研究领域。它被广泛应用在很多领域的预处理中,比如,三维重建,同时定位和映射,全景拼接,立体匹配等等。它主要由两步构成构建匹配对和移除错误匹配。
目前存在很多图像匹配的方法。可以将它们分为参数方法、非参数方法和基于学习方法。参数方法是解决匹配问题的流行策略,比如RANSAC及其变体:PROSAC和USAC。具体来说,它首先进行随机最小子集采样,生成单应性矩阵或基本矩阵,然后验证矩阵(它是否是最小的可能的离群值子集)并循环第一步和第二步。但是,这些方法有两个基本的缺点:1)当正确匹配占总匹配的比率较低时,它们(参数方法)不能有效地工作;2)它们无法表达复杂模型非参数方法挖掘本地信息以进行对应选择。假设在视角变化或非刚性变形下,同一场景或物体的图像对的特征点之间的空间邻域关系相似。基于这一事实,研究人员使用空间邻居关系来去除错误匹配。研究人员使用超像素来获取特征匹配问题的特征外观并建立图的邻接矩阵。节点表示潜在的对应关系,链接上的权重表示潜在的匹配之间的成对协议。这些方法涉及匹配之间的兼容性信息。但是,他们没有从兼容的通信中挖掘本地信息。
基于深度学习的方法在各种计算机视觉任务中都取得了巨大的成功。许多研究人员试图采用基于学习的方法来解决匹配任务。它们可以大致分为两类:使用深度学习架构,以及类似Point-Net的架构,从相同或相似场景的图像对构造稀疏点对应关系。尽管已证明基于学习的方法优于参数方法和非参数方法,但在生成的假定匹配中Choy等人的网络模型仍然存在大量错误匹配。MooYi等人的网络模型通过上下文标准化捕获全局上下文信息,并将上下文信息嵌入节点中,但是其上下文标准化很容易受到其他匹配对的影响。基于学习的方法虽然已经能够在各种数据集上取得的优良的效果,但网络层中的批归一化常常受制于批量大小,而且不同的卷积用同样的归一化导致性能不佳,因此如何灵活的切换具有较大的挑战性。
为有效应对匹配过程中存在的这些难点,提出了一种端到端网络。给定两个视图中特征点的对应关系,现有的基于深度学习的方法将特征匹配问题表述为二进制分类问题。在这些方法中,规范化在网络性能中起着重要作用。但是,它们在整个网络的所有规范化层中采用相同的规范化器,这将导致性能欠佳。
发明内容
有鉴于此,本发明的目的是提供一种利用注意力机制聚合邻域点和全局特征的图像匹配方法,提出了聚合邻域点模块。在现有匹配技术中,常用全局上下文归一化来学习全局特征,全局上下文信息对局部特征的学习往往是不够的。该模块针对这一缺点,对局部信息进行编码,数据增强,聚合,再将这些信息与全局上下文信息相结合从而更有效的学习图片中的特征。因此,本发明能够提高匹配精度。
本发明采用以下方案实现:一种利用注意力机制聚合邻域点和全局特征的图像匹配方法,包括以下步骤:
步骤S1:数据集处理:提供一图像对(I,I'),使用基于黑塞映射的检测子分别从每个图像中提取特征点kpi,kp′i;则图像I的信息提取的特征点集为KP={kpi}i∈N;从图像I′获得特征点集KP′={kp′i}i∈N;每个对应关系(kpi,kp′i)能生成4D数据:
D=[d1;d2;d3;.......dN;],di=[xi,yi,x′i,y′i]
D表示图像对的匹配组即输入数据,di表示匹配对,(xi,yi),(x′i,y′i)表示匹配中两个特征点的坐标;
步骤S2:利用注意力机制选取关键邻域点特征(LFA):在给定输入图像特征点集KP′={kp′i}i∈N;每个对应关系(kpi,kp′i)的情况下,对于特征点集中第i个点,它的坐标为pi,聚合其K个最近点的几何图案和特征,并最终生成特征向量
Figure BDA0002752945950000031
步骤S3:通过空间层转化实现特征的空间和局部特征向量两个维度结合;
步骤S4:在测试阶段,采用深度神经网络训练的方法,将残差网络的输出设为初步预测结果xout,并且使用激活函数tanh和relu对初步预测结果进行处理,即对于初步预测结果用fx进行操作处理,fx=relu(tanh(xout)),得到预测值为0,1,0表示错误匹配,1表示正确匹配的最终结果;
在整个网络的训练中,采用交叉熵损失函数来指导网络的学习;如公式所示:
Figure BDA0002752945950000041
其中,yi就表示label,y'i表示预测值。
进一步地,所述步骤S2的具体内容为:
从图像I′获得特征点集KP′={kp′i}i∈N,然后利用邻搜索算法为每一个点ith收集其相邻点,对于中心点pi的每个最近的K个点
Figure BDA0002752945950000042
明确编码相对点位置如下所示:
Figure BDA0002752945950000043
接下来对每个中心点pi的邻域点
Figure BDA0002752945950000044
进行邻域点特征增强,把原始的邻域点所具有的特征fi k和对点位置编码后的ri k拼接起来,组成新的特征
Figure BDA0002752945950000045
对于图片中提取一组局部特征给定一组局部特征
Figure BDA0002752945950000046
设计了一个共享函数
Figure BDA0002752945950000047
来为每个功能学习唯一注意力得分;基本上,函数g(x)包含一个共享MLP,然后接着softmax;它的正式定义如下:
Figure BDA0002752945950000048
其中W是共享多层权重感知机的可学习权重;
Figure BDA0002752945950000049
表示学到的注意力分数;
学到的注意力分数作为自动选择重要特征的最优权重;这些特征的加权总和如下:
Figure BDA0002752945950000051
在给定输入图像特征点集KP′={kp′i}i∈N;每个对应关系(kpi,kp′i)的情况下,对于ith点pi,聚合其K个最近点的几何图案和特征,并最终生成特征向量
Figure BDA0002752945950000052
进一步地,所述步骤S3的具体内容为:
先利用转置将特征向量
Figure BDA0002752945950000053
通过卷积扩展到空间维度和局部维度特征的空间和局部特征维度;之后,将批归一化和ReLU函数当作残差网络连接,用以使处理后从图中输出的数据具有稳定的空间关系;使用残差网络对增强后的特征
Figure BDA0002752945950000054
即映射后的特征向量进行特征提取,用权重共享感知机在空间维度建立起点与点之间的联系,从而抓取全局上下文的信息,并输出初步预测结果。
与现有技术相比,本发明具有以下有益效果:
本发明提出了注意力机制聚合邻域点块,该块结合了针对邻域点信息对特征点信息的影响和局部特征与全局特征结合可以提精度的优点。因此,本发明最终能提高匹配精度。
附图说明
图1为本发明实施例的流程图。
图2为本发明实施例的神经网络构架图。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
应该指出,以下详细说明都是例示性的,旨在对本申请提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本申请所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
如图1所示,本实施例提供一种利用注意力机制聚合邻域点和全局特征的图像匹配方法,首先对原始数据进行数据集处理,其次对处理后的数据进行特征增强,然后对增强后的特征进行提取特征,最后在测试阶段输出结果;包括以下步骤:
步骤S1:数据集处理:提供一图像对(I,I'),使用基于黑塞映射的检测子分别从每个图像中提取特征点kpi,kp′i;则图像I的信息提取的特征点集为KP={kpi}i∈N;从图像I′获得特征点集KP′={kp′i}i∈N;每个对应关系(kpi,kp′i)能生成4D数据:
D=[d1;d2;d3;.......dN;],di=[xi,yi,x′i,y′i]
D表示图像对的匹配组即输入数据,di表示匹配对,(xi,yi),(x′i,y′i)表示匹配中两个特征点的坐标;
步骤S2:利用注意力机制选取关键邻域点特征(LFA):在给定输入图像特征点集KP′={kp′i}i∈N;每个对应关系(kpi,kp′i)的情况下,对于特征点集中第i个点,它的坐标为pi,聚合其K个最近点的几何图案和特征,并最终生成信息量丰富的特征向量
Figure BDA0002752945950000061
步骤S3:通过空间层转化实现特征的空间和局部特征向量两个维度结合;
步骤S4:在测试阶段,采用深度神经网络训练的方法,将残差网络的输出设为初步预测结果xout,并且使用激活函数tanh和relu对初步预测结果进行处理,即对于初步预测结果用fx进行操作处理,fx=relu(tanh(xout)),得到预测值为0,1,0表示错误匹配,1表示正确匹配的最终结果;
在整个网络的训练中,为了让网络往获取更多正确匹配的结果方向训练,采用交叉熵损失函数来指导网络的学习;如公式所示:
Figure BDA0002752945950000071
其中,yi就表示label,y'i表示预测值。
在本实施例中,所述步骤S2的具体内容为:
从图像I′获得特征点集KP′={kp′i}i∈N,然后利用邻搜索算法为每一个点ith收集其相邻点,对于中心点pi的每个最近的K个点
Figure BDA0002752945950000072
明确编码相对点位置如下所示:
Figure BDA0002752945950000073
接下来我们对每个中心点pi的邻域点
Figure BDA0002752945950000074
进行邻域点进行特征增强,把原始的邻域点所具有的特征fi k和对点位置编码后的ri k拼接起来,组成新的特征
Figure BDA0002752945950000075
对于图片中提取一组局部特征
Figure BDA0002752945950000076
设计了一个共享函数
Figure BDA0002752945950000077
来为每个功能学习唯一注意力得分;基本上,函数g(x)包含一个共享多层权重感知机,然后接着softmax回归函数;g(x)的正式定义如下:
Figure BDA0002752945950000081
其中W是共享多层权重感知机的可学习权重;
Figure BDA0002752945950000082
表示学到的注意力分数。
学到的注意力分数作为自动选择重要特征的最优权重;这些特征的加权总和如下:
Figure BDA0002752945950000083
在给定输入图像特征点集KP′={kp′i}i∈N;每个对应关系(kpi,kp′i)的情况下,对于特征点集中第i个点,它的坐标为pi,聚合其K个最近点的几何图案和特征,最终生成特征向量
Figure BDA0002752945950000084
在本实施例中,所述步骤S3的具体内容为:
先利用转置将特征向量
Figure BDA0002752945950000085
通过卷积扩展到空间维度和局部维度特征的空间和局部特征维度;之后,将批归一化和ReLU函数当作残差网络连接,用以使处理后从图中输出的数据具有稳定的空间关系;使用残差网络对增强后的特征
Figure BDA0002752945950000086
即映射后的特征向量进行特征提取,用权重共享感知机在空间维度建立起点与点之间的联系,从而抓取全局上下文的信息,并输出初步预测结果。
较佳的,在本实施例中,通过分析输入需要匹配的特征,然后寻找这些特征的邻域点进行编码形成新的相对点特征并通过注意力机制保留关键特征。具体地说,首先通过邻居搜索算法为每一个特征点寻找欧式空间中最近的若干的邻域点,对于这些领域点进行编码相对点的位置,然后将这些点位置与对应点特征串联获得一个新的增强特征值。这些特征值通过注意力权重的筛选留下关键特征,我们将这些关键特征与全局特征融合来去除误匹配。
较佳的,在本实施例中,引入邻域特征点聚合(LFA),以学习特征点的若干领域点形成新的权重点,以解决特征匹配问题。同时,我们首先利用了注意力选取关键邻域点特征,该块选取了邻域特征点聚合(LFA)形成的新的特征点中最合适的点,充分发挥邻域点能形成最优特征点的优点。较佳的,本实施例通过分析输入需要匹配的特征,然后经过深度神经网络训练自适应地输出匹配好的匹配对。具体地说,给定两个视图中特征点的对应关系,将图像特征匹配问题表述为二分类问题。即:给定的两个视图中特征点的对应关系-即输入的数据(数据处理)将图像特征匹配问题表述为二分类问题,即我们的网络将匹配数据看成一个二分类问题,1表示正确的匹配,0表示错误的匹配。然后构造端到端的神经网络框架,即输入数据通过本实施例的网络可以直接得到匹配好的输出数据(0,1),而不需要通过其他步骤。本实施例的网络图在附图2;
结合聚合邻域点可以带来局部特征优化和局部特征与全局特征链接可以提高精度的优点,设计邻域特征点聚合块(LFA)以提升网络性能。所述的一种利用注意力机制聚合邻域点和全局特征的图像匹配方法主要包括:准备数据集、利用注意力机制选取关键邻域点特征、对局部和全局上下文抓取,特征学习和测试。本实施例能够提高匹配精度和速度。
本实施例的方法和当前最先进的匹配方法的定量和定性在公共数据集(COLMAP)上进行,结果表明本实施例的方法明显优于其他算法。
较佳的,表1为本实施例与其他几种匹配算法COLMAP数据集的F-测量值,准确率,召回率量化对比。对比方法有Ransac,LPM,Point-Net,Point-Net++,LCG-Net。从表中,可以看到本实施例显著提升了检测准确率,在六种方法中取得最好的效果。实验结果表明,本发明在基准数据集上达到了最先进的性能。
表1
Figure BDA0002752945950000101
以上所述仅为本发明的较佳实施例,凡依本发明申请专利范围所做的均等变化与修饰,皆应属本发明的涵盖范围。

Claims (2)

1.一种利用注意力机制聚合邻域点和全局特征的图像匹配方法,其特征在于:包括以下步骤:
步骤S1:数据集处理:提供一图像对(I,I'),使用基于黑塞映射的检测子分别从每个图像中提取特征点kpi,kp′i;则图像I的信息提取的特征点集为KP={kpi}i∈N;从图像I′获得特征点集KP′={kp′i}i∈N;每个对应关系(kpi,kp′i)能生成4D数据:
D=[d1;d2;d3;.......dN;],di=[xi,yi,x′i,y′i]
D表示图像对的匹配组即输入数据,di表示匹配对,(xi,yi),(x′i,y′i)表示匹配中两个特征点的坐标;
步骤S2:利用注意力机制选取关键邻域点特征:在给定输入图像特征点集KP′={kp′i}i∈N;每个对应关系(kpi,kp′i)的情况下,对于特征点集中第i个点,它的坐标为pi,聚合其K个最近点的几何图案和特征,并最终生成特征向量
Figure FDA0003546556380000011
步骤S3:通过空间层转化实现特征的空间维度和局部特征向量维度的结合;
步骤S4:在测试阶段,采用深度神经网络训练的方法,将残差网络的输出设为初步预测结果xout,并且使用激活函数tanh和relu对初步预测结果进行处理,即对于初步预测结果用fx进行操作处理,fx=relu(tanh(xout)),得到预测值为0,1,0表示错误匹配,1表示正确匹配的最终结果;
在整个网络的训练中,采用交叉熵损失函数来指导网络的学习;如公式所示:
Figure FDA0003546556380000012
其中,yi就表示label,y'i表示预测值;
通过分析输入需要匹配的特征,然后寻找这些特征的邻域点进行编码形成新的相对点特征并通过注意力机制保留关键特征;首先通过邻居搜索算法为每一个特征点寻找欧式空间中最近的若干的邻域点,对于这些领域点进行编码相对点的位置,然后将这些点位置与对应点特征串联获得一个新的增强特征值;这些特征值通过注意力权重的筛选留下关键特征,我们将这些关键特征与全局特征融合来去除误匹配;
所述步骤S3的具体内容为:
先利用转置将特征向量
Figure FDA0003546556380000021
通过卷积扩展到空间维度和局部维度;之后,将批归一化和ReLU函数当作残差网络连接,用以使处理后从图中输出的数据具有稳定的空间关系;使用残差网络对增强后的特征
Figure FDA0003546556380000022
即映射后的特征向量进行特征提取,用权重共享感知机在空间维度建立起点与点之间的联系,从而抓取全局上下文的信息,并输出初步预测结果。
2.根据权利要求1所述的一种利用注意力机制聚合邻域点和全局特征的图像匹配方法,其特征在于:所述步骤S2的具体内容为:
从图像I′获得特征点集KP′={kp′i}i∈N,然后利用邻搜索算法为每一个点ith收集其相邻点,对于中心点pi的每个最近的K个点
Figure FDA0003546556380000023
明确编码相对点位置如下所示:
Figure FDA0003546556380000024
接下来对每个中心点pi的邻域点
Figure FDA0003546556380000025
进行邻域点特征增强,把原始的邻域点所具有的特征fi k和对点位置编码后的ri k拼接起来,组成新的特征
Figure FDA0003546556380000026
对于图片中提取一组局部特征
Figure FDA0003546556380000027
设计了一个共享函数
Figure FDA0003546556380000031
来为每个功能学习唯一注意力得分;函数g(x)包含一个共享多层权重感知机,然后接着softmax回归函数;g(x)的正式定义如下:
Figure FDA0003546556380000032
其中W是共享多层权重感知机的可学习权重;
Figure FDA0003546556380000035
表示学到的注意力分数;
学到的注意力分数作为自动选择重要特征的最优权重;这些特征的加权总和如下:
Figure FDA0003546556380000033
在给定输入图像特征点集KP′={kp′i}i∈N;每个对应关系(kpi,kp′i)的情况下,对于特征点集中第i个点,它的坐标为pi,聚合其K个最近点的几何图案和特征,并最终生成特征向量
Figure FDA0003546556380000034
CN202011185008.1A 2020-10-30 2020-10-30 一种利用注意力机制聚合邻域点和全局特征的图像匹配方法 Active CN112308137B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011185008.1A CN112308137B (zh) 2020-10-30 2020-10-30 一种利用注意力机制聚合邻域点和全局特征的图像匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011185008.1A CN112308137B (zh) 2020-10-30 2020-10-30 一种利用注意力机制聚合邻域点和全局特征的图像匹配方法

Publications (2)

Publication Number Publication Date
CN112308137A CN112308137A (zh) 2021-02-02
CN112308137B true CN112308137B (zh) 2022-05-13

Family

ID=74332245

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011185008.1A Active CN112308137B (zh) 2020-10-30 2020-10-30 一种利用注意力机制聚合邻域点和全局特征的图像匹配方法

Country Status (1)

Country Link
CN (1) CN112308137B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112862730B (zh) * 2021-04-26 2021-07-27 深圳大学 点云特征增强方法、装置、计算机设备和存储介质
CN113591556A (zh) * 2021-06-22 2021-11-02 长春理工大学 一种基于神经网络三体模型的三维点云语义分析方法
CN114445800B (zh) * 2022-01-25 2022-09-30 杭州飞步科技有限公司 基于感兴趣区域特征聚集的车道线检测方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111242208A (zh) * 2020-01-08 2020-06-05 深圳大学 一种点云分类方法、分割方法及相关设备
CN111488937A (zh) * 2020-04-15 2020-08-04 闽江学院 一种基于多尺度邻居深度神经网络的图像匹配方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10402448B2 (en) * 2017-06-28 2019-09-03 Google Llc Image retrieval with deep local feature descriptors and attention-based keypoint descriptors

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111242208A (zh) * 2020-01-08 2020-06-05 深圳大学 一种点云分类方法、分割方法及相关设备
CN111488937A (zh) * 2020-04-15 2020-08-04 闽江学院 一种基于多尺度邻居深度神经网络的图像匹配方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Deterministic Model Fitting by Local-Neighbor Preservation and Global-Residual Optimization;Guobao Xiao 等;《IEEE TRANSACTIONS ON IMAGE PROCESSING》;20200917;第8988-9001页 *
LF-Net: Learning Local Features from Images;Yuki One 等;《arXiv:1805.09662v2》;20181122;第1-13页 *

Also Published As

Publication number Publication date
CN112308137A (zh) 2021-02-02

Similar Documents

Publication Publication Date Title
CN112308137B (zh) 一种利用注意力机制聚合邻域点和全局特征的图像匹配方法
Tu et al. Multi-interactive dual-decoder for RGB-thermal salient object detection
CN111783831B (zh) 基于多源多标签共享子空间学习的复杂图像精确分类方法
CN110929736B (zh) 多特征级联rgb-d显著性目标检测方法
CN111488938B (zh) 一种基于两步可切换归一化深度神经网络的图像匹配方法
Jiang et al. Blind image quality measurement by exploiting high-order statistics with deep dictionary encoding network
KR20180004898A (ko) 딥러닝 기반의 이미지 처리 기술 및 그 방법
CN112101262B (zh) 一种多特征融合手语识别方法及网络模型
CN110222718B (zh) 图像处理的方法及装置
CN113221663B (zh) 一种实时手语智能识别方法、装置及系统
CN112036260B (zh) 一种自然环境下多尺度子块聚合的表情识别方法及系统
Liu et al. Pgfnet: Preference-guided filtering network for two-view correspondence learning
CN114463297A (zh) 一种基于fpn与detr融合改进的芯片缺陷检测方法
CN112651940A (zh) 基于双编码器生成式对抗网络的协同视觉显著性检测方法
Cai et al. HTMatch: An efficient hybrid transformer based graph neural network for local feature matching
Pang et al. Skeleton-based action recognition through contrasting two-stream spatial-temporal networks
Huang et al. Explainable and generalizable blind image quality assessment via semantic attribute reasoning
Yang et al. S3Net: A single stream structure for depth guided image relighting
Ma et al. Cascade transformer decoder based occluded pedestrian detection with dynamic deformable convolution and Gaussian projection channel attention mechanism
Xie et al. Facial expression recognition through multi-level features extraction and fusion
CN114743032A (zh) 基于偏好引导过滤的深度学习图像特征匹配方法及系统
CN112926517A (zh) 一种人工智能监控方法
Zhu et al. SC-NET: Spatial and Channel Attention Mechanism for Enhancement in Face Recognition
Zhao et al. Multi-crop Contrastive Learning for Unsupervised Image-to-Image Translation
Wang et al. Real-time and accurate face detection networks based on deep learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20240117

Address after: 230000 Room 203, building 2, phase I, e-commerce Park, Jinggang Road, Shushan Economic Development Zone, Hefei City, Anhui Province

Patentee after: Hefei Jiuzhou Longteng scientific and technological achievement transformation Co.,Ltd.

Address before: 200 xiyuangong Road, Shangjie Town, Minhou County, Fuzhou City, Fujian Province

Patentee before: MINJIANG University