CN112308137B - 一种利用注意力机制聚合邻域点和全局特征的图像匹配方法 - Google Patents
一种利用注意力机制聚合邻域点和全局特征的图像匹配方法 Download PDFInfo
- Publication number
- CN112308137B CN112308137B CN202011185008.1A CN202011185008A CN112308137B CN 112308137 B CN112308137 B CN 112308137B CN 202011185008 A CN202011185008 A CN 202011185008A CN 112308137 B CN112308137 B CN 112308137B
- Authority
- CN
- China
- Prior art keywords
- feature
- point
- features
- points
- neighborhood
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 32
- 230000007246 mechanism Effects 0.000 title claims abstract description 17
- 230000004931 aggregating effect Effects 0.000 title claims abstract description 10
- 238000012216 screening Methods 0.000 claims abstract description 3
- 230000006870 function Effects 0.000 claims description 20
- 239000013598 vector Substances 0.000 claims description 15
- 238000010606 normalization Methods 0.000 claims description 10
- 238000012545 processing Methods 0.000 claims description 8
- 238000012549 training Methods 0.000 claims description 7
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 6
- 238000010845 search algorithm Methods 0.000 claims description 5
- 238000012360 testing method Methods 0.000 claims description 5
- 238000013507 mapping Methods 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000004458 analytical method Methods 0.000 claims description 2
- 238000012546 transfer Methods 0.000 claims 1
- 230000002776 aggregation Effects 0.000 description 6
- 238000004220 aggregation Methods 0.000 description 6
- 238000013459 approach Methods 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- UDHXJZHVNHGCEC-UHFFFAOYSA-N Chlorophacinone Chemical compound C1=CC(Cl)=CC=C1C(C=1C=CC=CC=1)C(=O)C1C(=O)C2=CC=CC=C2C1=O UDHXJZHVNHGCEC-UHFFFAOYSA-N 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Multimedia (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种利用注意力机制聚合邻域点和全局特征的图像匹配方法,首先通过邻居搜索算法为每一个特征点寻找欧式空间中最近的若干的邻域点,对于这些领域点进行编码相对点的位置,然后将这些点位置与对应点特征串联获得一个新的增强特征值。这些特征值通过注意力权重的筛选留下关键特征,我们将这些关键特征与全局特征融合来去除误匹配。本发明能够提高匹配精度和速度。
Description
技术领域
本发明涉及计算机视觉技术领域,特别是一种利用注意力机制聚合邻域点和全局特征的图像匹配方法。
背景技术
图像匹配是计算机视觉一项重要的研究领域。它被广泛应用在很多领域的预处理中,比如,三维重建,同时定位和映射,全景拼接,立体匹配等等。它主要由两步构成构建匹配对和移除错误匹配。
目前存在很多图像匹配的方法。可以将它们分为参数方法、非参数方法和基于学习方法。参数方法是解决匹配问题的流行策略,比如RANSAC及其变体:PROSAC和USAC。具体来说,它首先进行随机最小子集采样,生成单应性矩阵或基本矩阵,然后验证矩阵(它是否是最小的可能的离群值子集)并循环第一步和第二步。但是,这些方法有两个基本的缺点:1)当正确匹配占总匹配的比率较低时,它们(参数方法)不能有效地工作;2)它们无法表达复杂模型非参数方法挖掘本地信息以进行对应选择。假设在视角变化或非刚性变形下,同一场景或物体的图像对的特征点之间的空间邻域关系相似。基于这一事实,研究人员使用空间邻居关系来去除错误匹配。研究人员使用超像素来获取特征匹配问题的特征外观并建立图的邻接矩阵。节点表示潜在的对应关系,链接上的权重表示潜在的匹配之间的成对协议。这些方法涉及匹配之间的兼容性信息。但是,他们没有从兼容的通信中挖掘本地信息。
基于深度学习的方法在各种计算机视觉任务中都取得了巨大的成功。许多研究人员试图采用基于学习的方法来解决匹配任务。它们可以大致分为两类:使用深度学习架构,以及类似Point-Net的架构,从相同或相似场景的图像对构造稀疏点对应关系。尽管已证明基于学习的方法优于参数方法和非参数方法,但在生成的假定匹配中Choy等人的网络模型仍然存在大量错误匹配。MooYi等人的网络模型通过上下文标准化捕获全局上下文信息,并将上下文信息嵌入节点中,但是其上下文标准化很容易受到其他匹配对的影响。基于学习的方法虽然已经能够在各种数据集上取得的优良的效果,但网络层中的批归一化常常受制于批量大小,而且不同的卷积用同样的归一化导致性能不佳,因此如何灵活的切换具有较大的挑战性。
为有效应对匹配过程中存在的这些难点,提出了一种端到端网络。给定两个视图中特征点的对应关系,现有的基于深度学习的方法将特征匹配问题表述为二进制分类问题。在这些方法中,规范化在网络性能中起着重要作用。但是,它们在整个网络的所有规范化层中采用相同的规范化器,这将导致性能欠佳。
发明内容
有鉴于此,本发明的目的是提供一种利用注意力机制聚合邻域点和全局特征的图像匹配方法,提出了聚合邻域点模块。在现有匹配技术中,常用全局上下文归一化来学习全局特征,全局上下文信息对局部特征的学习往往是不够的。该模块针对这一缺点,对局部信息进行编码,数据增强,聚合,再将这些信息与全局上下文信息相结合从而更有效的学习图片中的特征。因此,本发明能够提高匹配精度。
本发明采用以下方案实现:一种利用注意力机制聚合邻域点和全局特征的图像匹配方法,包括以下步骤:
步骤S1:数据集处理:提供一图像对(I,I'),使用基于黑塞映射的检测子分别从每个图像中提取特征点kpi,kp′i;则图像I的信息提取的特征点集为KP={kpi}i∈N;从图像I′获得特征点集KP′={kp′i}i∈N;每个对应关系(kpi,kp′i)能生成4D数据:
D=[d1;d2;d3;.......dN;],di=[xi,yi,x′i,y′i]
D表示图像对的匹配组即输入数据,di表示匹配对,(xi,yi),(x′i,y′i)表示匹配中两个特征点的坐标;
步骤S2:利用注意力机制选取关键邻域点特征(LFA):在给定输入图像特征点集KP′={kp′i}i∈N;每个对应关系(kpi,kp′i)的情况下,对于特征点集中第i个点,它的坐标为pi,聚合其K个最近点的几何图案和特征,并最终生成特征向量
步骤S3:通过空间层转化实现特征的空间和局部特征向量两个维度结合;
步骤S4:在测试阶段,采用深度神经网络训练的方法,将残差网络的输出设为初步预测结果xout,并且使用激活函数tanh和relu对初步预测结果进行处理,即对于初步预测结果用fx进行操作处理,fx=relu(tanh(xout)),得到预测值为0,1,0表示错误匹配,1表示正确匹配的最终结果;
在整个网络的训练中,采用交叉熵损失函数来指导网络的学习;如公式所示:
其中,yi就表示label,y'i表示预测值。
进一步地,所述步骤S2的具体内容为:
学到的注意力分数作为自动选择重要特征的最优权重;这些特征的加权总和如下:
进一步地,所述步骤S3的具体内容为:
先利用转置将特征向量通过卷积扩展到空间维度和局部维度特征的空间和局部特征维度;之后,将批归一化和ReLU函数当作残差网络连接,用以使处理后从图中输出的数据具有稳定的空间关系;使用残差网络对增强后的特征即映射后的特征向量进行特征提取,用权重共享感知机在空间维度建立起点与点之间的联系,从而抓取全局上下文的信息,并输出初步预测结果。
与现有技术相比,本发明具有以下有益效果:
本发明提出了注意力机制聚合邻域点块,该块结合了针对邻域点信息对特征点信息的影响和局部特征与全局特征结合可以提精度的优点。因此,本发明最终能提高匹配精度。
附图说明
图1为本发明实施例的流程图。
图2为本发明实施例的神经网络构架图。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
应该指出,以下详细说明都是例示性的,旨在对本申请提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本申请所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
如图1所示,本实施例提供一种利用注意力机制聚合邻域点和全局特征的图像匹配方法,首先对原始数据进行数据集处理,其次对处理后的数据进行特征增强,然后对增强后的特征进行提取特征,最后在测试阶段输出结果;包括以下步骤:
步骤S1:数据集处理:提供一图像对(I,I'),使用基于黑塞映射的检测子分别从每个图像中提取特征点kpi,kp′i;则图像I的信息提取的特征点集为KP={kpi}i∈N;从图像I′获得特征点集KP′={kp′i}i∈N;每个对应关系(kpi,kp′i)能生成4D数据:
D=[d1;d2;d3;.......dN;],di=[xi,yi,x′i,y′i]
D表示图像对的匹配组即输入数据,di表示匹配对,(xi,yi),(x′i,y′i)表示匹配中两个特征点的坐标;
步骤S2:利用注意力机制选取关键邻域点特征(LFA):在给定输入图像特征点集KP′={kp′i}i∈N;每个对应关系(kpi,kp′i)的情况下,对于特征点集中第i个点,它的坐标为pi,聚合其K个最近点的几何图案和特征,并最终生成信息量丰富的特征向量
步骤S3:通过空间层转化实现特征的空间和局部特征向量两个维度结合;
步骤S4:在测试阶段,采用深度神经网络训练的方法,将残差网络的输出设为初步预测结果xout,并且使用激活函数tanh和relu对初步预测结果进行处理,即对于初步预测结果用fx进行操作处理,fx=relu(tanh(xout)),得到预测值为0,1,0表示错误匹配,1表示正确匹配的最终结果;
在整个网络的训练中,为了让网络往获取更多正确匹配的结果方向训练,采用交叉熵损失函数来指导网络的学习;如公式所示:
其中,yi就表示label,y'i表示预测值。
在本实施例中,所述步骤S2的具体内容为:
学到的注意力分数作为自动选择重要特征的最优权重;这些特征的加权总和如下:
在本实施例中,所述步骤S3的具体内容为:
先利用转置将特征向量通过卷积扩展到空间维度和局部维度特征的空间和局部特征维度;之后,将批归一化和ReLU函数当作残差网络连接,用以使处理后从图中输出的数据具有稳定的空间关系;使用残差网络对增强后的特征即映射后的特征向量进行特征提取,用权重共享感知机在空间维度建立起点与点之间的联系,从而抓取全局上下文的信息,并输出初步预测结果。
较佳的,在本实施例中,通过分析输入需要匹配的特征,然后寻找这些特征的邻域点进行编码形成新的相对点特征并通过注意力机制保留关键特征。具体地说,首先通过邻居搜索算法为每一个特征点寻找欧式空间中最近的若干的邻域点,对于这些领域点进行编码相对点的位置,然后将这些点位置与对应点特征串联获得一个新的增强特征值。这些特征值通过注意力权重的筛选留下关键特征,我们将这些关键特征与全局特征融合来去除误匹配。
较佳的,在本实施例中,引入邻域特征点聚合(LFA),以学习特征点的若干领域点形成新的权重点,以解决特征匹配问题。同时,我们首先利用了注意力选取关键邻域点特征,该块选取了邻域特征点聚合(LFA)形成的新的特征点中最合适的点,充分发挥邻域点能形成最优特征点的优点。较佳的,本实施例通过分析输入需要匹配的特征,然后经过深度神经网络训练自适应地输出匹配好的匹配对。具体地说,给定两个视图中特征点的对应关系,将图像特征匹配问题表述为二分类问题。即:给定的两个视图中特征点的对应关系-即输入的数据(数据处理)将图像特征匹配问题表述为二分类问题,即我们的网络将匹配数据看成一个二分类问题,1表示正确的匹配,0表示错误的匹配。然后构造端到端的神经网络框架,即输入数据通过本实施例的网络可以直接得到匹配好的输出数据(0,1),而不需要通过其他步骤。本实施例的网络图在附图2;
结合聚合邻域点可以带来局部特征优化和局部特征与全局特征链接可以提高精度的优点,设计邻域特征点聚合块(LFA)以提升网络性能。所述的一种利用注意力机制聚合邻域点和全局特征的图像匹配方法主要包括:准备数据集、利用注意力机制选取关键邻域点特征、对局部和全局上下文抓取,特征学习和测试。本实施例能够提高匹配精度和速度。
本实施例的方法和当前最先进的匹配方法的定量和定性在公共数据集(COLMAP)上进行,结果表明本实施例的方法明显优于其他算法。
较佳的,表1为本实施例与其他几种匹配算法COLMAP数据集的F-测量值,准确率,召回率量化对比。对比方法有Ransac,LPM,Point-Net,Point-Net++,LCG-Net。从表中,可以看到本实施例显著提升了检测准确率,在六种方法中取得最好的效果。实验结果表明,本发明在基准数据集上达到了最先进的性能。
表1
以上所述仅为本发明的较佳实施例,凡依本发明申请专利范围所做的均等变化与修饰,皆应属本发明的涵盖范围。
Claims (2)
1.一种利用注意力机制聚合邻域点和全局特征的图像匹配方法,其特征在于:包括以下步骤:
步骤S1:数据集处理:提供一图像对(I,I'),使用基于黑塞映射的检测子分别从每个图像中提取特征点kpi,kp′i;则图像I的信息提取的特征点集为KP={kpi}i∈N;从图像I′获得特征点集KP′={kp′i}i∈N;每个对应关系(kpi,kp′i)能生成4D数据:
D=[d1;d2;d3;.......dN;],di=[xi,yi,x′i,y′i]
D表示图像对的匹配组即输入数据,di表示匹配对,(xi,yi),(x′i,y′i)表示匹配中两个特征点的坐标;
步骤S2:利用注意力机制选取关键邻域点特征:在给定输入图像特征点集KP′={kp′i}i∈N;每个对应关系(kpi,kp′i)的情况下,对于特征点集中第i个点,它的坐标为pi,聚合其K个最近点的几何图案和特征,并最终生成特征向量
步骤S3:通过空间层转化实现特征的空间维度和局部特征向量维度的结合;
步骤S4:在测试阶段,采用深度神经网络训练的方法,将残差网络的输出设为初步预测结果xout,并且使用激活函数tanh和relu对初步预测结果进行处理,即对于初步预测结果用fx进行操作处理,fx=relu(tanh(xout)),得到预测值为0,1,0表示错误匹配,1表示正确匹配的最终结果;
在整个网络的训练中,采用交叉熵损失函数来指导网络的学习;如公式所示:
其中,yi就表示label,y'i表示预测值;
通过分析输入需要匹配的特征,然后寻找这些特征的邻域点进行编码形成新的相对点特征并通过注意力机制保留关键特征;首先通过邻居搜索算法为每一个特征点寻找欧式空间中最近的若干的邻域点,对于这些领域点进行编码相对点的位置,然后将这些点位置与对应点特征串联获得一个新的增强特征值;这些特征值通过注意力权重的筛选留下关键特征,我们将这些关键特征与全局特征融合来去除误匹配;
所述步骤S3的具体内容为:
2.根据权利要求1所述的一种利用注意力机制聚合邻域点和全局特征的图像匹配方法,其特征在于:所述步骤S2的具体内容为:
学到的注意力分数作为自动选择重要特征的最优权重;这些特征的加权总和如下:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011185008.1A CN112308137B (zh) | 2020-10-30 | 2020-10-30 | 一种利用注意力机制聚合邻域点和全局特征的图像匹配方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011185008.1A CN112308137B (zh) | 2020-10-30 | 2020-10-30 | 一种利用注意力机制聚合邻域点和全局特征的图像匹配方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112308137A CN112308137A (zh) | 2021-02-02 |
CN112308137B true CN112308137B (zh) | 2022-05-13 |
Family
ID=74332245
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011185008.1A Active CN112308137B (zh) | 2020-10-30 | 2020-10-30 | 一种利用注意力机制聚合邻域点和全局特征的图像匹配方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112308137B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112862730B (zh) * | 2021-04-26 | 2021-07-27 | 深圳大学 | 点云特征增强方法、装置、计算机设备和存储介质 |
CN113591556A (zh) * | 2021-06-22 | 2021-11-02 | 长春理工大学 | 一种基于神经网络三体模型的三维点云语义分析方法 |
CN114445800B (zh) * | 2022-01-25 | 2022-09-30 | 杭州飞步科技有限公司 | 基于感兴趣区域特征聚集的车道线检测方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111242208A (zh) * | 2020-01-08 | 2020-06-05 | 深圳大学 | 一种点云分类方法、分割方法及相关设备 |
CN111488937A (zh) * | 2020-04-15 | 2020-08-04 | 闽江学院 | 一种基于多尺度邻居深度神经网络的图像匹配方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10402448B2 (en) * | 2017-06-28 | 2019-09-03 | Google Llc | Image retrieval with deep local feature descriptors and attention-based keypoint descriptors |
-
2020
- 2020-10-30 CN CN202011185008.1A patent/CN112308137B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111242208A (zh) * | 2020-01-08 | 2020-06-05 | 深圳大学 | 一种点云分类方法、分割方法及相关设备 |
CN111488937A (zh) * | 2020-04-15 | 2020-08-04 | 闽江学院 | 一种基于多尺度邻居深度神经网络的图像匹配方法 |
Non-Patent Citations (2)
Title |
---|
Deterministic Model Fitting by Local-Neighbor Preservation and Global-Residual Optimization;Guobao Xiao 等;《IEEE TRANSACTIONS ON IMAGE PROCESSING》;20200917;第8988-9001页 * |
LF-Net: Learning Local Features from Images;Yuki One 等;《arXiv:1805.09662v2》;20181122;第1-13页 * |
Also Published As
Publication number | Publication date |
---|---|
CN112308137A (zh) | 2021-02-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112308137B (zh) | 一种利用注意力机制聚合邻域点和全局特征的图像匹配方法 | |
Tu et al. | Multi-interactive dual-decoder for RGB-thermal salient object detection | |
CN111783831B (zh) | 基于多源多标签共享子空间学习的复杂图像精确分类方法 | |
CN110929736B (zh) | 多特征级联rgb-d显著性目标检测方法 | |
CN111488938B (zh) | 一种基于两步可切换归一化深度神经网络的图像匹配方法 | |
Jiang et al. | Blind image quality measurement by exploiting high-order statistics with deep dictionary encoding network | |
KR20180004898A (ko) | 딥러닝 기반의 이미지 처리 기술 및 그 방법 | |
CN112101262B (zh) | 一种多特征融合手语识别方法及网络模型 | |
CN110222718B (zh) | 图像处理的方法及装置 | |
CN113221663B (zh) | 一种实时手语智能识别方法、装置及系统 | |
CN112036260B (zh) | 一种自然环境下多尺度子块聚合的表情识别方法及系统 | |
Liu et al. | Pgfnet: Preference-guided filtering network for two-view correspondence learning | |
CN114463297A (zh) | 一种基于fpn与detr融合改进的芯片缺陷检测方法 | |
CN112651940A (zh) | 基于双编码器生成式对抗网络的协同视觉显著性检测方法 | |
Cai et al. | HTMatch: An efficient hybrid transformer based graph neural network for local feature matching | |
Pang et al. | Skeleton-based action recognition through contrasting two-stream spatial-temporal networks | |
Huang et al. | Explainable and generalizable blind image quality assessment via semantic attribute reasoning | |
Yang et al. | S3Net: A single stream structure for depth guided image relighting | |
Ma et al. | Cascade transformer decoder based occluded pedestrian detection with dynamic deformable convolution and Gaussian projection channel attention mechanism | |
Xie et al. | Facial expression recognition through multi-level features extraction and fusion | |
CN114743032A (zh) | 基于偏好引导过滤的深度学习图像特征匹配方法及系统 | |
CN112926517A (zh) | 一种人工智能监控方法 | |
Zhu et al. | SC-NET: Spatial and Channel Attention Mechanism for Enhancement in Face Recognition | |
Zhao et al. | Multi-crop Contrastive Learning for Unsupervised Image-to-Image Translation | |
Wang et al. | Real-time and accurate face detection networks based on deep learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20240117 Address after: 230000 Room 203, building 2, phase I, e-commerce Park, Jinggang Road, Shushan Economic Development Zone, Hefei City, Anhui Province Patentee after: Hefei Jiuzhou Longteng scientific and technological achievement transformation Co.,Ltd. Address before: 200 xiyuangong Road, Shangjie Town, Minhou County, Fuzhou City, Fujian Province Patentee before: MINJIANG University |