CN116206132A - 一种基于动态稀疏标记的Transformer架构的RGB-D视觉显著性物体检测方法及系统 - Google Patents
一种基于动态稀疏标记的Transformer架构的RGB-D视觉显著性物体检测方法及系统 Download PDFInfo
- Publication number
- CN116206132A CN116206132A CN202310273383.9A CN202310273383A CN116206132A CN 116206132 A CN116206132 A CN 116206132A CN 202310273383 A CN202310273383 A CN 202310273383A CN 116206132 A CN116206132 A CN 116206132A
- Authority
- CN
- China
- Prior art keywords
- fusion
- rgb
- mark
- modal
- marks
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 59
- 230000000007 visual effect Effects 0.000 title claims abstract description 25
- 238000000034 method Methods 0.000 claims abstract description 33
- 238000004364 calculation method Methods 0.000 claims abstract description 15
- 230000004927 fusion Effects 0.000 claims description 66
- 230000002452 interceptive effect Effects 0.000 claims description 27
- 239000003550 marker Substances 0.000 claims description 27
- 230000006870 function Effects 0.000 claims description 13
- 238000013461 design Methods 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 8
- 238000012360 testing method Methods 0.000 claims description 8
- 238000000605 extraction Methods 0.000 claims description 7
- 230000004931 aggregating effect Effects 0.000 claims description 4
- 238000011176 pooling Methods 0.000 claims description 4
- 238000000926 separation method Methods 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 230000000295 complement effect Effects 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 239000000284 extract Substances 0.000 abstract description 6
- 238000011160 research Methods 0.000 abstract description 6
- 238000013527 convolutional neural network Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 5
- 230000006872 improvement Effects 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 238000003058 natural language processing Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 230000007547 defect Effects 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 230000000052 comparative effect Effects 0.000 description 2
- 125000004122 cyclic group Chemical group 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000011158 quantitative evaluation Methods 0.000 description 2
- 102100025674 Angiopoietin-related protein 4 Human genes 0.000 description 1
- 241001132374 Asta Species 0.000 description 1
- CMSMOCZEIVJLDB-UHFFFAOYSA-N Cyclophosphamide Chemical compound ClCCN(CCCl)P1(=O)NCCCO1 CMSMOCZEIVJLDB-UHFFFAOYSA-N 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 101000693076 Homo sapiens Angiopoietin-related protein 4 Proteins 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000004445 quantitative analysis Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/513—Sparse representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明提出一种基于动态稀疏标记的Transformer架构的RGB‑D视觉显著性物体检测方法及系统。所述方法可解决简单标记RGB‑D图像引起的特征丰富度受限问题及计算效率低下的问题,并显式地提取全局上下文多模态依赖关系。此外,本发明深入研究了跨模态的差异性和一致性以集成不同阶段的多模态特征,最终生成高分辨率的显著性检测区域,进一步提升RGB‑D显著性物体检测性能。
Description
技术领域
本发明属于物体检测技术领域,具体涉及非对称Transformer架构设计,动态稀疏标记模块,交互式多样性融合模块和多级集成解码器的设计,特别是涉及一种基于动态稀疏标记的Transformer架构的RGB-D视觉显著性物体检测方法及系统。
背景技术
随着深度传感器(如Lytro Illum和Microsoft Kinect)和一些现代智能手机(如华为Mate10和iPhoneX)的普及和应用,获取深度图变得更加容易。受益于深度图的不敏感性,随着环境或颜色的变化,RGB-D SOD方法取得了显著的性能提升,并被广泛应用于不同领域,包括目标跟踪和伪装物体检测。RGB-D显著物体检测(SOD)侧重于使用深度信息来增强稳定的几何结构和额外的补充细节,以应对具有挑战性的场景,例如低对比度场景和显著物体的形状复杂性等。目前,RGB-D SOD方法通常分为传统的RGB-DSOD模型和基于卷积神经网络(Convolutional neural network,CNN)的RGBD SOD方法。传统方法侧重于探索手工外观特征和深度细节,而代表性较差的手工特征限制了显著性预测性能。与手工制作的特征限制性能提升不同,基于CNN的RGB-D SOD方法已经实现了很好的显著性检测性能。随着深度学习在计算机视觉领域的快速发展,2017年,基于CNN的RGB-D显著性对象检测研究也引起了学者们的深入研究。基于CNN的RGB-D显著性检测模型比传统模型具有更强大的判别特征表示能力。2017年,首个基于深度学习的RGB-D显著性检测模型被提出,简称为DF,大幅度提升了RGB-D显著性检测性能。在后续的工作中,研究人员提出了许多基于深度学习的RGB-D SOD模型。例如,赵等使用深度图来指导同一分支中的RGB和深度之间的跨模态融合,这使得特征解码器能够以最佳方式执行。Liu等人提出了一个单流循环卷积神经网络,将RGB-D四个通道输入到VGG-16网络中。范等人输入RGB和深度图由三个并行子网络处理,这些子网络基于相同的修改结构。张等人设计了一个非对称双流架构来提取全局和局部信息,它有四个细节转移分支,每个分支探索来自其他垂直平行分支的细节线索。冀等人设计了一个多尺度循环注意力网络来充分提取和融合多模态特征。范等人提出了一种教师学生学习架构,以利用跨模态特征并使用高级特征改进低级特征。尽管上述RGB-D SOD方法获得了显著的性能提升并考虑了跨层多模态特征,但由于CNN通过局部滑动窗口操作提取特征的固有限制,这些方法仍然存在全局上下文依赖关系丢失的问题。这是由于基于CNN的显著性检测模型存在的固有缺陷生成的显著性检测结果边界模糊,完整性差,尤其在一些具有挑战性的场景中,如显著性物体形状复杂,背景杂乱及多显著性物体场景。为了探索全局线索,已有的基于CNN的RGB-D SOD模型侧重于通过更深的网络层探索全局细节和全局对比度,增加全局池化层,或设计跨级细化模块。例如,任等人提出了归一化深度先验和全局上下文先验,并设计了一种双阶段RGB-D显著性预测方法来预测显著性结果。周等人设计了一个渐进式多模态融合框架来探索全局细节并融合跨级多模态特征。这些工作证明了全局上下文关系和深度先验信息是显著性物体检测任务的重要特征细节。但由于CNN的感受野结构没有改变,仍会丢失一些必要的全局特征。
最近,自然语言处理(Natural Language Processing,NLP)领域Transformer架构可以通过自注意力机制对整个标记序列构建全局依赖关系并取得巨大的性能提升。受Transformer在NLP领域的成功经验启发,研究人员试图在视觉显著性物体检测领域通过将图像转换为标记序列从而利用Transformer架构实现对全局依赖关系的提取。2021年,首个基于Transformer的视觉显著性物体检测网络被提出,简称VST,该模型引入了显著性token和边界token,然后使用反向的(token to token,T2T)T2T模块对token块进行上采样获得显著性检测结果。姚等人提出了一个统一的显著性检测网络,通过合并transformer和CNN框架来提取全局语义特征。尽管许多基于transformer的RGB-DSOD模型已经证明transformer框架可以在显著目标检测方面取得有前途的性能,但已有的RGB-D SOD方法仍然存在挑战,即无法从更少的标记中捕获丰富的多模态特征。可以观察到显著区域和背景具有相似的外观或背景噪声是令人不安的,错误的外观线索和背景干扰可能会极大地污染SwinNet和VST模型最终的显著性预测的结果。
最近,已有研究也证明了Vision transformer中的最终预测结果是基于信息量最大的子集,如果删除大部分标记,这不会损害性能。受此启发,假设一种新颖的用于RGB-DSOD任务的动态稀疏标记的Transformer架构是可行的。该架构可以动态稀疏标记并以显式的方式根据RGB-D数据信息量最大的标记提取全局-局部多模态特征。考虑到显著性检测任务需要相对较高的信息密度,如果使用随机掩码稀疏标记化会对显著性预测产生负面影响。因此,与随机掩码稀疏标记方式不同,设计了一个非对称编码器-解码器视觉Transformer框架(命名为:TSVT)。TSVT可以自适应地从每对RGB-D数据中捕获空间权重,并选择信息量最大的标记子集,准确的定位将有助于准确地预测显著性物体。与现有的基于transformer的RGB-D SOD模型不同,TSVT可以在不牺牲显著目标预测性能的情况下,用更少的标记准确定位显著目标位置并降低计算成本。
VST模型可适配RGB和RGB-D的视觉显著性物体检测任务,但针对RGB-D多模态间的交互融合研究不足。尽管刘等人设计三个Transformer编码器的网络去探索全局上下文信息,与此相对应的包含三个解码器来实现多模态特征融合。朱等人提出了一种基于Transformer的协同融合网络来实现RGB-D视觉显著性检测任务,简称为ACDNet。此外,目前基于Transformer的网络模型均忽略了RGB-D显著性物体检测任务中RGB图像和深度图像间的差异性,且采用固定尺寸处理多模态图像将导致网络不能自适应感知图像中的重要区域,冗余特征增多在复杂场景下难以保证检测精度。因此,如何高效地利用Transformer架构实现动态标记化多模态图像,并充分利用多模态图像的空间结构信息和对全局线索的提取的研究具有重要研究意义。
此外,融合跨模态特征也是RGB-D SOD的一个重要课题,而现有方法通常在加法或连接操作中通过多尺度融合来融合外观特征和深度特征。例如,李等人设计了一个跨模态加权模型来集成多模态交互,包括三个具有多尺度的跨级加权模块,以逐步细化显著对象。然而,由于冗余融合策略难以完全自适应地建模交互,因此这些融合方式往往无法在具有挑战性的场景中达到预期的性能,如何同时考虑两种模态的差异和一致性,设计一种交互式多样性融合模块(IDFM)来自适应地对交互进行建模仍是一个重要研究课题。
发明内容
本发明目的是为了解决现有技术中的问题,提出了一种基于动态稀疏标记的Transformer架构的RGB-D视觉显著性物体检测方法及系统。
本发明是通过以下技术方案实现的,本发明提出一种基于动态稀疏标记的Trans-former架构的RGB-D视觉显著性物体检测方法,所述方法包括:
步骤一、采用软分离展开操作以初始化标记序列,然后将初始化标记序列输入到N1层transformer以获取初始多模态全局依赖关系;
步骤二、利用动态稀疏标记编码器对不同场景自适应调整标记;
步骤三、对不同阶段获取的多模态特征标记序列进行交互式多样性融合,从而获得不同尺度的多模态特征标记序列;
步骤四、将不同阶段获取的多模态特征标记序列输入到多级集成解码器中,以逐步聚合粗尺度和细尺度的多模态特征生成显著性结果。
进一步地,所述动态稀疏标记编码器的特征提取过程包括如下五个步骤:
步骤1:以RGB分支为基础,制定一个标记函数生成空间权重,并将空间权重作为掩码以稀疏标记,具体定义如下:
其中,DST代表稀疏标记函数,i表示第ith个标记,用于学习ith外观标记中像素的信息对以生成空间权重图;代表通过三层卷积计算后使用GELU激活函数生成的逐像素空间权重,/>是空间H×W×1的空间权重图,P(·)和λ(·)分别代表空间全局池化和广播函数,/>代表逐像素乘法操作;
步骤2:对于深度分支,动态稀疏令牌操作过程与RGB分支相同,编码器通过添加位置嵌入的线性投影嵌入显著性标记,然后通过一系列Transformer层处理多模态标记;
步骤3:RGB分支和深度分支生成与相应模态信息最丰富的多模态标记,考虑到外观标记和深度标记的重要性不同,在编码器中设计了一个交互式多样性融合模块以获得所需的多模态标记,具体包括一个一致性融合流和一个差异融合流,其中通过融合外观标记和深度标记来获得高致信度的融合特征Cfea,定义如下:
其中,n=1,2代表第nth阶段;
步骤5:为了进一步融合两种模态的互补特征,提出的交互式多样性融合模块的差异融合流记为Dfea,具体定义如下:
进一步地,所述多级集成解码器是由三个子解码器组成,以逐步聚合粗尺度和细尺度的多模态特征;多级集成解码器过程包括如下七个步骤:
步骤3:通过1st个初始显著性结果S1,定义如下:
Si=MLP(Deci)+Deci
步骤6:聚合不同阶段的多模态特征,最终的显著性预测结果Sres可表示为:
Sres=SA(MLP(Dec2))
其中,Dec2采用核大小k=7,填充大小p=2,和步长s=4的folding操作计算,其中Sres=H×W×1;
步骤7:最后,为了获得优异的显著性物体检测性能,采用多监督的方式去快速收敛和训练提出的模型,模型的整体损失计算如下:
其中,N=2,Ln表示两个初始显著性检测结果,Lres代表最终的显著性结果损失。
本发明还提出一种基于动态稀疏标记的Transformer架构的RGB-D视觉显著性物体检测系统,所述系统包括动态稀疏标记编码器、交互式多样性融合模块和多级集成解码器;
所述动态稀疏标记编码器,用于分别对RGB分支和深度分支进行动态标记稀疏权重计算,以生成一个稀疏标记掩码,从而降低标记冗余,获得一个包含最具信息量的标记子集;
所述交互式多样性融合模块,同时考虑多模态特征的一致性和差异性,用于对不同阶段获取的多模态特征标记序列进行交互式多样性融合,从而获得不同尺度的多模态特征标记序列;
所述多级集成解码器,用于逐步聚合粗尺度和细尺度的多模态特征生成显著性结果。
进一步地,所述动态稀疏标记编码器具体操作流程为:
首先,对获取到的初始多模态标记序列逐像素的信息对生成空间权重;
然后,通过将空间权重作为掩码以稀疏标记序列,并经过线性投影嵌入显著性标记;
最后,在经过N2层Transformer进一步构建全局依赖关系。
进一步地,所述交互式多样性融合模块具体操作流程为:
首先,采用双流融合设计,同时获取一致性融合标记,和差异性融合标记,以进一步增强两种模态间的相关性和互补性;
最后,通过拼接操作获得最终的多模态融合特征,在编码器阶段,通过对不同阶段的多模态标记进行融合,从而保留了不同尺度的全局细节。
进一步地,所述多级集成解码器的具体操作流程为:
首先,输入最后两阶段的多模态标记序列并嵌入显著性位置到子解码器1以生成第一个中间显著性预测结果;
然后,为了保留更多的浅层多模态特征,逐步聚合了初始的多模态融合后的标记序列,以生成中间显著性预测结果2;
通过子解码器3进一步恢复高分辨率的显著性预测结果,以生成最终的显著性图;
最后,每个子解码器的输出都采用不同尺度的显著性真值进行监督模型,从而快速收敛和训练模型。
本发明的有益效果为:
本发明提出的一种基于动态稀疏标记的Transformer架构的RGB-D视觉显著性物体检测方法可解决简单标记RGB-D图像引起的特征丰富度受限问题及计算效率低下的问题,并显式地提取全局上下文多模态依赖关系。此外,本发明深入研究了跨模态的差异性和一致性以集成不同阶段的多模态特征,最终生成高分辨率的显著性检测区域,进一步提升RGB-D显著性物体检测性能。
附图说明
图1为9个测试数据集上四个评价指标定量评估表(Eξ、Sα、Fβ和MAE)示意图。
图2为三个数据集上不同的RGB-D显著性检测模型PR曲线对比图。
图3为15个SOTA方法的可视化对比示例图(COME15K数据集)。
图4为本发明所述物体检测方法总体设计图。
图5为动态稀疏标记编码器结构示意图。
图6为交互式多样性融合模块结构示意图。
图7为多级集成解码器结构示意图。
具体实施方式
下面将结合本发明实施例中的附图对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明所述的一种基于动态稀疏标记的Transformer架构是一种非对称编-解码器双流Transformer架构以显式的方式提取全局上下文信息,该网络可以构建有利于RGB-D图像显著性物体检测的远程依赖关系,以弥补CNN网络架构在探索全局上下文信息时的不足。不同于采用固定尺寸划分Token作为输入的ViT架构,采用k×k尺寸的过滤窗,重叠步长为s,填充率为p的展开操作进行渐进地将输入图像转换成若干个图像块,并组成一个标记序列。受T2T模块成功的启发,采用软分离展开操作是可以避免固定尺寸分割图像块对图像造成的信息损失,并可以一定程度上增强图像块间的信息交互。其中,初始的多模态图像标记序列可表示为和/>然后,采用N1=4个Tansformer层来获得多模态全局关系/>和/>定义如下:
其中,MLP和MSA分别表示层归一化的多层感知器和标准视觉Transformer中的多头自注意力机制。
在具有挑战性的场景中,显著物体和背景的相似外观或背景干扰可能会极大地误导最终预测结果。而已有的transformer模型一般对完整RGB数据和深度图进行全局信息提取导致包含冗余的多模态细节。因此,为了解决上述问题,提出动态稀疏标记的Transformer架构(token sparsification vision transformer,TSVT)的一个重要特征就是专门设计了一个动态稀疏令牌模块(dynamic sparse tokens module,DSTM)来准确合理地选择子集token,和/>计算方式如下:
其中,DST是从完整标记序列中自适应地选择富含信息的子集函数。获得了RGB图像和深度图像的全局上下文特征和局部细节后,本发明提出一种差异一致性融合模块,从而保留模态间的相关性和差异性,融合后的图像块序列定义为:
其中,n代表图像块数目,Cat是拼接操作,C'fea和D'fea分别代表多模态特征间的差异特征和一致特征。然后,将融合后的进一步送入N2层Transformer层中进行全局信息探索,融合后的Tf'定义如下:
式中,st代表显著性标记位置嵌入。
结合图1-图7,本发明提出一种基于动态稀疏标记的Transformer架构的RGB-D视觉显著性物体检测方法,所述方法包括:
步骤一、采用软分离展开操作以初始化标记序列,然后将初始化标记序列输入到N1层transformer以获取初始多模态全局依赖关系;
步骤二、为了减少过多标记的冗余,增强模型的泛化能力,利用动态稀疏标记编码器对不同场景自适应调整标记;
步骤三、为了保留模态间的相关性和差异性,对不同阶段获取的多模态特征标记序列进行交互式多样性融合,从而获得不同尺度的多模态特征标记序列;
步骤四、为了降低计算成本并在复杂场景中产生更稳健的显著性检测结果,设计了比本发明提出的编码器更窄和更浅的多级集成解码器,通过这种非对称的设计,本发明提出的模型显著地降低了预训练成本。将不同阶段获取的多模态特征标记序列输入到多级集成解码器中,以逐步聚合粗尺度和细尺度的多模态特征生成显著性结果。
所述动态稀疏标记编码器的特征提取过程包括如下五个步骤:
步骤1:受视频识别领域Tokenlearner的成功启发,Tokenlearner可针对不同场景自适应调整标记,以减少过多标记的冗余,增强模型的泛化能力。以RGB分支为基础,制定一个标记函数生成空间权重,并将空间权重作为掩码以稀疏标记,具体定义如下:
其中,DST代表稀疏标记函数,i表示第ith个标记,用于学习ith外观标记中像素的信息对以生成空间权重图;代表通过三层卷积计算后使用GELU激活函数生成的逐像素空间权重,/>是空间H×W×1的空间权重图,P(·)和λ(·)分别代表空间全局池化和广播函数,/>代表逐像素乘法操作;
步骤2:对于深度分支,动态稀疏令牌操作过程与RGB分支相同,编码器通过添加位置嵌入的线性投影嵌入显著性标记,然后通过一系列Transformer层处理多模态标记;
步骤3:RGB分支和深度分支生成与相应模态信息最丰富的多模态标记,考虑到外观标记和深度标记的重要性不同,在编码器中设计了一个交互式多样性融合模块以获得所需的多模态标记,具体包括一个一致性融合流和一个差异融合流,其中通过融合外观标记和深度标记来获得高致信度的融合特征Cfea,定义如下:
其中,n=1,2代表第nth阶段;
步骤5:为了进一步融合两种模态的互补特征,提出的交互式多样性融合模块的差异融合流记为Dfea,具体定义如下:
为了降低计算成本并在复杂场景中产生更稳健的显著性检测结果,设计了比编码器更窄和更浅的多级集成解码器,通过这种非对称的设计,本发明提出的模型显著地降低了预训练成本。所述多级集成解码器是由三个子解码器组成,以逐步聚合粗尺度和细尺度的多模态特征;多级集成解码器过程包括如下七个步骤:
步骤2:考虑到显著性检测任务是一个密集和高分辨率的预测任务,多模态标记不直接预测显著性结果。因此,引入floding操作以逐步扩展和隐藏标记恢复显著结果,1st子解码器通过自注意力对带有显著性标记的进行解码,其表示为:
步骤3:通过1st个初始显著性结果S1,定义如下:
Si=MLP(Deci)+Deci
步骤6:为了进一步细化显著性检测结果,聚合不同阶段的多模态特征,最终的显著性预测结果Sres可表示为:
Sres=SA(MLP(Dec2))
其中,Dec2采用核大小k=7,填充大小p=2,和步长s=4的folding操作计算,其中Sres=H×W×1;
步骤7:最后,为了获得优异的显著性物体检测性能,采用多监督的方式去快速收敛和训练提出的模型,模型的整体损失计算如下:
其中,N=2,Ln表示两个初始显著性检测结果,Lres代表最终的显著性结果损失。
本发明还提出一种基于动态稀疏标记的Transformer架构的RGB-D视觉显著性物体检测系统,所述系统包括动态稀疏标记编码器、交互式多样性融合模块和多级集成解码器;
所述动态稀疏标记编码器,为了实现不同场景标记的自适应调整,以减少过多标记的冗余,增强模型的泛化能力。受视频识别领域tokenlearner的成功启发,分别对RGB分支和深度分支进行动态标记稀疏权重计算,以生成一个稀疏标记掩码,从而降低标记冗余,获得一个包含最具信息量的标记子集;
所述交互式多样性融合模块,考虑到RGB标记和深度标记包含的多模态信息不同,而已有的RGB-D视觉显著性物体检测模型大多仅考虑了两种模态间的一致性融合,忽略了模态间的差异性,本发明同时考虑多模态特征的一致性和差异性,用于对不同阶段获取的多模态特征标记序列进行交互式多样性融合,从而获得不同尺度的多模态特征标记序列;
所述多级集成解码器,为了降低计算成本,提高模型在复杂场景中的稳健显著性预测结果,本发明设计了一个比编码器更窄,更浅的多级集成解码器。通过这种非对称的设计,可以显著地降低预训练的成本。解码器用于逐步聚合粗尺度和细尺度的多模态特征生成显著性结果。
如图5所示,所述动态稀疏标记编码器具体操作流程为:
首先,对获取到的初始多模态标记序列逐像素的信息对生成空间权重;
然后,通过将空间权重作为掩码以稀疏标记序列,并经过线性投影嵌入显著性标记;
最后,在经过N2层Transformer进一步构建全局依赖关系。
如图6所示,所述交互式多样性融合模块具体操作流程为:
首先,采用双流融合设计,同时获取一致性融合标记,和差异性融合标记,以进一步增强两种模态间的相关性和互补性;
最后,通过拼接操作获得最终的多模态融合特征,在编码器阶段,通过对不同阶段的多模态标记进行融合,从而保留了不同尺度的全局细节。
如图7所示,所述多级集成解码器的具体操作流程为:
首先,输入最后两阶段的多模态标记序列并嵌入显著性位置到子解码器1以生成第一个中间显著性预测结果;
然后,为了保留更多的浅层多模态特征,逐步聚合了初始的多模态融合后的标记序列,以生成中间显著性预测结果2;
通过子解码器3进一步恢复高分辨率的显著性预测结果,以生成最终的显著性图;
最后,每个子解码器的输出都采用不同尺度的显著性真值进行监督模型,从而快速收敛和训练模型。
本发明提出的一种基于动态稀疏标记的Transformer架构的RGB-D显著性物体检测方法可以弥补基于卷积神经网络的RGB-D显著性物体检测方法仅采用局部滑动窗口操作提取多模态特征的局限性,充分利用多模态全局信息,提升RGB-D显著性物体检测性能。
为了综合评价提出的动态稀疏标记Transformer架构的RGB-D视觉显著性检测的性能,本发明与当前主流的15个RGB-D显著性物体检测模型进行对比,其中包括DF、PCF、PGAR、DMRA、D3Net、ASTA、UCNet、JLDCF、DCF、SPNet、DCMF、CFIDNet等12个基于卷积神经网络的RGB-D视觉显著性物体检测方法,和VST、SwinNet、TriTrans等3个基于Transformer的RGB-D视觉显著性物体检测模型。此外,为了保证对比公平性,采用STERE,DES,NJU2K,NLPR,SSD,SIP,ReDWeb-S和COME15K(COME-E,和COME-H)等9个测试数据集进行定量指标计算。
如图1所示,在表中报告了定量评估结果,具体汇报了4个评价指标,即Eξ、Sα、Fβ和MAE。基于卷积神经网络的RGB-D SOD模型在一些简单的RGB-D数据集上表现出色,甚至优于基于transformer的RGB-D SOD方法。例如,在NJU2K数据集上,与本发明提出的模型相比,SPNet模型实现了优越的显著性检测性能,Fβ指标上获得了1.1%的增长,MAE评估指标上获得了0.9%的性能提升。然而,面对复杂的场景时,在具有挑战场景的数据集SIP、ReDWeb-S、COME-E和COME-H,SPNet模型的这种优势将不复存在,其显著性检测性能远低于本发明提出的TSVT模型。对于基于卷积神经网络的RGB-D SOD模型,由于仅使用局部滑动窗口操作提取多模态特征的局限性,其综合显著性检测性能远不及基于transformer的RGB-D SOD方法。以当前主流的基于卷积神经网络的RGB-D SOD模型CFIDNet为例,尽管在SIP数据集上CFIDNet的Sα指标获得了与本发明提出的模型相当的性能,但CFIDNet模型性能比本发明提出模型在Fβ和MAE指标上分别低2.5%和2.3%。上述实验结果进一步表明全局上下文信息在SOD任务中起着重要作用,同时证明本发明提出的基于动态稀疏标记的transformer的RGB-D SOD模型在具有挑战性的场景中具有一定的优势。
由图1可以看出,提出的模型在九个测试数据集上综合显著性检测性能排名第一,实现了优异的性能。例如,在ReDWeb-S测试集上提出的模型优于所有对比的当前主流模型,与排名第二的SwinNet模型进行相比,提出的模型在Eξ、Sα、Fβ和MAE评价指标上,分别实现了2.2%、3.8%、5.5%和2.6%的性能增长。这些定量结果进一步表明,提出的token稀疏化transformer架构可以准确定位和处理信息量最大的token子集,这比之前基于transformer的模型更有利于显著性物体检测。
此外,在四个具有挑战性的测试数据集上,本发明也报告了所有模型的PR曲线对比结果。由图2可知,当召回值固定时,本发明提出的模型与其他方法相比,在大多数情况下保持着最高的准确率。例如,在COME-E数据集上,当召回率为0.8时,本发明提出的模型获得了最高的准确率。相比之下,所有基于卷积神经网络架构的模型都获得了较低的精度值,这可能是因为这些模型无法有效地提取全局语义信息。然而与SwinNet模型相比,当召回率在COME-H数据集上低于0.7时,本发明提出的模型精度略低。这可能是由于本发明的模型采用的非对称结构设计,编码器仅操作信息量最大的标记的子集,从而导致了一些显著信息丢失,但总的来说,本发明的模型在精度方面还是有一定优势的。
除了上述的定量分析实验,本发明还从COME15K测试数据集中选取了一些有代表性的例子,直观地展示了本发明提出模型与15种当前主流模型的显著性视觉对比结果,如图3所示。其中,第1行是输入的RGB图像,第2行,第3行是对应地深度图和显著性真值图,第4行是本发明提出模型的显著性检测结果,第5到15行,展示了11个基于卷积神经网络架构的RGB-D SOD模型的显著性检测结果(由于缺少PCF模型的结果),第16到18行展示了3个基于transformer架构的RGB-D SOD模型的显著性结果。图3展示了不同具有挑战性的场景样例,具体包括小显著对象(第1-2列),显著区域和背景之间的低对比度(第3列),显著对象形状或背景复杂(第4-9列),以及多个显著对象(第10-12列)。
如图3所示,本发明提出模型可以完整分割出显著区域,在最具挑战性的场景中检测到清晰的显著性物体边界,精确定位显著物体位置。由于大多数基于卷积神经网络的RGB-D SOD方法在全局上下文信息提取方面的局限性和不足,导致无法分割出理想的显著性区域,例如,图3的第11-12列中的SPNet显著性检测结果,SPNet模型无法准确定位并完整分割出第11列中的三只小狗,相比之下,本发明提出的模型完整的分割了三只小狗并成功抑制了背景干扰,取得了理想的显著性检测结果。与基于transformer架构的RGB-D SOD模型相比,本发明提出的模型在具有挑战性的场景中仍然取得了显著的显著性预测结果。例如,SwinNet模型无法成功抑制图3第12列中的背景干扰,物体边界模糊。同时,在图3第6列中,在更加复杂的场景下SwinNet模型引入了错误的背景作为显著物体,因为图中的女生蹲在整个场景底部,而她的腿与背景壁炉很相似。相比之下,本发明提出的模型可以完整地分割显著物体并成功抑制背景干扰,这可能归因于本发明提出的模型考虑了信息量最大的标记进一步增强了全局细节。
以上对本发明所提出的一种基于动态稀疏标记的Transformer架构的RGB-D视觉显著性物体检测方法及系统进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (7)
1.一种基于动态稀疏标记的Transformer架构的RGB-D视觉显著性物体检测方法,其特征在于:所述方法包括:
步骤一、采用软分离展开操作以初始化标记序列,然后将初始化标记序列输入到N1层transformer以获取初始多模态全局依赖关系;
步骤二、利用动态稀疏标记编码器对不同场景自适应调整标记;
步骤三、对不同阶段获取的多模态特征标记序列进行交互式多样性融合,从而获得不同尺度的多模态特征标记序列;
步骤四、将不同阶段获取的多模态特征标记序列输入到多级集成解码器中,以逐步聚合粗尺度和细尺度的多模态特征生成显著性结果。
2.根据权利要求1所述的方法,其特征在于,所述动态稀疏标记编码器的特征提取过程包括如下五个步骤:
步骤1:以RGB分支为基础,制定一个标记函数生成空间权重,并将空间权重作为掩码以稀疏标记,具体定义如下:
其中,DST代表稀疏标记函数,i表示第ith个标记,用于学习ith外观标记中像素的信息对以生成空间权重图;代表通过三层卷积计算后使用GELU激活函数生成的逐像素空间权重,/>是空间H×W×1的空间权重图,P(·)和λ(·)分别代表空间全局池化和广播函数,/>代表逐像素乘法操作;
步骤2:对于深度分支,动态稀疏令牌操作过程与RGB分支相同,编码器通过添加位置嵌入的线性投影嵌入显著性标记,然后通过一系列Transformer层处理多模态标记;
步骤3:RGB分支和深度分支生成与相应模态信息最丰富的多模态标记,考虑到外观标记和深度标记的重要性不同,在编码器中设计了一个交互式多样性融合模块以获得所需的多模态标记,具体包括一个一致性融合流和一个差异融合流,其中通过融合外观标记和深度标记来获得高致信度的融合特征Cfea,定义如下:
其中,n=1,2代表第nth阶段;
步骤5:为了进一步融合两种模态的互补特征,提出的交互式多样性融合模块的差异融合流记为Dfea,具体定义如下:
3.根据权利要求1所述的方法,其特征在于,所述多级集成解码器是由三个子解码器组成,以逐步聚合粗尺度和细尺度的多模态特征;多级集成解码器过程包括如下七个步骤:
步骤3:通过1st个初始显著性结果S1,定义如下:
Si=MLP(Deci)+Deci
步骤6:聚合不同阶段的多模态特征,最终的显著性预测结果Sres可表示为:
Sres=SA(MLP(Dec2))
其中,Dec2采用核大小k=7,填充大小p=2,和步长s=4的folding操作计算,其中Sres=H×W×1;
步骤7:最后,为了获得优异的显著性物体检测性能,采用多监督的方式去快速收敛和训练提出的模型,模型的整体损失计算如下:
其中,N=2,Ln表示两个初始显著性检测结果,Lres代表最终的显著性结果损失。
4.一种基于动态稀疏标记的Transformer架构的RGB-D视觉显著性物体检测系统,其特征在于:所述系统包括动态稀疏标记编码器、交互式多样性融合模块和多级集成解码器;
所述动态稀疏标记编码器,用于分别对RGB分支和深度分支进行动态标记稀疏权重计算,以生成一个稀疏标记掩码,从而降低标记冗余,获得一个包含最具信息量的标记子集;
所述交互式多样性融合模块,同时考虑多模态特征的一致性和差异性,用于对不同阶段获取的多模态特征标记序列进行交互式多样性融合,从而获得不同尺度的多模态特征标记序列;
所述多级集成解码器,用于逐步聚合粗尺度和细尺度的多模态特征生成显著性结果。
5.根据权利要求4所述的系统,其特征在于,所述动态稀疏标记编码器具体操作流程为:
首先,对获取到的初始多模态标记序列逐像素的信息对生成空间权重;
然后,通过将空间权重作为掩码以稀疏标记序列,并经过线性投影嵌入显著性标记;
最后,在经过N2层Transformer进一步构建全局依赖关系。
6.根据权利要求5所述的系统,其特征在于,所述交互式多样性融合模块具体操作流程为:
首先,采用双流融合设计,同时获取一致性融合标记,和差异性融合标记,以进一步增强两种模态间的相关性和互补性;
最后,通过拼接操作获得最终的多模态融合特征,在编码器阶段,通过对不同阶段的多模态标记进行融合,从而保留了不同尺度的全局细节。
7.根据权利要求6所述的系统,其特征在于,所述多级集成解码器的具体操作流程为:
首先,输入最后两阶段的多模态标记序列并嵌入显著性位置到子解码器1以生成第一个中间显著性预测结果;
然后,为了保留更多的浅层多模态特征,逐步聚合了初始的多模态融合后的标记序列,以生成中间显著性预测结果2;
通过子解码器3进一步恢复高分辨率的显著性预测结果,以生成最终的显著性图;
最后,每个子解码器的输出都采用不同尺度的显著性真值进行监督模型,从而快速收敛和训练模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310273383.9A CN116206132A (zh) | 2023-03-21 | 2023-03-21 | 一种基于动态稀疏标记的Transformer架构的RGB-D视觉显著性物体检测方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310273383.9A CN116206132A (zh) | 2023-03-21 | 2023-03-21 | 一种基于动态稀疏标记的Transformer架构的RGB-D视觉显著性物体检测方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116206132A true CN116206132A (zh) | 2023-06-02 |
Family
ID=86507750
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310273383.9A Pending CN116206132A (zh) | 2023-03-21 | 2023-03-21 | 一种基于动态稀疏标记的Transformer架构的RGB-D视觉显著性物体检测方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116206132A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117197472A (zh) * | 2023-11-07 | 2023-12-08 | 四川农业大学 | 基于鼻出血内窥镜影像的高效师生半监督分割方法及装置 |
-
2023
- 2023-03-21 CN CN202310273383.9A patent/CN116206132A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117197472A (zh) * | 2023-11-07 | 2023-12-08 | 四川农业大学 | 基于鼻出血内窥镜影像的高效师生半监督分割方法及装置 |
CN117197472B (zh) * | 2023-11-07 | 2024-03-08 | 四川农业大学 | 基于鼻出血内窥镜影像的高效师生半监督分割方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhou et al. | Salient object detection in stereoscopic 3D images using a deep convolutional residual autoencoder | |
CN111783705B (zh) | 一种基于注意力机制的文字识别方法及系统 | |
CN115100235B (zh) | 一种目标跟踪方法、系统及存储介质 | |
Chen et al. | CGMDRNet: Cross-guided modality difference reduction network for RGB-T salient object detection | |
Chen et al. | Efficient spatial temporal convolutional features for audiovisual continuous affect recognition | |
CN113642604A (zh) | 一种基于云边协同的音视频辅助触觉信号重建方法 | |
Ma et al. | Boosting broader receptive fields for salient object detection | |
CN115713679A (zh) | 基于多源信息融合、热红外和三维深度图的目标检测方法 | |
CN114020891A (zh) | 双通道语义定位多粒度注意互增强的视频问答方法与系统 | |
CN116343190B (zh) | 自然场景文字识别方法、系统、设备及存储介质 | |
Wang et al. | STCD: efficient Siamese transformers-based change detection method for remote sensing images | |
CN116206132A (zh) | 一种基于动态稀疏标记的Transformer架构的RGB-D视觉显著性物体检测方法及系统 | |
Yang et al. | MGCNet: Multilevel gated collaborative network for RGB-D semantic segmentation of indoor scene | |
Wang et al. | TF-SOD: a novel transformer framework for salient object detection | |
Piergiovanni et al. | Video question answering with iterative video-text co-tokenization | |
Chang et al. | L-CoDer: Language-based colorization with color-object decoupling transformer | |
Ren et al. | Unifying Global-Local Representations in Salient Object Detection With Transformers | |
CN116167920A (zh) | 一种基于超分辨率和先验知识的图像压缩与重建方法 | |
CN117095287A (zh) | 一种基于时空交互Transformer模型的遥感图像变化检测方法 | |
Wang et al. | Thermal images-aware guided early fusion network for cross-illumination RGB-T salient object detection | |
Yao et al. | Transformers and CNNs fusion network for salient object detection | |
Xu et al. | TransMIN: Transformer-guided multi-interaction network for remote sensing object detection | |
CN113065417A (zh) | 基于生成对抗式风格迁移的场景文本识别方法 | |
CN117314808A (zh) | 一种结合Transformer与CNN双编码器的红外与可见光图像融合方法 | |
CN115661482A (zh) | 一种基于联合注意力的rgb-t显著目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |