CN116958736A - 一种基于跨模态边缘引导的rgb-d显著性目标检测方法 - Google Patents
一种基于跨模态边缘引导的rgb-d显著性目标检测方法 Download PDFInfo
- Publication number
- CN116958736A CN116958736A CN202310708088.1A CN202310708088A CN116958736A CN 116958736 A CN116958736 A CN 116958736A CN 202310708088 A CN202310708088 A CN 202310708088A CN 116958736 A CN116958736 A CN 116958736A
- Authority
- CN
- China
- Prior art keywords
- edge
- rgb
- cross
- modal
- features
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 22
- 230000004927 fusion Effects 0.000 claims abstract description 35
- 238000000034 method Methods 0.000 claims abstract description 28
- 238000012549 training Methods 0.000 claims abstract description 12
- 238000012360 testing method Methods 0.000 claims abstract description 9
- 230000007246 mechanism Effects 0.000 claims description 5
- 230000002776 aggregation Effects 0.000 claims description 3
- 238000004220 aggregation Methods 0.000 claims description 3
- 230000008447 perception Effects 0.000 claims description 3
- 238000001124 conductive atomic force microscopy Methods 0.000 claims 2
- 230000000295 complement effect Effects 0.000 abstract 1
- 230000006870 function Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000004913 activation Effects 0.000 description 4
- 238000011176 pooling Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000012644 addition polymerization Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000004069 differentiation Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012634 optical imaging Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明属于计算机视觉领域,提供了一种基于跨模态边缘引导的RGB‑D显著性目标检测方法,包括以下步骤:1)获取训练和测试该任务的RGB‑D数据集;2)分别建立用于提取RGB图像特征和Depth图像特征的显著性目标检测模型网络;3)建立用于跨模态注意力融合的网络结构;4)建立用于边缘感知的网络结构;5)构建用于边缘指导融合解码器,从高到低解码多尺度融合特征并和边缘特征拼接融合,获取显著图。本发明可有效整合来自不同模态图像的互补信息,提升复杂场景下显著性目标预测的准确度。
Description
技术领域:
本发明涉及计算机视觉和图像处理领域,尤其涉及一种基于跨模态边缘引导的RGB-D显著性目标检测方法。
背景技术:
RGB-D显著性目标检测是一种利用RGB图像和深度图像(即Depth表示深度)进行目标检测的技术。相比于仅使用RGB图像,RGB-D显著性目标检测可以通过深度信息获取更加准确的场景信息。
尽管当前涌现很多方法在RGB-D SOD领域已经取得了一定的进展,但就目前来说,有两个主要的挑战阻碍RGB-D SOD的发展:(1)跨模态信息的融合。RGB图像和Depth图像分别基于光学成像和结构光等原理进行成像,因此具有不同的成像原理和噪声特征,这种不同可能导致跨模态信息的融合存在一定误差,并且直接使用某些传统的多模态融合算法会导致特征信息的损失或关键信息的遗漏。因此需要探索更有效的融合算法,并充分利用它们之间的联系和互补性。(2)显著目标边缘的分割。在RGB-D SOD中,边缘质量的关注是因为边缘通常是图像中不同物体或背景之间的界限,因此对于目标的准确定位和分割至关重要。而边缘质量的好坏会直接影响到显著性目标的检测的准确度。一些现有的算法会通过边缘信息来判断图像中的显著性目标并将其从背景中区分出来。因此,在进行显著性目标检测的时候,需要考虑提取边缘的质量,以保证能够更精准地定位和分割显著性目标。
因此,亟需设计一种基于跨模态边缘引导的RGB-D显著性目标检测方法,实现更好地融合跨模态特征并保留边缘细节,以解决上述问题。
发明内容:
本发明所需要解决的技术问题是提供一种基于跨模态边缘引导的RGB-D显著性目标检测方法,更好地融合跨模态特征并保留边缘细节。
本发明具体采用的技术方案如下:
一种基于跨模态边缘引导的RGB-D显著性目标检测方法,该方法包括以下步骤:
1.获取训练和测试该任务的RGB-D数据集;
2.分别建立用于提取RGB图像特征和Depth图像特征的显著性目标检测模型网络;
3.建立用于跨模态注意力融合的网络结构;
4.建立用于边缘感知的网络结构;
5.构建用于边缘指导融合解码器,从高到低解码多尺度融合特征并和边缘特征拼接融合,获取显著图。
进一步地,在所述步骤1中,将NJU2K数据集、NLPR数据集作为训练集,将剩余部分的NJU2K数据集、剩余的NLPR数据集、RGBD135数据集、SSD数据集和STERE数据集作为测试集。
进一步的,所述步骤2包括以下子步骤:
2.1)利用Swin Transformer作为本发明的模型的主干网络,用于提取RGB图像特征和对应的Depth图像特征,分别表示为和/>其中i表示层数,对应于Swin Transformer的每层输出。
2.2)采用预训练的参数权重初始化本发明用于构建主干网络的SwinTransformer权重。
进一步的,所述步骤3用于跨模态注意力融合的网络结构如下:
3.1)通过使用通道注意力筛选出最具表达性和相关性的特征通道,减少了过程中非相关信息的干扰,分别对和/>的通道特征进行通道注意力处理,得到RGB通道注意力向量/>和深度通道注意力向量/>
其中,和/>分别表示第i级RGB特征全连接层的参数和偏置,/>和分别表示第i级深度特征全连接层的参数和偏置,Avg(·)表示全局平均池化操作,σ(·)表示softmax激活函数,+表示元素感知的矩阵加操作。
3.2)通过加法运算聚合步骤3.1)获得的和/>得到RGB-D图像在通道维度上更具区分度和代表性的特征表征,然后,将聚合注意向量进行归一化操作,从而得到跨模态通道注意力向量/>为了强化重要的特征通道并减少对预测结果没有贡献的通道,基于/>作为RGB特征和深度特征的权重分别与/>和/>进行通道相乘,得到RGB加权增强特征/>和深度加权增强特征/>
其中,表示逐元素相乘操作,N(·)用于将结果归一化到0到1之间。
3.3)进一步对步骤3.2)获得的和/>的空间特征进行空间注意力处理,得到RGB空间注意力向量/>和深度空间注意力向量/>然后对/>和再次执行乘法操作,其目的是保留原始特征图的信息,避免注意力机制过度强调局部特征,随后,将处理过的特征串接在一起,以获得RGB空间加权特征/>和深度空间加权特征/>
其中,Max(·)表示全局最大池化操作,C表示级联操作。
3.4)对于步骤3.1)获得的和/>通过乘法操作生成RGB通道加权特征/>和深度通道加权特征/>
3.5)对于步骤3.4)获得的和/>与步骤3.3获得的/>和/>分别进行逐元素相加操作,得到RGB通道空间增强特征/>和深度通道空间增强特征/>
3.6)对步骤3.5)获得的和/>应用了基于元素的乘法和元素加法,然后将结果级联在一起,再将其输入一个3×3卷积层,以获得其平滑表示,最终得到跨注意力融合特征/>
其中,Bconv(·)是一种序列操作,它结合了3×3卷积后的批归一化和ReLU函数。
进一步的,所述步骤4中用于边缘感知的网络结构具体构成如下:
4.1)对于从步骤2提取的特征,将和/>分别通过加法得到RGB边缘特征/>和深度边缘特征/>
其中Up2(·)表示2×upsampling操作。
4.2)对步骤4.1)得到的和/>分别进行通道注意和空间注意力,然后将得到的结果进行残差连接生成更清晰的边缘信息/>和/>
其中,SA表示空间注意力操作,SE是一种通道类型的注意力机制。
4.3)将步骤4.2)得到的和/>进行聚合,生成边缘感知特征Fe:
更近一步的,所述步骤5包括以下子步骤:
5.1)使用对于步骤3获得的为输入,通过逐元素相加获得多尺度特征融合结果
5.2)将步骤4.3)获得的边缘特征Fe与步骤5.1)获得的多尺度融合特征相结合,生成边缘引导的显着图S:
其中,Sig(·)表示Sigmoid激活函数。
与之前的RGB-D显著性目标检测方法相比,本发明有益效果体现在:
首先,利用深度学习技术,通过编码器和解码器结构构建RGB-D图像对和图像显著目标之间的关系,并通过跨模态特征的提取和融合,得到显著性预测。其次,通过边缘感知更好地保留边缘细节信息。最后,通过构建边缘引导的解码器进行多尺度的多模态特征融合,预测最终的显著图。
附图说明
图1为本发明的模型结构示意图;
图2为跨模态注意力融合模块示意图;
图3为边缘感知模块示意图;
图4为本发明与其他RGB-D显著性目标检测方法的结果对比图。
具体实施方式
下面将结合本发明实例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,此外,所叙述的实例仅仅是本发明一部分实例,而不是所有的实例。基于本发明中的实例,本研究方向普通技术人员在没有付出创造性劳动前提下所获得的所有其他实例,都属于本发明保护范围。
参考附图1,一种基于跨模态边缘引导的RGB-D显著性目标检测方法主要包含以下步骤:
1.获取训练和测试该任务的RGB-D数据集,并定义本发明的算法目标,将NJU2K数据集、NLPR数据集作为训练集,将剩余部分的NJU2K数据集、剩余的NLPR数据集、RGBD135数据集、SSD数据集和STERE数据集作为测试集。
2.分别建立用于提取RGB图像特征和Depth图像特征的显著性目标检测模型网络:
2.1)利用Swin Transformer作为本发明的模型的主干网络,用于提取RGB图像特征和对应的Depth图像特征,分别表示为和/>其中i表示层数,对应于Swin Transformer的每层输出。
2.2)采用预训练的参数权重初始化本发明用于构建主干网络的SwinTransformer权重。
3.参考附图2所示,通过跨模态注意力融合模块将步骤2所生成的4个层次的RGB图像特征和Depth图像特征/>进行融合,得到4个层次的跨注意力融合特征/>主要步骤如下所示:
3.1)通过使用通道注意力筛选出最具表达性和相关性的特征通道,减少了过程中非相关信息的干扰,分别对和/>的通道特征进行通道注意力处理,得到RGB通道注意力向量/>和深度通道注意力向量/>
其中,和/>分别表示第i级RGB特征全连接层的参数和偏置,/>和分别表示第i级深度特征全连接层的参数和偏置,Avg(·)表示全局平均池化操作,σ(·)表示softmax激活函数,+表示元素感知的矩阵加操作。
3.2)通过加法运算聚合步骤3.1)获得的和/>得到RGB-D图像在通道维度上更具区分度和代表性的特征表征,然后,将聚合注意向量进行归一化操作,从而得到跨模态通道注意力向量/>为了强化重要的特征通道并减少对预测结果没有贡献的通道,基于/>作为RGB特征和深度特征的权重分别与/>和/>进行通道相乘,得到RGB加权增强特征/>和深度加权增强特征/>
其中,表示逐元素相乘操作,N(·)用于将结果归一化到0到1之间,。
3.3)进一步对步骤3.2)获得的和/>的空间特征进行空间注意力处理,得到RGB空间注意力向量/>和深度空间注意力向量/>然后对/>和再次执行乘法操作,其目的是保留原始特征图的信息,避免注意力机制过度强调局部特征,随后,将处理过的特征串接在一起,以获得RGB空间加权特征/>和深度空间加权特征/>
其中,Max(·)表示全局最大池化操作,C表示级联操作。
3.4)对于步骤3.1)获得的和/>通过乘法操作生成RGB通道加权特征/>和深度通道加权特征/>
3.5)对于步骤3.4)获得的和/>与S33获得的/>和/>分别进行逐元素相加操作,得到RGB通道空间增强特征/>和深度通道空间增强特征/>
3.6)对步骤3.5)获得的和/>应用了基于元素的乘法和元素加法,然后将结果级联在一起,再将其输入一个3×3卷积层,以获得其平滑表示,最终得到跨注意力融合特征/>
其中,Bconv(·)是一种序列操作,它结合了3×3卷积后的批归一化和ReLU函数。
4.参考附图3,利用边缘感知模块提取边缘特征Fe,主要步骤如下所示:
4.1)对于从步骤2提取的特征,将和/>分别通过加法得到RGB边缘特征/>和深度边缘特征/>
其中Up2(·)表示2×upsampling操作。
4.2)对步骤4.1)得到的和/>分别进行通道注意和空间注意力,然后将得到的结果进行残差连接生成更清晰的边缘信息/>和/>
其中,SA表示空间注意力操作,SE是一种通道类型的注意力机制。
4.3)将步骤4.2)得到的和/>进行聚合,生成边缘感知特征Fe:
5.参考附图4,构建用于边缘指导融合解码器,从高到低解码多尺度融合特征并和边缘特征拼接融合,获取显著图:
5.1)使用对于步骤3获得的为输入,通过逐元素相加获得多尺度特征融合结果
5.2)将步骤4.3)获得的边缘特征Fe与步骤5.1)获得的多尺度融合特征相结合,生成边缘引导的显着图S:
其中,Sig(·)表示Sigmoid激活函数。
本发明一种基于跨模态边缘引导的RGB-D显著性目标检测方法,利用深度学习技术,通过编码器和解码器结构构建RGB-D图像对和图像显著目标之间的关系,并通过跨模态特征的提取和融合,得到显著性预测。其次,通过边缘感知更好地保留边缘细节信息。最后,通过构建边缘引导的解码器进行多尺度的多模态特征融合,预测最终的显著图。
实施例
本实施例所述RGB-D图像显著目标检测方法在NJU2K数据集上选取1485张图片、在NLPR数据集上选取700张图片组成训练集,对NJU2K数据集和NLPR数据集上的剩余图片及整个的RGBD135,SSD和STERE数据集作为测试集,进行测试。
在训练和测试阶段,输入的RGB-D图像被调整到384*384大小,训练集进行了随机旋转、翻转和边框裁剪等数据增强操作。模型训练选取Adam优化器,初始学习率为1e-5,批处理大小为3,采用Swin-B预训练参数及PyTorch默认设置,使用的显卡是NVIDIA RTXA4000 GPU。模型训练150代后收敛,耗时约18小时。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (6)
1.一种基于跨模态边缘引导的RGB-D显著性目标检测方法,其特征在于,该方法包括以下步骤:
1)获取训练和测试该任务的RGB-D数据集;
2)分别建立用于提取RGB图像特征和Depth图像特征的显著性目标检测模型网络;
3)建立用于跨模态注意力融合的网络结构;
4)建立用于边缘感知的网络结构;
5)构建用于边缘指导融合解码器,从高到低解码多尺度融合特征并和边缘特征拼接融合,获取显著图。
2.根据权利要求1所述的一种基于跨模态边缘引导的RGB-D显著性目标检测方法,其特征在于:所述步骤2)具体方法是:
将NJU2K数据集、NLPR数据集作为训练集,将剩余部分的NJU2K数据集、剩余的NLPR数据集、RGBD135数据集、SSD数据集和STERE数据集作为测试集。
3.根据权利要求1所述的一种基于跨模态边缘引导的RGB-D显著性目标检测方法,其特征在于:所述步骤3)具体方法是:
3.1)利用Swin Transformer作为本发明的模型的主干网络,用于提取RGB图像特征和对应的Depth图像特征,分别表示为和/>其中i表示层数,对应于SwinTransformer的每层输出。
3.2)采用预训练的参数权重初始化本发明用于构建主干网络的Swin Transformer权重。
4.根据权利要求1所述的一种基于跨模态边缘引导的RGB-D显著性目标检测方法,其特征在于:所述步骤4)具体方法是:
4.1)跨模态注意力融合网络由4个层次的CAFM构成,并生成4个层次的跨模态注意力特征
4.2)第i层次的CAFM模块的输入数据为和/>构成,并通过注意力引导输出第i层次的跨模态注意力特征。
5.根据权利要求1所述的一种基于跨模态边缘引导的RGB-D显著性目标检测方法,其特征在于:所述步骤5)具体方法是:
5.1)将步骤2获得的和/>分别通过加法得到RGB边缘特征/>和深度边缘特征/>
5.2)对上述步骤生成的和/>分别进行通道注意和空间注意力,然后将得到的结果进行残差连接生成更清晰的边缘信息/>和/>
其中,SA表示空间注意力操作,SE是一种通道类型的注意力机制。
5.3)将上述步骤生成的和/>进行聚合,生成边缘感知特征Fe:
6.根据权利要求1所述的一种基于跨模态边缘引导的RGB-D显著性目标检测方法,其特征在于:所述步骤6)具体方法是:
6.1)使用步骤4)生成的为输入,通过逐元素相加获得多尺度特征融合结果/>
6.2)将上述步骤获得的边缘特征Fe与多尺度融合特征相结合,生成边缘引导的显着图S:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310708088.1A CN116958736A (zh) | 2023-06-14 | 2023-06-14 | 一种基于跨模态边缘引导的rgb-d显著性目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310708088.1A CN116958736A (zh) | 2023-06-14 | 2023-06-14 | 一种基于跨模态边缘引导的rgb-d显著性目标检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116958736A true CN116958736A (zh) | 2023-10-27 |
Family
ID=88460988
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310708088.1A Pending CN116958736A (zh) | 2023-06-14 | 2023-06-14 | 一种基于跨模态边缘引导的rgb-d显著性目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116958736A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117557795A (zh) * | 2024-01-10 | 2024-02-13 | 吉林大学 | 基于多源数据融合的水下目标语义分割方法及系统 |
-
2023
- 2023-06-14 CN CN202310708088.1A patent/CN116958736A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117557795A (zh) * | 2024-01-10 | 2024-02-13 | 吉林大学 | 基于多源数据融合的水下目标语义分割方法及系统 |
CN117557795B (zh) * | 2024-01-10 | 2024-03-29 | 吉林大学 | 基于多源数据融合的水下目标语义分割方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111488921B (zh) | 一种全景数字病理图像智能分析系统及方法 | |
CN111524106B (zh) | 颅骨骨折检测和模型训练方法、装置、设备和存储介质 | |
CN107818554B (zh) | 信息处理设备和信息处理方法 | |
CN113642390B (zh) | 一种基于局部注意力网络的街景图像语义分割方法 | |
CN111784671A (zh) | 基于多尺度深度学习的病理图像病灶区域检测方法 | |
CN112116605A (zh) | 一种基于集成深度卷积神经网络的胰腺ct图像分割方法 | |
CN115661144B (zh) | 基于可变形U-Net的自适应医学图像分割方法 | |
TWI803243B (zh) | 圖像擴增方法、電腦設備及儲存介質 | |
CN113379707A (zh) | 一种基于动态滤波解耦卷积网络的rgb-d显著性检测方法 | |
CN114677722A (zh) | 一种融合多尺度特征的多监督人脸活体检测方法 | |
CN115578626A (zh) | 基于混合注意力机制的多尺度图像篡改检测方法 | |
CN116152209A (zh) | 一种耳机罩缺陷检测方法、装置、设备及存储介质 | |
CN116958736A (zh) | 一种基于跨模态边缘引导的rgb-d显著性目标检测方法 | |
CN117292117A (zh) | 一种基于注意力机制的小目标检测方法 | |
CN116486465A (zh) | 用于人脸结构分析的图像识别方法及其系统 | |
CN117726814A (zh) | 基于交叉注意力和双分支池化融合的视网膜血管分割方法 | |
CN117830889A (zh) | 基于光流图特征融合机制的视频显著性检测方法、系统及存储介质 | |
Song et al. | A single image dehazing method based on end-to-end cpad-net network in deep learning environment | |
CN116959125A (zh) | 一种数据处理方法以及相关装置 | |
Vinta et al. | Segmentation and Classification of Interstitial Lung Diseases Based on Hybrid Deep Learning Network Model | |
CN116229104A (zh) | 一种基于边缘特征引导的显著性目标检测方法 | |
WO2022267327A1 (zh) | 一种色斑预测方法、装置、设备及存储介质 | |
Zhang et al. | Unsupervised saliency detection in 3-D-video based on multiscale segmentation and refinement | |
Syamala et al. | Brain MRI image bias correction using generative adversarial network | |
CN112907525B (zh) | 乳腺磁共振图像智能分类方法、装置、设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |