CN114549863B - 一种基于像素级噪声标签监督的光场显著性目标检测方法 - Google Patents
一种基于像素级噪声标签监督的光场显著性目标检测方法 Download PDFInfo
- Publication number
- CN114549863B CN114549863B CN202210447954.1A CN202210447954A CN114549863B CN 114549863 B CN114549863 B CN 114549863B CN 202210447954 A CN202210447954 A CN 202210447954A CN 114549863 B CN114549863 B CN 114549863B
- Authority
- CN
- China
- Prior art keywords
- pixel
- noise
- prediction
- light field
- level
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 31
- 239000011159 matrix material Substances 0.000 claims abstract description 32
- 230000004927 fusion Effects 0.000 claims abstract description 23
- 230000000875 corresponding effect Effects 0.000 claims description 18
- 230000009466 transformation Effects 0.000 claims description 18
- 238000000034 method Methods 0.000 claims description 16
- 230000006870 function Effects 0.000 claims description 13
- 238000012549 training Methods 0.000 claims description 13
- 230000008569 process Effects 0.000 claims description 10
- 230000007246 mechanism Effects 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000011156 evaluation Methods 0.000 claims description 4
- 230000002452 interceptive effect Effects 0.000 claims description 4
- 230000006399 behavior Effects 0.000 claims description 3
- 230000002596 correlated effect Effects 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 230000007704 transition Effects 0.000 claims description 3
- 239000000203 mixture Substances 0.000 claims description 2
- 238000011176 pooling Methods 0.000 claims description 2
- 238000000926 separation method Methods 0.000 claims description 2
- 230000001629 suppression Effects 0.000 claims description 2
- 239000000571 coke Substances 0.000 claims 5
- 238000013507 mapping Methods 0.000 claims 4
- 150000001875 compounds Chemical class 0.000 claims 3
- 125000004432 carbon atom Chemical group C* 0.000 claims 2
- 101100533306 Mus musculus Setx gene Proteins 0.000 claims 1
- 230000001276 controlling effect Effects 0.000 claims 1
- 230000000087 stabilizing effect Effects 0.000 claims 1
- 230000001131 transforming effect Effects 0.000 claims 1
- 238000005065 mining Methods 0.000 abstract description 2
- 230000008901 benefit Effects 0.000 description 3
- 230000007423 decrease Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于像素级噪声标签监督的光场显著性目标检测方法,包括以下步骤:S1、基于全焦图像及其对应的焦堆栈构建实验数据;S2、通过实验数据交互式引导融合网络,获得全焦图像初始噪声预测和光场焦堆栈图像初始噪声预测;S3、通过全焦图像初始噪声预测和光场焦堆栈图像初始噪声预测构建像素遗忘矩阵,得到融合后的最终预测显著性映射;S4、对融合后的最终预测显著性映射进行跨场景的噪声惩罚损失。本发明通过挖掘高维度光场数据中非常丰富的场景信息来引导和辅助显著性物体的检测,充分利用噪声标签中可用的显著性信息并减小噪声信息的置信度,有效地降低了显著性目标检测的预实验成本。
Description
技术领域
本发明涉及人工智能与计算机视觉技术领域,具体涉及一种基于像素级噪声标签监督的光场显著性目标检测方法。
背景技术
视觉显著性目标检测在计算机视觉、图形、机器人和公共安全等许多领域中广泛应用。近年来,随着深度学习模型的快速发展,基于RGB图像的显著性目标检测方法得到了明显的改进,但在复杂场景、背景前景区分度小、光照变化大、目标伪装遮掩等情况下,检测精度仍然较低。为此,基于光场图像的显著性目标检测任务引起了诸多关注,光场图像因包含丰富的纹理和深度等信息对挑战性自然场景的显著性目标检测提供了新的可能。然而,现有的光场图像显著性目标检测方法均需制作由大量人工逐像素标记的,与光场图像中心视角对齐的标签来完全监督训练过程,成本代价昂贵,不利于光场图像显著性目标检测的大规模落地应用。如何获得成本低廉的像素级噪声标签来监督光场显著性目标检测学习过程,并设计鲁棒的学习策略来大幅度降低像素级噪声标签带来的不确定扰动,使得在像素级噪声标签监督下训练的网络模型检测出的结果接近于人工标记数据监督下训练的网络模型,是极具价值和有深远意义的一个研究工作。
发明内容
针对现有技术中的上述不足,本发明提供的一种基于像素级噪声标签监督的光场显著性目标检测方法解决了现有的光场图像显著性目标检测方法成本代价昂贵,不利于光场图像显著性目标检测的大规模落地应用的问题。
为了达到上述发明目的,本发明采用的技术方案为:一种基于像素级噪声标签监督的光场显著性目标检测方法,包括以下步骤:
S1、基于全焦图像及其对应的焦堆栈构建实验数据;
S2、通过实验数据交互式引导融合网络,获得全焦图像初始噪声预测和光场焦堆栈图像初始噪声预测;
S3、通过全焦图像初始噪声预测和光场焦堆栈图像初始噪声预测构建像素遗忘矩阵,得到融合后的最终预测显著性映射;
S4、对融合后的最终预测显著性映射进行跨场景的噪声惩罚损失最小化,得到光场显著性映射目标。
进一步地:所述步骤S1具体为:
构建训练数据集,N为训练数据样本总数,数据集中的每一个x i 由一个全焦图像I r 及其对应的焦堆栈组成,k为焦堆栈总数,焦堆栈是由光场原始数据raw.lfp重聚焦分离得到的不同焦距下的焦片,由传统无监督显著性目标检测方法生成的噪声标签。
进一步地:所述步骤S2的具体步骤为:
S22、采用VGG-19作为特征提取网络,生成全焦图像特征R m 及其对应的焦堆栈特征,在R m 与F m 之间建立相互融合的网络模块,m为特征提取网络VGG-19的层数,为第m层第i个焦堆片的特征;
S26、分别对和的多级层次使用ConvLSTM对多层特征进行有效地整合,进一步总结空间信息,在ConvLSTM输出之后进行过渡卷积层和上采样操作以获得全焦图像初始噪声预测s r 和光场焦堆栈图像初始噪声预测s f 。
进一步地:所述步骤S3的具体步骤为:
S31、输入全焦图像和光场焦堆栈图像的初始噪声预测s r 和s f ,采用两个二进制变换矩阵T r 和T f 来描述像素在整个训练阶段的学习变换,变换矩阵中的元素表示该像素点在每次迭代中是否被正确识别;
S33、利用遗忘矩阵G r 和G f ,进一步采用置信重加权策略,为初始噪声预测s r 和s f 的像素点(u,v)分配在[0,1]之间的权重,得到置信重加权掩码矩阵M r 和M f ;
进一步地:所述步骤S31中二进制变换矩阵更新公式为:
所述步骤S32中遗忘矩阵的更新公式为:
上式中,G(u,v)为遗忘矩阵,包括G r (u,v)和G f (u,v),t为迭代次数;
所述置信重加权掩码矩阵为:
上式中,M(u,v)为置信重加权掩码矩阵,包括M r (u,v)和M f (u,v),a根据遗忘事件的统计量来控制置信权值的下降程度。
进一步地:所述步骤S4的具体步骤为:
S43、根据像素级任务的特点,对显著性预测结果进行更详细的评估,采用m l 对跨场景样本对消除方差,稳定学习过程,减小噪声惩罚损失,得到光场显著性目标。
进一步地:所述步骤S43中m l 对跨场景样本的噪声惩罚损失为:
本发明的有益效果为:
第一,本发明通过挖掘高维度光场数据中非常丰富的场景信息来引导和辅助显著性物体的检测,采用交互式融合对多模态的输入信息进行特征融合,并采用基于注意力机制的特征更新策略,有效地提取完整精确的显著性物体,充分地利用了光场数据中的丰富的场景信息,克服了现有2D、3D方法中对复杂场景理解不够深入而导致检测效果不佳的问题,使得本发明中的模型具有可以更深入地理解许多具有挑战性的复杂场景的优点,进而为显著性目标的精确检测提供了必要条件。
第二,本发明使用传统显著性目标检测方法得到的噪声标签作为网络的监督信息,引入像素遗忘引导的融合模块来相互增强光场特征,并利用迭代中的像素一致性来识别有噪声的像素标签,充分利用噪声标签中可用的显著性信息并减小噪声信息的置信度,有效地降低了显著性目标检测的预实验成本,有效地减少了数据处理的工作量,采用基于预测一致性和噪声像素非典型性的噪声识别方法,有效地降低噪声在训练过程中的干扰,克服了现有技术中监督信息标注困难、成本高、速度慢和无监督下的噪声扰动的问题,使得本发明具有能够建立在弱监督下仍具有高精度的检测模型的优点。
第三,本发明采用跨场景噪声惩罚损失,反映训练数据的潜在结构,在评估噪声标签的预测结果的同时惩罚网络的过拟合学习,隐式地编码了噪声率,克服了噪声标签预测统计噪声率过程繁琐的困难,解决了基于噪声标签的显著性目标检测边界模糊的问题,使得本发明具有能够在不估计噪声率的情况下预测出完整的显著性物体并且具有清晰的预测边界等优点。
附图说明
图1为基于像素级噪声标签监督的光场显著性目标检测方法的整体框架图;
图2是交互式引导融合网络的示意图。
具体实施方式
下面对本发明的具体实施方式进行描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
如图1所示,一种基于像素级噪声标签监督的光场显著性目标检测方法,包括以下步骤:
S1、基于全焦图像及其对应的焦堆栈构建实验数据;
构建训练数据集,数据集中的每一个由一个全焦图像及其对应的焦堆栈组成,其中,焦堆栈是由光场相机拍摄的原始数据重聚焦分离得到的不同焦距下的焦片,是由传统无监督显著性目标检测方法生成的噪声标签,作为伪标签监督网络。
S2、通过实验数据交互式引导融合网络,获得全焦图像初始噪声预测和光场焦堆栈图像初始噪声预测;
输入为全焦图像及其对应的焦堆栈,采用VGG-19作为特征提取网络,生成全焦图像特征及其对应的焦堆栈特征 ,表示VGG-19最后4个卷积块中的高级特征的索引,焦堆栈特征包含丰富的空间信息,在与之间建立相互融合的网络模块,在每一步中,前者首先用于指导后者的更新,然后使用改进后的特性来更新前者;
在全焦图像特征的指导下,通过注意机制和焦片内部上下文的传播进行焦堆栈特征的融合,如图2(1)所示,得到的加权光场特征作为一个对应于连续时间步长的输入序列输入到结构中,得到细化后的焦堆栈特征,以逐步完善光场特征,更加准确地识别显著性物体的空间信息;
交互融合的最后,如图2(2)和2(3)所示,分别对和的多级层次使用对多层特征进行有效地整合,进一步总结空间信息,在输出之后进行过渡卷积层和上采样操作以获得全焦图像初始噪声预测和光场焦堆栈图像初始噪声预测。
S3、通过全焦图像初始噪声预测和光场焦堆栈图像初始噪声预测构建像素遗忘矩阵,得到融合后的最终预测显著性映射;
输入为全焦图像和焦堆栈图像交互引导融合网络初始噪声预测和,定义初始噪声预测中的像素从正确识别转换为错误识别为一次遗忘事件,当且仅当在第t次迭代中学习正确的像素,随后在第t+1次被识别错误时会发生一次遗忘事件,采用两个二进制变换矩阵和来描述像素在整个训练阶段的学习变换,变换矩阵中的元素表示该像素点在每次迭代中是否被正确识别,两个变换矩阵的更新规则如下:
通过计算每个像素的遗忘事件统计量来判断该像素点是否为噪声点,比较相邻迭代的变换矩阵和数值,以此来更新遗忘矩阵和,当像素点的变换矩阵发生时,像素点对应的遗忘矩阵值加一,其中t为迭代次数,通过计算每个像素的遗忘事件统计量来判断该像素点是否为噪声点,更新过程如下:
S4、对融合后的最终预测显著性映射进行跨场景的噪声惩罚损失最小化,得到光场显著性映射目标。
最终的跨场景的噪声惩罚损失函数如下:
Claims (5)
1.一种基于像素级噪声标签监督的光场显著性目标检测方法,其特征在于,包括以下步骤:
S1、基于全焦图像及其对应的焦堆栈构建实验数据;
所述步骤S1具体为:
构建训练数据集,N为训练数据样本总数,数据集中的每一个x i 由一个全焦图像I r 及其对应的焦堆栈组成,k为焦堆栈总数,焦堆栈是由光场原始数据raw.lfp重聚焦分离得到的不同焦距下的焦片,由传统无监督显著性目标检测方法生成的噪声标签;
S2、通过实验数据交互式引导融合网络,获得全焦图像初始噪声预测和光场焦堆栈图像初始噪声预测;
所述步骤S2的具体步骤为:
S22、采用VGG-19作为特征提取网络,生成全焦图像特征R m 及其对应的焦堆栈特征,在R m 与F m 之间建立相互融合的网络模块,m为特征提取网络VGG-19的层数,为第m层第i个焦堆片的特征;
S26、分别对和的多级层次使用ConvLSTM对多层特征进行有效地整合,进一步总结空间信息,在ConvLSTM输出之后进行过渡卷积层和上采样操作以获得全焦图像初始噪声预测s r 和光场焦堆栈图像初始噪声预测s f ;
S3、通过全焦图像初始噪声预测和光场焦堆栈图像初始噪声预测构建像素遗忘矩阵,得到融合后的最终预测显著性映射;
所述步骤S3的具体步骤为:
S31、输入全焦图像和光场焦堆栈图像的初始噪声预测s r 和s f ,采用两个二进制变换矩阵T r 和T f 来描述像素点在整个训练阶段的学习变换,变换矩阵中的元素表示该像素点在每次迭代中是否被正确识别;
S33、利用遗忘矩阵G r 和G f ,进一步采用置信重加权策略,为初始噪声预测s r 和s f 的像素点(u,v)分配在[0,1]之间的权重,得到置信重加权掩码矩阵M r 和M f ;
S4、对融合后的最终预测显著性映射进行跨场景的噪声惩罚损失最小化,得到光场显著性映射目标;
所述步骤S4的具体步骤为:
S43、根据像素级任务的特点,对显著性预测结果进行更详细的评估,采用m l 对跨场景样本对消除方差,稳定学习过程,减小噪声惩罚损失,得到光场显著性目标。
4.根据权利要求1所述的基于像素级噪声标签监督的光场显著性目标检测方法,其特征在于,所述步骤S31中二进制变换矩阵更新公式为:
所述步骤S32中遗忘矩阵的更新公式为:
上式中,G(u,v)为遗忘矩阵,包括G r (u,v)和G f (u,v),t为迭代次数;
所述置信重加权掩码矩阵为:
上式中,M(u,v)为置信重加权掩码矩阵,包括M r (u,v)和M f (u,v),a根据遗忘事件的统计量来控制置信权值的下降程度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210447954.1A CN114549863B (zh) | 2022-04-27 | 2022-04-27 | 一种基于像素级噪声标签监督的光场显著性目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210447954.1A CN114549863B (zh) | 2022-04-27 | 2022-04-27 | 一种基于像素级噪声标签监督的光场显著性目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114549863A CN114549863A (zh) | 2022-05-27 |
CN114549863B true CN114549863B (zh) | 2022-07-22 |
Family
ID=81667241
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210447954.1A Active CN114549863B (zh) | 2022-04-27 | 2022-04-27 | 一种基于像素级噪声标签监督的光场显著性目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114549863B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117496187B (zh) * | 2023-11-15 | 2024-06-11 | 安庆师范大学 | 一种光场图像显著性检测方法 |
CN117253054B (zh) * | 2023-11-20 | 2024-02-06 | 浙江优众新材料科技有限公司 | 一种光场显著性检测方法及其相关设备 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105701813A (zh) * | 2016-01-11 | 2016-06-22 | 深圳市未来媒体技术研究院 | 一种光场图像的显著性检测方法 |
CN108399406A (zh) * | 2018-01-15 | 2018-08-14 | 中山大学 | 基于深度学习的弱监督显著性物体检测的方法及系统 |
WO2019051481A1 (en) * | 2017-09-11 | 2019-03-14 | Massachusetts Eye And Ear Infirmary | TISSUE FORCE SENSOR SYSTEMS AND METHODS OF USE |
CN110633708A (zh) * | 2019-06-28 | 2019-12-31 | 中国人民解放军军事科学院国防科技创新研究院 | 一种基于全局模型和局部优化的深度网络显著性检测方法 |
CN110751160A (zh) * | 2019-10-30 | 2020-02-04 | 华中科技大学 | 图像中物体的检测方法、装置及系统 |
CN111967476A (zh) * | 2020-07-02 | 2020-11-20 | 北京大学深圳研究生院 | 光场图像显著性特征提取、信息融合及预测损失评估方法 |
CN112487225A (zh) * | 2020-12-11 | 2021-03-12 | 联通(浙江)产业互联网有限公司 | 显著性图像生成方法、装置及服务器 |
CN112767466A (zh) * | 2021-01-20 | 2021-05-07 | 大连理工大学 | 一种基于多模态信息的光场深度估计方法 |
CN113343822A (zh) * | 2021-05-31 | 2021-09-03 | 合肥工业大学 | 一种基于3d卷积的光场显著性目标检测方法 |
CN113393435A (zh) * | 2021-06-11 | 2021-09-14 | 大连理工大学 | 一种基于动态上下文感知滤波网络的视频显著性检测方法 |
CN114078192A (zh) * | 2021-10-28 | 2022-02-22 | 杭州电子科技大学 | 一种使用动态权重融合的焦堆栈显著目标检测方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6525603B2 (ja) * | 2015-01-27 | 2019-06-05 | キヤノン株式会社 | 撮像装置 |
CN108090447A (zh) * | 2017-12-19 | 2018-05-29 | 青岛理工大学 | 双分支深层结构下的高光谱图像分类方法及装置 |
CN108734199B (zh) * | 2018-04-24 | 2021-09-07 | 西北工业大学 | 基于分段深度特征及低秩表示的高光谱图像鲁棒分类方法 |
-
2022
- 2022-04-27 CN CN202210447954.1A patent/CN114549863B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105701813A (zh) * | 2016-01-11 | 2016-06-22 | 深圳市未来媒体技术研究院 | 一种光场图像的显著性检测方法 |
WO2019051481A1 (en) * | 2017-09-11 | 2019-03-14 | Massachusetts Eye And Ear Infirmary | TISSUE FORCE SENSOR SYSTEMS AND METHODS OF USE |
CN108399406A (zh) * | 2018-01-15 | 2018-08-14 | 中山大学 | 基于深度学习的弱监督显著性物体检测的方法及系统 |
CN110633708A (zh) * | 2019-06-28 | 2019-12-31 | 中国人民解放军军事科学院国防科技创新研究院 | 一种基于全局模型和局部优化的深度网络显著性检测方法 |
CN110751160A (zh) * | 2019-10-30 | 2020-02-04 | 华中科技大学 | 图像中物体的检测方法、装置及系统 |
CN111967476A (zh) * | 2020-07-02 | 2020-11-20 | 北京大学深圳研究生院 | 光场图像显著性特征提取、信息融合及预测损失评估方法 |
CN112487225A (zh) * | 2020-12-11 | 2021-03-12 | 联通(浙江)产业互联网有限公司 | 显著性图像生成方法、装置及服务器 |
CN112767466A (zh) * | 2021-01-20 | 2021-05-07 | 大连理工大学 | 一种基于多模态信息的光场深度估计方法 |
CN113343822A (zh) * | 2021-05-31 | 2021-09-03 | 合肥工业大学 | 一种基于3d卷积的光场显著性目标检测方法 |
CN113393435A (zh) * | 2021-06-11 | 2021-09-14 | 大连理工大学 | 一种基于动态上下文感知滤波网络的视频显著性检测方法 |
CN114078192A (zh) * | 2021-10-28 | 2022-02-22 | 杭州电子科技大学 | 一种使用动态权重融合的焦堆栈显著目标检测方法 |
Non-Patent Citations (10)
Title |
---|
A Multi-Task Collaborative Network for Light Field Salient Object Detection;Qiudan Zhang 等;《IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY》;20210531;第31卷(第5期);1849-1861 * |
AN EMPIRICAL STUDY OF EXAMPLE FORGETTING DURING DEEP NEURAL NETWORK LEARNING;Mariya Toneva 等;《ICLR 2019》;20191231;1-18 * |
Deep Light-field-driven Saliency Detection from a Single View;Yongri Piao 等;《Proceedings of the Twenty-Eighth International Joint Conference on Artificial Intelligence (IJCAI-19)》;20191231;904-911 * |
Learning Noise-Aware Encoder-Decoder from Noisy Labels by Alternating Back-Propagation for Saliency Detection;Jing Zhang 等;《ECCV 2020》;20201231;349-366 * |
Learning Saliency From Single Noisy Labelling: A Robust Model Fitting Perspective;Jing Zhang 等;《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》;20210831;第43卷(第8期);2866-2873 * |
LFNet: Light Field Fusion Network for Salient Object Detection;Miao Zhang 等;《IEEE TRANSACTIONS ON IMAGE PROCESSING》;20201231;第29卷;6276-6287 * |
Memory-oriented Decoder for Light Field Salient Object Detection;Miao Zhang 等;《33rd Conference on Neural Information Processing Systems (NeurIPS 2019)》;20191231;1-11 * |
Saliency Detection via Dense and Sparse Reconstruction;Xiaohui Li 等;《2013 IEEE International Conference on Computer Vision》;20131231;2976-2983 * |
光场显著性检测研究综述;刘亚美 等;《中国图象图形学报》;20201231;第25卷(第12期);2465-2483 * |
复杂场景下基于光场技术的显著性检测研究;李啸;《中国优秀博硕士学位论文全文数据库(硕士) 信息科技辑》;20200215;第2020年卷(第02期);I138-1920 * |
Also Published As
Publication number | Publication date |
---|---|
CN114549863A (zh) | 2022-05-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108229338B (zh) | 一种基于深度卷积特征的视频行为识别方法 | |
CN109670528B (zh) | 面向行人重识别任务的基于成对样本随机遮挡策略的数据扩充方法 | |
CN113065450B (zh) | 基于可分离三维残差注意网络的人体动作识别方法 | |
CN114549863B (zh) | 一种基于像素级噪声标签监督的光场显著性目标检测方法 | |
CN113870335A (zh) | 一种基于多尺度特征融合的单目深度估计方法 | |
CN112784756B (zh) | 人体识别跟踪方法 | |
CN110110689A (zh) | 一种行人重识别方法 | |
CN113643329B (zh) | 一种基于孪生注意力网络的在线更新目标跟踪方法和系统 | |
CN113658231B (zh) | 光流预测方法、装置、电子设备及存储介质 | |
Zhong et al. | MAGNet: multi-scale awareness and global fusion network for RGB-D salient object detection | |
CN115661246A (zh) | 一种基于自监督学习的姿态估计方法 | |
CN113312973A (zh) | 一种手势识别关键点特征提取方法及系统 | |
CN115100238A (zh) | 基于知识蒸馏的轻量化单目标跟踪器训练方法 | |
CN115082778B (zh) | 一种基于多分支学习的宅基地识别方法及系统 | |
CN114693951A (zh) | 一种基于全局上下文信息探索的rgb-d显著性目标检测方法 | |
CN116977844A (zh) | 一种轻量级水下目标实时检测方法 | |
CN117710645A (zh) | 基于融合注意力机制与轻量化神经网络的动态场景vslam优化方法 | |
CN113066074A (zh) | 一种基于双目视差偏移融合的视觉显著性预测方法 | |
CN113780241B (zh) | 一种显著物体检测的加速方法与装置 | |
CN115661450A (zh) | 一种基于对比知识蒸馏的类别增量语义分割方法 | |
CN115331301A (zh) | 一种基于Transformer的6D姿态估计方法 | |
CN110942463B (zh) | 一种基于生成对抗网络的视频目标分割方法 | |
CN113705562A (zh) | 目标区域确定方法、装置、设备及存储介质 | |
CN116659516B (zh) | 基于双目视差机制的深度立体注意力视觉导航方法及装置 | |
CN116630758A (zh) | 一种基于双分支多级特征融合的时空动作检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |