CN111369522A - 基于生成对抗卷积神经网络的光场显著性目标检测方法 - Google Patents
基于生成对抗卷积神经网络的光场显著性目标检测方法 Download PDFInfo
- Publication number
- CN111369522A CN111369522A CN202010136253.7A CN202010136253A CN111369522A CN 111369522 A CN111369522 A CN 111369522A CN 202010136253 A CN202010136253 A CN 202010136253A CN 111369522 A CN111369522 A CN 111369522A
- Authority
- CN
- China
- Prior art keywords
- convolution
- output
- light field
- module
- field data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Abstract
本发明公开了一种基于生成对抗卷积神经网络的光场显著性目标检测方法,其步骤包括:1将光场数据转换成重聚焦序列;2对重聚焦序列进行数据增强;3以U‑Net网络和GAN网络结构为基础,构建生成对抗卷积神经网络,以重聚焦序列为网络输入,并利用光场数据集训练;4利用训练好的生成对抗卷积神经网络对待处理的光场数据进行显著性目标检测。本发明方法能充分利用深度学习方法和光场重聚焦信息,从而能有效提高复杂场景图像的显著目标检测的准确性。
Description
技术领域
本发明属于计算机视觉领域,具体的说是一种基于生成对抗卷积神经网络的光场显著性目标检测方法。
背景技术
显著性目标检测是人类视觉系统的一个注意力机制。当我们面对一个场景时,人类自动的对感兴趣区域进行处理而选择性地忽略不感兴趣的区域,这些人们感兴趣的区域就被称为显著性区域。显著性目标检测是从输入的视觉信息中选择观察者最感兴趣的一部分数据进行处理,比如目标识别、目标追踪和图像分割等。目前,显著性检测已经成为计算机视觉领域内研究的热点方向之一。
目前光场显著性目标检测的方法大致可以分为两类:基于统计的方法和基于学习的方法。
基于统计的方法是在光场图像的基础上,利用彩色图像的统计属性或者物理属性来估计显著性目标。此类方法通常进行一些假设,如显著性目标属于前景、颜色鲜艳的区域一般被认为是显著性区域等等,这些方法都是基于一定的假设,计算都比较简单直接。
基于学习的方法通常需要一定量的光场图像作为训练数据,利用这些训练数据来训练显著性目标检测模型,从而进行显著性目标检测。这类方法通常比基于统计的方法具有更高的准确性,所以得到了更广泛的应用。早期的基于机器学习的方法通过手工提取一些低级视觉特征(如边缘)构建浅层学习模型,比基于统计的方法取得了更加出色的性能。近年来,随着计算机计算能力和硬件性能的提升,基于深度学习的方法越来越得到科研人员的青睐。基于深度学习的方法利用卷积神经网络能够提取边缘、几何特征、高层语义特征等,从而进一步提高显著性目标检测的精度。
虽然在计算机视觉领域中,已经出现了一些性能出色的光场显著性目标检测方法,但这些方法依然存在着不足之处:
1、基于统计的方法通常是对显著性目标进行假设,适用范围小,适合简单场景的预测,在处理复杂场景时误差比较大。
2、早期基于学习的方法只能手工提取一些低级视觉特征,构建简单的学习模型。而图像中包含的信息是十分丰富的,应该尽可能学习更高级的特征,并自动地从图像中学习特征分布,提高预测精度。
3、在一些基于深度学习的方法中,颜色、深度、位置等特征信息之间的联系被割裂了,没有充分考虑到它们之间的关联性和互补性。
4、在显著性目标检测方法中,针对基于深度学习的方法来说,网络参数的更新主要来自训练数据,因此通常是需要大量的训练数据,收敛比较慢。而目前关于光场显著性的研究还处于萌芽阶段,数据集的数量有限,无法达到更高的预测精度。
发明内容
本发明是为了解决上述现有技术存在的不足之处,提出一种基于生成对抗卷积神经网络的光场显著性目标检测方法,以期能充分利用深度学习方法和光场重聚焦信息,从而能有效提高复杂场景的显著性目标检测性能。
本发明为达到上述发明目的,采用如下技术方案:
本发明一种基于生成对抗卷积神经网络的光场显著性目标检测方法的特点按如下步骤进行:
步骤1、对光场相机获取的光场数据进行解码,得到重聚焦序列数据集记为L=(L1,L2,…,Ld,…,LD),其中,Ld代表第d个光场数据的重聚焦序列,并有:其中,表示第d个光场数据的第m个焦点图,Cd表示第d个光场数据的中央视角图像,和Cd的高度和宽度分别为H和W,m∈[1,M],M表示第d个光场数据的焦点图个数,d∈[1,D],D表示光场数据的数目;
步骤2、对所述第d个光场数据的重聚焦序列Ld进行数据增强,得到第d个光场数据增强后的重聚焦序列图像集合L′d;从而获得所述光场数据集合L中D个光场数据增强后的重聚焦序列集合L′=(L′1,L′2,…,L′d,…,L′D);
步骤3、将所述第d个光场数据的真实显著图记为Gd,对所述第d个光场数据的真实显著图Gd做镜像和旋转处理,得到第d个几何变换后的真实显著图集合G′d;从而得到D个几何变换后的真实显著图集合记为G′=(G′1,G′2,…,G′d,…,G′D);
步骤4、构建由生成器和判别器所组成的生成对抗卷积神经网络;
步骤4.1、构建空间注意力模块SA;
所述空间注意力模块SA包括两个支路,一个支路依次包括:卷积核大小为1×k和k×1的两个卷积层,另一个支路依次包括:卷积核大小为k×1和1×k的两个卷积层;两个支路的输出通过加法器与Sigmoid激活函数相连;所述Sigmoid激活函数的输出通过乘法器与空间注意力模块SA的输入相连;
步骤4.2、构建上下文特征提取模块CFE和通道注意力模块CA;
步骤4.2.1、所述上下文特征提取模块CFE的输入分别与一个卷积层以及三个扩张卷积率分别为c1,c2和c3的扩张卷积层相连,每个所述扩张卷积层的输出均与一个上采样层相连;三个所述上采样层的输出与所述卷积层的输出经过串联处理后作为所述上下文特征提取模块CFE的输出;
步骤4.2.2、所述CFE模块的输出与所述通道注意力模块CA的输入相连,所述通道注意力模块CA依次包括:第一全连接层、ReLu激活函数、第二全连接层和Sigmoid激活函数;所述Sigmoid激活函数的输出通过乘法器与所述通道注意力模块CA的输入相连;
步骤4.3、构建U-Net卷积网络结构;
设置所述U-Net卷积网络是由编码部分和解码部分组成,并包含:2a+1个卷积模块、a个最大池化层、a个卷积核大小为n′×n′的转置卷积层,任意一个卷积模块是由a1对卷积核大小为n×n的卷积层和LeakyReLu激活函数组成;
所述编码部分是以一个卷积模块和一个最大池化层为一组而构成的a组结构;
所述解码部分是以一个卷积核大小为n′×n′的转置卷积层和一个卷积模块而构成的a组结构;
所述编码部分通过一个卷积模块与所述解码部分相连接;
步骤4.4、构建改进后的U-Net卷积网络结构;
步骤4.4.1、将所述U-Net卷积网络的第1个卷积模块的输出连接所述空间注意力模块SA模块,并将所述空间注意力模块SA模块的输出与所述第a个转置卷积的输出串联,所述第a个转置卷积的输出与第2a+1个卷积模块的输入相连;
步骤4.4.2、定义变量b,并初始化b=2;
步骤4.4.3、将所述U-Net卷积网络的第b个卷积模块的输出与所述上下文特征提取模块CFE相连后,再与通道注意力模块CA相连,并所述通道注意力模块CA的输出与第a-b+1个转置卷积的输出串联,所述第a-b+1个转置卷积的输出与第2a+2-b个卷积模块的输入相连,其中b∈[2,a];
步骤4.4.4、将b+1赋值给b后,判断b>a是否成立,若成立,则执行步骤4.4.5;否则,返回步骤4.4.3;
步骤4.4.5、在所述U-Net卷积神经网络的第2a+1个卷积模块后依次添加卷积层conv_last和Sigmoid激活函数;
步骤4.5.1、以所述第d个光场数据的重聚焦序列Ld中第d个中央视角的子孔径图像Cd作为第一生成器G1的输入,并经过所述第一生成器G1得到第一输出fake_G1;
步骤4.5.5、所述判别器由d1个卷积层依次串联而成,以fake_GM×Cd作为判别器的虚假标签,以Gd×Cd作为所述判别器的真实标签,从而将所述虚假标签或真实标签输入所述判别器中,并经过所述判别器得到相应输入标签的判别结果,用于计算对抗损失和更新所述生成对抗卷积神经网络的参数;
步骤4.6、以增强后的光场重聚焦序列集合L′为所述生成对抗卷积神经网络的输入,以几何变换后的真实显著图集合G′作为标签,由二元交叉熵、对抗损失和L1损失构成损失函数,再利用梯度下降算法对所述生成对抗卷积神经网络进行训练,从而得到更新后的生成对抗卷积神经网络,用于实现对光场数据的显著性目标检测。
与现有技术相比,本发明的有益效果在于:
1、本发明利用深度卷积神经网络在图像处理方面的强大能力,融合了光场数据的重聚焦信息,使用生成对抗网络来捕捉光场图像的有效信息,从而对光场显著性目标进行检测,解决了当前基于统计的显著性目标检测方法无法提取高层语义特征的缺陷,提高了复杂场景下显著性目标检测的精确性和鲁棒性。
2、本发明所使用的重聚焦序列体现了场景的空间几何信息,将重聚焦序列输入到卷积神经网络中,实现了目标检测,解决了当前显著性目标检测方法没有充分考虑颜色、深度、位置之间互补性的缺点,提高了光场显著性目标检测的有效性。
3、本发明所使用的生成对抗网络包括生成器和判别器两个部分,相比传统的深度学习网络,形式不再单一,采用的是对抗训练方式,而且生成对抗网络中参数的更新来自训练样本和判别器,能够更好的学习训练样本的分布,更快的收敛,即使只有少量的光场数据集也能取得很好的显著性目标预测效果,从而使得光场显著性目标检测性能得到较高的提升。
附图说明
图1为本发明中显著性目标检测方法的工作流程图;
图2为本发明方法中获得的重聚焦序列、中央视角图和其对应的真实显著图;
图3为本发明方法中的空间注意力模块SA模块流程图;
图4为本发明方法中的通道注意力模块CA模块流程图;
图5为本发明方法中改进的U-Net卷积网络图;
图6为本发明方法中的判别器网络结构图;
图7为本发明方法中光场重聚焦序列集合输入到网络的过程图。
具体实施方式
本实施例中,如图1所示,一种基于生成对抗网络的光场显著目标检测方法是按如下步骤进行:
步骤1、对光场相机获取的光场数据进行解码,得到重聚焦序列数据集记为L=(L1,L2,…,Ld,…,LD),其中,Ld代表第d个光场数据的重聚焦序列,并有:其中,表示第d个光场数据的第m个焦点图,Cd表示第d个光场数据的中央视角图像,和Cd的高度和宽度分别为H和W,具体实施中,H=256,W=256,m∈[1,M],M表示第d个光场数据的焦点图个数,d∈[1,D],D表示光场数据的数目,D=640;
本实施例中,使用第二代光场相机获取光场文件,并用lytro power tool beta工具对光场文件进行解码,获得光场数据在本发明实验中,共获取640个光场重聚焦序列集,平均分成5份,轮流选择其中1份作为测试集,余下4份作为训练集。步骤1中的M表示第d个光场数据的焦点图个数,具体实施中,M=11,每个场景选取了11张聚焦在不同深度的焦点图,如图2所示,随着焦点图序号的递升,聚焦深度也在逐渐增加,实验显示,更多的焦点图可以提供更多的信息。
步骤2、对第d个光场数据的重聚焦序列Ld进行数据增强,得到第d个光场数据增强后的重聚焦序列图像集合L′d;从而获得光场数据集合L中D个光场数据增强后的重聚焦序列集合L′=(L′1,L′2,…,L′d,…,L′D);在本实施例中,对第d个光场数据的重聚焦序列Ld进行旋转和镜像处理,实现了数据增强,数据增强可以提高检测模型的泛化能力和预测精度。
步骤3、将第d个光场数据的真实显著图记为Gd,对第d个光场数据的真实显著图Gd做镜像和旋转处理,得到第d个几何变换后的真实显著图集合G′d;从而得到D个几何变换后的真实显著图集合记为G′=(G′1,G′2,…,G′d,…,G′D);
步骤4、构建由生成器和判别器所组成的生成对抗卷积神经网络;
步骤4.1、构建空间注意力模块SA;
空间注意力模块SA包括两个支路,如图3所示,一个支路依次包括:卷积核大小为1×k和k×1的两个卷积层,另一个支路依次包括:卷积核大小为k×1和1×k的两个卷积层;两个支路的输出通过加法器与Sigmoid激活函数相连;Sigmoid激活函数的输出通过乘法器与空间注意力模块SA的输入相连;具体实施中,k=9,使用卷积核大小为1×k和k×1的两个卷积层可以增大感受野获得全局信息,且不会增加大量计算参数,有助于提高计算效率。
步骤4.2、构建上下文特征提取模块CFE和通道注意力模块CA;
步骤4.2.1、上下文特征提取模块CFE的输入分别与一个卷积层以及三个扩张卷积率分别为c1,c2和c3的扩张卷积层相连,每个扩张卷积层的输出均与一个上采样层相连;三个上采样层的输出与卷积层的输出经过串联处理后作为上下文特征提取模块CFE的输出;
在实施例中,c1=3,c2=5,c3=7,c1,c2和c3为三个扩张卷积层的扩张卷积率;卷积层以及三个扩张卷积率分别为3,5和7的扩张卷积层输出通道数皆为CFE模块输入特征图通道数的每个扩张卷积层的输出都经过上采样层得到与卷积层输出相同的尺寸,然后将三个上采样层的输出与卷积层的输出经过串联处理后作为上下文特征提取模块CFE的输出,使用这种金字塔形的扩张卷积网络结构,能够以多尺寸捕捉图像的上下文信息,丰富特征信息
步骤4.2.2、CFE模块的输出与通道注意力模块CA的输入相连,通道注意力模块CA依次包括:第一全连接层、ReLu激活函数、第二全连接层和Sigmoid激活函数;Sigmoid激活函数的输出通过乘法器与通道注意力模块CA的输入相连,具体流程图如图4所示;
步骤4.3、构建U-Net卷积网络结构;
设置U-Net卷积网络是由编码部分和解码部分组成,并包含:2a+1个卷积模块、a个最大池化层、a个卷积核大小为n′×n′的转置卷积层,任意一个卷积模块是由a1对卷积核大小为n×n的卷积层和LeakyReLu激活函数组成;
编码部分是以一个卷积模块和一个最大池化层为一组而构成的a组结构;
解码部分是以一个卷积核大小为n′×n′的转置卷积层和一个卷积模块而构成的a组结构;
编码部分通过一个卷积模块与解码部分相连接;
在本实施例中,a=4;卷积核大小为n×n的卷积层,n=3,卷积步长为1,经过卷积层后,特征图尺寸不变;卷积核大小为n′×n′的转置卷积层,n′=4,卷积步长为2,经过转置卷积层后,特征图尺寸变为转置卷积层输入尺寸的2倍;
步骤4.4、构建改进后的U-Net卷积网络结构;
步骤4.4.1、将U-Net卷积网络的第1个卷积模块的输出连接空间注意力模块SA模块,并将空间注意力模块SA模块的输出与第a个转置卷积的输出串联,第a个转置卷积的输出与第2a+1个卷积模块的输入相连;
步骤4.4.2、定义变量b,并初始化b=2;
步骤4.4.3、将U-Net卷积网络的第b个卷积模块的输出与上下文特征提取模块CFE相连后,再与通道注意力模块CA相连,并通道注意力模块CA的输出与第a-b+1个转置卷积的输出串联,第a-b+1个转置卷积的输出与第2a+2-b个卷积模块的输入相连,其中b∈[2,a];
步骤4.4.4、将b+1赋值给b后,判断b>a是否成立,若成立,则执行步骤4.4.5;否则,返回步骤4.4.3;
步骤4.4.5、在U-Net卷积神经网络的第2a+1个卷积模块后依次添加卷积层conv_last和Sigmoid激活函数;
在本实施例中,改进后的U-Net卷积神经网络如图5所示,底层网络结构一般提取的是低维特征信息,如边缘特征,直接使用原始U-Net卷积神经网络的跳跃连接会对显著性目标的位置预测产生干扰,因此本发明采用了空间注意力的方法,对每一个像素位置赋予不同的权重,以提高预测精度;高层卷积网络提取高层语义特征,小的卷积核感受野较小,提取的信息有限,不能考虑全局特征,因此本发明采用金字塔形的空洞卷积结构来扩大感受野;同时,考虑到每张特征图对显著性目标预测的贡献不一样,本发明采用了通道注意力的方法,给每个通道赋予不同的权重,以提高网络性能。
步骤4.5.1、以第d个光场数据的重聚焦序列Ld中第d个中央视角的子孔径图像Cd作为第一生成器G1的输入,并经过第一生成器G1得到第一输出fake_G1;
步骤4.5.5、判别器由d1个卷积层依次串联而成,以fake_GM×Cd作为判别器的虚假标签,以Gd×Cd作为判别器的真实标签,从而将虚假标签或真实标签输入判别器中,并经过判别器得到对输入标签的判别结果,用来计算对抗损失和更新生成对抗卷积神经网络的参数;
本实施例中,d1=4,表示判别器有4个卷积层依次串联而成,其中卷积核大小都是4,卷积步长依次为2,2,1,1;我们知道显著性目标和其对应场景有着密切的联系,因此我们把fake_G11×Cd和Gd×Cd作为判别器的标签,辅助判别,具体网络结构如图6所示。
步骤4.6、以增强后的光场重聚焦序列集合L′为生成对抗卷积神经网络的输入,以几何变换后的真实显著图集合G′作为标签,由二元交叉熵、对抗损失和L1损失构成损失函数,利用梯度下降算法对所述生成对抗卷积神经网络进行训练,从而得到更新后的生成对抗卷积神经网络,用于实现对光场数据的显著性目标检测。
本发明所使用的光场显著目标检测方法的网络结构如图7所示。生成对抗卷积神经网络在测试时只用到生成器,判别器只在训练集中用到,在测试时不参与。
按照步骤1获得测试集的重聚焦序列图像,将测试集的重聚焦序列图像输入到生成对抗卷积神经网络中,得到测试集的像素类别预测结果。为了更加公平的评价本发明方法中生成对抗卷积神经网络的性能,轮流选择5份数据中的1份作为测试集,余下4份作为训练集,然后取5份测试集的平均评价结果作为最终的性能评价指标。
表1
表1为本发明基于生成对抗网络的光场显著性目标检测方法分别以“F-measure”、“WF-measure”、“MAE”和“S-measure”为评估指标,并利用光场数据集,与当前其他光场显著性目标检测方法的比较结果。“F-measure”是精确率和召回率的加权调和平均,其值越接近于1,表明显著目标检测的效果越好;“WF-measure”是“加权查全率/查准率曲线”度量的统计指标,其值越接近1,表明显著目标检测的效果越好;“MAE”是平均绝对误差,度量的是预测值与真实值的差异,其值越接近于0,表明显著目标检测的效果越好;“S-measure”是度量预测图和真实图之间面向区域和面向物体的结构相似性,其值越接近于1表明显著目标检测的效果越好。根据表1的定量结果可以看出,本发明的方法获得的“F-measure”、“WF-measure”、“MAE”和“S-measure”均高于其他光场显著性目标检测方法。
Claims (1)
1.一种基于生成对抗卷积神经网络的光场显著性目标检测方法,其特征按如下步骤进行:
步骤1、对光场相机获取的光场数据进行解码,得到重聚焦序列数据集记为L=(L1,L2,…,Ld,…,LD),其中,Ld代表第d个光场数据的重聚焦序列,并有:其中,表示第d个光场数据的第m个焦点图,Cd表示第d个光场数据的中央视角图像,和Cd的高度和宽度分别为H和W,m∈[1,M],M表示第d个光场数据的焦点图个数,d∈[1,D],D表示光场数据的数目;
步骤2、对所述第d个光场数据的重聚焦序列Ld进行数据增强,得到第d个光场数据增强后的重聚焦序列图像集合L′d;从而获得所述光场数据集合L中D个光场数据增强后的重聚焦序列集合L′=(L′1,L′2,…,L′d,…,L′D);
步骤3、将所述第d个光场数据的真实显著图记为Gd,对所述第d个光场数据的真实显著图Gd做镜像和旋转处理,得到第d个几何变换后的真实显著图集合G′d;从而得到D个几何变换后的真实显著图集合记为G′=(G′1,G′2,…,G′d,…,G′D);
步骤4、构建由生成器和判别器所组成的生成对抗卷积神经网络;
步骤4.1、构建空间注意力模块SA;
所述空间注意力模块SA包括两个支路,一个支路依次包括:卷积核大小为1×k和k×1的两个卷积层,另一个支路依次包括:卷积核大小为k×1和1×k的两个卷积层;两个支路的输出通过加法器与Sigmoid激活函数相连;所述Sigmoid激活函数的输出通过乘法器与空间注意力模块SA的输入相连;
步骤4.2、构建上下文特征提取模块CFE和通道注意力模块CA;
步骤4.2.1、所述上下文特征提取模块CFE的输入分别与一个卷积层以及三个扩张卷积率分别为c1,c2和c3的扩张卷积层相连,每个所述扩张卷积层的输出均与一个上采样层相连;三个所述上采样层的输出与所述卷积层的输出经过串联处理后作为所述上下文特征提取模块CFE的输出;
步骤4.2.2、所述CFE模块的输出与所述通道注意力模块CA的输入相连,所述通道注意力模块CA依次包括:第一全连接层、ReLu激活函数、第二全连接层和Sigmoid激活函数;所述Sigmoid激活函数的输出通过乘法器与所述通道注意力模块CA的输入相连;
步骤4.3、构建U-Net卷积网络结构;
设置所述U-Net卷积网络是由编码部分和解码部分组成,并包含:2a+1个卷积模块、a个最大池化层、a个卷积核大小为n′×n′的转置卷积层,任意一个卷积模块是由a1对卷积核大小为n×n的卷积层和LeakyReLu激活函数组成;
所述编码部分是以一个卷积模块和一个最大池化层为一组而构成的a组结构;
所述解码部分是以一个卷积核大小为n′×n′的转置卷积层和一个卷积模块而构成的a组结构;
所述编码部分通过一个卷积模块与所述解码部分相连接;
步骤4.4、构建改进后的U-Net卷积网络结构;
步骤4.4.1、将所述U-Net卷积网络的第1个卷积模块的输出连接所述空间注意力模块SA模块,并将所述空间注意力模块SA模块的输出与所述第a个转置卷积的输出串联,所述第a个转置卷积的输出与第2a+1个卷积模块的输入相连;
步骤4.4.2、定义变量b,并初始化b=2;
步骤4.4.3、将所述U-Net卷积网络的第b个卷积模块的输出与所述上下文特征提取模块CFE相连后,再与通道注意力模块CA相连,并所述通道注意力模块CA的输出与第a-b+1个转置卷积的输出串联,所述第a-b+1个转置卷积的输出与第2a+2-b个卷积模块的输入相连,其中b∈[2,a];
步骤4.4.4、将b+1赋值给b后,判断b>a是否成立,若成立,则执行步骤4.4.5;否则,返回步骤4.4.3;
步骤4.4.5、在所述U-Net卷积神经网络的第2a+1个卷积模块后依次添加卷积层conv_last和Sigmoid激活函数;
步骤4.5.1、以所述第d个光场数据的重聚焦序列Ld中第d个中央视角的子孔径图像Cd作为第一生成器G1的输入,并经过所述第一生成器G1得到第一输出fake_G1;
步骤4.5.5、所述判别器由d1个卷积层依次串联而成,以fake_GM×Cd作为判别器的虚假标签,以Gd×Cd作为所述判别器的真实标签,从而将所述虚假标签或真实标签输入所述判别器中,并经过所述判别器得到相应输入标签的判别结果,用于计算对抗损失和更新所述生成对抗卷积神经网络的参数;
步骤4.6、以增强后的光场重聚焦序列集合L′为所述生成对抗卷积神经网络的输入,以几何变换后的真实显著图集合G′作为标签,由二元交叉熵、对抗损失和L1损失构成损失函数,再利用梯度下降算法对所述生成对抗卷积神经网络进行训练,从而得到更新后的生成对抗卷积神经网络,用于实现对光场数据的显著性目标检测。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010136253.7A CN111369522B (zh) | 2020-03-02 | 2020-03-02 | 基于生成对抗卷积神经网络的光场显著性目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010136253.7A CN111369522B (zh) | 2020-03-02 | 2020-03-02 | 基于生成对抗卷积神经网络的光场显著性目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111369522A true CN111369522A (zh) | 2020-07-03 |
CN111369522B CN111369522B (zh) | 2022-03-15 |
Family
ID=71208556
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010136253.7A Active CN111369522B (zh) | 2020-03-02 | 2020-03-02 | 基于生成对抗卷积神经网络的光场显著性目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111369522B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112132790A (zh) * | 2020-09-02 | 2020-12-25 | 西安国际医学中心有限公司 | Dac-gan模型构建方法及在乳腺mr图像中的应用 |
CN112507933A (zh) * | 2020-12-16 | 2021-03-16 | 南开大学 | 基于集中式信息交互的显著性目标检测方法及系统 |
CN113343822A (zh) * | 2021-05-31 | 2021-09-03 | 合肥工业大学 | 一种基于3d卷积的光场显著性目标检测方法 |
CN113362322A (zh) * | 2021-07-16 | 2021-09-07 | 浙江科技学院 | 一种判别辅助和多模态加权融合的显著物体检测方法 |
CN113421334A (zh) * | 2021-07-06 | 2021-09-21 | 山西大学 | 一种基于深度学习的多聚焦图像三维重建方法 |
CN113450313A (zh) * | 2021-06-04 | 2021-09-28 | 电子科技大学 | 一种基于区域对比学习的图像显著性可视化方法 |
CN112132790B (zh) * | 2020-09-02 | 2024-05-14 | 西安国际医学中心有限公司 | Dac-gan模型构建方法及在乳腺mr图像中的应用 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108171701A (zh) * | 2018-01-15 | 2018-06-15 | 复旦大学 | 基于u网络和对抗学习的显著性检测方法 |
CN109344818A (zh) * | 2018-09-28 | 2019-02-15 | 合肥工业大学 | 一种基于深度卷积网络的光场显著目标检测方法 |
CN109829391A (zh) * | 2019-01-10 | 2019-05-31 | 哈尔滨工业大学 | 基于级联卷积网络和对抗学习的显著性目标检测方法 |
US20190188212A1 (en) * | 2016-07-27 | 2019-06-20 | Anomalee Inc. | Prioritized detection and classification of clusters of anomalous samples on high-dimensional continuous and mixed discrete/continuous feature spaces |
CN110503626A (zh) * | 2019-07-09 | 2019-11-26 | 上海交通大学 | 基于空间-语义显著性约束的ct图像模态对齐方法 |
US20200012881A1 (en) * | 2018-07-03 | 2020-01-09 | Irvine Sensors Corporation | Methods and Devices for Cognitive-based Image Data Analytics in Real Time Comprising Saliency-based Training on Specific Objects |
-
2020
- 2020-03-02 CN CN202010136253.7A patent/CN111369522B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190188212A1 (en) * | 2016-07-27 | 2019-06-20 | Anomalee Inc. | Prioritized detection and classification of clusters of anomalous samples on high-dimensional continuous and mixed discrete/continuous feature spaces |
CN108171701A (zh) * | 2018-01-15 | 2018-06-15 | 复旦大学 | 基于u网络和对抗学习的显著性检测方法 |
US20200012881A1 (en) * | 2018-07-03 | 2020-01-09 | Irvine Sensors Corporation | Methods and Devices for Cognitive-based Image Data Analytics in Real Time Comprising Saliency-based Training on Specific Objects |
CN109344818A (zh) * | 2018-09-28 | 2019-02-15 | 合肥工业大学 | 一种基于深度卷积网络的光场显著目标检测方法 |
CN109829391A (zh) * | 2019-01-10 | 2019-05-31 | 哈尔滨工业大学 | 基于级联卷积网络和对抗学习的显著性目标检测方法 |
CN110503626A (zh) * | 2019-07-09 | 2019-11-26 | 上海交通大学 | 基于空间-语义显著性约束的ct图像模态对齐方法 |
Non-Patent Citations (4)
Title |
---|
JUN ZHANG等: "Light Field Saliency Detection with Deep Convolutional Networks", 《ARXIV COMPUTER VISION AND PATTERN RECOGNITION》 * |
NIANYI LI等: "Saliency Detection on Light Field", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 * |
李建伟等: "基于条件生成对抗网络的视频显著性目标检测", 《传感器与微系统》 * |
胡良梅等: "聚焦性检测与彩色信息引导的光场图像深度提取", 《中国图象图形学报》 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112132790A (zh) * | 2020-09-02 | 2020-12-25 | 西安国际医学中心有限公司 | Dac-gan模型构建方法及在乳腺mr图像中的应用 |
CN112132790B (zh) * | 2020-09-02 | 2024-05-14 | 西安国际医学中心有限公司 | Dac-gan模型构建方法及在乳腺mr图像中的应用 |
CN112507933A (zh) * | 2020-12-16 | 2021-03-16 | 南开大学 | 基于集中式信息交互的显著性目标检测方法及系统 |
CN112507933B (zh) * | 2020-12-16 | 2022-09-16 | 南开大学 | 基于集中式信息交互的显著性目标检测方法及系统 |
CN113343822A (zh) * | 2021-05-31 | 2021-09-03 | 合肥工业大学 | 一种基于3d卷积的光场显著性目标检测方法 |
CN113450313A (zh) * | 2021-06-04 | 2021-09-28 | 电子科技大学 | 一种基于区域对比学习的图像显著性可视化方法 |
CN113450313B (zh) * | 2021-06-04 | 2022-03-15 | 电子科技大学 | 一种基于区域对比学习的图像显著性可视化方法 |
CN113421334A (zh) * | 2021-07-06 | 2021-09-21 | 山西大学 | 一种基于深度学习的多聚焦图像三维重建方法 |
CN113421334B (zh) * | 2021-07-06 | 2022-05-20 | 山西大学 | 一种基于深度学习的多聚焦图像三维重建方法 |
CN113362322A (zh) * | 2021-07-16 | 2021-09-07 | 浙江科技学院 | 一种判别辅助和多模态加权融合的显著物体检测方法 |
CN113362322B (zh) * | 2021-07-16 | 2024-04-30 | 浙江科技学院 | 一种判别辅助和多模态加权融合的显著物体检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111369522B (zh) | 2022-03-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111369522B (zh) | 基于生成对抗卷积神经网络的光场显著性目标检测方法 | |
Zhang et al. | Bilateral attention network for RGB-D salient object detection | |
CN111259786B (zh) | 一种基于视频的外观和运动信息同步增强的行人重识别方法 | |
CN110443143B (zh) | 多分支卷积神经网络融合的遥感图像场景分类方法 | |
CN106547880B (zh) | 一种融合地理区域知识的多维度地理场景识别方法 | |
CN111401384B (zh) | 一种变电设备缺陷图像匹配方法 | |
CN109743642B (zh) | 基于分层循环神经网络的视频摘要生成方法 | |
CN113642634A (zh) | 一种基于混合注意力的阴影检测方法 | |
CN111027576B (zh) | 基于协同显著性生成式对抗网络的协同显著性检测方法 | |
CN111797841B (zh) | 一种基于深度残差网络的视觉显著性检测方法 | |
CN112348036A (zh) | 基于轻量化残差学习和反卷积级联的自适应目标检测方法 | |
CN111899203B (zh) | 基于标注图在无监督训练下的真实图像生成方法及存储介质 | |
CN110020658B (zh) | 一种基于多任务深度学习的显著目标检测方法 | |
CN115171165A (zh) | 全局特征与阶梯型局部特征融合的行人重识别方法及装置 | |
CN112149526B (zh) | 一种基于长距离信息融合的车道线检测方法及系统 | |
CN113297988A (zh) | 一种基于域迁移和深度补全的物体姿态估计方法 | |
CN116596966A (zh) | 一种基于注意力和特征融合的分割与跟踪方法 | |
CN110135435B (zh) | 一种基于广度学习系统的显著性检测方法及装置 | |
CN114550014A (zh) | 道路分割方法及计算机装置 | |
CN112329793B (zh) | 基于结构自适应和规模自适应感受野的显著性检测方法 | |
CN111242003B (zh) | 一种基于多尺度受约束自注意机制的视频显著性物体检测的方法 | |
CN112926667A (zh) | 深度融合边缘与高层特征的显著性目标检测方法及装置 | |
CN116895016A (zh) | 一种sar图像船舶目标生成与分类方法 | |
CN116563103A (zh) | 一种基于自适应神经网络的遥感图像时空融合方法 | |
CN116452900A (zh) | 一种基于轻量级神经网络的目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |