CN108171701A - 基于u网络和对抗学习的显著性检测方法 - Google Patents

基于u网络和对抗学习的显著性检测方法 Download PDF

Info

Publication number
CN108171701A
CN108171701A CN201810036637.4A CN201810036637A CN108171701A CN 108171701 A CN108171701 A CN 108171701A CN 201810036637 A CN201810036637 A CN 201810036637A CN 108171701 A CN108171701 A CN 108171701A
Authority
CN
China
Prior art keywords
constructed
output
loss function
networks
follows
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810036637.4A
Other languages
English (en)
Other versions
CN108171701B (zh
Inventor
路红
姚泽平
杨博弘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fudan University
Original Assignee
Fudan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fudan University filed Critical Fudan University
Priority to CN201810036637.4A priority Critical patent/CN108171701B/zh
Publication of CN108171701A publication Critical patent/CN108171701A/zh
Application granted granted Critical
Publication of CN108171701B publication Critical patent/CN108171701B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Quality & Reliability (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于计算机数字图像处理技术领域,具体为一种基于U网络和对抗学习的显著性检测方法。本发明步骤为:构建深度神经网络:神经网络整体设计基于对抗生成网络,包含生成器与鉴别器,生成器在结构上使用了自编码器结构与跳跃连接,主要由编码器和译码器组成,编码器是由编码模块组成,编码模块使用了堆叠的残差模块,译码器主要由解码器组成,也使用了堆叠的残差模块;训练深度神经网络:使用公开的、真实场景下的显著性图像数据集,利用多尺度的图像内容损失函数与对抗损失函数,训练前一步中构建的深度神经网络;利用训练好的网络模型,对自然图像进行检测,再将得到的结果进行后处理,得到最终的结果。本发明方法能够提高显著性检测的准确性。

Description

基于U网络和对抗学习的显著性检测方法
技术领域
本发明属于计算机数字图像处理技术领域,具体涉及一种基于U网络和对抗学习显的著性检测方法。
背景技术
随着数字图像处理技术的不断发展,图像显著性检测被广泛应用到图像压缩,图像分类,目标识别,图像分割等多个领域。
目前计算机在处理复杂场景的图像时,需要耗费大量的时间和计算能力,如果能够模仿人类的视觉注意力机制,像人眼一样不受复杂背景影响而准确快速地确定场景中的显著区域或目标,并进行优先处理,舍弃非显著区域,可有效地提高图像处理的效率和准确性。根据人类的视觉特点,视觉显著性主要可以分成三类:一类是基于数据驱动、独立于具体任务,自底向上的显著检测;一类是受意识支配,依赖于具体任务,自顶向下的显著检测;一类是前两类的结合。显著性源于视觉的独特性、不可预测性,这是由颜色、亮度、边界、梯度、纹理等图像属性所致,由于缺乏高层知识,大多数算法都是属于自底向上的显著检测。
尽管目前的自底向上的显著性检测算法取得了不错的效果,但仍存在几个问题需要解决。首先,这些方法利用图像颜色,亮度,边界,梯度,纹理等底层特征属性来决定图像某个区域和它周围的对比度,虽然现有的大部分的图像显著度方法一般容易检测到目标,但是集中在图像的边缘上,难以均匀的高亮整个显著目标。其次,就是因为不知道目标的大小和位置,所以需要大量的重复计算对整幅图像进行搜索。最后,在背景比较复杂的情况下,依赖于低层次特征的视觉信息,容易丢失感兴趣目标的信息,从而对结果产生影响。本发明通过设计深度神经网络来提取高级视觉信号提高显著性检测的准确性。
发明内容
本发明的目的在于克服以上技术中的缺陷,提供一种高效的、准确的显著性检测方法。
本发明提出的显著性检测方法,是一种基于U网络和对抗学习的显著性检测的方法,其具体步骤如下:
(1)构建深度神经网络;
(2)训练深度神经网络;
(3)利用训练好的网络模型进行显著性检测;
(4)利用全连接的条件随机场进行后处理。
步骤(1)所述的构建深度神经网络,具体过程如下:
(11)构造生成器,其具体步骤如下:
(111)构造编码模块:包含6个编码块,每个编码块由顺序连接的3个残差块和最大池化组成,其具体步骤如下:
(1111)构造残差块,其具体步骤如下:
(11111)定义卷积层,每个卷积层的卷积核大小都为3×3,步长都为1;
(11112)定义批标准化层;
(11113)定义非激活函数;
(11114)将卷积层,批标准化层,非激活函数顺序连接,再加上残差连接组成残差块
(1112)构造最大池化层;
(1113)将残差块和最大池化层顺序堆叠起来组成编码块;
(1114)将6个编码块顺序连接起来;
(1115)每个编码块输出的特征映射通道数从16开始,不断翻倍,直至最后一个编码块变为1024,即为16,32,64,128,256,512,1024;
(112)构造中部模块:包含1个中部块,每个中部块由顺序连接的2个残差块组成,其具体步骤如下:
(1121)构造残差块,构造方法和步骤(1111)相同;
(1122)将两个相同的残差块顺序连接起来;
(113)构造解码模块:包含6个解码块,每个解码块由顺序连接的通道连接,2个残差块和双线性升采样组成,其具体步骤如下:
(1131)构造通道连接层;
(1132)构造残差块,构造方法和步骤(1111)相同;
(1133)构造双线性采样层;
(1134)将上述三者顺序连接起来组成解码块;
(1135)将6个解码快顺序连接起来
(1136)将每个编码块的输出作为输出传到对应的解码块,利用通道连接层进行连接;
(114)构造多尺度输出模块,包含3个卷积层,其具体步骤如下:
(1141)定义3个卷积层;每个卷积层的卷积核大小都为3×3,步长都为1,输出的特征映射通道数为64,64,1;
(1142)将3个卷积层顺序连接;
(1143)将输出模块连接到在最后两个解码块;
(12)构造鉴别器,其具体过程如下:
(121)定义7个卷积层;第一个卷积层的卷积核大小是3×3,步长是1,输出的特征映射通道数是3;第二个卷积层的卷积核大小是1×1,步长是1,输出的特征映射通道数是32;第三个卷积层的卷积核大小是5×5,步长是2,输出的特征映射通道数是32;第四到七个卷积层是一样的,每个卷积层的卷积核大小都为5×5,步长都为2,输出的特征映射通道数是64;每一个卷积层后连接一个非线性激活层;
(122)定义3个线性全连接层,前面两个的输出维度都是32,最后一个是1,每一层后都连接一个非线性激活层;
(123)将之前定义的卷积层和全连接层顺序连接起来。
步骤(2)所述的训练深度神经网络,具体过程如下:
(21)构造损失函数,具体过程如下:
(211)构造生成器的交叉熵损失函数,损失函数为Lg损失函数,具体形式为:
其中S,G分别表示输出结果与标签,n表示图像中的元素总数,θ表示网络的参数;
(212)构造生成器的多尺度函数Lcon,具体形式为:
分别表示三个尺度的交叉熵损失函数;
(213)构造鉴别器的对抗损失函数,具体形式为:
其中,G表示的是标签信息,I表示的是输入图像,S表示的是预测结果;
(22)使用公开的、自然场景下的图像数据集,训练构造好的神经网络,其具体过程如下:
(221)获取公开的、真实场景下的图像数据集;
(222)计算鉴别器的对抗损失函数,训练一轮鉴别器;
(223)计算图像内容损失函数与生成器的对抗损失函数,训练一轮生成器;
(224)不断重复步骤(222)与步骤(223),直至模型收敛。
(3)利用训练好的网络模型进行图像显著性检测。
(4)利用全连接的条件随机场进行后处理,得到最终的结果。
与现有技术相比,本发明的有益效果为:
1、本发明提出了一个新颖的基于U网络和对抗学习的显著性检测方法,提升了显著性检测的效果;
2、本发明提出的基于U网络和对抗学习的显著性检测的方法效果更好;
3、本发明有助于图像显著检测被应用于实际场景中,如应用于图像压缩,目标检测等。
附图说明
图1为本发明的基于U网络和对抗学习的显著性检测方法的流程图。
图2为生成器的网络结构。
图3为编码块的网络结构。
图4为残差块的网络结构。
图5为中间块的网络结构。
图6为解码块的网络结构。
图7为多尺度输出模块的网络结构。
图8为鉴别器的网络结构。
图9为输入图像。
图10为网络输出图像。
图11为后处理结果。
具体实施方式
(1)构建深度神经网络;
(2)训练深度神经网络;
(3)利用训练好的网络模型进行显著性检测;
(4)利用全连接的条件随机场进行后处理。
上述步骤(1)所述的构建深度神经网络,具体过程如下:
(11)如图2所示,构造生成器,其具体步骤如下:
(111)如图3所示构造编码模块:包含6个编码块,每个编码块由顺序连接的3个残差块和最大池化组成,其具体步骤如下:
(1111)如图4所示,构造残差块,其具体步骤如下:
(11111)定义卷积层,每个卷积层的卷积核大小都为3×3,步长都为1;
(11112)定义批标准化层;
(11113)定义非激活函数;
(11114)将卷积层,批标准化层,非激活函数顺序连接,再加上残差连接组成残差块
(1112)构造最大池化层;
(1113)将残差块和最大池化层顺序堆叠起来组成编码块;
(1114)将6个编码块顺序连接起来;
(1115)每个编码块输出的特征映射通道数从16开始,不断翻倍,直至最后一个编码块变为1024,即为16,32,64,128,256,512,1024;
(112)如图5所示,构造中部模块:包含1个中部块,每个中部块由顺序连接的2个残差块组成,其具体步骤如下:
(1121)构造残差块,构造方法和步骤(1111)相同;
(1122)将两个相同的残差块顺序连接起来;
(113)如图6所示,构造解码模块:包含6个解码块,每个解码块由顺序连接的通道连接,2个残差块和双线性升采样组成,其具体步骤如下:
(1131)构造通道连接层;
(1132)构造残差块,构造方法和步骤(1111)相同;
(1133)构造双线性采样层;
(1134)将上述三者顺序连接起来组成解码块;
(1135)将6个解码快顺序连接起来
(1136)将每个编码块的输出作为输出传到对应的解码块,利用通道连接层进行连接;
(114)如图7所示,构造多尺度输出模块,包含3个卷积层,其具体步骤如下:
(1141)定义3个卷积层。每个卷积层的卷积核大小都为3×3,步长都为1,输出的特征映射通道数为64,64,1;
(1142)将3个卷积层顺序连接;
(1143)将输出模块连接到在最后两个解码块;
(12)如图8所示,构造鉴别器,其具体过程如下:
(121)定义7个卷积层。第一个卷积层的卷积核大小是1×1,步长是1,输出的特征映射通道数是3。第二个卷积层的卷积核大小是3×3,步长是1,输出的特征映射通道数是32。第三个卷积层的卷积核大小是5×5,步长是2,输出的特征映射通道数是32。第四到七个卷积层是一样的,每个卷积层的卷积核大小都为5×5,步长都为2,输出的特征映射通道数是64。每一个卷积层后连接一个非线性激活层;
(122)定义3个线性全连接层,前面两个的输出维度都是32,最后一个是1,每一层后都连接一个非线性激活层;
(123)将之前定义的卷积层和全连接层顺序连接起来。
步骤(2)所述的训练深度神经网络,具体过程如下:
(21)构造损失函数,具体过程如下:
(211)构造生成器的交叉熵损失函数,损失函数为Lg损失函数,具体形式为:
其中S,G分别表示输出结果与标签,n表示图像中的元素总数,θ表示网络的参数;
(212)构造生成器的多尺度函数Lcon,具体形式为:
分别表示三个尺度的交叉熵损失函数;
(213)构造鉴别器的对抗损失函数,具体形式为:
其中G表示的是标签信息,I表示的是输入图像,S表示的是预测结果;
(22)使用公开的、自然场景下的图像数据集,训练构造好的神经网络,具体过程为:
(221)获取公开的、真实场景下的图像数据集;
(222)计算鉴别器的对抗损失函数,训练一轮鉴别器;
(223)计算图像内容损失函数与生成器的对抗损失函数,训练一轮生成器;
(224)不断重复步骤(222)与(223),直至模型收敛。
(3)利用训练好的网络模型进行图像显著性检测,图9是输入图像,图10是输出结果。
(4)利用全连接的条件随机场进行后处理,得到最终的结果,如图11所示。

Claims (10)

1.一种基于U网络和对抗学习的显著性检测方法,其特征在于,具体步骤如下:
(1)构建深度神经网络;
(2)训练深度神经网络;
(3)利用训练好的网络模型进行显著性检测;
(4)利用全连接的条件随机场进行后处理;
其中:
步骤(1)所述的构建深度神经网络,具体过程如下:
(11)构造生成器;
(12)构造鉴别器;
步骤(2)所述的训练深度神经网络,具体过程如下:
(21)构造损失函数;
(22)使用公开的、自然场景下的图像数据集,训练构造好的神经网络。
2.根据权利要求1所述的基于U网络和对抗学习的显著性检测方法,其特征在于,步骤(11)中所述构造生成器,其具体过程如下:
(111)构造编码模块:包含6个编码块,每个编码块由顺序连接的3个残差块和最大池化组成;
(112)构造中部模块:包含1个中部块,每个中部块由顺序连接的2个残差块组成;
(113)构造解码模块:包含6个解码块,每个解码块由顺序连接的通道连接,2个残差块和双线性升采样组成;
(114)构造多尺度输出模块,包含3个卷积层。
3.根据权利要求2所述的基于U网络和对抗学习显著性检测方法,其特征在于,步骤(111)中所述构造编码模块,其具体过程如下:
(1111)构造残差块;
(1112)构造最大池化层;
(1113)将残差块和最大池化层顺序堆叠起来组成编码块;
(1114)将6个编码块顺序连接起来;
(1115)、每个编码块输出的特征映射通道数从16开始,不断翻倍,直至最后一个编码块变为1024,即为16,32,64,128,256,512,1024。
4.根据权利要求3所述的基于U网络和对抗学习显著性检测方法,其特征在于,步骤(1111)中所述构造残差块,其具体过程如下:
(11111)定义卷积层,每个卷积层的卷积核大小都为3×3,步长都为1;
(11112)定义批标准化层;
(11113)定义非激活函数;
(11114)将卷积层,批标准化层,非激活函数顺序连接,再加上残差连接组成残差块。
5.根据权利要求2所述的基于U网络和对抗学习显著性检测方法,其特征在于,步骤(112)中所述构造中部模块,其具体过程如下:
(1121)构造残差块,构造方法和步骤(1111)相同;
(1122)将两个相同的残差块顺序连接起来。
6.根据权利要求2所述的基于U网络和对抗学习显著性检测方法,其特征在于,步骤(113)中所述构造解码模块,其具体过程如下:
(1131)构造通道连接层;
(1132)构造残差块,构造方法和步骤(1111)相同;
(1133)构造双线性采样层;
(1134)将上述三者顺序连接起来组成解码块;
(1135)将6个解码快顺序连接起来
(1136)将每个编码块的输出作为输出传到对应的解码块,利用通道连接层进行连接。
7.根据权利要求2所述的基于U网络和对抗学习显著性检测方法,其特征在于,步骤(114)中所述构造多尺度输出模块,其具体过程如下:
(1141)定义3个卷积层;每个卷积层的卷积核大小都为3×3,步长都为1,输出的特征映射通道数为64,64,1;
(1142)将3个卷积层顺序连接;
(1143)将输出模块连接到在最后两个解码块。
8.根据权利要求1所述的基于U网络和对抗学习显著性检测方法,其特征在于,步骤(12)中所述构造鉴别器;其具体过程如下:
(121)定义7个卷积层;第一个卷积层的卷积核大小是3×3,步长是1,输出的特征映射通道数是3;第二个卷积层的卷积核大小是1×1,步长是1,输出的特征映射通道数是32;第三个卷积层的卷积核大小是5×5,步长是2,输出的特征映射通道数是32;第四到七个卷积层是一样的,每个卷积层的卷积核大小都为5×5,步长都为2,输出的特征映射通道数是64;每一个卷积层后连接一个非线性激活层;
(122)定义3个线性全连接层,前面两个的输出维度都是32,最后一个是1,每一层后都连接一个非线性激活层;
(123)将之前定义的卷积层和全连接层顺序连接起来。
9.根据权利要求1所述的基于U网络和对抗学习显著性检测方法,其特征在于,步骤(21)中所述构造损失函数,其具体过程如下:
(211)构造生成器的交叉熵损失函数,损失函数为Lg损失函数,具体形式为:
其中,S,G分别表示输出结果与标签,n表示图像中的元素总数,θ表示网络的参数;
(212)构造生成器的多尺度函数Lcon,具体形式为:
Lcon=Lg1+Lg2+Lg3
分别表示三个尺度的交叉熵损失函数;
(213)构造鉴别器的对抗损失函数,具体形式为:
其中,G表示的是标签信息,I表示的是输入图像,S表示的是预测结果。
10.根据权利要求1所述的基于U网络和对抗学习显著性检测方法,其特征在于,步骤(22)中所述使用公开的、真实场景下的图像数据集,训练构造好的神经网络,其具体过程如下:
(221)获取公开的、真实场景下的图像数据集;
(222)计算鉴别器的对抗损失函数,训练一轮鉴别器;
(223)计算图像内容损失函数与生成器的对抗损失函数,训练一轮生成器;
(224)不断重复步骤(222)与步骤(223),直至模型收敛。
CN201810036637.4A 2018-01-15 2018-01-15 基于u网络和对抗学习的显著性检测方法 Active CN108171701B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810036637.4A CN108171701B (zh) 2018-01-15 2018-01-15 基于u网络和对抗学习的显著性检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810036637.4A CN108171701B (zh) 2018-01-15 2018-01-15 基于u网络和对抗学习的显著性检测方法

Publications (2)

Publication Number Publication Date
CN108171701A true CN108171701A (zh) 2018-06-15
CN108171701B CN108171701B (zh) 2021-06-22

Family

ID=62514381

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810036637.4A Active CN108171701B (zh) 2018-01-15 2018-01-15 基于u网络和对抗学习的显著性检测方法

Country Status (1)

Country Link
CN (1) CN108171701B (zh)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109102798A (zh) * 2018-06-29 2018-12-28 厦门快商通信息技术有限公司 一种装修事件检测方法、装置、计算机设备及介质
CN109191426A (zh) * 2018-07-24 2019-01-11 江南大学 一种平面图像显著性检测方法
CN109242097A (zh) * 2018-07-12 2019-01-18 上海交通大学 无监督学习的视觉表示学习系统及方法
CN109359519A (zh) * 2018-09-04 2019-02-19 杭州电子科技大学 一种基于深度学习的视频异常行为检测方法
CN109360191A (zh) * 2018-09-25 2019-02-19 南京大学 一种基于变分自编码器的图像显著性检测方法
CN109559287A (zh) * 2018-11-20 2019-04-02 北京工业大学 一种基于DenseNet生成对抗网络的语义图像修复方法
CN109635882A (zh) * 2019-01-23 2019-04-16 福州大学 一种基于多尺度卷积特征提取和融合的显著物体检测方法
CN109712207A (zh) * 2018-11-24 2019-05-03 天津大学 V-Net深度成像方法
CN109829391A (zh) * 2019-01-10 2019-05-31 哈尔滨工业大学 基于级联卷积网络和对抗学习的显著性目标检测方法
CN111325318A (zh) * 2019-02-01 2020-06-23 北京地平线机器人技术研发有限公司 神经网络的训练方法、神经网络的训练装置和电子设备
CN111369522A (zh) * 2020-03-02 2020-07-03 合肥工业大学 基于生成对抗卷积神经网络的光场显著性目标检测方法
CN111461295A (zh) * 2020-03-20 2020-07-28 南京理工大学 基于多尺度生成对抗神经网络的单帧条纹分析方法
CN111680702A (zh) * 2020-05-28 2020-09-18 杭州电子科技大学 一种使用检测框实现弱监督图像显著性检测的方法
CN112085017A (zh) * 2020-08-04 2020-12-15 中南民族大学 基于显著性检测和Grabcut算法的茶叶嫩芽图像分割方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106845471A (zh) * 2017-02-20 2017-06-13 深圳市唯特视科技有限公司 一种基于生成对抗网络的视觉显著性预测方法
CN107085716A (zh) * 2017-05-24 2017-08-22 复旦大学 基于多任务生成对抗网络的跨视角步态识别方法
CN107330364A (zh) * 2017-05-27 2017-11-07 上海交通大学 一种基于cGAN网络的人群计数方法及系统
CN107346436A (zh) * 2017-06-29 2017-11-14 北京以萨技术股份有限公司 一种融合图像分类的视觉显著性检测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106845471A (zh) * 2017-02-20 2017-06-13 深圳市唯特视科技有限公司 一种基于生成对抗网络的视觉显著性预测方法
CN107085716A (zh) * 2017-05-24 2017-08-22 复旦大学 基于多任务生成对抗网络的跨视角步态识别方法
CN107330364A (zh) * 2017-05-27 2017-11-07 上海交通大学 一种基于cGAN网络的人群计数方法及系统
CN107346436A (zh) * 2017-06-29 2017-11-14 北京以萨技术股份有限公司 一种融合图像分类的视觉显著性检测方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
HONG LU等: "《Leveraging Composition of Object Regions for Aesthetic Assessment of Photographs》", 《ADVANCES IN MULTIMEDIA INFORMATION PROCESSING》 *
王坤峰等: "《生成式对抗网络GAN的研究进展与展望》", 《自动化学报》 *
雷杰等: "《深度网络模型压缩综述》", 《深度网络模型压缩综述》 *

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109102798A (zh) * 2018-06-29 2018-12-28 厦门快商通信息技术有限公司 一种装修事件检测方法、装置、计算机设备及介质
CN109242097A (zh) * 2018-07-12 2019-01-18 上海交通大学 无监督学习的视觉表示学习系统及方法
CN109191426A (zh) * 2018-07-24 2019-01-11 江南大学 一种平面图像显著性检测方法
CN109359519A (zh) * 2018-09-04 2019-02-19 杭州电子科技大学 一种基于深度学习的视频异常行为检测方法
CN109360191B (zh) * 2018-09-25 2020-06-12 南京大学 一种基于变分自编码器的图像显著性检测方法
CN109360191A (zh) * 2018-09-25 2019-02-19 南京大学 一种基于变分自编码器的图像显著性检测方法
CN109559287A (zh) * 2018-11-20 2019-04-02 北京工业大学 一种基于DenseNet生成对抗网络的语义图像修复方法
CN109712207A (zh) * 2018-11-24 2019-05-03 天津大学 V-Net深度成像方法
CN109712207B (zh) * 2018-11-24 2023-04-07 天津大学 V-Net深度成像方法
CN109829391A (zh) * 2019-01-10 2019-05-31 哈尔滨工业大学 基于级联卷积网络和对抗学习的显著性目标检测方法
CN109829391B (zh) * 2019-01-10 2023-04-07 哈尔滨工业大学 基于级联卷积网络和对抗学习的显著性目标检测方法
CN109635882A (zh) * 2019-01-23 2019-04-16 福州大学 一种基于多尺度卷积特征提取和融合的显著物体检测方法
CN109635882B (zh) * 2019-01-23 2022-05-13 福州大学 一种基于多尺度卷积特征提取和融合的显著物体检测方法
CN111325318A (zh) * 2019-02-01 2020-06-23 北京地平线机器人技术研发有限公司 神经网络的训练方法、神经网络的训练装置和电子设备
CN111325318B (zh) * 2019-02-01 2023-11-24 北京地平线机器人技术研发有限公司 神经网络的训练方法、神经网络的训练装置和电子设备
CN111369522B (zh) * 2020-03-02 2022-03-15 合肥工业大学 基于生成对抗卷积神经网络的光场显著性目标检测方法
CN111369522A (zh) * 2020-03-02 2020-07-03 合肥工业大学 基于生成对抗卷积神经网络的光场显著性目标检测方法
CN111461295B (zh) * 2020-03-20 2022-08-16 南京理工大学 基于多尺度生成对抗神经网络的单帧条纹分析方法
CN111461295A (zh) * 2020-03-20 2020-07-28 南京理工大学 基于多尺度生成对抗神经网络的单帧条纹分析方法
CN111680702A (zh) * 2020-05-28 2020-09-18 杭州电子科技大学 一种使用检测框实现弱监督图像显著性检测的方法
CN112085017A (zh) * 2020-08-04 2020-12-15 中南民族大学 基于显著性检测和Grabcut算法的茶叶嫩芽图像分割方法
CN112085017B (zh) * 2020-08-04 2023-11-21 中南民族大学 基于显著性检测和Grabcut算法的茶叶嫩芽图像分割方法

Also Published As

Publication number Publication date
CN108171701B (zh) 2021-06-22

Similar Documents

Publication Publication Date Title
CN108171701A (zh) 基于u网络和对抗学习的显著性检测方法
CN109543606B (zh) 一种加入注意力机制的人脸识别方法
CN109934200B (zh) 一种基于改进M-Net的RGB彩色遥感图像云检测方法及系统
CN111612807B (zh) 一种基于尺度和边缘信息的小目标图像分割方法
CN110689599B (zh) 基于非局部增强的生成对抗网络的3d视觉显著性预测方法
CN113850825A (zh) 基于上下文信息和多尺度特征融合的遥感图像道路分割方法
CN113642390B (zh) 一种基于局部注意力网络的街景图像语义分割方法
CN107944437B (zh) 一种基于神经网络和积分图像的人脸定位方法
CN107480649A (zh) 一种基于全卷积神经网络的指纹汗孔提取方法
CN107220643A (zh) 基于紧凑型神经网络的深度学习模型的交通标志识别系统
CN107967474A (zh) 一种基于卷积神经网络的海面目标显著性检测方法
US20220315243A1 (en) Method for identification and recognition of aircraft take-off and landing runway based on pspnet network
CN112365434A (zh) 一种基于双掩膜图像分割的无人机狭窄通道检测方法
CN114022408A (zh) 基于多尺度卷积神经网络的遥感图像云检测方法
CN106780546A (zh) 基于卷积神经网络的运动模糊编码点的身份识别方法
CN115984850A (zh) 基于改进Deeplabv3+的轻量级遥感影像语义分割方法
CN109063549A (zh) 基于深度神经网络的高分辨率航拍视频运动目标检测方法
CN111739037B (zh) 一种针对室内场景rgb-d图像的语义分割方法
CN110020658A (zh) 一种基于多任务深度学习的显著目标检测方法
CN111291818B (zh) 一种面向云掩膜的非均匀类别的样本均衡化方法
CN113420619A (zh) 一种遥感影像建筑物提取方法
CN113627257A (zh) 检测方法、检测系统、设备和存储介质
CN115861756A (zh) 基于级联组合网络的大地背景小目标识别方法
CN107392211A (zh) 基于视觉稀疏认知的显著目标检测方法
CN116206112A (zh) 基于多尺度特征融合和sam的遥感图像语义分割方法

Legal Events

Date Code Title Description
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant