CN110689599B - 基于非局部增强的生成对抗网络的3d视觉显著性预测方法 - Google Patents

基于非局部增强的生成对抗网络的3d视觉显著性预测方法 Download PDF

Info

Publication number
CN110689599B
CN110689599B CN201910849986.2A CN201910849986A CN110689599B CN 110689599 B CN110689599 B CN 110689599B CN 201910849986 A CN201910849986 A CN 201910849986A CN 110689599 B CN110689599 B CN 110689599B
Authority
CN
China
Prior art keywords
network
image
saliency
depth
local
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910849986.2A
Other languages
English (en)
Other versions
CN110689599A (zh
Inventor
王永芳
王宇彤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Shanghai for Science and Technology
Original Assignee
University of Shanghai for Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Shanghai for Science and Technology filed Critical University of Shanghai for Science and Technology
Priority to CN201910849986.2A priority Critical patent/CN110689599B/zh
Publication of CN110689599A publication Critical patent/CN110689599A/zh
Application granted granted Critical
Publication of CN110689599B publication Critical patent/CN110689599B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

本发明公开了一种基于非局部增强的生成对抗网络的3D视觉显著性预测方法。具体步骤为:(1)非局部密集增强的编解码器网络生成器:输入是RGB图和深度图,经过网络提取图像的多尺度特征,非局部增强网络可结合局部信息与全局信息和实现特征重用。(2)判别网络:将RGB图、深度图和显著性图作为鉴别器的输入,输出表示输入的图片为人眼显著性的概率。(3)基于非局部增强的生成对抗网络模型训练:在训练过程中,使用双路编码器分别对RGB图像和深度图像分别训练,且深度图像采用迁移训练;采用了多尺度生成损失函数和对抗损失函数联合作为最终损失函数来指导训练。(4)、最后,利用步骤(3)训练好的网络模型进行测试,可得到显著性图。

Description

基于非局部增强的生成对抗网络的3D视觉显著性预测方法
技术领域
本发明涉及一种三维(3D)视觉显著性预测方法,特别是涉及一种基于非局部增强的生成对抗网络的3D视觉显著性预测方法,属于计算机图像处理技术领域,可用于计算机视觉领域中的图像预处理过程。
背景技术
对人类视觉系统来说,它无法同时处理所有的视觉信息,而是选择性地注意到一些重要的信息,以便优先处理,这种视觉信息处理机制是人类视觉系统最重要的特征之一,被称为视觉显著性。对图像进行视觉显著性分析的过程也被称为显著性预测。目前,针对2D场景的显著区域预测,已有大量模型提出,预测结果也越来越准确,这些模型被用于各种视觉处理应用,例如重定目标、质量评估、编码等。近年来,随着立体显示技术的快速发展,3D视频技术在日常生活中越来越受欢迎,3D图像/视频的应用越来越多,如3D视频编码、3D视觉质量评估、3D目标分割等。这些新兴的3D应用增加了3D视觉显著性模型的需求。
现有的3D视觉显著性模型大多是基于2D视觉显著性模型的。基于传统方法的3D视觉注意模型可分为三种:一种是深度加权模型,这类模型在生成3D显著性图时,利用深度信息对2D显著性预测的计算结果进行加权。2010年,Zhang等人提出一种基于多个感知刺激的用于3D视觉注意点检测的立体视觉显著性算法;一种是深度显著性模型,该方法根据深度特征与二维视觉特征分别计算显著性,然后将这些显著性图融合得到最终的三维显著性。2014年,Fang等人提出了一种考虑亮度、颜色、纹理和深度四种不同属性的立体图像显著性计算模型,他们将每个图像分割成块,并将每个块的DCT变换的DC和AC系数作为其对应的特征,生成了几个特征图,并将它们线性组合;还有一种是立体视觉模型,考虑了人类视觉系统中的立体感知机制,将立体图像的左右视图图像作为输入,不需要深度图来检测三维视觉显著性。
由于缺乏对三维视觉感知知识的了解,这些手工提取特征的方法不能有效、准确地从原始图像中提取特征。因此,一些研究者用深度学习的方法研究3D显著性。2016年,Zhang等人采用预训练CNN模型分别生成二维和深度显著性图,然后采用线性融合方法获得了三维图像的最终显著性图。此外,中心偏置机制也被用来增强显著性映射。2018年,Liu等人在其提出的二维视觉注意模型Mr-CNN的基础上,直接将二维图像和深度图像合在一起作为输入,并将输入图像通道从三通道改为四通道。2018年,Anh-Duc Nguyen等人使用了从亮度、颜色和视差信息中提取的七个低级特征图,并将它们集成到两个基于深度学习的图像模型中,用于对失真的3D图像进行显著性预测,大大提高了显著性预测性能。
以上这些方法虽然利用深度学习来生成3D显著性图,但对深度图和彩色中的特征提取不够,并且没有较好的将深度信息和彩色信息进行融合。
发明内容
本发明的目的在于针对上述现有技术存在的不足,提出了一种基于非局部增强的生成对抗网络的3D视觉显著性预测方法,旨在提高3D图像显著性预测的准确率。本发明方法能有效地提高3D图像显著性的客观指标,而且在主观视觉上也有更好的效果。此外,本发明对于卷积神经网络在3D视觉显著性的应用也具有重要的借鉴意义。
为达到上述目的,本发明的采用的技术方案如下:
一种基于非局部增强的生成对抗网络的3D视觉显著性预测方法,包括如下步骤:
步骤1、非局部密集增强的编解码器网络生成器:输入是RGB图和深度图,学习对象是人眼注视数据;经过非局部增强网络提取图像的多尺度特征,非局部增强网络结合局部信息与全局信息和实现特征重用,通过特征融合,使RGB-D输入生成显著性图;
步骤2、判别网络:将RGB图、深度图和显著性图级联一起形成五通道图像,作为鉴别器的输入,输出表示输入的图片为人眼注视图的概率,如果为1,就代表百分之百是人眼注视图,而输出为0,就代表不可能是人眼注视图;
步骤3、基于非局部增强的生成对抗网络模型训练:在训练过程中,使用双路编码器分别对彩色图像和深度图像分别训练,其中深度图像的采用迁移训练;生成网络的任务就是尽可能生成符合实际的显著性图去欺骗判别网络,而判别网络负责把生成网络生成的显著性预测图和人眼注视图分别开来,采用多尺度生成损失函数和对抗损失函数联合作为最终损失函数来指导训练,训练完成后得到3D视觉显著性预测的模型;
步骤4、利用步骤3训练好的网络模型进行测试,输入RGB图和深度图,得到最终的生成显著性图。
本发明方法主要是使用非局部增强的生成对抗网络作为生成器,使用双路编码器分别提取彩色图像和深度的局部信息与全局信息特征,且采用密集连接实现特征重用,同时提出了多尺度损失函数,对不同尺度的显著性预测图计算损失,利用局部损失和全局损失,提高显著性预测精度。该方法分为非局部增强的编解码器网络生成器、判别网络、基于非局部增强的生成对抗网络模型训练三个部分。在非局部增强的编解码网络生成器部分,使用局部连接块有助于结合局部信息与全局信息获得多尺度的特征,密集连接实现了特征重用,也有助于网络的梯度反向传播和收敛。在判别网络部分,使用判别网络将生成网络生成的显著性预测图和人眼注视图分别开来。生成器和判别器构成了一个动态的“博弈过程”。从而得到一个生成式的模型,它用来生成显著性图。
本发明与现有技术相比较,具有如下显而易见的突出实质性特点和显著优点:
1、本发明方法提出非局部增强的生成对抗网络的3D视觉显著性预测方法,该方法提出由非局部连接块和密集连接组成的非局部增强编解码网络作为生成器,非局部连接块有助于结合局部信息与全局信息获得多尺度的特征,密集连接实现了特征重用,也有助于网络的梯度反向传播和收敛。相比于127MB的VGG16生成器参数文件,该网络使生成器模型的参数文件降到4MB,实现了网络轻量化。
2、本发明方法提出了多尺度损失函数,对不同尺度的显著性预测图计算损失,同时利用局部损失和全局损失,提高显著性预测精度
3、本发明方法使用双路编码器分别提取彩色图像特征和深度特征,并用彩色特征提取网络的权重来初始化深度特征提取网络参数的方法来解决三维视觉显著数据集小的问题,提高了三维显著性预测的精度。
附图说明
图1为本发明非局部增强的生成对抗网络的3D视觉显著性预测方法的网络结构框图。
图2为基于非局部增强的生成器框架图。
图3各模型预测3D图像的显著性预测主观结果图对比,第一行为RGB图,第二行为对应深度图,第三行为相应的人眼注视点图(ground truth),第四到第十行分别为SalGAN、NedMlGAN(提出二维视觉模型无深度信息)、提出三维视觉模型、GBVS模型、Itti模型、Fang模型以及Salcovar模型。
具体实施方式
本发明的优选实施例结合附图详述如下:
本实施例的非局部增强的生成对抗网络的3D视觉显著性预测网络结构如图1所示。在Ubuntu 16.04,PyTorch环境下编程仿真实现本方法。
本方法具体包括如下步骤:
步骤1、非局部密集增强的编解码器网络生成器:输入是RGB图和深度图,学习对象是人眼注视数据。经过非局部增强网络提取图像的多尺度特征,非局部密集增强网络助于结合局部信息与全局信息和实现特征重用,通过特征融合,使RGB-D输入生成显著性图。
使用一个非局部密集增强的编解码器网络作为生成器,非局部连接块有助于结合局部信息与全局信息,密集连接实现了特征重用,有助于网络的梯度反向传播和收敛,如图2所示。
使用两个卷积层来提取输入二维图像的浅特征。第一个卷积层为:卷积核3×3,步长为1,填充为1,输出F0第一个浅特征提取,尺寸与原图像尺寸相同,深度为64。接下来,将浅特征F0送到第二个卷积层以获得浅特征F1。如图2所示,将浅层特征F0与靠近整个网络出口的层连接起来,这样它们实现了促进梯度反向传播和像素预测的残差学习。然后使用绕过中间层的远程跳过连接,将第一个8×8非局部增强密集块(Non-local Enhanced DenseBlock,NEDB)输出,特征F2,特征F3都和之后的编码器网络层连接起来,这种跳过连接可以提供远程信息补偿,使得原始像素值和低级别特征激活在整个架构的最后仍然可用。通过最大池化层和最大上池化操作,中间特征激活的空间大小在编码阶段逐渐减小,在解码阶段逐渐增大。因此,由于NEDB中的非局部操作需要计算特征激活图每两个空间位置之间的成对关系,当空间维数变大时,计算量急剧增加。为了解决这一问题,并在不同空间分辨率的特征激活之间构建更灵活的非局部增强,所以在构建编码和解码层时采用了多尺度的非局部操作。具体来说,对于空间分辨率最低的特征激活(如图2中的F4),后续的NEDB直接作用于整个特征激活图,实现全局非局部增强。对于空间分辨率较高的特征激活,首先将其划分为区域网格(如图2所示,k×k NEDB表示在执行区域非局部操作之前如何划分输入特征图)。例如F1被划分为一个8×8的网格,然后让后续的NEDB在每个区域内进行特征激活。因此,这种区域级的非局部增强能够防止由于直接处理高分辨率的特征激活而导致不可接受的计算消耗。另一方面,与传统的局部卷积运算相比,区域级非局部增强能够检索到长期的结构线索。
步骤2、判别网络:将RGB图、深度图和显著性图级联一起形成五通道图像,作为鉴别器的输入,输出表示输入的图像为人眼注视图的概率,如果为1,就代表百分之百是人眼注视图,而输出为0,就代表不可能是人眼注视图。
判别器能准确的把生成的图片和真实的图片分类,将图像和显著性图输入判别器,当使用生成的对抗性网络生成符合实际的图像时,则输出1,否则对生成的图片输出0。在对生成函数参数进行更新时,损失函数结合了判别器的误差和交叉熵对人眼注视点图的影响,提高了反向训练的稳定性和收敛速度。本发明的判别器网络由卷积层、池化层和最后的全连接层组成,卷积层都使用ReLU激活,而完全连接的层使用tanh激活,只有最后一层使用sigmoid激活,其网络框架如表1所示。
表1鉴别器网络框架设计
Figure BDA0002196560950000041
Figure BDA0002196560950000051
步骤3、基于非局部增强的生成对抗网络模型训练:在训练过程中,使用双路编码器分别对彩色图像和深度图像分别训练,其中深度图像的采用迁移训练;生成网络的任务就是尽可能生成符合实际的显著性图去欺骗判别网络,而判别网络负责把生成网络生成的显著性预测图和人眼注视图分别开来,采用多尺度生成损失函数和对抗损失函数联合作为最终损失函数来指导训练,训练完成后得到3D视觉显著性预测的模型。具体步骤如下:
3.1深度图像的迁移训练:由于没有足够的深度训练数据,因此无法完全调整整个网络;首先迁移训练好的RGB编码器网络的参数初始化深度编码器网络,因为两个特征提取编码器的任务是相似的,所以会达到比较好的效果;另外,网络的浅层主要提取边缘特征,而RGB图像和深度图像所表现的边缘特征有很大不同,比如对与无结构的边缘主要依靠颜色区分,对于无纹理的边缘主要依靠结构深度区分;所以选择从浅层开始对深度特征编码器进行微调。
3.2多尺度生成损失函数和对抗损失函数联合:针对多尺度损失,从不同的解码器层中提取特征,如图2所示,提取编码器第一个最大上池化层的输出F5和第二个最大上池化层的输出F6,以及最后的生成器输出,形成不同大小的输出。提出多尺度损失函数为:
Figure BDA0002196560950000052
其中Si表示从解码器层提取的第i个输出,Ti表示具有与Si相同尺度的人眼注视点图(ground truth),M为尺度的个数,λ是不同尺度的权重,把更多的权重放在更大的尺度上,具体地说,使用F5、F6以及生成器最终的输出,它们的尺寸分别为原来尺寸的1/4、1/2、1。λ设置为0.6、0.8、1。其中LBCE(Si,Ti)为内容损失函数,采用二进制交叉熵损失函数,即所有像素上的二进制交叉熵的平均值,其中N为总像素值,其计算公式为:
Figure BDA0002196560950000053
步骤4、利用步骤3训练好的网络模型进行测试,输入RGB图和深度图,就得到最终的生成显著性图。
为了验证所提出的三维视觉注意模型的性能,在NUS3D-Saliency[1]、NCTU-3DFixation[2]和3D Gaze[3]三个数据集上对模型性能进行评估。本实验的环境是Ubuntu16.04操作系统下的PyTorch平台,内存为16GB,GPU为GeForce 1080。采用了AUC-J,AUC-B,线性相关系数(CC)、Kullback-Leibler散度(KL)和相似度评分(SIM)五个显著性评价指标来评测性能。图3为各模型预测3D图像的显著性预测主观结果图对比,第一行为RGB图,第二行为其对应深度图,第三行为相应的人眼注视点图(ground truth),第四到第十行分别为SalGAN、NedMlGAN(提出二维视觉模型无深度信息)、提出三维视觉模型、GBVS模型、Itti模型、Fang模型以及Salcovar模型。
对三维图像进行显著性预测的结果,CTU-3DFIXED[1]的测试结果如表2所示,NUS3D-Saliency[2]和3D Gaze[3]的测试结果分别如表3,表4所示,由于这两个数据集只提供了高斯模糊过的三维人眼注视点图数据,没有提供相应的点图,所以只采用了CC、KL和SIM三个显著性评价指标。其中SalGAN为[4]中的模型,NedMlGAN是本文在[4]基础上改进的二维视觉注意模型,GBVS是文献[5]中提出的二维视觉注意模型,Itti是文献[6]中的对比二维视觉注意模型,Fang是文献[7]中提出的三维视觉注意模型,Salcovar是文献[8]中提出的三维视觉注意模型。
表2:各模型在CTU-3DFIXED数据集上的测试结果
Figure BDA0002196560950000061
表3:各模型在NUS3D-Saliency数据集上的测试结果
Figure BDA0002196560950000062
表4:各模型在3D Gaze数据集上的测试结果
Figure BDA0002196560950000071
其中,实验结果最好的两个算法用字体加粗表示。由上述实验可见,本发明方法在3D视觉注意模型上确实有较好的鲁棒性和精确性,并且计算复杂度低,能更好地适用于实时视频质量监控。
参考文献:
[1]Chih-Yao M,Hsueh-Ming H.Learning-based saliency model with depthinformation[J].Journal of Vision,2015,15(6):19.
[2]Lang C,Nguyen T V,Katti H,et al.Depth matters:influence of depthcues on visual saliency[C].European Conference on Computer Vision,2012,101-115
[3]Wang J,Dasilva M P,Lecallet P,et al.Computational Model ofStereoscopic 3D Visual Saliency[J].IEEE Transactions on Image Processing,2013,22(6):2151-2165.
[4]Pan J,Ferrer C C,Mcguinness K,et al.SalGAN:Visual SaliencyPrediction with Generative Adversarial Networks[J].arXiv.2017.
[5]Harel J,Koch C,Perona P.Graph-Based Visual Saliency[C],Advances inNeural Information Processing Systems 19,Proceedings of the Twentieth AnnualConference on Neural Information Processing Systems,Vancouver,BritishColumbia,Canada,December 4-7,2006.MIT Press,2006.
[6]tti L,Koch C,Niebur E.A model of saliency-based visual attentionfor rapid scene analysis.IEEE Trans.Pattern Anal.Mach.Intell,1998,20(11):1254–1259
[7]Fang Y,Lin W,Fang Z,et al.Learning visual saliency forstereoscopic images[C].2014IEEE International Conference on Multimedia andExpo Workshops(ICMEW).IEEE Computer Society,2014.
[8]Erdem E,Erdem A.Visual saliency estimation by nonlinearlyintegrating features using region covariances[J].Journal of Vision,2013,13(4):11-11.

Claims (2)

1.一种基于非局部增强的生成对抗网络的3D视觉显著性预测方法,其特征在于,包括如下步骤:
步骤1、非局部密集增强的编解码器网络生成器:输入是RGB图和深度图,学习对象是人眼注视数据;经过非局部增强网络提取图像的多尺度特征,非局部增强网络结合局部信息与全局信息实现特征重用,通过特征融合,使RGB-D输入生成显著性图;
步骤2、判别网络:将RGB图、深度图和显著性图级联一起形成五通道图像,作为鉴别器的输入,输出表示输入的图片为人眼注视图的概率,如果为1,就代表百分之百是人眼注视图,而输出为0,就代表不可能是人眼注视图;
步骤3、基于非局部增强的生成对抗网络模型训练:在训练过程中,使用双路编码器分别对RGB图和深度图像分别训练,其中深度图像采用迁移训练;生成网络的任务就是尽可能生成符合实际的显著性图去欺骗判别网络,而判别网络负责把生成网络生成的显著性预测图和人眼注视图分别开来,采用多尺度生成损失函数和对抗损失函数联合作为最终损失函数来指导训练,训练完成后得到3D视觉显著性预测的模型;
步骤4、利用步骤3训练好的网络模型进行测试,输入RGB图和深度图,得到最终的生成显著性图;
所述步骤1中的多尺度特征提取,具体步骤如下:
第一个卷积层为:卷积核3×3,步长为1,填充为1,输出F0第一个浅特征提取,尺寸与原图像尺寸相同,深度为64;将浅特征F0送到第二个卷积层以获得浅特征F1,将浅层特征F0与靠近整个网络出口的层连接起来,实现促进梯度反向传播和像素预测的残差学习;然后使用绕过中间层的远程跳过连接,将第一个8×8非局部增强密集块输出;特征F2,特征F3都和之后的编码器网络层连接起来,这种跳过连接提供远程信息补偿,使得原始像素值和低级别特征激活在整个架构的最后仍然可用;通过最大池化层和最大上池化操作,中间特征激活的空间大小在编码阶段逐渐减小,在解码阶段逐渐增大;同时构建编码和解码层时采用了多尺度的非局部操作,这样也实现了多尺度特征的提取;
所述步骤3中的深度图像的迁移训练及多尺度生成损失函数和对抗损失函数联合作为最终损失函数,具体步骤如下:
3.1深度图像的迁移训练:由于没有足够的深度训练数据,因此无法完全调整整个网络;首先迁移训练好的RGB编码器网络的参数初始化深度编码器网络,因为两个特征提取编码器的任务是相同的,所以会达到效果;另外,网络的浅层提取边缘特征,而RGB图像和深度图像所表现的边缘特征不同,对与无结构的边缘主要依靠颜色区分,对于无纹理的边缘主要依靠结构深度区分;所以选择从浅层开始对深度特征编码器进行微调;
3.2多尺度生成损失函数和对抗损失函数联合:针对多尺度损失,从不同的解码器层中提取特征,提取编码器第一个最大上池化层的输出F5和第二个最大上池化层的输出F6,以及最后的生成器输出,形成不同大小的输出,提出的多尺度损失函数为:
Figure FDA0004086300740000021
其中Si表示从解码器层提取的第i个输出,Ti表示具有与Si相同尺度的人眼注视点图,M为尺度的个数,λ是不同尺度的权重,把更多的权重放在更大的尺度上,具体地说,使用F5、F6以及生成器最终的输出,它们的尺寸分别为原来尺寸的1/4、1/2、1,λ设置为0.6、0.8、1;
Figure FDA0004086300740000022
其中LBCE(Si,Ti)为内容损失函数,采用二进制交叉熵损失函数,即所有像素上的二进制交叉熵的平均值,其中N为总像素值。
2.根据权利要求1所述的基于非局部增强的生成对抗网络的3D视觉显著性预测方法,其特征在于,所述步骤2中的判别网络,具体步骤如下:
判别网络由卷积层、池化层和最后的全连接层组成,卷积层都使用ReLU激活,而完全连接的层使用tanh激活,只有最后一层使用sigmoid激活。
CN201910849986.2A 2019-09-10 2019-09-10 基于非局部增强的生成对抗网络的3d视觉显著性预测方法 Active CN110689599B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910849986.2A CN110689599B (zh) 2019-09-10 2019-09-10 基于非局部增强的生成对抗网络的3d视觉显著性预测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910849986.2A CN110689599B (zh) 2019-09-10 2019-09-10 基于非局部增强的生成对抗网络的3d视觉显著性预测方法

Publications (2)

Publication Number Publication Date
CN110689599A CN110689599A (zh) 2020-01-14
CN110689599B true CN110689599B (zh) 2023-05-19

Family

ID=69108026

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910849986.2A Active CN110689599B (zh) 2019-09-10 2019-09-10 基于非局部增强的生成对抗网络的3d视觉显著性预测方法

Country Status (1)

Country Link
CN (1) CN110689599B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111369548B (zh) * 2020-03-10 2023-06-06 江南大学 一种基于生成对抗网络的无参考视频质量评价方法及装置
CN111476133B (zh) * 2020-03-30 2021-06-01 杭州电子科技大学 面向无人驾驶的前背景编解码器网络目标提取方法
CN112085716B (zh) * 2020-09-04 2022-06-07 厦门大学 一种基于时阈聚焦图网络的nafld超声视频分类方法
CN112651940B (zh) * 2020-12-25 2021-09-17 郑州轻工业大学 基于双编码器生成式对抗网络的协同视觉显著性检测方法
CN113313169B (zh) * 2021-05-28 2022-10-11 中国人民解放军战略支援部队航天工程大学 基于深度学习的训练素材智能识别方法、装置和设备
CN113343822B (zh) * 2021-05-31 2022-08-19 合肥工业大学 一种基于3d卷积的光场显著性目标检测方法
CN113658051B (zh) * 2021-06-25 2023-10-13 南京邮电大学 一种基于循环生成对抗网络的图像去雾方法及系统
CN113869229B (zh) * 2021-09-29 2023-05-09 电子科技大学 基于先验注意力机制引导的深度学习表情识别方法
CN114187380B (zh) * 2022-02-17 2022-05-31 杭州并坚科技有限公司 基于视觉显著性和通道注意力机制的色彩传递方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106845471A (zh) * 2017-02-20 2017-06-13 深圳市唯特视科技有限公司 一种基于生成对抗网络的视觉显著性预测方法
CN107346436A (zh) * 2017-06-29 2017-11-14 北京以萨技术股份有限公司 一种融合图像分类的视觉显著性检测方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106845471A (zh) * 2017-02-20 2017-06-13 深圳市唯特视科技有限公司 一种基于生成对抗网络的视觉显著性预测方法
CN107346436A (zh) * 2017-06-29 2017-11-14 北京以萨技术股份有限公司 一种融合图像分类的视觉显著性检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于区域协方差矩阵融合深度的显著性检测方法;郑一欢 等;《工业控制计算机》;20180930;第31卷(第9期);全文 *

Also Published As

Publication number Publication date
CN110689599A (zh) 2020-01-14

Similar Documents

Publication Publication Date Title
CN110689599B (zh) 基于非局部增强的生成对抗网络的3d视觉显著性预测方法
CN111798400B (zh) 基于生成对抗网络的无参考低光照图像增强方法及系统
CN111784602B (zh) 一种生成对抗网络用于图像修复的方法
CN108345892B (zh) 一种立体图像显著性的检测方法、装置、设备及存储介质
CN110175986B (zh) 一种基于卷积神经网络的立体图像视觉显著性检测方法
Zhou et al. Omnidirectional image quality assessment by distortion discrimination assisted multi-stream network
CN109816011A (zh) 生成人像分割模型的方法和视频关键帧提取方法
CA3137297C (en) Adaptive convolutions in neural networks
CN110866509A (zh) 动作识别方法、装置、计算机存储介质和计算机设备
CN111242181B (zh) 基于图像语义和细节的rgb-d显著性物体检测器
CN112396645A (zh) 一种基于卷积残差学习的单目图像深度估计方法和系统
CN111047543A (zh) 图像增强方法、装置和存储介质
CN114170286B (zh) 一种基于无监督深度学习的单目深度估计方法
CN115619743A (zh) Oled新型显示器件表面缺陷检测模型的构建方法及其应用
CN111833360B (zh) 一种图像处理方法、装置、设备以及计算机可读存储介质
CN113850900A (zh) 三维重建中基于图像和几何线索恢复深度图的方法及系统
CN108388901B (zh) 基于空间-语义通道的协同显著目标检测方法
CN114943876A (zh) 一种多级语义融合的云和云影检测方法、设备及存储介质
CN116205962A (zh) 基于完整上下文信息的单目深度估计方法及系统
CN116258756B (zh) 一种自监督单目深度估计方法及系统
CN112818774A (zh) 一种活体检测方法及装置
CN112348762A (zh) 一种基于多尺度融合生成对抗网络的单幅图像去雨方法
CN116993987A (zh) 一种基于轻量级神经网络模型的图像语义分割方法及系统
Sharma et al. A novel 3d-unet deep learning framework based on high-dimensional bilateral grid for edge consistent single image depth estimation
CN116977683A (zh) 对象识别方法、装置、计算机设备、存储介质和程序产品

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant