CN110246093A - 一种解码图像增强方法 - Google Patents
一种解码图像增强方法 Download PDFInfo
- Publication number
- CN110246093A CN110246093A CN201910368561.XA CN201910368561A CN110246093A CN 110246093 A CN110246093 A CN 110246093A CN 201910368561 A CN201910368561 A CN 201910368561A CN 110246093 A CN110246093 A CN 110246093A
- Authority
- CN
- China
- Prior art keywords
- image
- fidelity
- layer
- texture
- edge
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 27
- 230000002708 enhancing effect Effects 0.000 claims abstract description 18
- 238000013461 design Methods 0.000 claims abstract description 8
- 230000006870 function Effects 0.000 claims description 33
- 238000012549 training Methods 0.000 claims description 19
- 238000013527 convolutional neural network Methods 0.000 claims description 16
- 239000011159 matrix material Substances 0.000 claims description 10
- 238000013135 deep learning Methods 0.000 claims description 5
- 239000011248 coating agent Substances 0.000 claims description 3
- 238000000576 coating method Methods 0.000 claims description 3
- 239000004744 fabric Substances 0.000 claims 1
- 230000005540 biological transmission Effects 0.000 abstract description 4
- 230000003044 adaptive effect Effects 0.000 abstract description 2
- 230000010354 integration Effects 0.000 abstract 1
- 238000013528 artificial neural network Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 4
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000013139 quantization Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000000903 blocking effect Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 241000209202 Bromus secalinus Species 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000003014 reinforcing effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000005303 weighing Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration using histogram techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种解码图像增强方法,主要解决当前解码增强图像算法没有充分考虑人眼对图像不同区域的视觉和传输需求,无法达到纹理主观质量和边缘信号保真的平衡问题。该方法根据纹理区域和边缘区域的不同特性,分别设计基于边缘区域的解码增强方法和基于纹理区域的解码增强方法得到基础保真层和纹理增强层,然后使用区域自适应融合技术将基础保真层和纹理增强层进行自适应融合,从而得到纹理主观质量和边缘信号保真的平衡,更好地对解码图像进行增强,提高用户的主观体验和信号的保真传输。
Description
技术领域
本发明涉及图像处理技术领域,且特别涉及一种基于深度神经网络的图像解码增强系统,属于解码图像重建技术。
背景技术
国际上普遍采用有损编码标准对图像和视频进行编码压缩和传输。具体来说,图像编码标准如JPEG、视频编码标准如HEVC均采用基于块的编码压缩框架:将每帧图像划分成独立的编码块,变换到变换域,通过对变换域系数采取量化的方式减少变换域系数,从而降低码流。这种量化编码的方式一方面决定了码流的大小,另外一方面也直接影响到了图像的重构质量。采用较大的量化步长,虽然会带来极低的码流,但是同时会引入严重的模糊,振荡以及块效应等,使解码图像的质量大大降低,严重影响到用户的视觉观感体验。
为了减少量化噪声对解码图像的影响,研究人员提出了一系列后处理的解码图像增强技术。传统的解码图像利用滤波、稀疏字典学习、变换等方式来进行增强。随着深度神经网络技术的发展,卷积神经网络(convolutional neural network,CNN)在解码图像增强中取得了远远高于传统方法的效果。2015年,Dong等人利用卷积神经网络实现了JPEG解码图像增强利用四层的卷积层进行学习,得到了超越传统方法的最好水平的增强解码图像。Svoboda等人提出利用更深的卷积神经网络来进行训练,可以得到更好的增强效果。但是这类方法只使用像素级别的均方误差作为训练网络的损失函数,图像的每个像素被赋予同样的处理方式而并没有考虑局部的特性,因此这类方法在纹理等区域的恢复重建中比较平滑,导致纹理区域的主观质量不理想。
近两年,深度对抗生成网络(generative adversarial network,GAN)在图像生成方面取得了非常大的突破。对抗生成网络由两个网络构成,一个网络是生成器(generator),利用噪声来生成图像;另外一个网络是鉴别器(discriminator),判断生成的图像和真实的图像的真和假。鉴别器的目标函数是尽可能判别出生成图像和真实图像的真假,生成器的目标函数是尽可能生成接近真实图像。利用对抗训练的方式,从而达到纳什平衡,当鉴别器也无法对真实图像和生成图像进行很好地判别,此时生成器可以生成出欺骗判别器的图像的非常逼真的图像。现有使用对抗生成网络的主要思路是利用生成器对解码图像进行增强,同时引入鉴别器来判断增强的解码图像和原始图像的真和假。通过对抗训练的方式来进行训练,利用鉴别器去指导生成器的增强,当鉴别器无法判断出解码图像和原始图像的真和假时,我们认为此时产生的增强图像对于人眼视觉来说足够真实,此时能产生比较丰富的纹理。有些工作也考虑加入边缘先验来引导对抗生成网络的生成。尽管如此,由于使用对抗生成网络重建出来的纹理不是像素级别的一致,因此得到的解码增强图像的客观质量非常低,特别是在边缘等结构性较强的区域。
综上所示,现有的技术都没有充分考虑到人眼对图像不同区域(即边缘和纹理)的视觉特性,无法达到主观质量和客观质量的平衡。
发明内容
本发明的目的是通过以下技术方案实现的。
本发明的目的是为了对解码图像进行更符合人眼视觉特性从而达到主观质量和信号保真度平衡的重建方式,提出的一种基于混合深度神经网络的区域自适应重建系统,对边缘区域和纹理区域按照其不同的特性分别进行增强重建。本发明提出的系统,既能够对解码增强图像恢复出主观质量较好的纹理,又能达到比较好的重建图像的峰值信噪比和结构相似度,特别是对边缘区域的信号能够得到较好的保真。
为达到上述目的,本发明的构思是:通过将边缘先验融入到卷积神经网络重建出信号保真度特别是边缘保真度较好的基础保真层,利用深度对抗生成神经网络得到有丰富纹理区域的纹理增强层,根据区域自适应掩模将纹理增强层的纹理转换到基础保真层,使重建的解码图像既能有丰富的纹理又能达到有较高信号保真度的边缘。
根据上述构思,本发明采用如下技术方案:
根据本发明的第一个方面,提供了一种解码图像增强方法,包括如下步骤:收集具有不同内容特性的原始图像,对原始图像使用标准图像或视频编码器进行压缩得到解码后的图像,将解码后的图像和原始图像形成图像对从而建立训练集;将所述训练集输入基础保真层卷积网络,得到基础保真层;将所述训练集输入纹理增强层对抗网络,得到纹理增强层;在所述基础保真层上计算每一个像素的局部区域的梯度直方图,根据所述梯度直方图得到区域自适应掩模;通过所述区域自适应掩模将所述基础保真层和纹理增强层进行融合得到最终的重建图像。
优选的,所述方法进一步包括:从所述原始图像提取边缘先验,将边缘先验与预测的边缘特征求最小均方误差得到边缘保真损失函数,利用边缘保真损失函数和信号保真损失函数对所述基础保真层卷积网络进行训练;利用局部纹理匹配损失函数,与对抗损失函数、特征保真损失函数共同构造的纹理损失函数对纹理增强层对抗网络进行训练。
优选的,根据深度学习算法设计残差卷积模块构成基础保真层卷积网络,在基础保真层卷积网络的预测分支中分为两个子分支,一个是包括特征的预测分支,另外一个是对边缘的预测分支。
优选的,从原始图像中利用边缘提取算子Sobel提取出边缘特征作为边缘先验。
优选的,根据深度学习算法设计残差卷积模块构成生成器卷积网络和鉴别器卷积网络。
优选的,所述生成器卷积网络和鉴别器卷积网络之间使用所述对抗损失函数进行训练。
优选的,利用预训练的VGG-19卷积神经网络的深度卷积特征,将增强的图像和原始图像投射到第四层池化层,得到最小均方误差,作为所述特征保真损失函数。
优选的,利用预训练的VGG-19卷积神经网络的ReLu-1,Relu-2和Relu-3的激活层的特征,求得对应特征的格拉姆矩阵;分别求得增强图像和原始图像的格拉姆矩阵的对应值;计算局部块大小等于预设数值的对应区域的格拉姆矩阵的最小均方误差值从而得到所述局部纹理匹配损失函数。
优选的,如果所述像素局部区域的梯度方向直方图分布个数超过设定的阈值,则认为该像素属于纹理区域,否则属于其他区域。
本发明的优点在于:本发明与现有技术相比能够得到比仅使用深度卷积神经网络重建的更好的纹理主观质量,同时又能够达到比仅使用深度对抗神经网络重建的更好的边缘信号峰值信噪比、峰值信噪比和结构相似度,从而达到视觉主观质量和信号保真度平衡的解码图像增强图像。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1为本发明实施例提供的混合深度神经网络的区域自适应解码增强的系统框图;
图2为本发明实施例提供的区域自适应掩模生成示意图;
图3为本发明实例生成的在Urban100中的解码增强图像边缘细节对比图;
图4为本发明实例生成的在BSDS500验证集中的解码增强图像纹理细节对比图;
图5为本发明实例生成的在LIVE1中的解码增强图像纹理细节对比图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施方式。虽然附图中显示了本公开的示例性实施方式,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施方式所限制。相反,提供这些实施方式是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
本发明实施例公开了一种解码图像增强方法及系统,目的在于解决当前利用深度学习的解码增强方法中并没有考虑人眼对不同区域的视觉特性和传输需求,从而无法达到纹理主观质量和边缘信号保真的平衡问题。单纯使用卷积神经网络的算法虽然可以得到较高的保真度,但是纹理区域非常平滑,主观效果不理想。使用深度对抗生成网络的算法可以得到主观质量较好的纹理区域,但是客观质量诸如峰值信号噪声比等指标很低,边缘区域的保真度较低。
本发明的系统针对不同区域的特性,设计如下方法:一、训练边缘区域设计边缘先验约束的深度卷积神经网络,得到边缘保真度高的基本保真层;二、训练由对抗损失、预训练的神经网络特征引导的特征最小均方误差和局部纹理匹配的特征格拉姆矩阵的最小均方误差约束的深度对抗生成网络,得到纹理区域丰富的纹理增强层;三、根据图像像素的邻域区域计算梯度直方图,根据梯度直方图的分布情况,得到该像素的结构复杂度,通过像素的结构复杂度判断是属于边缘还是纹理区域;四、具体对基本保真层的每个像素依次计算结构复杂度,并与设定阈值进行比较,得到区域自适应掩模。五、根据区域自适应融合的方式将基本保真层和纹理增强层进行自适应融合得到最终的解码增强图像。
本实施方式的混合深度神经网络的区域自适应解码增强方法如图1所示,具体实施方式的详细步骤为:
步骤一、训练数据集的建立:使用挑选的2060张滑铁卢勘探数据库(waterlooexploration database)图片使用Matlab JPEG编码器使用压缩质量(Quality Factor,QF=10)进行压缩,得到解码图像,将解码图像和原始图像组成图像对作为训练集,本实例直接使用RGB三个通道进行训练。
步骤二、基础保真层网络(对应图1中的边缘卷积神经网络)的建立:根据深度学习算法设计残差卷积模块构成卷积网络,在卷积网络的预测分支中分为两个子分支,一个包括特征的预测分支(特征数量为63个),另外一个是对边缘的预测分支。从原始图像中利用边缘提取算子Sobel提取出边缘特征作为边缘先验,将边缘先验与预测的边缘特征求最小均方误差从而得到边缘保真损失。利用边缘保真损失和信号保真损失函数对基础保真层卷积网络进行训练。
步骤三、纹理增强层网络(对应图1中的纹理深度对抗生成网络)的建立:根据深度学习算法设计残差卷积模块构成生成器卷积网络和鉴别器卷积网络。训练网络的损失函数包括以下几项:
对抗损失函数:生成器和鉴别器之间使用对抗损失函数进行训练。
特征保真损失函数:利用预训练的VGG-19卷积神经网络的深度卷积特征,将增强的图像和原始图像投射到第四层池化层,得到最小均方误差,作为特征保真损失函数。
局部纹理匹配损失函数:利用预训练的VGG-19卷积神经网络的ReLu-1,Relu-2和Relu-3的激活层的特征,求得对应特征的格拉姆矩阵。分别求得增强图像和原始图像的格拉姆矩阵的对应值。为了达到局部的纹理的相似性,计算局部块(Patch size)大小等于预设数值P(P可以根据实际情况进行选择,优选16)的对应区域的格拉姆矩阵的最小均方误差值从而得到局部纹理匹配损失函数。
使用对抗损失函数、特征保真损失函数和局部纹理匹配损失函数对纹理增强层网络的生成器进行训练。
步骤四、根据步骤二和步骤三训练好的模型可以分别得到基础保真层和纹理增强层。
步骤五、区域自适应掩模的导出:基于步骤四得到的基础保真层网络得到的基础保真层图像,如图2所示,使用方向复杂度计算模块计算每一个像素的局部区域的梯度直方图。使用梯度直方图的分布个数作为区域复杂度的值。当区域复杂度的值超过设定的阈值T,则认为该像素属于纹理区域,否则属于其他区域。根据此得到区域自适应掩模。
步骤六、利用步骤五得到的区域自适应掩模将步骤四得到的基础保真层和纹理增强层进行融合得到最终的解码增强图像。
本实施方式效果:
下面在LIVE1和BSDS500的验证集这两个数据集进行实验来评估本发明所提出的混合深度神经网络的区域自适应解码图像增强系统。这两个数据集均包含自然图像。评价的标准主要是比较重建的主观质量和客观质量。表一比较峰值信噪比(Peak Signal toNoise Ratio,PSNR)、块效应-峰值信噪比(PSNR-B)和结构相似性系数(StructuralSimilarity Index,SSIM)等三种客观值的情况。黑色字体表示本发明提出的方法能够比较好的保持客观的质量。
表1
表2通过提取边缘区域计算边缘区域的峰值信噪比得到E-PSNR(dB),进一步验证边缘的保真度。
表2
图3表示Urban100数据集中边缘的保真情况,图4-5表示的是BSDS500和LIVE1数据集纹理的生成情况。由上述实验可知,本发明方法既可以生成主观质量较好的纹理区域,也可以保持边缘的保真度。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
Claims (9)
1.一种解码图像增强方法,其特征在于,包括如下步骤:
收集具有不同内容特性的原始图像,对原始图像使用标准图像或视频编码器进行压缩得到解码后的图像,将解码后的图像和原始图像形成图像对从而建立训练集;
将所述训练集输入基础保真层卷积网络,得到基础保真层;
将所述训练集输入纹理增强层对抗网络,得到纹理增强层;
在所述基础保真层上计算每一个像素的局部区域的梯度直方图,根据所述梯度直方图得到区域自适应掩模;
通过所述区域自适应掩模将所述基础保真层和纹理增强层进行融合得到最终的重建图像。
2.根据权利要求1所述的方法,其特征在于,进一步包括:
从所述原始图像提取边缘先验,将边缘先验与预测的边缘特征求最小均方误差得到边缘保真损失函数,利用边缘保真损失函数和信号保真损失函数对所述基础保真层卷积网络进行训练;
利用局部纹理匹配损失函数,与对抗损失函数、特征保真损失函数共同构造的纹理损失函数对纹理增强层对抗网络进行训练。
3.根据权利要求2所述方法,其特征在于,根据深度学习算法设计残差卷积模块构成基础保真层卷积网络,在基础保真层卷积网络的预测分支中分为两个子分支,一个是包括特征的预测分支,另外一个是对边缘的预测分支。
4.根据权利要求3所述方法,其特征在于,从原始图像中利用边缘提取算子Sobel提取出边缘特征作为边缘先验。
5.根据权利要求1所述方法,其特征在于,根据深度学习算法设计残差卷积模块构成生成器卷积网络和鉴别器卷积网络。
6.根据权利要求5所述方法,其特征在于,所述生成器卷积网络和鉴别器卷积网络之间使用所述对抗损失函数进行训练。
7.根据权利要求2所述方法,其特征在于,利用预训练的VGG-19卷积神经网络的深度卷积特征,将增强的图像和原始图像投射到第四层池化层,得到最小均方误差,作为所述特征保真损失函数。
8.根据权利要求2所述方法,其特征在于,利用预训练的VGG-19卷积神经网络的ReLu-1,Relu-2和Relu-3的激活层的特征,求得对应特征的格拉姆矩阵;分别求得增强图像和原始图像的格拉姆矩阵的对应值;计算局部块大小等于预设数值的对应区域的格拉姆矩阵的最小均方误差值从而得到所述局部纹理匹配损失函数。
9.根据权利要求1所述方法,其特征在于,如果所述像素局部区域的梯度方向直方图分布个数超过设定的阈值,则认为该像素属于纹理区域,否则属于其他区域。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910368561.XA CN110246093B (zh) | 2019-05-05 | 2019-05-05 | 一种解码图像增强方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910368561.XA CN110246093B (zh) | 2019-05-05 | 2019-05-05 | 一种解码图像增强方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110246093A true CN110246093A (zh) | 2019-09-17 |
CN110246093B CN110246093B (zh) | 2021-05-04 |
Family
ID=67883645
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910368561.XA Active CN110246093B (zh) | 2019-05-05 | 2019-05-05 | 一种解码图像增强方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110246093B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112233047A (zh) * | 2020-12-10 | 2021-01-15 | 北京沃东天骏信息技术有限公司 | 一种图像处理方法、装置、设备和计算机可读存储介质 |
CN112291479A (zh) * | 2020-11-23 | 2021-01-29 | Oppo(重庆)智能科技有限公司 | 图像处理模组、图像处理方法、摄像头组件及移动终端 |
WO2023103715A1 (zh) * | 2021-12-10 | 2023-06-15 | 华为技术有限公司 | 图像处理方法、装置及电子设备 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101079949A (zh) * | 2006-02-07 | 2007-11-28 | 索尼株式会社 | 图像处理设备和方法、记录介质以及程序 |
CN101272488A (zh) * | 2007-03-23 | 2008-09-24 | 展讯通信(上海)有限公司 | 降低lcd显示运动模糊的视频解码方法和装置 |
CN102959957A (zh) * | 2010-07-06 | 2013-03-06 | 皇家飞利浦电子股份有限公司 | 在多视图视频编码中从低动态范围图像生成高动态范围图像 |
JP2014082729A (ja) * | 2012-09-28 | 2014-05-08 | Sharp Corp | 画像復号装置、および画像符号化装置 |
CN107633538A (zh) * | 2016-07-18 | 2018-01-26 | 想象技术有限公司 | Mip映射压缩 |
CN109191402A (zh) * | 2018-09-03 | 2019-01-11 | 武汉大学 | 基于对抗生成神经网络的图像修复方法和系统 |
CN109345490A (zh) * | 2018-11-20 | 2019-02-15 | 湖南快乐阳光互动娱乐传媒有限公司 | 一种移动播放端实时视频画质增强方法及系统 |
CN109460708A (zh) * | 2018-10-09 | 2019-03-12 | 东南大学 | 一种基于生成对抗网络的林火图像样本生成方法 |
CN109615582A (zh) * | 2018-11-30 | 2019-04-12 | 北京工业大学 | 一种基于属性描述生成对抗网络的人脸图像超分辨率重建方法 |
CN109671022A (zh) * | 2019-01-22 | 2019-04-23 | 北京理工大学 | 一种基于深度特征翻译网络的图片纹理增强超分辨率方法 |
-
2019
- 2019-05-05 CN CN201910368561.XA patent/CN110246093B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101079949A (zh) * | 2006-02-07 | 2007-11-28 | 索尼株式会社 | 图像处理设备和方法、记录介质以及程序 |
CN101272488A (zh) * | 2007-03-23 | 2008-09-24 | 展讯通信(上海)有限公司 | 降低lcd显示运动模糊的视频解码方法和装置 |
CN102959957A (zh) * | 2010-07-06 | 2013-03-06 | 皇家飞利浦电子股份有限公司 | 在多视图视频编码中从低动态范围图像生成高动态范围图像 |
JP2014082729A (ja) * | 2012-09-28 | 2014-05-08 | Sharp Corp | 画像復号装置、および画像符号化装置 |
CN107633538A (zh) * | 2016-07-18 | 2018-01-26 | 想象技术有限公司 | Mip映射压缩 |
CN109191402A (zh) * | 2018-09-03 | 2019-01-11 | 武汉大学 | 基于对抗生成神经网络的图像修复方法和系统 |
CN109460708A (zh) * | 2018-10-09 | 2019-03-12 | 东南大学 | 一种基于生成对抗网络的林火图像样本生成方法 |
CN109345490A (zh) * | 2018-11-20 | 2019-02-15 | 湖南快乐阳光互动娱乐传媒有限公司 | 一种移动播放端实时视频画质增强方法及系统 |
CN109615582A (zh) * | 2018-11-30 | 2019-04-12 | 北京工业大学 | 一种基于属性描述生成对抗网络的人脸图像超分辨率重建方法 |
CN109671022A (zh) * | 2019-01-22 | 2019-04-23 | 北京理工大学 | 一种基于深度特征翻译网络的图片纹理增强超分辨率方法 |
Non-Patent Citations (4)
Title |
---|
HADI KAZEMI等: ""Style and Content Disentanglement in Generative Adversarial Networks"", 《2019 IEEE WINTER CONFERENCE ON APPLICATIONS OF COMPUTER VISION (WACV)》 * |
MEHDI S. M. SAJJADI等: ""EnhanceNet: Single Image Super-Resolution Through Automated Texture Synthesis"", 《2017 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION (ICCV)》 * |
QI MAO等: ""Enhanced Image Decoding via Edge-Preserving Generative Adversarial Networks"", 《2018 IEEE INTERNATIONAL CONFERENCE ON MULTIMEDIA AND EXPO (ICME)》 * |
王树亮等: ""图像压缩与JPEG2000"", 《江苏理工学院学报》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112291479A (zh) * | 2020-11-23 | 2021-01-29 | Oppo(重庆)智能科技有限公司 | 图像处理模组、图像处理方法、摄像头组件及移动终端 |
CN112233047A (zh) * | 2020-12-10 | 2021-01-15 | 北京沃东天骏信息技术有限公司 | 一种图像处理方法、装置、设备和计算机可读存储介质 |
WO2023103715A1 (zh) * | 2021-12-10 | 2023-06-15 | 华为技术有限公司 | 图像处理方法、装置及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN110246093B (zh) | 2021-05-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110443768B (zh) | 基于多重一致性约束的单帧图像超分辨率重建方法 | |
CN110290387A (zh) | 一种基于生成模型的图像压缩方法 | |
Zhang et al. | Image information restoration based on long-range correlation | |
CN113516601B (zh) | 基于深度卷积神经网络与压缩感知的图像恢复方法 | |
CN110246093A (zh) | 一种解码图像增强方法 | |
CN103458242B (zh) | 基于颜色分类与聚类的图像压缩方法 | |
CN110139109A (zh) | 图像的编码方法及相应终端 | |
CN111784619A (zh) | 一种红外和可见光图像的融合方法 | |
CN109120937A (zh) | 一种视频编码方法、解码方法、装置及电子设备 | |
CN103379326B (zh) | 基于roi和jnd的视频编码方法及装置 | |
CN110290386B (zh) | 一种基于生成对抗网络的低码率人体运动视频编码系统及方法 | |
CN112785661B (zh) | 基于融合感知损失的深度语义分割图像压缩方法及系统 | |
CN111031315B (zh) | 基于注意力机制和时间依赖性的压缩视频质量增强方法 | |
CN108347612A (zh) | 一种基于视觉注意机制的监控视频压缩与重构方法 | |
CN111667406B (zh) | 一种基于时域相关性的视频图像超分辨率重建方法 | |
CN117292244A (zh) | 一种基于多层卷积的红外与可见光图像融合方法 | |
CN105894507A (zh) | 基于图像信息量自然场景统计特征的图像质量评价方法 | |
CN101841726B (zh) | 一种立体视频非对称编码方法 | |
CN117750015A (zh) | 一种基于时域特征增强的神经表示视频压缩方法 | |
CN117522674A (zh) | 一种联合局部和全局信息的图像重建系统及方法 | |
CN114549673B (zh) | 一种基于学习频域信息预处理图像的图像压缩方法 | |
CN114189695B (zh) | 一种基于gan的hevc压缩视频视觉感知提升方法 | |
CN116524387A (zh) | 一种基于深度学习网络的超高清视频压缩损伤等级评估方法 | |
Xie et al. | Just noticeable visual redundancy forecasting: a deep multimodal-driven approach | |
Arunpandian et al. | An effective image compression technique based on burrows wheeler transform with set partitioning in hierarchical trees |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |