CN111127392B - 一种基于对抗生成网络的无参考图像质量评价方法 - Google Patents
一种基于对抗生成网络的无参考图像质量评价方法 Download PDFInfo
- Publication number
- CN111127392B CN111127392B CN201911103031.9A CN201911103031A CN111127392B CN 111127392 B CN111127392 B CN 111127392B CN 201911103031 A CN201911103031 A CN 201911103031A CN 111127392 B CN111127392 B CN 111127392B
- Authority
- CN
- China
- Prior art keywords
- network
- graph
- map
- size
- distortion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 21
- 238000013441 quality evaluation Methods 0.000 title claims abstract description 19
- 238000013528 artificial neural network Methods 0.000 claims abstract description 8
- 238000007781 pre-processing Methods 0.000 claims abstract description 5
- 238000013461 design Methods 0.000 claims description 5
- 238000012935 Averaging Methods 0.000 claims description 3
- 238000012417 linear regression Methods 0.000 claims description 3
- 238000011176 pooling Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 abstract description 6
- 238000012549 training Methods 0.000 abstract description 6
- 238000011160 research Methods 0.000 description 6
- 238000001303 quality assessment method Methods 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 210000004556 brain Anatomy 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000012850 discrimination method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/001—Texturing; Colouring; Generation of texture or colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
- G06T7/41—Analysis of texture based on statistical description of texture
- G06T7/45—Analysis of texture based on statistical description of texture using co-occurrence matrix computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
- Quality & Reliability (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Software Systems (AREA)
- Bioinformatics & Computational Biology (AREA)
Abstract
本发明公开了一种基于对抗生成网络的无参考图像质量评价方法。本发明首先要对图像进行预处理,得到失真图对应的相似图‑SSIM_MAP,然后训练一个基于densenet网络的神经网络框架,对训练后的网络输入失真图,可得到失真图的相似图,通过相似图,也就可以得到对应的质量分数。本发明针对网络中的生成器和损失函数做出创新。首先,在生成网络部分,我们采用60层的densenet网络框架。在判别网络部分,采用简单的分类网络;损失函数部分,采用判别器的交叉熵加L1范数损失的方式。最后迭代训练出一个较好的生成网络模型,通过此网络,可以对输出图片,也就是失真图片进行相似图的生成。
Description
技术领域
本发明属于图像处理领域,设计图像质量评价方法,而且涉及到深度学习中的生成对抗网络在图像质量评价中的应用。
背景技术
现如今,随着互联网技术以及通信技术的快速发展,数字图像已经成为人们日常生活中信息传递的重要方式。据统计,2011年以来,世界产生的数字照片总量达到上百亿张,而且这个数量还在逐年增长。然而,图像在采集、存储、压缩和传输等过程中容易受到不同种类的失真干扰,从而造成图像质量的降低。所以,如何准确、可靠地评价图像的质量成为当前及未来研究中一个重要的研究热点。通常,大多数图像是由人来观看,所以最可靠的图像质量评价方式是主观质量评价,即组织观看人员根据他们的经验来对图像的质量进行主观评分,然而,随着图像数量的增多,主观质量评价的实施变得困难,而且也无法应用于实时的图像处理系统中。所以,研究者们提出客观质量评价方法,通过设计客观算法来对图像的质量做出评价。
根据是否参考原始图像,现有的客观质量评价方法被分为三个类别,分别是全参考,部分参考和无参考质量评价方法。尽管目前针对这三类客观图像质量评价分别提出了大量的方法,但是客观质量评价的研究仍然不够成熟,主要表现在以下几个方面,第一,由于目前对人类视觉感知机制的理解不够深入,现有的基于度量信号失真的客观质量评价方法不能准确地模拟主观质量评价;第二,在无参考质量评价方法设计中,大多数方法仍然需要利用主观质量分数来训练质量评价模型;第三,在评价真实场景中的失真图像时,现有的客观算法的表现仍然不够理想。因此,建立一套可以准确反映人眼主观感受的立体图像质量客观评价机制具有深远意义。近年来,相关研究机构对平面图像质量评价算法进行了深入研究,如峰值信噪比(PSNR)、均方误差(MSE)、结构相似度(SSIM)等评价指标。然而平面图像中包含更多的因素,如深度图等。
近年来,深度学习成为机器学习和神经网络相关领域的研究热点,深度学习能够模拟人脑深层次处理数据的方式对原始数据内部结构和关系得到层次化的特征表示,因而经该预处理后的网络参数符合人脑的处理结果,训练后得到的网络稳定性和泛化能力也有一定的提高。
现有的无参考质量评价方法大多数属于主观质量分数已知的评价方法,此类方法通常需要大量的训练样本图像以及对应的主观分数来训练质量预测模型,相比之下,主观质量分数未知的无参考评价方法仍然较少而且已有方法的性能仍然不能与主观质量分数已知的方法相比。
发明内容
本发明的目的是针对现有技术的不足。提出了一个利用生成对抗网络框架的主观质量分数未知的无参考评价方法,此方法针对网络中的生成器和损失函数做出创新。首先,在生成网络部分,我们采用60层的densenet网络框架。在判别网络部分,我们采用简单的分类网络,损失函数部分,我们采用判别器的交叉熵加L1范数损失的方式。最后我们迭代训练出一个较好的生成网络模型,我们通过此网络,可以对输出图片,也就是失真图片进行相似图的生成。
本发明首先要对图像进行预处理,得到失真图对应的相似图-SSIM_MAP,然后训练一个基于densenet网络的神经网络框架,对训练后的网络输入失真图,可得到失真图的相似图,通过相似图,也就可以得到对应的质量分数。
一种基于对抗生成网络的无参考图像质量评价方法,具体实现步骤如下:
步骤1:预处理得到相似图;
其中,xi,yi分别为失真图X和自然图像Y的像素点值,那么失真图X和自然图Y的亮度对比就表示为:
其中C1是为了防止分母为0而设置的极小数。
1-2.计算对比度对比:C(x,y)
用σx和σy代表两幅图对比度信息:
那么失真图X和自然图Y的对比度对比就可以表示为:
其中C2是为了防止分母为0而设置的极小数。
1-3.计算结构性对比:S(x,y)
那么失真图X和自然图Y的对比度对比就可以表示为:
其中C3是为了防止分母为0而设置的极小数。
1-4.计算相似图
其中,a、b、c为亮度、对比度和结构性的权重。
失真图的质量分数MSSIM可以由似图SSIM_MAP求得:
MSSIM=mean(SSIM_MAP)
其中mean()为取平均值操作。
步骤2:将已有失真图X和相似图SSIM_MAP进行左右拼接,得到一张拼接图Z。
步骤3:设计神经网络框架
3-1.生成网络:
3-1-1.使用拼接图Z作为输入,大小为256×256,通道数为3。
3-1-2.通过一层卷积层,使大小为128×128,通道数变为64。
3-1-3.通过一层池化层,使大小为64×64,通道数变为64。
3-1-4.通过60层densenet网络框架提取特征,大小变为4×4,通道数为512。
3-1-5.通过5层反卷积层,使大小变为256×256,通道数为8.
3-1-6.通过一层卷积层,大小不变,通道数变为3。
3-2.判别网络:
3-2-1.把256×256的图片分为64个8×8的小块
3-2-2.每一个小块都通过一层卷积层,使大小为4×4,通道数变为64。
3-2-3.每一个小块都通过两层卷积层,使大小为1×1,通道数变为256。
3-2-4.每一个小块都通过一层卷积层,使大小为1×1,通道数变为512。
3-2-5.每一个小块都通过线性回归层,输出为预测标签。
3-2-5.整副图的预测标签由64个小块的平均值决定。
3-3.损失函数:
其中loss_GAN表示样本标签和判别器的输出之间的交叉熵。
M表示输入的相似图,G(x)表示生成器的输出。
本发明有益效果:
首先,本方法是无参考质量评价。通过使用训练好的神经网络框架,可以在没有自然图像(原图)的条件下对失真图像进行质量评价。
在无参考质量评价方法通常基于SVR(支持向量机)进行图像特征提取的情况下,本方法采用更有效的densenet神经网络进行特征提取。
在判别器通常针对整副图进行判别的情况下,本方法采用更有效的块判别方法,使得训练速度刚快,实验效果更好。
本方法基于对抗生成网络,更有效的实现了图到图的转换和迁移。实验结果不仅在图到图的实现中有较好的结果,而且模拟到的质量分数和真实的质量分数有强烈的相关性和较小的误差。
具体实施方式
下面对本发明作进一步说明。
一种基于对抗生成网络的无参考图像质量评价方法,具体实现步骤如下:
步骤1:预处理得到相似图;
其中,xi,yi分别为失真图X和自然图像Y的像素点值,那么失真图X和自然图Y的亮度对比就表示为:
其中C1是为了防止分母为0而设置的极小数。
1-2.计算对比度对比:C(x,y)
用σx和σy代表两幅图对比度信息:
那么失真图X和自然图Y的对比度对比就可以表示为:
其中C2是为了防止分母为0而设置的极小数。
1-3.计算结构性对比:S(x,y)
那么失真图X和自然图Y的对比度对比就可以表示为:
其中C3是为了防止分母为0而设置的极小数。
1-4.计算相似图
其中,a、b、c为亮度、对比度和结构性的权重。
失真图的质量分数MSSIM可以由似图SSIM_MAP求得:
MSSIM=mean(SSIM_MAP)
其中mean()为取平均值操作。
步骤2:将已有失真图X和相似图SSIM_MAP进行左右拼接,得到一张拼接图Z。
步骤3:设计神经网络框架
3-1.生成网络:
3-1-1.使用拼接图Z作为输入,大小为256×256,通道数为3。
3-1-2.通过一层卷积层,使大小为128×128,通道数变为64。
3-1-3.通过一层池化层,使大小为64×64,通道数变为64。
3-1-4.通过60层densenet网络框架提取特征,大小变为4×4,通道数为512。
3-1-5.通过5层反卷积层,使大小变为256×256,通道数为8.
3-1-6.通过一层卷积层,大小不变,通道数变为3。
3-2.判别网络:
3-2-1.把256×256的图片分为64个8×8的小块
3-2-2.每一个小块都通过一层卷积层,使大小为4×4,通道数变为64。
3-2-3.每一个小块都通过两层卷积层,使大小为1×1,通道数变为256。
3-2-4.每一个小块都通过一层卷积层,使大小为1×1,通道数变为512。
3-2-5.每一个小块都通过线性回归层,输出为预测标签。
3-2-5.整副图的预测标签由64个小块的平均值决定。
3-3.损失函数:
其中loss_GAN表示样本标签和判别器的输出之间的交叉熵。
M表示输入的相似图,G(x)表示生成器的输出。
Claims (1)
1.一种基于对抗生成网络的无参考图像质量评价方法,其特征在于具体实现步骤如下:
步骤1:预处理得到相似图;
其中,xi,yi分别为失真图X和自然图像Y的像素点值,那么失真图X和自然图Y的亮度对比就表示为:
其中C1是为了防止分母为0而设置的极小数;
1-2.计算对比度对比:C(x,y)
用σx和σy代表两幅图对比度信息:
那么失真图X和自然图Y的对比度对比就可以表示为:
其中C2是为了防止分母为0而设置的极小数;
1-3.计算结构性对比:S(x,y)
引入新公式:
那么失真图X和自然图Y的结构性对比就可以表示为:
其中C3是为了防止分母为0而设置的极小数;
1-4.计算相似图
其中,a、b、c为亮度、对比度和结构性的权重;
失真图的质量分数MSSIM可以由相似图SSIM_MAP求得:
MSSIM=mean(SSIM_MAP)
其中mean()为取平均值操作;
步骤2:将已有失真图X和相似图SSIM_MAP进行左右拼接,得到一张拼接图Z;
步骤3:设计神经网络框架
3-1.生成网络:
3-1-1.使用拼接图Z作为输入,大小为256×256,通道数为3;
3-1-2.通过一层卷积层,使大小为128×128,通道数变为64;
3-1-3.通过一层池化层,使大小为64×64,通道数变为64;
3-1-4.通过60层densenet网络框架提取特征,大小变为4×4,通道数为512;
3-1-5.通过5层反卷积层,使大小变为256×256,通道数为8.
3-1-6.通过一层卷积层,大小不变,通道数变为3;
3-2.判别网络:
3-2-1.把256×256的图片分为64个8×8的小块
3-2-2.每一个小块都通过一层卷积层,使大小为4×4,通道数变为64;
3-2-3.每一个小块都通过两层卷积层,使大小为1×1,通道数变为256;
3-2-4.每一个小块都通过一层卷积层,使大小为1×1,通道数变为512;
3-2-5.每一个小块都通过线性回归层,输出为预测标签;
3-2-5.整副图的预测标签由64个小块的平均值决定;
3-3.损失函数:
其中loss_GAN表示样本标签和判别器的输出之间的交叉熵;
M表示输入的相似图,G(x)表示生成器的输出。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911103031.9A CN111127392B (zh) | 2019-11-12 | 2019-11-12 | 一种基于对抗生成网络的无参考图像质量评价方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911103031.9A CN111127392B (zh) | 2019-11-12 | 2019-11-12 | 一种基于对抗生成网络的无参考图像质量评价方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111127392A CN111127392A (zh) | 2020-05-08 |
CN111127392B true CN111127392B (zh) | 2023-04-25 |
Family
ID=70495232
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911103031.9A Active CN111127392B (zh) | 2019-11-12 | 2019-11-12 | 一种基于对抗生成网络的无参考图像质量评价方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111127392B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111639861B (zh) * | 2020-06-01 | 2023-06-23 | 上海大学 | 一种基于神经网络的绩效考核方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108090902A (zh) * | 2017-12-30 | 2018-05-29 | 中国传媒大学 | 一种基于多尺度生成对抗网络的无参考图像质量客观评价方法 |
CN108648188A (zh) * | 2018-05-15 | 2018-10-12 | 南京邮电大学 | 一种基于生成对抗网络的无参考图像质量评价方法 |
CN109559276A (zh) * | 2018-11-14 | 2019-04-02 | 武汉大学 | 一种基于无参考质量评价和特征统计的图像超分辨率重建方法 |
CN109615582A (zh) * | 2018-11-30 | 2019-04-12 | 北京工业大学 | 一种基于属性描述生成对抗网络的人脸图像超分辨率重建方法 |
CN110363215A (zh) * | 2019-05-31 | 2019-10-22 | 中国矿业大学 | 基于生成式对抗网络的sar图像转化为光学图像的方法 |
CN110378985A (zh) * | 2019-07-19 | 2019-10-25 | 中国传媒大学 | 一种基于gan的动漫绘画辅助创作方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190147320A1 (en) * | 2017-11-15 | 2019-05-16 | Uber Technologies, Inc. | "Matching Adversarial Networks" |
US11170545B2 (en) * | 2018-01-24 | 2021-11-09 | New York University | Systems and methods for diagnostic oriented image quality assessment |
-
2019
- 2019-11-12 CN CN201911103031.9A patent/CN111127392B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108090902A (zh) * | 2017-12-30 | 2018-05-29 | 中国传媒大学 | 一种基于多尺度生成对抗网络的无参考图像质量客观评价方法 |
CN108648188A (zh) * | 2018-05-15 | 2018-10-12 | 南京邮电大学 | 一种基于生成对抗网络的无参考图像质量评价方法 |
CN109559276A (zh) * | 2018-11-14 | 2019-04-02 | 武汉大学 | 一种基于无参考质量评价和特征统计的图像超分辨率重建方法 |
CN109615582A (zh) * | 2018-11-30 | 2019-04-12 | 北京工业大学 | 一种基于属性描述生成对抗网络的人脸图像超分辨率重建方法 |
CN110363215A (zh) * | 2019-05-31 | 2019-10-22 | 中国矿业大学 | 基于生成式对抗网络的sar图像转化为光学图像的方法 |
CN110378985A (zh) * | 2019-07-19 | 2019-10-25 | 中国传媒大学 | 一种基于gan的动漫绘画辅助创作方法 |
Non-Patent Citations (4)
Title |
---|
Image Quality Assessment: From Error Visibility to Structural Similarity;Zhou Wang等;《IEEE TRANSACTIONS ON IMAGE PROCESSING》;20040413;600-612 * |
Image Super-Resolution Using Dense Skip Connections;Tong Tong等;《IEEE International Conference on Computer Vision》;20171001;4809-4817 * |
基于CGAN的交通环境运动模糊图像恢复及检测应用研究;林元凯;《中国计量》;20191010;80-85 * |
学习盲图像质量评价方法研究;高飞;《中国博士学位论文全文数据库:信息科技辑》;20160315;I138-135 * |
Also Published As
Publication number | Publication date |
---|---|
CN111127392A (zh) | 2020-05-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108986050B (zh) | 一种基于多分支卷积神经网络的图像和视频增强方法 | |
CN109831664B (zh) | 基于深度学习的快速压缩立体视频质量评价方法 | |
CN110827193A (zh) | 基于多通道特征的全景视频显著性检测方法 | |
CN117056863B (zh) | 一种基于多模态数据融合的大数据处理方法 | |
CN109615576B (zh) | 基于级联回归基学习的单帧图像超分辨重建方法 | |
CN109977882A (zh) | 一种半耦合字典对学习的行人重识别方法及系统 | |
CN113066074A (zh) | 一种基于双目视差偏移融合的视觉显著性预测方法 | |
CN116128766A (zh) | 一种基于改进Retinex-Net的电力设备红外图像增强方法 | |
CN117152443A (zh) | 一种基于语义前导指引的图像实例分割方法及系统 | |
CN116468625A (zh) | 基于金字塔高效通道注意力机制的单幅图像去雾方法和系统 | |
CN111127392B (zh) | 一种基于对抗生成网络的无参考图像质量评价方法 | |
CN109523508B (zh) | 一种密集光场质量评价方法 | |
CN111127386B (zh) | 一种基于深度学习的图像质量评价方法 | |
CN112991177B (zh) | 一种基于对抗神经网络的红外图像超分辨率方法 | |
CN111127587B (zh) | 一种基于对抗生成网络的无参考图像质量地图生成方法 | |
CN117689550A (zh) | 基于渐进式生成对抗网络的低光图像增强方法及装置 | |
CN116524387A (zh) | 一种基于深度学习网络的超高清视频压缩损伤等级评估方法 | |
CN116563133A (zh) | 基于模拟曝光和多尺度融合的低照度彩色图像增强方法 | |
CN112767311A (zh) | 一种基于卷积神经网络的无参考图像质量评价方法 | |
CN110020986A (zh) | 基于欧氏子空间群两重映射的单帧图像超分辨率重建方法 | |
CN106375773B (zh) | 基于动态阈值的帧复制粘贴篡改检测方法 | |
CN113628121B (zh) | 数据处理、训练多媒体数据的方法和装置 | |
CN106888377B (zh) | 一种无参考三维视频质量评价方法 | |
CN110933402A (zh) | 基于运动纹理特征的无参考立体视频质量评价方法 | |
CN113762099B (zh) | 一种基于路侧rsu的实时点云三维重构方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |