CN115937121A - 基于多维度特征融合的无参考图像质量评价方法及系统 - Google Patents

基于多维度特征融合的无参考图像质量评价方法及系统 Download PDF

Info

Publication number
CN115937121A
CN115937121A CN202211513003.6A CN202211513003A CN115937121A CN 115937121 A CN115937121 A CN 115937121A CN 202211513003 A CN202211513003 A CN 202211513003A CN 115937121 A CN115937121 A CN 115937121A
Authority
CN
China
Prior art keywords
feature fusion
dimension
dimensional feature
image quality
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211513003.6A
Other languages
English (en)
Inventor
牛玉贞
赖宇
许瑞
兰杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuzhou University
Original Assignee
Fuzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuzhou University filed Critical Fuzhou University
Priority to CN202211513003.6A priority Critical patent/CN115937121A/zh
Publication of CN115937121A publication Critical patent/CN115937121A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)

Abstract

本发明提出一种基于多维度特征融合的无参考图像质量评价方法及系统,包括以下步骤:步骤S1:将失真图像数据集中的数据进行数据预处理:首先将数据进行配对处理,接着对其做数据增强,并将数据集划分为训练集与测试集;步骤S2:训练获得基于多维度特征融合的无参考图像质量评分预测网络模型;训练过程基于基于多维度特征融合的无参考图像质量评分预测网络,至少包括:全局特征提取子网络、多尺度特征融合模块、多维度特征融合模块和局部注意力模块;步骤S3:将待测图像输入到训练好的基于多维度特征融合的无参考图像质量评分预测网络模型中,输出对应的图像质量评分分数。

Description

基于多维度特征融合的无参考图像质量评价方法及系统
技术领域
本发明属于图像处理以及计算机视觉技术领域,具体涉及一种基于多维度特征融合的无参考图像质量评价方法及系统。
背景技术
技术的进步使多媒体内容的分享和使用成为我们日常生活的一部分。数字图像和视频,已经变得无处不在。在Facebook、Instagram和Tumblr等社交媒体网站上,每年有数以万计的照片和视频被上传和分享。像Netflix、AmazonPrimeVideo和YouTube这样的流媒体服务占了所有下游互联网流量的60%。在这样一个信息爆炸的时代,由于每时每刻都有数以百万计的摄像机产生大量的图像和视频,因此如何衡量图像的质量、评定图像是否满足某种特定应用要求就是图像质量评价的目标。而且图像质量评估结果可作为一些图像恢复增强技术的辅助参照信息,因此图像质量评价方法是非常需要的,它们也可为设计和优化高级图像/视频处理算法提供了一种可行的途径。
传统的无参考图像质量评价方法依赖于人工设计的特征,且绝大多数试图检测特定类型的失真,如模糊、块效应、各种形式的噪声等。例如,对于图像的模糊度的评价,有基于边缘分析的方法、基于变换域的方法。对于图像噪声的评价,有基于滤波的方法、基于小波变换和其他一些变换域的方法。对于图像块效应的评价,有基于块边界和变换域的方法。还有一些基于通用类型的无参考图像质量评价方法,这些算法不检测特定类型的失真,他们通常将无参考图像质量评价问题转化成一个分类或回归问题,其中分类、回归是使用特定的特征进行训练的。但是手工设计的特征有其局限性,因为不同类型的图像内容具有不同的图像特征,对质量评价分数产生了很大的影响。
目前无参考图像质量评价的研究工作进入了深度学习时代,相比于人工设计的特征,卷积神经网络提取的特征更适合图像的质量评价,也更强大。然而对于使用卷积神经网络来对图像进行质量评价,仍然存在问题。首先,在训练卷积神经网络的预处理阶段对于图片的裁剪或改变其原始比例的操作都会影响图片的质量,从而导致评价结果的错误。其次,尽管卷积神经网络能够提供更加强大的图像特征,但受限于卷积的感受野无法考虑到图像全局的联系。
发明内容
为了弥补现有技术存在的缺陷和不足,本发明在算法方案中加入了自注意力机制,其长距离依赖的特性可以弥补卷积的不足。由此提出基于多维度特征融合的无参考图像质量评价方法,对于输入的图像,不做影响图像质量的操作,保留其细节与比例。并且在考虑到全局和局部区域的同时也能对局部区域进行不同程度的关注,提高无参考图像质量评价方法的性能。
本发明能考虑到全局和局部区域的同时也能对局部区域进行不同程度的关注,且不用对原图做裁切或改变其原始比例,提高无参考图像质量评估算法的性能。
该方案包括以下步骤:
步骤S1:将失真图像数据集中的数据进行数据预处理,首先将数据进行配对处理,接着对其做数据增强,并将数据集划分为训练集与测试集;步骤S2:设计全局特征提取子网络;步骤S3:设计多尺度特征融合模块;步骤S4:设计多维度特征融合模块;步骤S5:设计局部注意力模块;步骤S6:设计基于多维度特征融合的无参考图像质量评分预测网络,使用所设计的网络训练基于多维度特征融合的无参考图像质量评分预测网络模型;步骤S7:将图像输入到训练好的基于多维度特征融合的无参考图像质量评分预测网络模型中,输出对应的图像质量评分分数。该算法能有效的融合多维度图像的特征,且不用对原图做裁切或改变其原始比例,并进行图像质量评分分数预测,提高无参考图像质量评估算法的性能。
本发明具体采用以下技术方案:
一种基于多维度特征融合的无参考图像质量评价方法,其特征在于,包括以下步骤:
步骤S1:将失真图像数据集中的数据进行数据预处理:首先将数据进行配对处理,接着对其做数据增强,并将数据集划分为训练集与测试集;
步骤S2:训练获得基于多维度特征融合的无参考图像质量评分预测网络模型;训练过程基于基于多维度特征融合的无参考图像质量评分预测网络,至少包括:全局特征提取子网络、多尺度特征融合模块、多维度特征融合模块和局部注意力模块;
步骤S3:将待测图像输入到训练好的基于多维度特征融合的无参考图像质量评分预测网络模型中,输出对应的图像质量评分分数。
进一步地,步骤S1具体包括以下步骤:
步骤S11:将失真图像数据集中的图像与其对应的标签进行配对处理;
步骤S12:将失真图像数据集中的图像按一定比例划分为训练集与测试集;
步骤S13:将训练集和测试集中的图像缩放到固定尺寸H×W;
步骤S14:对训练集中的图像进行随机翻转操作,用于训练集数据增强;
步骤S15:对训练集和测试集中的图像进行归一化处理。
进一步地,所述全局特征提取子网络具体为:
设全局特征提取子网络的输入为图像Iin,其维度为3×H×W;首先采用32×32的卷积将输入下采样为Fv_d,其维度为c×h×w,其中
Figure BDA0003966650020000031
接着向Fv_d加入可学习的位置嵌入信息Pve和维度类型嵌入信息Tve获得Fv_p,其中Pve,Tve和Fv_p的维度都为c×h×w,Tve和Fv_p采用随机初始化,Fv_p的计算公式为:
Fv_d=Conv32X32Iin
Fv_p=Fv_d+Pve+Tve
其中,Conv32×32*表示用于降维且卷积核大小为32×32的卷积层;
设自编码器个数为N,将Fv_p通过Reshape操作改变维度,由c×h×w变为c×l,其中l=h×w,之后依次经过N个自编码器得到全局特征提取子网络的输出Fv_e,维度为c×l,在第i个自编码器中,设输入为zi-1,首先对其进行层归一化,记为LN1,之后输入多头自注意力,多头自注意力的输出再与zi-1相加获得自编码器中间输出特征
Figure BDA0003966650020000032
接着对
Figure BDA0003966650020000033
进行层归一化,记为LN2,之后输入两层全连接层中,记为MLP1,两层全连接层的输出再与
Figure BDA0003966650020000034
相加获得自编码器输出特征zi,i∈1,2,…,N,第i个自编码器的计算公式为:
Figure BDA0003966650020000035
Figure BDA0003966650020000036
其中,MHSA(*)表示多头自注意力;最后取第N个自编码器的输出zN作为全局特征提取子网络的输出特征Fv_e
进一步地,所述多尺度特征融合模块具体为:
构建操作S,由三个卷积构成,设操作S的输入为x,x的维度为cx×hx×wx,x首先经过1×1的卷积将通道数cx降为
Figure BDA0003966650020000037
再用3×3的卷积将hx和wx降为
Figure BDA0003966650020000038
Figure BDA0003966650020000039
之后用1×1的卷积将通道数
Figure BDA00039666500200000310
升为2cx,得到
Figure BDA00039666500200000311
的维度为
Figure BDA00039666500200000312
Figure BDA00039666500200000313
的计算公式为:
Figure BDA00039666500200000314
其中,Conv1×1*和Conv3×3*分别表示卷积核大小为1×1和3×3的卷积层;
设多尺度特征融合模块的输入为Fc_i,其中i∈{1,2,3,4},Fc_i的维度为Ci×Hi×Wi,其中Ci=2Ci-1
Figure BDA0003966650020000041
先将Fc_1经过操作S并与Fc_2相加得到Fc1_d1,再将Fc1_d1经过操作S并与Fc_3相加得到Fc1_d2,之后Fc1_d2经过操作S得到Fc1_d3;接着将Fc_2经过操作S并与Fc_3相加得到Fc2_d1,再将Fc2_d1经过操作S得到Fc2_d2;再将Fc_3经过操作S得到Fc3_d1,最后将Fc_4,Fc3_d1,Fc2_d2和Fc1_d3相加起来得到尺度特征融合模块的输出Fs,Fs的维度为C4×H4×W4,Fs的计算公式为:
Fc1_d1=S(Fc_1)+Fc_2
Fc1_d2=S(Fc1_d1)+Fc_3
Fc1_d3=S(Fc1_d2
Fc2_d1=S(Fc_2)+Fc_3
Fc2_d2=S(Fc2_d1
Fc3_d1=S(Fc_3
Fs=Fc_4+Fc3_d1+Fc2_d2+Fc1_d3
其中,S(*)表示操作S。
进一步地,所述多维度特征融合模块具体为:
设多维度特征融合模块的输入为Fv_e和Fc,Fu_e的维度为c×l,Fc的维度为C×h×w;首先用1×1的卷积将Fc的通道数C降为c,再向Fc分别加入位置嵌入信息Pce和维度类型嵌入信息Tce获得Fc_p其中Pce,Tce和Fc_p的维度都为c×h×w;采用Reshape操作,记为Reshape1改变Fc_p的维度,由c×h×w变为c×l,其中l=h×w,再输入一个自编码器得到Fc_e,维度为c×l;Fc_e的计算公式为:
Fc_p=Conv1×1(Fc)+Pce+Tce
Fc_e=SEncoder(Reshape1(Fc_p))
其中,SEncoder(*)表示自编码器,Conv1×1(*)表示用于降维且卷积核大小为1×1的卷积层;
将Fc_e和Fv_e输入交叉编码器进行多维度的特征融合获得Ffusion,其维度为c×l。在交叉编码器中,首先对输入Fv_e和Fc_e进行层归一化,记为LN3和LN4,之后输入多头交叉注意力,多头交叉注意力的输出再与Fv_e相加获得交叉编码器中间输出特征
Figure BDA0003966650020000054
接着对
Figure BDA0003966650020000053
进行层归一化,记为LN5,之后输入两层全连接层中,记为MLP2,两层全连接层的输出再与
Figure BDA0003966650020000055
相加获得交叉编码器的输出特征Ffusion。Ffusion的计算公式为:
Figure BDA0003966650020000051
Figure BDA0003966650020000052
其中,MHCA(*,*)表示多头交叉注意力;Ffusion是多维度特征融合模块的输出特征。
进一步地,所述局部注意力模块具体为:
设局部注意力机制模块的输入为Fin,维度为c×l,将Fin输入到通道池化层,得到输出Fchannel,其维度为1×l,Fchannel的计算公式为:
Fchannel=FC(Concat(CMaxpool(Fin),CAvgpool(Fin)))
其中,CMaxpool(*)表示步长为1的通道最大池化层,CAvgpool(*)表示步长为1的通道平均池化层,Concat(*)表示特征在通道维度上进行拼接,FC(*)表示全连接层;
将Fchannel通过Reshape操作,记为Reshape2,改变维度,由1×l变为l,接着将Fchannel输入两层全连接层中,记为MLP3,采用注意力机制获得模型学习到图像不同的局部区域的重要程度,用以确定局部区域中不同区域对于整体图像质量评价的不同影响;再经过sigmoid函数将数值映射到(0,1)中,得到特征权重wpatch,将wpatch通过Reshape操作,记为Reshape3,将其维度由l变为1×l,之后用该特征权重作为对局部区域的指导权重,即将最初输入的图像特征Fin乘以权重wpatch再加上Fin,得到局部注意力模块的最终输出为Fpatch,维度为c×l,Fpatch的计算公式为:
wpatch=Sigmoid(MLP3(Reshape2Fchannel)))
Fpatch=Fin+(Fin×Reshape3(wpatch))。
进一步地,步骤S2中,训练获得基于多维度特征融合的无参考图像质量评分预测网络模型具体包括以下步骤:
步骤S21:选择一种图像分类网络,去除该网络的最后一层后作为局部特征提取子网络;
步骤S22:将经过步骤S1的训练集中的某个批次的图像分别输入到所述局部特征提取子网络和全局特征提取子网络,得到局部特征提取子网络和全局特征提取子网络的输出Fc和Fv_e,并将Fc输入所述多尺度特征融合模块获得输出Fs
步骤S23:将步骤S22的Fs和Fv_e,输入到所述多维度特征融合模块,获得多维度特征融合模块的输出Ffusion,之后将Ffusion输入到所述局部注意力模块,获得局部注意力模块的输出Fpatch
步骤S24:对于步骤S23的输出Fpatch,首先采用Reshape操作,记为Reshape4改变维度,由c×l变为P,P=c×l,接着将Fpatch输入到最后的两层全连接层中,记为MLP4,以此获得最终的图像质量评价分数Fout,其维度为1,表示图像的质量分数,其计算公式为:
Fout=MLP4Reshape4Fpatch
基于多维度特征融合的无参考图像质量评价网络的损失函数如下:
Figure BDA0003966650020000061
其中,m为样本个数,yi表示图像的真实质量分数,
Figure BDA0003966650020000062
表示图像经过基于多维度特征融合的无参考图像质量评价网络得到的质量分数;
步骤S26:以批次为单位重复步骤S22至步骤S24,直至步骤S24中计算得到的损失值收敛并趋于稳定,保存网络参数,完成基于多维度特征融合的无参考图像质量评价网络的训练过程。
进一步地,在步骤S7中,将测试集中的图像输入到训练好的基于多维度特征融合的无参考图像质量评价网络模型,输出对应的图像质量分数。
以及,一种基于多维度特征融合的无参考图像质量评价系统,其特征在于:包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如上所述的基于多维度特征融合的无参考图像质量评价方法。
以及,一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于:该计算机程序被处理器执行时实现如上所述的基于多维度特征融合的无参考图像质量评价方法。
相比于现有技术,本发明及其优选方案能有效的融合多维度图像的特征,且不用对原图做裁切或改变其原始比例,并进行图像质量评分分数预测,提高无参考图像质量评估算法的性能。
附图说明
下面结合附图和具体实施方式对本发明进一步详细的说明:
图1是本发明实施例方案的整体设计过程和实现过程流程图。
图2是本发明实施例中网络模型结构图。
图3是本发明实施例中的全局特征提取子网络结构图。
图4是本发明实施例中的多尺度特征融合模块结构图。
图5是本发明实施例中的局部注意力模块结构图。
具体实施方式
为让本专利的特征和优点能更明显易懂,下文特举实施例,作详细说明如下:
应该指出,以下详细说明都是例示性的,旨在对本申请提供进一步的说明。除非另有指明,本说明书使用的所有技术和科学术语具有与本申请所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
如图1-图5所示,本发明实施例提供一种基于多维度特征融合的无参考图像质量评价方法的整体设计过程和实现过程,包括以下步骤:
步骤1:将失真图像数据集中的数据进行数据预处理,首先将数据进行配对处理,接着对其做数据增强,并将数据集划分为训练集与测试集;
步骤2:设计全局特征提取子网络;
步骤3:设计多尺度特征融合模块;
步骤4:设计多维度特征融合模块;
步骤5:设计局部注意力模块;
步骤6:设计基于多维度特征融合的无参考图像质量评分预测网络,使用所设计的网络训练基于多维度特征融合的无参考图像质量评分预测网络模型;
步骤7:将图像输入到训练好的基于多维度特征融合的无参考图像质量评分预测网络模型中,输出对应的图像质量评分分数。
以下为本发明的具体实现过程。
在本实施例中,步骤1具体包括以下步骤:
步骤11:将失真图像数据集中的图像与其对应的标签进行配对处理。
步骤12:将失真图像数据集中的图像按一定比例划分为训练集与测试集。
步骤13:将训练集和测试集中的图像缩放到固定尺寸H×W。
步骤14:对训练集中的图像进行随机翻转操作,用于训练集数据增强。
步骤15:对训练集和测试集中的图像进行归一化处理。
在本实施例中,步骤2具体包括以下步骤:
步骤21:设全局特征提取子网络的输入为图像Iin,其维度为3×H×W。首先采用32×32的卷积将输入下采样为Fv_d,其维度为c×h×w,其中
Figure BDA0003966650020000081
接着向Fv_d加入可学习的位置嵌入信息Pve和维度类型嵌入信息Tve获得Fv_p,Pve,Tve和Fv_p的维度都为c×h×w,Tve和Fv_p采用随机初始化,Fv_p的计算公式为:
Fv_d=Conv32X32Iin
Fv_p=Fv_d+Pve+Tve
其中,Conv32×32*表示用于降维且卷积核大小为32×32的卷积层。
步骤22:设自编码器个数为N,将步骤21中的Fv_p通过Reshape操作改变其维度,由c×h×w变为c×l,其中l=h×w,之后依次经过N个自编码器得到全局特征提取子网络的输出Fv_e,其维度为c×l,在第i个自编码器中,设输入为zi-1,首先对其进行层归一化(记为LN1),之后输入多头自注意力,多头自注意力的输出再与zi-1相加获得自编码器中间输出特征
Figure BDA0003966650020000082
接着对
Figure BDA0003966650020000083
进行层归一化(记为LN2),之后输入两层全连接层中(记为MLP1),两层全连接层的输出再与
Figure BDA0003966650020000084
相加获得自编码器输出特征zi,i∈1,2,…,N,第i个自编码器的计算公式为:
Figure BDA0003966650020000085
Figure BDA0003966650020000086
其中,MHSA(*)表示多头自注意力。最后取第N个自编码器的输出zN作为全局特征提取子网络的输出特征Fv_e
在本实施例中,步骤3具体包括以下步骤:
步骤31:构建操作S,其由三个卷积构成,设操作S的输入为x,x的维度为cx×hx×wx,x首先会经过1×1的卷积将通道数cx降为
Figure BDA0003966650020000091
再用3×3的卷积将hx和wx降为
Figure BDA0003966650020000092
Figure BDA0003966650020000093
之后用1×1的卷积将通道数
Figure BDA0003966650020000094
升为2cx,得到
Figure BDA0003966650020000095
的维度为
Figure BDA0003966650020000096
Figure BDA0003966650020000097
的计算公式为:
Figure BDA0003966650020000098
其中,Conv1×1(*)和Conv3×3(*)分别表示卷积核大小为1×1和3×3的卷积层。
步骤32:设多尺度特征融合模块的输入为Fc_i,其中i∈{1,2,3,4},Fc_i的维度为Ci×Hi×Wi,其中Ci=2Ci-1
Figure BDA0003966650020000099
先将Fc_1经过操作S并与Fc_2相加得到Fc1_d1,再将Fc1_d1经过操作S并与Fc_3相加得到Fc1_d2,之后Fc1_d2经过操作S得到Fc1_d3。接着将Fc_2经过操作S并与Fc_3相加得到Fc2_d1,再将Fc2_d1经过操作S得到Fc2_d2。再将Fc_3经过操作S得到Fc3_d1,最后将Fc_4,Fc3_d1,Fc2_d2和Fc1_d3相加起来得到尺度特征融合模块的输出Fs,Fs的维度为C4×H4×W4,Fs的计算公式为:
Fc1_d1=S(Fc_1)+Fc_2
Fc1_d2=S(Fc1_d1)+Fc_3
Fc1_d3=S(Fc1_d2)
Fc2_d1=S(Fc_2)+Fc_3
Fc2_d2=S(Fc2_d1)
Fc3_d1=S(Fc_3)
Fs=Fc_4+Fc3_d1+Fc2_d2+Fc1_d3
其中,S(*)表示操作S。
在本实施例中,步骤4具体包括以下步骤:
步骤41:设多维度特征融合模块的输入为Fv_e和Fc,Fv_e的维度为c×l,Fc的维度为C×h×w。首先用1×1的卷积将Fc的通道数C降为c,再向Fc分别加入位置嵌入信息Pce和维度类型嵌入信息Tce获得Fc_p其中Pce,Tce和Fc_p的维度都为c×h×w。采用Reshape操作(记为Reshape1)改变Fc_p的维度,由c×h×w变为c×l,其中l=h×w,再输入一个自编码器得到Fc_e,其维度为c×l。Fc_e的计算公式为:
Fc_p=Conv1×1(Fc)+Pce+Tce
Fc_e=SEncoder(Reshape1(Fc_p))
其中,SEncoder(*)表示自编码器,Conv1×1(*)表示用于降维且卷积核大小为1×1的卷积层。
步骤42:将步骤41中的Fc_e和Fv_e输入交叉编码器进行多维度的特征融合获得Ffusion,其维度为c×l。在交叉编码器中,首先对输入Fv_e和Fc_e进行层归一化(记为LN3和LN4),之后输入多头交叉注意力,多头交叉注意力的输出再与Fv_e相加获得交叉编码器中间输出特征
Figure BDA0003966650020000101
接着对
Figure BDA0003966650020000102
进行层归一化(记为LN5),之后输入两层全连接层中(记为MLP2),两层全连接层的输出再与
Figure BDA0003966650020000103
相加获得交叉编码器的输出特征Ffusion。Ffusion的计算公式为:
Figure BDA0003966650020000104
Figure BDA0003966650020000105
其中,MHCA(*,*)表示多头交叉注意力。Ffusion也是多维度特征融合模块的输出特征。
在本实施例中,步骤5具体包括以下步骤:
步骤51:设局部注意力机制模块的输入为Fin,其维度为c×l,将Fin输入到通道池化层,得到输出Fchannel,其维度为1×l,Fchannel的计算公式为:
Fchannel=FC(Concat(CMaxpool(Fin),CAvgpool(Fin)))
其中,CMaxpool(*)表示步长为1的通道最大池化层,CAvgpool(*)表示步长为1的通道平均池化层,Concat(*)表示特征在通道维度上进行拼接,FC(*)表示全连接层。
步骤52:将步骤51中的Fchannel通过Reshape操作(记为Reshape2)改变其维度,由1×l变为l,接着将Fchannel输入两层全连接层中(记为MLP3),采用注意力机制来获得模型学习到图像不同的局部区域的重要程度,用以确定局部区域中哪些对于整体图像的质量评价具有更大的影响。再经过sigmoid函数将数值映射到(0,1)中,得到特征权重wpatch,将wpatch通过Reshape操作(记为Reshape3)将其维度由l变为1×l,之后用该特征权重作为对局部区域的指导权重,即将最初输入的图像特征Fin乘以权重wpatch再加上Fin,得到局部注意力模块的最终输出为Fpatch,维度为c×l,Fpatch的计算公式为:
wpatch=SigmoidMLP3Reshape2Fchannel
Fpatch=Fin+Fin×Reshape3wpatch
在本实施例中,步骤6具体包括以下步骤:
步骤61:选择ResNet50、ResNet101等图像分类网络中的一种网络,去除该网络的最后一层后作为局部特征提取子网络。
步骤62:将经过步骤1的训练集中的某个批次的图像同时输入到步骤61和步骤2中的模型,得到局部特征提取子网络和全局特征提取子网络的输出Fc和Fv_e,并将Fc输入步骤3中所设计的多尺度特征融合模块获得输出Fs
步骤63:将步骤62的Fs和Fv_e,输入到步骤4中所设计的多维度特征融合模块,获得多维度特征融合模块的输出Ffusion,之后将Ffusion输入到步骤5中所设计的局部注意力模块,获得局部注意力模块的输出Fpatch
步骤64:对于步骤63的输出Fpatch,首先采用Reshape操作(记为Reshape4)改变其维度,由c×l变为P,P=c×l,接着将Fpatch输入到最后的两层全连接层中(记为MLP4),以此获得最终的图像质量评价分数Fout,其维度为1,表示图像的质量分数,其计算公式为:
Fout=MLP4Reshape4Fpatch
步骤65:基于多维度特征融合的无参考图像质量评价网络的损失函数如下:
Figure BDA0003966650020000111
其中,m为样本个数,yi表示图像的真实质量分数,
Figure BDA0003966650020000112
表示图像经过基于多维度特征融合的无参考图像质量评价网络得到的质量分数。
步骤66:以批次为单位重复上述步骤62至步骤65,直至步骤65中计算得到的损失值收敛并趋于稳定,保存网络参数,完成基于多维度特征融合的无参考图像质量评价网络的训练过程。
在本实施例中,步骤7具体包括以下步骤:
步骤71:将测试集中的图像输入到训练好的基于多维度特征融合的无参考图像质量评价网络模型,输出对应的图像质量分数。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述,仅是本发明的较佳实施例而已,并非是对本发明作其它形式的限制,任何熟悉本专业的技术人员可能利用上述揭示的技术内容加以变更或改型为等同变化的等效实施例。但是凡是未脱离本发明技术方案内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与改型,仍属于本发明技术方案的保护范围。
本专利不局限于上述最佳实施方式,任何人在本专利的启示下都可以得出其它各种形式的基于多维度特征融合的无参考图像质量评价方法及系统,凡依本发明申请专利范围所做的均等变化与修饰,皆应属本专利的涵盖范围。

Claims (10)

1.一种基于多维度特征融合的无参考图像质量评价方法,其特征在于,包括以下步骤:
步骤S1:将失真图像数据集中的数据进行数据预处理:首先将数据进行配对处理,接着对其做数据增强,并将数据集划分为训练集与测试集;
步骤S2:训练获得基于多维度特征融合的无参考图像质量评分预测网络模型;训练过程基于基于多维度特征融合的无参考图像质量评分预测网络,至少包括:全局特征提取子网络、多尺度特征融合模块、多维度特征融合模块和局部注意力模块;
步骤S3:将待测图像输入到训练好的基于多维度特征融合的无参考图像质量评分预测网络模型中,输出对应的图像质量评分分数。
2.根据权利要求1所述的基于多维度特征融合的无参考图像质量评价方法,其特征在于:步骤S1具体包括以下步骤:
步骤S11:将失真图像数据集中的图像与其对应的标签进行配对处理;
步骤S12:将失真图像数据集中的图像按一定比例划分为训练集与测试集;
步骤S13:将训练集和测试集中的图像缩放到固定尺寸H×W;
步骤S14:对训练集中的图像进行随机翻转操作,用于训练集数据增强;
步骤S15:对训练集和测试集中的图像进行归一化处理。
3.根据权利要求1所述的基于多维度特征融合的无参考图像质量评价方法,其特征在于:所述全局特征提取子网络具体为:
设全局特征提取子网络的输入为图像Iin,其维度为3×H×W;首先采用32×32的卷积将输入下采样为Fv_d,其维度为c×h×w,其中
Figure FDA0003966650010000011
接着向Fv_d加入可学习的位置嵌入信息Pve和维度类型嵌入信息Tve获得Fv_p,其中Pve,Tve和Fv_p的维度都为c×h×w,Tve和Fv_p采用随机初始化,Fv_p的计算公式为:
Fv_d=Conv32X32(Iin)
Fv_p=Fv_d+Pve+Tve
其中,Conv32×32(*)表示用于降维且卷积核大小为32×32的卷积层;
设自编码器个数为N,将Fv_p通过Reshape操作改变维度,由c×h×w变为c×l,其中l=h×w,之后依次经过N个自编码器得到全局特征提取子网络的输出Fv_e,维度为c×l,在第i个自编码器中,设输入为zi-1,首先对其进行层归一化,记为LN1,之后输入多头自注意力,多头自注意力的输出再与zi-1相加获得自编码器中间输出特征
Figure FDA0003966650010000021
接着对
Figure FDA0003966650010000022
进行层归一化,记为LN2,之后输入两层全连接层中,记为MLP1,两层全连接层的输出再与
Figure FDA00039666500100000215
相加获得自编码器输出特征zi,i∈[1,2,…,N],第i个自编码器的计算公式为:
Figure FDA0003966650010000023
Figure FDA0003966650010000024
其中,MHSA(*)表示多头自注意力;最后取第N个自编码器的输出zN作为全局特征提取子网络的输出特征Fv_e
4.根据权利要求1所述的基于多维度特征融合的无参考图像质量评价方法,其特征在于:所述多尺度特征融合模块具体为:
构建操作S,由三个卷积构成,设操作S的输入为x,x的维度为cx×hx×wx,x首先经过1×1的卷积将通道数cx降为
Figure FDA0003966650010000025
再用3×3的卷积将hx和wx降为
Figure FDA0003966650010000026
Figure FDA0003966650010000027
之后用1×1的卷积将通道数
Figure FDA0003966650010000028
升为2cx,得到
Figure FDA0003966650010000029
Figure FDA00039666500100000210
的维度为
Figure FDA00039666500100000211
Figure FDA00039666500100000212
的计算公式为:
Figure FDA00039666500100000213
其中,Conv1×1(*)和Conv3×3(*)分别表示卷积核大小为1×1和3×3的卷积层;
设多尺度特征融合模块的输入为Fc_i,其中i∈{1,2,3,4},Fc_i的维度为Ci×Hi×Wi,其中Ci=2Ci-1
Figure FDA00039666500100000214
先将Fc_1经过操作S并与Fc_2相加得到Fc1_d1,再将Fc1_d1经过操作S开与Fc_3相加得到Fc1_d2,之后Fc1_d2经过操作S得到Fc1_d3;接着将Fc_2经过操作S并与Fc_3相加得到Fc2_d1,再将Fc2_d1经过操作S得到Fc2_d2;再将Fc_3经过操作S得到Fc3_d1,最后将Fc_4,Fc3_d1,Fc2_d2和Fc1_d3相加起来得到尺度特征融合模块的输出Fs,Fs的维度为C4×H4×W4,Fs的计算公式为:
Fc1_d1=S(Fc_1)+Fc_2
Fc1_d2=S(Fc1_d1)+Fc_3
Fc1_d3=S(Fc1_d2)
Fc2_d1=S(Fc_2)+Fc_3
Fc2_d2=S(Fc2_d1)
Fc3_d1=S(Fc_3)
Fs=Fc_4+Fc3_d1+Fc2_d2+Fc1_d3
其中,S(*)表示操作S。
5.根据权利要求1所述的基于多维度特征融合的无参考图像质量评价方法,其特征在于:所述多维度特征融合模块具体为:
设多维度特征融合模块的输入为Fv_e和Fc,Fv_e的维度为c×l,Fc的维度为C×h×w;首先用1×1的卷积将Fc的通道数C降为c,再向Fc分别加入位置嵌入信息Pce和维度类型嵌入信息Tce获得Fc_p其中Pce,Tce和Fc_p的维度都为c×h×w;采用Reshape操作,记为Reshape1改变Fc_p的维度,由c×h×w变为c×l,其中l=h×w,再输入一个自编码器得到Fc_e,维度为c×l;Fc_e的计算公式为:
Fc_p=Conv1×1(Fc)+Pce+Tce
Fc_e=SEncoder(Reshape1(Fc_p))
其中,SEncoder(*)表示自编码器,Conv1×1(*)表示用于降维且卷积核大小为1×1的卷积层;
将Fc_e和Fv_e输入交叉编码器进行多维度的特征融合获得Ffusion,其维度为c×l;在交叉编码器中,首先对输入Fv_e和Fc_e进行层归一化,记为LN3和LN4,之后输入多头交叉注意力,多头交叉注意力的输出再与Fv_e相加获得交叉编码器中间输出特征
Figure FDA0003966650010000031
接着对
Figure FDA0003966650010000032
进行层归一化,记为LN5,之后输入两层全连接层中,记为MLP2,两层全连接层的输出再与
Figure FDA0003966650010000033
相加获得交叉编码器的输出特征Ffusion,Ffusion的计算公式为:
Figure FDA0003966650010000034
Figure FDA0003966650010000035
其中,MHCA(*,*)表示多头交叉注意力;Ffusion是多维度特征融合模块的输出特征。
6.根据权利要求1所述的基于多维度特征融合的无参考图像质量评价方法,其特征在于:所述局部注意力模块具体为:
设局部注意力机制模块的输入为Fin,维度为c×l,将Fin输入到通道池化层,得到输出Fchannel,其维度为1×l,Fchannel的计算公式为:
Fchannel=FC(Concat(CMaxpool(Fin),CAvgpool(Fin)))
其中,CMaxpool(*)表示步长为1的通道最大池化层,CAvgpool(*)表示步长为1的通道平均池化层,Concat(*)表示特征在通道维度上进行拼接,FC(*)表示全连接层;
将Fchannel通过Reshape操作,记为Reshape2,改变维度,由1×l变为l,接着将Fchannel输入两层全连接层中,记为MLP3,采用注意力机制获得模型学习到图像不同的局部区域的重要程度,用以确定局部区域中不同区域对于整体图像质量评价的不同影响;再经过sigmoid函数将数值映射到(0,1)中,得到特征权重wpatch,将wpatch通过Reshape操作,记为Reshape3,将其维度由l变为1×l,之后用该特征权重作为对局部区域的指导权重,即将最初输入的图像特征Fin乘以权重wpatch再加上Fin,得到局部注意力模块的最终输出为Fpatch,维度为c×l,Fpatch的计算公式为:
wpatch=Sigmoid(MLP3(Reshape2(Fchannel)))
Fpatch=Fin+(Fin×Reshape3(wpatch))。
7.根据权利要求1所述的基于多维度特征融合的无参考图像质量评价方法,其特征在于:
步骤S2中,训练获得基于多维度特征融合的无参考图像质量评分预测网络模型具体包括以下步骤:
步骤S21:选择一种图像分类网络,去除该网络的最后一层后作为局部特征提取子网络;
步骤S22:将经过步骤S1的训练集中的某个批次的图像分别输入到所述局部特征提取子网络和全局特征提取子网络,得到局部特征提取子网络和全局特征提取子网络的输出Fc和Fv_e,并将Fc输入所述多尺度特征融合模块获得输出Fs
步骤S23:将步骤S22的Fs和Fv_e,输入到所述多维度特征融合模块,获得多维度特征融合模块的输出Ffusion,之后将Ffusion输入到所述局部注意力模块,获得局部注意力模块的输出Fpatch
步骤S24:对于步骤S23的输出Fpatch,首先采用Reshape操作,记为Reshape4改变维度,由c×l变为P,P=c×l,接着将Fpatch输入到最后的两层全连接层中,记为MLP4,以此获得最终的图像质量评价分数Fout,其维度为1,表示图像的质量分数,其计算公式为:
Fout=MLP4(Reshape4(Fpatch))
基于多维度特征融合的无参考图像质量评价网络的损失函数如下:
Figure FDA0003966650010000051
其中,m为样本个数,yi表示图像的真实质量分数,
Figure FDA0003966650010000052
表示图像经过基于多维度特征融合的无参考图像质量评价网络得到的质量分数;
步骤S26:以批次为单位重复步骤S22至步骤S24,直至步骤S24中计算得到的损失值收敛并趋于稳定,保存网络参数,完成基于多维度特征融合的无参考图像质量评价网络的训练过程。
8.根据权利要求1所述的基于多维度特征融合的无参考图像质量评价方法,其特征在于,在步骤S7中,将测试集中的图像输入到训练好的基于多维度特征融合的无参考图像质量评价网络模型,输出对应的图像质量分数。
9.一种基于多维度特征融合的无参考图像质量评价系统,其特征在于:包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1-8其中任一所述的基于多维度特征融合的无参考图像质量评价方法。
10.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于:该计算机程序被处理器执行时实现如权利要求1-8其中任一所述的基于多维度特征融合的无参考图像质量评价方法。
CN202211513003.6A 2022-11-28 2022-11-28 基于多维度特征融合的无参考图像质量评价方法及系统 Pending CN115937121A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211513003.6A CN115937121A (zh) 2022-11-28 2022-11-28 基于多维度特征融合的无参考图像质量评价方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211513003.6A CN115937121A (zh) 2022-11-28 2022-11-28 基于多维度特征融合的无参考图像质量评价方法及系统

Publications (1)

Publication Number Publication Date
CN115937121A true CN115937121A (zh) 2023-04-07

Family

ID=86557009

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211513003.6A Pending CN115937121A (zh) 2022-11-28 2022-11-28 基于多维度特征融合的无参考图像质量评价方法及系统

Country Status (1)

Country Link
CN (1) CN115937121A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116228774A (zh) * 2023-05-10 2023-06-06 国网山东省电力公司菏泽供电公司 基于图像质量评价的变电站巡检图像缺陷识别方法及系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116228774A (zh) * 2023-05-10 2023-06-06 国网山东省电力公司菏泽供电公司 基于图像质量评价的变电站巡检图像缺陷识别方法及系统
CN116228774B (zh) * 2023-05-10 2023-09-08 国网山东省电力公司菏泽供电公司 基于图像质量评价的变电站巡检图像缺陷识别方法及系统

Similar Documents

Publication Publication Date Title
CN111311629B (zh) 图像处理方法、图像处理装置及设备
CN109493350B (zh) 人像分割方法及装置
CN111209952B (zh) 基于改进ssd和迁移学习的水下目标检测方法
Park et al. Double JPEG detection in mixed JPEG quality factors using deep convolutional neural network
Zhang et al. Adaptive residual networks for high-quality image restoration
Liu et al. Cross-SRN: Structure-preserving super-resolution network with cross convolution
CN110619618A (zh) 一种表面缺陷检测方法、装置及电子设备
CN111709883B (zh) 一种图像检测方法、装置及设备
CN110148088B (zh) 图像处理方法、图像去雨方法、装置、终端及介质
CN111695421B (zh) 图像识别方法、装置及电子设备
TWI770432B (zh) 圖像復原方法、電子設備、儲存介質
CN113066065B (zh) 无参考图像质量检测方法、系统、终端及介质
Golestaneh et al. No-reference image quality assessment via feature fusion and multi-task learning
CN115937121A (zh) 基于多维度特征融合的无参考图像质量评价方法及系统
Qi et al. Blind face images deblurring with enhancement
CN111368602A (zh) 人脸图像模糊程度评价方法、装置、可读存储介质及设备
CN112801890A (zh) 一种视频处理方法、装置及设备
CN112465847A (zh) 一种基于预测清晰边界的边缘检测方法、装置及设备
CN110120009B (zh) 基于显著物体检测和深度估计算法的背景虚化实现方法
Li et al. A cascaded algorithm for image quality assessment and image denoising based on CNN for image security and authorization
CN113658091A (zh) 一种图像评价方法、存储介质及终端设备
WO2022194344A1 (en) Learnable augmentation space for dense generative adversarial networks
Tian et al. A modeling method for face image deblurring
Jia et al. Learning Rich Information for Quad Bayer Remosaicing and Denoising
Fischinger et al. DF-Net: The digital forensics network for image forgery detection

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination