CN115546162A - 一种虚拟现实图像质量评估方法及系统 - Google Patents
一种虚拟现实图像质量评估方法及系统 Download PDFInfo
- Publication number
- CN115546162A CN115546162A CN202211257173.2A CN202211257173A CN115546162A CN 115546162 A CN115546162 A CN 115546162A CN 202211257173 A CN202211257173 A CN 202211257173A CN 115546162 A CN115546162 A CN 115546162A
- Authority
- CN
- China
- Prior art keywords
- features
- scale
- network
- splicing
- viewport
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Quality & Reliability (AREA)
- Image Processing (AREA)
Abstract
本申请公开了一种虚拟现实图像质量评估方法及系统,包括:构建主干网络;获取二维ERP格式图像,将其转换为球体结构下的多个视口图像,并获得主干网络预测分数;构建多尺度辅助网络,基于多尺度辅助网络获得多尺度特征,并对其进行融合,得到多尺度融合特征;对多尺度融合特征进行拼接,并进行感知质量回归,得到辅助网络的预测分数;将主干网络和辅助网络的预测分数进行拼接,得到全景图像感知质量预测分数;计算全景图像感知质量预测分数与全景图像主观质量分数的损失,并对整体网络进行训练、优化,得到最优模型,进而对虚拟现实图像进行质量评估。本申请考虑到人眼观看VR时的多尺度感知特性,进一步提高了VR全景图像质量预测准确度。
Description
技术领域
本申请属于图像处理技术领域,具体涉及一种虚拟现实图像质量评估方法及系统。
背景技术
虚拟现实(VR)作为一种沉浸式的新兴技术,它以头戴式等设备作为载体,能够呈现360°全景视频、图像内容,为消费者提供了一种全新的视觉信息交互方式。随着VR技术越来越流行,已经开始广泛应用于医疗、军事、娱乐等各个领域。然而由于全视角内容的记录,VR图像往往需要很高的分辨率,加上其球面的表示形式,为VR图像的处理(采集、编解码、传输等)带来很多困难。为了满足用户的高质量体验感,研究VR图像内容的质量评价对指导现有算法的优化以及提升VR对于用户的体验感,具有重要的意义和实际价值。
图像质量评估可以分为全参考质量评估、半参考质量评估以及无参考质量评估。传统的PSNR、SSIM等基于像素来评估图像质量的方法跟人类图像质量感知的一致性较低。而且随着互联网和社交媒体的发展,质量评估的对象往往都是已失真图像,原始未失真图像很难获得,对于全景图像更是如此。因此基于深度学习的无参考质量评价就具有更加广泛的研究价值。
基于深度学习的无参考全景图像质量评估方法多以全景图像压缩后的ERP格式作为网络输入,与传统全参考质量评估方法相比虽取得了很大的提升,但由于全景图像特性,ERP格式会引入几何畸变,对最终的结果仍然有很大影响。最近的很多算法以从ERP中提取的视口图像为输入,以此来模拟人在观看VR全景图像时的场景,从而使得质量评估结果取得了显著的提升。但这一类算法往往仅仅将视口图像并行送入网络,而忽略了视口图像之间在空间位置上的特征关联性,因为每个视口的感知质量只是作为整体感知质量的一部分,视口之间在空间上的相对位置会在很大程度上影响人对于全景图像的整体感知质量。
发明内容
本申请所要解决的技术问题在于提供一种全新的基于视口输入的VR全景图像质量评估方法及系统,以基于注意力机制的Vision Transformer(ViT)作为主体网络来替换常规的卷积神经网络,更加符合人眼视觉质量感知的特性。本申请还提供了一种全新的融合视口空间位置关联性的方法来提升客观质量评估水平。在此基础上,本申请还模拟了人在观看VR时的多尺度视觉感知特性,从而进一步提升模型质量感知水平。
为实现上述目的,本申请提供了如下方案:
一种虚拟现实图像质量评估方法,包括:
S1、构建主干网络;
S2、获取一张二维ERP格式图像,将所述二维ERP格式图像转换为球体结构下的多个视口图像;
S3、基于所述主干网络和所述视口图像,获得主干网络预测分数;
S4、构建多尺度辅助网络,基于所述多尺度辅助网络获得多尺度特征,并对所述多尺度特征进行融合,得到多尺度融合特征;
S5、对所述多尺度特征及所述多尺度融合特征进行拼接,得到第三拼接特征,对所述第三拼接特征进行感知质量回归,得到所述辅助网络的预测分数;
S6、将所述主干网络的预测分数和所述辅助网络的预测分数进行拼接,得到全景图像感知质量预测分数;
S7、计算所述全景图像感知质量预测分数与全景图像主观质量分数的损失,并基于所述损失,对整体网络进行训练、优化,得到最优模型,基于所述最优模型,对虚拟现实图像进行质量评估。
优选的,S1所述主干网络包括基于注意力机制的Vision Transformer。
优选的,S2所述多个视口图像包括:上、下、前、后、左、右六个方位对应的视口图像。
优选的,S3获得所述主干网络预测分数的方法包括:
将所述视口图像输入至所述主干网络,获得所述视口图像的高维特征;
对所述高维图像特征进行拼接,得到第一拼接特征,并基于空间位置对所述第一拼接特征进行特征融合,获得融合后的视口空间位置关联特征;
将所述高维特征和所述视口空间位置关联特征进行拼接,获得第二拼接特征,并对所述第二拼接特征进行感知质量回归,得到所述主干网络的预测分数。
优选的,所述融合后的视口空间位置关联特征获取方法包括:
对所述高维特征进行拼接,得到所述第一拼接特征;
对所述第一拼接特征添加一维位置编码,获取视口空间拼接特征;
基于所述视口空间拼接特征,获得视口空间融合特征;
调整所述视口空间融合特征维度,基于特征融合提取模块,获得所述融合后的视口空间位置关联特征。
优选的,S4所述多尺度辅助网络的构建方法包括:
将所述视口图像中的前方方位视口图像通过resize调整到多个新的尺度,作为多尺度输入;
以Resnet50作为基础框架,基于所述多尺度输入,在最高池化层设置池化核大小,得到所述多尺度辅助网络。
优选的,S7所述损失的计算方法包括:采用MAE损失函数,计算所述全景图像感知质量预测分数与全景图像主观质量分数的损失。
本申请还提供一种虚拟现实图像质量评估系统,包括:第一网络构建模块、格式转换模块、第一分数预测模块、第二网络构建模块、第二分数预测模块、第三分数预测模块和模型优化模块;
所述第一网络构建模块用于基于注意力机制的Vision Transformer构建主干网络;
所述格式转换模块用于将二维ERP格式图像转换为球体结构下的多个视口图像;
所述多个视口图像包括上、下、前、后、左、右六个方位对应的视口图像;
所述第一分数预测模块用于基于所述主干网络和所述视口图像,获得主干网络预测分数;
所述第二网络构建模块用于构建多尺度辅助网络,基于所述多尺度辅助网络获得多尺度特征,并对所述多尺度特征进行融合,得到多尺度融合特征;
所述第二分数预测模块用于对所述多尺度特征及所述多尺度融合特征进行拼接,得到第三拼接特征,对所述第三拼接特征进行感知质量回归,得到所述辅助网络的预测分数;
所述第三分数预测模块用于将所述主干网络的预测分数和所述辅助网络的预测分数进行拼接,得到全景图像感知质量预测分数;
所述模型优化模块用于基于MAE损失函数,计算所述全景图像感知质量预测分数与全景图像主观质量分数的损失,并基于所述损失,对整体网络进行训练、优化,得到最优模型,并基于所述最优模型,对虚拟现实图像进行质量评估。
优选的,所述第二网络构建模块构建所述多尺度辅助网络的方法包括:
将所述视口图像中的前方方位视口图像通过resize调整到多个新的尺度,作为多尺度输入;
以Resnet50作为基础框架,基于所述多尺度输入,在最高池化层设置池化核大小,得到所述多尺度辅助网络。
优选的,所述第一分数预测模块获得所述主干网络预测分数的过程包括:
将所述视口图像输入至所述主干网络,获得所述视口图像的高维特征;
对所述高维图像特征进行拼接,得到第一拼接特征,并基于空间位置对所述第一拼接特征进行特征融合,获得融合后的视口空间位置关联特征;
将所述高维特征和所述视口空间位置关联特征进行拼接,获得第二拼接特征,并对所述第二拼接特征进行感知质量回归,得到所述主干网络的预测分数。
本申请的有益效果为:
本申请公开了一种虚拟现实图像质量评估方法及系统,以视口图像作为网络输入,更加贴合人眼观看VR时的视觉感知效果。在此基础上,以ViT为基础网络搭建整体网络架构。主干网络中,除了每个视口内部基于注意力提取特征以外,创新的将每个视口间的空间位置特征进行了进一步融合,有效提取了视口融合后的特征。除此以外,本发明还考虑到人眼观看VR时的多尺度感知特性,以原视口尺度为基准,调整出多个尺度作为辅助网络输入,并针对所述多尺度输入,建立多尺度特征提取与融合网络,从而进一步提高了VR全景图像质量预测准确度。
附图说明
为了更清楚地说明本申请的技术方案,下面对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请虚拟现实图像质量评估方法流程示意图;
图2为本申请虚拟现实图像质量评估方法具体流程示意图:
图3为本申请主干网络模块示意图;
图4为本申请辅助网络模块示意图;
图5为本申请空间位置关联性融合之后的特征提取子模块示意图;
图6为本申请多尺度融合子模块示意图;
图7为本申请虚拟现实图像质量评估系统结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
为使本申请的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本申请作进一步详细的说明。
实施例一
如图1、图2所示,本申请一种虚拟现实图像质量评估方法流程示意图,包括:
S1、构建主干网络;
本实施例中,主干网络采用基于注意力机制的Vision Transformer(ViT)和Resnet50的混合网络作为主体网络代替常规的卷积神经网络。
本实施例中,主干网络主要分为Embedded、Encoder两个阶段,具体结合步骤S3做详细说明。主干网络模块具体如图3所示。
S2、获取一张二维ERP格式图像,将二维ERP格式图像转换为球体结构下的多个视口图像;
考虑到人在观看全景图像时更多视点会落在赤道附近,极少视点落在两极,所以本实施例使用的视口提取方案为:以观看者为球心,提取当前位置对应的前、后、左、右、上、下六个视口,作为一组视口图像。考虑观看过程中起始位置的随机性,本实例中以观看者为圆心,赤道为圆,每2°为一个起始点,提取一组视口图像,由此,本实例中一张全景图像对应的视口图像数量为:(360/2)×6=1080。
对视口图像进行Resize操作:将视口图像维度统一调整到3×224×224,再进行Normalization操作,本实施例中,设置mean=[0.5,0.5,0.5]、std=[0.5,0.5,0.5],完成归一化处理过程后,对视口图像进行合理划分,分为训练集和测试集,在本实施例中,训练集与测试集按照7:3划分。
S3、基于主干网络和视口图像,获得主干网络预测分数;
获得主干网络预测分数的方法包括:
S31、将视口图像输入至主干网络,获得视口图像的高维特征;
Embedded阶段:为有效利用ViT中token在预训练阶段的位置编码信息,在将特征送入ViT之前,要将数据维度统一到b×196×768(b表示Batch_size)。在本实例中原始数据输入维度为b×3×224×224,经过Resnet50提取视口图像特征后的特征维度为b×1024×14×14,将第三、第四维度做展平操作,展平之后的特征维度为b×1024×196,将第二、第三维度对调,对调之后的特征维度为b×196×1024。然后将特征通过一层全连接层,其中,全连接层的输入输出通道数分别设置为1024、768。输出的特征维度为b×196×768。然后加入一个相同维度,即维度为b×1×768的token,用于下游任务,我们称为Class_token,输出的特征维度为b×197×768。然后通过sum操作,给输出特征添加可学习的位置编码,以保证视口图像内容信息的完整性,输出的编码特征维度为b×197×768。
Encoder阶段:对编码特征进行基于注意力机制的进一步特征融合。将每个视口图像对应的编码特征,3次通过一个全连接层分别线性映射到与其相同维度的Q、K、V三个向量,其中,全连接层的输入输出通道数分别设置为768、768。以Q向量作为查询向量,K向量作为匹配向量,通过点乘的方式计算每两个token之间的“相似度”,我们将得到的这个“相似度”称为注意力权重:Attention_weight。然后将注意力权重通过点乘的方式作用在K向量上,完成得到视口内部各token间的注意力特征提取,公式表示为:
式中,T表示转置操作,dk表示K向量的维度,softmax表示数据归一化操作。
值得注意的是,在计算注意力权重时,考虑到图像包含特征的多样性,本次实例将每个token对应的Q、K、V向量切分成多个,以Q向量为例,切分后为对应的向量组为Q1,Q2,...,Qn。对应下标的Q、K、V向量分别做注意力特征提取的过程,再将获取到的多组注意力特征合并,得到基于注意力的视口图像特征。我们称这种方式为:多头注意力机制,本实例中设置的多头注意力个数为12。将获取得到的基于注意力的视口图像特征通过两层全连接层,两层全连接层的输入输出通道数分别为768、3072和3072、768。获取得到的输出特征维度为b×197×768。将以上过程重复多次,以更好的融合视口内部特征,本实例中设置的注意力模块层数为12。最后提取每个视口图像对应的Class_token,Class_token维度为b×768,通过一层全连接层,其中,全连接层的输入输出通道数为768、10,最终得到的高维特征为b×10。
S32、对高维图像特征进行拼接,得到第一拼接特征,并基于空间位置对第一拼接特征进行特征融合,获得融合后的视口空间位置关联特征;
其中,融合后的视口空间位置关联特征获取方法包括:
S321、对高维特征进行拼接,得到第一拼接特征;
将上述每个视口对应的Class_token拼接起来,得到第一拼接特征,维度为b×6×768;
S322、对第一拼接特征添加一维位置编码,获取视口空间拼接特征;
通过Sum操作加入一维位置编码,输出视口空间拼接特征,其维度为b×6×768。
S323、基于视口空间拼接特征,获得视口空间融合特征;
将视口空间拼接特征经过多层注意力模块,根据注意力机制提取各视口间的融合特征,获得视口空间融合特征。具体为:
将视口空间拼接特征通过3层注意力模块,其中,注意力模块实现如步骤S31中Attention_weight的计算过程,输出视口空间融合特征维度为b×6×768。
S324、调整视口空间融合特征维度,基于特征融合提取模块,获得融合后的视口空间位置关联特征。
将视口空间融合特征调整维度到b×6×16×48,然后通过一个特征提取子模块,具体如图5所示。
其中,特征提取子模块包括四个Block和一个池化层,每个Block包括一个二维卷积层、一个BatchNorm层、一个ReLu层,第一个Block中卷积层的输入输出通道数分别为6、12,卷积核大小为7×7,步长为2×2,填充值为3×3,其余Block中卷积核大小为3×3,步长为2×2,填充值为1×1;第二个Block中卷积层的输入输出通道数分别为12、24,第三个Block中卷积层的输入输出通道数分别为24、48,第四个Block中卷积层的输入输出通道数分别为48、64。池化层卷积核大小为1×3,步长为1×1。
经过特征提取子模块后的输出视口融合特征维度为b×64×1×1,调整其特征维度到b×64,然后通过一层全连接层,其中,全连接层的输入输出通道数为64、10,最终得到视口空间位置关联特征,其维度为b×10。
S33、将高维特征和视口空间位置关联特征进行拼接,获得第二拼接特征,并对第二拼接特征进行感知质量回归,得到主干网络的预测分数。
将高维特征和视口空间位置关联特征拼接起来,维度为b×70,通过一层全连接层,其中,全连接层的输入输出通道数为70、1,做一次感知质量回归,得到主干网络预测分数score1;
S4、构建多尺度辅助网络,基于多尺度辅助网络获得多尺度特征,并对多尺度特征进行融合,得到多尺度融合特征;
S41、辅助网络构建方法包括:
(1)将视口图像中的前方方位视口图像通过resize调整到多个新的尺度,作为多尺度输入;
将前方方位视口图像进行两次resize操作,分别调整大小到448×448和112×112,将调整之后的图像尺度和原图像尺度一起,作为辅助网络的多尺度输入。
(2)以Resnet50作为基础框架,基于多尺度输入,在最高池化层设置池化核大小,得到多尺度辅助网络。
辅助网络以Resnet50为基础搭建,针对不同的输入尺度,设置不同的Average_pooling大小,本实例中针对448×448、224×224、112×112分别设置卷积核大小为14×14、7×7、4×4的池化层,我们称这一改进之后的网络为Re_resnet50,即多尺度辅助网络。辅助网络模块具体如图4所示。
多尺度输入并行通过Re_Resnet50网络,得到相同的输出维度b×1024,然后经过一层全连接层,其中,全连接层的输入输出通道数分别为1024、10,得到多尺度特征,多尺度特征维度为b×10。
S42、将多尺度特征做进一步融合,得到多尺度融合特征:
将多尺度特征拼接起来,维度为b×3×10,再调整维度到b×1×3×10,然后通过多尺度特征融合子模块,如图6所示,多尺度特征融合子模块由卷积核为3×3的二维空洞卷积层和ReLu层组成,用于融合多尺度特征维度,本实例多尺度个数为3,输出多尺度融合特征维度为b×1×3×10。将多尺度融合特征调整维度到b×30,通过一层全连接层,全连接层的输入输出通道数分别为30、10,最终输出多尺度融合特征,其维度为b×10。
S5、对多尺度特征及多尺度融合特征进行拼接,得到第三拼接特征,对第三拼接特征进行感知质量回归,得到辅助网络的预测分数;
将多尺度特征和多尺度融合特征拼接起来,维度为b×40,通过一层全连接层,其中,全连接层的输入输出通道数分别为40、1,做一次感知质量回归,得到辅助网络的预测分数score2;
S6、将主干网络的预测分数和辅助网络的预测分数进行拼接,得到全景图像感知质量预测分数;
将上述预测分数score1、score2拼接起来,维度为b×2,然后通过一层全连接层,其中,全连接层的输入输出通道数分别为2、1,得到最终全景图像感知质量预测分数score。
S7、计算全景图像感知质量预测分数与全景图像主观质量分数的损失,并基于损失,对整体网络进行训练、优化,得到最优模型,基于最优模型,对虚拟现实图像进行质量评估。
采用MAE损失函数,在全景图像感知质量预测分数score与对应全景图像的主观质量分数scoreground_truth之间计算损失,根据损失函数训练优化网络Loss=(score-scoreground_truth)2,使得损失逐步降低,经过训练,最终得到鲁棒性能更好的VR全景图像客观质量评估模型。
本实施例中,训练5次以内,将得到最优模型,并以.pkl格式保存下来,用于对虚拟现实图像进行质量评估。
本申请所提出的虚拟现实全景图像质量预测方法充分考虑了人眼视觉感知特性,模拟真实场景下人眼观看VR的场景。以视口图像作为网络输入,在模型搭建过程中,以ViT作为主干网络,在此基础上,建立了有效的视口空间位置融合模型,对六个不同空间位置的视口进行了有效的信息融合;辅助网络模拟人眼观看VR时的多尺度感知特性,搭建多尺度质量感知网络,有效融合多尺度特征。最终综合两支路网络,得到VR全景图像预测质量分数。本发明充分考虑到视口空间位置特性对于人眼视觉质量感知的影响,从而提高了全景图像质量预测的性能。
实施例二
如图7所示,本申请还提供一种虚拟现实图像质量评估系统,包括:第一网络构建模块、格式转换模块、第一分数预测模块、第二网络构建模块、第二分数预测模块、第三分数预测模块和模型优化模块;
第一网络构建模块用于构建主干网络,本实施例中,主干网络采用基于注意力机制的Vision Transformer(ViT)和Resnet50的混合网络作为主体网络代替常规的卷积神经网络。
本实施例中,主干网络主要分为Embedded、Encoder两个阶段,具体工作过程结合其他模块进行详细说明;
格式转换模块用于将二维ERP格式图像转换为球体结构下的多个视口图像;
具体工作过程包括:
考虑到人在观看全景图像时更多视点会落在赤道附近,极少视点落在两极,所以本实施例使用的视口提取方案为:以观看者为球心,提取当前位置对应的前、后、左、右、上、下六个视口,作为一组视口图像。考虑观看过程中起始位置的随机性,本实例中以观看者为圆心,赤道为圆,每2°为一个起始点,提取一组视口图像,由此,本实例中一张全景图像对应的视口图像数量为:(360/2)×6=1080。
对视口图像进行Resize操作:将视口图像维度统一调整到3×224×224,再进行Normalization操作,本实施例中,设置mean=[0.5,0.5,0.5]、std=[0.5,0.5,0.5],完成归一化处理过程后,对视口图像进行合理划分,分为训练集和测试集,在本实施例中,训练集与测试集按照7:3划分。
第一分数预测模块用于基于主干网络和视口图像,获得主干网络预测分数;
具体工作过程包括:
(1)将视口图像输入至主干网络,获得视口图像的高维特征;
Embedded阶段:为有效利用ViT中token在预训练阶段的位置编码信息,在将特征送入ViT之前,要将数据维度统一到b×196×768(b表示Batch_size)。在本实例中原始数据输入维度为b×3×224×224,经过Resnet50提取视口图像特征后的特征维度为b×1024×14×14,将第三、第四维度做展平操作,展平之后的特征维度为b×1024×196,将第二、第三维度对调,对调之后的特征维度为b×196×1024。然后将特征通过一层全连接层,其中,全连接层的输入输出通道数分别设置为1024、768。输出的特征维度为b×196×768。然后加入一个相同维度,即维度为b×1×768的token,用于下游任务,我们称为Class_token,输出的特征维度为b×197×768。然后通过sum操作,给输出特征添加可学习的位置编码,以保证视口图像内容信息的完整性,输出的编码特征维度为b×197×768。
Encoder阶段:对编码特征进行基于注意力机制的进一步特征融合。将每个视口图像对应的编码特征,3次通过一个全连接层分别线性映射到与其相同维度的Q、K、V三个向量,其中,全连接层的输入输出通道数分别设置为768、768。以Q向量作为查询向量,K向量作为匹配向量,通过点乘的方式计算每两个token之间的“相似度”,我们将得到的这个“相似度”称为注意力权重:Attention_weight。然后将注意力权重通过点乘的方式作用在K向量上,完成得到视口内部各token间的注意力特征提取,公式表示为:
式中,T表示转置操作,dk表示K向量的维度,softmax表示数据归一化操作。
值得注意的是,在计算注意力权重时,考虑到图像包含特征的多样性,本次实例将每个token对应的Q、K、V向量切分成多个,以Q向量为例,切分后为对应的向量组为Q1,Q2,...,Qn。对应下标的Q、K、V向量分别做注意力特征提取的过程,再将获取到的多组注意力特征合并,得到基于注意力的视口图像特征。我们称这种方式为:多头注意力机制,本实例中设置的多头注意力个数为12。将获取得到的基于注意力的视口图像特征通过两层全连接层,两层全连接层的输入输出通道数分别为768、3072和3072、768。获取得到的输出特征维度为b×197×768。将以上过程重复多次,以更好的融合视口内部特征,本实例中设置的注意力模块层数为12。最后提取每个视口图像对应的Class_token,Class_token维度为b×768,通过一层全连接层,其中,全连接层的输入输出通道数为768、10,最终得到高维特征为b×10。
(2)对高维图像特征进行拼接,得到第一拼接特征,并基于空间位置对第一拼接特征进行特征融合,获得融合后的视口空间位置关联特征;
(21)对高维特征进行拼接,得到第一拼接特征;
将上述每个视口对应的Class_token拼接起来,得到第一拼接特征,维度为b×6×768;
(22)对第一拼接特征添加一维位置编码,获取视口空间拼接特征;
通过Sum操作加入一维位置编码,输出视口空间拼接特征,其维度为b×6×768。
(23)基于视口空间拼接特征,获得视口空间融合特征;
将视口空间拼接特征经过多层注意力模块,根据注意力机制提取各视口间的融合特征,获得视口空间融合特征。具体为:
将视口空间拼接特征通过3层注意力模块,其中,注意力模块实现如步骤S31中Attention_weight的计算过程,输出视口空间融合特征维度为b×6×768。
(24)调整视口空间融合特征维度,基于特征融合提取模块,获得融合后的视口空间位置关联特征。
将视口空间融合特征调整维度到b×6×16×48,然后通过一个特征提取子模块。
其中,特征提取子模块包括四个Block和一个池化层,每个Block包括一个二维卷积层、一个BatchNorm层、一个ReLu层,第一个Block中卷积层的输入输出通道数分别为6、12,卷积核大小为7×7,步长为2×2,填充值为3×3,其余Block中卷积核大小为3×3,步长为2×2,填充值为1×1;第二个Block中卷积层的输入输出通道数分别为12、24,第三个Block中卷积层的输入输出通道数分别为24、48,第四个Block中卷积层的输入输出通道数分别为48、64。池化层卷积核大小为1×3,步长为1×1。
经过特征提取子模块后的输出视口融合特征维度为b×64×1×1,调整其特征维度到b×64,然后通过一层全连接层,其中,全连接层的输入输出通道数为64、10,最终得到视口空间位置关联特征,其维度为b×10。
(3)将高维特征和视口空间位置关联特征进行拼接,获得第二拼接特征,并对第二拼接特征进行感知质量回归,得到主干网络的预测分数。
将高维特征和视口空间位置关联特征拼接起来,维度为b×70,通过一层全连接层,其中,全连接层的输入输出通道数为70、1,做一次感知质量回归,得到主干网络预测分数score1;
第二网络构建模块用于构建多尺度辅助网络,基于多尺度辅助网络获得多尺度特征,并对多尺度特征进行融合,得到多尺度融合特征;
具体工作过程包括:
(1)将视口图像中的前方方位视口图像通过resize调整到多个新的尺度,作为多尺度输入;
将前方方位视口图像进行两次resize操作,分别调整大小到448×448和112×112,将调整之后的图像尺度和原图像尺度一起,作为辅助网络的多尺度输入。
(2)以Resnet50作为基础框架,基于多尺度输入,在最高池化层设置池化核大小,得到多尺度辅助网络。
辅助网络以Resnet50为基础搭建,针对不同的输入尺度,设置不同的Average_pooling大小,本实例中针对448×448、224×224、112×112分别设置卷积核大小为14×14、7×7、4×4的池化层,我们称这一改进之后的网络为Re_resnet50,即多尺度辅助网络。
多尺度输入并行通过Re_Resnet50网络,得到相同的输出维度b×1024,然后经过一层全连接层,其中,全连接层的输入输出通道数分别为1024、10,得到多尺度特征,多尺度特征维度为b×10。
(3)将多尺度特征做进一步融合,得到多尺度融合特征:
将多尺度特征拼接起来,维度为b×3×10,再调整维度到b×1×3×10,然后通过多尺度特征融合模块,多尺度特征融合模块由卷积核为3×3的二维空洞卷积层和ReLu层组成,用于融合多尺度特征维度,本实例多尺度个数为3,输出多尺度融合特征维度为b×1×3×10。将多尺度融合特征调整维度到b×30,通过一层全连接层,全连接层的输入输出通道数分别为30、10,最终输出多尺度融合特征,其维度为b×10。
第二分数预测模块用于对多尺度特征及多尺度融合特征进行拼接,得到第三拼接特征,对第三拼接特征进行感知质量回归,得到辅助网络的预测分数;
将多尺度特征和多尺度融合特征拼接起来,维度为b×40,通过一层全连接层,其中,全连接层的输入输出通道数分别为40、1,做一次感知质量回归,得到辅助网络的预测分数score2;
第三分数预测模块用于将主干网络的预测分数和辅助网络的预测分数进行拼接,得到全景图像感知质量预测分数;
具体工作过程包括:
将上述预测分数score1、score2拼接起来,维度为b×2,然后通过一层全连接层,其中,全连接层的输入输出通道数分别为2、1,得到最终全景图像感知质量预测分数score。
模型优化模块用于基于MAE损失函数,计算全景图像感知质量预测分数与全景图像主观质量分数的损失,并基于损失,对整体网络进行训练、优化,得到最优模型,并基于最优模型,对虚拟现实图像进行质量评估。
具体工作流程包括:
采用MAE损失函数,在全景图像感知质量预测分数score与对应全景图像的主观质量分数scoreground_truth之间计算损失,根据损失函数训练优化网络Loss=(score-scoreground_truth)2,使得损失逐步降低,经过训练,最终得到鲁棒性能更好的VR全景图像客观质量评估模型,用于对虚拟现实图像进行质量评估。
以上所述的实施例仅是对本申请优选方式进行的描述,并非对本申请的范围进行限定,在不脱离本申请设计精神的前提下,本领域普通技术人员对本申请的技术方案做出的各种变形和改进,均应落入本申请权利要求书确定的保护范围内。
Claims (10)
1.一种虚拟现实图像质量评估方法,其特征在于,包括:
S1、构建主干网络;
S2、获取一张二维ERP格式图像,将所述二维ERP格式图像转换为球体结构下的多个视口图像;
S3、基于所述主干网络和所述视口图像,获得主干网络预测分数;
S4、构建多尺度辅助网络,基于所述多尺度辅助网络获得多尺度特征,并对所述多尺度特征进行融合,得到多尺度融合特征;
S5、对所述多尺度特征及所述多尺度融合特征进行拼接,得到第三拼接特征,对所述第三拼接特征进行感知质量回归,得到所述辅助网络的预测分数;
S6、将所述主干网络的预测分数和所述辅助网络的预测分数进行拼接,得到全景图像感知质量预测分数;
S7、计算所述全景图像感知质量预测分数与全景图像主观质量分数的损失,并基于所述损失,对整体网络进行训练、优化,得到最优模型,基于所述最优模型,对虚拟现实图像进行质量评估。
2.根据权利要求1所述虚拟现实图像质量评估方法,其特征在于,S1所述主干网络包括基于注意力机制的Vision Transformer。
3.根据权利要求1所述虚拟现实图像质量评估方法,其特征在于,S2所述多个视口图像包括:上、下、前、后、左、右六个方位对应的视口图像。
4.根据权利要求1所述虚拟现实图像质量评估方法,其特征在于,S3获得所述主干网络预测分数的方法包括:
将所述视口图像输入至所述主干网络,获得所述视口图像的高维特征;
对所述高维图像特征进行拼接,得到第一拼接特征,并基于空间位置对所述第一拼接特征进行特征融合,获得融合后的视口空间位置关联特征;
将所述高维特征和所述视口空间位置关联特征进行拼接,获得第二拼接特征,并对所述第二拼接特征进行感知质量回归,得到所述主干网络的预测分数。
5.根据权利要求4所述虚拟现实图像质量评估方法,其特征在于,所述融合后的视口空间位置关联特征获取方法包括:
对所述高维特征进行拼接,得到所述第一拼接特征;
对所述第一拼接特征添加一维位置编码,获取视口空间拼接特征;
基于所述视口空间拼接特征,获得视口空间融合特征;
调整所述视口空间融合特征维度,基于特征融合提取模块,获得所述融合后的视口空间位置关联特征。
6.根据权利要求3所述虚拟现实图像质量评估方法,其特征在于,S4所述多尺度辅助网络的构建方法包括:
将所述视口图像中的前方方位视口图像通过resize调整到多个新的尺度,作为多尺度输入;
以Resnet50作为基础框架,基于所述多尺度输入,在最高池化层设置池化核大小,得到所述多尺度辅助网络。
7.根据权利要求1所述虚拟现实图像质量评估方法,其特征在于,S7所述损失的计算方法包括:采用MAE损失函数,计算所述全景图像感知质量预测分数与全景图像主观质量分数的损失。
8.一种虚拟现实图像质量评估系统,其特征在于,包括:第一网络构建模块、格式转换模块、第一分数预测模块、第二网络构建模块、第二分数预测模块、第三分数预测模块和模型优化模块;
所述第一网络构建模块用于基于注意力机制的Vision Transformer构建主干网络;
所述格式转换模块用于将二维ERP格式图像转换为球体结构下的多个视口图像;
所述多个视口图像包括上、下、前、后、左、右六个方位对应的视口图像;
所述第一分数预测模块用于基于所述主干网络和所述视口图像,获得主干网络预测分数;
所述第二网络构建模块用于构建多尺度辅助网络,基于所述多尺度辅助网络获得多尺度特征,并对所述多尺度特征进行融合,得到多尺度融合特征;
所述第二分数预测模块用于对所述多尺度特征及所述多尺度融合特征进行拼接,得到第三拼接特征,对所述第三拼接特征进行感知质量回归,得到所述辅助网络的预测分数;
所述第三分数预测模块用于将所述主干网络的预测分数和所述辅助网络的预测分数进行拼接,得到全景图像感知质量预测分数;
所述模型优化模块用于基于MAE损失函数,计算所述全景图像感知质量预测分数与全景图像主观质量分数的损失,并基于所述损失,对整体网络进行训练、优化,得到最优模型,并基于所述最优模型,对虚拟现实图像进行质量评估。
9.根据权利要求8所述虚拟现实图像质量评估系统,其特征在于,所述第二网络构建模块构建所述多尺度辅助网络的方法包括:
将所述视口图像中的前方方位视口图像通过resize调整到多个新的尺度,作为多尺度输入;
以Resnet50作为基础框架,基于所述多尺度输入,在最高池化层设置池化核大小,得到所述多尺度辅助网络。
10.根据权利要求8所述虚拟现实图像质量评估系统,其特征在于,所述第一分数预测模块获得所述主干网络预测分数的过程包括:
将所述视口图像输入至所述主干网络,获得所述视口图像的高维特征;
对所述高维图像特征进行拼接,得到第一拼接特征,并基于空间位置对所述第一拼接特征进行特征融合,获得融合后的视口空间位置关联特征;
将所述高维特征和所述视口空间位置关联特征进行拼接,获得第二拼接特征,并对所述第二拼接特征进行感知质量回归,得到所述主干网络的预测分数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211257173.2A CN115546162A (zh) | 2022-10-14 | 2022-10-14 | 一种虚拟现实图像质量评估方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211257173.2A CN115546162A (zh) | 2022-10-14 | 2022-10-14 | 一种虚拟现实图像质量评估方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115546162A true CN115546162A (zh) | 2022-12-30 |
Family
ID=84732743
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211257173.2A Pending CN115546162A (zh) | 2022-10-14 | 2022-10-14 | 一种虚拟现实图像质量评估方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115546162A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116563210A (zh) * | 2023-03-21 | 2023-08-08 | 安徽中新云谷数字技术有限公司 | 一种虚拟现实图像质量评价方法及系统 |
CN117636134A (zh) * | 2024-01-25 | 2024-03-01 | 江西财经大学 | 基于层级移动窗口注意力的全景图像质量评价方法与系统 |
CN118196107A (zh) * | 2024-05-20 | 2024-06-14 | 江西财经大学 | 基于多协同网络辅助的全景图像盲质量评价方法与系统 |
-
2022
- 2022-10-14 CN CN202211257173.2A patent/CN115546162A/zh active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116563210A (zh) * | 2023-03-21 | 2023-08-08 | 安徽中新云谷数字技术有限公司 | 一种虚拟现实图像质量评价方法及系统 |
CN116563210B (zh) * | 2023-03-21 | 2023-12-08 | 安徽中新云谷数字技术有限公司 | 一种虚拟现实图像质量评价方法及系统 |
CN117636134A (zh) * | 2024-01-25 | 2024-03-01 | 江西财经大学 | 基于层级移动窗口注意力的全景图像质量评价方法与系统 |
CN117636134B (zh) * | 2024-01-25 | 2024-04-16 | 江西财经大学 | 基于层级移动窗口注意力的全景图像质量评价方法与系统 |
CN118196107A (zh) * | 2024-05-20 | 2024-06-14 | 江西财经大学 | 基于多协同网络辅助的全景图像盲质量评价方法与系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhou et al. | Omnidirectional image quality assessment by distortion discrimination assisted multi-stream network | |
CN115546162A (zh) | 一种虚拟现实图像质量评估方法及系统 | |
CN110599395B (zh) | 目标图像生成方法、装置、服务器及存储介质 | |
Yang et al. | 3D panoramic virtual reality video quality assessment based on 3D convolutional neural networks | |
CN110751649B (zh) | 视频质量评估方法、装置、电子设备及存储介质 | |
CN110689599A (zh) | 基于非局部增强的生成对抗网络的3d视觉显著性预测方法 | |
CN114445292A (zh) | 一种多阶段渐进式水下图像增强方法 | |
Sun et al. | Learning local quality-aware structures of salient regions for stereoscopic images via deep neural networks | |
CN110852940A (zh) | 一种图像处理方法及相关设备 | |
Fang et al. | Perceptual quality assessment of omnidirectional images | |
CN116168067B (zh) | 基于深度学习的有监督多模态光场深度估计方法 | |
CN115689996A (zh) | 一种基于深度学习的全景拼接图像质量评价方法 | |
Lu et al. | Improved image classification with 4D light-field and interleaved convolutional neural network | |
CN116958534A (zh) | 一种图像处理方法、图像处理模型的训练方法和相关装置 | |
CN117730530A (zh) | 图像处理方法及装置、设备、存储介质 | |
CN116703752A (zh) | 融合近红外的Transformer结构的图像去雾方法及装置 | |
CN112785502A (zh) | 一种基于纹理迁移的混合相机的光场图像超分辨率方法 | |
CN111754561B (zh) | 基于自监督深度学习的光场图像深度恢复方法及系统 | |
CN111583345B (zh) | 一种相机参数的获取方法、装置、设备及存储介质 | |
CN108765549A (zh) | 一种基于人工智能的产品三维展示方法及装置 | |
CN113066074A (zh) | 一种基于双目视差偏移融合的视觉显著性预测方法 | |
Ullah et al. | Perceptual quality assessment of panoramic stitched contents for immersive applications: a prospective survey | |
CN111178163B (zh) | 基于立方体投影格式的立体全景图像显著区域预测方法 | |
Hu et al. | Omnidirectional Video Quality Assessment With Causal Intervention | |
An et al. | Panoramic Video Quality Assessment Based on Spatial-Temporal Convolutional Neural Networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |