CN107180427A - 基于自回归局部图像描述的3d合成图像质量评价方法 - Google Patents

基于自回归局部图像描述的3d合成图像质量评价方法 Download PDF

Info

Publication number
CN107180427A
CN107180427A CN201710421612.1A CN201710421612A CN107180427A CN 107180427 A CN107180427 A CN 107180427A CN 201710421612 A CN201710421612 A CN 201710421612A CN 107180427 A CN107180427 A CN 107180427A
Authority
CN
China
Prior art keywords
mrow
pixel
image
msub
mtd
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710421612.1A
Other languages
English (en)
Other versions
CN107180427B (zh
Inventor
乔俊飞
栗三
栗三一
顾锞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN201710421612.1A priority Critical patent/CN107180427B/zh
Publication of CN107180427A publication Critical patent/CN107180427A/zh
Application granted granted Critical
Publication of CN107180427B publication Critical patent/CN107180427B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

基于自回归局部图像描述的3D合成图像质量评价方法属于图像和视频质量评价的方法,利用自回归建模方法建立质量评价模型,实现对3D合成图像的有效评价。随着科技的进步,基于深度的图像绘制(DIBR)技术得到越来越广泛的应用,如自由视角视频和3D电视等。DIBR技术可以根据已有的多视角图像合成新视角下的图像,从而减少自由视角视频的拍摄费用和难度。然而合成图像过程中难以避免产生几何失真,目前所有的图像质量评价方法均难以有效评价几何失真图像。实验结果表明,通过计算合成图像与回归模型之间的重构误差可以有效识别几何失真。本发明填补了DIBR图像无参考质量评价技术方面的空白,促进了3D技术的发展。

Description

基于自回归局部图像描述的3D合成图像质量评价方法
技术领域
本发明属于图像和视频质量评价的方法,利用自回归建模方法建立质量评价模型,实现对3D合成图像的有效评价。
背景技术
二十一世纪以来,图像和视频逐渐成为人们获取信息、沟通交流的重要途径,全世界每年产生数百亿张数字照片和数亿段视频,而伴随着3G技术的普及和4G时代的开启,基于3D技术的虚拟现实等全视角视频是科技发展的必然趋势。在制作自由视角视频过程中,需要使用基于深度的图像绘制(DIBR)技术,根据临近的多个视角图像产生新的视角下的图像。DIBR技术生成合成图像主要分为两步:首先通过每个像素的深度信息在3D空间重新产生新的结构信息;然后将3D空间点延伸到2D像平面产生虚拟照相机,通过虚拟照相机产生新视角下的图像。DIBR技术的应用可以有效减少自由视角视频拍摄过程中使用摄像机的数量,降低视频拍摄难度,但合成图像的过程中不可避免会产生几何畸变。几何畸变与自然图像中发生的畸变(如模糊、块效应和细节丢失等)具有不同的特征,严重的几何畸变会降低多视角视频的观看效果。因此,需要一种图像质量评价方法有效识别DIBR图像中的几何畸变。
目前已有的质量评价方法可以有效识别自然图像(多重失真图像、红外图像、立体图像等)中的畸变,对DIBR合成图像中的几何畸变评价效果并不理想。研究发现自然图像临近像素间存在渐变性,即自相似性,而几何失真会破坏这种自相似性。基于此本发明使用自回归方法对图像建立局部自回归模型,通过计算合成图像与回归模型之间的重构误差识别几何失真。本发明在评价DIBR合成图像时不需要无失真图像信息,是一种无参考质量评价方法,实际应用过程中通常无失真图像是不可能得到的,因此本发明完全符合实际应用需求。DIBR合成图像的无参考质量评价方法目前尚无人研究,本发明填补了这一方向的空白,对DIBR合成图像的评价提供有效的方法。
发明内容
本发明依据建立自回归模型提出一种DIBR合成图像评价方法,可以有效识别合成图像中的失真畸变。通过IRCCyN/IVC数据库中的96副图片对该方法进行验证,实验结果表明,本发明对合成图像的评价效果明显高于已有的图像质量评价方法,皮尔逊线性相关性系数(PLCC)、斯皮尔曼排序相关性系数(SRCC)和肯德尔排序相关性系数(KRCC)分别达到0.7307、0.7157和0.5766,均优于已有的算法(最好效果分别为0.6772、0.6634和0.5382),并且评价的均方根误差(RMSE)由最低的0.4899进一步降低到0.4546。本发明在质量评价效果和效率方面都有明显提高。
基于自回归局部图像描述的3D合成图像质量评价方法,其特征在于包括以下步骤:
第一步、建立自回归模型;
第二步、计算自回归参数;
第三步、计算图像与自回归模型预测值之间的误差;
第四步、二值化误差,将误差根据阈值变为0和1;
第五步、根据二值化误差计算图像质量得分;
第一步中:
自回归模型建立方法如下:
对于图像I中一个像素,定义其位置指标为i,值为zi,则构造该像素与其周边像素的关系为:
zi=Rσ(zi)q+di (1)
其中Rσ(zi)为像素zi周边面积为的区域内σ个像素的值组成的矢量;q=(q1,q2,…,qσ)T为自回归参数矢量,(q1,q2,…,qσ)分别对应周边σ个像素的参数,一个像素有一个参数;T表示转置;di为当前像素值与相应的自回归预测值之间的误差;其中设定σ值为8;
第二步中:
自回归参数计算方法如下:
为了计算合适的自回归参数,首先将线性系统转换为矩阵形式:
其中z=(zi,1,zi,2,…,zi,φ)T,(zi,1,zi,2,…,zi,φ)为以像素xi为中心的区域内的φ个像素的值;X为φ行σ列的矩阵;Z的第j行向量表达式为Z(j,:)=Rσ(zi,j),j={1,2,…,φ},表示像素zi,j周边面积为的区域内σ个像素的值组成的矢量,其中设定σ值为8;将φ设定为48;
然后使用最小二乘方法得到最好的自回归参数:
其中Z与z的定义同公式(2)。
第三步中:
使用自回归模型预测输入DIBR合成图像并得到误差;同时使用高斯滤波器对误差进行滤波,移除孤立的噪声点;然后只保留η%误差显著的区域,η%取值范围为0%到50%。
第四步中:
二值化误差方法如下:
通过阈值对误差进行二值化操作:
其中Ee为高斯滤波后的误差,λt为恒定阈值,取值范围为30到150;
第五步中:
图像质量评分公式如下:
其中N1表示Ed值为1的像素点的个数,N表示整个图像中所有像素点的个数。
本发明的创造性主要体现在:
1)本发明利用建立自回归模型对图像进行局部描述,提出一种新的DIBR合成图像几何畸变质量评价方法。
2)首次提出DIBR合成图像无参考质量评价方法。
3)本发明提出的质量评价方法鲁棒性强,对中间参数不敏感。
4)该质量评价方法可以与已有的有参考质量评价方法相结合,可以对现有的质量评价方法起到扩展作用。
附图说明
图1、本发明的质量评价框图。
具体实施方式:
下面对本发明的实施例作详细说明,本实施例在本发明技术方案为前提下进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
实施例:
第一步、建立自回归模型
对于图像I中一个像素,定义其位置指标为i,值为zi,则构造该像素与其周边像素的关系为:
zi=Rσ(zi)q+di (1)
其中Rσ(zi)为像素zi周边面积为的区域内σ个像素组成的矢量;q=(q1,q2,…,qσ)T为自回归参数矢量,(q1,q2,…,qσ)分别对应周边σ个像素的参数,一个像素有一个参数;T表示转置;di为当前像素值与相应的自回归预测值之间的误差;其中设定σ值为8,因为实验表明增大θ值会增加计算量,但模型预测精度并没有上升。
第二步、计算自回归参数
为了计算合适的自回归参数,首先将线性系统转换为矩阵形式:
其中z=(zi,1,zi,2,…,zi,φ)T,(zi,1,zi,2,…,zi,φ)为以像素xi为中心的区域内的φ个像素的值;Z为φ行σ列的矩阵;Z的第j行向量表达式为Z(j,:)=Rσ(zi,j),j={1,2,…,φ},表示像素zi,j周边面积为的区域内σ个像素的值组成的矢量,其中设定σ值为8;根据人们对局部斑块的广义平稳和几何二象性的有效性原则,将φ设定为48。
然后使用最小二乘方法得到最好的自回归参数:
其中Z与z的定义同公式(2)。
假设根据公式(1)对一个像素建立的关系,在7乘7的区域内仍存在临近的48个像素点,我们使用中心像素点zi和周围的48个像素信息共同确定自回归参数该策略可以确保自回归模型的可靠性。
第三步、计算误差
使用自回归模型预测输入DIBR合成图像并得到误差。同时使用高斯滤波器对误差进行滤波,移除孤立的噪声点。然后只保留η%(实验验证取值范围为0%到50%效果最理想,本实例取10%)误差显著的区域,这是因为误差显著区域代表着几何失真,非几何失真区域的误差与几何失真区域的误差值相差很大。
第四步、二值化误差
通过阈值对误差进行二值化操作:
其中Ee为高斯滤波后的误差,λt为恒定阈值(实验结果表明取值范围为30到150效果较理想,本实验取100)。
第五步、计算图像质量得分
根据已有的研究可知,比较一副失真图像和相关的自然图像的结构可以有效评估图像质量。由公式(4)可知,自然图像的误差较低,因此自然图像的二值化误差均为1,记为Er,通过比较Er和失真图像的二值化误差Ed可以预测DIBR合成图像的质量。
本发明定义合成图像的质量评价公式如下:
其中n为像素位置指标,N为整个图像中所有像素的个数;ε为为了避免分母为0的一个很小的正常数;α是与闵可夫斯基求和相关的活性指数,取值范围为[1,4],图像质量越差的区域α值越大,这是因为人们对于即便区域的关注度较高。
由于自然图像的几何畸变十分轻微,因此Er为单位变量1,公式(5)变为:
由于Ed(l)2+1>0,因此公式(6)中的ε可以删去,公式(6)变为:
其中N0和N1分别表示Ed值为0和1的区域,N0+N1=N。因此公式(7)可以简化为
从公式(8)可知,α的值对最终的质量评分没有影响,可以省略。
实施效果
依据上述步骤,本发明对IRCCyN/IVC数据库的96幅图片进行质量评价,其中12幅自然图像和84幅几何失真图像。评价指标有PLCC、SRCC、KRCC和RMSE。
PLCC的计算公式为:
其中Ss表示本发明对96幅图的质量评分组成的向量,Sm表示96幅图的主观评价分数向量,分别为Ss和Sm去均值化后的结果,T表示转置。PLCC的值越接近于1越好。
SRCC的计算公式如下:
其中dm表示每一对主观分数和去线性化的客观分数的排序差异。M表示主客观分数对的总数。SRCC的值越接近于1越好。
KRCC的计算公式如下:
其中Mc和Md表示数据集中一致和不一致图相对的总数。KRCC的值越接近于1越好。
RMSE的计算公式为:
其中ΔS=Ss-Sm。RMSE的值越小越好。
最终可得本发明的PLCC、SRCC、KRCC和RMSE分别达到0.7307、0.7157、0.5766和0.4546。同时,与20种其它方法进行比较,比较结果见表1,可知本发明是唯一的针对DIBR合成图像的无参考质量评价方法,而且本发明在各个指标方面均优于所对比方法。
表1
表1中所述的算法具体是指:
[1]Z.Wang,A.C.Bovik,H.R.Sheikh,and E.P.Simoncelli,“Image qualityassessment:From error visibility to structural similarity,”IEEE Trans.ImageProcess.,vol.13,no.4,pp.600-612,Apr.2004.
[2]D.M.Chandler and S.S.Hemami,“VSNR:A wavelet-based visual signal-to-noise ratio for natural images,”IEEE Trans.Image Process.,vol.16,no.9,pp.2284-2298,Sep.2007.
[3]E.C.Larson,and D.M.Chandler,“Most apparent distortion:Fullreference image quality assessment and the role of strategy,”Journal ofElectronic Imaging,vol.19,no.1,Jan.2010.
[4]Z.Wang and Q.Li,“Information content weighting for perceptualimage quality assessment,”IEEE Trans.Image Process.,vol.20,no.5,pp.1185-1198,May 2011.
[5]L.Zhang,L.Zhang,X.Mou,and D.Zhang,“FSIM:A feature similarity indexfor image quality assessment,”IEEE Trans.Image Process.,vol.20,no.8,pp.2378-2386,Aug.2011.
[6]W.Xue,L.Zhang,X.Mou,and A.C.Bovik,“Gradient magnitude similaritydeviation:A highly efficient perceptual image quality index,”IEEE Trans.ImageProcess.,vol.23,no.2,pp.684-695,Feb.2014.
[7]K.Gu,S.Wang,G.Zhai,W.Lin,X.Yang,and W.Zhang,“Analysis ofdistortion distribution for pooling in image quality prediction,”IEEETrans.Broadcasting,vol.62,no.2,pp.446-456,Jun.2016.
[8]R.Soundararajan and A.C.Bovik,“RRED indices:Reduced-referenceentropic differencing for image quality assessment,”IEEE Trans.ImageProcess.,vol.21,no.2,pp.517-526,Feb.2012.
[9]G.Zhai,X.Wu,X.Yang,W.Lin,and W.Zhang,“A psychovisual qualitymetric in free-energy principle,”IEEE Trans.Image Process.,vol.21,no.1,pp.41-52,Jan.2012.
[10]M.Narwaria,W.Lin,I.V.McLoughlin,S.Emmanuel,and L.T.Chia,“Fouriertransform-based scalable image quality measure,”IEEE Trans.Image Process.,vol.21,no.8,pp.3364-3377,Aug.2012.
[11]J.Wu,W.Lin,G.Shi,L.Li,and Y.Fang,“Orientation selectivity basedvisual pattern for reduced-reference image quality assessment,”InformationScience,vol.351,pp.18-29,Jul.2016.
[12]A.Mittal,R.Soundararajan,and A.C.Bovik,“Making a‘completelyblind’image quality analyzer,”IEEE Signal Process.Lett.,vol.22,no.3,pp.209-212,Mar.2013.
[13]W.Xue,L.Zhang,and X.Mou,“Learning without human scores for blindimage quality assessment,”in Proc.IEEE Int.Conf.Computer Vision and PatternRecognition,pp.995-1002,Jun.2013.
[14]K.Gu,G.Zhai,X.Yang,and W.Zhang,“Hybrid no-reference qualitymetric for singly and multiply distorted images,”IEEE Trans.Broadcasting,vol.60,no.3,pp.555-567,Sep.2014.
[15]L.Zhang,L.Zhang,and A.C.Bovik,“A feature-enriched completelyblind image quality evaluator,”IEEE Trans.on Image Process.,vol.24,no.8,pp.2579-2591,Aug.2015.
[16]P.H.Conze,P.Robert,and L.Morin,“Objective view synthesis qualityassessment,”Electron.Imag.Int.Society for Optics and Photonics,pp.8288-8256,Feb.2012.
[17]F.Battisti,E.Bosc,M.Carli,and P.Le Callet,“Objective imagequality assessment of 3D synthesized views,”Signal Process.Image Commun.,vol.30,pp.78-88,Jan.2015.
[18]D.Sandi_c-Stankovi_c,D.Kukolj,and P.Le Callet,“DIBR-synthesizedimage quality assessment based on morphological wavelets,”in Proc.IEEEInt.Workshop on Quality of Multimedia Experience,pp.1-6,Jan.2015.
[19]D.Sandi_c-Stankovi_c,D.Kukolj,and P.Le Callet,“DIBR-synthesizedimage quality assessment based on morphological pyramids,”The True Vision-Capture,Transmission and Display of 3D Video,pp.1-4,Oct.2015.
[20]D.Sandi_c-Stankovi_c,D.Kukolj,and P.Le Callet,“Multi-scalesynthesized view assessment based on morphological pyramids,”Journal ofElectrical Engineering,vol.67,no.1,pp.1-9,Jan.2016.

Claims (3)

1.基于自回归局部图像描述的3D合成图像质量评价方法,其特征在于包括以下步骤:
第一步、建立自回归模型;
第二步、计算自回归参数;
第三步、计算图像与自回归模型预测值之间的误差;
第四步、二值化误差,将误差根据阈值变为0和1;
第五步、根据二值化误差计算图像质量得分;
第一步中:
自回归模型建立方法如下:
对于图像I中一个像素,定义其位置指标为i,值为zi,则构造该像素与其周边像素的关系为:
zi=Rσ(zi)q+di (1)
其中Rσ(zi)为像素zi周边面积为的区域内σ个像素的值组成的矢量;q=(q1,q2,…,qσ)T为自回归参数矢量,(q1,q2,…,qσ)分别对应周边σ个像素的参数,一个像素有一个参数;T表示转置;di为当前像素值与相应的自回归预测值之间的误差;其中设定σ值为8;
第二步中:
自回归参数计算方法如下:
为了计算合适的自回归参数,首先将线性系统转换为矩阵形式:
<mrow> <mover> <mi>q</mi> <mo>^</mo> </mover> <mo>=</mo> <mi>arg</mi> <munder> <mrow> <mi>m</mi> <mi>i</mi> <mi>n</mi> </mrow> <mi>q</mi> </munder> <mo>|</mo> <mo>|</mo> <mi>z</mi> <mo>-</mo> <mi>Z</mi> <mi>q</mi> <mo>|</mo> <msub> <mo>|</mo> <mn>2</mn> </msub> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>2</mn> <mo>)</mo> </mrow> </mrow>
其中z=(zi,1,zi,2,…,zi,φ)T,(zi,1,zi,2,…,zi,φ)为以像素xi为中心的区域内的φ个像素的值;X为φ行σ列的矩阵;Z的第j行向量表达式为Z(j,:)=Rσ(zi,j),j={1,2,…,φ},表示像素zi,j周边面积为的区域内σ个像素的值组成的矢量,其中设定σ值为8;将φ设定为48;
然后使用最小二乘方法得到最好的自回归参数:
<mrow> <mover> <mi>q</mi> <mo>^</mo> </mover> <mo>=</mo> <msup> <mrow> <mo>(</mo> <msup> <mi>Z</mi> <mi>T</mi> </msup> <mi>Z</mi> <mo>)</mo> </mrow> <mrow> <mo>-</mo> <mn>1</mn> </mrow> </msup> <msup> <mi>Z</mi> <mi>T</mi> </msup> <mi>z</mi> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>3</mn> <mo>)</mo> </mrow> </mrow>
其中Z与z的定义同公式(2)。
2.根据权利要求1所述的基于自回归局部图像描述的3D合成图像质量评价方法,其特征是,第三步中:
使用自回归模型预测输入DIBR合成图像并得到误差;同时使用高斯滤波器对误差进行滤波,移除孤立的噪声点;然后只保留η%误差显著的区域,η%取值范围为0%到50%。
3.根据权利要求1所述的基于自回归局部图像描述的3D合成图像质量评价方法,其特征是,第四步中:
二值化误差方法如下:
通过阈值对误差进行二值化操作:
<mrow> <msub> <mi>E</mi> <mi>d</mi> </msub> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <mn>1</mn> <mo>,</mo> </mrow> </mtd> <mtd> <mtable> <mtr> <mtd> <mrow> <mi>i</mi> <mi>f</mi> </mrow> </mtd> <mtd> <mrow> <msub> <mi>E</mi> <mi>e</mi> </msub> <mo>&lt;</mo> <msub> <mi>&amp;lambda;</mi> <mi>t</mi> </msub> </mrow> </mtd> </mtr> </mtable> </mtd> </mtr> <mtr> <mtd> <mrow> <mn>0</mn> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <mi>o</mi> <mi>t</mi> <mi>h</mi> <mi>e</mi> <mi>r</mi> <mi>w</mi> <mi>i</mi> <mi>s</mi> <mi>e</mi> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>4</mn> <mo>)</mo> </mrow> </mrow>
其中Ee为高斯滤波后的误差,λt为恒定阈值,取值范围为30到150;
第五步中:
图像质量评分公式如下:
<mrow> <msub> <mi>Y</mi> <mi>s</mi> </msub> <mo>=</mo> <mfrac> <msub> <mi>N</mi> <mn>1</mn> </msub> <mi>N</mi> </mfrac> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>5</mn> <mo>)</mo> </mrow> </mrow>
其中N1表示Ed值为1的像素点的个数,N表示整个图像中所有像素点的个数。
CN201710421612.1A 2017-06-07 2017-06-07 基于自回归局部图像描述的3d合成图像质量评价方法 Active CN107180427B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710421612.1A CN107180427B (zh) 2017-06-07 2017-06-07 基于自回归局部图像描述的3d合成图像质量评价方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710421612.1A CN107180427B (zh) 2017-06-07 2017-06-07 基于自回归局部图像描述的3d合成图像质量评价方法

Publications (2)

Publication Number Publication Date
CN107180427A true CN107180427A (zh) 2017-09-19
CN107180427B CN107180427B (zh) 2020-06-16

Family

ID=59835721

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710421612.1A Active CN107180427B (zh) 2017-06-07 2017-06-07 基于自回归局部图像描述的3d合成图像质量评价方法

Country Status (1)

Country Link
CN (1) CN107180427B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107798676A (zh) * 2017-10-23 2018-03-13 北京工业大学 基于多尺度自然场景统计建立的无参考图像质量感知方法
CN110211090A (zh) * 2019-04-24 2019-09-06 西安电子科技大学 一种用于评价视角合成图像质量的方法
CN111539909A (zh) * 2020-03-12 2020-08-14 上海交通大学 一种相似场景图像组的图像质量评估方法、系统及终端

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130201177A1 (en) * 2012-02-05 2013-08-08 Ngai-Man Cheung Method for Modeling and Estimating Rendering Errors in Virtual Images
US20150091899A1 (en) * 2013-09-30 2015-04-02 Sisvel Technology S.R.L. Method and Device For Edge Shape Enforcement For Visual Enhancement of Depth Image Based Rendering of A Three-Dimensional Video Stream
CN105825500A (zh) * 2016-03-10 2016-08-03 江苏商贸职业学院 一种对相机图像质量的评价方法与装置
CN105979253A (zh) * 2016-05-06 2016-09-28 浙江科技学院 基于广义回归神经网络的无参考立体图像质量评价方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130201177A1 (en) * 2012-02-05 2013-08-08 Ngai-Man Cheung Method for Modeling and Estimating Rendering Errors in Virtual Images
US20150091899A1 (en) * 2013-09-30 2015-04-02 Sisvel Technology S.R.L. Method and Device For Edge Shape Enforcement For Visual Enhancement of Depth Image Based Rendering of A Three-Dimensional Video Stream
CN105825500A (zh) * 2016-03-10 2016-08-03 江苏商贸职业学院 一种对相机图像质量的评价方法与装置
CN105979253A (zh) * 2016-05-06 2016-09-28 浙江科技学院 基于广义回归神经网络的无参考立体图像质量评价方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
PIERRE-HENRI CONZE 等: "Objective View Synthesis Quality Assessment", 《STEREOSCOPIC DISPLAYS AND APPLICATIONS》 *
YU ZHOU 等: "QUALITY ASSESSMENT OF 3D SYNTHESIZED IMAGES VIA DISOCCLUDED REGION DISCOVERY", 《2016 IEEE INTERNATIONAL CONFERENCE ON IMAGE PROCESSING (ICIP)》 *
孙彦景 等: "基于人类视觉系统的特征相似性图像质量评价", 《华南理工大学学报(自然科学版)》 *
翟广涛: "基于人眼视觉系统特性的数字图像处理技术的研究", 《中国博士学位论文全文数据库 信息科技辑(月刊)》 *
顾锞: "基于感知和统计模型的图像质量评价技术及应用研究", 《中国博士学位论文全文数据库 信息科技辑(月刊)》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107798676A (zh) * 2017-10-23 2018-03-13 北京工业大学 基于多尺度自然场景统计建立的无参考图像质量感知方法
CN107798676B (zh) * 2017-10-23 2021-05-07 北京工业大学 基于多尺度自然场景统计建立的无参考图像质量感知方法
CN110211090A (zh) * 2019-04-24 2019-09-06 西安电子科技大学 一种用于评价视角合成图像质量的方法
CN111539909A (zh) * 2020-03-12 2020-08-14 上海交通大学 一种相似场景图像组的图像质量评估方法、系统及终端
CN111539909B (zh) * 2020-03-12 2023-04-28 上海交通大学 一种相似场景图像组的图像质量评估方法、系统及终端

Also Published As

Publication number Publication date
CN107180427B (zh) 2020-06-16

Similar Documents

Publication Publication Date Title
CN103093444B (zh) 基于自相似性和结构信息约束的图像超分辨重建方法
Zheng et al. No-reference quality assessment for screen content images based on hybrid region features fusion
CN110751018A (zh) 一种基于混合注意力机制的群组行人重识别方法
CN113112416B (zh) 一种语义引导的人脸图像修复方法
CN113673590A (zh) 基于多尺度沙漏密集连接网络的去雨方法、系统和介质
CN110765841A (zh) 基于混合注意力机制的群组行人重识别系统及终端
CN107180427A (zh) 基于自回归局部图像描述的3d合成图像质量评价方法
CN106056600A (zh) 一种基于Contourlet变换的图像拼接检测方法
CN114897742B (zh) 一种纹理和结构特征两次融合的图像修复方法
Wang et al. Mstriq: No reference image quality assessment based on swin transformer with multi-stage fusion
CN104504672A (zh) 基于NormLV特征的低秩稀疏邻域嵌入超分辨方法
Wei et al. Deep video inpainting localization using spatial and temporal traces
CN108921147B (zh) 一种基于动态纹理和变换域时空特征的黑烟车识别方法
Huang et al. Blind quality index of depth images based on structural statistics for view synthesis
CN116485802B (zh) 一种绝缘子闪络缺陷检测方法、装置、设备及存储介质
CN112598604A (zh) 一种盲脸复原方法及系统
Cong et al. Image quality assessment with gradient siamese network
CN107798676B (zh) 基于多尺度自然场景统计建立的无参考图像质量感知方法
Ding et al. Localization of deep video inpainting based on spatiotemporal convolution and refinement network
Oh et al. Fpanet: Frequency-based video demoireing using frame-level post alignment
CN107481196B (zh) 基于最近特征线的特征转换人脸超分辨率重建方法
Liang et al. Multi-scale and multi-patch transformer for sandstorm image enhancement
Zhang et al. Multi-layer and Multi-scale feature aggregation for DIBR-Synthesized image quality assessment
CN114240795A (zh) 一种融合偏色校正的图像去沙尘暴方法
CN113034390A (zh) 一种基于小波先验注意力的图像修复方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant