CN108805825B - 一种重定位图像质量评价方法 - Google Patents

一种重定位图像质量评价方法 Download PDF

Info

Publication number
CN108805825B
CN108805825B CN201810412492.3A CN201810412492A CN108805825B CN 108805825 B CN108805825 B CN 108805825B CN 201810412492 A CN201810412492 A CN 201810412492A CN 108805825 B CN108805825 B CN 108805825B
Authority
CN
China
Prior art keywords
org
image
scale
repositioning
coordinate position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810412492.3A
Other languages
English (en)
Other versions
CN108805825A (zh
Inventor
邵枫
富振奇
李福翠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Lingkun Information Technology Co ltd
Original Assignee
Ningbo University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ningbo University filed Critical Ningbo University
Priority to CN201810412492.3A priority Critical patent/CN108805825B/zh
Publication of CN108805825A publication Critical patent/CN108805825A/zh
Application granted granted Critical
Publication of CN108805825B publication Critical patent/CN108805825B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种重定位图像质量评价方法,其考虑了结构失真和内容损失对重定位的影响,利用相似性变换矩阵建立原始图像与重定位图像的变换关系,根据相似性变换矩阵计算出多尺度下的结构失真,并根据四边形网格的面积变化计算出多尺度下的内容损失,然后利用支持向量回归对训练集中的由多尺度下的结构失真和内容损失构成的特征矢量进行训练,构造支持向量回归训练模型;在测试阶段,通过计算测试集中的重定位图像的特征矢量,并根据支持向量回归训练模型,预测得到测试集中的重定位图像的客观质量评价预测值,由于获得的特征矢量具有较强的稳定性且能较好地反映重定位图像的质量变化情况,因此有效地提高了客观评价结果与主观感知之间的相关性。

Description

一种重定位图像质量评价方法
技术领域
本发明涉及一种图像质量评价方法,尤其是涉及一种重定位图像质量评价方法。
背景技术
随着终端显示设备(例如智能手机、平板电脑、电视等)的快速发展与更新换代,具有不同分辨率和屏幕高宽比的终端显示设备充斥着人们的工作与生活。当需要显示的图像或视频的分辨率与屏幕的分辨率不相符时,如何在尽可能不改变用户观看体验的前提下,改变图像或视频的分辨率使之适应不同尺寸的终端显示设备,这就是重定位(retargeting)问题。当前解决重定位问题的方法有:缩放(scaling)、裁切(cropping)和变形(warping)等。然而,这些重定位方法没有充分利用终端显示设备的尺寸优势,降低了用户体验效果,因此对不同重定位方法的性能进行客观评价十分必要。
现有的重定位方法大多以像素点匹配为基础,建立原始图像和重定位图像之间的映射关系,并基于像素点匹配提取出相应特征来评价重定位图像质量。然而,重定位图像由不同的重定位操作得到,现有的重定位图像质量评价方法并不能很好地揭示两者之间的关系。因此,如何在评价过程中有效地提取出特征,使得客观评价结果更加感觉符合人类视觉系统,是在对重定位图像进行客观质量评价过程中需要研究解决的问题。
发明内容
本发明所要解决的技术问题是提供一种重定位图像质量评价方法,其能够有效地提高客观评价结果与主观感知之间的相关性。
本发明解决上述技术问题所采用的技术方案为:一种重定位图像质量评价方法,其特征在于包括以下步骤:
步骤一:令Iorg表示原始图像,令Iret表示Iorg对应的重定位图像;将Iorg中坐标位置为(x,y)的像素点的像素值记为Iorg(x,y),将Iret中坐标位置为(x',y)的像素点的像素值记为Iret(x',y);其中,1≤x≤W,1≤y≤H,1≤x'≤W',W表示Iorg的宽度,W'表示Iret的宽度,H表示Iorg和Iret的高度;
步骤二:采用SIFT-Flow方法建立Iorg与Iret之间的匹配关系,得到Iorg中的每个像素点的SIFT-Flow向量,将Iorg中坐标位置为(x,y)的像素点的SIFT-Flow向量记为vO(x,y),
Figure BDA0001648425300000022
然后根据Iorg中的所有像素点的SIFT-Flow向量,从Iorg中重构得到重定位图像,记为
Figure BDA0001648425300000023
Figure BDA0001648425300000024
中坐标位置为
Figure BDA0001648425300000025
的像素点的像素值记为
Figure BDA0001648425300000026
再找出
Figure BDA0001648425300000027
中的所有空洞像素点,并将值0作为
Figure BDA0001648425300000028
中的每个空洞像素点的像素值;其中,
Figure BDA0001648425300000029
用于表示水平方向,
Figure BDA00016484253000000210
用于表示垂直方向,
Figure BDA00016484253000000211
表示vO(x,y)的水平偏移量,
Figure BDA00016484253000000212
表示vO(x,y)的垂直偏移量,
Figure BDA00016484253000000213
中的“=”为赋值符号;
步骤三:在3个不同尺度下将Iorg分别分割成多个互不重叠的四边形网格,将在第j个尺度下Iorg中的第kj个四边形网格记为
Figure BDA00016484253000000214
以其左上、左下、右上和右下4个网格顶点的集合来描述,
Figure BDA00016484253000000215
其中,j=1,2,3,kj为正整数,1≤kj≤Mj,Mj表示在第j个尺度下Iorg中的四边形网格的总个数,
Figure BDA0001648425300000021
Figure BDA00016484253000000216
表示在第j个尺度下Iorg中的四边形网格的尺寸大小,
Figure BDA00016484253000000217
符号
Figure BDA00016484253000000218
为向下取整运算符号,
Figure BDA00016484253000000219
对应表示
Figure BDA00016484253000000220
的左上网格顶点、左下网格顶点、右上网格顶点、右下网格顶点,
Figure BDA0001648425300000031
Figure BDA0001648425300000032
的水平坐标位置
Figure BDA0001648425300000033
和垂直坐标位置
Figure BDA0001648425300000034
来描述,
Figure BDA0001648425300000035
Figure BDA0001648425300000037
Figure BDA0001648425300000036
的水平坐标位置
Figure BDA0001648425300000038
和垂直坐标位置
Figure BDA0001648425300000039
来描述,
Figure BDA00016484253000000310
Figure BDA00016484253000000311
Figure BDA00016484253000000312
的水平坐标位置
Figure BDA00016484253000000313
和垂直坐标位置
Figure BDA00016484253000000314
来描述,
Figure BDA00016484253000000315
Figure BDA00016484253000000316
Figure BDA00016484253000000317
的水平坐标位置
Figure BDA00016484253000000318
和垂直坐标位置
Figure BDA00016484253000000319
来描述,
Figure BDA00016484253000000320
步骤四:根据在每个尺度下Iorg中的每个四边形网格的所有网格顶点的SIFT-Flow向量,确定在相同尺度下Iorg中的每个四边形网格在Iret中匹配的四边形网格,将在第j个尺度下
Figure BDA00016484253000000321
在Iret中匹配的四边形网格记为
Figure BDA00016484253000000322
Figure BDA00016484253000000323
然后计算在每个尺度下Iorg中的每个四边形网格的相似性变换矩阵,将
Figure BDA00016484253000000324
的相似性变换矩阵记为
Figure BDA00016484253000000325
Figure BDA00016484253000000326
其中,
Figure BDA00016484253000000328
对应表示
Figure BDA00016484253000000327
的左上网格顶点、左下网格顶点、右上网格顶点、右下网格顶点,
Figure BDA00016484253000000329
亦表示在第j个尺度下
Figure BDA00016484253000000330
在Iret中匹配的网格顶点,
Figure BDA00016484253000000331
亦表示在第j个尺度下
Figure BDA00016484253000000332
在Iret中匹配的网格顶点,
Figure BDA00016484253000000333
亦表示在第j个尺度下
Figure BDA00016484253000000334
在Iret中匹配的网格顶点,
Figure BDA00016484253000000335
亦表示在第j个尺度下
Figure BDA00016484253000000336
在Iret中匹配的网格顶点,
Figure BDA00016484253000000337
Figure BDA00016484253000000338
的水平坐标位置
Figure BDA00016484253000000339
和垂直坐标位置
Figure BDA00016484253000000340
来描述,
Figure BDA00016484253000000341
Figure BDA00016484253000000345
Figure BDA00016484253000000346
的水平坐标位置
Figure BDA00016484253000000347
和垂直坐标位置
Figure BDA00016484253000000348
来描述,
Figure BDA00016484253000000342
Figure BDA00016484253000000349
Figure BDA00016484253000000350
的水平坐标位置
Figure BDA00016484253000000351
和垂直坐标位置
Figure BDA00016484253000000352
来描述,
Figure BDA00016484253000000343
Figure BDA00016484253000000353
Figure BDA00016484253000000354
的水平坐标位置
Figure BDA00016484253000000355
和垂直坐标位置
Figure BDA00016484253000000356
来描述,
Figure BDA00016484253000000344
Figure BDA00016484253000000357
Figure BDA00016484253000000358
Figure BDA00016484253000000359
和v
Figure BDA00016484253000000360
对应表示
Figure BDA00016484253000000361
的SIFT-Flow向量的水平偏移量和垂直偏移量,
Figure BDA0001648425300000043
Figure BDA0001648425300000044
对应表示
Figure BDA0001648425300000047
的SIFT-Flow向量的水平偏移量和垂直偏移量,
Figure BDA0001648425300000045
Figure BDA0001648425300000048
对应表示
Figure BDA0001648425300000049
的SIFT-Flow向量的水平偏移量和垂直偏移量,
Figure BDA0001648425300000046
Figure BDA00016484253000000410
对应表示
Figure BDA00016484253000000411
的SIFT-Flow向量的水平偏移量和垂直偏移量,
Figure BDA0001648425300000041
Figure BDA00016484253000000412
Figure BDA00016484253000000413
的转置,
Figure BDA00016484253000000414
Figure BDA00016484253000000415
的逆,
Figure BDA0001648425300000042
Figure BDA00016484253000000416
的维数为6×1;
步骤五:采用分层显著性检测模型提取出Iorg的视觉显著图,记为{SO(x,y)};然后根据在每个尺度下Iorg中的所有四边形网格的相似性变换矩阵,并结合{SO(x,y)},计算在每个尺度下Iorg的结构失真,将在第j个尺度下Iorg的结构失真记为
Figure BDA00016484253000000417
并根据在每个尺度下Iorg中的每个四边形网格在Iret中匹配的四边形网格,并结合{SO(x,y)}和
Figure BDA00016484253000000418
计算在每个尺度下Iorg的内容损失,将在第j个尺度下Iorg的内容损失记为
Figure BDA00016484253000000419
其中,SO(x,y)表示{SO(x,y)}中坐标位置为(x,y)的像素点的像素值;
步骤六:根据在3个尺度下Iorg的结构失真和内容损失,获取Iret的特征矢量,记为F,
Figure BDA0001648425300000051
其中,F的维数为6×1,
Figure BDA0001648425300000052
表示将
Figure BDA0001648425300000053
连接起来形成一个特征矢量,
Figure BDA0001648425300000054
对应表示在第1个尺度下Iorg的结构失真、在第2个尺度下Iorg的结构失真、在第3个尺度下Iorg的结构失真,
Figure BDA0001648425300000055
对应表示在第1个尺度下Iorg的内容损失、在第2个尺度下Iorg的内容损失、在第3个尺度下Iorg的内容损失;
步骤七:将n'幅原始图像对应的共n幅重定位图像构成重定位图像集合;然后采用主观质量评价方法,获取重定位图像集合中的每幅重定位图像的主观评分差值,将重定位图像集合中的第g1幅重定位图像的主观评分差值记为
Figure BDA0001648425300000057
并按照步骤一至步骤六的过程,以相同的方式获取重定位图像集合中的每幅重定位图像的特征矢量,将重定位图像集合中的第g1幅重定位图像的特征矢量记为
Figure BDA0001648425300000056
其中,n'>1,n>1,1≤g1≤n,
Figure BDA0001648425300000058
Figure BDA0001648425300000059
的维数为6×1;
步骤八:随机选择重定位图像集合中的m幅重定位图像构成训练集,将重定位图像集合中剩余的n-m幅重定位图像构成测试集;然后将训练集中的所有重定位图像的特征矢量和主观评分差值构成训练样本数据集合;接着采用支持向量回归作为机器学习的方法,对训练样本数据集合中的所有特征矢量进行训练,使得经过训练得到的回归函数值与主观评分差值之间的误差最小,拟合得到最优的权重矢量wopt和最优的偏置项bopt;再利用得到的最优的权重矢量wopt和最优的偏置项bopt,构造重定位图像的支持向量回归训练模型,记为f(Finp),
Figure BDA00016484253000000510
其中,1≤m<n,f()为函数表示形式,Finp表示重定位图像的支持向量回归训练模型的输入矢量,为重定位图像的特征矢量,Finp的维数为6×1,(wopt)T为wopt的转置,
Figure BDA00016484253000000511
表示重定位图像的支持向量回归训练模型的输入矢量Finp的线性函数;
步骤九:将测试集中的所有重定位图像的特征矢量构成测试样本数据集合;然后根据构造得到的重定位图像的支持向量回归训练模型,对测试样本数据集合中的每个特征矢量进行测试,预测得到测试样本数据集合中的每个特征矢量对应的重定位图像的客观质量评价预测值,将测试样本数据集合中的第q个特征矢量对应的重定位图像的客观质量评价预测值记为Qq,Qq=f(Fq),
Figure BDA0001648425300000062
其中,q为正整数,1≤q≤n-m,Fq表示测试样本数据集合中的第q个特征矢量,Fq的维数为6×1,
Figure BDA0001648425300000063
表示测试样本数据集合中的第q个特征矢量的线性函数;
步骤十:重复执行步骤八至步骤九共X次,并使重定位图像集合中的每幅重定位图像至少有一次属于测试集,经过X次执行后计算重定位图像集合中的每幅重定位图像的若干个客观质量评价预测值的平均值,再将重定位图像集合中的每幅重定位图像的客观质量评价预测值的平均值作为该幅重定位图像的最终的客观质量评价预测值;其中,X的取值大于或等于100。
所述的步骤五中的
Figure BDA0001648425300000064
的计算过程为:
A1、根据在第j个尺度下Iorg中的每个四边形网格的相似性变换矩阵,计算在第j个尺度下Iorg中的每个四边形网格的几何失真,将
Figure BDA0001648425300000066
的几何失真记为
Figure BDA0001648425300000065
Figure BDA0001648425300000067
;其中,
Figure BDA0001648425300000068
对应表示
Figure BDA0001648425300000069
中的第1个元素、第2个元素、第4个元素、第5个元素;
A2、根据在第j个尺度下Iorg中的每个四边形网格的几何失真,并结合{SO(x,y)},计算得到
Figure BDA00016484253000000612
Figure BDA0001648425300000061
其中,SO(kj)表示
Figure BDA00016484253000000611
中的所有像素点的视觉显著值的均值,也即表示{SO(x,y)}中与
Figure BDA00016484253000000610
对应的区域中的所有像素点的像素值的均值,exp()表示以自然基数e为底的指数函数。
所述的步骤五中的
Figure BDA0001648425300000072
的计算过程为:
Figure BDA0001648425300000071
其中,SO(kj)表示
Figure BDA0001648425300000073
中的所有像素点的视觉显著值的均值,也即表示{SO(x,y)}中与
Figure BDA0001648425300000074
对应的区域中的所有像素点的像素值的均值,
Figure BDA0001648425300000075
表示计算Iorg中与
Figure BDA0001648425300000076
对应的区域中的所有非空洞像素点所占的区域面积大小,
Figure BDA0001648425300000077
表示计算
Figure BDA0001648425300000079
中与
Figure BDA0001648425300000078
对应的区域中的所有非空洞像素点所占的区域面积大小。
与现有技术相比,本发明的优点在于:
本发明方法考虑了结构失真和内容损失对重定位的影响,利用相似性变换矩阵建立原始图像与重定位图像的变换关系,根据相似性变换矩阵计算出多尺度下的结构失真,并根据四边形网格的面积变化计算出多尺度下的内容损失,然后利用支持向量回归对训练集中的由多尺度下的结构失真和内容损失构成的特征矢量进行训练,构造得到支持向量回归训练模型;在测试阶段,通过计算测试集中的重定位图像的特征矢量,并根据构造的支持向量回归训练模型,预测得到测试集中的重定位图像的客观质量评价预测值,由于获得的特征矢量具有较强的稳定性且能够较好地反映重定位图像的质量变化情况,因此有效地提高了客观评价结果与主观感知之间的相关性。
附图说明
图1为本发明方法的总体实现框图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明提出的一种重定位图像质量评价方法,其总体实现框图如图1所示,其包括以下步骤:
步骤一:令Iorg表示原始图像,令Iret表示Iorg对应的重定位图像;将Iorg中坐标位置为(x,y)的像素点的像素值记为Iorg(x,y),将Iret中坐标位置为(x',y)的像素点的像素值记为Iret(x',y);其中,1≤x≤W,1≤y≤H,1≤x'≤W',W表示Iorg的宽度,W'表示Iret的宽度,H表示Iorg和Iret的高度。
步骤二:采用现有的SIFT-Flow(Scale-Invariant Feature Transform Flow,尺度不变特征变换流)方法建立Iorg与Iret之间的匹配关系,得到Iorg中的每个像素点的SIFT-Flow向量,将Iorg中坐标位置为(x,y)的像素点的SIFT-Flow向量记为vO(x,y),
Figure BDA0001648425300000082
然后根据Iorg中的所有像素点的SIFT-Flow向量,从Iorg中重构得到重定位图像,记为
Figure BDA0001648425300000083
Figure BDA0001648425300000084
中坐标位置为
Figure BDA0001648425300000085
的像素点的像素值记为
Figure BDA0001648425300000086
再找出
Figure BDA0001648425300000087
中的所有空洞像素点,并将值0作为
Figure BDA0001648425300000088
中的每个空洞像素点的像素值;其中,
Figure BDA0001648425300000089
用于表示水平方向,
Figure BDA00016484253000000811
用于表示垂直方向,
Figure BDA00016484253000000812
表示vO(x,y)的水平偏移量,
Figure BDA00016484253000000810
表示vO(x,y)的垂直偏移量,
Figure BDA00016484253000000813
中的“=”为赋值符号;在此,
Figure BDA00016484253000000814
中的所有空洞像素点的确定采用现有技术。
步骤三:在3个不同尺度下将Iorg分别分割成多个互不重叠的四边形网格,将在第j个尺度下Iorg中的第kj个四边形网格记为
Figure BDA00016484253000000815
以其左上、左下、右上和右下4个网格顶点的集合来描述,
Figure BDA00016484253000000816
其中,j=1,2,3,kj为正整数,1≤kj≤Mj,Mj表示在第j个尺度下Iorg中的四边形网格的总个数,
Figure BDA0001648425300000081
Figure BDA00016484253000000817
表示在第j个尺度下Iorg中的四边形网格的尺寸大小,
Figure BDA00016484253000000818
符号
Figure BDA00016484253000000819
为向下取整运算符号,
Figure BDA00016484253000000820
对应表示
Figure BDA00016484253000000821
的左上网格顶点、左下网格顶点、右上网格顶点、右下网格顶点,
Figure BDA0001648425300000091
Figure BDA0001648425300000092
的水平坐标位置
Figure BDA0001648425300000093
和垂直坐标位置
Figure BDA0001648425300000094
来描述,
Figure BDA0001648425300000095
Figure BDA0001648425300000098
Figure BDA0001648425300000097
的水平坐标位置
Figure BDA0001648425300000096
和垂直坐标位置
Figure BDA0001648425300000099
来描述,
Figure BDA00016484253000000910
Figure BDA00016484253000000912
Figure BDA00016484253000000911
的水平坐标位置
Figure BDA00016484253000000914
和垂直坐标位置
Figure BDA00016484253000000913
来描述,
Figure BDA00016484253000000915
Figure BDA00016484253000000917
Figure BDA00016484253000000918
的水平坐标位置
Figure BDA00016484253000000919
和垂直坐标位置
Figure BDA00016484253000000920
来描述,
Figure BDA00016484253000000916
步骤四:根据在每个尺度下Iorg中的每个四边形网格的所有网格顶点的SIFT-Flow向量,确定在相同尺度下Iorg中的每个四边形网格在Iret中匹配的四边形网格,将在第j个尺度下
Figure BDA00016484253000000921
在Iret中匹配的四边形网格记为
Figure BDA00016484253000000922
Figure BDA00016484253000000923
然后计算在每个尺度下Iorg中的每个四边形网格的相似性变换矩阵,将Uk Oj的相似性变换矩阵记为
Figure BDA00016484253000000924
Figure BDA00016484253000000925
其中,
Figure BDA00016484253000000927
对应表示
Figure BDA00016484253000000926
的左上网格顶点、左下网格顶点、右上网格顶点、右下网格顶点,
Figure BDA00016484253000000928
亦表示在第j个尺度下
Figure BDA00016484253000000929
在Iret中匹配的网格顶点,
Figure BDA00016484253000000930
亦表示在第j个尺度下
Figure BDA00016484253000000931
在Iret中匹配的网格顶点,
Figure BDA00016484253000000932
亦表示在第j个尺度下
Figure BDA00016484253000000933
在Iret中匹配的网格顶点,
Figure BDA00016484253000000934
亦表示在第j个尺度下
Figure BDA00016484253000000935
在Iret中匹配的网格顶点,
Figure BDA00016484253000000936
Figure BDA00016484253000000937
的水平坐标位置
Figure BDA00016484253000000938
和垂直坐标位置
Figure BDA00016484253000000939
来描述,
Figure BDA00016484253000000940
Figure BDA00016484253000000947
Figure BDA00016484253000000948
的水平坐标位置
Figure BDA00016484253000000949
和垂直坐标位置
Figure BDA00016484253000000950
来描述,
Figure BDA00016484253000000941
Figure BDA00016484253000000951
Figure BDA00016484253000000954
的水平坐标位置
Figure BDA00016484253000000955
和垂直坐标位置
Figure BDA00016484253000000956
来描述,
Figure BDA00016484253000000942
Figure BDA00016484253000000952
Figure BDA00016484253000000953
的水平坐标位置
Figure BDA00016484253000000958
和垂直坐标位置
Figure BDA00016484253000000957
来描述,
Figure BDA00016484253000000943
Figure BDA00016484253000000944
Figure BDA00016484253000000945
Figure BDA00016484253000000946
Figure BDA00016484253000000959
对应表示
Figure BDA00016484253000000960
的SIFT-Flow向量的水平偏移量和垂直偏移量,
Figure BDA0001648425300000103
Figure BDA0001648425300000104
对应表示
Figure BDA0001648425300000105
的SIFT-Flow向量的水平偏移量和垂直偏移量,
Figure BDA0001648425300000106
Figure BDA0001648425300000108
对应表示
Figure BDA0001648425300000109
的SIFT-Flow向量的水平偏移量和垂直偏移量,
Figure BDA0001648425300000107
Figure BDA00016484253000001010
对应表示
Figure BDA00016484253000001011
的SIFT-Flow向量的水平偏移量和垂直偏移量,
Figure BDA0001648425300000101
Figure BDA00016484253000001012
Figure BDA00016484253000001013
的转置,
Figure BDA00016484253000001014
Figure BDA00016484253000001015
的逆,
Figure BDA0001648425300000102
Figure BDA00016484253000001016
的维数为6×1。
步骤五:采用现有的分层显著性检测(Hierarchical saliency detection)模型提取出Iorg的视觉显著图,记为{SO(x,y)};然后根据在每个尺度下Iorg中的所有四边形网格的相似性变换矩阵,并结合{SO(x,y)},计算在每个尺度下Iorg的结构失真,将在第j个尺度下Iorg的结构失真记为
Figure BDA00016484253000001017
并根据在每个尺度下Iorg中的每个四边形网格在Iret中匹配的四边形网格,并结合{SO(x,y)}和
Figure BDA00016484253000001018
计算在每个尺度下Iorg的内容损失,将在第j个尺度下Iorg的内容损失记为
Figure BDA00016484253000001019
其中,SO(x,y)表示{SO(x,y)}中坐标位置为(x,y)的像素点的像素值。
在此具体实施例中,步骤五中的
Figure BDA00016484253000001020
的计算过程为:
A1、根据在第j个尺度下Iorg中的每个四边形网格的相似性变换矩阵,计算在第j个尺度下Iorg中的每个四边形网格的几何失真,将
Figure BDA0001648425300000113
的几何失真记为
Figure BDA0001648425300000114
Figure BDA0001648425300000115
;其中,
Figure BDA0001648425300000116
对应表示
Figure BDA0001648425300000117
中的第1个元素、第2个元素、第4个元素、第5个元素。
A2、根据在第j个尺度下Iorg中的每个四边形网格的几何失真,并结合{SO(x,y)},计算得到
Figure BDA0001648425300000118
Figure BDA0001648425300000111
其中,SO(kj)表示
Figure BDA0001648425300000119
中的所有像素点的视觉显著值的均值,也即表示{SO(x,y)}中与
Figure BDA00016484253000001110
对应的区域中的所有像素点的像素值的均值,exp()表示以自然基数e为底的指数函数,e=2.71828183…。
在此具体实施例中,步骤五中的fCjL的计算过程为:
Figure BDA0001648425300000112
其中,SO(kj)表示
Figure BDA00016484253000001111
中的所有像素点的视觉显著值的均值,也即表示{SO(x,y)}中与
Figure BDA00016484253000001112
对应的区域中的所有像素点的像素值的均值,
Figure BDA00016484253000001113
表示计算Iorg中与
Figure BDA00016484253000001114
对应的区域中的所有非空洞像素点所占的区域面积大小,即
Figure BDA00016484253000001115
为计算Iorg中与
Figure BDA00016484253000001116
对应的区域中的所有非空洞像素点与Iorg中与
Figure BDA00016484253000001117
对应的区域中的所有像素点的比例大小,Iorg中的所有空洞像素点的确定采用现有技术,除空洞像素点外的其它像素点均为非空洞像素点,
Figure BDA00016484253000001118
表示计算
Figure BDA00016484253000001119
中与
Figure BDA00016484253000001120
对应的区域中的所有非空洞像素点所占的区域面积大小,即
Figure BDA00016484253000001121
为计算
Figure BDA00016484253000001122
中与
Figure BDA00016484253000001123
对应的区域中的所有非空洞像素点与
Figure BDA00016484253000001125
中与
Figure BDA00016484253000001124
对应的区域中的所有像素点的比例大小,
Figure BDA00016484253000001126
中的所有空洞像素点的确定采用现有技术,除空洞像素点外的其它像素点均为非空洞像素点。
步骤六:根据在3个尺度下Iorg的结构失真和内容损失,获取Iret的特征矢量,记为F,
Figure BDA0001648425300000121
其中,F的维数为6×1,
Figure BDA0001648425300000122
表示将
Figure BDA0001648425300000123
连接起来形成一个特征矢量,
Figure BDA0001648425300000124
对应表示在第1个尺度下Iorg的结构失真、在第2个尺度下Iorg的结构失真、在第3个尺度下Iorg的结构失真,
Figure BDA0001648425300000125
对应表示在第1个尺度下Iorg的内容损失、在第2个尺度下Iorg的内容损失、在第3个尺度下Iorg的内容损失。
步骤七:将n'幅原始图像对应的共n幅重定位图像构成重定位图像集合;然后采用现有的主观质量评价方法,获取重定位图像集合中的每幅重定位图像的主观评分差值,将重定位图像集合中的第g1幅重定位图像的主观评分差值记为
Figure BDA0001648425300000127
并按照步骤一至步骤六的过程,以相同的方式获取重定位图像集合中的每幅重定位图像的特征矢量,将重定位图像集合中的第g1幅重定位图像的特征矢量记为
Figure BDA0001648425300000126
其中,n'>1,在本实施例中取n'=57,n>1,在本实施例中取n=171,1≤g1≤n,
Figure BDA0001648425300000129
Figure BDA0001648425300000128
的维数为6×1。
步骤八:随机选择重定位图像集合中的m幅重定位图像构成训练集,将重定位图像集合中剩余的n-m幅重定位图像构成测试集;然后将训练集中的所有重定位图像的特征矢量和主观评分差值构成训练样本数据集合;接着采用支持向量回归作为机器学习的方法,对训练样本数据集合中的所有特征矢量进行训练,使得经过训练得到的回归函数值与主观评分差值之间的误差最小,拟合得到最优的权重矢量wopt和最优的偏置项bopt;再利用得到的最优的权重矢量wopt和最优的偏置项bopt,构造重定位图像的支持向量回归训练模型,记为f(Finp),
Figure BDA00016484253000001210
其中,1≤m<n,f()为函数表示形式,Finp表示重定位图像的支持向量回归训练模型的输入矢量,为重定位图像的特征矢量,Finp的维数为6×1,(wopt)T为wopt的转置,
Figure BDA00016484253000001211
表示重定位图像的支持向量回归训练模型的输入矢量Finp的线性函数。
步骤九:将测试集中的所有重定位图像的特征矢量构成测试样本数据集合;然后根据构造得到的重定位图像的支持向量回归训练模型,对测试样本数据集合中的每个特征矢量进行测试,预测得到测试样本数据集合中的每个特征矢量对应的重定位图像的客观质量评价预测值,将测试样本数据集合中的第q个特征矢量对应的重定位图像的客观质量评价预测值记为Qq,Qq=f(Fq),
Figure BDA0001648425300000131
其中,q为正整数,1≤q≤n-m,Fq表示测试样本数据集合中的第q个特征矢量,Fq的维数为6×1,
Figure BDA0001648425300000132
表示测试样本数据集合中的第q个特征矢量的线性函数。
步骤十:重复执行步骤八至步骤九共X次,并使重定位图像集合中的每幅重定位图像至少有一次属于测试集,经过X次执行后计算重定位图像集合中的每幅重定位图像的若干个客观质量评价预测值的平均值,再将重定位图像集合中的每幅重定位图像的客观质量评价预测值的平均值作为该幅重定位图像的最终的客观质量评价预测值;其中,X的取值大于或等于100。
为了进一步说明本发明方法的可行性和有效性,对本发明方法进行试验。
在本实施例中,采用本发明方法对香港中文大学建立的重定位图像数据库进行测试,该重定位图像数据库包含57幅原始图像,从10种不同重定位方法中随机选择3种方法对每幅原始图像进行重定位操作,这样该重定位图像数据库共有171幅重定位图像,并给出了每幅重定位图像的主观评分差值。这里,利用评估图像质量评价方法的4个常用客观参量作为深度感知评价指标,即非线性回归条件下的Pearson相关系数(Pearson linearcorrelation coefficient,PLCC)、Spearman相关系数(Spearman rank ordercorrelation coefficient,SROCC)、均方误差(root mean squared error,RMSE)、异常值比率指标(Outlier Ratio,OR),PLCC和RMSE反映重定位图像的客观评价结果的准确性,SROCC反映其单调性,OR反映其离散程度。
将采用本发明方法计算得到的570幅重定位图像各自的最终的客观质量评价预测值做五参数Logistic函数非线性拟合,PLCC和SROCC值越高、RMSE和OR值越小说明客观评价方法与主观评分差值相关性越好。表1给出了采用本发明方法得到的最终的客观质量评价预测值与主观评分差值之间的相关性,从表1中可以看出,采用本发明方法得到的最终的客观质量评价预测值与主观评分差值之间的相关性是很高的,表明客观评价结果与人眼主观感知的结果较为一致,足以说明本发明方法的有效性。
表1采用本发明方法得到的客观质量评价预测值与主观评分差值之间的相关性
方法 PLCC SROCC RMSE OR
本发明方法 0.7123 0.7056 9.2357 0.0107

Claims (3)

1.一种重定位图像质量评价方法,其特征在于包括以下步骤:
步骤一:令Iorg表示原始图像,令Iret表示Iorg对应的重定位图像;将Iorg中坐标位置为(x,y)的像素点的像素值记为Iorg(x,y),将Iret中坐标位置为(x',y)的像素点的像素值记为Iret(x',y);其中,1≤x≤W,1≤y≤H,1≤x'≤W',W表示Iorg的宽度,W'表示Iret的宽度,H表示Iorg和Iret的高度;
步骤二:采用SIFT-Flow方法建立Iorg与Iret之间的匹配关系,得到Iorg中的每个像素点的SIFT-Flow向量,将Iorg中坐标位置为(x,y)的像素点的SIFT-Flow向量记为
Figure FDA0001648425290000011
然后根据Iorg中的所有像素点的SIFT-Flow向量,从Iorg中重构得到重定位图像,记为
Figure FDA0001648425290000012
Figure FDA0001648425290000013
中坐标位置为
Figure FDA0001648425290000014
的像素点的像素值记为
Figure FDA0001648425290000015
再找出
Figure FDA0001648425290000016
中的所有空洞像素点,并将值0作为
Figure FDA0001648425290000017
中的每个空洞像素点的像素值;其中,
Figure FDA0001648425290000018
用于表示水平方向,
Figure FDA0001648425290000019
用于表示垂直方向,
Figure FDA00016484252900000110
表示vO(x,y)的水平偏移量,
Figure FDA00016484252900000111
表示vO(x,y)的垂直偏移量,
Figure FDA00016484252900000112
中的“=”为赋值符号;
步骤三:在3个不同尺度下将Iorg分别分割成多个互不重叠的四边形网格,将在第j个尺度下Iorg中的第kj个四边形网格记为
Figure FDA00016484252900000113
Figure FDA00016484252900000114
以其左上、左下、右上和右下4个网格顶点的集合来描述,
Figure FDA00016484252900000115
其中,j=1,2,3,kj为正整数,1≤kj≤Mj,Mj表示在第j个尺度下Iorg中的四边形网格的总个数,
Figure FDA00016484252900000116
Figure FDA00016484252900000117
表示在第j个尺度下Iorg中的四边形网格的尺寸大小,
Figure FDA00016484252900000118
符号
Figure FDA00016484252900000119
为向下取整运算符号,
Figure FDA00016484252900000120
对应表示
Figure FDA00016484252900000121
的左上网格顶点、左下网格顶点、右上网格顶点、右下网格顶点,
Figure FDA0001648425290000021
Figure FDA0001648425290000022
的水平坐标位置
Figure FDA0001648425290000023
和垂直坐标位置
Figure FDA0001648425290000024
来描述,
Figure FDA0001648425290000025
Figure FDA0001648425290000026
Figure FDA0001648425290000027
的水平坐标位置
Figure FDA0001648425290000028
和垂直坐标位置
Figure FDA0001648425290000029
来描述,
Figure FDA00016484252900000210
Figure FDA00016484252900000211
Figure FDA00016484252900000212
的水平坐标位置
Figure FDA00016484252900000213
和垂直坐标位置
Figure FDA00016484252900000214
来描述,
Figure FDA00016484252900000215
Figure FDA00016484252900000216
Figure FDA00016484252900000217
的水平坐标位置
Figure FDA00016484252900000218
和垂直坐标位置
Figure FDA00016484252900000219
来描述,
Figure FDA00016484252900000220
步骤四:根据在每个尺度下Iorg中的每个四边形网格的所有网格顶点的SIFT-Flow向量,确定在相同尺度下Iorg中的每个四边形网格在Iret中匹配的四边形网格,将在第j个尺度下
Figure FDA00016484252900000221
在Iret中匹配的四边形网格记为
Figure FDA00016484252900000222
Figure FDA00016484252900000223
然后计算在每个尺度下Iorg中的每个四边形网格的相似性变换矩阵,将
Figure FDA00016484252900000224
的相似性变换矩阵记为
Figure FDA00016484252900000225
Figure FDA00016484252900000226
其中,
Figure FDA00016484252900000227
对应表示
Figure FDA00016484252900000228
的左上网格顶点、左下网格顶点、右上网格顶点、右下网格顶点,
Figure FDA00016484252900000229
亦表示在第j个尺度下
Figure FDA00016484252900000230
在Iret中匹配的网格顶点,
Figure FDA00016484252900000231
亦表示在第j个尺度下
Figure FDA00016484252900000232
在Iret中匹配的网格顶点,
Figure FDA00016484252900000233
亦表示在第j个尺度下
Figure FDA00016484252900000234
在Iret中匹配的网格顶点,
Figure FDA00016484252900000235
亦表示在第j个尺度下
Figure FDA00016484252900000236
在Iret中匹配的网格顶点,
Figure FDA00016484252900000237
Figure FDA00016484252900000238
的水平坐标位置
Figure FDA00016484252900000239
和垂直坐标位置
Figure FDA00016484252900000240
来描述,
Figure FDA00016484252900000241
Figure FDA00016484252900000242
Figure FDA00016484252900000243
的水平坐标位置
Figure FDA00016484252900000244
和垂直坐标位置
Figure FDA00016484252900000245
来描述,
Figure FDA00016484252900000246
Figure FDA00016484252900000247
Figure FDA00016484252900000248
的水平坐标位置
Figure FDA00016484252900000249
和垂直坐标位置
Figure FDA00016484252900000250
来描述,
Figure FDA00016484252900000251
Figure FDA00016484252900000252
Figure FDA00016484252900000253
的水平坐标位置
Figure FDA00016484252900000254
和垂直坐标位置
Figure FDA00016484252900000255
来描述,
Figure FDA00016484252900000256
Figure FDA00016484252900000257
Figure FDA00016484252900000258
Figure FDA00016484252900000259
Figure FDA00016484252900000260
对应表示
Figure FDA00016484252900000261
的SIFT-Flow向量的水平偏移量和垂直偏移量,
Figure FDA0001648425290000031
Figure FDA0001648425290000032
对应表示
Figure FDA0001648425290000033
的SIFT-Flow向量的水平偏移量和垂直偏移量,
Figure FDA0001648425290000034
Figure FDA0001648425290000035
对应表示
Figure FDA0001648425290000036
的SIFT-Flow向量的水平偏移量和垂直偏移量,
Figure FDA0001648425290000037
Figure FDA0001648425290000038
对应表示
Figure FDA0001648425290000039
的SIFT-Flow向量的水平偏移量和垂直偏移量,
Figure FDA00016484252900000310
Figure FDA00016484252900000311
Figure FDA00016484252900000312
的转置,
Figure FDA00016484252900000313
Figure FDA00016484252900000314
的逆,
Figure FDA00016484252900000315
Figure FDA00016484252900000316
的维数为6×1;
步骤五:采用分层显著性检测模型提取出Iorg的视觉显著图,记为{SO(x,y)};然后根据在每个尺度下Iorg中的所有四边形网格的相似性变换矩阵,并结合{SO(x,y)},计算在每个尺度下Iorg的结构失真,将在第j个尺度下Iorg的结构失真记为
Figure FDA00016484252900000317
并根据在每个尺度下Iorg中的每个四边形网格在Iret中匹配的四边形网格,并结合{SO(x,y)}和
Figure FDA00016484252900000318
计算在每个尺度下Iorg的内容损失,将在第j个尺度下Iorg的内容损失记为
Figure FDA00016484252900000319
其中,SO(x,y)表示{SO(x,y)}中坐标位置为(x,y)的像素点的像素值;
步骤六:根据在3个尺度下Iorg的结构失真和内容损失,获取Iret的特征矢量,记为F,
Figure FDA0001648425290000041
其中,F的维数为6×1,
Figure FDA0001648425290000042
表示将
Figure FDA0001648425290000043
连接起来形成一个特征矢量,
Figure FDA0001648425290000044
对应表示在第1个尺度下Iorg的结构失真、在第2个尺度下Iorg的结构失真、在第3个尺度下Iorg的结构失真,
Figure FDA0001648425290000045
对应表示在第1个尺度下Iorg的内容损失、在第2个尺度下Iorg的内容损失、在第3个尺度下Iorg的内容损失;
步骤七:将n'幅原始图像对应的共n幅重定位图像构成重定位图像集合;然后采用主观质量评价方法,获取重定位图像集合中的每幅重定位图像的主观评分差值,将重定位图像集合中的第g1幅重定位图像的主观评分差值记为
Figure FDA0001648425290000046
并按照步骤一至步骤六的过程,以相同的方式获取重定位图像集合中的每幅重定位图像的特征矢量,将重定位图像集合中的第g1幅重定位图像的特征矢量记为
Figure FDA0001648425290000047
其中,n'>1,n>1,1≤g1≤n,
Figure FDA0001648425290000048
Figure FDA0001648425290000049
的维数为6×1;
步骤八:随机选择重定位图像集合中的m幅重定位图像构成训练集,将重定位图像集合中剩余的n-m幅重定位图像构成测试集;然后将训练集中的所有重定位图像的特征矢量和主观评分差值构成训练样本数据集合;接着采用支持向量回归作为机器学习的方法,对训练样本数据集合中的所有特征矢量进行训练,使得经过训练得到的回归函数值与主观评分差值之间的误差最小,拟合得到最优的权重矢量wopt和最优的偏置项bopt;再利用得到的最优的权重矢量wopt和最优的偏置项bopt,构造重定位图像的支持向量回归训练模型,记为f(Finp),
Figure FDA00016484252900000410
其中,1≤m<n,f()为函数表示形式,Finp表示重定位图像的支持向量回归训练模型的输入矢量,为重定位图像的特征矢量,Finp的维数为6×1,(wopt)T为wopt的转置,
Figure FDA00016484252900000411
表示重定位图像的支持向量回归训练模型的输入矢量Finp的线性函数;
步骤九:将测试集中的所有重定位图像的特征矢量构成测试样本数据集合;然后根据构造得到的重定位图像的支持向量回归训练模型,对测试样本数据集合中的每个特征矢量进行测试,预测得到测试样本数据集合中的每个特征矢量对应的重定位图像的客观质量评价预测值,将测试样本数据集合中的第q个特征矢量对应的重定位图像的客观质量评价预测值记为Qq,Qq=f(Fq),
Figure FDA0001648425290000051
其中,q为正整数,1≤q≤n-m,Fq表示测试样本数据集合中的第q个特征矢量,Fq的维数为6×1,
Figure FDA0001648425290000052
表示测试样本数据集合中的第q个特征矢量的线性函数;
步骤十:重复执行步骤八至步骤九共X次,并使重定位图像集合中的每幅重定位图像至少有一次属于测试集,经过X次执行后计算重定位图像集合中的每幅重定位图像的若干个客观质量评价预测值的平均值,再将重定位图像集合中的每幅重定位图像的客观质量评价预测值的平均值作为该幅重定位图像的最终的客观质量评价预测值;其中,X的取值大于或等于100。
2.根据权利要求1所述的一种重定位图像质量评价方法,其特征在于所述的步骤五中的
Figure FDA00016484252900000513
的计算过程为:
A1、根据在第j个尺度下Iorg中的每个四边形网格的相似性变换矩阵,计算在第j个尺度下Iorg中的每个四边形网格的几何失真,将
Figure FDA0001648425290000053
的几何失真记为
Figure FDA0001648425290000054
Figure FDA0001648425290000055
Figure FDA0001648425290000056
其中,
Figure FDA0001648425290000057
对应表示
Figure FDA0001648425290000058
中的第1个元素、第2个元素、第4个元素、第5个元素;
A2、根据在第j个尺度下Iorg中的每个四边形网格的几何失真,并结合{SO(x,y)},计算得到
Figure FDA0001648425290000059
Figure FDA00016484252900000510
其中,SO(kj)表示
Figure FDA00016484252900000511
中的所有像素点的视觉显著值的均值,也即表示{SO(x,y)}中与
Figure FDA00016484252900000512
对应的区域中的所有像素点的像素值的均值,exp()表示以自然基数e为底的指数函数。
3.根据权利要求1或2所述的一种重定位图像质量评价方法,其特征在于所述的步骤五中的
Figure FDA0001648425290000061
的计算过程为:
Figure FDA0001648425290000062
其中,SO(kj)表示
Figure FDA0001648425290000063
中的所有像素点的视觉显著值的均值,也即表示{SO(x,y)}中与
Figure FDA0001648425290000064
对应的区域中的所有像素点的像素值的均值,
Figure FDA0001648425290000065
表示计算Iorg中与
Figure FDA0001648425290000066
对应的区域中的所有非空洞像素点所占的区域面积大小,
Figure FDA0001648425290000067
表示计算
Figure FDA0001648425290000068
中与
Figure FDA0001648425290000069
对应的区域中的所有非空洞像素点所占的区域面积大小。
CN201810412492.3A 2018-05-03 2018-05-03 一种重定位图像质量评价方法 Active CN108805825B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810412492.3A CN108805825B (zh) 2018-05-03 2018-05-03 一种重定位图像质量评价方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810412492.3A CN108805825B (zh) 2018-05-03 2018-05-03 一种重定位图像质量评价方法

Publications (2)

Publication Number Publication Date
CN108805825A CN108805825A (zh) 2018-11-13
CN108805825B true CN108805825B (zh) 2021-04-27

Family

ID=64093327

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810412492.3A Active CN108805825B (zh) 2018-05-03 2018-05-03 一种重定位图像质量评价方法

Country Status (1)

Country Link
CN (1) CN108805825B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110223268B (zh) * 2019-04-24 2021-06-11 宁波大学 一种绘制图像质量评价方法
CN111641822B (zh) * 2020-05-06 2021-08-24 宁波大学 一种重定位立体图像质量评价方法
CN112419234B (zh) * 2020-10-21 2023-04-25 宁波大学 一种基于几何特征的重定位立体图像质量评价方法
CN112435231A (zh) * 2020-11-20 2021-03-02 深圳市慧鲤科技有限公司 图像质量标尺生成方法、评测图像质量的方法及装置
CN112770105B (zh) * 2020-12-07 2022-06-03 宁波大学 一种基于结构特征的重定位立体图像质量评价方法
CN113192003B (zh) * 2021-03-26 2023-04-28 宁波大学 一种拼接图像质量评价方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103077514A (zh) * 2012-12-17 2013-05-01 西南科技大学 一种基于全变分的视觉感知图像质量评价方法
CN105981384A (zh) * 2013-09-06 2016-09-28 王舟 用于客观感知视频质量评估的方法和系统
CN107105214A (zh) * 2017-03-16 2017-08-29 宁波大学 一种三维视频图像重定位方法
CN107481250A (zh) * 2017-08-30 2017-12-15 吉林大学 一种图像分割方法及其评价方法和图像融合方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8230372B2 (en) * 2009-12-03 2012-07-24 International Business Machines Corporation Retargeting for electrical yield enhancement
US8494302B2 (en) * 2010-11-11 2013-07-23 Seiko Epson Corporation Importance filtering for image retargeting

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103077514A (zh) * 2012-12-17 2013-05-01 西南科技大学 一种基于全变分的视觉感知图像质量评价方法
CN105981384A (zh) * 2013-09-06 2016-09-28 王舟 用于客观感知视频质量评估的方法和系统
CN107105214A (zh) * 2017-03-16 2017-08-29 宁波大学 一种三维视频图像重定位方法
CN107481250A (zh) * 2017-08-30 2017-12-15 吉林大学 一种图像分割方法及其评价方法和图像融合方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Image Retargeting Quality Assessment: A Study of Subjective Scores and Objective Metrics;Lin Ma et.al;《IEEE JOURNAL OF SELECTED TOPICS IN SIGNAL PROCESSING》;20120807;第6卷(第6期);第626-639页 *
Learning Sparse Representation for Objective Image Retargeting Quality Assessment;Qiuping Jiang et.al;《IEEE TRANSACTIONS ON CYBERNETICS》;20180413;第48卷(第4期);第1276-1289页 *
基于内容的图像/视频重定向方法研究;曹连超;《中国优秀硕士学位论文全文数据库信息科技辑(月刊)》;20140315(第03期);第I138-613页 *
结合双向相似性变换的重定向图像质量评价;富振奇;《中国图像图形学报》;20180430;第490-499页 *

Also Published As

Publication number Publication date
CN108805825A (zh) 2018-11-13

Similar Documents

Publication Publication Date Title
CN108805825B (zh) 一种重定位图像质量评价方法
CN103996192B (zh) 基于高质量自然图像统计量模型的无参考图像质量评价方法
Du et al. Fully convolutional measurement network for compressive sensing image reconstruction
CN104902267B (zh) 一种基于梯度信息的无参考图像质量评价方法
CN107481236A (zh) 一种屏幕图像的质量评价方法
CN109978854B (zh) 一种基于边缘与结构特征的屏幕内容图像质量评估方法
CN101976444B (zh) 一种基于像素类型的结构类似性图像质量客观评价方法
CN105357519B (zh) 基于自相似度特征的无参考立体图像质量客观评价方法
CN102333233A (zh) 一种基于视觉感知的立体图像质量客观评价方法
CN106162162B (zh) 一种基于稀疏表示的重定位图像质量客观评价方法
CN105574901B (zh) 一种基于局部对比度模式的通用无参考图像质量评价方法
CN107945151B (zh) 一种基于相似性变换的重定位图像质量评价方法
CN102547368A (zh) 一种立体图像质量客观评价方法
CN111641822B (zh) 一种重定位立体图像质量评价方法
CN104103064A (zh) 基于梯度相似度的无参考噪声图像质量评价方法
CN105118053A (zh) 一种基于压缩感知的全参考图像质量客观评价方法
CN106023214B (zh) 基于中央凹视梯度结构相似性的图像质量评价方法及系统
CN111179242B (zh) 图像处理方法及其装置
CN107018410B (zh) 一种基于预注意机制和空间依赖性的无参考图像质量评价方法
Han et al. Structural information-based image quality assessment using LU factorization
Yang et al. Image quality assessment based on the space similarity decomposition model
CN103996188A (zh) 一种基于Gabor加权特征的全参考型图像质量评价方法
CN104835172A (zh) 一种基于相位一致性和频域熵的无参考图像质量评价方法
CN113192003B (zh) 一种拼接图像质量评价方法
CN112950479B (zh) 一种图像灰度区域拉伸算法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20220622

Address after: Room 2202, 22 / F, Wantong building, No. 3002, Sungang East Road, Sungang street, Luohu District, Shenzhen City, Guangdong Province

Patentee after: Shenzhen dragon totem technology achievement transformation Co.,Ltd.

Address before: 315211, Fenghua Road, Jiangbei District, Zhejiang, Ningbo 818

Patentee before: Ningbo University

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20221208

Address after: B702, Building 2, Dingtai Fenghua, No. 1085, Qianhai Road, Fenghua Community, Nanshan Street, Nanshan District, Shenzhen, Guangdong 518000

Patentee after: Shenzhen Wuxin Tongde Enterprise Management Consulting Partnership (L.P.)

Address before: Room 2202, 22 / F, Wantong building, No. 3002, Sungang East Road, Sungang street, Luohu District, Shenzhen City, Guangdong Province

Patentee before: Shenzhen dragon totem technology achievement transformation Co.,Ltd.

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20230412

Address after: Building 1003, Building 3, Chongwen Park, Nanshan Zhiyuan, No. 3370 Liuxian Avenue, Fuguang Community, Taoyuan Street, Nanshan District, Shenzhen, Guangdong Province, 518000

Patentee after: Shenzhen Lingkun Information Technology Co.,Ltd.

Address before: B702, Building 2, Dingtai Fenghua, No. 1085, Qianhai Road, Fenghua Community, Nanshan Street, Nanshan District, Shenzhen, Guangdong 518000

Patentee before: Shenzhen Wuxin Tongde Enterprise Management Consulting Partnership (L.P.)