CN106162162A - 一种基于稀疏表示的重定位图像质量客观评价方法 - Google Patents

一种基于稀疏表示的重定位图像质量客观评价方法 Download PDF

Info

Publication number
CN106162162A
CN106162162A CN201610629107.1A CN201610629107A CN106162162A CN 106162162 A CN106162162 A CN 106162162A CN 201610629107 A CN201610629107 A CN 201610629107A CN 106162162 A CN106162162 A CN 106162162A
Authority
CN
China
Prior art keywords
designated
sparse coefficient
notable
correspond
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610629107.1A
Other languages
English (en)
Other versions
CN106162162B (zh
Inventor
姜求平
邵枫
李福翠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rizhao Jingying Media Technology Co.,Ltd.
Original Assignee
Ningbo University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ningbo University filed Critical Ningbo University
Priority to CN201610629107.1A priority Critical patent/CN106162162B/zh
Publication of CN106162162A publication Critical patent/CN106162162A/zh
Application granted granted Critical
Publication of CN106162162B publication Critical patent/CN106162162B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00002Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for
    • H04N1/00005Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for relating to image data

Abstract

本发明公开了一种基于稀疏表示的重定位图像质量客观评价方法,其获取原始图像和重定位图像各自对应的关键点特征矢量集合和显著块特征矢量集合;然后对两个关键点特征矢量集合进行字典训练得到各自对应的结构字典表;并对两个显著块特征矢量集合进行字典训练得到各自对应的显著字典表;接着获取重定位图像相对于原始图像的结构相似度和显著相似度,及原始图像相对于重定位图像的结构相似度和显著相似度;再根据结构相似度和显著相似度得到重定位图像的质量矢量;最后利用支持向量回归技术,根据重定位图像的质量矢量和平均主观评分均值,获取重定位图像的客观质量评价预测值;优点是能够有效地提高客观评价结果与主观感知之间的相关性。

Description

一种基于稀疏表示的重定位图像质量客观评价方法
技术领域
本发明涉及一种图像质量评价方法,尤其是涉及一种基于稀疏表示的重定位图像质量客观评价方法。
背景技术
随着终端显示设备(例如智能手机、平板电脑、电视等)的快速发展与更新换代,具有不同分辨率和屏幕高宽比的终端显示设备充斥着人们的工作与生活。当需要显示的图像或视频的分辨率与屏幕的分辨率不相符时,如何在尽可能不改变用户观看体验的前提下,改变图像或视频的分辨率使之适应不同尺寸的终端显示设备,这就是重定位(retargeting)问题。当前解决重定位问题的方法有:缩放(scaling)、裁切(cropping)和变形(warping)等。然而,这些重定位方法并不能达到很好的用户体验效果,不能充分利用终端显示设备的尺寸优势,降低了用户体验效果,因此对不同重定位方法的性能进行客观评价十分必要。
而对于重定位图像质量评价而言,现有的图像质量评价方法并不能直接应用,这是因为重定位图像的失真并不是简单的图像失真,图像分辨率、场景几何、语义内容等因素都会发生严重变化,因此,如何建立原始图像和重定位图像之间的稠密对应关系,如何对图像分辨率、场景几何、语义内容等因素进行量化以反映质量退化程度,使得客观评价结果更加感觉符合人类视觉系统,都是在对重定位图像进行质量客观评价过程中需要研究解决的问题。
发明内容
本发明所要解决的技术问题是提供一种基于稀疏表示的重定位图像质量客观评价方法,其能够有效地提高客观评价结果与主观感知之间的相关性。
本发明解决上述技术问题所采用的技术方案为:一种基于稀疏表示的重定位图像质量客观评价方法,其特征在于包括以下步骤:
①令Iorg表示原始图像,令Iret表示Iorg对应的重定位图像;
②采用尺度不变特征变换对Iorg进行描述,得到Iorg中的每个关键点的描述,然后将Iorg中的所有关键点的描述组成反映Iorg几何结构信息的关键点特征矢量集合,记为GO并采用基于语义的显著提取方法提取Iorg的显著图,然后将Iorg的显著图划分成互不重叠的尺寸大小为8×8的显著块,接着从Iorg中的所有显著块中选取部分显著块,之后获取选取的每个显著块的特征矢量,再将选取的所有显著块的特征矢量组成反映Iorg显著语义信息的显著块特征矢量集合,记为其中,Iorg中的每个关键点的描述为该关键点的方向直方图组成的特征矢量,表示Iorg中的第i1个关键点的描述,为Iorg中的第i1个关键点的方向直方图组成的特征矢量,的维数为128×1,M1表示Iorg中的关键点的总个数,表示从Iorg中选取的第j1个显著块的特征矢量,的维数为192×1,N1表示从Iorg中的所有显著块中选取的显著块的总个数;
同样,采用尺度不变特征变换对Iret进行描述,得到Iret中的每个关键点的描述,然后将Iret中的所有关键点的描述组成反映Iret几何结构信息的关键点特征矢量集合,记为并采用基于语义的显著提取方法提取Iret的显著图,然后将Iret的显著图划分成互不重叠的尺寸大小为8×8的显著块,接着从Iret中的所有显著块中选取部分显著块,之后获取选取的每个显著块的特征矢量,再将选取的所有显著块的特征矢量组成反映Iret显著语义信息的显著块特征矢量集合,记为SR其中,Iret中的每个关键点的描述为该关键点的方向直方图组成的特征矢量,表示Iret中的第i2个关键点的描述,为Iret中的第i2个关键点的方向直方图组成的特征矢量,的维数为128×1,M2表示Iret中的关键点的总个数,表示从Iret中选取的第j2个显著块的特征矢量,的维数为192×1,N2表示从Iret中的所有显著块中选取的显著块的总个数;
③采用最小角回归方法对GO进行字典训练操作,构造得到Iorg的结构字典表,记为 是采用最小角回归方法求解得到的;并采用最小角回归方法对SO进行字典训练操作,构造得到Iorg的显著字典表,记为 是采用最小角回归方法求解得到的;其中,的维数为128×K1,K1为设定的字典个数,K1≥1,min{}为取最小值函数,符号“|| ||2”为求取矩阵的2-范数符号,符号“|| ||0”为求取矩阵的0-范数符号,表示的基于的稀疏系数矩阵,的维数为K1×1,τ1为设定的稀疏度,的维数为192×L1,L1为设定的字典个数,L1≥1,表示的基于的稀疏系数矩阵,的维数为L1×1;
同样,采用最小角回归方法对GR进行字典训练操作,构造得到Iret的结构字典表,记为 是采用最小角回归方法求解得到的;并采用最小角回归方法对SR进行字典训练操作,构造得到Iret的显著字典表,记为 是采用最小角回归方法求解得到的;其中,的维数为128×K2,K2为设定的字典个数,K2≥1,表示的基于的稀疏系数矩阵,的维数为K2×1,τ2为设定的稀疏度,的维数为192×L2,L2为设定的字典个数,L2≥1,表示的基于的稀疏系数矩阵,的维数为L2×1;
④根据计算Iret相对于Iorg的结构相似度,记为并根据计算Iret相对于Iorg的显著相似度,记为
同样,根据计算Iorg相对于Iret的结构相似度,记为并根据计算Iorg相对于Iret的显著相似度,记为
⑤根据 获取Iret的质量矢量,记为Q,其中,Q的维数为1×4,符号“[]”为矢量表示符号;
⑥将P幅重定位图像构成重定位图像库,将重定位图像库中的第p幅重定位图像的平均主观评分均值记为MOSp;接着按照步骤①至步骤⑤获取Iret的质量矢量Q的操作,以相同的方式获取重定位图像库中的每幅重定位图像的质量矢量,将重定位图像库中的第p幅重定位图像的质量矢量记为Qp;其中,P>1,1≤p≤P,MOSp∈[1,5],Qp的维数为1×4;
⑦从重定位图像库中随机选择T幅重定位图像构成训练集,将重定位图像库中剩余的P-T幅重定位图像构成测试集,并令m表示迭代的次数,其中,1<T<P,m的初始值为0;
⑧将训练集中的所有重定位图像各自的质量矢量和平均主观评分均值构成训练样本数据集合;接着采用支持向量回归作为机器学习的方法,对训练样本数据集合中的所有质量矢量进行训练,使得经过训练得到的回归函数值与平均主观评分均值之间的误差最小,拟合得到最优的支持向量回归训练模型,记为f(Qinp);之后根据最优的支持向量回归训练模型,对测试集中的每幅重定位图像的质量矢量进行测试,预测得到测试集中的每幅重定位图像的客观质量评价预测值,将测试集中的第n幅重定位图像的客观质量评价预测值记为Qualityn,Qualityn=f(Qn);然后令m=m+1;再执行步骤⑨;其中,f()为函数表示形式,Qinp表示最优的支持向量回归训练模型的输入矢量,1≤n≤P-T,Qn表示测试集中的第n幅重定位图像的质量矢量,m=m+1中的“=”为赋值符号;
⑨判断m<M是否成立,如果成立,则重新随机分配构成训练集的T幅重定位图像和构成测试集的P-T幅重定位图像,然后返回步骤⑧继续执行;否则,计算重定位图像库中的每幅重定位图像的多个客观质量评价预测值的平均值,并将计算得到的平均值作为对应那幅重定位图像的最终的客观质量评价预测值;其中,M表示设定的总迭代次数,M>100。
所述的步骤②中从Iorg中的所有显著块中选取部分显著块的过程为:计算Iorg中的每个显著块中的所有像素点的像素值的平均值;然后按平均值从大到小的顺序对Iorg中的所有显著块进行排序;再选取前70%的显著块;所述的步骤②中从Iorg中选取的每个显著块的特征矢量为该显著块中的所有像素点的R、G、B分量组成的维数为192×1的列向量。
所述的步骤②中从Iret中的所有显著块中选取部分显著块的过程为:计算Iret中的每个显著块中的所有像素点的像素值的平均值;然后按平均值从大到小的顺序对Iret中的所有显著块进行排序;再选取前70%的显著块;所述的步骤②中从Iret中选取的每个显著块的特征矢量为该显著块中的所有像素点的R、G、B分量组成的维数为192×1的列向量。
所述的步骤④中的的获取过程为:
④_1a、将组合成一个新的结构字典表,记为 其中,的维数为128×(K2+K1),符号“[]”为矢量表示符号,表示将连接起来形成一个新的矢量;
④_2a、根据计算GR中的每个关键点的描述的基于的稀疏系数矩阵,将的基于的稀疏系数矩阵记为 是采用最小角回归方法求解得到的,其中,的维数为(K2+K1)×1;
④_3a、获取GR中的每个关键点的描述对应于的稀疏系数矩阵,将对应于的稀疏系数矩阵记为并获取GR中的每个关键点的描述对应于的稀疏系数矩阵,将对应于的稀疏系数矩阵记为 其中,的维数为(K2+K1)×1,α1,1表示对应于的第1个原子的稀疏系数,表示对应于的第K2个原子的稀疏系数,的维数为(K2+K1)×1,α2,1表示对应于的第1个原子的稀疏系数,表示对应于的第K1个原子的稀疏系数;
④_4a、计算GR中的每个关键点的描述对应于其所对应的的稀疏系数矩阵的稀疏重建误差,将对应于的稀疏重建误差记为 并计算GR中的每个关键点的描述对应于其所对应的的稀疏系数矩阵的稀疏重建误差,将对应于的稀疏重建误差记为
④_5a、计算GR中的每个关键点的描述对应于其所对应的的稀疏系数矩阵的表决分值,将对应于的表决分值记为并计算GR中的每个关键点的描述对应于其所对应的的稀疏系数矩阵的表决分值,将对应于的表决分值记为其中,如果 如果
④_6a、计算 其中,
所述的步骤④中的的获取过程为:
④_1b、将组合成一个新的显著字典表,记为 其中,的维数为192×(L2+L1),符号“[]”为矢量表示符号,表示将连接起来形成一个新的矢量;
④_2b、根据计算SR中的每个显著块特征矢量的基于的稀疏系数矩阵,将的基于的稀疏系数矩阵记为 是采用最小角回归方法求解得到的,其中,的维数为(L2+L1)×1;
④_3b、获取SR中的每个显著块特征矢量对应于的稀疏系数矩阵,将对应于的稀疏系数矩阵记为 并获取SR中的每个显著块特征矢量对应于的稀疏系数矩阵,将对应于的稀疏系数矩阵记为 其中,的维数为(L2+L1)×1,γ1,1表示对应于的第1个原子的稀疏系数,表示对应于的第L2个原子的稀疏系数,的维数为(L2+L1)×1,γ2,1表示对应于的第1个原子的稀疏系数,表示对应于的第L1个原子的稀疏系数;
④_4b、计算SR中的每个显著块特征矢量对应于其所对应的的稀疏系数矩阵的稀疏重建误差,将对应于的稀疏重建误差记为 并计算SR中的每个显著块特征矢量对应于其所对应的的稀疏系数矩阵的稀疏重建误差,将对应于的稀疏重建误差记为
④_5b、计算SR中的每个显著块特征矢量对应于其所对应的的稀疏系数矩阵的表决分值,将对应于的表决分值记为并计算SR中的每个显著块特征矢量对应于其所对应的的稀疏系数矩阵的表决分值,将对应于的表决分值记为其中,如果 如果
④_6b、计算 其中,
所述的步骤④中的的获取过程为:
④_1c、将组合成一个新的结构字典表,记为 其中,的维数为128×(K1+K2),符号“[]”为矢量表示符号,表示将连接起来形成一个新的矢量;
④_2c、根据计算GO中的每个关键点的描述的基于的稀疏系数矩阵,将的基于的稀疏系数矩阵记为 是采用最小角回归方法求解得到的,其中,的维数为(K1+K2)×1;
④_3c、获取GO中的每个关键点的描述对应于的稀疏系数矩阵,将对应于的稀疏系数矩阵记为 并获取GO中的每个关键点的描述对应于的稀疏系数矩阵,将对应于的稀疏系数矩阵记为 其中,的维数为(K1+K2)×1,β1,1表示对应于的第1个原子的稀疏系数,表示对应于的第K1个原子的稀疏系数,的维数为(K1+K2)×1,β2,1表示对应于的第1个原子的稀疏系数,表示对应于的第K2个原子的稀疏系数;
④_4c、计算GO中的每个关键点的描述对应于其所对应的的稀疏系数矩阵的稀疏重建误差,将对应于的稀疏重建误差记为 并计算GO中的每个关键点的描述对应于其所对应的的稀疏系数矩阵的稀疏重建误差,将对应于的稀疏重建误差记为
④_5c、计算GO中的每个关键点的描述对应于其所对应的的稀疏系数矩阵的表决分值,将对应于的表决分值记为并计算GO中的每个关键点的描述对应于其所对应的的稀疏系数矩阵的表决分值,将对应于的表决分值记为其中,如果 如果
④_6c、计算 其中,
所述的步骤④中的的获取过程为:
④_1d、将组合成一个新的显著字典表,记为 其中,的维数为192×(L1+L2),符号“[]”为矢量表示符号,表示将连接起来形成一个新的矢量;
④_2d、根据计算SO中的每个显著块特征矢量的基于的稀疏系数矩阵,将的基于的稀疏系数矩阵记为 是采用最小角回归方法求解得到的,其中,的维数为(L1+L2)×1;
满足
④_3d、获取SO中的每个显著块特征矢量对应于的稀疏系数矩阵,将对应于的稀疏系数矩阵记为并获取SO中的每个显著块特征矢量对应于的稀疏系数矩阵,将对应于的稀疏系数矩阵记为 其中,的维数为(L1+L2)×1,η1,1表示对应于的第1个原子的稀疏系数,表示对应于的第L1个原子的稀疏系数,的维数为(L1+L2)×1,η2,1表示对应于的第1个原子的稀疏系数,表示对应于的第L2个原子的稀疏系数;
④_4d、计算SO中的每个显著块特征矢量对应于其所对应的的稀疏系数矩阵的稀疏重建误差,将对应于的稀疏重建误差记为 并计算SO中的每个显著块特征矢量对应于其所对应的的稀疏系数矩阵的稀疏重建误差,将对应于的稀疏重建误差记为
④_5d、计算SO中的每个显著块特征矢量对应于其所对应的的稀疏系数矩阵的表决分值,将对应于的表决分值记为并计算SO中的每个显著块特征矢量对应于其所对应的的稀疏系数矩阵的表决分值,将对应于的表决分值记为其中,如果 如果
④_6d、计算其中,
与现有技术相比,本发明的优点在于:
1)本发明方法考虑到几何结构和显著语义是影响重定位性能的主要因素,分别计算原始图像相对于重定位图像的结构相似度、重定位图像相对于原始图像的结构相似度、原始图像相对于重定位图像的显著相似度及重定位图像相对于原始图像的显著相似度,这样能够有效地提高客观评价结果与主观感知之间的相关性。
2)本发明方法通过分别构造原始图像和重定位图像各自的结构字典表和显著字典表,并以稀疏重建误差来反映在多大程度上能够从重定位图像中提取出原始图像的结构或显著信息,或者在多大程度上能够从原始图像中提取出重定位图像的结构或显著信息,通过计算表决分值并结合得到最终的结构相似度或显著相似度,获得的最终的结构相似度和显著相似度具有较强的稳定性且能够较好地反映重定位图像的感知质量变化情况。
附图说明
图1为本发明方法的总体实现框图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明提出的一种基于稀疏表示的重定位图像质量客观评价方法,其总体实现框图如图1所示,其包括以下步骤:
①令Iorg表示原始图像,令Iret表示Iorg对应的重定位图像。
②采用现有的尺度不变特征变换(SIFT)对Iorg进行描述,得到Iorg中的每个关键点的描述,然后将Iorg中的所有关键点的描述组成反映Iorg几何结构信息的关键点特征矢量集合,记为并采用现有的基于语义的显著提取方法提取Iorg的显著图,然后将Iorg的显著图划分成互不重叠的尺寸大小为8×8的显著块,接着从Iorg中的所有显著块中选取部分显著块,之后获取选取的每个显著块的特征矢量,再将选取的所有显著块的特征矢量组成反映Iorg显著语义信息的显著块特征矢量集合,记为SO其中,Iorg中的每个关键点的描述为该关键点的方向直方图组成的特征矢量,表示Iorg中的第i1个关键点的描述,为Iorg中的第i1个关键点的方向直方图组成的特征矢量,的维数为128×1,M1表示Iorg中的关键点的总个数,M1的值根据具体的Iorg确定,表示从Iorg中选取的第j1个显著块的特征矢量,的维数为192×1,N1表示从Iorg中的所有显著块中选取的显著块的总个数,N1的值根据具体的Iorg确定。
在此具体实施例中,步骤②中从Iorg中的所有显著块中选取部分显著块的过程为:计算Iorg中的每个显著块中的所有像素点的像素值的平均值;然后按平均值从大到小的顺序对Iorg中的所有显著块进行排序;再选取前70%的显著块;所述的步骤②中从Iorg中选取的每个显著块的特征矢量为该显著块中的所有像素点的R、G、B分量组成的维数为192×1的列向量。
同样,采用现有的尺度不变特征变换(SIFT)对Iret进行描述,得到Iret中的每个关键点的描述,然后将Iret中的所有关键点的描述组成反映Iret几何结构信息的关键点特征矢量集合,记为并采用现有的基于语义的显著提取方法提取Iret的显著图,然后将Iret的显著图划分成互不重叠的尺寸大小为8×8的显著块,接着从Iret中的所有显著块中选取部分显著块,之后获取选取的每个显著块的特征矢量,再将选取的所有显著块的特征矢量组成反映Iret显著语义信息的显著块特征矢量集合,记为其中,Iret中的每个关键点的描述为该关键点的方向直方图组成的特征矢量,表示Iret中的第i2个关键点的描述,为Iret中的第i2个关键点的方向直方图组成的特征矢量,的维数为128×1,M2表示Iret中的关键点的总个数,M2的值根据具体的Iret确定,表示从Iret中选取的第j2个显著块的特征矢量,的维数为192×1,N2表示从Iret中的所有显著块中选取的显著块的总个数,N2的值根据具体的Iret确定。
在此具体实施例中,步骤②中从Iret中的所有显著块中选取部分显著块的过程为:计算Iret中的每个显著块中的所有像素点的像素值的平均值;然后按平均值从大到小的顺序对Iret中的所有显著块进行排序;再选取前70%的显著块;所述的步骤②中从Iret中选取的每个显著块的特征矢量为该显著块中的所有像素点的R、G、B分量组成的维数为192×1的列向量。
③采用最小角回归方法对GO进行字典训练操作,构造得到Iorg的结构字典表,记为 是采用最小角回归方法求解得到的;并采用最小角回归方法对SO进行字典训练操作,构造得到Iorg的显著字典表,记为 是采用最小角回归方法求解得到的;其中,的维数为128×K1,K1为设定的字典个数,K1≥1,在本实施例中取K1=512,min{}为取最小值函数,符号“|| ||2”为求取矩阵的2-范数符号,符号“|| ||0”为求取矩阵的0-范数符号,表示的基于的稀疏系数矩阵,的维数为K1×1,τ1为设定的稀疏度,在本实施例中取τ1=10,的维数为192×L1,L1为设定的字典个数,L1≥1,在本实施例中取L1=512,表示的基于的稀疏系数矩阵,的维数为L1×1。
同样,采用最小角回归方法对GR进行字典训练操作,构造得到Iret的结构字典表,记为 是采用最小角回归方法求解得到的;并采用最小角回归方法对SR进行字典训练操作,构造得到Iret的显著字典表,记为 是采用最小角回归方法求解得到的;其中,的维数为128×K2,K2为设定的字典个数,K2≥1,在本实施例中取K2=256,表示的基于的稀疏系数矩阵,的维数为K2×1,τ2为设定的稀疏度,在本实施例中取τ2=4,的维数为192×L2,L2为设定的字典个数,L2≥1,在本实施例中取L2=256,表示的基于的稀疏系数矩阵,的维数为L2×1。④为了描述在多大程度上能够从原始图像中提取出重定位图像的结构信息,根据计算Iret相对于Iorg的结构相似度,记为并为了描述在多大程度上能够从原始图像中提取出重定位图像的显著信息,根据计算Iret相对于Iorg的显著相似度,记为在此具体实施例中,步骤④中的的获取过程为:④_1a、将组合成一个新的结构字典表,记为其中,的维数为128×(K2+K1),符号“[]”为矢量表示符号,表示将连接起来形成一个新的矢量。④_2a、根据计算GR中的每个关键点的描述的基于的稀疏系数矩阵,将的基于的稀疏系数矩阵记为 是采用最小角回归方法求解得到的,其中,的维数为(K2+K1)×1。④_3a、获取GR中的每个关键点的描述对应于的稀疏系数矩阵,将对应于的稀疏系数矩阵记为并获取GR中的每个关键点的描述对应于的稀疏系数矩阵,将对应于的稀疏系数矩阵记为 其中,的维数为(K2+K1)×1,α1,1表示对应于的第1个原子的稀疏系数,表示对应于的第K2个原子的稀疏系数,的维数为(K2+K1)×1,α2,1表示对应于的第1个原子的稀疏系数,表示对应于的第K1个原子的稀疏系数。
④_4a、计算GR中的每个关键点的描述对应于其所对应的的稀疏系数矩阵的稀疏重建误差,将对应于的稀疏重建误差记为 并计算GR中的每个关键点的描述对应于其所对应的的稀疏系数矩阵的稀疏重建误差,将对应于的稀疏重建误差记为
④_5a、计算GR中的每个关键点的描述对应于其所对应的的稀疏系数矩阵的表决分值,将对应于的表决分值记为并计算GR中的每个关键点的描述对应于其所对应的的稀疏系数矩阵的表决分值,将对应于的表决分值记为其中,如果 如果
④_6a、计算 其中,
在此具体实施例中,步骤④中的的获取过程为:
④_1b、将组合成一个新的显著字典表,记为其中,的维数为192×(L2+L1),符号“[]”为矢量表示符号,表示将连接起来形成一个新的矢量。
④_2b、根据计算SR中的每个显著块特征矢量的基于的稀疏系数矩阵,将的基于的稀疏系数矩阵记为 是采用最小角回归方法求解得到的,其中,的维数为(L2+L1)×1。
④_3b、获取SR中的每个显著块特征矢量对应于的稀疏系数矩阵,将对应于的稀疏系数矩阵记为 并获取SR中的每个显著块特征矢量对应于的稀疏系数矩阵,将对应于的稀疏系数矩阵记为 其中,的维数为(L2+L1)×1,γ1,1表示对应于的第1个原子的稀疏系数,表示对应于的第L2个原子的稀疏系数,的维数为(L2+L1)×1,γ2,1表示对应于的第1个原子的稀疏系数,表示对应于的第L1个原子的稀疏系数。
④_4b、计算SR中的每个显著块特征矢量对应于其所对应的的稀疏系数矩阵的稀疏重建误差,将对应于的稀疏重建误差记为 并计算SR中的每个显著块特征矢量对应于其所对应的的稀疏系数矩阵的稀疏重建误差,将对应于的稀疏重建误差记为
④_5b、计算SR中的每个显著块特征矢量对应于其所对应的的稀疏系数矩阵的表决分值,将对应于的表决分值记为并计算SR中的每个显著块特征矢量对应于其所对应的的稀疏系数矩阵的表决分值,将对应于的表决分值记为其中,如果 如果
④_6b、计算 其中,
同样,为了描述在多大程度上能够从重定位图像中提取出原始图像的结构信息,根据计算Iorg相对于Iret的结构相似度,记为并为了描述在多大程度上能够从重定位图像中提取出原始图像的显著信息,根据计算Iorg相对于Iret的显著相似度,记为
在此具体实施例中,步骤④中的的获取过程为:
④_1c、将组合成一个新的结构字典表,记为 其中,的维数为128×(K1+K2),符号“[]”为矢量表示符号,表示将连接起来形成一个新的矢量。
④_2c、根据计算GO中的每个关键点的描述的基于的稀疏系数矩阵,将的基于的稀疏系数矩阵记为 是采用最小角回归方法求解得到的,其中,的维数为(K1+K2)×1。
④_3c、获取GO中的每个关键点的描述对应于的稀疏系数矩阵,将对应于的稀疏系数矩阵记为 并获取GO中的每个关键点的描述对应于的稀疏系数矩阵,将对应于的稀疏系数矩阵记为 其中,的维数为(K1+K2)×1,β1,1表示对应于的第1个原子的稀疏系数,表示对应于的第K1个原子的稀疏系数,的维数为(K1+K2)×1,β2,1表示对应于的第1个原子的稀疏系数,表示对应于的第K2个原子的稀疏系数。
④_4c、计算GO中的每个关键点的描述对应于其所对应的的稀疏系数矩阵的稀疏重建误差,将对应于的稀疏重建误差记为 并计算GO中的每个关键点的描述对应于其所对应的的稀疏系数矩阵的稀疏重建误差,将对应于的稀疏重建误差记为
④_5c、计算GO中的每个关键点的描述对应于其所对应的的稀疏系数矩阵的表决分值,将对应于的表决分值记为并计算GO中的每个关键点的描述对应于其所对应的的稀疏系数矩阵的表决分值,将对应于的表决分值记为其中,如果 如果
④_6c、计算 其中,
在此具体实施例中,步骤④中的的获取过程为:
④_1d、将组合成一个新的显著字典表,记为 其中,的维数为192×(L1+L2),符号“[]”为矢量表示符号,表示将连接起来形成一个新的矢量。
④_2d、根据计算SO中的每个显著块特征矢量的基于的稀疏系数矩阵,将的基于的稀疏系数矩阵记为 是采用最小角回归方法求解得到的,其中,的维数为(L1+L2)×1。
④_3d、获取SO中的每个显著块特征矢量对应于的稀疏系数矩阵,将对应于的稀疏系数矩阵记为 并获取SO中的每个显著块特征矢量对应于的稀疏系数矩阵,将对应于的稀疏系数矩阵记为 其中,的维数为(L1+L2)×1,η1,1表示对应于的第1个原子的稀疏系数,表示对应于的第L1个原子的稀疏系数,的维数为(L1+L2)×1,η2,1表示对应于的第1个原子的稀疏系数,表示对应于的第L2个原子的稀疏系数。
④_4d、计算SO中的每个显著块特征矢量对应于其所对应的的稀疏系数矩阵的稀疏重建误差,将对应于的稀疏重建误差记为 并计算SO中的每个显著块特征矢量对应于其所对应的的稀疏系数矩阵的稀疏重建误差,将对应于的稀疏重建误差记为
④_5d、计算SO中的每个显著块特征矢量对应于其所对应的的稀疏系数矩阵的表决分值,将对应于的表决分值记为并计算SO中的每个显著块特征矢量对应于其所对应的的稀疏系数矩阵的表决分值,将对应于的表决分值记为其中,如果 如果
④_6d、计算 其中,
⑤根据 获取Iret的质量矢量,记为Q,其中,Q的维数为1×4,符号“[]”为矢量表示符号。
⑥将P幅重定位图像构成重定位图像库,将重定位图像库中的第p幅重定位图像的平均主观评分均值记为MOSp;接着按照步骤①至步骤⑤获取Iret的质量矢量Q的操作,以相同的方式获取重定位图像库中的每幅重定位图像的质量矢量,将重定位图像库中的第p幅重定位图像的质量矢量记为Qp;其中,P>1,P的大小由重定位图像库而定,在本实施例中P=570,1≤p≤P,MOSp∈[1,5],Qp的维数为1×4。
⑦从重定位图像库中随机选择T幅重定位图像构成训练集,将重定位图像库中剩余的P-T幅重定位图像构成测试集,并令m表示迭代的次数,其中,1<T<P,m的初始值为0。
⑧将训练集中的所有重定位图像各自的质量矢量和平均主观评分均值构成训练样本数据集合;接着采用支持向量回归作为机器学习的方法,对训练样本数据集合中的所有质量矢量进行训练,使得经过训练得到的回归函数值与平均主观评分均值之间的误差最小,拟合得到最优的支持向量回归训练模型,记为f(Qinp);之后根据最优的支持向量回归训练模型,对测试集中的每幅重定位图像的质量矢量进行测试,预测得到测试集中的每幅重定位图像的客观质量评价预测值,将测试集中的第n幅重定位图像的客观质量评价预测值记为Qualityn,Qualityn=f(Qn);然后令m=m+1;再执行步骤⑨;其中,f()为函数表示形式,Qinp表示最优的支持向量回归训练模型的输入矢量,1≤n≤P-T,Qn表示测试集中的第n幅重定位图像的质量矢量,m=m+1中的“=”为赋值符号。
⑨判断m<M是否成立,如果成立,则重新随机分配构成训练集的T幅重定位图像和构成测试集的P-T幅重定位图像,然后返回步骤⑧继续执行;否则,计算重定位图像库中的每幅重定位图像的多个客观质量评价预测值的平均值,并将计算得到的平均值作为对应那幅重定位图像的最终的客观质量评价预测值;其中,M表示设定的总迭代次数,M>100。
在本实施例中,采用本发明方法对香港中文大学建立的重定位图像数据库进行测试,该重定位图像数据库包含57幅原始图像,每幅原始图像包含了由10种不同重定位方法得到的重定位图像,这样该重定位图像数据库共有570幅重定位图像,并给出了每幅重定位图像的平均主观评分均值。这里,利用评估图像质量评价方法的4个常用客观参量作为深度感知评价指标,即非线性回归条件下的Pearson相关系数(Pearson linear correlationcoefficient,PLCC)、Spearman相关系数(Spearman rank order correlationcoefficient,SROCC)、Kendall相关系数(Kendall rank-order correlationcoefficient,KROCC)、均方误差(root mean squared error,RMSE),PLCC和RMSE反映重定位图像的客观评价结果的准确性,SROCC和KROCC反映其单调性。
将利用本发明方法计算得到的570幅重定位图像各自的客观质量评价预测值做五参数Logistic函数非线性拟合,PLCC、SROCC和KROCC值越高、RMSE值越小说明本发明方法的评价结果与平均主观评分均值的相关性越好。表1给出了采用不同质量矢量得到的客观质量评价预测值与平均主观评分均值之间的相关性,从表1中可以看出,只采用部分质量矢量得到的客观质量评价预测值与平均主观评分均值之间的相关性并不是最优的,这说明了本发明方法提取的质量矢量信息是有效的,同时也说明了本发明方法建立的基于稀疏表示的质量评价模型是准确的,使得得到的客观质量评价预测值与平均主观评分均值之间的相关性更强,这足以说明本发明方法是可行且有效的。
表1采用不同质量矢量得到的客观质量评价预测值与平均主观评分均值之间的相关性

Claims (7)

1.一种基于稀疏表示的重定位图像质量客观评价方法,其特征在于包括以下步骤:
①令Iorg表示原始图像,令Iret表示Iorg对应的重定位图像;
②采用尺度不变特征变换对Iorg进行描述,得到Iorg中的每个关键点的描述,然后将Iorg中的所有关键点的描述组成反映Iorg几何结构信息的关键点特征矢量集合,记为GO并采用基于语义的显著提取方法提取Iorg的显著图,然后将Iorg的显著图划分成互不重叠的尺寸大小为8×8的显著块,接着从Iorg中的所有显著块中选取部分显著块,之后获取选取的每个显著块的特征矢量,再将选取的所有显著块的特征矢量组成反映Iorg显著语义信息的显著块特征矢量集合,记为SO其中,Iorg中的每个关键点的描述为该关键点的方向直方图组成的特征矢量,表示Iorg中的第i1个关键点的描述,为Iorg中的第i1个关键点的方向直方图组成的特征矢量,的维数为128×1,M1表示Iorg中的关键点的总个数,表示从Iorg中选取的第j1个显著块的特征矢量,的维数为192×1,N1表示从Iorg中的所有显著块中选取的显著块的总个数;
同样,采用尺度不变特征变换对Iret进行描述,得到Iret中的每个关键点的描述,然后将Iret中的所有关键点的描述组成反映Iret几何结构信息的关键点特征矢量集合,记为GR并采用基于语义的显著提取方法提取Iret的显著图,然后将Iret的显著图划分成互不重叠的尺寸大小为8×8的显著块,接着从Iret中的所有显著块中选取部分显著块,之后获取选取的每个显著块的特征矢量,再将选取的所有显著块的特征矢量组成反映Iret显著语义信息的显著块特征矢量集合,记为SR其中,Iret中的每个关键点的描述为该关键点的方向直方图组成的特征矢量,表示Iret中的第i2个关键点的描述,为Iret中的第i2个关键点的方向直方图组成的特征矢量,的维数为128×1,M2表示Iret中的关键点的总个数,表示从Iret中选取的第j2个显著块的特征矢量,的维数为192×1,N2表示从Iret中的所有显著块中选取的显著块的总个数;
③采用最小角回归方法对GO进行字典训练操作,构造得到Iorg的结构字典表,记为 是采用最小角回归方法求解得到的;并采用最小角回归方法对SO进行字典训练操作,构造得到Iorg的显著字典表,记为 是采用最小角回归方法求解得到的;其中,的维数为128×K1,K1为设定的字典个数,K1≥1,min{}为取最小值函数,符号“|| ||2”为求取矩阵的2-范数符号,符号“|| ||0”为求取矩阵的0-范数符号,表示的基于的稀疏系数矩阵,的维数为K1×1,τ1为设定的稀疏度,的维数为192×L1,L1为设定的字典个数,L1≥1,表示的基于的稀疏系数矩阵,的维数为L1×1;
同样,采用最小角回归方法对GR进行字典训练操作,构造得到Iret的结构字典表,记为 是采用最小角回归方法求解得到的;并采用最小角回归方法对SR进行字典训练操作,构造得到Iret的显著字典表,记为 是采用最小角回归方法求解得到的;其中,的维数为128×K2,K2为设定的字典个数,K2≥1,表示的基于的稀疏系数矩阵,的维数为K2×1,τ2为设定的稀疏度,的维数为192×L2,L2为设定的字典个数,L2≥1,表示的基于的稀疏系数矩阵,的维数为L2×1;
④根据计算Iret相对于Iorg的结构相似度,记为并根据计算Iret相对于Iorg的显著相似度,记为
同样,根据计算Iorg相对于Iret的结构相似度,记为并根据计算Iorg相对于Iret的显著相似度,记为
⑤根据获取Iret的质量矢量,记为Q,其中,Q的维数为1×4,符号“[]”为矢量表示符号;
⑥将P幅重定位图像构成重定位图像库,将重定位图像库中的第p幅重定位图像的平均主观评分均值记为MOSp;接着按照步骤①至步骤⑤获取Iret的质量矢量Q的操作,以相同的方式获取重定位图像库中的每幅重定位图像的质量矢量,将重定位图像库中的第p幅重定位图像的质量矢量记为Qp;其中,P>1,1≤p≤P,MOSp∈[1,5],Qp的维数为1×4;
⑦从重定位图像库中随机选择T幅重定位图像构成训练集,将重定位图像库中剩余的P-T幅重定位图像构成测试集,并令m表示迭代的次数,其中,1<T<P,m的初始值为0;
⑧将训练集中的所有重定位图像各自的质量矢量和平均主观评分均值构成训练样本数据集合;接着采用支持向量回归作为机器学习的方法,对训练样本数据集合中的所有质量矢量进行训练,使得经过训练得到的回归函数值与平均主观评分均值之间的误差最小,拟合得到最优的支持向量回归训练模型,记为f(Qinp);之后根据最优的支持向量回归训练模型,对测试集中的每幅重定位图像的质量矢量进行测试,预测得到测试集中的每幅重定位图像的客观质量评价预测值,将测试集中的第n幅重定位图像的客观质量评价预测值记为Qualityn,Qualityn=f(Qn);然后令m=m+1;再执行步骤⑨;其中,f()为函数表示形式,Qinp表示最优的支持向量回归训练模型的输入矢量,1≤n≤P-T,Qn表示测试集中的第n幅重定位图像的质量矢量,m=m+1中的“=”为赋值符号;
⑨判断m<M是否成立,如果成立,则重新随机分配构成训练集的T幅重定位图像和构成测试集的P-T幅重定位图像,然后返回步骤⑧继续执行;否则,计算重定位图像库中的每幅重定位图像的多个客观质量评价预测值的平均值,并将计算得到的平均值作为对应那幅重定位图像的最终的客观质量评价预测值;其中,M表示设定的总迭代次数,M>100。
2.根据权利要求1所述的一种基于稀疏表示的重定位图像质量客观评价方法,其特征在于所述的步骤②中从Iorg中的所有显著块中选取部分显著块的过程为:计算Iorg中的每个显著块中的所有像素点的像素值的平均值;然后按平均值从大到小的顺序对Iorg中的所有显著块进行排序;再选取前70%的显著块;所述的步骤②中从Iorg中选取的每个显著块的特征矢量为该显著块中的所有像素点的R、G、B分量组成的维数为192×1的列向量。
3.根据权利要求1所述的一种基于稀疏表示的重定位图像质量客观评价方法,其特征在于所述的步骤②中从Iret中的所有显著块中选取部分显著块的过程为:计算Iret中的每个显著块中的所有像素点的像素值的平均值;然后按平均值从大到小的顺序对Iret中的所有显著块进行排序;再选取前70%的显著块;所述的步骤②中从Iret中选取的每个显著块的特征矢量为该显著块中的所有像素点的R、G、B分量组成的维数为192×1的列向量。
4.根据权利要求1所述的一种基于稀疏表示的重定位图像质量客观评价方法,其特征在于所述的步骤④中的的获取过程为:
④_1a、将组合成一个新的结构字典表,记为其中,的维数为128×(K2+K1),符号“[]”为矢量表示符号,表示将连接起来形成一个新的矢量;
④_2a、根据计算GR中的每个关键点的描述的基于的稀疏系数矩阵,将的基于的稀疏系数矩阵记为 是采用最小角回归方法求解得到的,其中,的维数为(K2+K1)×1;
④_3a、获取GR中的每个关键点的描述对应于的稀疏系数矩阵,将对应于的稀疏系数矩阵记为 并获取GR中的每个关键点的描述对应于的稀疏系数矩阵,将对应于的稀疏系数矩阵记为 其中,的维数为(K2+K1)×1,α1,1表示对应于的第1个原子的稀疏系数,表示对应于的第K2个原子的稀疏系数,的维数为(K2+K1)×1,α2,1表示对应于的第1个原子的稀疏系数,表示对应于的第K1个原子的稀疏系数;
④_4a、计算GR中的每个关键点的描述对应于其所对应的的稀疏系数矩阵的稀疏重建误差,将对应于的稀疏重建误差记为 并计算GR中的每个关键点的描述对应于其所对应的的稀疏系数矩阵的稀疏重建误差,将对应于的稀疏重建误差记为
④_5a、计算GR中的每个关键点的描述对应于其所对应的的稀疏系数矩阵的表决分值,将对应于的表决分值记为并计算GR中的每个关键点的描述对应于其所对应的的稀疏系数矩阵的表决分值,将对应于的表决分值记为其中,如果如果
④_6a、计算 其中,
5.根据权利要求1所述的一种基于稀疏表示的重定位图像质量客观评价方法,其特征在于所述的步骤④中的的获取过程为:
④_1b、将组合成一个新的显著字典表,记为 其中,的维数为192×(L2+L1),符号“[]”为矢量表示符号,表示将连接起来形成一个新的矢量;
④_2b、根据计算SR中的每个显著块特征矢量的基于的稀疏系数矩阵,将的基于的稀疏系数矩阵记为 是采用最小角回归方法求解得到的,其中,的维数为(L2+L1)×1;
④_3b、获取SR中的每个显著块特征矢量对应于的稀疏系数矩阵,将对应于的稀疏系数矩阵记为 并获取SR中的每个显著块特征矢量对应于的稀疏系数矩阵,将对应于的稀疏系数矩阵记为 其中,的维数为(L2+L1)×1,γ1,1表示对应于的第1个原子的稀疏系数,表示对应于的第L2个原子的稀疏系数,的维数为(L2+L1)×1,γ2,1表示对应于的第1个原子的稀疏系数,表示对应于的第L1个原子的稀疏系数;
④_4b、计算SR中的每个显著块特征矢量对应于其所对应的的稀疏系数矩阵的稀疏重建误差,将对应于的稀疏重建误差记为 并计算SR中的每个显著块特征矢量对应于其所对应的的稀疏系数矩阵的稀疏重建误差,将对应于的稀疏重建误差记为
④_5b、计算SR中的每个显著块特征矢量对应于其所对应的的稀疏系数矩阵的表决分值,将对应于的表决分值记为并计算SR中的每个显著块特征矢量对应于其所对应的的稀疏系数矩阵的表决分值,将对应于的表决分值记为其中,如果如果
④_6b、计算 其中,
6.根据权利要求1所述的一种基于稀疏表示的重定位图像质量客观评价方法,其特征在于所述的步骤④中的的获取过程为:
④_1c、将组合成一个新的结构字典表,记为 其中,的维数为128×(K1+K2),符号“[]”为矢量表示符号,表示将连接起来形成一个新的矢量;
④_2c、根据计算GO中的每个关键点的描述的基于的稀疏系数矩阵,将的基于的稀疏系数矩阵记为 是采用最小角回归方法求解得到的,其中,的维数为(K1+K2)×1;
④_3c、获取GO中的每个关键点的描述对应于的稀疏系数矩阵,将对应于的稀疏系数矩阵记为 并获取GO中的每个关键点的描述对应于的稀疏系数矩阵,将对应于的稀疏系数矩阵记为 其中,的维数为(K1+K2)×1,β1,1表示对应于的第1个原子的稀疏系数,表示对应于的第K1个原子的稀疏系数,的维数为(K1+K2)×1,β2,1表示对应于的第1个原子的稀疏系数,表示对应于的第K2个原子的稀疏系数;
④_4c、计算GO中的每个关键点的描述对应于其所对应的的稀疏系数矩阵的稀疏重建误差,将对应于的稀疏重建误差记为 并计算GO中的每个关键点的描述对应于其所对应的的稀疏系数矩阵的稀疏重建误差,将对应于的稀疏重建误差记为
④_5c、计算GO中的每个关键点的描述对应于其所对应的的稀疏系数矩阵的表决分值,将对应于的表决分值记为并计算GO中的每个关键点的描述对应于其所对应的的稀疏系数矩阵的表决分值,将对应于的表决分值记为其中,如果如果
④_6c、计算 其中,
7.根据权利要求1所述的一种基于稀疏表示的重定位图像质量客观评价方法,其特征在于所述的步骤④中的的获取过程为:
④_1d、将组合成一个新的显著字典表,记为 其中,的维数为192×(L1+L2),符号“[]”为矢量表示符号,表示将连接起来形成一个新的矢量;
④_2d、根据计算SO中的每个显著块特征矢量的基于的稀疏系数矩阵,将的基于的稀疏系数矩阵记为 是采用最小角回归方法求解得到的,其中,的维数为(L1+L2)×1;
④_3d、获取SO中的每个显著块特征矢量对应于的稀疏系数矩阵,将对应于的稀疏系数矩阵记为 并获取SO中的每个显著块特征矢量对应于的稀疏系数矩阵,将对应于的稀疏系数矩阵记为 其中,的维数为(L1+L2)×1,η1,1表示对应于的第1个原子的稀疏系数,表示对应于的第L1个原子的稀疏系数,的维数为(L1+L2)×1,η2,1表示对应于的第1个原子的稀疏系数,表示对应于的第L2个原子的稀疏系数;
④_4d、计算SO中的每个显著块特征矢量对应于其所对应的的稀疏系数矩阵的稀疏重建误差,将对应于的稀疏重建误差记为 并计算SO中的每个显著块特征矢量对应于其所对应的的稀疏系数矩阵的稀疏重建误差,将对应于的稀疏重建误差记为
④_5d、计算SO中的每个显著块特征矢量对应于其所对应的的稀疏系数矩阵的表决分值,将对应于的表决分值记为并计算SO中的每个显著块特征矢量对应于其所对应的的稀疏系数矩阵的表决分值,将对应于的表决分值记为其中,如果如果
④_6d、计算 其中,
CN201610629107.1A 2016-08-01 2016-08-01 一种基于稀疏表示的重定位图像质量客观评价方法 Active CN106162162B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610629107.1A CN106162162B (zh) 2016-08-01 2016-08-01 一种基于稀疏表示的重定位图像质量客观评价方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610629107.1A CN106162162B (zh) 2016-08-01 2016-08-01 一种基于稀疏表示的重定位图像质量客观评价方法

Publications (2)

Publication Number Publication Date
CN106162162A true CN106162162A (zh) 2016-11-23
CN106162162B CN106162162B (zh) 2017-10-31

Family

ID=57328962

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610629107.1A Active CN106162162B (zh) 2016-08-01 2016-08-01 一种基于稀疏表示的重定位图像质量客观评价方法

Country Status (1)

Country Link
CN (1) CN106162162B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108389189A (zh) * 2018-02-08 2018-08-10 天津大学 基于字典学习的立体图像质量评价方法
CN108428226A (zh) * 2018-02-02 2018-08-21 中国科学院国家空间科学中心 一种基于ica稀疏表示与som的失真图像质量评价方法
CN108848365A (zh) * 2018-05-31 2018-11-20 宁波大学 一种重定位立体图像质量评价方法
CN109523513A (zh) * 2018-10-18 2019-03-26 天津大学 基于稀疏重建彩色融合图像的立体图像质量评价方法
CN109886927A (zh) * 2019-01-23 2019-06-14 华南理工大学 一种基于核稀疏编码的图像质量评估方法
CN109917331A (zh) * 2019-01-11 2019-06-21 杭州电子科技大学 基于稀疏度阶数优化的未知杂波无源协同定位方法
CN113128442A (zh) * 2021-04-28 2021-07-16 华南师范大学 基于卷积神经网络的汉字书法风格识别方法和评分方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101065783A (zh) * 2004-04-05 2007-10-31 迈克尔·A·韦塞利 水平透视显示
CN104574404A (zh) * 2015-01-14 2015-04-29 宁波大学 一种立体图像重定位方法
CN104992403A (zh) * 2015-07-07 2015-10-21 方玉明 一种基于视觉相似度度量的混合操作算子图像重定向方法
US20150319423A1 (en) * 2011-10-24 2015-11-05 Disney Enterprises, Inc. Multi-perspective stereoscopy from light fields
CN105376553A (zh) * 2015-11-24 2016-03-02 宁波大学 一种三维视频重定位方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101065783A (zh) * 2004-04-05 2007-10-31 迈克尔·A·韦塞利 水平透视显示
US20150319423A1 (en) * 2011-10-24 2015-11-05 Disney Enterprises, Inc. Multi-perspective stereoscopy from light fields
CN104574404A (zh) * 2015-01-14 2015-04-29 宁波大学 一种立体图像重定位方法
CN104992403A (zh) * 2015-07-07 2015-10-21 方玉明 一种基于视觉相似度度量的混合操作算子图像重定向方法
CN105376553A (zh) * 2015-11-24 2016-03-02 宁波大学 一种三维视频重定位方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
FENG SHAO ET AL.: "Stereoscopic Visual Attention Guided Seam Carving for Stereoscopic Image Retargeting", 《JOURNAL OF DISPLAY TECHNOLOGY》 *
邵枫等: "基于显著性分析的立体图像视觉舒适度预测", 《光学精密工程》 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108428226A (zh) * 2018-02-02 2018-08-21 中国科学院国家空间科学中心 一种基于ica稀疏表示与som的失真图像质量评价方法
CN108428226B (zh) * 2018-02-02 2020-06-16 中国科学院国家空间科学中心 一种基于ica稀疏表示与som的失真图像质量评价方法
CN108389189A (zh) * 2018-02-08 2018-08-10 天津大学 基于字典学习的立体图像质量评价方法
CN108389189B (zh) * 2018-02-08 2021-05-14 天津大学 基于字典学习的立体图像质量评价方法
CN108848365A (zh) * 2018-05-31 2018-11-20 宁波大学 一种重定位立体图像质量评价方法
CN109523513A (zh) * 2018-10-18 2019-03-26 天津大学 基于稀疏重建彩色融合图像的立体图像质量评价方法
CN109523513B (zh) * 2018-10-18 2023-08-25 天津大学 基于稀疏重建彩色融合图像的立体图像质量评价方法
CN109917331A (zh) * 2019-01-11 2019-06-21 杭州电子科技大学 基于稀疏度阶数优化的未知杂波无源协同定位方法
CN109886927A (zh) * 2019-01-23 2019-06-14 华南理工大学 一种基于核稀疏编码的图像质量评估方法
CN109886927B (zh) * 2019-01-23 2021-09-21 华南理工大学 一种基于核稀疏编码的图像质量评估方法
CN113128442A (zh) * 2021-04-28 2021-07-16 华南师范大学 基于卷积神经网络的汉字书法风格识别方法和评分方法
CN113128442B (zh) * 2021-04-28 2023-09-26 华南师范大学 基于卷积神经网络的汉字书法风格识别方法和评分方法

Also Published As

Publication number Publication date
CN106162162B (zh) 2017-10-31

Similar Documents

Publication Publication Date Title
CN106162162B (zh) 一种基于稀疏表示的重定位图像质量客观评价方法
Jam et al. A comprehensive review of past and present image inpainting methods
TWI742690B (zh) 人體檢測方法、裝置、電腦設備及儲存媒體
CN103581661B (zh) 一种立体图像视觉舒适度评价方法
Ma et al. Image retargeting quality assessment: A study of subjective scores and objective metrics
CN105005980B (zh) 图像处理方法及装置
CN104581143B (zh) 一种基于机器学习的无参考立体图像质量客观评价方法
CN108805825B (zh) 一种重定位图像质量评价方法
CN105282543A (zh) 一种基于立体视觉感知的全盲立体图像质量客观评价方法
CN110619334B (zh) 基于深度学习的人像分割方法、架构及相关装置
DE102018003475A1 (de) Formbasierte Grafiksuche
DE102017011422A1 (de) Strichvorgangvorhersage für einen dreidimensionalen digitalen Inhalt
CN105976395A (zh) 一种基于稀疏表示的视频目标跟踪方法
CN109409380B (zh) 一种基于双学习网络的立体图像视觉显著提取方法
Rodriguez-Pardo et al. Seamlessgan: Self-supervised synthesis of tileable texture maps
CN104361583A (zh) 一种非对称失真立体图像客观质量评价方法
CN105488792B (zh) 基于字典学习和机器学习的无参考立体图像质量评价方法
CN106023214A (zh) 基于中央凹视梯度结构相似性的图像质量评价方法及系统
CN105898279B (zh) 一种立体图像质量客观评价方法
CN105069794B (zh) 一种基于双目竞争的全盲立体图像质量评价方法
CN107945151A (zh) 一种基于相似性变换的重定位图像质量评价方法
Delanoy et al. A Generative Framework for Image‐based Editing of Material Appearance using Perceptual Attributes
CN108848365B (zh) 一种重定位立体图像质量评价方法
Frantc et al. Machine learning approach for objective inpainting quality assessment
CN105069767B (zh) 基于表征学习与邻域约束嵌入的图像超分辨重构方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20191220

Address after: Room 1,020, Nanxun Science and Technology Pioneering Park, No. 666 Chaoyang Road, Nanxun District, Huzhou City, Zhejiang Province, 313000

Patentee after: Huzhou You Yan Intellectual Property Service Co., Ltd.

Address before: 315211 Zhejiang Province, Ningbo Jiangbei District Fenghua Road No. 818

Patentee before: Ningbo University

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20211126

Address after: 276800 Building 1, No. 177, Gaoxin 6th Road, Rizhao high tech Zone, Rizhao City, Shandong Province

Patentee after: Rizhao Jingying Media Technology Co.,Ltd.

Address before: 313000 room 1020, science and Technology Pioneer Park, 666 Chaoyang Road, Nanxun Town, Nanxun District, Huzhou, Zhejiang.

Patentee before: Huzhou You Yan Intellectual Property Service Co.,Ltd.