CN104820988B - 一种无参考立体图像质量客观评价方法 - Google Patents

一种无参考立体图像质量客观评价方法 Download PDF

Info

Publication number
CN104820988B
CN104820988B CN201510227674.XA CN201510227674A CN104820988B CN 104820988 B CN104820988 B CN 104820988B CN 201510227674 A CN201510227674 A CN 201510227674A CN 104820988 B CN104820988 B CN 104820988B
Authority
CN
China
Prior art keywords
mrow
picture
mfrac
dmos
msubsup
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510227674.XA
Other languages
English (en)
Other versions
CN104820988A (zh
Inventor
邵枫
李福翠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu Zhuimeng Information Technology Co.,Ltd.
Original Assignee
Ningbo University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ningbo University filed Critical Ningbo University
Priority to CN201510227674.XA priority Critical patent/CN104820988B/zh
Publication of CN104820988A publication Critical patent/CN104820988A/zh
Application granted granted Critical
Publication of CN104820988B publication Critical patent/CN104820988B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection

Abstract

本发明公开了一种无参考立体图像质量客观评价方法,其在训练阶段选择多幅失真立体图像构成训练样本集合,采用Gabor滤波器获取失真立体图像中的每个像素点在不同中心频率、不同方向因子和不同相位偏移下的振幅,通过计算失真立体图像中的所有像素点在不同中心频率、不同方向因子和不同相位偏移下的振幅的均值、方差和熵获得特征矢量,再采用K均值聚类方法得到训练样本集合的聚类中心;在测试阶段通过计算失真测试立体图像与训练样本集合中属于不同聚类的每副失真立体图像之间的距离及与每个聚类中心之间的距离,对每幅失真立体图像的平均主观评分差值进行加权得到图像质量客观评价预测值;优点是计算复杂度低,客观评价结果与主观感知的相关性好。

Description

一种无参考立体图像质量客观评价方法
技术领域
本发明涉及一种图像质量评价方法,尤其是涉及一种无参考立体图像质量客观评价方法。
背景技术
随着图像编码技术和立体显示技术的迅速发展,立体图像技术受到了越来越广泛的关注与应用,已成为当前的一个研究热点。立体图像技术利用人眼的双目视差原理,双目各自独立地接收来自同一场景的左视点图像和右视点图像,通过大脑融合形成双目视差,从而欣赏到具有深度感和逼真感的立体图像。与单通道图像相比,立体图像需要同时保证两个通道的图像质量,因此对其进行质量评价具有非常重要的意义。然而,目前对立体图像质量缺乏有效的客观评价方法进行评价。因此,建立有效的立体图像质量客观评价模型具有十分重要的意义。
由于影响立体图像质量的因素较多,如左视点和右视点质量失真情况、立体感知情况、观察者视觉疲劳等,因此如何有效地进行无参考质量评价是亟需解决的难点问题。目前的无参考质量评价通常采用机器学习来预测评价模型,计算复杂度较高,并不适用于实际的应用场合,存在一定的局限性。因此,如何在评价过程中有效地提取图像特征信息,如何降低评价的计算复杂度,如何使客观评价结果更加感觉符合人类视觉系统,是在对立体图像进行无参考客观质量评价过程中需要研究解决的问题。
发明内容
本发明所要解决的技术问题是提供一种无参考立体图像质量客观评价方法,其能够有效地提高客观评价结果与主观感知之间的相关性。
本发明解决上述技术问题所采用的技术方案为:一种无参考立体图像质量客观评价方法,其特征在于包括训练阶段和测试阶段两个过程,所述的训练阶段的具体步骤如下:
①-1、选取N幅失真立体图像,将N幅失真立体图像及每幅失真立体图像的平均主观评分差值构成训练样本集合,记为{Si,DMOSi|1≤i≤N},其中,Si表示{Si,DMOSi|1≤i≤N}中的第i幅失真立体图像,DMOSi表示{Si,DMOSi|1≤i≤N}中的第i幅失真立体图像的平均主观评分差值;
①-2、采用Gabor滤波器获取{Si,DMOSi|1≤i≤N}中的每幅失真立体图像的左视点图像和右视点图像中的每个像素点在不同中心频率和不同方向因子下的频率响应,再根据{Si,DMOSi|1≤i≤N}中的每幅失真立体图像的左视点图像和右视点图像中的每个像素点在不同中心频率和不同方向因子下的频率响应,获取{Si,DMOSi|1≤i≤N}中的每幅失真立体图像中的每个像素点在不同中心频率、不同方向因子和不同相位偏移下的振幅,将Si中坐标位置为(x,y)的像素点在中心频率为ω、方向因子为θ和相位偏移为Δψ下的振幅记为Ei(x,y;Δψ,ω,θ),其中,1≤x≤W,1≤y≤H,W表示Si的宽度,H表示Si的高度,ω表示所采用的Gabor滤波器的中心频率,θ表示所采用的Gabor滤波器的方向因子,Δψ表示所采用的Gabor滤波器的相位偏移;
①-3、计算{Si,DMOSi|1≤i≤N}中的每幅失真立体图像中的所有像素点在不同中心频率、不同方向因子和不同相位偏移下的振幅的均值、方差和熵,将Si中的所有像素点在中心频率为ω、方向因子为θ和相位偏移为Δψ下的振幅的均值、方差和熵对应记为
其中,log2()表示以2为底的对数函数,ln()表示以自然基数e为底的对数函数,p()表示求概率分布函数,符号“| |”为取绝对值符号;
①-4、将{Si,DMOSi|1≤i≤N}中的每幅失真立体图像中的所有像素点在不同中心频率、不同方向因子和不同相位偏移下的振幅的均值、方差和熵按顺序排列构成{Si,DMOSi|1≤i≤N}中的每幅失真立体图像的特征矢量,将Si的特征矢量记为Fi,Fi为Si中的所有像素点在不同中心频率、不同方向因子和不同相位偏移下的振幅的均值、方差和熵按顺序排列构成,其中,Fi的维数为Nω×Nθ×NΔψ,Nω表示所采用的Gabor滤波器的所有中心频率的集合Ωω中包含的中心频率的总个数,Nθ表示所采用的Gabor滤波器的所有方向因子的集合Ωθ中包含的方向因子的总个数,NΔψ表示所采用的Gabor滤波器的所有相位偏移的集合ΩΔψ中包含的相位偏移的总个数;
①-5、采用K均值聚类方法对{Si,DMOSi|1≤i≤N}中的所有失真立体图像的特征矢量进行聚类操作,得到{Si,DMOSi|1≤i≤N}的K个聚类,将{Si,DMOSi|1≤i≤N}的第m个聚类中心记为gm;然后将{Si,DMOSi|1≤i≤N}中属于同一聚类的所有失真立体图像构成一个子集,将{Si,DMOSi|1≤i≤N}中属于第m个聚类的所有失真立体图像构成的子集记为{Sj,m,DMOSj,m|1≤j≤Nm,1≤m≤K};其中,K表示{Si,DMOSi|1≤i≤N}的聚类的总个数,1≤m≤K,gm的维数为Nω×Nθ×NΔψ,Sj,m表示{Sj,m,DMOSj,m|1≤j≤Nm,1≤m≤K}中的第j幅失真立体图像,DMOSj,m表示{Sj,m,DMOSj,m|1≤j≤Nm,1≤m≤K}中的第j幅失真立体图像的平均主观评分差值,Nm表示{Si,DMOSi|1≤i≤N}中属于第m个聚类的失真立体图像的总幅数,
所述的测试阶段的具体步骤如下:
②-1、对于任意一副失真测试立体图像Stest,按照训练阶段中的步骤①-2至步骤①-4的过程,以相同的操作获取Stest的特征矢量,记为Ftest;然后计算Stest与{Si,DMOSi|1≤i≤N}中属于不同聚类的每副失真立体图像之间的距离,将Stest与{Sj,m,DMOSj,m|1≤j≤Nm,1≤m≤K}中的第j幅失真立体图像Sj,m之间的距离记为dj,m,dj,m=||Ftest-Fj,m||2;再计算Stest与{Si,DMOSi|1≤i≤N}的每个聚类中心之间的距离,将Stest与{Si,DMOSi|1≤i≤N}的第m个聚类中心gm之间的距离记为cm,cm=||Ftest-gm||2;其中,符号“|| ||2”为求取矩阵的2-范数符号,Fj,m表示{Sj,m,DMOSj,m|1≤j≤Nm,1≤m≤K}中的第j幅失真立体图像的特征矢量;
②-2、计算Stest属于不同聚类时的图像质量客观评价预测值,将Stest属于第m个聚类时的图像质量客观评价预测值记为Qm其中,exp()表示以自然基数e为底的指数函数,λ为控制参数;
②-3、计算Stest的图像质量客观评价预测值,记为Q,
所述的步骤①-2中Si中坐标位置为(x,y)的像素点在中心频率为ω、方向因子为θ和相位偏移为Δψ下的振幅Ei(x,y;Δψ,ω,θ)的获取过程为:
①-2a、采用Gabor滤波器对Si的左视点图像进行滤波处理,得到Si的左视点图像中的每个像素点在不同中心频率和不同方向因子下的频率响应,将Si的左视点图像中坐标位置为(x,y)的像素点在中心频率为ω和方向因子为θ下的频率响应记为
同样,采用Gabor滤波器对Si的右视点图像进行滤波处理,得到Si的右视点图像中的每个像素点在不同中心频率和不同方向因子下的频率响应,将Si的右视点图像中坐标位置为(x,y)的像素点在中心频率为ω和方向因子为θ下的频率响应记为
上述,1≤x≤W,1≤y≤H,W表示Si的宽度,H表示Si的高度,ω表示所采用的Gabor滤波器的中心频率,ω∈Ωω,Ωω={1.74,2.47,3.49,4.93,6.98},θ表示所采用的Gabor滤波器的方向因子,θ∈Ωθ 的实部,的虚部,的实部,的虚部,j为虚数单位;
①-2b、根据Si的左视点图像和右视点图像中的每个像素点在不同中心频率和不同方向因子下的频率响应,计算Si中的每个像素点在不同中心频率、不同方向因子和不同相位偏移下的振幅,Si中坐标位置为(x,y)的像素点在中心频率为ω、方向因子为θ和相位偏移为Δψ下的振幅为其中,Δψ表示所采用的Gabor滤波器的相位偏移,Δψ∈ΩΔψ符号“|| ||2”为求取矩阵的2-范数符号,e表示自然基数,j为虚数单位。
与现有技术相比,本发明的优点在于:在训练阶段,并不需要复杂的机器学习训练过程,只需要计算训练样本集合中的每副失真立体图像的特征矢量和训练样本集合的聚类中心;在测试阶段,根据失真测试立体图像与训练样本集合中属于不同聚类的每副失真立体图像之间的距离及与训练样本集合的每个聚类中心之间的距离,只需要通过简单的加权就能预测得到失真测试立体图像的图像质量客观评价预测值,大大降低了测试过程的计算复杂度,并且预测得到的图像质量客观评价预测值与主观评价值保持了较好的一致性,有效地提高了客观评价结果与主观感知之间的相关性。
附图说明
图1为本发明方法的总体实现框图;
图2为利用本发明方法得到的宁波大学立体图像库中的每幅失真立体图像的图像质量客观评价预测值与平均主观评分差值的散点图;
图3为利用本发明方法得到的LIVE立体图像库中的每幅失真立体图像的图像质量客观评价预测值与平均主观评分差值的散点图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明提出的一种无参考立体图像质量客观评价方法,其总体实现框图如图1所示,其包括训练阶段和测试阶段两个过程:在训练阶段,选择多幅失真立体图像构成训练样本集合,通过采用Gabor滤波器获取失真立体图像中的每个像素点在不同中心频率、不同方向因子和不同相位偏移下的振幅,然后通过计算失真立体图像中的所有像素点在不同中心频率、不同方向因子和不同相位偏移下的振幅的均值、方差和熵并按顺序构成失真立体图像的特征矢量,再采用K均值聚类方法得到训练样本集合的聚类中心;在测试阶段,对于任意一副失真测试立体图像,通过计算失真测试立体图像与训练样本集合中属于不同聚类的每副失真立体图像之间的距离及与训练样本集合的每个聚类中心之间的距离,对每幅失真立体图像的平均主观评分差值进行加权预测得到失真测试立体图像的图像质量客观评价预测值。
本发明的无参考立体图像质量客观评价方法中的训练阶段的具体步骤如下:
①-1、选取N幅失真立体图像,将N幅失真立体图像及每幅失真立体图像的平均主观评分差值构成训练样本集合,记为{Si,DMOSi|1≤i≤N},其中,N>1,Si表示{Si,DMOSi|1≤i≤N}中的第i幅失真立体图像,DMOSi表示{Si,DMOSi|1≤i≤N}中的第i幅失真立体图像的平均主观评分差值,符号“{}”为集合表示符号。
在具体实施时,失真立体图像选取的幅数应当适当,如果N的值越大,则训练和测试的计算复杂度也就越高,因此在本实施例中取N=40。
①-2、采用Gabor滤波器获取{Si,DMOSi|1≤i≤N}中的每幅失真立体图像的左视点图像和右视点图像中的每个像素点在不同中心频率和不同方向因子下的频率响应,再根据{Si,DMOSi|1≤i≤N}中的每幅失真立体图像的左视点图像和右视点图像中的每个像素点在不同中心频率和不同方向因子下的频率响应,获取{Si,DMOSi|1≤i≤N}中的每幅失真立体图像中的每个像素点在不同中心频率、不同方向因子和不同相位偏移下的振幅,将Si中坐标位置为(x,y)的像素点在中心频率为ω、方向因子为θ和相位偏移为Δψ下的振幅记为Ei(x,y;Δψ,ω,θ),其中,1≤x≤W,1≤y≤H,W表示Si的宽度,H表示Si的高度,ω表示所采用的Gabor滤波器的中心频率,θ表示所采用的Gabor滤波器的方向因子,Δψ表示所采用的Gabor滤波器的相位偏移。
在此具体实施例中,步骤①-2中Si中坐标位置为(x,y)的像素点在中心频率为ω、方向因子为θ和相位偏移为Δψ下的振幅Ei(x,y;Δψ,ω,θ)的获取过程为:
①-2a、采用Gabor滤波器对Si的左视点图像进行滤波处理,得到Si的左视点图像中的每个像素点在不同中心频率和不同方向因子下的频率响应,将Si的左视点图像中坐标位置为(x,y)的像素点在中心频率为ω和方向因子为θ下的频率响应记为
同样,采用Gabor滤波器对Si的右视点图像进行滤波处理,得到Si的右视点图像中的每个像素点在不同中心频率和不同方向因子下的频率响应,将Si的右视点图像中坐标位置为(x,y)的像素点在中心频率为ω和方向因子为θ下的频率响应记为
上述,1≤x≤W,1≤y≤H,W表示Si的宽度,H表示Si的高度,ω表示所采用的Gabor滤波器的中心频率,ω∈Ωω,Ωω={1.74,2.47,3.49,4.93,6.98},θ表示所采用的Gabor滤波器的方向因子,θ∈Ωθ 的实部,的虚部,的实部,的虚部,j为虚数单位。
①-2b、根据Si的左视点图像和右视点图像中的每个像素点在不同中心频率和不同方向因子下的频率响应,计算Si中的每个像素点在不同中心频率、不同方向因子和不同相位偏移下的振幅,Si中坐标位置为(x,y)的像素点在中心频率为ω、方向因子为θ和相位偏移为Δψ下的振幅为其中,Δψ表示所采用的Gabor滤波器的相位偏移,Δψ∈ΩΔψ符号“|| ||2”为求取矩阵的2-范数符号,e表示自然基数,j为虚数单位。
①-3、计算{Si,DMOSi|1≤i≤N}中的每幅失真立体图像中的所有像素点在不同中心频率、不同方向因子和不同相位偏移下的振幅的均值、方差和熵,将Si中的所有像素点在中心频率为ω、方向因子为θ和相位偏移为Δψ下的振幅的均值、方差和熵对应记为
其中,log2()表示以2为底的对数函数,ln()表示以自然基数e为底的对数函数,e=2.71828183,p()表示求概率分布函数,p(Ei(x,y;Δψ,ω,θ))表示求Ei(x,y;Δψ,ω,θ)的概率分布,符号“| |”为取绝对值符号。
①-4、将{Si,DMOSi|1≤i≤N}中的每幅失真立体图像中的所有像素点在不同中心频率、不同方向因子和不同相位偏移下的振幅的均值、方差和熵按顺序排列构成{Si,DMOSi|1≤i≤N}中的每幅失真立体图像的特征矢量,将Si的特征矢量记为Fi,Fi为Si中的所有像素点在不同中心频率、不同方向因子和不同相位偏移下的振幅的均值、方差和熵按顺序排列构成,其中,Fi的维数为Nω×Nθ×NΔψ,Nω表示所采用的Gabor滤波器的所有中心频率的集合Ωω中包含的中心频率的总个数,Nθ表示所采用的Gabor滤波器的所有方向因子的集合Ωθ中包含的方向因子的总个数,NΔψ表示所采用的Gabor滤波器的所有相位偏移的集合ΩΔψ中包含的相位偏移的总个数,在本实施例中取Nω=5,Nθ=8,NΔψ=9,即Fi的维数为5×8×9=360。
①-5、采用现有的K均值聚类方法对{Si,DMOSi|1≤i≤N}中的所有失真立体图像的特征矢量进行聚类操作,得到{Si,DMOSi|1≤i≤N}的K个聚类,将{Si,DMOSi|1≤i≤N}的第m个聚类中心记为gm;然后将{Si,DMOSi|1≤i≤N}中属于同一聚类的所有失真立体图像构成一个子集,将{Si,DMOSi|1≤i≤N}中属于第m个聚类的所有失真立体图像构成的子集记为{Sj,m,DMOSj,m|1≤j≤Nm,1≤m≤K};其中,K表示{Si,DMOSi|1≤i≤N}的聚类的总个数,K>1,在本实施例中取K=5,反映5类质量级别:优秀(Excellent)、良好(Good)、一般(Fair)、差(Poor)、较差(Bad),1≤m≤K,gm的维数为Nω×Nθ×NΔψ,Sj,m表示{Sj,m,DMOSj,m|1≤j≤Nm,1≤m≤K}中的第j幅失真立体图像,DMOSj,m表示{Sj,m,DMOSj,m|1≤j≤Nm,1≤m≤K}中的第j幅失真立体图像的平均主观评分差值,Nm表示{Si,DMOSi|1≤i≤N}中属于第m个聚类的失真立体图像的总幅数,
本发明的无参考立体图像质量客观评价方法中的测试阶段的具体步骤如下:
②-1、对于任意一副失真测试立体图像Stest,按照训练阶段中的步骤①-2至步骤①-4的过程,以相同的操作获取Stest的特征矢量,记为Ftest,即获取Ftest的具体过程为:②-1a、采用Gabor滤波器获取Stest的左视点图像和右视点图像中的每个像素点在不同中心频率和不同方向因子下的频率响应,再根据Stest的左视点图像和右视点图像中的每个像素点在不同中心频率和不同方向因子下的频率响应,获取Stest中的每个像素点在不同中心频率、不同方向因子和不同相位偏移下的振幅,将Stest中坐标位置为(x,y)的像素点在中心频率为ω、方向因子为θ和相位偏移为Δψ下的振幅记为Etest(x,y;Δψ,ω,θ);②-1b、计算Stest中的所有像素点在不同中心频率、不同方向因子和不同相位偏移下的振幅的均值、方差和熵,将Stest中的所有像素点在中心频率为ω、方向因子为θ和相位偏移为Δψ下的振幅的均值、方差和熵对应记为
②-1c、将Stest中的所有像素点在不同中心频率、不同方向因子和不同相位偏移下的振幅的均值、方差和熵按顺序排列构成Stest的特征矢量Ftest,其中,Ftest的维数为Nω×Nθ×NΔψ;然后计算Stest与{Si,DMOSi|1≤i≤N}中属于不同聚类的每副失真立体图像之间的距离,将Stest与{Sj,m,DMOSj,m|1≤j≤Nm,1≤m≤K}中的第j幅失真立体图像Sj,m之间的距离记为dj,m,dj,m=||Ftest-Fj,m||2;再计算Stest与{Si,DMOSi|1≤i≤N}的每个聚类中心之间的距离,将Stest与{Si,DMOSi|1≤i≤N}的第m个聚类中心gm之间的距离记为cm,cm=||Ftest-gm||2;其中,符号“|| ||2”为求取矩阵的2-范数符号,Fj,m表示{Sj,m,DMOSj,m|1≤j≤Nm,1≤m≤K}中的第j幅失真立体图像的特征矢量。
②-2、计算Stest属于不同聚类时的图像质量客观评价预测值,将Stest属于第m个聚类时的图像质量客观评价预测值记为Qm其中,exp()表示以自然基数e为底的指数函数,e=2.71828183,λ为控制参数,在本实施例中取λ=300。
②-3、计算Stest的图像质量客观评价预测值,记为Q,
这里,利用评估图像质量评价方法的2个常用客观参量作为评价指标,即非线性回归条件下的Pearson相关系数(Pearson linear correlation coefficient,PLCC)、Spearman相关系数(Spearman rank order correlation coefficient,SRCC)。
在此,采用宁波大学立体图像库和LIVE立体图像库来分析利用本发明方法得到的失真立体图像的图像质量客观评价预测值与平均主观评分差值之间的相关性。取宁波大学立体图像库中由12幅无失真立体图像在不同失真程度的JPEG压缩情况下的60幅失真立体图像、JPEG2000压缩情况下的60幅失真立体图像、高斯模糊情况下的60幅失真立体图像和高斯白噪声情况下的60幅失真立体图像。取LIVE立体图像库中由20幅无失真立体图像在不同失真程度的JPEG压缩情况下的80幅失真立体图像、JPEG2000压缩情况下的80幅失真立体图像、高斯模糊情况下的45幅失真立体图像和高斯白噪声情况下的80幅失真立体图像。
利用本发明方法计算宁波大学立体图像库中的每幅失真立体图像的图像质量客观评价预测值和LIVE立体图像库中的每幅失真立体图像的图像质量客观评价预测值,再利用现有的主观评价方法获得宁波大学立体图像库中的每幅失真立体图像的平均主观评分差值DMOS和LIVE立体图像库中的每幅失真立体图像的平均主观评分差值DMOS。
将按本发明方法计算得到的失真立体图像的图像质量客观评价预测值做五参数Logistic函数非线性拟合,PLCC和SRCC越高,说明失真立体图像的图像质量客观评价预测值与平均主观评分差值相关性越好。表1和表2对应给出了采用本发明方法得到的失真立体图像的图像质量客观评价预测值与平均主观评分差值之间的Pearson相关系数和Spearman相关系数。从表1和表2中可以看出,采用本发明方法得到的失真立体图像的最终的图像质量客观评价预测值与平均主观评分差值之间的相关性是很高的,表明了客观评价结果与人眼主观感知的结果较为一致,足以说明本发明方法的有效性。
图2给出了利用本发明方法得到的宁波大学立体图像库中的每幅失真立体图像的图像质量客观评价预测值与平均主观评分差值的散点图,图3给出了利用本发明方法得到的LIVE立体图像库中的每幅失真立体图像的图像质量客观评价预测值与平均主观评分差值的散点图,散点越集中,说明客观评价结果与主观感知的一致性越好。从图2和图3中可以看出,采用本发明方法得到的散点图比较集中,与主观评价数据之间的吻合度较高。
表1利用本发明方法得到的失真立体图像的图像质量客观评价预测值与平均主观评分差值之间的Pearson相关系数比较
表2利用本发明方法得到的失真立体图像的图像质量客观评价预测值与平均主观评分差值之间的Spearman相关系数比较

Claims (2)

1.一种无参考立体图像质量客观评价方法,其特征在于包括训练阶段和测试阶段两个过程,所述的训练阶段的具体步骤如下:
①-1、选取N幅失真立体图像,将N幅失真立体图像及每幅失真立体图像的平均主观评分差值构成训练样本集合,记为{Si,DMOSi|1≤i≤N},其中,Si表示{Si,DMOSi|1≤i≤N}中的第i幅失真立体图像,DMOSi表示{Si,DMOSi|1≤i≤N}中的第i幅失真立体图像的平均主观评分差值;
①-2、采用Gabor滤波器获取{Si,DMOSi|1≤i≤N}中的每幅失真立体图像的左视点图像和右视点图像中的每个像素点在不同中心频率和不同方向因子下的频率响应,再根据{Si,DMOSi|1≤i≤N}中的每幅失真立体图像的左视点图像和右视点图像中的每个像素点在不同中心频率和不同方向因子下的频率响应,获取{Si,DMOSi|1≤i≤N}中的每幅失真立体图像中的每个像素点在不同中心频率、不同方向因子和不同相位偏移下的振幅,将Si中坐标位置为(x,y)的像素点在中心频率为ω、方向因子为θ和相位偏移为Δψ下的振幅记为Ei(x,y;Δψ,ω,θ),其中,1≤x≤W,1≤y≤H,W表示Si的宽度,H表示Si的高度,ω表示所采用的Gabor滤波器的中心频率,θ表示所采用的Gabor滤波器的方向因子,Δψ表示所采用的Gabor滤波器的相位偏移;
①-3、计算{Si,DMOSi|1≤i≤N}中的每幅失真立体图像中的所有像素点在不同中心 频率、不同方向因子和不同相位偏移下的振幅的均值、方差和熵,将Si中的所有像素点在 中心频率为ω、方向因子为θ和相位偏移为Δψ下的振幅的均值、方差和熵对应记为和 <mrow> <msubsup> <mi>m</mi> <mi>i</mi> <mrow> <mi>&amp;Delta;&amp;psi;</mi> <mo>,</mo> <mi>&amp;omega;</mi> <mo>,</mo> <mi>&amp;theta;</mi> </mrow> </msubsup> <mo>=</mo> <mfrac> <mn>1</mn> <mrow> <mi>W</mi> <mo>&amp;times;</mo> <mi>H</mi> </mrow> </mfrac> <munderover> <mi>&amp;Sigma;</mi> <mrow> <mi>x</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>W</mi> </munderover> <munderover> <mi>&amp;Sigma;</mi> <mrow> <mi>y</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>H</mi> </munderover> <msub> <mi>log</mi> <mn>2</mn> </msub> <mo>|</mo> <msub> <mi>E</mi> <mi>i</mi> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>;</mo> <mi>&amp;Delta;&amp;psi;</mi> <mo>,</mo> <mi>&amp;omega;</mi> <mo>,</mo> <mi>&amp;theta;</mi> <mo>)</mo> </mrow> <mo>|</mo> <mo>,</mo> </mrow> <mrow> <msubsup> <mi>v</mi> <mi>i</mi> <mrow> <mi>&amp;Delta;&amp;psi;</mi> <mo>,</mo> <mi>&amp;omega;</mi> <mo>,</mo> <mi>&amp;theta;</mi> </mrow> </msubsup> <mo>=</mo> <mfrac> <mn>1</mn> <mrow> <mi>W</mi> <mo>&amp;times;</mo> <mi>H</mi> </mrow> </mfrac> <munderover> <mi>&amp;Sigma;</mi> <mrow> <mi>x</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>W</mi> </munderover> <munderover> <mi>&amp;Sigma;</mi> <mrow> <mi>y</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>H</mi> </munderover> <msub> <mi>log</mi> <mn>2</mn> </msub> <mo>|</mo> <msub> <mi>E</mi> <mi>i</mi> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>;</mo> <mi>&amp;Delta;&amp;psi;</mi> <mo>,</mo> <mi>&amp;omega;</mi> <mo>,</mo> <mi>&amp;theta;</mi> <mo>)</mo> </mrow> <mo>-</mo> <msubsup> <mi>m</mi> <mi>i</mi> <mrow> <mi>&amp;Delta;&amp;psi;</mi> <mo>,</mo> <mi>&amp;omega;</mi> <mo>,</mo> <mi>&amp;theta;</mi> </mrow> </msubsup> <mo>|</mo> <mo>,</mo> </mrow> <mrow> <msubsup> <mi>e</mi> <mi>i</mi> <mrow> <mi>&amp;Delta;&amp;psi;</mi> <mo>,</mo> <mi>&amp;omega;</mi> <mo>,</mo> <mi>&amp;theta;</mi> </mrow> </msubsup> <mo>=</mo> <mfrac> <mn>1</mn> <mrow> <mi>W</mi> <mo>&amp;times;</mo> <mi>H</mi> </mrow> </mfrac> <munderover> <mi>&amp;Sigma;</mi> <mrow> <mi>x</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>W</mi> </munderover> <munderover> <mi>&amp;Sigma;</mi> <mrow> <mi>y</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>H</mi> </munderover> <mrow> <mo>(</mo> <mi>p</mi> <mrow> <mo>(</mo> <msub> <mi>E</mi> <mi>i</mi> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>;</mo> <mi>&amp;Delta;&amp;psi;</mi> <mo>,</mo> <mi>&amp;omega;</mi> <mo>,</mo> <mi>&amp;theta;</mi> <mo>)</mo> </mrow> <mo>)</mo> </mrow> <mo>&amp;times;</mo> <mi>ln</mi> <mi>p</mi> <mrow> <mo>(</mo> <msub> <mi>E</mi> <mi>i</mi> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>;</mo> <mi>&amp;Delta;&amp;psi;</mi> <mo>,</mo> <mi>&amp;omega;</mi> <mo>,</mo> <mi>&amp;theta;</mi> <mo>)</mo> </mrow> <mo>)</mo> </mrow> <mo>)</mo> </mrow> <mo>,</mo> </mrow> 其中,log2()表示以2 为底的对数函数,ln()表示以自然基数e为底的对数函数,p()表示求概率分布函数,符号 “||”为取绝对值符号;
①-4、将{Si,DMOSi|1≤i≤N}中的每幅失真立体图像中的所有像素点在不同中心频率、不同方向因子和不同相位偏移下的振幅的均值、方差和熵按顺序排列构成{Si,DMOSi|1≤i≤N}中的每幅失真立体图像的特征矢量,将Si的特征矢量记为Fi,Fi为Si中的所有像素点在不同中心频率、不同方向因子和不同相位偏移下的振幅的均值、方差和熵按顺序排列构成,其中,Fi的维数为Nω×Nθ×NΔψ,Nω表示所采用的Gabor滤波器的所有中心频率的集合Ωω中包含的中心频率的总个数,Nθ表示所采用的Gabor滤波器的所有方向因子的集合Ωθ中包含的方向因子的总个数,NΔψ表示所采用的Gabor滤波器的所有相位偏移的集合ΩΔψ中包含的相位偏移的总个数;
①-5、采用K均值聚类方法对{Si,DMOSi|1≤i≤N}中的所有失真立体图像的特征矢量进行聚类操作,得到{Si,DMOSi|1≤i≤N}的K个聚类,将{Si,DMOSi|1≤i≤N}的第m个聚类中心记为gm;然后将{Si,DMOSi|1≤i≤N}中属于同一聚类的所有失真立体图像构成一个子集,将{Si,DMOSi|1≤i≤N}中属于第m个聚类的所有失真立体图像构成的子集记为{Sj,m,DMOSj,m|1≤j≤Nm,1≤m≤K};其中,K表示{Si,DMOSi|1≤i≤N}的聚类的总个数,1≤m≤K,gm的维数为Nω×Nθ×NΔψ,Sj,m表示{Sj,m,DMOSj,m|1≤j≤Nm,1≤m≤K}中的第j幅失真立体图像,DMOSj,m表示{Sj,m,DMOSj,m|1≤j≤Nm,1≤m≤K}中的第j幅失真立体图像的平均主观评分差值,Nm表示{Si,DMOSi|1≤i≤N}中属于第m个聚类的失真立体图像的总幅数,
所述的测试阶段的具体步骤如下:
②-1、对于任意一副失真测试立体图像Stest,按照训练阶段中的步骤①-2至步骤①-4的过程,以相同的操作获取Stest的特征矢量,记为Ftest;然后计算Stest与{Si,DMOSi|1≤i≤N}中属于不同聚类的每副失真立体图像之间的距离,将Stest与{Sj,m,DMOSj,m|1≤j≤Nm,1≤m≤K}中的第j幅失真立体图像Sj,m之间的距离记为dj,m,dj,m=||Ftest-Fj,m||2;再计算Stest与{Si,DMOSi|1≤i≤N}的每个聚类中心之间的距离,将Stest与{Si,DMOSi|1≤i≤N}的第m个聚类中心gm之间的距离记为cm,cm=||Ftest-gm||2;其中,符号“||||2”为求取矩阵的2-范数符号,Fj,m表示{Sj,m,DMOSj,m|1≤j≤Nm,1≤m≤K}中的第j幅失真立体图像的特征矢量;
②-2、计算Stest属于不同聚类时的图像质量客观评价预测值,将Stest属于第m个聚类时的图像质量客观评价预测值记为Qm其中,exp()表示以自然基数e为底的指数函数,λ为控制参数;
②-3、计算Stest的图像质量客观评价预测值,记为Q,
2.根据权利要求1所述的一种无参考立体图像质量客观评价方法,其特征在于所述的步骤①-2中Si中坐标位置为(x,y)的像素点在中心频率为ω、方向因子为θ和相位偏移为Δψ下的振幅Ei(x,y;Δψ,ω,θ)的获取过程为:
①-2a、采用Gabor滤波器对Si的左视点图像进行滤波处理,得到Si的左视点图像中的每 个像素点在不同中心频率和不同方向因子下的频率响应,将Si的左视点图像中坐标位置为 (x,y)的像素点在中心频率为ω和方向因子为θ下的频率响应记为 <mrow> <msubsup> <mi>G</mi> <mi>i</mi> <mi>L</mi> </msubsup> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>;</mo> <mi>&amp;omega;</mi> <mo>,</mo> <mi>&amp;theta;</mi> <mo>)</mo> </mrow> <mo>=</mo> <msubsup> <mi>e</mi> <mi>i</mi> <mi>L</mi> </msubsup> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>;</mo> <mi>&amp;omega;</mi> <mo>,</mo> <mi>&amp;theta;</mi> <mo>)</mo> </mrow> <mo>+</mo> <msubsup> <mi>jo</mi> <mi>i</mi> <mi>L</mi> </msubsup> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>;</mo> <mi>&amp;omega;</mi> <mo>,</mo> <mi>&amp;theta;</mi> <mo>)</mo> </mrow> <mo>;</mo> </mrow>
同样,采用Gabor滤波器对Si的右视点图像进行滤波处理,得到Si的右视点图像中的每 个像素点在不同中心频率和不同方向因子下的频率响应,将Si的右视点图像中坐标位置为 (x,y)的像素点在中心频率为ω和方向因子为θ下的频率响应记为 <mrow> <msubsup> <mi>G</mi> <mi>i</mi> <mi>R</mi> </msubsup> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>;</mo> <mi>&amp;omega;</mi> <mo>,</mo> <mi>&amp;theta;</mi> <mo>)</mo> </mrow> <mo>=</mo> <msubsup> <mi>e</mi> <mi>i</mi> <mi>R</mi> </msubsup> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>;</mo> <mi>&amp;omega;</mi> <mo>,</mo> <mi>&amp;theta;</mi> <mo>)</mo> </mrow> <mo>+</mo> <msubsup> <mi>jo</mi> <mi>i</mi> <mi>R</mi> </msubsup> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>;</mo> <mi>&amp;omega;</mi> <mo>,</mo> <mi>&amp;theta;</mi> <mo>)</mo> </mrow> <mo>;</mo> </mrow>
上述,1≤x≤W,1≤y≤H,W表示Si的宽度,H表示Si的高度,ω表示所采用的Gabor滤波器 的中心频率,ω∈Ωω,Ωω={1.74,2.47,3.49,4.93,6.98},θ表示所采用的Gabor滤波器的 2 方向因子,θ∈Ωθ, <mrow> <msub> <mi>&amp;Omega;</mi> <mi>&amp;theta;</mi> </msub> <mo>=</mo> <mo>{</mo> <mn>0</mn> <mo>,</mo> <mfrac> <mi>&amp;pi;</mi> <mn>4</mn> </mfrac> <mo>,</mo> <mfrac> <mi>&amp;pi;</mi> <mn>2</mn> </mfrac> <mo>,</mo> <mfrac> <mrow> <mn>3</mn> <mi>&amp;pi;</mi> </mrow> <mn>4</mn> </mfrac> <mo>,</mo> <mi>&amp;pi;</mi> <mo>,</mo> <mfrac> <mrow> <mn>5</mn> <mi>&amp;pi;</mi> </mrow> <mn>4</mn> </mfrac> <mo>,</mo> <mfrac> <mrow> <mn>3</mn> <mi>&amp;pi;</mi> </mrow> <mn>2</mn> </mfrac> <mo>,</mo> <mfrac> <mrow> <mn>7</mn> <mi>&amp;pi;</mi> </mrow> <mn>4</mn> </mfrac> <mo>}</mo> <mo>,</mo> </mrow> 为的实部,为的虚部,为的实部,为的虚部,j为虚数单位;
①-2b、根据Si的左视点图像和右视点图像中的每个像素点在不同中心频率和不同方向 因子下的频率响应,计算Si中的每个像素点在不同中心频率、不同方向因子和不同相位偏 移下的振幅,Si中坐标位置为(x,y)的像素点在中心频率为ω、方向因子为θ和相位偏移为 Δψ下的振幅为 <mrow> <msub> <mi>E</mi> <mi>i</mi> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>;</mo> <mi>&amp;Delta;&amp;psi;</mi> <mo>,</mo> <mi>&amp;omega;</mi> <mo>,</mo> <mi>&amp;theta;</mi> <mo>)</mo> </mrow> <mo>=</mo> <msubsup> <mrow> <mo>|</mo> <mo>|</mo> <msubsup> <mi>G</mi> <mi>i</mi> <mi>L</mi> </msubsup> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>;</mo> <mi>&amp;omega;</mi> <mo>,</mo> <mi>&amp;theta;</mi> <mo>)</mo> </mrow> <mo>+</mo> <msup> <mi>e</mi> <mi>j&amp;Delta;&amp;psi;</mi> </msup> <mo>&amp;times;</mo> <msubsup> <mi>G</mi> <mi>i</mi> <mi>R</mi> </msubsup> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>;</mo> <mi>&amp;omega;</mi> <mo>,</mo> <mi>&amp;theta;</mi> <mo>)</mo> </mrow> <mo>|</mo> <mo>|</mo> </mrow> <mn>2</mn> <mn>2</mn> </msubsup> <mo>,</mo> </mrow> 其中,Δψ表示所采 用的Gabor滤波器的相位偏移,Δψ∈ΩΔψ, <mrow> <msub> <mi>&amp;Omega;</mi> <mi>&amp;Delta;&amp;psi;</mi> </msub> <mo>=</mo> <mo>{</mo> <mo>-</mo> <mi>&amp;pi;</mi> <mo>,</mo> <mo>-</mo> <mfrac> <mrow> <mn>7</mn> <mi>&amp;pi;</mi> </mrow> <mn>8</mn> </mfrac> <mo>,</mo> <mo>-</mo> <mfrac> <mrow> <mn>3</mn> <mi>&amp;pi;</mi> </mrow> <mn>4</mn> </mfrac> <mo>,</mo> <mo>-</mo> <mfrac> <mrow> <mn>5</mn> <mi>&amp;pi;</mi> </mrow> <mn>8</mn> </mfrac> <mo>,</mo> <mo>-</mo> <mfrac> <mi>&amp;pi;&amp;pi;</mi> <mn>2</mn> </mfrac> <mo>,</mo> <mo>-</mo> <mfrac> <mrow> <mn>3</mn> <mi>&amp;pi;</mi> </mrow> <mn>8</mn> </mfrac> <mo>,</mo> <mo>-</mo> <mfrac> <mi>&amp;pi;&amp;pi;</mi> <mn>4</mn> </mfrac> <mo>,</mo> <mo>-</mo> <mfrac> <mi>&amp;pi;</mi> <mn>8</mn> </mfrac> <mo>,</mo> <mn>0</mn> <mo>}</mo> <mo>,</mo> </mrow> 符号“||||2”为求取矩阵的2-范数符号,e表示自然基数,j为虚数单位。 3
CN201510227674.XA 2015-05-06 2015-05-06 一种无参考立体图像质量客观评价方法 Active CN104820988B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510227674.XA CN104820988B (zh) 2015-05-06 2015-05-06 一种无参考立体图像质量客观评价方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510227674.XA CN104820988B (zh) 2015-05-06 2015-05-06 一种无参考立体图像质量客观评价方法

Publications (2)

Publication Number Publication Date
CN104820988A CN104820988A (zh) 2015-08-05
CN104820988B true CN104820988B (zh) 2017-12-15

Family

ID=53731273

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510227674.XA Active CN104820988B (zh) 2015-05-06 2015-05-06 一种无参考立体图像质量客观评价方法

Country Status (1)

Country Link
CN (1) CN104820988B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105611285B (zh) * 2015-12-25 2017-06-16 浙江科技学院 基于相位选择性机制的通用无参考图像质量评价方法
CN106791801A (zh) * 2016-11-22 2017-05-31 深圳大学 一种三维图像的质量评价方法及系统
CN110222590B (zh) * 2019-05-15 2021-05-25 北京字节跳动网络技术有限公司 图像差异判断方法、装置及电子设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103824292A (zh) * 2014-02-26 2014-05-28 宁波大学 一种基于三维梯度幅度的立体图像质量客观评价方法
CN103914835A (zh) * 2014-03-20 2014-07-09 宁波大学 一种针对模糊失真立体图像的无参考质量评价方法
CN104036502A (zh) * 2014-06-03 2014-09-10 宁波大学 一种无参考模糊失真立体图像质量评价方法
CN104036501A (zh) * 2014-06-03 2014-09-10 宁波大学 一种基于稀疏表示的立体图像质量客观评价方法
CN104240248A (zh) * 2014-09-12 2014-12-24 宁波大学 一种无参考立体图像质量客观评价方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103824292A (zh) * 2014-02-26 2014-05-28 宁波大学 一种基于三维梯度幅度的立体图像质量客观评价方法
CN103914835A (zh) * 2014-03-20 2014-07-09 宁波大学 一种针对模糊失真立体图像的无参考质量评价方法
CN104036502A (zh) * 2014-06-03 2014-09-10 宁波大学 一种无参考模糊失真立体图像质量评价方法
CN104036501A (zh) * 2014-06-03 2014-09-10 宁波大学 一种基于稀疏表示的立体图像质量客观评价方法
CN104240248A (zh) * 2014-09-12 2014-12-24 宁波大学 一种无参考立体图像质量客观评价方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Blind Image Quality Assessment for Stereoscopic Images Using Binocular Guided Quality Lookup and Visual Codebook;Feng Shao et al;《IEEE TRANSACITONS ON BROADCASTTNG》;20150309;第61卷(第3期);第154-159页 *
基于双目能量响应的无参考立体图像质量评价;王珊珊等;《光电子·激光》;20140430;第25卷(第4期);第741-744页 *

Also Published As

Publication number Publication date
CN104820988A (zh) 2015-08-05

Similar Documents

Publication Publication Date Title
CN102333233B (zh) 一种基于视觉感知的立体图像质量客观评价方法
CN104240248B (zh) 一种无参考立体图像质量客观评价方法
CN106097327B (zh) 结合流形特征及双目特性的立体图像质量客观评价方法
CN105407349B (zh) 基于双目视觉感知的无参考立体图像质量客观评价方法
CN102209257B (zh) 一种立体图像质量客观评价方法
CN104036501B (zh) 一种基于稀疏表示的立体图像质量客观评价方法
CN102750695B (zh) 一种基于机器学习的立体图像质量客观评价方法
CN103581661B (zh) 一种立体图像视觉舒适度评价方法
CN105282543B (zh) 一种基于立体视觉感知的全盲立体图像质量客观评价方法
CN104581143B (zh) 一种基于机器学习的无参考立体图像质量客观评价方法
CN105654465B (zh) 一种采用视差补偿视点间滤波的立体图像质量评价方法
CN105376563B (zh) 基于双目融合特征相似度的无参考立体图像质量评价方法
CN104811691B (zh) 一种基于小波变换的立体视频质量客观评价方法
Yue et al. Blind stereoscopic 3D image quality assessment via analysis of naturalness, structure, and binocular asymmetry
CN104902268B (zh) 基于局部三元模式的无参考立体图像客观质量评价方法
CN104408716A (zh) 一种基于视觉保真度的立体图像质量客观评价方法
CN106791822B (zh) 一种基于单双目特征学习的无参考立体图像质量评价方法
CN102547368A (zh) 一种立体图像质量客观评价方法
CN103871054A (zh) 一种基于组合指标的图像分割结果定量评价方法
CN104820988B (zh) 一种无参考立体图像质量客观评价方法
CN104036502A (zh) 一种无参考模糊失真立体图像质量评价方法
CN106023214B (zh) 基于中央凹视梯度结构相似性的图像质量评价方法及系统
CN105898279B (zh) 一种立体图像质量客观评价方法
CN107360416A (zh) 基于局部多元高斯描述子的立体图像质量评价方法
CN105488792B (zh) 基于字典学习和机器学习的无参考立体图像质量评价方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
EXSB Decision made by sipo to initiate substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20191213

Address after: Room 1,020, Nanxun Science and Technology Pioneering Park, No. 666 Chaoyang Road, Nanxun District, Huzhou City, Zhejiang Province, 313000

Patentee after: Huzhou You Yan Intellectual Property Service Co., Ltd.

Address before: 315211 Zhejiang Province, Ningbo Jiangbei District Fenghua Road No. 818

Patentee before: Ningbo University

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20210514

Address after: 226600 Building 1, 8 Xiaoxing Avenue, Chengdong Town, Hai'an City, Nantong City, Jiangsu Province

Patentee after: Jiangsu Zhuimeng Information Technology Co.,Ltd.

Address before: 313000 room 1020, science and Technology Pioneer Park, 666 Chaoyang Road, Nanxun Town, Nanxun District, Huzhou, Zhejiang.

Patentee before: Huzhou You Yan Intellectual Property Service Co.,Ltd.

TR01 Transfer of patent right