CN103839263B - 一种立体图像深度感知客观评价方法 - Google Patents

一种立体图像深度感知客观评价方法 Download PDF

Info

Publication number
CN103839263B
CN103839263B CN201410065250.3A CN201410065250A CN103839263B CN 103839263 B CN103839263 B CN 103839263B CN 201410065250 A CN201410065250 A CN 201410065250A CN 103839263 B CN103839263 B CN 103839263B
Authority
CN
China
Prior art keywords
omega
theta
dis
org
pixel point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201410065250.3A
Other languages
English (en)
Other versions
CN103839263A (zh
Inventor
邵枫
胡朝正
姜求平
李福翠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Langxi Pinxu Technology Development Co ltd
Original Assignee
Ningbo University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ningbo University filed Critical Ningbo University
Priority to CN201410065250.3A priority Critical patent/CN103839263B/zh
Publication of CN103839263A publication Critical patent/CN103839263A/zh
Application granted granted Critical
Publication of CN103839263B publication Critical patent/CN103839263B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种立体图像深度感知客观评价方法,其首先分别计算原始的无失真的立体图像和待评价的失真的立体图像中的每个像素点在选定的中心频率和不同方向因子下的局部相位,然后获取原始的无失真的立体图像和待评价的失真的立体图像中的每个像素点在选定的中心频率下的视差偏移矢量,再根据视差偏移矢量获得待评价的失真的立体图像中的每个像素点的客观评价度量值,最终获得待评价的失真的立体图像的深度感知客观评价预测值;优点在于所得到的视差偏移矢量具有较强的稳定性且能够较好地反映立体图像的深度感知变化情况,因此能够有效地提高客观评价结果与主观感知的相关性。

Description

一种立体图像深度感知客观评价方法
技术领域
本发明涉及一种图像质量评价方法,尤其是涉及一种立体图像深度感知客观评价方法。
背景技术
随着图像编码技术和立体显示技术的迅速发展,立体图像技术受到了越来越广泛的关注与应用,已成为当前的一个研究热点。立体图像技术利用人眼的双目视差原理,双目各自独立地接收来自同一场景的左右视点图像,通过大脑融合形成双目视差,从而欣赏到具有深度感和逼真感的立体图像。由于受采集系统、存储压缩及传输设备的影响,立体图像会不可避免地引入一系列的失真,而与单通道图像相比,立体图像需要同时保证两个通道的图像质量,因此对立体图像进行评价具有非常重要的意义。然而,目前缺乏有效的客观评价方法对立体图像进行评价。因此,建立有效的立体图像客观评价模型具有十分重要的意义。
对立体图像的评价主要分为图像质量、深度感知和视觉舒适度三个方面,而目前已有的工作主要集中在质量评价部分,而对深度感知较少考虑。深度感知可以通过视差信息或深度信息来反映,然而由于目前视差估计及深度估计技术的局限,如何有效地对深度图像或视差图像质量进行评价以真实地表征立体感知特性,仍然是立体图像质量客观评价中的难点问题之一。因此,如何对深度感知线索信息进行合理评价,使得评价结果更加感觉符合人类视觉系统,都是在对立体图像进行评价过程中需要研究解决的问题。
发明内容
本发明所要解决的技术问题是提供一种能够有效地提高客观评价结果与主观感知的相关性的立体图像深度感知客观评价方法。
本发明解决上述技术问题所采用的技术方案为:一种立体图像深度感知客观评价方法,其特征在于包括以下步骤:
①令Sorg表示原始的无失真的立体图像,令Sdis表示待评价的失真的立体图像,将Sorg的左视点图像记为{Lorg(x,y)},将Sorg的右视点图像记为{Rorg(x,y)},将Sdis的左视点图像记为{Ldis(x,y)},将Sdis的右视点图像记为{Rdis(x,y)},其中,(x,y)表示左视点图像和右视点图像中的像素点的坐标位置,1≤x≤W,1≤y≤H,W表示左视点图像和右视点图像的宽度,H表示左视点图像和右视点图像的高度,Lorg(x,y)表示{Lorg(x,y)}中坐标位置为(x,y)的像素点的像素值,Rorg(x,y)表示{Rorg(x,y)}中坐标位置为(x,y)的像素点的像素值,Ldis(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的像素值,Rdis(x,y)表示{Rdis(x,y)}中坐标位置为(x,y)的像素点的像素值;
②采用Gabor滤波器分别对{Lorg(x,y)}、{Rorg(x,y)}、{Ldis(x,y)}、{Rdis(x,y)}进行滤波处理,得到{Lorg(x,y)}、{Rorg(x,y)}、{Ldis(x,y)}、{Rdis(x,y)}中的每个像素点在不同中心频率和不同方向因子下的频率响应,将{Lorg(x,y)}中坐标位置为(x,y)的像素点在中心频率为ω和方向因子为θ下的频率响应记为 G L org ( x , y ; ω , θ ) = e L org ( x , y ; ω , θ ) + jo L org ( x , y ; ω , θ ) , 将{Rorg(x,y)}中坐标位置为(x,y)的像素点在中心频率为ω和方向因子为θ下的频率响应记为 G R org ( x , y ; ω , θ ) = e R org ( x , y ; ω , θ ) + jo R org ( x , y ; ω , θ ) , 将{Ldis(x,y)}中坐标位置为(x,y)的像素点在中心频率为ω和方向因子为θ下的频率响应记为 G L dis ( x , y ; ω , θ ) = e L dis ( x , y ; ω , θ ) + jo L dis ( x , y ; ω , θ ) , 将{Rdis(x,y)}中坐标位置为(x,y)的像素点在中心频率为ω和方向因子为θ下的频率响应记为 G R dis ( x , y ; ω , θ ) = e R dis ( x , y ; ω , θ ) + jo R dis ( x , y ; ω , θ ) , 其中,ω表示Gabor滤波器的中心频率,ω∈{1.74,2.47,3.49,4.93,6.98,9.87},θ表示Gabor滤波器的方向因子,1≤θ≤4,的实部,的虚部,的实部,的虚部,的实部,的虚部,的实部,的虚部,符号“j”为虚数表示符号;
③分别计算{Lorg(x,y)}、{Rorg(x,y)}、{Ldis(x,y)}、{Rdis(x,y)}中的每个像素点在选定的中心频率和不同方向因子下的局部相位,将{Lorg(x,y)}中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的局部相位记为 将{Rorg(x,y)}中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的局部相位记为 将{Ldis(x,y)}中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的局部相位记为 将{Rdis(x,y)}中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的局部相位记为 其中,arctan()为取反正切函数,ωm表示选定的中心频率,ωm∈{1.74,2.47,3.49,4.93,6.98,9.87};
④根据{Lorg(x,y)}和{Rorg(x,y)}中的每个像素点在选定的中心频率和不同方向因子下的局部相位,计算Sorg中的每个像素点在选定的中心频率下的视差偏移矢量,将Sorg中坐标位置为(x,y)的像素点在中心频率为ωm下的视差偏移矢量记为dorg(x,y;ωm), d org ( x , y ; ω m ) = [ Δ d x org ( x , y ; ω m ) , Δ d y org ( x , y ; ω m ) ] , 其中,表示Sorg中坐标位置为(x,y)的像素点在中心频率为ωm下的水平方向视差偏移量,表示Sorg中坐标位置为(x,y)的像素点在中心频率为ωm下的垂直方向视差偏移量,符号“[]”为矢量表示符号;
同样,根据{Ldis(x,y)}和{Rdis(x,y)}中的每个像素点在选定的中心频率和不同方向因子下的局部相位,计算Sdis中的每个像素点在选定的中心频率下的视差偏移矢量,将Sdis中坐标位置为(x,y)的像素点在中心频率为ωm下的视差偏移矢量记为ddis(x,y;ωm), d dis ( x , y ; ω m ) = [ Δ d x dis ( x , y ; ω m ) , Δ d y dis ( x , y ; ω m ) ] , 其中,表示Sdis中坐标位置为(x,y)的像素点在中心频率为ωm下的水平方向视差偏移量,表示Sdis中坐标位置为(x,y)的像素点在中心频率为ωm下的垂直方向视差偏移量,符号“[]”为矢量表示符号;
⑤根据Sorg和Sdis中的每个像素点在选定的中心频率下的视差偏移矢量,计算Sdis中的每个像素点的客观评价度量值,将Sdis中坐标位置为(x,y)的像素点的客观评价度量值记为QDP(x,y),
Q DP ( x , y ) =
arccos ( ( Δ d x org ( x , y ; ω m ) · Δ d x dis ( x , y ; ω m ) + Δ d y org ( x , y ; ω m ) · Δ d y dis ( x , y ; ω m ) ) + T 1 ( Δ d x org ( x , y ; ω m ) ) 2 + ( Δ d y org ( x , y ; ω m ) ) 2 · ( Δ d x dis ( x , y ; ω m ) ) 2 + ( Δ d y dis ( x , y ; ω m ) ) 2 + T 1 ) ,其中,arccos()为取反余弦函数,T1为控制参数;
⑥根据Sdis中的每个像素点的客观评价度量值,计算Sdis的深度感知客观评价预测值,记为Q, Q = Σ x = 1 W Σ y = 1 H Q DP ( x , y ) W × H .
所述的步骤④中Sorg中的每个像素点在选定的中心频率下的视差偏移矢量的获取过程为:
④-a1、计算Sorg中的每个像素点在选定的中心频率和不同方向因子下的相位差,将Sorg中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的相位差记为
④-a2、计算Sorg中的每个像素点在选定的中心频率和不同方向因子下的平均相位,将Sorg中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的平均相位记为
④-a3、计算Sorg中的每个像素点在选定的中心频率下的视差偏移矢量,将Sorg中坐标位置为(x,y)的像素点在中心频率为ωm下的视差偏移矢量记为dorg(x,y;ωm),
d org ( x , y ; ω m ) = [ Δ d x org ( x , y ; ω m ) , Δ d y org ( x , y ; ω m ) ]
= Σ θ = 1 4 k x org ( x , y ; ω m , θ ) · k x org ( x , y ; ω m , θ ) Σ θ = 1 4 k x org ( x , y ; ω m , θ ) · k y org ( x , y ; ω m , θ ) Σ θ = 1 4 k y org ( x , y ; ω m , θ ) · k x org ( x , y ; ω m , θ ) Σ θ = 1 4 k y org ( x , y ; ω m , θ ) · k y org ( x , y ; ω m , θ ) - 1
其中,在此符号“×”表示矩阵相乘符号,表示Sorg中坐标位置为(x,y)的像素点在中心频率为ωm下的水平方向视差偏移量,表示Sorg中坐标位置为(x,y)的像素点在中心频率为ωm下的垂直方向视差偏移量,表示Sorg中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的平均相位的水平梯度值,表示Sorg中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的平均相位的垂直梯度值,矩阵 Σ θ = 1 4 k x org ( x , y ; ω m , θ ) · k x org ( x , y ; ω m , θ ) Σ θ = 1 4 k x org ( x , y ; ω m , θ ) · k y org ( x , y ; ω m , θ ) Σ θ = 1 4 k y org ( x , y ; ω m , θ ) · k x org ( x , y ; ω m , θ ) Σ θ = 1 4 k y org ( x , y ; ω m , θ ) · k y org ( x , y ; ω m , θ ) - 1 为矩阵 Σ θ = 1 4 k x org ( x , y ; ω m , θ ) · k x org ( x , y ; ω m , θ ) Σ θ = 1 4 k x org ( x , y ; ω m , θ ) · k y org ( x , y ; ω m , θ ) Σ θ = 1 4 k y org ( x , y ; ω m , θ ) · k x org ( x , y ; ω m , θ ) Σ θ = 1 4 k y org ( x , y ; ω m , θ ) · k y org ( x , y ; ω m , θ ) 的逆矩阵;
所述的步骤④中Sdis中的每个像素点在选定的中心频率下的视差偏移矢量的获取过程为:
④-b1、计算Sdis中的每个像素点在选定的中心频率和不同方向因子下的相位差,将Sdis中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的相位差记为
④-b2、计算Sdis中的每个像素点在选定的中心频率和不同方向因子下的平均相位,将Sdis中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的平均相位记为
④-b3、计算Sdis中的每个像素点在选定的中心频率下的视差偏移矢量,将Sdis中坐标位置为(x,y)的像素点在中心频率为ωm下的视差偏移矢量记为ddis(x,y;ωm),
d dis ( x , y ; ω m ) = [ Δ d x dis ( x , y ; ω m ) , Δ d y dis ( x , y ; ω m ) ]
= Σ θ = 1 4 k x dis ( x , y ; ω m , θ ) · k x dis ( x , y ; ω m , θ ) Σ θ = 1 4 k x dis ( x , y ; ω m , θ ) · k y dis ( x , y ; ω m , θ ) Σ θ = 1 4 k y dis ( x , y ; ω m , θ ) · k x dis ( x , y ; ω m , θ ) Σ θ = 1 4 k y dis ( x , y ; ω m , θ ) · k y dis ( x , y ; ω m , θ ) - 1
其中,在此符号“×”表示矩阵相乘符号,表示Sdis中坐标位置为(x,y)的像素点在中心频率为ωm下的水平方向视差偏移量,表示Sdis中坐标位置为(x,y)的像素点在中心频率为ωm下的垂直方向视差偏移量,表示Sdis中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的平均相位的水平梯度值,表示Sdis中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的平均相位的垂直梯度值,矩阵 Σ θ = 1 4 k x dis ( x , y ; ω m , θ ) · k x dis ( x , y ; ω m , θ ) Σ θ = 1 4 k x dis ( x , y ; ω m , θ ) · k y dis ( x , y ; ω m , θ ) Σ θ = 1 4 k y dis ( x , y ; ω m , θ ) · k x dis ( x , y ; ω m , θ ) Σ θ = 1 4 k y dis ( x , y ; ω m , θ ) · k y dis ( x , y ; ω m , θ ) - 1 为矩阵 Σ θ = 1 4 k x dis ( x , y ; ω m , θ ) · k x dis ( x , y ; ω m , θ ) Σ θ = 1 4 k x dis ( x , y ; ω m , θ ) · k y dis ( x , y ; ω m , θ ) Σ θ = 1 4 k y dis ( x , y ; ω m , θ ) · k x dis ( x , y ; ω m , θ ) Σ θ = 1 4 k y dis ( x , y ; ω m , θ ) · k y dis ( x , y ; ω m , θ ) 的逆矩阵。
所述的步骤⑤中取T1=0.85。
与现有技术相比,本发明的优点在于:
1)本发明方法考虑到失真对深度感知的影响,分别计算原始的无失真的立体图像和待评价的失真的立体图像中的每个像素点的视差偏移矢量,这样避免了复杂的视差估计操作,并且所构造的视差偏移矢量能够很好地反映不同失真对深度感知的影响,能够有效地提高客观评价结果与主观感知的相关性。
2)本发明方法通过计算每个像素点在选定的中心频率和不同方向因子下的相位差和平均相位的梯度值,获得每个像素点在选定的中心频率下的视差偏移矢量,获得的视差偏移矢量具有较强的稳定性且能够较好地反映立体图像的深度感知变化情况。
附图说明
图1为本发明方法的总体实现框图;
图2为利用本发明方法获得的宁波大学立体图像库中的每幅失真的立体图像的深度感知客观评价预测值与平均主观评分差值的散点图;
图3为利用本发明方法获得的LIVE立体图像库中的每幅失真的立体图像的深度感知客观评价预测值与平均主观评分差值的散点图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明提出的一种立体图像深度感知客观评价方法,其总体实现框图如图1所示,其具体包括以下步骤:
①令Sorg表示原始的无失真的立体图像,令Sdis表示待评价的失真的立体图像,将Sorg的左视点图像记为{Lorg(x,y)},将Sorg的右视点图像记为{Rorg(x,y)},将Sdis的左视点图像记为{Ldis(x,y)},将Sdis的右视点图像记为{Rdis(x,y)},其中,(x,y)表示左视点图像和右视点图像中的像素点的坐标位置,1≤x≤W,1≤y≤H,W表示左视点图像和右视点图像的宽度,H表示左视点图像和右视点图像的高度,Lorg(x,y)表示{Lorg(x,y)}中坐标位置为(x,y)的像素点的像素值,Rorg(x,y)表示{Rorg(x,y)}中坐标位置为(x,y)的像素点的像素值,Ldis(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的像素值,Rdis(x,y)表示{Rdis(x,y)}中坐标位置为(x,y)的像素点的像素值。
②采用现有的Gabor滤波器分别对{Lorg(x,y)}、{Rorg(x,y)}、{Ldis(x,y)}、{Rdis(x,y)}进行滤波处理,得到{Lorg(x,y)}、{Rorg(x,y)}、{Ldis(x,y)}、{Rdis(x,y)}中的每个像素点在不同中心频率和不同方向因子下的频率响应,将{Lorg(x,y)}中坐标位置为(x,y)的像素点在中心频率为ω和方向因子为θ下的频率响应记为 G L org ( x , y ; ω , θ ) = e L org ( x , y ; ω , θ ) + jo L org ( x , y ; ω , θ ) , 将{Rorg(x,y)}中坐标位置为(x,y)的像素点在中心频率为ω和方向因子为θ下的频率响应记为 G R org ( x , y ; ω , θ ) = e R org ( x , y ; ω , θ ) + jo R org ( x , y ; ω , θ ) , 将{Ldis(x,y)}中坐标位置为(x,y)的像素点在中心频率为ω和方向因子为θ下的频率响应记为 G L dis ( x , y ; ω , θ ) = e L dis ( x , y ; ω , θ ) + jo L dis ( x , y ; ω , θ ) , 将{Rdis(x,y)}中坐标位置为(x,y)的像素点在中心频率为ω和方向因子为θ下的频率响应记为 G R dis ( x , y ; ω , θ ) = e R dis ( x , y ; ω , θ ) + jo R dis ( x , y ; ω , θ ) , 其中,ω表示Gabor滤波器的中心频率,Gabor滤波器的中心频率ω可以是任意一个值,在本发明中经验选取六个不同的值分别作为Gabor滤波器的中心频率,即ω∈{1.74,2.47,3.49,4.93,6.98,9.87},θ表示Gabor滤波器的方向因子,1≤θ≤4,的实部,的虚部,的实部,的虚部,的实部,的虚部,的实部,的虚部,符号“j”为虚数表示符号。
③分别计算{Lorg(x,y)}、{Rorg(x,y)}、{Ldis(x,y)}、{Rdis(x,y)}中的每个像素点在选定的中心频率和不同方向因子下的局部相位,将{Lorg(x,y)}中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的局部相位记为 将{Rorg(x,y)}中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的局部相位记为 将{Ldis(x,y)}中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的局部相位记为 将{Rdis(x,y)}中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的局部相位记为 其中,arctan()为取反正切函数,ωm表示选定的中心频率,ωm∈{1.74,2.47,3.49,4.93,6.98,9.87},的实部,的虚部,的实部,的虚部,的实部,的虚部,的实部,的虚部。
④根据{Lorg(x,y)}和{Rorg(x,y)}中的每个像素点在选定的中心频率和不同方向因子下的局部相位,计算Sorg中的每个像素点在选定的中心频率下的视差偏移矢量,将Sorg中坐标位置为(x,y)的像素点在中心频率为ωm下的视差偏移矢量记为dorg(x,y;ωm), d org ( x , y ; ω m ) = [ Δ d x org ( x , y ; ω m ) , Δ d y org ( x , y ; ω m ) ] , 其中,表示Sorg中坐标位置为(x,y)的像素点在中心频率为ωm下的水平方向视差偏移量,表示Sorg中坐标位置为(x,y)的像素点在中心频率为ωm下的垂直方向视差偏移量,符号“[]”为矢量表示符号。
在此具体实施例中,步骤④中Sorg中的每个像素点在选定的中心频率下的视差偏移矢量的获取过程为:
④-a1、计算Sorg中的每个像素点在选定的中心频率和不同方向因子下的相位差,将Sorg中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的相位差记为
④-a2、计算Sorg中的每个像素点在选定的中心频率和不同方向因子下的平均相位,将Sorg中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的平均相位记为
④-a3、计算Sorg中的每个像素点在选定的中心频率下的视差偏移矢量,将Sorg中坐标位置为(x,y)的像素点在中心频率为ωm下的视差偏移矢量记为dorg(x,y;ωm),
d org ( x , y ; ω m ) = [ Δ d x org ( x , y ; ω m ) , Δ d y org ( x , y ; ω m ) ]
= Σ θ = 1 4 k x org ( x , y ; ω m , θ ) · k x org ( x , y ; ω m , θ ) Σ θ = 1 4 k x org ( x , y ; ω m , θ ) · k y org ( x , y ; ω m , θ ) Σ θ = 1 4 k y org ( x , y ; ω m , θ ) · k x org ( x , y ; ω m , θ ) Σ θ = 1 4 k y org ( x , y ; ω m , θ ) · k y org ( x , y ; ω m , θ ) - 1
其中,在此符号“×”表示矩阵相乘符号,表示Sorg中坐标位置为(x,y)的像素点在中心频率为ωm下的水平方向视差偏移量,表示Sorg中坐标位置为(x,y)的像素点在中心频率为ωm下的垂直方向视差偏移量,表示Sorg中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的平均相位的水平梯度值,表示Sorg中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的平均相位的垂直梯度值,矩阵 Σ θ = 1 4 k x org ( x , y ; ω m , θ ) · k x org ( x , y ; ω m , θ ) Σ θ = 1 4 k x org ( x , y ; ω m , θ ) · k y org ( x , y ; ω m , θ ) Σ θ = 1 4 k y org ( x , y ; ω m , θ ) · k x org ( x , y ; ω m , θ ) Σ θ = 1 4 k y org ( x , y ; ω m , θ ) · k y org ( x , y ; ω m , θ ) - 1 为矩阵 Σ θ = 1 4 k x org ( x , y ; ω m , θ ) · k x org ( x , y ; ω m , θ ) Σ θ = 1 4 k x org ( x , y ; ω m , θ ) · k y org ( x , y ; ω m , θ ) Σ θ = 1 4 k y org ( x , y ; ω m , θ ) · k x org ( x , y ; ω m , θ ) Σ θ = 1 4 k y org ( x , y ; ω m , θ ) · k y org ( x , y ; ω m , θ ) 的逆矩阵。
同样,根据{Ldis(x,y)}和{Rdis(x,y)}中的每个像素点在选定的中心频率和不同方向因子下的局部相位,计算Sdis中的每个像素点在选定的中心频率下的视差偏移矢量,将Sdis中坐标位置为(x,y)的像素点在中心频率为ωm下的视差偏移矢量记为ddis(x,y;ωm), d dis ( x , y ; ω m ) = [ Δ d x dis ( x , y ; ω m ) , Δ d y dis ( x , y ; ω m ) ] , 其中,表示Sdis中坐标位置为(x,y)的像素点在中心频率为ωm下的水平方向视差偏移量,表示Sdis中坐标位置为(x,y)的像素点在中心频率为ωm下的垂直方向视差偏移量,符号“[]”为矢量表示符号。
在此具体实施例中,步骤④中Sdis中的每个像素点在选定的中心频率下的视差偏移矢量的获取过程为:
④-b1、计算Sdis中的每个像素点在选定的中心频率和不同方向因子下的相位差,将Sdis中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的相位差记为
④-b2、计算Sdis中的每个像素点在选定的中心频率和不同方向因子下的平均相位,将Sdis中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的平均相位记为
④-b3、计算Sdis中的每个像素点在选定的中心频率下的视差偏移矢量,将Sdis中坐标位置为(x,y)的像素点在中心频率为ωm下的视差偏移矢量记为ddis(x,y;ωm),
d dis ( x , y ; ω m ) = [ Δ d x dis ( x , y ; ω m ) , Δ d y dis ( x , y ; ω m ) ]
= Σ θ = 1 4 k x dis ( x , y ; ω m , θ ) · k x dis ( x , y ; ω m , θ ) Σ θ = 1 4 k x dis ( x , y ; ω m , θ ) · k y dis ( x , y ; ω m , θ ) Σ θ = 1 4 k y dis ( x , y ; ω m , θ ) · k x dis ( x , y ; ω m , θ ) Σ θ = 1 4 k y dis ( x , y ; ω m , θ ) · k y dis ( x , y ; ω m , θ ) - 1
其中,在此符号“×”表示矩阵相乘符号,表示Sdis中坐标位置为(x,y)的像素点在中心频率为ωm下的水平方向视差偏移量,表示Sdis中坐标位置为(x,y)的像素点在中心频率为ωm下的垂直方向视差偏移量,表示Sdis中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的平均相位的水平梯度值,表示Sdis中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的平均相位的垂直梯度值,矩阵 Σ θ = 1 4 k x dis ( x , y ; ω m , θ ) · k x dis ( x , y ; ω m , θ ) Σ θ = 1 4 k x dis ( x , y ; ω m , θ ) · k y dis ( x , y ; ω m , θ ) Σ θ = 1 4 k y dis ( x , y ; ω m , θ ) · k x dis ( x , y ; ω m , θ ) Σ θ = 1 4 k y dis ( x , y ; ω m , θ ) · k y dis ( x , y ; ω m , θ ) - 1 为矩阵 Σ θ = 1 4 k x dis ( x , y ; ω m , θ ) · k x dis ( x , y ; ω m , θ ) Σ θ = 1 4 k x dis ( x , y ; ω m , θ ) · k y dis ( x , y ; ω m , θ ) Σ θ = 1 4 k y dis ( x , y ; ω m , θ ) · k x dis ( x , y ; ω m , θ ) Σ θ = 1 4 k y dis ( x , y ; ω m , θ ) · k y dis ( x , y ; ω m , θ ) 的逆矩阵。
⑤根据Sorg和Sdis中的每个像素点在选定的中心频率下的视差偏移矢量,计算Sdis中的每个像素点的客观评价度量值,将Sdis中坐标位置为(x,y)的像素点的客观评价度量值记为QDP(x,y),
Q DP ( x , y ) =
arccos ( ( Δ d x org ( x , y ; ω m ) · Δ d x dis ( x , y ; ω m ) + Δ d y org ( x , y ; ω m ) · Δ d y dis ( x , y ; ω m ) ) + T 1 ( Δ d x org ( x , y ; ω m ) ) 2 + ( Δ d y org ( x , y ; ω m ) ) 2 · ( Δ d x dis ( x , y ; ω m ) ) 2 + ( Δ d y dis ( x , y ; ω m ) ) 2 + T 1 )
,其中,arccos()为取反余弦函数,T1为控制参数,在本实施例中取T1=0.85。
⑥根据Sdis中的每个像素点的客观评价度量值,计算Sdis的深度感知客观评价预测值,记为Q, Q = Σ x = 1 W Σ y = 1 H Q DP ( x , y ) W × H .
在本实施例中,由于根据人眼对不同失真类型的频率响应不一致的特性,因此针对不同失真类型的立体图像,对Gabor滤波器设置不同的中心频率,即上述步骤③、步骤④和步骤⑤中ωm的具体取值由Sdis的失真类型决定,如果Sdis的失真类型为JPEG压缩失真,则取ωm=3.49;如果Sdis的失真类型为JPEG2000压缩失真,则取ωm=4.93;如果Sdis的失真类型为高斯模糊失真,则取ωm=4.93;如果Sdis的失真类型为白噪声失真,则取ωm=3.49;如果Sdis的失真类型为H.264压缩失真,则取ωm=4.93。在此,针对不同失真类型的失真图像,计算分别取六个不同中心频率情况下的评价结果,选取评价结果最好的中心频率作为选定的中心频率,通过大量实验确定上述ωm的具体取值。
为进一步说明本发明方法的可行性和有效性,对本发明方法的性能进行客观评价。
在此,采用宁波大学立体图像库和LIVE立体图像库来分析本实施例得到的失真的立体图像的深度感知客观评价预测值与平均主观评分差值之间的相关性。宁波大学立体图像库由12幅无失真的立体图像在不同程度的JPEG压缩情况下的60幅失真的立体图像、JPEG2000压缩情况下的60幅失真的立体图像、高斯模糊情况下的60幅失真的立体图像、高斯白噪声情况下的60幅失真的立体图像和H.264编码失真情况下的72幅失真的立体图像构成。LIVE立体图像库由20幅无失真的立体图像在不同程度的JPEG压缩情况下的80幅失真的立体图像、JPEG2000压缩情况下的80幅失真的立体图像、高斯模糊情况下的45幅失真的立体图像、高斯白噪声情况下的80幅失真的立体图像和FastFading失真情况下的80幅失真的立体图像构成。
这里,利用评估图像质量评价方法的4个常用客观参量作为深度感知评价指标,即非线性回归条件下的Pearson相关系数(Pearsonlinearcorrelationcoefficient,PLCC)、Spearman相关系数(Spearmanrankordercorrelationcoefficient,SROCC),Kendall相关系数(Kendallrank-ordercorrelationcoefficient,KROCC),均方误差(rootmeansquarederror,RMSE),PLCC和RMSE反映失真的立体图像的客观评价结果的准确性,SROCC和KROCC反映其单调性。
利用本发明方法获取宁波大学立体图像库中的每幅失真的立体图像的深度感知客观评价预测值和LIVE立体图像库中的每幅失真的立体图像的深度感知客观评价预测值,并利用现有的主观评分方法获取宁波大学立体图像库中的每幅失真的立体图像的平均主观评分差值和LIVE立体图像库中的每幅失真的立体图像的平均主观评分差值。将按本发明方法计算得到的失真的立体图像的深度感知客观评价预测值做五参数Logistic函数非线性拟合,PLCC、SROCC和KROCC值越高,RMSE值越低说明客观评价方法与平均主观评分差值相关性越好。表1、表2、表3和表4给出了采用本发明方法得到的失真的立体图像的深度感知客观评价预测值与平均主观评分差值之间的Pearson相关系数、Spearman相关系数、Kendall相关系数和均方误差。从表1、表2、表3和表4中可以看出,对于高斯模糊和高斯白噪声失真类型,采用本发明方法得到的失真的立体图像的深度感知客观评价预测值与平均主观评分差值之间的相关性是很高的,而对于编码失真类型(JPEG压缩、JPEG2000压缩和H.264编码失真),采用本发明方法得到的失真的立体图像的深度感知客观评价预测值与平均主观评分差值之间的相关性并不是很高,这是因为在编码强度较大的情况下,较低的图像质量会抑制深度感知,导致其深度感知客观评价预测值与图像质量并不完全一致。
图2给出了利用本发明方法获得的宁波大学立体图像库中的每幅失真的立体图像的深度感知客观评价预测值与平均主观评分差值的散点图,图3给出了利用本发明方法获得的LIVE立体图像库中的每幅失真的立体图像的深度感知客观评价预测值与平均主观评分差值的散点图,散点越集中,说明客观评价结果与主观感知的一致性越好。从图2和图3中可以看出,即使对于那些质量较低的立体图像(平均主观评分差值DMOS大于40),采用本发明方法预测得到的深度感知客观评价预测值也被抑制在40范围内,说明对于这些质量较低的立体图像,深度感知并不是主要的感知因素,符合人眼的主观感知特性。
表1利用本发明方法得到的失真的立体图像的深度感知客观评价预测值与平均主观评分差值之间的Pearson相关系数比较
表2利用本发明方法得到的失真的立体图像的深度感知客观评价预测值与平均主观评分差值之间的Spearman相关系数比较
表3利用本发明方法得到的失真的立体图像的深度感知客观评价预测值与平均主观评分差值之间的Kendall相关系数比较
表4利用本发明方法得到的失真的立体图像的深度感知客观评价预测值与平均主观评分差值之间的均方误差比较

Claims (2)

1.一种立体图像深度感知客观评价方法,其特征在于包括以下步骤:
①令Sorg表示原始的无失真的立体图像,令Sdis表示待评价的失真的立体图像,将Sorg的左视点图像记为{Lorg(x,y)},将Sorg的右视点图像记为{Rorg(x,y)},将Sdis的左视点图像记为{Ldis(x,y)},将Sdis的右视点图像记为{Rdis(x,y)},其中,(x,y)表示左视点图像和右视点图像中的像素点的坐标位置,1≤x≤W,1≤y≤H,W表示左视点图像和右视点图像的宽度,H表示左视点图像和右视点图像的高度,Lorg(x,y)表示{Lorg(x,y)}中坐标位置为(x,y)的像素点的像素值,Rorg(x,y)表示{Rorg(x,y)}中坐标位置为(x,y)的像素点的像素值,Ldis(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的像素值,Rdis(x,y)表示{Rdis(x,y)}中坐标位置为(x,y)的像素点的像素值;
②采用Gabor滤波器分别对{Lorg(x,y)}、{Rorg(x,y)}、{Ldis(x,y)}、{Rdis(x,y)}进行滤波处理,得到{Lorg(x,y)}、{Rorg(x,y)}、{Ldis(x,y)}、{Rdis(x,y)}中的每个像素点在不同中心频率和不同方向因子下的频率响应,将{Lorg(x,y)}中坐标位置为(x,y)的像素点在中心频率为ω和方向因子为θ下的频率响应记为 G L o r g ( x , y ; ω , θ ) = e L o r g ( x , y ; ω , θ ) + jo L o r g ( x , y ; ω , θ ) , 将{Rorg(x,y)}中坐标位置为(x,y)的像素点在中心频率为ω和方向因子为θ下的频率响应记为 G R o r g ( x , y ; ω , θ ) = e R o r g ( x , y ; ω , θ ) + jo R o r g ( x , y ; ω , θ ) , 将{Ldis(x,y)}中坐标位置为(x,y)的像素点在中心频率为ω和方向因子为θ下的频率响应记为 G L d i s ( x , y ; ω , θ ) = e L d i s ( x , y ; ω , θ ) + jo L d i s ( x , y ; ω , θ ) , 将{Rdis(x,y)}中坐标位置为(x,y)的像素点在中心频率为ω和方向因子为θ下的频率响应记为 G R d i s ( x , y ; ω , θ ) = e R d i s ( x , y ; ω , θ ) + jo R d i s ( x , y ; ω , θ ) , 其中,ω表示Gabor滤波器的中心频率,ω∈{1.74,2.47,3.49,4.93,6.98,9.87},θ表示Gabor滤波器的方向因子,1≤θ≤4,的实部,的虚部,的实部,的虚部,的实部,的虚部,的实部,的虚部,符号“j”为虚数表示符号;
③分别计算{Lorg(x,y)}、{Rorg(x,y)}、{Ldis(x,y)}、{Rdis(x,y)}中的每个像素点在选定的中心频率和不同方向因子下的局部相位,将{Lorg(x,y)}中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的局部相位记为 将{Rorg(x,y)}中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的局部相位记为 将{Ldis(x,y)}中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的局部相位记为 将{Rdis(x,y)}中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的局部相位记为 其中,arctan()为取反正切函数,ωm表示选定的中心频率,ωm∈{1.74,2.47,3.49,4.93,6.98,9.87};
④根据{Lorg(x,y)}和{Rorg(x,y)}中的每个像素点在选定的中心频率和不同方向因子下的局部相位,计算Sorg中的每个像素点在选定的中心频率下的视差偏移矢量,具体过程为:
④-a1、计算Sorg中的每个像素点在选定的中心频率和不同方向因子下的相位差,将Sorg中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的相位差记为
④-a2、计算Sorg中的每个像素点在选定的中心频率和不同方向因子下的平均相位,将Sorg中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的平均相位记为
④-a3、计算Sorg中的每个像素点在选定的中心频率下的视差偏移矢量,将Sorg中坐标位置为(x,y)的像素点在中心频率为ωm下的视差偏移矢量记为dorg(x,y;ωm),
其中,在此符号“×”表示矩阵相乘符号,表示Sorg中坐标位置为(x,y)的像素点在中心频率为ωm下的水平方向视差偏移量,表示Sorg中坐标位置为(x,y)的像素点在中心频率为ωm下的垂直方向视差偏移量,表示Sorg中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的平均相位的水平梯度值,表示Sorg中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的平均相位的垂直梯度值,矩阵 Σ θ = 1 4 k x o r g ( x , y ; ω m , θ ) · k x o r g ( x , y ; ω m , θ ) Σ θ = 1 4 k x o r g ( x , y ; ω m , θ ) · k y o r g ( x , y ; ω m , θ ) Σ θ = 1 4 k y o r g ( x , y ; ω m , θ ) · k x o r g ( x , y ; ω m , θ ) Σ θ = 1 4 k y o r g ( x , y ; ω m , θ ) · k y o r g ( x , y ; ω m , θ ) - 1 为矩阵 Σ θ = 1 4 k x o r g ( x , y ; ω m , θ ) · k x o r g ( x , y ; ω m , θ ) Σ θ = 1 4 k x o r g ( x , y ; ω m , θ ) · k y o r g ( x , y ; ω m , θ ) Σ θ = 1 4 k y o r g ( x , y ; ω m , θ ) · k x o r g ( x , y ; ω m , θ ) Σ θ = 1 4 k y o r g ( x , y ; ω m , θ ) · k y o r g ( x , y ; ω m , θ ) 的逆矩阵;
同样,根据{Ldis(x,y)}和{Rdis(x,y)}中的每个像素点在选定的中心频率和不同方向因子下的局部相位,计算Sdis中的每个像素点在选定的中心频率下的视差偏移矢量,具体过程为:
④-b1、计算Sdis中的每个像素点在选定的中心频率和不同方向因子下的相位差,将Sdis中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的相位差记为
④-b2、计算Sdis中的每个像素点在选定的中心频率和不同方向因子下的平均相位,将Sdis中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的平均相位记为
④-b3、计算Sdis中的每个像素点在选定的中心频率下的视差偏移矢量,将Sdis中坐标位置为(x,y)的像素点在中心频率为ωm下的视差偏移矢量记为ddis(x,y;ωm),
其中,在此符号“×”表示矩阵相乘符号,表示Sdis中坐标位置为(x,y)的像素点在中心频率为ωm下的水平方向视差偏移量,表示Sdis中坐标位置为(x,y)的像素点在中心频率为ωm下的垂直方向视差偏移量,表示Sdis中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的平均相位的水平梯度值,表示Sdis中坐标位置为(x,y)的像素点在中心频率为ωm和方向因子为θ下的平均相位的垂直梯度值,矩阵 Σ θ = 1 4 k x d i s ( x , y ; ω m , θ ) · k x d i s ( x , y ; ω m , θ ) Σ θ = 1 4 k x d i s ( x , y ; ω m , θ ) · k y d i s ( x , y ; ω m , θ ) Σ θ = 1 4 k y d i s ( x , y ; ω m , θ ) · k x d i s ( x , y ; ω m , θ ) Σ θ = 1 4 k y d i s ( x , y ; ω m , θ ) · k y d i s ( x , y ; ω m , θ ) - 1 为矩阵 Σ θ = 1 4 k x d i s ( x , y ; ω m , θ ) · k x d i s ( x , y ; ω m , θ ) Σ θ = 1 4 k x d i s ( x , y ; ω m , θ ) · k y d i s ( x , y ; ω m , θ ) Σ θ = 1 4 k y d i s ( x , y ; ω m , θ ) · k x d i s ( x , y ; ω m , θ ) Σ θ = 1 4 k y d i s ( x , y ; ω m , θ ) · k y d i s ( x , y ; ω m , θ ) 的逆矩阵;
⑤根据Sorg和Sdis中的每个像素点在选定的中心频率下的视差偏移矢量,计算Sdis中的每个像素点的客观评价度量值,将Sdis中坐标位置为(x,y)的像素点的客观评价度量值记为QDP(x,y),
Q D P ( x , y ) = arccos ( ( Δd x o r g ( x , y ; ω m ) · Δd x d i s ( x , y ; ω m ) + Δd y o r g ( x , y ; ω m ) · Δd y d i s ( x , y ; ω m ) ) + T 1 ( Δd x o r g ( x , y ; ω m ) ) 2 + ( Δd y o r g ( x , y ; ω m ) ) 2 · ( Δd x d i s ( x , y ; ω m ) ) 2 + ( Δd y d i s ( x , y ; ω m ) ) 2 + T 1 )
其中,arccos()为取反余弦函数,T1为控制参数;
⑥根据Sdis中的每个像素点的客观评价度量值,计算Sdis的深度感知客观评价预测值,记为Q, Q = Σ x = 1 W Σ y = 1 H Q D P ( x , y ) W × H .
2.根据权利要求1所述的一种立体图像深度感知客观评价方法,其特征在于所述的步骤⑤中取T1=0.85。
CN201410065250.3A 2014-02-26 2014-02-26 一种立体图像深度感知客观评价方法 Active CN103839263B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410065250.3A CN103839263B (zh) 2014-02-26 2014-02-26 一种立体图像深度感知客观评价方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410065250.3A CN103839263B (zh) 2014-02-26 2014-02-26 一种立体图像深度感知客观评价方法

Publications (2)

Publication Number Publication Date
CN103839263A CN103839263A (zh) 2014-06-04
CN103839263B true CN103839263B (zh) 2016-07-06

Family

ID=50802729

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410065250.3A Active CN103839263B (zh) 2014-02-26 2014-02-26 一种立体图像深度感知客观评价方法

Country Status (1)

Country Link
CN (1) CN103839263B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104144339B (zh) * 2014-06-13 2016-04-13 宁波大学 一种基于人眼感知的质降参考立体图像质量客观评价方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101872479A (zh) * 2010-06-09 2010-10-27 宁波大学 一种立体图像客观质量评价方法
CN102740119A (zh) * 2011-04-15 2012-10-17 特克特朗尼克公司 用于预测三维视频的主观质量的全参考系统
CN102843572A (zh) * 2012-06-29 2012-12-26 宁波大学 一种基于相位的立体图像质量客观评价方法
CN103413298A (zh) * 2013-07-17 2013-11-27 宁波大学 一种基于视觉特性的立体图像质量客观评价方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0012992D0 (en) * 2000-05-26 2000-07-19 British Telecomm Test method
EP2396768B1 (en) * 2009-02-12 2013-04-17 Dolby Laboratories Licensing Corporation Quality evaluation of sequences of images

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101872479A (zh) * 2010-06-09 2010-10-27 宁波大学 一种立体图像客观质量评价方法
CN102740119A (zh) * 2011-04-15 2012-10-17 特克特朗尼克公司 用于预测三维视频的主观质量的全参考系统
CN102843572A (zh) * 2012-06-29 2012-12-26 宁波大学 一种基于相位的立体图像质量客观评价方法
CN103413298A (zh) * 2013-07-17 2013-11-27 宁波大学 一种基于视觉特性的立体图像质量客观评价方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
FSIM:A feature similarity index for image quality assessment;Lin Zhang et al;《IEEE TRANSACTIONS ON IMAGE PROCESSING》;20110831;第20卷(第8期);第2378-2386页 *
Quality assessment for stereoscopic images by distortion separation;Chaozheng Hu et al;《JOURNAL OF SOFTWARE》;20140131;第9卷(第1期);第37-43页 *
基于感知重要性的立体图像质量评价方法;段芬芳 等;《光电工程》;20131031;第40卷(第10期);第70-76页 *
基于结构失真分析的立体图像质量客观评价模型;毛香英 等;《计算机辅助设计与图形学学报》;20120831;第24卷(第8期);第1047-1056页 *
基于视差空间图的立体图像质量客观评价方法;姜求平 等;《光电子.激光》;20131231;第24卷(第12期);第2409-2415页 *

Also Published As

Publication number Publication date
CN103839263A (zh) 2014-06-04

Similar Documents

Publication Publication Date Title
CN104036501B (zh) 一种基于稀疏表示的立体图像质量客观评价方法
CN103413298B (zh) 一种基于视觉特性的立体图像质量客观评价方法
CN104243976B (zh) 一种立体图像客观质量评价方法
CN104658001B (zh) 一种无参考非对称失真立体图像客观质量评价方法
CN102708567B (zh) 一种基于视觉感知的立体图像质量客观评价方法
CN102843572B (zh) 一种基于相位的立体图像质量客观评价方法
CN104240248B (zh) 一种无参考立体图像质量客观评价方法
CN106530282B (zh) 基于空域特征的无参考立体图像质量客观评价方法
CN104036502B (zh) 一种无参考模糊失真立体图像质量评价方法
CN104394403B (zh) 一种面向压缩失真的立体视频质量客观评价方法
CN105282543B (zh) 一种基于立体视觉感知的全盲立体图像质量客观评价方法
CN102521825B (zh) 一种基于零水印的立体图像质量客观评价方法
CN102903107B (zh) 一种基于特征融合的立体图像质量客观评价方法
CN104361583B (zh) 一种确定非对称失真立体图像客观质量的方法
CN104506872A (zh) 一种平面视频转立体视频的方法及装置
CN103200420B (zh) 一种基于三维视觉注意力的立体图像质量客观评价方法
CN107360416A (zh) 基于局部多元高斯描述子的立体图像质量评价方法
CN102999911B (zh) 一种基于能量图的立体图像质量客观评价方法
CN103369348B (zh) 一种基于区域重要性分类的立体图像质量客观评价方法
CN102737380B (zh) 一种基于梯度结构张量的立体图像质量客观评价方法
CN103914835A (zh) 一种针对模糊失真立体图像的无参考质量评价方法
CN102708568A (zh) 一种基于结构失真的立体图像客观质量评价方法
CN103745457B (zh) 一种立体图像客观质量评价方法
CN103839263B (zh) 一种立体图像深度感知客观评价方法
CN105069794A (zh) 一种基于双目竞争的全盲立体图像质量评价方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20191216

Address after: Room 1,020, Nanxun Science and Technology Pioneering Park, No. 666 Chaoyang Road, Nanxun District, Huzhou City, Zhejiang Province, 313000

Patentee after: Huzhou You Yan Intellectual Property Service Co.,Ltd.

Address before: 315211 Zhejiang Province, Ningbo Jiangbei District Fenghua Road No. 818

Patentee before: Ningbo University

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20200603

Address after: Room 501, office building, market supervision and Administration Bureau, Langchuan Avenue, Jianping Town, Langxi County, Xuancheng City, Anhui Province, 230000

Patentee after: Langxi pinxu Technology Development Co.,Ltd.

Address before: Room 1,020, Nanxun Science and Technology Pioneering Park, No. 666 Chaoyang Road, Nanxun District, Huzhou City, Zhejiang Province, 313000

Patentee before: Huzhou You Yan Intellectual Property Service Co.,Ltd.

TR01 Transfer of patent right
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20140604

Assignee: HUZHOU YINZHOU INTELLIGENT EQUIPMENT CO.,LTD.

Assignor: Langxi pinxu Technology Development Co.,Ltd.

Contract record no.: X2024330000193

Denomination of invention: An objective evaluation method for depth perception of stereoscopic images

Granted publication date: 20160706

License type: Common License

Record date: 20240711

Application publication date: 20140604

Assignee: Huzhou Yisheng Intelligent Conveying Equipment Co.,Ltd.

Assignor: Langxi pinxu Technology Development Co.,Ltd.

Contract record no.: X2024330000192

Denomination of invention: An objective evaluation method for depth perception of stereoscopic images

Granted publication date: 20160706

License type: Common License

Record date: 20240711

Application publication date: 20140604

Assignee: HUZHOU YITENG AUTOMATION EQUIPMENT CO.,LTD.

Assignor: Langxi pinxu Technology Development Co.,Ltd.

Contract record no.: X2024330000191

Denomination of invention: An objective evaluation method for depth perception of stereoscopic images

Granted publication date: 20160706

License type: Common License

Record date: 20240711

Application publication date: 20140604

Assignee: Huzhou Zhongyi Machinery Manufacturing Co.,Ltd.

Assignor: Langxi pinxu Technology Development Co.,Ltd.

Contract record no.: X2024330000190

Denomination of invention: An objective evaluation method for depth perception of stereoscopic images

Granted publication date: 20160706

License type: Common License

Record date: 20240711

EE01 Entry into force of recordation of patent licensing contract