CN108810512A - 一种基于对象的立体图像深度调整方法 - Google Patents

一种基于对象的立体图像深度调整方法 Download PDF

Info

Publication number
CN108810512A
CN108810512A CN201810371453.3A CN201810371453A CN108810512A CN 108810512 A CN108810512 A CN 108810512A CN 201810371453 A CN201810371453 A CN 201810371453A CN 108810512 A CN108810512 A CN 108810512A
Authority
CN
China
Prior art keywords
mesh
quadrilateral
vertex
coordinate position
grid
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810371453.3A
Other languages
English (en)
Other versions
CN108810512B (zh
Inventor
邵枫
费延佳
李福翠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Yicui Information Technology Co ltd
Original Assignee
Ningbo University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ningbo University filed Critical Ningbo University
Priority to CN201810371453.3A priority Critical patent/CN108810512B/zh
Publication of CN108810512A publication Critical patent/CN108810512A/zh
Application granted granted Critical
Publication of CN108810512B publication Critical patent/CN108810512B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种基于对象的立体图像深度调整方法,其通过提取立体图像的左视点图像和右视点图像对应的总边缘保持能量、总对象控制能量、总深度控制能量和总背景保持能量,并通过优化使得总能量最小,获取最佳相似变换矩阵,这样可使得深度调整后的立体图像能够保留精确的对象形状、具有较高的舒适性和深度感,且可以根据用户的选择自适应地控制重要内容的缩放比例;其通过控制立体图像中的所有落在重要区域内和背景区域内的特征点的坐标位置,并进而控制四边形网格的形变,从而能够保证深度调整后的立体图像的舒适性和深度感。

Description

一种基于对象的立体图像深度调整方法
技术领域
本发明涉及一种图像信号的处理方法,尤其是涉及一种基于对象的立体图像深度调整方法。
背景技术
随着3D技术的快速发展,立体图像和立体视频越来越受到人们的关注和喜爱。特别是随着手机、平板和个人电脑的发展,移动端的显示越来越受到用户们的欢迎。然而,在移动端屏幕上显示立体图像和立体视频时,立体感会随之减弱甚至消失,电影制造者试图通过调整特定对象的大小和深度来使得观看者将注意力集中在该对象上,以提升该对象的立体感。因此,对于在移动端屏幕上显示立体图像和立体视频时,基于对象的深度调整可以增强该对象的关注度和深度感。
在立体图像的深度调整上,大致可分为两种方法:使用深度图进行深度调整和不使用深度图进行深度调整。前一类方法需要精确的深度图,并利用虚拟视点绘制技术来产生深度调整后的图像;后一类方法是直接通过对图像中的像素点搬移达到深度调整的目的的,然而该方法在深度调整后常常会产生空洞或者导致对象的形变,因此,如何减少深度调整后的立体图像的图像形变,如何根据用户的选择自适应地控制对象的调整以突出显著内容,都是在对立体图像进行深度调整过程中需要研究解决的问题。
发明内容
本发明所要解决的技术问题是提供一种基于对象的立体图像深度调整方法,其使得深度调整后的立体图像能够保留精确的对象形状、具有较高的舒适性和深度感,且可以根据用户的选择自适应地控制重要内容的缩放比例。
本发明解决上述技术问题所采用的技术方案为:一种基于对象的立体图像深度调整方法,其特征在于包括以下步骤:
步骤一:将待处理的宽度为W且高度为H的立体图像的左视点图像、右视点图像及左视差图像对应记为{L(x,y)}、{R(x,y)}及{dL(x,y)};其中,1≤x≤W,1≤y≤H,W和H均能被8整除,L(x,y)表示{L(x,y)}中坐标位置为(x,y)的像素点的像素值,R(x,y)表示{R(x,y)}中坐标位置为(x,y)的像素点的像素值,dL(x,y)表示{dL(x,y)}中坐标位置为(x,y)的像素点的像素值;
步骤二:将{L(x,y)}分割成个互不重叠的尺寸大小为8×8的四边形网格,将{L(x,y)}中的第k个四边形网格记为UL,k,并将{L(x,y)}中的所有四边形网格构成的集合记为VL,VL={UL,k|1≤k≤M};然后根据{L(x,y)}中的所有四边形网格和{dL(x,y)},获取{R(x,y)}中的所有互不重叠的尺寸大小为8×8的四边形网格,将{R(x,y)}中的第k个四边形网格记为UR,k,并将{R(x,y)}中的所有四边形网格构成的集合记为VR,VR={UR,k|1≤k≤M};其中,k为正整数,1≤k≤M,M表示{L(x,y)}中包含的四边形网格的总个数,也表示{R(x,y)}中包含的四边形网格的总个数,UL,k通过其左上、左下、右上和右下4个网格顶点的集合来描述, 对应表示UL,k的作为第1个网格顶点的左上网格顶点、作为第2个网格顶点的左下网格顶点、作为第3个网格顶点的右上网格顶点、作为第4个网格顶点的右下网格顶点,的水平坐标位置和垂直坐标位置来描述, 的水平坐标位置和垂直坐标位置来描述, 的水平坐标位置和垂直坐标位置来描述, 的水平坐标位置和垂直坐标位置来描述,UR,k通过其左上、左下、右上和右下4个网格顶点的集合来描述, 对应表示UR,k的作为第1个网格顶点的左上网格顶点、作为第2个网格顶点的左下网格顶点、作为第3个网格顶点的右上网格顶点、作为第4个网格顶点的右下网格顶点,的水平坐标位置和垂直坐标位置来描述, 表示{dL(x,y)}中坐标位置为的像素点的像素值,的水平坐标位置和垂直坐标位置来描述, 表示{dL(x,y)}中坐标位置为的像素点的像素值,的水平坐标位置和垂直坐标位置来描述, 表示{dL(x,y)}中坐标位置为的像素点的像素值,的水平坐标位置和垂直坐标位置来描述, 表示{dL(x,y)}中坐标位置为的像素点的像素值;
采用尺度不变特征转换提取出{L(x,y)}中的所有特征点;然后将{L(x,y)}中的第q个特征点记为 接着根据{L(x,y)}中的每个特征点和{dL(x,y)},获取{R(x,y)}中与{L(x,y)}中的每个特征点匹配的特征点,将{R(x,y)}中与匹配的特征点记为 其中,q为正整数,1≤q≤Q,Q表示{L(x,y)}中的特征点的总个数,也表示{R(x,y)}中的特征点的总个数,表示的横坐标位置,表示的纵坐标位置,表示的横坐标位置, 表示{dL(x,y)}中坐标位置为的像素点的像素值,表示的纵坐标位置,
步骤三:根据{L(x,y)}中的每个四边形网格的所有网格顶点的边缘组成的矩阵和{L(x,y)}中的每个四边形网格对应的目标四边形网格的所有网格顶点的边缘组成的矩阵、{R(x,y)}中的每个四边形网格的所有网格顶点的边缘组成的矩阵和{R(x,y)}中的每个四边形网格对应的目标四边形网格的所有网格顶点的边缘组成的矩阵,计算{L(x,y)}和{R(x,y)}中的所有四边形网格对应的目标四边形网格的总边缘保持能量,记为Eedge
根据用户选择的重要内容,计算{L(x,y)}和{R(x,y)}中落于用户选择的重要内容所在的矩形区域内的所有四边形网格对应的目标四边形网格的总对象控制能量,记为Eobject
根据{L(x,y)}和{R(x,y)}中落于用户选择的重要内容所在的矩形区域内的所有特征点,计算{L(x,y)}和{R(x,y)}中落于用户选择的重要内容所在的矩形区域内的所有四边形网格对应的目标四边形网格的总深度控制能量,记为Edepth
根据{L(x,y)}中落于背景区域内的所有特征点和对应的目标特征点、{R(x,y)}中落于背景区域内的所有特征点和对应的目标特征点,计算{L(x,y)}和{R(x,y)}中落于背景区域内的所有四边形网格对应的目标四边形网格的总背景保持能量,记为Eback;其中,背景区域为除用户选择的重要内容所在的矩形区域外的区域;
步骤四:根据Eedge、Eobject、Edepth和Eback,计算{L(x,y)}和{R(x,y)}中的所有四边形网格对应的目标四边形网格的总能量,记为Etotal,Etotal=Eedgeobject×Eobjectdepth×Edepthback×Eback;然后通过最小二乘优化求解得到{L(x,y)}中的所有四边形网格对应的最佳目标四边形网格构成的集合及{R(x,y)}中的所有四边形网格对应的最佳目标四边形网格构成的集合,对应记为 接着根据计算{L(x,y)}中的每个四边形网格对应的最佳目标四边形网格的最佳相似变换矩阵,将UL,k对应的最佳目标四边形网格的最佳相似变换矩阵记为 并根据计算{R(x,y)}中的每个四边形网格对应的最佳目标四边形网格的最佳相似变换矩阵,将UR,k对应的最佳目标四边形网格的最佳相似变换矩阵记为 其中,λobject为Eobject的加权参数,λdepth为Edepth的加权参数,λback为Eback的加权参数,min()为取最小值函数,表示{L(x,y)}中的所有四边形网格对应的目标四边形网格构成的集合,表示{R(x,y)}中的所有四边形网格对应的目标四边形网格构成的集合,表示UL,k对应的最佳目标四边形网格, 对应表示的第1个网格顶点、第2个网格顶点、第3个网格顶点、第4个网格顶点,表示UR,k对应的最佳目标四边形网格, 对应表示的第1个网格顶点、第2个网格顶点、第3个网格顶点、第4个网格顶点,(AL,k)T为AL,k的转置,((AL,k)TAL,k)-1为(AL,k)TAL,k的逆,对应表示的水平坐标位置和垂直坐标位置,对应表示的水平坐标位置和垂直坐标位置,对应表示的水平坐标位置和垂直坐标位置,对应表示的水平坐标位置和垂直坐标位置,(AR,k)T为AR,k的转置,((AR,k)TAR,k)-1为(AR,k)TAR,k的逆,对应表示的水平坐标位置和垂直坐标位置,对应表示的水平坐标位置和垂直坐标位置,对应表示的水平坐标位置和垂直坐标位置,对应表示的水平坐标位置和垂直坐标位置;
步骤五:根据{L(x,y)}中的每个四边形网格对应的最佳目标四边形网格的最佳相似变换矩阵,计算{L(x,y)}中的每个四边形网格中的每个像素点经最佳相似变换矩形变换后的水平坐标位置和垂直坐标位置,将UL,k中水平坐标位置为x'L,k和垂直坐标位置y'L,k的像素点经最佳相似变换矩阵变换后的水平坐标位置和垂直坐标位置对应记为 然后根据{L(x,y)}中的每个四边形网格中的每个像素点经最佳相似变换矩形变换后的水平坐标位置和垂直坐标位置,获取深度调整后的左视点图像,记为其中,1≤x'L,k≤W,1≤y'L,k≤H,1≤x'≤W',1≤y'≤H,W'表示深度调整后的立体图像的宽度,H亦为深度调整后的立体图像的高度,表示中坐标位置为(x',y')的像素点的像素值;
同样,根据{R(x,y)}中的每个四边形网格对应的最佳目标四边形网格的最佳相似变换矩阵,计算{R(x,y)}中的每个四边形网格中的每个像素点经最佳相似变换矩形变换后的水平坐标位置和垂直坐标位置,将UR,k中水平坐标位置为x'R,k和垂直坐标位置y'R,k的像素点经最佳相似变换矩阵变换后的水平坐标位置和垂直坐标位置对应记为 然后根据{R(x,y)}中的每个四边形网格中的每个像素点经最佳相似变换矩形变换后的水平坐标位置和垂直坐标位置,获取深度调整后的右视点图像,记为其中,1≤x'R,k≤W,1≤y'R,k≤H,1≤x'≤W',1≤y'≤H,表示中坐标位置为(x',y')的像素点的像素值。
所述的步骤三中的Eedge的计算过程为:
A1、计算{L(x,y)}中的所有四边形网格对应的目标四边形网格的边缘保持能量,记为 其中,eL,k表示UL,k的所有网格顶点的边缘组成的矩阵,(eL,k)T为eL,k的转置,((eL,k)TeL,k)-1为(eL,k)TeL,k的逆,表示的所有网格顶点的边缘组成的矩阵, 表示UL,k对应的目标四边形网格,通过其左上、左下、右上和右下4个网格顶点的集合来描述, 对应表示的作为第1个网格顶点的左上网格顶点、作为第2个网格顶点的左下网格顶点、作为第3个网格顶点的右上网格顶点、作为第4个网格顶点的右下网格顶点,的水平坐标位置和垂直坐标位置来描述, 的水平坐标位置和垂直坐标位置来描述, 的水平坐标位置和垂直坐标位置来描述, 的水平坐标位置和垂直坐标位置来描述,符号“|| ||”为求欧氏距离符号;
同样,计算{R(x,y)}中的所有四边形网格对应的目标四边形网格的边缘保持能量,记为 其中,eR,k表示UR,k的所有网格顶点的边缘组成的矩阵,(eR,k)T为eR,k的转置,((eR,k)TeR,k)-1为(eR,k)TeR,k的逆,表示的所有网格顶点的边缘组成的矩阵, 表示UR,k对应的目标四边形网格,通过其左上、左下、右上和右下4个网格顶点的集合来描述, 对应表示的作为第1个网格顶点的左上网格顶点、作为第2个网格顶点的左下网格顶点、作为第3个网格顶点的右上网格顶点、作为第4个网格顶点的右下网格顶点,的水平坐标位置和垂直坐标位置来描述, 的水平坐标位置和垂直坐标位置来描述, 的水平坐标位置和垂直坐标位置来描述, 的水平坐标位置和垂直坐标位置来描述,
A2、根据计算{L(x,y)}和{R(x,y)}中的所有四边形网格对应的目标四边形网格的总边缘保持能量Eedge
所述的步骤三中的Eobject的计算过程为:
其中,表示用户选择的重要内容所在的矩形区域范围,表示{L(x,y)}中在水平方向为第j个且在垂直方向为第i个的网格顶点的水平坐标位置,表示{L(x,y)}中在水平方向为第j+1个且在垂直方向为第i个的网格顶点的水平坐标位置,表示{L(x,y)}中在水平方向为第j个且在垂直方向为第i个的网格顶点在目标四边形网格中的网格顶点的水平坐标位置,表示{L(x,y)}中在水平方向为第j+1个且在垂直方向为第i个的网格顶点在目标四边形网格中的网格顶点的水平坐标位置,表示{R(x,y)}中在水平方向为第j个且在垂直方向为第i个的网格顶点的水平坐标位置,表示{R(x,y)}中在水平方向为第j+1个且在垂直方向为第i个的网格顶点的水平坐标位置,表示{R(x,y)}中在水平方向为第j个且在垂直方向为第i个的网格顶点在目标四边形网格中的网格顶点的水平坐标位置,表示{R(x,y)}中在水平方向为第j+1个且在垂直方向为第i个的网格顶点在目标四边形网格中的网格顶点的水平坐标位置,sx表示用户指定的重要内容的水平缩放因子。
所述的步骤三中的Edepth的计算过程为:
B1、计算{L(x,y)}中落于用户选择的重要内容所在的矩形区域内的所有特征点的舒适度保持能量,记为Ecomfort 其中,表示{L(x,y)}中落于用户选择的重要内容所在的矩形区域内的所有特征点重新编号后的序号构成的集合,表示{L(x,y)}中落于用户选择的重要内容所在的矩形区域内的第p个特征点的深度值,exp()表示以自然基数e为底的指数函数,符号“| |”为取绝对值符号,Zmax表示{L(x,y)}的最大深度值,Zmin表示{L(x,y)}的最小深度值,CVZmin表示最小舒适观看区域范围,He表示待处理的立体图像的左视点与右视点之间的水平基线距离,D表示待处理的立体图像的左视点和右视点与显示器之间的观看距离,Wd表示显示器的水平宽度,Rd表示显示器的水平分辨率,η1表示最小舒适观看视角,CVZmax表示最大舒适观看区域范围,η2表示最大舒适观看视角,表示{L(x,y)}中落于用户选择的重要内容所在的矩形区域内的第p个特征点的视差值,也表示{dL(x,y)}中坐标位置为落于用户选择的重要内容所在的矩形区域内的第p个特征点的像素点的像素值,表示的目标深度值;
B2、计算{L(x,y)}中落于用户选择的重要内容所在的矩形区域内的所有特征点的特征保持能量,记为Efeature其中,表示{L(x,y)}中落于用户选择的重要内容所在的矩形区域内与该矩形区域内的第p个特征点相邻的八邻域范围内的所有特征点重新编号后的序号构成的集合,表示{L(x,y)}中落于用户选择的重要内容所在的矩形区域内与该矩形区域内的第p个特征点相邻的八邻域范围内的第p'个特征点的深度值,表示的目标深度值;
B3、通过求解min(Ecomfortfeature×Efeature),得到{L(x,y)}中落于用户选择的重要内容所在的矩形区域内的所有特征点的最佳目标深度值集合,记为 的最佳目标深度值;然后根据获取{L(x,y)}中落于用户选择的重要内容所在的矩形区域内的所有特征点的最佳目标视差值集合,记为 的最佳目标视差值,其中,min()为取最小值函数,λfeature为Efeature的加权参数;
B4、根据计算{L(x,y)}和{R(x,y)}中落于用户选择的重要内容所在的矩形区域内的所有四边形网格对应的目标四边形网格的总深度控制能量Edepth
其中,符号“|| ||”为求欧氏距离符号,表示{L(x,y)}中落于用户选择的重要内容所在的矩形区域内的第p个特征点,表示{R(x,y)}中落于用户选择的重要内容所在的矩形区域内的第p个特征点,表示对应的目标特征点,表示对应的目标特征点,表示的横坐标位置,表示的横坐标位置,表示的横坐标位置,表示的横坐标位置,1≤i'≤4,1≤k'≤M,表示所在的四边形网格UL,k'的第i'个网格顶点,UL,k'为{L(x,y)}中的第k'个四边形网格,表示所在的四边形网格UL,k'的作为第1个网格顶点的左上网格顶点,表示所在的四边形网格UL,k'的作为第2个网格顶点的左下网格顶点,表示所在的四边形网格UL,k'的作为第3个网格顶点的右上网格顶点,表示所在的四边形网格UL,k'的作为第4个网格顶点的右下网格顶点,表示之间的欧氏距离,表示所在的目标四边形网格的第i'个网格顶点,为UL,k'对应的目标四边形网格,表示所在的目标四边形网格的作为第1个网格顶点的左上网格顶点,表示所在的目标四边形网格的作为第2个网格顶点的左下网格顶点,表示所在的目标四边形网格的作为第3个网格顶点的右上网格顶点,表示所在的目标四边形网格的作为第4个网格顶点的右下网格顶点,表示所在的四边形网格UR,k'的第i'个网格顶点,UR,k'为{R(x,y)}中的第k'个四边形网格,表示fRp所在的四边形网格UR,k'的作为第1个网格顶点的左上网格顶点,表示所在的四边形网格UR,k'的作为第2个网格顶点的左下网格顶点,表示所在的四边形网格UR,k'的作为第3个网格顶点的右上网格顶点,表示所在的四边形网格UR,k'的作为第4个网格顶点的右下网格顶点,表示之间的欧氏距离,表示所在的目标四边形网格的第i'个网格顶点,为UR,k'对应的目标四边形网格,表示特征点所在的目标四边形网格的作为第1个网格顶点的左上网格顶点,表示所在的目标四边形网格的作为第2个网格顶点的左下网格顶点,表示所在的目标四边形网格的作为第3个网格顶点的右上网格顶点,表示特征点所在的目标四边形网格的作为第4个网格顶点的右下网格顶点。
所述的步骤三中的Eback的计算过程为: 其中,表示{L(x,y)}和{R(x,y)}中落于背景区域内的所有特征点重新编号后的序号构成的集合,表示{L(x,y)}中落于背景区域内的第g个特征点,表示{R(x,y)}中落于背景区域内的第g个特征点,表示对应的目标特征点,表示对应的目标特征点,符号“|| ||”为求欧氏距离符号,1≤i'≤4,1≤k”≤M,表示所在的四边形网格UL,k”的第i'个网格顶点,UL,k”为{L(x,y)}中的第k”个四边形网格,表示所在的四边形网格UL,k”的作为第1个网格顶点的左上网格顶点,表示所在的四边形网格UL,k”的作为第2个网格顶点的左下网格顶点,表示所在的四边形网格UL,k”的作为第3个网格顶点的右上网格顶点,表示所在的四边形网格UL,k”的作为第4个网格顶点的右下网格顶点,表示之间的欧氏距离,表示所在的目标四边形网格的第i'个网格顶点,为UL,k”对应的目标四边形网格,表示所在的目标四边形网格的作为第1个网格顶点的左上网格顶点,表示所在的目标四边形网格的作为第2个网格顶点的左下网格顶点,表示所在的目标四边形网格的作为第3个网格顶点的右上网格顶点,表示所在的目标四边形网格的作为第4个网格顶点的右下网格顶点,表示所在的四边形网格UR,k”的第i'个网格顶点,UR,k”为{R(x,y)}中的第k”个四边形网格,表示所在的四边形网格UR,k”的作为第1个网格顶点的左上网格顶点,表示所在的四边形网格UR,k”的作为第2个网格顶点的左下网格顶点,表示所在的四边形网格UR,k”的作为第3个网格顶点的右上网格顶点,表示所在的四边形网格UR,k”的作为第4个网格顶点的右下网格顶点,表示之间的欧氏距离,表示所在的目标四边形网格的第i'个网格顶点,为UR,k”对应的目标四边形网格,表示所在的目标四边形网格的作为第1个网格顶点的左上网格顶点,表示特征点所在的目标四边形网格的作为第2个网格顶点的左下网格顶点,表示特征点所在的目标四边形网格的作为第3个网格顶点的右上网格顶点,表示特征点所在的目标四边形网格的作为第4个网格顶点的右下网格顶点。
与现有技术相比,本发明的优点在于:
1)本发明方法通过提取立体图像的左视点图像和右视点图像对应的总边缘保持能量、总对象控制能量、总深度控制能量和总背景保持能量,并通过优化使得总能量最小,获取最佳相似变换矩阵,这样可使得深度调整后的立体图像能够保留精确的对象形状、具有较高的舒适性和深度感,且可以根据用户的选择自适应地控制重要内容的缩放比例。
2)本发明方法通过控制立体图像中的所有落在重要区域内和背景区域内的特征点的坐标位置,并进而控制四边形网格的形变,从而能够保证深度调整后的立体图像的舒适性和深度感。
附图说明
图1为本发明方法的总体实现框图;
图2a为“Image1”的原始立体图像的“红/绿”图;
图2b为“Image1”的对象深度调整后的“红/绿”图;
图3a为“Image2”的原始立体图像的“红/绿”图;
图3b为“Image2”的对象深度调整后的“红/绿”图;
图4a为“Image3”的原始立体图像的“红/绿”图;
图4b为“Image3”的对象深度调整后的“红/绿”图;
图5a为“Image4”的原始立体图像的“红/绿”图;
图5b为“Image4”的对象深度调整后的“红/绿”图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明提出的一种基于对象的立体图像深度调整方法,其总体实现框图如图1所示,其包括以下步骤:
步骤一:将待处理的宽度为W且高度为H的立体图像的左视点图像、右视点图像及左视差图像对应记为{L(x,y)}、{R(x,y)}及{dL(x,y)};其中,1≤x≤W,1≤y≤H,W和H均能被8整除,L(x,y)表示{L(x,y)}中坐标位置为(x,y)的像素点的像素值,R(x,y)表示{R(x,y)}中坐标位置为(x,y)的像素点的像素值,dL(x,y)表示{dL(x,y)}中坐标位置为(x,y)的像素点的像素值。
步骤二:将{L(x,y)}分割成个互不重叠的尺寸大小为8×8的四边形网格,将{L(x,y)}中的第k个四边形网格记为UL,k,并将{L(x,y)}中的所有四边形网格构成的集合记为VL,VL={UL,k|1≤k≤M};然后根据{L(x,y)}中的所有四边形网格和{dL(x,y)},获取{R(x,y)}中的所有互不重叠的尺寸大小为8×8的四边形网格,将{R(x,y)}中的第k个四边形网格记为UR,k,并将{R(x,y)}中的所有四边形网格构成的集合记为VR,VR={UR,k|1≤k≤M};其中,k为正整数,1≤k≤M,M表示{L(x,y)}中包含的四边形网格的总个数,也表示{R(x,y)}中包含的四边形网格的总个数,UL,k通过其左上、左下、右上和右下4个网格顶点的集合来描述, 对应表示UL,k的作为第1个网格顶点的左上网格顶点、作为第2个网格顶点的左下网格顶点、作为第3个网格顶点的右上网格顶点、作为第4个网格顶点的右下网格顶点,的水平坐标位置和垂直坐标位置来描述, 的水平坐标位置和垂直坐标位置来描述, 的水平坐标位置和垂直坐标位置来描述, 的水平坐标位置和垂直坐标位置来描述,UR,k通过其左上、左下、右上和右下4个网格顶点的集合来描述, 对应表示UR,k的作为第1个网格顶点的左上网格顶点、作为第2个网格顶点的左下网格顶点、作为第3个网格顶点的右上网格顶点、作为第4个网格顶点的右下网格顶点,的水平坐标位置和垂直坐标位置来描述, 表示{dL(x,y)}中坐标位置为的像素点的像素值,的水平坐标位置和垂直坐标位置来描述, 表示{dL(x,y)}中坐标位置为的像素点的像素值,的水平坐标位置和垂直坐标位置来描述, 表示{dL(x,y)}中坐标位置为的像素点的像素值,的水平坐标位置和垂直坐标位置来描述, 表示{dL(x,y)}中坐标位置为的像素点的像素值。
采用现有的尺度不变特征转换(Scale Invariant Feature Transform,SIFT)提取出{L(x,y)}中的所有特征点;然后将{L(x,y)}中的第q个特征点记为 将{L(x,y)}中的所有特征点构成的集合记为接着根据{L(x,y)}中的每个特征点和{dL(x,y)},获取{R(x,y)}中与{L(x,y)}中的每个特征点匹配的特征点,将{R(x,y)}中与匹配的特征点记为 将{R(x,y)}中的所有特征点构成的集合记为其中,q为正整数,1≤q≤Q,Q表示{L(x,y)}中的特征点的总个数,也表示{R(x,y)}中的特征点的总个数,表示的横坐标位置,表示的纵坐标位置,表示的横坐标位置, 表示{dL(x,y)}中坐标位置为的像素点的像素值,表示的纵坐标位置,
步骤三:根据{L(x,y)}中的每个四边形网格的所有网格顶点的边缘组成的矩阵和{L(x,y)}中的每个四边形网格对应的目标四边形网格的所有网格顶点的边缘组成的矩阵、{R(x,y)}中的每个四边形网格的所有网格顶点的边缘组成的矩阵和{R(x,y)}中的每个四边形网格对应的目标四边形网格的所有网格顶点的边缘组成的矩阵,计算{L(x,y)}和{R(x,y)}中的所有四边形网格对应的目标四边形网格的总边缘保持能量,记为Eedge
在此具体实施例中,步骤三中的Eedge的计算过程为:
A1、计算{L(x,y)}中的所有四边形网格对应的目标四边形网格的边缘保持能量,记为 其中,eL,k表示UL,k的所有网格顶点的边缘组成的矩阵,(eL,k)T为eL,k的转置,((eL,k)TeL,k)-1为(eL,k)TeL,k的逆,表示的所有网格顶点的边缘组成的矩阵, 表示UL,k对应的目标四边形网格,通过其左上、左下、右上和右下4个网格顶点的集合来描述, 对应表示的作为第1个网格顶点的左上网格顶点、作为第2个网格顶点的左下网格顶点、作为第3个网格顶点的右上网格顶点、作为第4个网格顶点的右下网格顶点,的水平坐标位置和垂直坐标位置来描述, 的水平坐标位置和垂直坐标位置来描述, 的水平坐标位置和垂直坐标位置来描述, 的水平坐标位置和垂直坐标位置来描述,符号“||||”为求欧氏距离符号。
同样,计算{R(x,y)}中的所有四边形网格对应的目标四边形网格的边缘保持能量,记为 其中,eR,k表示UR,k的所有网格顶点的边缘组成的矩阵,(eR,k)T为eR,k的转置,((eR,k)TeR,k)-1为(eR,k)TeR,k的逆,表示的所有网格顶点的边缘组成的矩阵, 表示UR,k对应的目标四边形网格,通过其左上、左下、右上和右下4个网格顶点的集合来描述, 对应表示的作为第1个网格顶点的左上网格顶点、作为第2个网格顶点的左下网格顶点、作为第3个网格顶点的右上网格顶点、作为第4个网格顶点的右下网格顶点,的水平坐标位置和垂直坐标位置来描述, 的水平坐标位置和垂直坐标位置来描述, 的水平坐标位置和垂直坐标位置来描述, 的水平坐标位置和垂直坐标位置来描述,
A2、根据计算{L(x,y)}和{R(x,y)}中的所有四边形网格对应的目标四边形网格的总边缘保持能量Eedge
根据用户选择的重要内容,计算{L(x,y)}和{R(x,y)}中落于用户选择的重要内容所在的矩形区域内的所有四边形网格对应的目标四边形网格的总对象控制能量,记为Eobject
在此具体实施例中,步骤三中的Eobject的计算过程为:
其中,表示用户选择的重要内容所在的矩形区域范围,表示{L(x,y)}中在水平方向为第j个且在垂直方向为第i个的网格顶点的水平坐标位置,表示{L(x,y)}中在水平方向为第j+1个且在垂直方向为第i个的网格顶点的水平坐标位置,表示{L(x,y)}中在水平方向为第j个且在垂直方向为第i个的网格顶点在目标四边形网格中的网格顶点的水平坐标位置,表示{L(x,y)}中在水平方向为第j+1个且在垂直方向为第i个的网格顶点在目标四边形网格中的网格顶点的水平坐标位置,表示{R(x,y)}中在水平方向为第j个且在垂直方向为第i个的网格顶点的水平坐标位置,表示{R(x,y)}中在水平方向为第j+1个且在垂直方向为第i个的网格顶点的水平坐标位置,表示{R(x,y)}中在水平方向为第j个且在垂直方向为第i个的网格顶点在目标四边形网格中的网格顶点的水平坐标位置,表示{R(x,y)}中在水平方向为第j+1个且在垂直方向为第i个的网格顶点在目标四边形网格中的网格顶点的水平坐标位置,sx表示用户指定的重要内容的水平缩放因子,sx可以根据用户的需要进行设置,在本实施例中取sx=1.8,即调整后的重要内容尺寸为原始尺寸1.8倍。
根据{L(x,y)}和{R(x,y)}中落于用户选择的重要内容所在的矩形区域内的所有特征点,计算{L(x,y)}和{R(x,y)}中落于用户选择的重要内容所在的矩形区域内的所有四边形网格对应的目标四边形网格的总深度控制能量,记为Edepth
在此具体实施例中,步骤三中的Edepth的计算过程为:
B1、计算{L(x,y)}中落于用户选择的重要内容所在的矩形区域内的所有特征点的舒适度保持能量,记为Ecomfort 其中,表示{L(x,y)}中落于用户选择的重要内容所在的矩形区域内的所有特征点重新编号后的序号构成的集合,表示{L(x,y)}中落于用户选择的重要内容所在的矩形区域内的第p个特征点的深度值,exp()表示以自然基数e为底的指数函数,e=2.71828183…,符号“| |”为取绝对值符号,Zmax表示{L(x,y)}的最大深度值,Zmin表示{L(x,y)}的最小深度值,CVZmin表示最小舒适观看区域范围,He表示待处理的立体图像的左视点与右视点之间的水平基线距离,D表示待处理的立体图像的左视点和右视点与显示器之间的观看距离,Wd表示显示器的水平宽度,Rd表示显示器的水平分辨率,在本实施例中取He=65毫米、D=1200毫米、Wd=750毫米和Rd=1920毫米,η1表示最小舒适观看视角,在本实施例中取η1=-1o,CVZmax表示最大舒适观看区域范围,η2表示最大舒适观看视角,在本实施例中取η2=1o,表示{L(x,y)}中落于用户选择的重要内容所在的矩形区域内的第p个特征点的视差值,也表示{dL(x,y)}中坐标位置为落于用户选择的重要内容所在的矩形区域内的第p个特征点的像素点的像素值,表示的目标深度值。
B2、计算{L(x,y)}中落于用户选择的重要内容所在的矩形区域内的所有特征点的特征保持能量,记为Efeature其中,表示{L(x,y)}中落于用户选择的重要内容所在的矩形区域内与该矩形区域内的第p个特征点相邻的八邻域范围内的所有特征点重新编号后的序号构成的集合,表示{L(x,y)}中落于用户选择的重要内容所在的矩形区域内与该矩形区域内的第p个特征点相邻的八邻域范围内的第p'个特征点的深度值,表示的目标深度值。
B3、通过求解min(Ecomfortfeature×Efeature),得到{L(x,y)}中落于用户选择的重要内容所在的矩形区域内的所有特征点的最佳目标深度值集合,记为 的最佳目标深度值;然后根据获取{L(x,y)}中落于用户选择的重要内容所在的矩形区域内的所有特征点的最佳目标视差值集合,记为 的最佳目标视差值,其中,min()为取最小值函数,λfeature为Efeature的加权参数,在本实施例中取λfeature=0.4。
B4、根据计算{L(x,y)}和{R(x,y)}中落于用户选择的重要内容所在的矩形区域内的所有四边形网格对应的目标四边形网格的总深度控制能量Edepth
其中,符号“|| ||”为求欧氏距离符号,表示{L(x,y)}中落于用户选择的重要内容所在的矩形区域内的第p个特征点,表示{R(x,y)}中落于用户选择的重要内容所在的矩形区域内的第p个特征点,表示对应的目标特征点,表示对应的目标特征点,表示的横坐标位置,表示的横坐标位置,表示的横坐标位置,表示的横坐标位置,1≤i'≤4,1≤k'≤M,表示所在的四边形网格UL,k'的第i'个网格顶点,UL,k'为{L(x,y)}中的第k'个四边形网格,表示所在的四边形网格UL,k'的作为第1个网格顶点的左上网格顶点,表示所在的四边形网格UL,k'的作为第2个网格顶点的左下网格顶点,表示所在的四边形网格UL,k'的作为第3个网格顶点的右上网格顶点,表示所在的四边形网格UL,k'的作为第4个网格顶点的右下网格顶点,表示之间的欧氏距离,表示所在的目标四边形网格的第i'个网格顶点,为UL,k'对应的目标四边形网格,表示所在的目标四边形网格的作为第1个网格顶点的左上网格顶点,表示所在的目标四边形网格的作为第2个网格顶点的左下网格顶点,表示所在的目标四边形网格的作为第3个网格顶点的右上网格顶点,表示所在的目标四边形网格的作为第4个网格顶点的右下网格顶点,表示所在的四边形网格UR,k'的第i'个网格顶点,UR,k'为{R(x,y)}中的第k'个四边形网格,表示所在的四边形网格UR,k'的作为第1个网格顶点的左上网格顶点,表示所在的四边形网格UR,k'的作为第2个网格顶点的左下网格顶点,表示所在的四边形网格UR,k'的作为第3个网格顶点的右上网格顶点,表示所在的四边形网格UR,k'的作为第4个网格顶点的右下网格顶点,表示之间的欧氏距离,表示所在的目标四边形网格的第i'个网格顶点,为UR,k'对应的目标四边形网格,表示特征点所在的目标四边形网格的作为第1个网格顶点的左上网格顶点,表示所在的目标四边形网格的作为第2个网格顶点的左下网格顶点,表示所在的目标四边形网格的作为第3个网格顶点的右上网格顶点,表示特征点所在的目标四边形网格的作为第4个网格顶点的右下网格顶点。
根据{L(x,y)}中落于背景区域内的所有特征点和对应的目标特征点、{R(x,y)}中落于背景区域内的所有特征点和对应的目标特征点,计算{L(x,y)}和{R(x,y)}中落于背景区域内的所有四边形网格对应的目标四边形网格的总背景保持能量,记为Eback;其中,背景区域为除用户选择的重要内容所在的矩形区域外的区域。
在此具体实施例中,步骤三中的Eback的计算过程为:
其中,表示{L(x,y)}和{R(x,y)}中落于背景区域内的所有特征点重新编号后的序号构成的集合,表示{L(x,y)}中落于背景区域内的第g个特征点,表示{R(x,y)}中落于背景区域内的第g个特征点,表示对应的目标特征点,表示对应的目标特征点,符号“|| ||”为求欧氏距离符号,1≤i'≤4,1≤k”≤M,表示所在的四边形网格UL,k”的第i'个网格顶点,UL,k”为{L(x,y)}中的第k”个四边形网格,表示所在的四边形网格UL,k”的作为第1个网格顶点的左上网格顶点,表示所在的四边形网格UL,k”的作为第2个网格顶点的左下网格顶点,表示所在的四边形网格UL,k”的作为第3个网格顶点的右上网格顶点,表示所在的四边形网格UL,k”的作为第4个网格顶点的右下网格顶点,表示之间的欧氏距离,表示所在的目标四边形网格的第i'个网格顶点,为UL,k”对应的目标四边形网格,表示所在的目标四边形网格的作为第1个网格顶点的左上网格顶点,表示所在的目标四边形网格的作为第2个网格顶点的左下网格顶点,表示所在的目标四边形网格的作为第3个网格顶点的右上网格顶点,表示所在的目标四边形网格的作为第4个网格顶点的右下网格顶点,表示所在的四边形网格UR,k”的第i'个网格顶点,UR,k”为{R(x,y)}中的第k”个四边形网格,表示所在的四边形网格UR,k”的作为第1个网格顶点的左上网格顶点,表示所在的四边形网格UR,k”的作为第2个网格顶点的左下网格顶点,表示所在的四边形网格UR,k”的作为第3个网格顶点的右上网格顶点,表示所在的四边形网格UR,k”的作为第4个网格顶点的右下网格顶点,表示之间的欧氏距离,表示所在的目标四边形网格的第i'个网格顶点,为UR,k”对应的目标四边形网格,表示所在的目标四边形网格的作为第1个网格顶点的左上网格顶点,表示特征点所在的目标四边形网格的作为第2个网格顶点的左下网格顶点,表示特征点所在的目标四边形网格的作为第3个网格顶点的右上网格顶点,表示特征点所在的目标四边形网格的作为第4个网格顶点的右下网格顶点。
步骤四:根据Eedge、Eobject、Edepth和Eback,计算{L(x,y)}和{R(x,y)}中的所有四边形网格对应的目标四边形网格的总能量,记为Etotal,Etotal=Eedgeobject×Eobjectdepth×Edepthback×Eback;然后通过最小二乘优化求解得到{L(x,y)}中的所有四边形网格对应的最佳目标四边形网格构成的集合及{R(x,y)}中的所有四边形网格对应的最佳目标四边形网格构成的集合,对应记为 接着根据计算{L(x,y)}中的每个四边形网格对应的最佳目标四边形网格的最佳相似变换矩阵,将UL,k对应的最佳目标四边形网格的最佳相似变换矩阵记为 并根据计算{R(x,y)}中的每个四边形网格对应的最佳目标四边形网格的最佳相似变换矩阵,将UR,k对应的最佳目标四边形网格的最佳相似变换矩阵记为 其中,λobject为Eobject的加权参数,λdepth为Edepth的加权参数,λback为Eback的加权参数,在本实施例中取λobject=4、λdepth=8、λback=4,min()为取最小值函数,表示{L(x,y)}中的所有四边形网格对应的目标四边形网格构成的集合,表示{R(x,y)}中的所有四边形网格对应的目标四边形网格构成的集合,表示UL,k对应的最佳目标四边形网格,通过其左上、左下、右上和右下4个网格顶点的集合来描述, 对应表示的第1个网格顶点、第2个网格顶点、第3个网格顶点、第4个网格顶点,表示UR,k对应的最佳目标四边形网格,通过其左上、左下、右上和右下4个网格顶点的集合来描述, 对应表示的第1个网格顶点、第2个网格顶点、第3个网格顶点、第4个网格顶点,(AL,k)T为AL,k的转置,((AL,k)TAL,k)-1为(AL,k)TAL,k的逆,对应表示的水平坐标位置和垂直坐标位置,对应表示的水平坐标位置和垂直坐标位置,对应表示的水平坐标位置和垂直坐标位置,对应表示的水平坐标位置和垂直坐标位置,(AR,k)T为AR,k的转置,((AR,k)TAR,k)-1为(AR,k)TAR,k的逆,对应表示的水平坐标位置和垂直坐标位置,对应表示的水平坐标位置和垂直坐标位置,对应表示的水平坐标位置和垂直坐标位置,对应表示的水平坐标位置和垂直坐标位置。
步骤五:根据{L(x,y)}中的每个四边形网格对应的最佳目标四边形网格的最佳相似变换矩阵,计算{L(x,y)}中的每个四边形网格中的每个像素点经最佳相似变换矩形变换后的水平坐标位置和垂直坐标位置,将UL,k中水平坐标位置为x'L,k和垂直坐标位置y'L,k的像素点经最佳相似变换矩阵变换后的水平坐标位置和垂直坐标位置对应记为 然后根据{L(x,y)}中的每个四边形网格中的每个像素点经最佳相似变换矩形变换后的水平坐标位置和垂直坐标位置,获取深度调整后的左视点图像,记为其中,1≤x'L,k≤W,1≤y'L,k≤H,1≤x'≤W',1≤y'≤H,W'表示深度调整后的立体图像的宽度,H亦为深度调整后的立体图像的高度,表示中坐标位置为(x',y')的像素点的像素值。
同样,根据{R(x,y)}中的每个四边形网格对应的最佳目标四边形网格的最佳相似变换矩阵,计算{R(x,y)}中的每个四边形网格中的每个像素点经最佳相似变换矩形变换后的水平坐标位置和垂直坐标位置,将UR,k中水平坐标位置为x'R,k和垂直坐标位置y'R,k的像素点经最佳相似变换矩阵变换后的水平坐标位置和垂直坐标位置对应记为 然后根据{R(x,y)}中的每个四边形网格中的每个像素点经最佳相似变换矩形变换后的水平坐标位置和垂直坐标位置,获取深度调整后的右视点图像,记为其中,1≤x'R,k≤W,1≤y'R,k≤H,1≤x'≤W',1≤y'≤H,表示中坐标位置为(x',y')的像素点的像素值。
为了进一步说明本发明方法的可行性和有效性,对本发明方法进行试验。
以下就利用本发明方法对Image1、Image2、Image3和Image4四幅立体图像进行对象深度调整实验。图2a给出了“Image1”的原始立体图像的“红/绿”图,图2b给出了“Image1”的对象深度调整后的“红/绿”图;图3a给出了“Image2”的原始立体图像的“红/绿”图,图3b给出了“Image2”的对象深度调整后的“红/绿”图;图4a给出了“Image3”的原始立体图像的“红/绿”图,图4b给出了“Image3”的对象深度调整后的“红/绿”图;图5a给出了“Image4”的原始立体图像的“红/绿”图,图5b给出了“Image4”的对象深度调整后的“红/绿”图。从图2a至图5b中可以看出,采用本发明方法得到的深度调整后的立体图像能够较好地保留对象形状,且可以根据用户的选择增加重要对象的尺寸。

Claims (5)

1.一种基于对象的立体图像深度调整方法,其特征在于包括以下步骤:
步骤一:将待处理的宽度为W且高度为H的立体图像的左视点图像、右视点图像及左视差图像对应记为{L(x,y)}、{R(x,y)}及{dL(x,y)};其中,1≤x≤W,1≤y≤H,W和H均能被8整除,L(x,y)表示{L(x,y)}中坐标位置为(x,y)的像素点的像素值,R(x,y)表示{R(x,y)}中坐标位置为(x,y)的像素点的像素值,dL(x,y)表示{dL(x,y)}中坐标位置为(x,y)的像素点的像素值;
步骤二:将{L(x,y)}分割成个互不重叠的尺寸大小为8×8的四边形网格,将{L(x,y)}中的第k个四边形网格记为UL,k,并将{L(x,y)}中的所有四边形网格构成的集合记为VL,VL={UL,k|1≤k≤M};然后根据{L(x,y)}中的所有四边形网格和{dL(x,y)},获取{R(x,y)}中的所有互不重叠的尺寸大小为8×8的四边形网格,将{R(x,y)}中的第k个四边形网格记为UR,k,并将{R(x,y)}中的所有四边形网格构成的集合记为VR,VR={UR,k|1≤k≤M};其中,k为正整数,1≤k≤M,M表示{L(x,y)}中包含的四边形网格的总个数,也表示{R(x,y)}中包含的四边形网格的总个数,UL,k通过其左上、左下、右上和右下4个网格顶点的集合来描述, 对应表示UL,k的作为第1个网格顶点的左上网格顶点、作为第2个网格顶点的左下网格顶点、作为第3个网格顶点的右上网格顶点、作为第4个网格顶点的右下网格顶点,的水平坐标位置和垂直坐标位置来描述, 的水平坐标位置和垂直坐标位置来描述, 的水平坐标位置和垂直坐标位置来描述, 的水平坐标位置和垂直坐标位置来描述,UR,k通过其左上、左下、右上和右下4个网格顶点的集合来描述, 对应表示UR,k的作为第1个网格顶点的左上网格顶点、作为第2个网格顶点的左下网格顶点、作为第3个网格顶点的右上网格顶点、作为第4个网格顶点的右下网格顶点,的水平坐标位置和垂直坐标位置来描述, 表示{dL(x,y)}中坐标位置为的像素点的像素值,的水平坐标位置和垂直坐标位置来描述, 表示{dL(x,y)}中坐标位置为的像素点的像素值,的水平坐标位置和垂直坐标位置来描述, 表示{dL(x,y)}中坐标位置为的像素点的像素值,的水平坐标位置和垂直坐标位置来描述, 表示{dL(x,y)}中坐标位置为的像素点的像素值;
采用尺度不变特征转换提取出{L(x,y)}中的所有特征点;然后将{L(x,y)}中的第q个特征点记为 接着根据{L(x,y)}中的每个特征点和{dL(x,y)},获取{R(x,y)}中与{L(x,y)}中的每个特征点匹配的特征点,将{R(x,y)}中与匹配的特征点记为 其中,q为正整数,1≤q≤Q,Q表示{L(x,y)}中的特征点的总个数,也表示{R(x,y)}中的特征点的总个数,表示的横坐标位置,表示的纵坐标位置,表示的横坐标位置, 表示{dL(x,y)}中坐标位置为的像素点的像素值,表示的纵坐标位置,
步骤三:根据{L(x,y)}中的每个四边形网格的所有网格顶点的边缘组成的矩阵和{L(x,y)}中的每个四边形网格对应的目标四边形网格的所有网格顶点的边缘组成的矩阵、{R(x,y)}中的每个四边形网格的所有网格顶点的边缘组成的矩阵和{R(x,y)}中的每个四边形网格对应的目标四边形网格的所有网格顶点的边缘组成的矩阵,计算{L(x,y)}和{R(x,y)}中的所有四边形网格对应的目标四边形网格的总边缘保持能量,记为Eedge
根据用户选择的重要内容,计算{L(x,y)}和{R(x,y)}中落于用户选择的重要内容所在的矩形区域内的所有四边形网格对应的目标四边形网格的总对象控制能量,记为Eobject
根据{L(x,y)}和{R(x,y)}中落于用户选择的重要内容所在的矩形区域内的所有特征点,计算{L(x,y)}和{R(x,y)}中落于用户选择的重要内容所在的矩形区域内的所有四边形网格对应的目标四边形网格的总深度控制能量,记为Edepth
根据{L(x,y)}中落于背景区域内的所有特征点和对应的目标特征点、{R(x,y)}中落于背景区域内的所有特征点和对应的目标特征点,计算{L(x,y)}和{R(x,y)}中落于背景区域内的所有四边形网格对应的目标四边形网格的总背景保持能量,记为Eback;其中,背景区域为除用户选择的重要内容所在的矩形区域外的区域;
步骤四:根据Eedge、Eobject、Edepth和Eback,计算{L(x,y)}和{R(x,y)}中的所有四边形网格对应的目标四边形网格的总能量,记为Etotal,Etotal=Eedgeobject×Eobjectdepth×Edepthback×Eback;然后通过最小二乘优化求解得到{L(x,y)}中的所有四边形网格对应的最佳目标四边形网格构成的集合及{R(x,y)}中的所有四边形网格对应的最佳目标四边形网格构成的集合,对应记为接着根据计算{L(x,y)}中的每个四边形网格对应的最佳目标四边形网格的最佳相似变换矩阵,将UL,k对应的最佳目标四边形网格的最佳相似变换矩阵记为 并根据计算{R(x,y)}中的每个四边形网格对应的最佳目标四边形网格的最佳相似变换矩阵,将UR,k对应的最佳目标四边形网格的最佳相似变换矩阵记为 其中,λobject为Eobject的加权参数,λdepth为Edepth的加权参数,λback为Eback的加权参数,min()为取最小值函数,表示{L(x,y)}中的所有四边形网格对应的目标四边形网格构成的集合,表示{R(x,y)}中的所有四边形网格对应的目标四边形网格构成的集合,表示UL,k对应的最佳目标四边形网格,对应表示的第1个网格顶点、第2个网格顶点、第3个网格顶点、第4个网格顶点,表示UR,k对应的最佳目标四边形网格, 对应表示的第1个网格顶点、第2个网格顶点、第3个网格顶点、第4个网格顶点,(AL,k)T为AL,k的转置,((AL,k)TAL,k)-1为(AL,k)TAL,k的逆,对应表示的水平坐标位置和垂直坐标位置,对应表示的水平坐标位置和垂直坐标位置,对应表示的水平坐标位置和垂直坐标位置,对应表示的水平坐标位置和垂直坐标位置,(AR,k)T为AR,k的转置,((AR,k)TAR,k)-1为(AR,k)TAR,k的逆,对应表示的水平坐标位置和垂直坐标位置,对应表示的水平坐标位置和垂直坐标位置,对应表示的水平坐标位置和垂直坐标位置,对应表示的水平坐标位置和垂直坐标位置;
步骤五:根据{L(x,y)}中的每个四边形网格对应的最佳目标四边形网格的最佳相似变换矩阵,计算{L(x,y)}中的每个四边形网格中的每个像素点经最佳相似变换矩形变换后的水平坐标位置和垂直坐标位置,将UL,k中水平坐标位置为x'L,k和垂直坐标位置y'L,k的像素点经最佳相似变换矩阵变换后的水平坐标位置和垂直坐标位置对应记为然后根据{L(x,y)}中的每个四边形网格中的每个像素点经最佳相似变换矩形变换后的水平坐标位置和垂直坐标位置,获取深度调整后的左视点图像,记为其中,1≤x'L,k≤W,1≤y'L,k≤H,1≤x'≤W',1≤y'≤H,W'表示深度调整后的立体图像的宽度,H亦为深度调整后的立体图像的高度,表示中坐标位置为(x',y')的像素点的像素值;
同样,根据{R(x,y)}中的每个四边形网格对应的最佳目标四边形网格的最佳相似变换矩阵,计算{R(x,y)}中的每个四边形网格中的每个像素点经最佳相似变换矩形变换后的水平坐标位置和垂直坐标位置,将UR,k中水平坐标位置为x'R,k和垂直坐标位置y'R,k的像素点经最佳相似变换矩阵变换后的水平坐标位置和垂直坐标位置对应记为然后根据{R(x,y)}中的每个四边形网格中的每个像素点经最佳相似变换矩形变换后的水平坐标位置和垂直坐标位置,获取深度调整后的右视点图像,记为其中,1≤x'R,k≤W,1≤y'R,k≤H,1≤x'≤W',1≤y'≤H,表示中坐标位置为(x',y')的像素点的像素值。
2.根据权利要求1所述的一种基于对象的立体图像深度调整方法,其特征在于所述的步骤三中的Eedge的计算过程为:
A1、计算{L(x,y)}中的所有四边形网格对应的目标四边形网格的边缘保持能量,记为其中,eL,k表示UL,k的所有网格顶点的边缘组成的矩阵,(eL,k)T为eL,k的转置,((eL,k)TeL,k)-1为(eL,k)TeL,k的逆,表示的所有网格顶点的边缘组成的矩阵, 表示UL,k对应的目标四边形网格,通过其左上、左下、右上和右下4个网格顶点的集合来描述, 对应表示的作为第1个网格顶点的左上网格顶点、作为第2个网格顶点的左下网格顶点、作为第3个网格顶点的右上网格顶点、作为第4个网格顶点的右下网格顶点,的水平坐标位置和垂直坐标位置来描述, 的水平坐标位置和垂直坐标位置来描述, 的水平坐标位置和垂直坐标位置来描述, 的水平坐标位置和垂直坐标位置来描述,符号“|| ||”为求欧氏距离符号;
同样,计算{R(x,y)}中的所有四边形网格对应的目标四边形网格的边缘保持能量,记为其中,eR,k表示UR,k的所有网格顶点的边缘组成的矩阵,(eR,k)T为eR,k的转置,((eR,k)TeR,k)-1为(eR,k)TeR,k的逆,表示的所有网格顶点的边缘组成的矩阵, 表示UR,k对应的目标四边形网格,通过其左上、左下、右上和右下4个网格顶点的集合来描述, 对应表示的作为第1个网格顶点的左上网格顶点、作为第2个网格顶点的左下网格顶点、作为第3个网格顶点的右上网格顶点、作为第4个网格顶点的右下网格顶点,的水平坐标位置和垂直坐标位置来描述, 的水平坐标位置和垂直坐标位置来描述,的水平坐标位置和垂直坐标位置来描述,的水平坐标位置和垂直坐标位置来描述,
A2、根据计算{L(x,y)}和{R(x,y)}中的所有四边形网格对应的目标四边形网格的总边缘保持能量Eedge
3.根据权利要求2所述的一种基于对象的立体图像深度调整方法,其特征在于所述的步骤三中的Eobject的计算过程为:
其中,表示用户选择的重要内容所在的矩形区域范围,表示{L(x,y)}中在水平方向为第j个且在垂直方向为第i个的网格顶点的水平坐标位置,表示{L(x,y)}中在水平方向为第j+1个且在垂直方向为第i个的网格顶点的水平坐标位置,表示{L(x,y)}中在水平方向为第j个且在垂直方向为第i个的网格顶点在目标四边形网格中的网格顶点的水平坐标位置,表示{L(x,y)}中在水平方向为第j+1个且在垂直方向为第i个的网格顶点在目标四边形网格中的网格顶点的水平坐标位置,表示{R(x,y)}中在水平方向为第j个且在垂直方向为第i个的网格顶点的水平坐标位置,表示{R(x,y)}中在水平方向为第j+1个且在垂直方向为第i个的网格顶点的水平坐标位置,表示{R(x,y)}中在水平方向为第j个且在垂直方向为第i个的网格顶点在目标四边形网格中的网格顶点的水平坐标位置,表示{R(x,y)}中在水平方向为第j+1个且在垂直方向为第i个的网格顶点在目标四边形网格中的网格顶点的水平坐标位置,sx表示用户指定的重要内容的水平缩放因子。
4.根据权利要求3所述的一种基于对象的立体图像深度调整方法,其特征在于所述的步骤三中的Edepth的计算过程为:
B1、计算{L(x,y)}中落于用户选择的重要内容所在的矩形区域内的所有特征点的舒适度保持能量,记为Ecomfort 其中,表示{L(x,y)}中落于用户选择的重要内容所在的矩形区域内的所有特征点重新编号后的序号构成的集合,表示{L(x,y)}中落于用户选择的重要内容所在的矩形区域内的第p个特征点的深度值,exp()表示以自然基数e为底的指数函数,符号“| |”为取绝对值符号,Zmax表示{L(x,y)}的最大深度值,Zmin表示{L(x,y)}的最小深度值,CVZmin表示最小舒适观看区域范围,He表示待处理的立体图像的左视点与右视点之间的水平基线距离,D表示待处理的立体图像的左视点和右视点与显示器之间的观看距离,Wd表示显示器的水平宽度,Rd表示显示器的水平分辨率,η1表示最小舒适观看视角,CVZmax表示最大舒适观看区域范围,η2表示最大舒适观看视角,表示{L(x,y)}中落于用户选择的重要内容所在的矩形区域内的第p个特征点的视差值,也表示{dL(x,y)}中坐标位置为落于用户选择的重要内容所在的矩形区域内的第p个特征点的像素点的像素值,表示的目标深度值;
B2、计算{L(x,y)}中落于用户选择的重要内容所在的矩形区域内的所有特征点的特征保持能量,记为Efeature其中,表示{L(x,y)}中落于用户选择的重要内容所在的矩形区域内与该矩形区域内的第p个特征点相邻的八邻域范围内的所有特征点重新编号后的序号构成的集合,表示{L(x,y)}中落于用户选择的重要内容所在的矩形区域内与该矩形区域内的第p个特征点相邻的八邻域范围内的第p'个特征点的深度值,表示的目标深度值;
B3、通过求解min(Ecomfortfeature×Efeature),得到{L(x,y)}中落于用户选择的重要内容所在的矩形区域内的所有特征点的最佳目标深度值集合,记为的最佳目标深度值;然后根据获取{L(x,y)}中落于用户选择的重要内容所在的矩形区域内的所有特征点的最佳目标视差值集合,记为的最佳目标视差值,其中,min()为取最小值函数,λfeature为Efeature的加权参数;
B4、根据计算{L(x,y)}和{R(x,y)}中落于用户选择的重要内容所在的矩形区域内的所有四边形网格对应的目标四边形网格的总深度控制能量Edepth 其中,符号“|| ||”为求欧氏距离符号,表示{L(x,y)}中落于用户选择的重要内容所在的矩形区域内的第p个特征点,表示{R(x,y)}中落于用户选择的重要内容所在的矩形区域内的第p个特征点,表示对应的目标特征点,表示对应的目标特征点,表示的横坐标位置,表示的横坐标位置,表示的横坐标位置,表示的横坐标位置,1≤i'≤4,1≤k'≤M,表示所在的四边形网格UL,k'的第i'个网格顶点,UL,k'为{L(x,y)}中的第k'个四边形网格,表示所在的四边形网格UL,k'的作为第1个网格顶点的左上网格顶点,表示所在的四边形网格UL,k'的作为第2个网格顶点的左下网格顶点,表示所在的四边形网格UL,k'的作为第3个网格顶点的右上网格顶点,表示所在的四边形网格UL,k'的作为第4个网格顶点的右下网格顶点,表示之间的欧氏距离,表示所在的目标四边形网格的第i'个网格顶点,为UL,k'对应的目标四边形网格,表示所在的目标四边形网格的作为第1个网格顶点的左上网格顶点,表示所在的目标四边形网格的作为第2个网格顶点的左下网格顶点,表示所在的目标四边形网格的作为第3个网格顶点的右上网格顶点,表示所在的目标四边形网格的作为第4个网格顶点的右下网格顶点,表示所在的四边形网格UR,k'的第i'个网格顶点,UR,k'为{R(x,y)}中的第k'个四边形网格,表示所在的四边形网格UR,k'的作为第1个网格顶点的左上网格顶点,表示所在的四边形网格UR,k'的作为第2个网格顶点的左下网格顶点,表示所在的四边形网格UR,k'的作为第3个网格顶点的右上网格顶点,表示所在的四边形网格UR,k'的作为第4个网格顶点的右下网格顶点,表示之间的欧氏距离,表示所在的目标四边形网格的第i'个网格顶点,为UR,k'对应的目标四边形网格,表示特征点所在的目标四边形网格的作为第1个网格顶点的左上网格顶点,表示所在的目标四边形网格的作为第2个网格顶点的左下网格顶点,表示所在的目标四边形网格的作为第3个网格顶点的右上网格顶点,表示特征点所在的目标四边形网格的作为第4个网格顶点的右下网格顶点。
5.根据权利要求4所述的一种基于对象的立体图像深度调整方法,其特征在于所述的步骤三中的Eback的计算过程为: 其中,表示{L(x,y)}和{R(x,y)}中落于背景区域内的所有特征点重新编号后的序号构成的集合,表示{L(x,y)}中落于背景区域内的第g个特征点,表示{R(x,y)}中落于背景区域内的第g个特征点,表示对应的目标特征点,表示对应的目标特征点,符号“|| ||”为求欧氏距离符号,1≤i'≤4,1≤k”≤M,表示所在的四边形网格UL,k”的第i'个网格顶点,UL,k”为{L(x,y)}中的第k”个四边形网格,表示所在的四边形网格UL,k”的作为第1个网格顶点的左上网格顶点,表示所在的四边形网格UL,k”的作为第2个网格顶点的左下网格顶点,表示所在的四边形网格UL,k”的作为第3个网格顶点的右上网格顶点,表示所在的四边形网格UL,k”的作为第4个网格顶点的右下网格顶点,表示之间的欧氏距离,表示所在的目标四边形网格的第i'个网格顶点,为UL,k”对应的目标四边形网格,表示所在的目标四边形网格的作为第1个网格顶点的左上网格顶点,表示所在的目标四边形网格的作为第2个网格顶点的左下网格顶点,表示所在的目标四边形网格的作为第3个网格顶点的右上网格顶点,表示所在的目标四边形网格的作为第4个网格顶点的右下网格顶点,表示所在的四边形网格UR,k”的第i'个网格顶点,UR,k”为{R(x,y)}中的第k”个四边形网格,表示所在的四边形网格UR,k”的作为第1个网格顶点的左上网格顶点,表示所在的四边形网格UR,k”的作为第2个网格顶点的左下网格顶点,表示所在的四边形网格UR,k”的作为第3个网格顶点的右上网格顶点,表示所在的四边形网格UR,k”的作为第4个网格顶点的右下网格顶点,表示之间的欧氏距离,表示所在的目标四边形网格的第i'个网格顶点,为UR,k”对应的目标四边形网格,表示所在的目标四边形网格的作为第1个网格顶点的左上网格顶点,表示特征点所在的目标四边形网格的作为第2个网格顶点的左下网格顶点,表示特征点所在的目标四边形网格的作为第3个网格顶点的右上网格顶点,表示特征点所在的目标四边形网格的作为第4个网格顶点的右下网格顶点。
CN201810371453.3A 2018-04-24 2018-04-24 一种基于对象的立体图像深度调整方法 Active CN108810512B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810371453.3A CN108810512B (zh) 2018-04-24 2018-04-24 一种基于对象的立体图像深度调整方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810371453.3A CN108810512B (zh) 2018-04-24 2018-04-24 一种基于对象的立体图像深度调整方法

Publications (2)

Publication Number Publication Date
CN108810512A true CN108810512A (zh) 2018-11-13
CN108810512B CN108810512B (zh) 2019-09-03

Family

ID=64093825

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810371453.3A Active CN108810512B (zh) 2018-04-24 2018-04-24 一种基于对象的立体图像深度调整方法

Country Status (1)

Country Link
CN (1) CN108810512B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111556304A (zh) * 2020-04-22 2020-08-18 浙江未来技术研究院(嘉兴) 一种全景影像处理方法、装置及系统
CN112702590A (zh) * 2020-12-07 2021-04-23 宁波大学 一种立体图像变焦方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130129195A1 (en) * 2011-11-17 2013-05-23 Industrial Technology Research Institute Image processing method and apparatus using the same
CN104301704A (zh) * 2013-07-17 2015-01-21 宏达国际电子股份有限公司 内容感知显示适应方法
CN104601979A (zh) * 2013-10-31 2015-05-06 三星电子株式会社 多视点图像显示设备及其控制方法
WO2015148604A1 (en) * 2014-03-25 2015-10-01 Massachusetts Institute Of Technology Space-time modulated active 3d imager
CN106570900A (zh) * 2016-10-11 2017-04-19 宁波大学 一种立体图像重定位方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130129195A1 (en) * 2011-11-17 2013-05-23 Industrial Technology Research Institute Image processing method and apparatus using the same
CN104301704A (zh) * 2013-07-17 2015-01-21 宏达国际电子股份有限公司 内容感知显示适应方法
CN104601979A (zh) * 2013-10-31 2015-05-06 三星电子株式会社 多视点图像显示设备及其控制方法
WO2015148604A1 (en) * 2014-03-25 2015-10-01 Massachusetts Institute Of Technology Space-time modulated active 3d imager
CN106570900A (zh) * 2016-10-11 2017-04-19 宁波大学 一种立体图像重定位方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
林文崇: "《一种基于人眼视觉注意力的三维视频重定向方法》", 《光电子.激光》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111556304A (zh) * 2020-04-22 2020-08-18 浙江未来技术研究院(嘉兴) 一种全景影像处理方法、装置及系统
CN111556304B (zh) * 2020-04-22 2021-12-31 浙江未来技术研究院(嘉兴) 一种全景影像处理方法、装置及系统
CN112702590A (zh) * 2020-12-07 2021-04-23 宁波大学 一种立体图像变焦方法
CN112702590B (zh) * 2020-12-07 2022-07-22 宁波大学 一种立体图像变焦方法

Also Published As

Publication number Publication date
CN108810512B (zh) 2019-09-03

Similar Documents

Publication Publication Date Title
CN102741879B (zh) 由单眼图像产生深度图的方法及其系统
CN101635859B (zh) 一种实现平面视频转立体视频的方法和装置
CN107105214B (zh) 一种三维视频图像重定位方法
JP2012521708A (ja) 色周波数に基づく顕著性マップを用いて画像を修正する方法及び装置
CN102098528B (zh) 一种平面图像的立体转换方法及装置
CN106570900B (zh) 一种立体图像重定位方法
Mao et al. Expansion hole filling in depth-image-based rendering using graph-based interpolation
WO2020186385A1 (zh) 图像处理方法、电子设备及计算机可读存储介质
CN108765317A (zh) 一种时空一致性与特征中心emd自适应视频稳定的联合优化方法
CN101729920A (zh) 一种自由视角立体视频显示方法
KR20100109069A (ko) 시각적 관심맵 생성 장치 및 방법
CN108810512B (zh) 一种基于对象的立体图像深度调整方法
CN111683221B (zh) 嵌入矢量红线数据的自然资源实时视频监测方法及系统
CN108307170B (zh) 一种立体图像重定位方法
CN109413404B (zh) 一种立体图像变焦方法
CN109257591A (zh) 基于稀疏表示的无参考立体视频质量客观评价方法
CN112449170B (zh) 一种立体视频重定位方法
CN108833876B (zh) 一种立体图像内容重组方法
Li et al. Region-based depth-preserving stereoscopic image retargeting
CN110149509B (zh) 一种立体视频重定位方法
CN112702590B (zh) 一种立体图像变焦方法
Yao et al. Real-time stereo to multi-view conversion system based on adaptive meshing
CN112672048A (zh) 一种基于双目图像和神经网络算法的图像处理方法
Zhao et al. Stripe sensitive convolution for omnidirectional image dehazing
JP5047381B1 (ja) 映像生成装置、映像表示装置、テレビ受像装置、映像生成方法及びコンピュータプログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20220616

Address after: Room 2202, 22 / F, Wantong building, No. 3002, Sungang East Road, Sungang street, Luohu District, Shenzhen City, Guangdong Province

Patentee after: Shenzhen dragon totem technology achievement transformation Co.,Ltd.

Address before: 315211, Fenghua Road, Jiangbei District, Zhejiang, Ningbo 818

Patentee before: Ningbo University

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20220714

Address after: 210000 No. 1, Zidong Road, Maqun Street, Qixia District, Nanjing, Jiangsu Province

Patentee after: Nanjing yicui Information Technology Co.,Ltd.

Address before: Room 2202, 22 / F, Wantong building, No. 3002, Sungang East Road, Sungang street, Luohu District, Shenzhen City, Guangdong Province

Patentee before: Shenzhen dragon totem technology achievement transformation Co.,Ltd.

TR01 Transfer of patent right
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: An Object Based Depth Adjustment Method for Stereoscopic Images

Effective date of registration: 20230411

Granted publication date: 20190903

Pledgee: Nanjing Zidong sub branch of Bank of Nanjing Co.,Ltd.

Pledgor: Nanjing yicui Information Technology Co.,Ltd.

Registration number: Y2023980037737

PE01 Entry into force of the registration of the contract for pledge of patent right