CN104506837A - 一种裸眼三维立体显示的深度控制方法 - Google Patents

一种裸眼三维立体显示的深度控制方法 Download PDF

Info

Publication number
CN104506837A
CN104506837A CN201410737620.3A CN201410737620A CN104506837A CN 104506837 A CN104506837 A CN 104506837A CN 201410737620 A CN201410737620 A CN 201410737620A CN 104506837 A CN104506837 A CN 104506837A
Authority
CN
China
Prior art keywords
control method
linear structure
depth
depth control
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410737620.3A
Other languages
English (en)
Other versions
CN104506837B (zh
Inventor
桑新柱
解松霖
于迅博
陈铎
王鹏
颜玢玢
张显廷
苑金辉
王葵如
余重秀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Posts and Telecommunications
Original Assignee
Beijing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Posts and Telecommunications filed Critical Beijing University of Posts and Telecommunications
Priority to CN201410737620.3A priority Critical patent/CN104506837B/zh
Publication of CN104506837A publication Critical patent/CN104506837A/zh
Application granted granted Critical
Publication of CN104506837B publication Critical patent/CN104506837B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及裸眼三维立体显示技术领域,尤其涉及一种射线空间中的实现裸眼三维立体显示的深度控制方法。该深度控制方法包括:S1:确定射线空间,并得到所述射线空间的极平面;S2:获得所述极平面中的线性结构及其斜率;S3:根据所述线性结构的斜率进行深度控制。本发明提供的深度控制方法避免了平移后各视点间的视差不均匀,在观看裸眼显示器时容易产生深度抖动,使观看者产生视觉疲劳等问题。使得裸眼三维立体的实现更为容易、便捷。

Description

一种裸眼三维立体显示的深度控制方法
技术领域
本发明涉及裸眼三维立体显示技术领域,尤其涉及一种射线空间中的实现裸眼三维立体显示的深度控制方法。
背景技术
现今三维立体(3D)技术的发展突飞猛进,3D电影凭借其强大的视觉冲击力广受人们追捧,而裸眼3D显示技术因其无需佩戴任何3D助视设备便可观看3D影片,因而备受广泛关注。然裸眼3D立体显示要求显示图像与显示器之间高度配合,使得某一片源或图源只在特定显示器上才能呈现出良好效果。这种要求导致裸眼3D显示的片源稀少,且制作成本居高不下。在3D显示技术上提出的深度控制方法大大放宽了片源拍摄和制作的要求,提高了各种不同类型裸眼3D显示器的兼容性。
现阶段,裸眼3D片源的深度控制主要有两种:1、借助于其场景的深度信息得到不同视点间的视差信息,依据得到的视差信息依次控制各个视点图像的平移以达到深度控制。2、通过在各个视点中进行特征点匹配进而得到相应的特征点,再根据匹配得到的特征点求得深度信息,以此控制各个视点图像的平移以达到深度控制。场景的深度信息往往不容易获取且精度不高,通过特征点匹配控制深度的精确度取决于特征点匹配的精度,准确率难以保证。并且,上述两种方法在计算每个视点图像的平移量时没有考虑相邻视点间的关系,使得平移后各视点间的视差不均匀,在观看裸眼3D视频显示器时容易产生深度抖动,使观看者产生视觉疲劳。
发明内容
(一)要解决的技术问题
本发明要解决的技术问题是传统3D显示深度控制中,特征点匹配精度不高,准确率难以保证;以及在计算每个视点图像的平移量时没有考虑相邻视点间的关系,使得平移后各视点间的视差不均匀的问题。
(二)技术方案
为了解决上述技术问题,本发明提供了一种裸眼3D显示的深度控制方法。该深度控制方法包括以下步骤:
S1:确定射线空间,并得到所述射线空间的极平面;
S2:获得所述极平面中的线性结构及其斜率;
S3:根据所述线性结构的所述斜率进行深度控制。
优选地,所述步骤S3具体包括以下步骤:
S31:在所述极平面中,统计获得所述线性结构的回归直线;
S32:确定场景深度的最终预期,根据最终要求的深度值给出目标直线;
S33:通过原始直线各视点与目标直线各视点坐标相减,得到各视点的图像平移量;
S34:根据所述图像平移量移动每一视点图像实现深度控制。
优选地,所述斜率为场景的原始深度,包含各个视点的视差信息。
优选地,所述步骤S2具体包括以下步骤:
基于纹理匹配提取所述线性结构,并通过线性回归法得到所述斜率。
优选地,所述线性结构是一片连续的纹理和颜色类似的区域。
优选地,提取所述线性结构的代价函数为
Cost ( MB ( x , y ) , MB ( w , z ) ) = Σ i , j = - 1 . . . 1 ( pixel ( x + i , y + j ) - pixel ( w + i , z + j ) ) 2
其中,MB(x,y)是中心像素位于(x,y)的3×3宏块,pixel(x,y)是位于(x,y)的像素,Cost(MB(x,y),MB(w,z))为两宏块纹理颜色相似的代价值,纹理颜色越接近所述代价值越小。
优选地,如果所述代价值小于相似度阈值,则两个宏块是纹理和颜色类似的,其中,所述相似度阈值为纹理颜色相似时两宏块的最大代价值;且如果两个所述宏块同时保证位置相邻,则所述两个宏块属于同一线性结构。
优选地,所述相似度阈值根据不同的图像源进行选择。
(三)有益效果
本发明的上述技术方案具有如下优点:本发明提供的3D裸眼显示的深度控制方法引入了射线空间及极平面的概念,将多视点内容表示为一个四维的射线空间便于图像分析。基于纹理匹配提取相应的线性结构,再根据线性回归方法得到其斜率,进而通过控制线性结构的斜率来控制物体在裸眼显示器中的深度。无需特征点匹配,避免了传统方法通过特征点匹配控制深度的精确度取决于特征点匹配的精度,准确率难以保证的问题。无需特征点匹配以及获取深度图即可得到各个视点间的视差信息,深度控制避免了传统方法使得平移后各视点间的视差不均匀,在观看裸眼显示器时容易深度抖动,使观看者产生视觉疲劳等问题,使得裸眼3D的实现更为容易、便捷。
附图说明
图1是本发明实施例提供的深度控制法的方法流程图;
图2(a)是射线空间示意图;
图2(b)是极平面示意图;
图3(a)是本发明实施例提供的深度控制法的原始极平面示意图;
图3(b)是本发明实施例提供的深度控制法的线性结构示意图;
图3(c)是本发明实施例提供的深度控制法的回归直线示意图;
图3(d)是本发明实施例提供的深度控制法深度控制后的示意图;
图4是本发明实施例提供的深度控制法的深度控制效果图。
具体实施方式
下面结合附图和实施例对本发明的具体实施方式作进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
如图1所示,为本发明实施例提供的深度控制法的方法流程图。
该深度控制方法包括以下步骤:S1:确定射线空间和极平面;S2:获得极平面中的线性结构及其斜率;S3:根据线性结构的斜率进行深度控制。
进一步地,如图2(a)、(b)所示,分别为射线空间和极平面的示意图。将多视点图按视点顺序叠放产生射线空间,其水平切面就是极平面。其中,极平面中存在由场景中不同深度物体产生的不同斜率的线性结构,由于物体深度和对应的线性结构的斜率成比例,进而可以通过控制线性结构的斜率来控制物体在裸眼显示器中的深度。
步骤S2具体包括以下步骤:基于纹理匹配提取线性结构,并通过线性回归法得到斜率。
进一步地,基于纹理匹配提取感兴趣区域的线性结构,无需特征点匹配和深度图就能得到各个视点间的视差信息。由于极平面上的线性结构是由同一区域的像素生成,所以线性结构是一片连续的纹理和颜色类似的区域。据此,给出代价函数:
Cost ( MB ( x , y ) , MB ( w , z ) ) = Σ i , j = - 1 . . . 1 ( pixel ( x + i , y + j ) - pixel ( w + i , z + j ) ) 2
其中,MB(x,y)是中心像素位于(x,y)的3×3宏块,pixel(x,y)是位于(x,y)的像素,Cost(MB(x,y),MB(w,z))为两宏块纹理颜色相似的代价值,纹理颜色越接近所述代价值越小。
根据该代价函数可以取出某一物体对应的线性结构,得到线性结构后,使用上线性回归方法得到该线性结构的斜率。如果该代价值小于相似度阈值则认为是这两个宏块是纹理颜色相似的,且如果该两宏块同时保证位置相邻(保证区域连续性)则属于同一线性结构。其中,所述相似度阈值为纹理颜色相似时两宏块的最大代价值。相似度阈值可以根据不同的图像源灵活选择,相似度阈值越小对颜色和纹理的相似程度的约束性越强。
进一步地,如图3(a)、(b)、(c)、(d)所示,为本发明实施例提供的深度控制法的深度控制示意图。步骤S3具体包括以下步骤:
S31:在极平面中,统计获得线性结构的回归直线,该回归直线的斜率代表了场景的原始深度;
S32:首先确定场景深度的最终预期,根据最终要求的深度值给出目标直线;通过原始直线各视点与目标直线各视点坐标相减,得到各视点的图像平移量;
进一步地,令回归直线为:xi=b0+bui,(i=1,2,...,N)
事先确定的目标直线 x ^ i reference = b 0 reference + b reference u i ( i = 1,2 , . . . , N )
其中,ui对应不同视点图像。
则每个视点的图像平移量由:确定,其中,xshifti为第i个视点的图像平移量。
S33:根据所得的图像平移量移动每一视点图像实现深度控制。
进一步地,如图3(a)所示,为本发明实施例提供的深度控制法的原始极平面示意图。根据上述步骤S2,得到如图3(b)所示的本发明实施例提供的深度控制法的线性结构示意图。首先使用线性回归方法统计求出物体的原始深度信息,即线性结构的回归直线,如图3(c)。其中,回归直线给出了各个视点的视差信息,即回归直线的斜率为各个视点的视差信息。再通过原始直线各视点和目标直线各视点坐标相减,求得各个视点的图像平移量,最终实现深度控制。其中,目标直线如图3(c)中A即为预先设定的经过深度控制后具有良好成像效果的直线。如图4所示,为本发明实施例提供的深度控制法的深度控制效果图,给出了左、中、右视点的深度控制结果。进而,图3(d)所示,为本发明实施例提供的深度控制法深度控制后的示意图,从可以图3(d)中看出调整过后线性结构依然平滑,各个视点视差依然一致。
在实际的3d裸眼观看过程中,以一桌上摆放有瓶子的室内场景为例。对上述场景进行深度控制,逐渐将位于出屏的瓶子调节到屏幕上,视差逐渐减小,直到为零。即瓶子变得清晰,各个视点的瓶子重合,无视差。
综上所述,本发明提供的3D裸眼显示的深度控制方法引入了射线空间及极平面的概念,将多视点内容表示为一个四维的射线空间便于图像分析。基于纹理匹配提取相应的线性结构,再根据线性回归方法得到其斜率,进而通过控制线性结构的斜率来控制物体在裸眼显示器中的深度。无需特征点匹配,避免了传统方法通过特征点匹配控制深度的精确度取决于特征点匹配的精度,准确率难以保证的问题。无需特征点匹配以及获取深度图即可得到各个视点间的视差信息,深度控制避免了传统方法使得平移后各视点间的视差不均匀,在观看裸眼显示器时容易深度抖动,使观看者产生视觉疲劳等问题,使得裸眼3D的实现更为容易、便捷。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (8)

1.一种裸眼三维立体显示的深度控制方法,其特征在于,所述深度控制方法包括以下步骤:
S1:确定射线空间,并得到所述射线空间的极平面;
S2:获得所述极平面中的线性结构及其斜率;
S3:根据所述线性结构的所述斜率进行深度控制。
2.根据权利要求1所述的深度控制方法,其特征在于,所述步骤S3具体包括以下步骤:
S31:在所述极平面中,统计获得所述线性结构的回归直线;
S32:确定场景深度的最终预期,根据最终要求的深度值给出目标直线;
S33:通过原始直线各视点与目标直线各视点坐标相减,得到各视点的图像平移量;
S34:根据所述图像平移量移动每一视点图像实现深度控制。
3.根据权利要求2所述的深度控制方法,其特征在于,所述斜率为场景的原始深度,包含各个视点的视差信息。
4.根据权利要求1-3任一项所述的深度控制方法,其特征在于,所述步骤S2具体包括以下步骤:
基于纹理匹配提取所述线性结构,并通过线性回归法得到所述斜率。
5.根据权利要求4所述的深度控制方法,其特征在于,所述线性结构是一片连续的纹理和颜色类似的区域。
6.根据权利要求5所述的深度控制方法,其特征在于,提取所述线性结构的代价函数为
Cost ( MB ( x , y ) , MB ( w , z ) ) = Σ i , j = - 1 . . . 1 ( pixel ( x + i , y + j ) - pixel ( w + i , z + j ) ) 2
其中,MB(x,y)是中心像素位于(x,y)的3×3宏块,pixel(x,y)是位于(x,y)的像素,Cost(MB(x,y),MB(w,z))为两宏块纹理颜色相似的代价值,纹理颜色越接近所述代价值越小。
7.根据权利要求6所述的深度控制方法,其特征在于,如果所述代价值小于相似度阈值,则两个宏块是纹理和颜色类似的,其中,所述相似度阈值为纹理颜色相似时两宏块的最大代价值;且如果两个所述宏块同时保证位置相邻,则所述两个宏块属于同一线性结构。
8.根据权利要求7所述的深度控制方法,其特征在于,所述相似度阈值根据不同的图像源进行选择。
CN201410737620.3A 2014-12-04 2014-12-04 一种裸眼三维立体显示的深度控制方法 Active CN104506837B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410737620.3A CN104506837B (zh) 2014-12-04 2014-12-04 一种裸眼三维立体显示的深度控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410737620.3A CN104506837B (zh) 2014-12-04 2014-12-04 一种裸眼三维立体显示的深度控制方法

Publications (2)

Publication Number Publication Date
CN104506837A true CN104506837A (zh) 2015-04-08
CN104506837B CN104506837B (zh) 2016-08-17

Family

ID=52948551

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410737620.3A Active CN104506837B (zh) 2014-12-04 2014-12-04 一种裸眼三维立体显示的深度控制方法

Country Status (1)

Country Link
CN (1) CN104506837B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105629604A (zh) * 2016-03-04 2016-06-01 北京邮电大学 一种三维液晶显示屏及显示设备
CN111888207A (zh) * 2020-07-08 2020-11-06 北京萌科科技有限公司 图像显示方法、装置及电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1678084A (zh) * 2003-11-27 2005-10-05 索尼株式会社 图像处理装置和方法
CN102208116A (zh) * 2010-03-29 2011-10-05 卡西欧计算机株式会社 三维建模装置以及三维建模方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1678084A (zh) * 2003-11-27 2005-10-05 索尼株式会社 图像处理装置和方法
CN102208116A (zh) * 2010-03-29 2011-10-05 卡西欧计算机株式会社 三维建模装置以及三维建模方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ANTONIO CRIMINISI,ET AL: "Extracting layers and analyzing their specular properties using epipolar-plane-image analysis", 《COMPUTER VISION AND IMAGE UNDERSTANDING》 *
ROBERT C,ET AL: "Epipolar-Plane Image Analysis: An Approach to Determining Structure from Motion", 《INTERNATIONAL JOURNAL OF COMPUTER VISION》 *
赵兴荣: "基于光场相机深度信息获取技术的研究", 《万方数据企业知识服务平台》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105629604A (zh) * 2016-03-04 2016-06-01 北京邮电大学 一种三维液晶显示屏及显示设备
CN105629604B (zh) * 2016-03-04 2018-12-04 北京邮电大学 一种三维液晶显示屏及显示设备
CN111888207A (zh) * 2020-07-08 2020-11-06 北京萌科科技有限公司 图像显示方法、装置及电子设备
CN111888207B (zh) * 2020-07-08 2023-03-28 北京萌科科技有限公司 图像显示方法、装置及电子设备

Also Published As

Publication number Publication date
CN104506837B (zh) 2016-08-17

Similar Documents

Publication Publication Date Title
US8471898B2 (en) Medial axis decomposition of 2D objects to synthesize binocular depth
US9241147B2 (en) External depth map transformation method for conversion of two-dimensional images to stereoscopic images
US9270977B2 (en) 3D photo creation system and method
US20110150321A1 (en) Method and apparatus for editing depth image
CN102892021B (zh) 一种合成虚拟视点图像的新方法
US10271038B2 (en) Camera with plenoptic lens
WO2011017485A3 (en) 3d autostereoscopic display with true depth perception
Jung et al. Depth sensation enhancement using the just noticeable depth difference
CN102609950B (zh) 一种二维视频深度图的生成方法
CN102905145B (zh) 立体影像系统、影像产生方法、影像调整装置及其方法
US20130257864A1 (en) Medial axis decomposition of 2d objects to synthesize binocular depth
CN103679739A (zh) 基于遮挡区域检测的虚拟视图生成方法
Salahieh et al. Light Field Retargeting from Plenoptic Camera to Integral Display
CN104506837A (zh) 一种裸眼三维立体显示的深度控制方法
EP2932710B1 (en) Method and apparatus for segmentation of 3d image data
CN104052990B (zh) 一种基于融合深度线索的全自动二维转三维方法和装置
KR20140051035A (ko) 영상 부호화 방법 및 장치
Xie et al. Depth-tunable three-dimensional display with interactive light field control
CN102447863A (zh) 一种多视点立体视频字幕处理方法
Hanhart et al. Active crosstalk reduction system for multiview autostereoscopic displays
KR101794492B1 (ko) 다시점 영상 디스플레이 시스템
CN104299258A (zh) 立体图形处理方法和设备
CN103247027B (zh) 图像处理方法和电子终端
CN102231841A (zh) 基于双视点立体数据裸眼立体显示电视及实现方法
CN102469322B (zh) 一种平面转立体的图像处理方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant