CN103384340B - 一种从单幅2d图像获取3d成像图像的方法 - Google Patents

一种从单幅2d图像获取3d成像图像的方法 Download PDF

Info

Publication number
CN103384340B
CN103384340B CN201310267708.9A CN201310267708A CN103384340B CN 103384340 B CN103384340 B CN 103384340B CN 201310267708 A CN201310267708 A CN 201310267708A CN 103384340 B CN103384340 B CN 103384340B
Authority
CN
China
Prior art keywords
image
pixel
depth
value
single width
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201310267708.9A
Other languages
English (en)
Other versions
CN103384340A (zh
Inventor
郭璠
唐琎
蔡自兴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Central South University
Original Assignee
Central South University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Central South University filed Critical Central South University
Priority to CN201310267708.9A priority Critical patent/CN103384340B/zh
Publication of CN103384340A publication Critical patent/CN103384340A/zh
Application granted granted Critical
Publication of CN103384340B publication Critical patent/CN103384340B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

本发明公开了一种从单幅2D图像获取3D成像图像的方法,包括如下步骤:步骤A:获取单幅2D图像的显著对象分割图;步骤B:利用步骤A获得的显著对象分割图获取单幅2D图像的深度图;步骤C:根据步骤B获得深度图分别得到3D成像所需的左眼视图及右眼视图,对左眼视图及右眼视图进行合成获得与单幅2D图像对应的3D图像;生成的深度图,并没有恢复出真实的深度信息,而是一幅反映图像中的物体对象与场景中其它部分之间相对位置关系的伪深度图。通过大量实验后,实验结果表明利用此伪深度图所生成的左右视图合成后,其对应的3D图像具有明显的立体效果。

Description

一种从单幅2D图像获取3D成像图像的方法
技术领域
本发明属于图像信息处理领域,具体涉及一种从单幅2D图像获取3D成像图像的方法。
背景技术
3D视频信号处理已成为当前视觉处理中的一个重要热点问题。随着3D技术的迅速发展,只能呈现出平面画面的2D图像能够以具有立体感的方式呈现出来,从而带给观看者更为逼真、独特的视觉体验。因此,3D技术被广泛应用于许多领域。例如,3D技术已成为当今电影发展的大趋势,但是片源不足却成为了制约电影产业兴起的主要瓶颈。将2D电影转换为3D电影不仅能大大增加数字立体电影的题材和数量,还能让一些经典的老电影以新的形式重新登上荧屏绽放异彩。与电影产业密切相关的电子游戏行业也可借助3D技术改善其游戏体验。通过将2D的游戏场景转换为3D立体场景,可以有效地提高游戏玩家的沉浸感,从而极大地拓宽游戏市场。此外,目前市场上还出现了将作为平面媒体的报纸与3D技术相结合,实现在平面媒体上目睹3D立体效果,从而在创新印刷媒介信息传播方式的同时造就了一场视觉变革。由此可见,对2D彩色图像进行3D转换处理,对文化、娱乐等领域的发展具有十分重要的意义。
2D图像至3D图像转换技术的核心任务是从普通的2D图像中获取其所对应的深度信息。目前,针对该问题的处理方法主要有两种:利用单帧图像获取深度图的方法和利用多帧图像获取深度图的方法。单帧图像方法采用机器学习、聚焦/散焦信息、阴影遮挡信息、纹理梯度、几何透视等深度线索恢复图像深度。但是这些方法在输入图像的相关深度线索不明显或缺失的情况下将有可能生成不可靠的深度图。多帧方法主要采用多目视图或运动信息来恢复图像深度。但是当摄像机静止时,利用运动视差生成的深度图将有可能有误。从单幅2D图像生成其对应的深度图是一个不适定问题,并非所有的深度线索都能从单幅图像或多幅连续图像帧中重新获得,等等这些因素都使深度图的生成面临较大的困难。
近年来,市场上还针对普通2D视频的深度图恢复出现了一些半自动操作软件。例如,DDD公司推出的“Depth Tweening”产品即采用基于机器学习的深度扩散方法来恢复视频非关键帧的深度图。该方法首先利用手工绘制的关键帧的深度图进行训练,然后再利用训练得到的分类器计算非关键帧的深度图。此外,飞利浦公司也推出了一款名为“BlueBox”的深度图生成工具。该软件工具采用基于统计学原理的深度扩散方法,首先由用户手动指定关键帧的深度信息,然后该软件会通过所建立的最优化准则函数计算得到视频其它非关键帧的深度图。由此可见,目前已有的深度图求取工具主要问题在于需要人工参与,且深度图的赋值主要依靠主观判断。
在此背景下,研究一种既成本代价小、普适性好,又能自动地获取图像的深度图以对各种2D图像进行3D转换处理的方法显得尤为重要。
发明内容
本发明所要解决的技术问题是提供一种从单幅2D图像获取3D成像图像的方法,克服现有技术中2D图像至3D图像转换过程通常需要借助图像深度线索获知深度信息的难题,从而给观看者带来比普通2D图像更好的视觉体验。
一种从单幅2D图像获取3D成像图像的方法,包括以下步骤:
步骤A:获取单幅2D图像的显著对象分割图
步骤B:利用步骤A获得的显著对象分割图获取单幅2D图像的深度图;
步骤C:根据步骤B获得的深度图分别得到3D成像所需的左眼视图及右眼视图,合成左眼视图及右眼视图,获得与单幅2D图像对应的3D图像;
其中,所述步骤B的具体步骤如下:
步骤B1:求取显著对象分割图的暗原色图像及大气光值A;
所述暗原色图像各像素点的像素值按以下表达式确定:
I seg dark ( x , y ) = min c ∈ { r , g , b } ( min ( x ′ , y ′ ) ( I seg c ( x ′ , y ′ ) ) )
其中,Ω(x,y)是以坐标为x,y的像素点为中心的滤波模板;x',y'为显著对象分割图的滤波模板中各像素点的坐标值,暗原色图像中每一像素点的像素值被称为暗原色图像值;
令滤波模板的大小为win*win,将大小为M*N的显著对象分割图以像素值为255的像素点进行图像大小扩充,得到大小为(M+win-1)*(N+win-1)的新图像;利用大小为win*win的滤波模板对新图像的R、G、B三个颜色通道图像进行最小值滤波,得到R、G、B三个颜色通道的图像
将暗原色图像中各像素点的暗原色图像值降序排列,从所有暗原色图像值中,选出大小为排列在前0.1%的像素点,从选出的像素点对应的亮度值中选取一个最大值作为大气光值,即为大气光值A;
步骤B2:按散射模型确定传播图作为初始深度图Depth'(x,y),所述的散射模型如下式表征:
Dept h ′ ( x , y ) = 1 - ω 2 × ( I seg dark ( x , y ) A )
其中,调节参数ω2的值为0.95;A为大气光值,为暗原色图像;
对所述的初始深度图Depth'(x,y)进行引导滤波,获得第二深度图Depthr(x,y);
步骤B3:对所述的第二深度图Depthr进行双边滤波,得到原单幅2D图像最终的深度图Depth:
Depth ( n ) = Σ p ∈ N ( n ) W c ( | p - n | ) W s ( | Dept h r ( n ) - Dept h r ( p ) | ) Dept h r ( p ) Σ p ∈ N ( n ) W c ( | p - n | ) W s ( | Dept h r ( n ) - Dept h r ( p ) | ) ;
其中,Depthr(n)为第二深度图;n为像素点的坐标,即n=(x,y);N(n)表示n的邻域,p为n的邻域所包含的各像素点的坐标;Wc(x)为空间邻域相似度函数,记为标准差为σc的高斯滤波器:Ws(x)为灰度相似度函数,记为标准差为σs的高斯滤波器:σc和σs分别设置为3和0.4,N(n)表示的邻域其大小设置为5×5。
所述步骤A的具体步骤如下:
步骤A1:将单幅2D图像与高斯低通平滑函数进行卷积运算以获得单幅2D图像的亮度分量图像
L ^ c ( x , y ) = I c ( x , y ) * F ( x , y )
其中,x,y为图像每一像素点的坐标值,Ic(x,y)表示表示输入的单幅2D图像的彩色图像,c表示图像的R、G及B三颜色通道,即c∈{R,G,B};*为卷积操作,F(x,y)为高斯低通平滑函数;
F ( x , y ) = k e - ( x ′ - m ) 2 + ( y ′ - m ) 2 σ 2
Ω(x,y)是以坐标为x,y的像素点为中心的滤波模板,x',y'表示滤波模板Ω(x,y)中各元素的坐标,即(x',y')∈Ω(x,y);σ为标准差,取值范围为3~30;
设平滑函数的窗口大小为w×w,w=6σ+1;m为平滑函数的窗口的中心,为向上取整函数;k为归一化常数,其值满足使F(x,y)的和值为1;
步骤A2:求取所述亮度分量图像的均值图像利用均值图像重新获得新的亮度分量图像,从新的亮度分量图像中提取亮度分量Y,获得反映图像显著区域的单通道图像S(x,y);
L c ‾ ( x , y ) = 1 M × N Σ x = 1 M Σ y = 1 N L ^ c ( x , y )
其中,M和N分别为单幅2D图像的长和宽;
对均值图像进行如下处理以得到新的亮度分量图像
L c ~ ( x , y ) = 255 - ω 1 × ( I c ( x , y ) · L c ‾ ( x , y ) )
其中,ω1为调整因子,取值范围为2~5;
将上述新的亮度分量图像从RGB颜色空间转换为YCbCr颜色空间;在YCbCr颜色空间中,选取Y分量作为反映图像显著区域的单通道图像S(x,y);
步骤A3:生成显著对象分割图
对单幅2D图像Ic(x,y)三个颜色通道c(c∈{R,G,B})和图像S(x,y)按照下面两个公式进行处理,生成单幅2D图像的显著对象分割图
T c ( x , y ) = log ( I c ( x , y ) + 1 ) + log ( S ( x , y ) + 1 ) I seg c ( x , y ) = 255 × exp ( T c ( x , y ) ) max c ∈ { r , g , b } ( exp ( T c ( x , y ) ) )
其中,(x,y)为图像中每一像素点的坐标值,Tc(x,y)是公式计算得到的中间结果,exp是指数运算函数。
所述步骤C的具体过程如下:
步骤C1:求取深度图Depth中各像素点的视差值Parallax(x,y),所述视差值Parallax(x,y)按以下表达式确定:
Parallax ( x , y ) = ω 3 × ( 1 - Depth ( a , y ) ZPP ) ;
其中,ω3表示最大视差值,NLR为深度图Depth在水平方向的像素数目;ZPP为零视差平面调节参数,其值设置为深度图的最大像素值-10;
步骤C2:将单幅2D图像的各像素点的坐标向左移动个像素以得到左眼视图;将单幅2D图像的各像素点的坐标向右移动个像素得到右眼视图;为向上取整操作;
步骤C3:将上述求得左眼视图和右视图进行合成,以获得单幅2D图像所对应的3D成像图像。
所述步骤B2中,对所述的初始深度图Depth'(x,y)进行引导滤波,引导滤波的具体过程如下:
首先计算滤波系数ak和bk,ak和bk的求取过程为:
a k = 1 | ω | Σ ( x , y ) ∈ ω k I ( x , y ) p ( x , y ) - u k p ‾ k σ k 2 + ϵ
b k = p ‾ k - a k u k
其中,I为引导图像,引导图像是滤波过程中的参考图像,它为输出图像提供细节增强和边缘保持的相关信息,使输出图像在细节及对象边缘方面与引导图像保持一致,p为输入图像。在引导滤波的过程中,输入图像为初始深度图Depth'(x,y);引导图像为显著对象分割图uk为引导图像中第k个滤波窗口中像素的均值,σk为引导图像中第k个滤波窗口的像素的方差;ε为防止ak值过大的调节参数,ε的取值范围是0.01~0.03;ωk为滤波窗口,uk和σk分别为引导图像I在滤波窗口ωk中的像素均值与方差,|ω|为滤波窗口ωk中的像素数目,为输入图像p在窗口ωk中的像素均值,
滤波窗口为正方形,窗口半径s等于滤波窗口边长的一半:
其中,M、N分别为图像的长、宽大小,滤波窗口大小为(2s+1)2为向上取整操作;
按下式确定引导滤波的输出图像在各滤波窗口ωk中每一像素处的滤波输出Depthr(x,y):
Dept h r ( x , y ) = a ‾ k Dept h ′ ( x , y ) + b ‾ k
其中, a ‾ k = ( 1 / | ω | ) Σ i ∈ ω k a i b ‾ k = ( 1 / | ω | ) Σ i ∈ ω k b i , Depth'为初始深度图;Depthr为引导滤波的输出图像,即求取的第二深度图。
此深度图并没有恢复出真实的深度信息,其反映的是图像中各场景对象与其相邻部分的相对位置关系。由于在图像2D至3D转换中,对立体效果主要依赖定性的感知,因此利用上述求取的第二深度图依然可以获得明显的3D立体效果。
有益效果
本发明提供了一种从单幅2D图像获取3D成像图像的方法,包括如下步骤:步骤A:获取单幅2D图像的显著对象分割图步骤B:利用步骤A获得的显著对象分割图获取单幅2D图像的深度图;步骤C:根据步骤B获得深度图分别得到3D成像所需的左眼视图及右眼视图,对左眼视图及右眼视图进行合成获得与单幅2D图像对应的3D图像;生成的深度图,并没有恢复出真实的深度信息,而是一幅反映图像中的物体对象与场景中其它部分之间相对位置关系的伪深度图。此图建立在视觉关注度的基础上,将显著性区域映射到离观察者较近的位置,而把其它区域映射到较远的位置,从而将视觉关注较多的显著区域图作为深度图进行3D效果的渲染。由于在3D图像中,对立体效果更倾向于定性的感知,因此,该伪深度图依然是非常有效可靠的虚拟视图生成工具。通过大量实验后,实验结果表明利用此伪深度图所生成的左右视图合成后,其对应的3D图像具有明显的立体效果。
通过利用显著区域分割图,结合引导滤波、双边滤波得到深度图,简单有效的解决了已有深度图获取方法大多需要人工指定图像场景对象相关区域深度值的问题,从而实现了深度图求取的自动性、实时性,可广泛应用于各种印刷媒介的图片、广告制作,电视、电影的3D显示,日常照片的立体化处理以及电子游戏的设计开发等领域。该方法运算速度快,立体效果显著,不仅成本代价低,而且具有很好的通用性。
附图说明
图1为本发明的流程图;
图2为本发明获取单幅2D图像对应的深度图的流程图;
图3为实施例1的各步骤的处理效果图;其中,图a为原始2D图像,图b为显著区域分割图,图c为深度图,图d为左眼视图,图e为右眼视图,图f为本发明方法的3D效果图;
图4为实施例2的各步骤的处理效果图;其中,图a为原始2D图像,图b为显著区域分割图,图c为深度图,图d为左眼视图,图e为右眼视图,图f为本发明方法的3D效果图;
图5为实施例3的各步骤的处理效果图;其中,图a为原始2D图像,图b为显著区域分割图,图c为深度图,图d为左眼视图,图e为右眼视图,图f为本发明方法的3D效果图。
具体实施方式
下面将结合附图和实施例对本发明做进一步的说明。
实施例1:
本实施例是针对单幅2D图像,如图1所示,从单幅2D图像获取3D成像图像的方法,所对应的左眼视图和右眼视图的求取过程按如下三个步骤进行:
步骤A:获取单幅2D图像的显著对象分割图
对显著对象分割图的求取是如图2所示的深度图估计具体流程中的第一步,包括以下步骤:
步骤A1:将单幅2D图像与高斯低通平滑函数进行卷积运算以获得单幅2D图像的亮度分量图像
L ^ c ( x , y ) = I c ( x , y ) * F ( x , y ) - - - ( 1 )
其中,x,y为图像每一像素点的坐标值,Ic(x,y)表示表示输入的单幅2D图像的彩色图像,c表示图像的R、G及B三颜色通道,即c∈{R,G,B};*为卷积操作,F(x,y)为高斯低通平滑函数;
F ( x , y ) = k e - ( x ′ - m ) 2 + ( y ′ - m ) 2 σ 2 - - - ( 2 )
Ω(x,y)是以坐标为x,y的像素点为中心的滤波模板,x',y'表示滤波模板Ω(x,y)中各元素的坐标,即(x',y')∈Ω(x,y);
设平滑函数的窗口大小为w×w,w=6σ+1;m为平滑函数的窗口的中心,k为归一化常数,其值满足使F(x,y)的和值为1;
σ为标准差设为19,w设为115,窗口的中心m取为58。然后,求取所述亮度分量图像的均值;均值按以下公式确定:
L c ‾ ( x , y ) = 1 M × N Σ x = 1 M Σ y = 1 N L ^ c ( x , y ) - - - ( 3 )
对于图3(a)所示大小为1024×841的图像而言,上式中M、N的取值分别为841和1024。对上述求取的均值图像进行如下处理以得到新的亮度分量图像:
L c ~ ( x , y ) = 255 - ω 1 × ( I c ( x , y ) · L c ‾ ( x , y ) ) - - - ( 4 )
其中,调整因子ω1设置为4。再将上述新的亮度分量图像从RGB颜色空间转换为YCbCr颜色空间,提取出其亮度分量,选取Y分量作为反映图像显著区域的单通道图像S(x,y)。
最后,生成显著对象分割图
对单幅2D图像Ic(x,y)三个颜色通道c(c∈{R,G,B})和图像S(x,y)按照下面两个公式进行处理,生成单幅2D图像的显著对象分割图
Tc(x,y)=log(Ic(x,y)+1)+log(S(x,y)+1)     (5)
I seg c ( x , y ) = 255 × exp ( T c ( x , y ) ) max c ∈ { r , g , b } ( exp ( T c ( x , y ) ) ) - - - ( 6 )
其中,(x,y)为图像中每一像素点的坐标值,Tc(x,y)是公式计算得到的中间结果,exp是指数运算函数。
对上述求得的Tc(x,y)进行指数变换以获得单幅2D图像的显著对象分割图,如图3(b)所示。
步骤B:利用步骤A获得的显著对象分割图获取单幅2D图像的深度图;
首先,求取如图3(b)所示的显著对象分割图的暗原色图像及大气光值A。所述分割图的暗原色图像各像素点的像素值按以下表达式确定:
I seg dark ( x , y ) = min c ∈ { r , g , b } ( min ( x ′ , y ′ ) ∈ Ω ( x , y ) ( I seg c ( x ′ , y ′ ) ) ) - - - ( 7 )
其中,Ω(x,y)是以坐标为x,y的像素点为中心的滤波模板;x',y'为显著对象分割图的滤波模板中各像素点的坐标值,暗原色图像中每一像素点的像素值被称为暗原色图像值;
令滤波模板的大小为win*win,将大小为M*N的显著对象分割图以像素值为255的像素点进行图像大小扩充,得到大小为(M+win-1)*(N+win-1)的新图像;利用大小为win*win的滤波模板对新图像的R、G、B三个颜色通道图像进行最小值滤波,得到R、G、B三个颜色通道的图像
本实例中此窗口大小设为3×3,由此即可得到暗原色图像。本实例A的取值为121。
然后,按散射模型确定传播图作为初始深度图Depth'(x,y),散射模型如下式:
Dept h ′ ( x , y ) = 1 - ω 2 × ( I seg dark ( x , y ) A ) - - - ( 8 )
其中,调节参数ω2的值为0.95,由此即可得到初始深度图Depth'(x,y)。再对此初始深度图进行引导滤波,得到边缘细节增强、对象层次分明的第二深度图Depthr(x,y)。引导滤波的具体过程为:首先计算滤波系数ak和bk,ak和bk的求取过程为:
a k = 1 | ω | Σ ( x , y ) ∈ ω k I ( x , y ) p ( x , y ) - u k p ‾ k σ k 2 + ϵ - - - ( 9 )
b k = p ‾ k - a k u k
其中,输入图像p为初始深度图Depth'(x,y);引导图像I为分割图像uk为引导图像中第k个滤波窗口中像素的均值,σk为引导图像中第k个滤波窗口的像素的方差;ε为调节参数,其值设为0.01;ωk为滤波窗口,由于本实例的图像大小为1024×841,则窗口大小设置为15×15。uk和σk分别为引导图像I在滤波窗口ωk中的像素均值与方差,|ω|为滤波窗口ωk中的像素数目,为输入图像p在窗口ωk中的像素均值,滤波窗口ωk的(ak,bk)值确定后,即可按下式确定引导滤波的输出图像在各滤波窗口ωk中每一像素处的滤波输出Depthr(x,y):
Dept h r ( x , y ) = a ‾ k Dept h ′ ( x , y ) + b ‾ k - - - ( 10 )
其中, a ‾ k = ( 1 / | ω | ) Σ i ∈ ω k a i b ‾ k = ( 1 / | ω | ) Σ i ∈ ω k b i , Depth'为初始深度图;Depthr为引导滤波的输出图像,即求取的第二深度图;
最后,对所述的第二深度图Depthr进行双边滤波,以对Depthr进行适度平滑,同时较好地保留场景对象的边缘。由此,即可得到单幅2D图像最终的深度图Depth,如图3(c)所示。该处理过程的数学形式如下:
Depth ( n ) = Σ p ∈ N ( n ) W c ( | p - n | ) W s ( | Dept h r ( n ) - Dept h r ( p ) | ) Dept h r ( p ) Σ p ∈ N ( n ) W c ( | p - n | ) W s ( | Dept h r ( n ) - Dept h r ( p ) | ) - - - ( 11 )
其中,Depthr(n)为第二深度图;n为图像每一像素点的坐标,则n=(x,y);N(n)表示n的邻域,其大小设置为5×5,则p为n的邻域所包含的各像素点的坐标;Wc(x)为标准差为σc的高斯滤波器:其中σc设为3;Ws(x)为标准差为σs的高斯滤波器:其中σs设为0.4。
步骤C:根据步骤B获得深度图分别得到3D成像所需的左眼视图及右眼视图,对左眼视图及右眼视图进行合成获得与单幅2D图像对应的3D图像;
首先利用如图3(c)所示的深度图求取图像各像素点处的视差值,所述视差值Parallax(x,y)按以下表达式确定:
Parallax ( x , y ) = ω 3 × ( 1 - Depth ( a , y ) ZPP ) - - - ( 12 )
其中,ω3表示最大视差值,本实例中ω3的值设置为31,ZPP的值为245。然后将原2D图像的各像素点的坐标向左移动该点视差值的1/2个象素以得到左眼视图,如图3(d)所示。与之类似,将各像素点的坐标向右移动该点视差值的1/2个象素可得到右眼视图,如图3(e)所示。最后,将上述求得的两视图进行合成,以获得单幅2D图像所对应的3D立体图像,如图3(f)所示。
实施例2:
对单幅2D图像图4(a)(大小为800×500)进行3D转换处理。首先将原2D图像与高斯低通平滑函数进行卷积运算以获得原图像的亮度分量图像。其中高斯低通平滑函数的标准差σ为9,平滑窗口大小w设为55,窗口的中心m取为28。然后利用式4得到新的亮度分量图像,其中ω1设置为3。最后进行对数域的相关操作,得到图4(a)的显著对象分割图4(b)。
然后,将显著对象分割图4(b)在R、G、B三个颜色通道上分别采用大小为3×3的窗口进行最小值滤波,将滤波后所得的三个图像对应像素点的最小值作为暗原色图像对应点的像素值。并通过此暗原色图像求得图4(b)的大气光A的值为175。然后按照式8确定初始深度图,其中ω2的取值为0.95。对此初始深度图再次进行窗口大小为10×10的引导滤波即可得到第二深度图。再对所得的第二深度图进行双边滤波,即可得到最终的深度图,如图4(c)所示。
最后,利用如图4(c)所示的深度图按照式(12)求取图像各像素点处的视差值。对于本实例,式12中的最大视差值ω3设置为24,ZPP的值为232。再依据所求取的视差值,将原2D图像的各像素点的坐标向左或向右移动该点视差值的1/2个象素以得到左眼和右眼的视图,如图4(d)和图4(e)所示。将上述求得的两视图进行合成,即可获得原2D图像所对应的3D立体图像,如图4(f)所示。
实施例3:
对单幅2D图像图5(a)(大小为470×500)进行3D转换处理。首先将单幅2D图像与高斯低通平滑函数进行卷积运算以获得原图像的亮度分量图像。其中高斯低通平滑函数的标准差σ为5,平滑窗口大小w设为31,窗口的中心m取为16。然后利用式(4)得到新的亮度分量图像,其中ω1设置为2。最后进行对数域的相关操作,得到图5(a)的显著对象分割图5(b)。
然后,将显著对象分割图5(b)在R、G、B三个颜色通道上分别采用大小为3×3的窗口进行最小值滤波,将滤波后所得的三个图像对应像素点的最小值作为暗原色图像对应点的像素值。并通过此暗原色图像求得图4(b)的大气光A的值为200。然后按照式8确定初始深度图,其中ω2的取值为0.95。对此初始深度图再次进行窗口大小为8×8的引导滤波即可得到第二深度图。再对所得的第二深度图进行双边滤波,即可得到最终的深度图,如图5(c)所示。
最后,利用如图5(c)所示的深度图按照式12求取图像各像素点处的视差值。对于本实例,式12中的最大视差值ω3设置为15,ZPP的值为245。再依据所求取的视差值,将单幅2D图像的各像素点的坐标向左或向右移动该点视差值的1/2个象素以得到左眼和右眼的视图,如图5(d)和图5(e)所示。将上述求得的两视图进行合成,即可获得原2D图像所对应的3D立体图像,如图5(f)所示。
由左右视图合成3D立体图像的方式有多种。例如目前3D电视即可通过安装相关播放器和佩戴3D眼睛直接观看由左右格式(视图)的图像获得的3D效果。此外,还可以利用相关软件将左、右视图合成3D图像。这里为了验证所提出的左右视图生成方法的有效性,即采用了GIMP软件将红色左眼图叠加到青色右眼图上以获得其3D图像,借助红青眼镜即可观看到显著的立体效果。
需要说明的是,以上公开的仅为本发明的具体实例,根据本发明提供的思想,本领域的技术人员能思及的变化,都应落入本发明的保护范围内。

Claims (2)

1.一种从单幅2D图像获取3D成像图像的方法,其特征在于,包括以下步骤:
步骤A:获取单幅2D图像的显著对象分割图
步骤B:利用步骤A获得的显著对象分割图获取单幅2D图像的深度图;
步骤C:根据步骤B获得的深度图分别得到3D成像所需的左眼视图及右眼视图,合成左眼视图及右眼视图,获得与单幅2D图像对应的3D图像;
其中,所述步骤B的具体步骤如下:
步骤B1:求取显著对象分割图的暗原色图像及大气光值A;
所述暗原色图像各像素点的像素值按以下表达式确定:
I seg dark ( x , y ) = min c ∈ { r , g , b } ( min ( x ′ , y ′ ) ∈ Ω ( x , y ) ( I seg c ( x ′ , y ′ ) ) )
其中,Ω(x,y)是以坐标为x,y的像素点为中心的滤波模板;x',y'为显著对象分割图的滤波模板中各像素点的坐标值,暗原色图像中每一像素点的像素值被称为暗原色图像值;
令滤波模板的大小为win*win,将大小为M*N的显著对象分割图以像素值为255的像素点进行图像大小扩充,得到大小为(M+win-1)*(N+win-1)的新图像;利用大小为win*win的滤波模板对新图像的R、G、B三个颜色通道图像进行最小值滤波,得到R、G、B三个颜色通道的图像
将暗原色图像中各像素点的暗原色图像值降序排列,从所有暗原色图像值中,选出大小为排列在前0.1%的像素点,从选出的像素点对应的亮度值中选取一个最大值作为大气光值,即为大气光值A;
步骤B2:按散射模型确定传播图作为初始深度图Depth'(x,y),所述的散射模型如下式表征:
Depth ′ ( x , y ) = 1 - ω 2 × ( I seg dark ( x , y ) A )
其中,调节参数ω2的值为0.95;A为大气光值,为暗原色图像;
对所述的初始深度图Depth'(x,y)进行引导滤波,获得第二深度图Depthr(x,y);
步骤B3:对所述的第二深度图Depthr进行双边滤波,得到原单幅2D图像最终的深度图Depth:
Depth ( n ) = Σ p ∈ N ( n ) W c ( | p - N | ) W s ( | Depth r ( n ) - Depth r ( p ) | ) Depth r ( p ) Σ p ∈ N ( n ) W c ( | p - n | ) W s ( | Depth r ( n ) - Depth r ( p ) | ) ;
其中,Depthr(n)为第二深度图;n为像素点的坐标,即n=(x,y);N(n)表示n的邻域,p为n的邻域所包含的各像素点的坐标;Wc(x)为空间邻域相似度函数,记为标准差为σc的高斯滤波器:Ws(x)为灰度相似度函数,记为标准差为σs的高斯滤波器:σc和σs分别设置为3和0.4,N(n)表示的邻域其大小设置为5×5;
所述步骤A的具体步骤如下:
步骤A1:将单幅2D图像与高斯低通平滑函数进行卷积运算以获得单幅2D图像的亮度分量图像
L ^ c ( x , y ) = I c ( x , y ) * F ( x , y )
其中,x,y为图像每一像素点的坐标值,Ic(x,y)表示表示输入的单幅2D图像的彩色图像,c表示图像的R、G及B三颜色通道,即c∈{R,G,B};*为卷积操作,F(x,y)为高斯低通平滑函数;
F ( x , y ) = ke - ( x ′ - m ) 2 + ( y ′ - m ) 2 σ 2
Ω(x,y)是以坐标为x,y的像素点为中心的滤波模板,x',y'表示滤波模板Ω(x,y)中各元素的坐标,即(x',y')∈Ω(x,y);σ为标准差,取值范围为3~30;
设平滑函数的窗口大小为w×w,w=6σ+1;m为平滑函数的窗口的中心, 为向上取整函数;k为归一化常数,其值满足使F(x,y)的和值为1;
步骤A2:求取所述亮度分量图像的均值图像利用均值图像重新获得新的亮度分量图像,从新的亮度分量图像中提取亮度分量Y,获得反映图像显著区域的单通道图像S(x,y);
L ‾ c ( x , y ) = 1 M × N Σ x = 1 M Σ y = 1 N L ^ c ( x , y )
其中,M和N分别为单幅2D图像的长和宽;
对均值图像进行如下处理以得到新的亮度分量图像
L ~ c ( x , y ) = 255 - ω 1 × ( I c ( x , y ) · L ‾ c ( x , y ) ) ;
其中,ω1为调整因子,取值范围为2~5;
将上述新的亮度分量图像从RGB颜色空间转换为YCbCr颜色空间;在YCbCr颜色空间中,选取Y分量作为反映图像显著区域的单通道图像S(x,y);
步骤A3:生成显著对象分割图
对单幅2D图像Ic(x,y)三个颜色通道c(c∈{R,G,B})和图像S(x,y)按照下面两个公式进行处理,生成单幅2D图像的显著对象分割图
Tc(x,y)=log(Ic(x,y)+1)+log(S(x,y)+1)
I seg c ( x , y ) = 255 × exp ( T c ( x , y ) ) max c ∈ { r , g , b } ( exp ( T c ( x , y ) ) )
其中,(x,y)为图像中每一像素点的坐标值,Tc(x,y)是公式计算得到的中间结果,exp是指数运算函数。
2.根据权利要求1所述的一种从单幅2D图像获取3D成像图像的方法,其特征在于,所述步骤C的具体过程如下:
步骤C1:求取深度图Depth中各像素点的视差值Parallax(x,y),所述视差值Parallax(x,y)按以下表达式确定:
Parallax ( x , y ) = ω 3 × ( 1 - Depth ( x , y ) ZPP ) ;
其中,ω3表示最大视差值,NLR为深度图Depth在水平方向的像素数目;ZPP为零视差平面调节参数,其值设置为深度图的最大像素值-10;
步骤C2:将单幅2D图像的各像素点的坐标向左移动个像素以得到左眼视图;将单幅2D图像的各像素点的坐标向右移动个像素得到右眼视图;为向上取整操作;
步骤C3:将上述求得左眼视图和右视图进行合成,以获得单幅2D图像所对应的3D成像图像。
CN201310267708.9A 2013-06-28 2013-06-28 一种从单幅2d图像获取3d成像图像的方法 Active CN103384340B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310267708.9A CN103384340B (zh) 2013-06-28 2013-06-28 一种从单幅2d图像获取3d成像图像的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310267708.9A CN103384340B (zh) 2013-06-28 2013-06-28 一种从单幅2d图像获取3d成像图像的方法

Publications (2)

Publication Number Publication Date
CN103384340A CN103384340A (zh) 2013-11-06
CN103384340B true CN103384340B (zh) 2015-01-07

Family

ID=49492024

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310267708.9A Active CN103384340B (zh) 2013-06-28 2013-06-28 一种从单幅2d图像获取3d成像图像的方法

Country Status (1)

Country Link
CN (1) CN103384340B (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103795999B (zh) * 2013-11-26 2016-01-20 深圳市唯特视科技有限公司 一种生成立体图像的方法和系统
CN104574407B (zh) * 2015-01-15 2018-04-27 华南理工大学 基于暗通道优先和解三角形法的绝缘子覆冰监测方法
CN105466399B (zh) * 2016-01-11 2019-09-06 中测新图(北京)遥感技术有限责任公司 快速半全局密集匹配方法和装置
CN106004140B (zh) * 2016-05-19 2018-01-09 清华大学 在单幅图像中显示3d立体动画的方法
CN107665347A (zh) * 2017-09-22 2018-02-06 中国科学院西安光学精密机械研究所 基于滤波优化的视觉显著性目标检测方法
CN108234986B (zh) * 2018-01-19 2019-03-15 姚惜珺 用于治疗近视或弱视的3d图像管理方法及管理系统和装置
CN109218706B (zh) * 2018-11-06 2020-11-06 浙江大学 一种由单张图像生成立体视觉图像的方法
CN110335224B (zh) * 2019-07-05 2022-12-13 腾讯科技(深圳)有限公司 图像处理方法、装置、计算机设备及存储介质
CN114630099B (zh) * 2020-12-14 2024-04-05 京东方科技集团股份有限公司 显示方法、装置、系统及计算机可读存储介质
CN116245753B (zh) * 2022-12-30 2023-10-03 北京华云星地通科技有限公司 一种红蓝立体卫星云图生成方法、系统、电子设备及介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101783012A (zh) * 2010-04-06 2010-07-21 中南大学 一种基于暗原色的自动图像去雾方法
CN103077500A (zh) * 2012-12-30 2013-05-01 信帧电子技术(北京)有限公司 图像数据的去雾方法及装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101783012A (zh) * 2010-04-06 2010-07-21 中南大学 一种基于暗原色的自动图像去雾方法
CN103077500A (zh) * 2012-12-30 2013-05-01 信帧电子技术(北京)有限公司 图像数据的去雾方法及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
《Guided Image Filtering》;Kaiming He, Jian Sun, and Xiaoou, Tang;《Proc.European Conf. Computer Vision》;20101230;第1-14页 *
《Single Image Haze Removal Using Dark Channel Prior》;Kaiming He, Jian Sun, and Xiao Tang;《 IEEE TRANSACTION ON PATTERN ANALYSIS AND MACHINE INTELLGENCE》;20111230;第33卷(第12期);第2341-2352页 *

Also Published As

Publication number Publication date
CN103384340A (zh) 2013-11-06

Similar Documents

Publication Publication Date Title
CN103384340B (zh) 一种从单幅2d图像获取3d成像图像的方法
US8711204B2 (en) Stereoscopic editing for video production, post-production and display adaptation
US9445072B2 (en) Synthesizing views based on image domain warping
Tam et al. 3D-TV content generation: 2D-to-3D conversion
US9031356B2 (en) Applying perceptually correct 3D film noise
CN102098528B (zh) 一种平面图像的立体转换方法及装置
CA2806520C (en) Methods, systems, devices and associated processing logic for generating stereoscopic images and video
US20110216160A1 (en) System and method for creating pseudo holographic displays on viewer position aware devices
US20090219383A1 (en) Image depth augmentation system and method
Devernay et al. Stereoscopic cinema
CN102360489B (zh) 实现二维图像到三维图像转换的方法及装置
CN101287143A (zh) 基于实时人机对话的平面视频转立体视频的方法
CN102379127A (zh) 影像处理装置、影像处理方法以及计算机程序
EP2309463A2 (en) Method of displaying a 3D video with insertion of a graphic item and terminal for implementing the method
CN107360416A (zh) 基于局部多元高斯描述子的立体图像质量评价方法
Stavrakis et al. Image-based stereoscopic painterly rendering
Chen et al. A method of stereoscopic display for dynamic 3D graphics on android platform
KR101028342B1 (ko) 2차원 플래시 애니메이션을 입체 3차원 플래시 애니메이션으로 변환하는 방법
Tseng et al. Automatically optimizing stereo camera system based on 3D cinematography principles
CN102646438B (zh) 一种基于flash播放器的3D视频播放方法及装置
CN102467747A (zh) 建筑装修动画3d效果处理方法
CN102724540B (zh) 一种在播放器中进行3d视频处理方法及装置
CN106375749A (zh) 一种视差调整方法及装置
Tolstaya et al. Depth Estimation and Control
Manasa Addressing Latency Issues in 2D to 3D Conversion: Deploying Available Synthetic Database

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant