CN103200417B - 一种2d转3d的方法 - Google Patents
一种2d转3d的方法 Download PDFInfo
- Publication number
- CN103200417B CN103200417B CN201310144204.8A CN201310144204A CN103200417B CN 103200417 B CN103200417 B CN 103200417B CN 201310144204 A CN201310144204 A CN 201310144204A CN 103200417 B CN103200417 B CN 103200417B
- Authority
- CN
- China
- Prior art keywords
- image
- pixel
- gray level
- mean difference
- pixels
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种2D转3D的方法。本发明在计算深度图之前,先对灰度图像做一定程度的预处理,依据一定的规则将灰度图像分割成若干区块,先获得若干区块的深度图,再合并得到整张2D图像的深度图,本发明可以获得良好的转换效果。
Description
技术领域
本发明涉及计算机视频处理领域,尤其涉及一种2D转3D的方法。
背景技术
相比普通的2D画面,3D更加立体逼真,可以让观众产生身临其境的感觉。目前3D技术可以分为裸眼式和眼镜式两种,裸眼式3D技术目前主要应用在工业商用显示方面,眼镜式3D技术则主要是用于消费者市场。
2D转3D技术的视频处理方法通常是先获得2D图像的灰度图像,对灰度图像处理得到整个2D图像的深度图,深度图的生成方法目前有多种方式,其生成质量也会影响到转换效果。
发明内容
针对上述技术问题,本发明提供了一种提供良好的转换效果的2D转3D的方法。
本发明提供的技术方案为:
一种2D转3D的方法,包括以下步骤:
步骤一、获取一张2D图像,并对所述2D图像进行灰度处理,得到灰度图像;
步骤二、对所述灰度图像进行边缘检测,得到图像轮廓;
步骤三、计算所述灰度图像中所有像素点的深度值,计算所述灰度图像中图像轮廓以内的所有像素点之间的深度值的平均值,并根据上述第一平均值计算灰度图像中图像轮廓以内的所有像素点的深度值的第一平均差;
步骤四、所述灰度图像中图像轮廓以外的所有像素点分成若干区块,其具体过程为:
当n个像素点构成一连续的区域时,并且当上述n个像素点的深度值的第二平均差小于等于第一平均差时,则将n个像素点所构成的连续区域定义为一个区块,
当上述n个像素点的深度值的第二平均差大于第一平均差时,则将位于n个像素点所构成的连续区域的边缘的m个像素点中深度值最大的1个像素点从n个像素点中去除,并计算剩下的n-l个像素点的第三平均差,如第三平均差小于等于第一平均差,则将n-l个像素点所构成的连续区域定义为一个区块;
步骤五、计算灰度图像中所有像素点的坐标,并利用构成一个区块的n个像素点的平均坐标作为该区块的坐标;
步骤六、分别获取所述步骤四中的若干区块的深度图,并依据若干区块的坐标,将若干区块的深度图合并后得到整个2D图像的深度图;
步骤六、根据图像轮廓以及整个2D图像的深度图,生成左眼图像和右眼图像。
优选的是,所述的2D转3D的方法中,所述步骤四中,所述n个像素点是否构成一连续的区域,具体通过以下方法判断:n个像素点中,相邻两个像素点之间的距离小于距离阈值。
优选的是,所述的2D转3D的方法中,所述步骤六中,将左眼图像和右眼图像以一定频率交替发送至3D眼镜。
本发明在计算深度图之前,先对灰度图像做一定程度的预处理,依据一定的规则将灰度图像分割成若干区块,先获得若干区块的深度图,再合并得到整张2D图像的深度图,本发明可以获得良好的转换效果。
附图说明
图1为本发明所述的2D转3D的流程图。
具体实施方式
下面结合附图对本发明做进一步的详细说明,以令本领域技术人员参照说明书文字能够据以实施。
如图1所示,本发明提供一种2D转3D的方法,包括以下步骤:
步骤一、获取一张2D图像,并对所述2D图像进行灰度处理,得到灰度图像;
步骤二、对所述灰度图像进行边缘检测,得到图像轮廓。
步骤三、计算所述灰度图像中所有像素点的深度值,计算所述灰度图像中图像轮廓以内的所有像素点之间的深度值的平均值,并根据上述第一平均值计算灰度图像中图像轮廓以内的所有像素点的深度值的第一平均差。
一般情况下,也将图像轮廓内的部分称为前景,而将图像轮廓以外的部分称为后景。在获取图像轮廓时,可以认为图像轮廓内的像素点具有较好的分布的均匀性,也就是前景的像素点的第一平均差是比较小的,因此,可以将其作为后续步骤的依据。
步骤四、所述灰度图像中图像轮廓以外的所有像素点分成若干区块,其具体过程为:
当n个像素点构成一连续的区域时,并且当上述n个像素点的深度值的第二平均差小于等于第一平均差时,则将n个像素点所构成的连续区域定义为一个区块。
当上述n个像素点的深度值的第二平均差大于第一平均差时,则将位于n个像素点所构成的连续区域的边缘的m个像素点中深度值最大的1个像素点从n个像素点中去除,并计算剩下的n-l个像素点的第三平均差,如第三平均差小于等于第一平均差,则将n-l个像素点所构成的连续区域定义为一个区块。
在上述的第一平均差的基础上,将图像轮廓以外的所有像素点分成若干区块。一个区块内的所有像素点应该是深度值分布在允许的误差范围内。这样求取区块的深度图时,才能获得较为准确的结果。
在上述计算过程中,首先依据在灰度图像的坐标选取n个像素点,然后采用排除法,将不符合条件的像素点排除出去,直至剩余的所有像素点符合条件。
为避免深度值接近而实际不属于同一区块的像索点混入,将限制构成一个区块的像素点应该构成一个连续的区域。本发明中,n个像素点是否构成一连续的区域,具体通过以下方法判断:n个像素点中,相邻两个像素点之间的距离小于距离阈值。这里的距离阈值为灰度图像中相邻两个像素点之间的距离的整数倍,这一数值根据具体的2D图像的质量而定。
步骤五、计算灰度图像中所有像素点的坐标,并利用构成一个区块的n个像索点的平均坐标作为该区块的坐标。为了实现若干区块的深度图的合并,将计算区块的坐标。
步骤六、分别获取所述步骤四中的若干区块的深度图,并依据若干区块的坐标,将若干区块的深度图合并后得到整个2D图像的深度图。
步骤六、根据图像轮廓以及整个2D图像的深度图,生成左眼图像和右眼图像。
本发明可以实现较好的转换效果。
所述的2D转3D的方法中,所述步骤六中,将左眼图像和右眼图像以一定频率交替发送至3D眼镜。
尽管本发明的实施方案己公开如上,但其并不仅仅限于说明书和实施方式中所列运用,它完全可以被适用于各种适合本发明的领域,对于熟悉本领域的人员而言,可容易地实现另外的修改,因此在不背离权利要求及等同范围所限定的一般概念下,本发明并不限于特定的细节和这里示出与描述的图例。
Claims (3)
1.一种2D转3D的方法,其特征在于,包括以下步骤:
步骤一、获取一张2D图像,并对所述2D图像进行灰度处理,得到灰度图像;
步骤二、对所述灰度图像进行边缘检测,得到图像轮廓;
步骤三、计算所述灰度图像中所有像素点的深度值,计算所述灰度图像中图像轮廓以内的所有像素点之间的深度值的平均值,并根据所述平均值计算灰度图像中图像轮廓以内的所有像素点的深度值的第一平均差;
步骤四、所述灰度图像中图像轮廓以外的所有像素点分成若干区块,其具体过程为:
当n个像素点构成一连续的区域时,并且当上述n个像素点的深度值的第二平均差小于等于第一平均差时,则将n个像素点所构成的连续区域定义为一个区块,
当上述n个像素点的深度值的第二平均差大于第一平均差时,则将位于n个像素点所构成的连续区域的边缘的m个像素点中深度值最大的1个像素点从n个像素点中去除,并计算剩下的n-1个像素点的第三平均差,如第三平均差小于等于第一平均差,则将n-1个像素点所构成的连续区域定义为一个区块;
步骤五、计算灰度图像中所有像素点的坐标,并利用构成一个区块的n个像素点的平均坐标作为该区块的坐标;
步骤六、分别获取所述步骤四中的若干区块的深度图,并依据若干区块的坐标,将若干区块的深度图合并后得到整个2D图像的深度图;
步骤七、根据图像轮廓以及整个2D图像的深度图,生成左眼图像和右眼图像。
2.如权利要求1所述的2D转3D的方法,其特征在于,所述步骤四中,所述n个像素点是否构成一连续的区域,具体通过以下方法判断:n个像素点中,相邻两个像素点之间的距离小于距离阈值。
3.如权利要求2所述的2D转3D的方法,其特征在于,所述步骤六中,将左眼图像和右眼图像以一定频率交替发送至3D眼镜。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310144204.8A CN103200417B (zh) | 2013-04-23 | 2013-04-23 | 一种2d转3d的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310144204.8A CN103200417B (zh) | 2013-04-23 | 2013-04-23 | 一种2d转3d的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103200417A CN103200417A (zh) | 2013-07-10 |
CN103200417B true CN103200417B (zh) | 2015-04-29 |
Family
ID=48722757
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310144204.8A Active CN103200417B (zh) | 2013-04-23 | 2013-04-23 | 一种2d转3d的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103200417B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102264591B1 (ko) * | 2015-02-27 | 2021-06-15 | 삼성전자주식회사 | 영상 처리 방법 및 이를 지원하는 전자 장치 |
CN108616745A (zh) * | 2016-12-12 | 2018-10-02 | 三维视觉科技有限公司 | 2d自动转3d方法和系统 |
CN110312117B (zh) * | 2019-06-12 | 2021-06-18 | 北京达佳互联信息技术有限公司 | 数据刷新方法及装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102263979A (zh) * | 2011-08-05 | 2011-11-30 | 清华大学 | 一种平面视频立体化的深度图生成方法及装置 |
CN102316352A (zh) * | 2011-08-08 | 2012-01-11 | 清华大学 | 一种基于区域连通图的立体视频深度图的制作方法和装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101588445B (zh) * | 2009-06-09 | 2011-01-19 | 宁波大学 | 一种基于深度的视频感兴趣区域提取方法 |
JP2012138787A (ja) * | 2010-12-27 | 2012-07-19 | Sony Corp | 画像処理装置、および画像処理方法、並びにプログラム |
CN102147922A (zh) * | 2011-05-05 | 2011-08-10 | 河南工业大学 | 灰度图像二维Otsu折线阈值分割法 |
CN102883174B (zh) * | 2012-10-10 | 2015-03-11 | 彩虹集团公司 | 一种2d转3d的方法 |
-
2013
- 2013-04-23 CN CN201310144204.8A patent/CN103200417B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102263979A (zh) * | 2011-08-05 | 2011-11-30 | 清华大学 | 一种平面视频立体化的深度图生成方法及装置 |
CN102316352A (zh) * | 2011-08-08 | 2012-01-11 | 清华大学 | 一种基于区域连通图的立体视频深度图的制作方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN103200417A (zh) | 2013-07-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110264416B (zh) | 稀疏点云分割方法及装置 | |
US9153032B2 (en) | Conversion method and apparatus with depth map generation | |
TWI398158B (zh) | 產生立體影像之影像深度的方法 | |
JP6179639B2 (ja) | 道路境界物の検出方法及び検出装置 | |
EP2755187A2 (en) | 3d-animation effect generation method and system | |
US9154762B2 (en) | Stereoscopic image system utilizing pixel shifting and interpolation | |
GB2507830A8 (en) | System and Method of Image Augmentation | |
CN105608708A (zh) | 基于分块平面拟合的图像二值化方法及装置 | |
CN106408513A (zh) | 深度图超分辨率重建方法 | |
CN103200417B (zh) | 一种2d转3d的方法 | |
Zha et al. | A real-time global stereo-matching on FPGA | |
CN107808388B (zh) | 包含运动目标的图像处理方法、装置及电子设备 | |
CN102840827B (zh) | 一种基于单目机器视觉的非接触三维扫描方法 | |
CN103942756A (zh) | 一种深度图后处理滤波的方法 | |
CN107203962B (zh) | 一种利用2d图片制作伪3d图像的方法及电子设备 | |
US10097808B2 (en) | Image matching apparatus and method thereof | |
CN104270624A (zh) | 一种分区域的3d视频映射方法 | |
US9959672B2 (en) | Color-based dynamic sub-division to generate 3D mesh | |
CN102307308B (zh) | 一种在触摸屏上生成立体图像的方法和设备 | |
CN103731657B (zh) | 一种对dibr算法处理后的含有空洞影像的空洞填充处理方法 | |
CN103337064A (zh) | 图像立体匹配中的一种误匹配点剔除方法 | |
CN105335934A (zh) | 视差图计算方法和装置 | |
WO2014030571A1 (ja) | 立体画像処理装置、立体画像処理方法およびプログラム | |
CN104050673A (zh) | 一种基于K-means图像分割的深度图提取方法 | |
CN103945206B (zh) | 一种基于相似帧比较的立体图像合成系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |