CN103795999B - 一种生成立体图像的方法和系统 - Google Patents

一种生成立体图像的方法和系统 Download PDF

Info

Publication number
CN103795999B
CN103795999B CN201310611732.XA CN201310611732A CN103795999B CN 103795999 B CN103795999 B CN 103795999B CN 201310611732 A CN201310611732 A CN 201310611732A CN 103795999 B CN103795999 B CN 103795999B
Authority
CN
China
Prior art keywords
plane picture
pixel
picture
plane
dimensional coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201310611732.XA
Other languages
English (en)
Other versions
CN103795999A (zh
Inventor
夏春秋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Vision Technology Co Ltd
Original Assignee
Shenzhen Vision Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Vision Technology Co Ltd filed Critical Shenzhen Vision Technology Co Ltd
Priority to CN201310611732.XA priority Critical patent/CN103795999B/zh
Publication of CN103795999A publication Critical patent/CN103795999A/zh
Application granted granted Critical
Publication of CN103795999B publication Critical patent/CN103795999B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

本发明公开了一种生成立体图像的方法和系统。所述方法包括:接收从一幅以上的图像中截取的对象,将截取的对象放置于背景图像中,得到第一平面图像;根据待生成的第二平面图像对应的视点的位置和第一平面图像中每个对象的期望三维坐标,确定与第二平面图像上的第一像素对应的第一平面图像的第二像素;用第二像素的颜色值填充第一像素的颜色值,得到第二平面图像判断第一平面图像和第二平面图像的视差是否在预设的视差范围之内;当在预设的视差范围之内时,存储第一平面图像和第二平面图像,使得在读取所述第一平面图像和第二平面图像其中之一时,会对应地读取其中另一平面图像。本发明较现有的获得三维图像的方法,操作更简单,无需昂贵的费用。

Description

一种生成立体图像的方法和系统
技术领域
本发明涉及图像处理领域,具体涉及一种生成立体图像的方法和系统。
背景技术
随着三维显示技术的发展,三维显示越来越多的融入到了大家的生活中。目前的三维显示技术是利用人眼的视差特征,在人眼裸视或者佩戴某种辅助设备的条件下,呈现出具有空间三维坐标信息的逼真立体影像。
三维显示的图像一般都是存在视差的两幅或者多幅图像,而这些图像的得到方式一般有以下几种:一是用双镜头摄像机拍摄得到,而这种方法中使用的摄像机价格昂贵;另一种方法是利用单镜头相机,在不同角度拍摄图像,这种方法操作比较麻烦,并且不易调整视差。
发明内容
本发明要解决的技术问题是提供一种生成立体图像的方法和系统,可更简单方便地得到一幅或者一幅以上与源图有视差的图像。
为解决上述技术问题,本发明提供了一种生成立体图像的方法,包括:
步骤一、接收从一幅以上的图像中截取的对象,将所述截取的对象放置于背景图像中,得到第一平面图像;
步骤二、接收所述第一平面图像中每个对象的期望三维坐标值,根据该期望三维坐标值以及第一平面图像中每个像素的颜色值,生成该第一平面图像对应的三维坐标图,根据待生成的第二平面图像对应的视点的位置、所述第二平面图像上第一像素的位置,以及所述第二平面图像与所述三维坐标图的三维坐标关系,得到所述第一像素在所述三维坐标图上的对应位置的像素,将所述对应位置的像素的颜色值作为所述第一像素的颜色值,重复本步骤,得到所述第二平面图像上每个像素的颜色值,即得到所述第二平面图像;
步骤三、判断第一平面图像和第二平面图像的视差是否在预设的视差范围之内;
步骤四、当在预设的视差范围之内时,存储所述第一平面图像和第二平面图像,使得在读取所述第一平面图像和第二平面图像其中之一时,会对应地读取其中另一平面图像;当不在预设的视差范围之内时,舍去所述第二平面图像。
为解决上述技术问题,本发明还提供了一种生成立体图像的系统,包括:
第一装置,用于接收从一幅以上的图像中截取的对象,将所述截取的对象放置于背景图像中,得到第一平面图像;
第二装置,用于接收所述第一平面图像中每个对象的期望三维坐标值,根据该期望三维坐标值以及第一平面图像中每个像素的颜色值,生成该第一平面图像对应的三维坐标图,根据待生成的第二平面图像对应的视点的位置、所述第二平面图像上第一像素的位置,以及所述第二平面图像与所述三维坐标图的三维坐标关系,得到所述第一像素在所述三维坐标图上的对应位置的像素,将所述对应位置的像素的颜色值作为所述第一像素的颜色值,重复以上操作得到所述第二平面图像上每个像素的颜色值,即得到所述第二平面图像;
判断模块,用于判断第一平面图像和第二平面图像的视差是否在预设的视差范围之内;
存储模块,用于当在预设的视差范围之内时,存储所述第一平面图像和第二平面图像,使得在读取所述第一平面图像和第二平面图像其中之一时,会对应地读取其中另一平面图像;当不在预设的视差范围之内时,舍去所述第二平面图像。
本发明实施例通过对任意图像进行分割,获得图像上的物体对象,然后在背景上设置该一个或多个物体对象的位置及三维坐标,最后通过计算生成具有视差的两幅或者多幅具有视差的图像,从而替代了现有的获得三维图像的方法,操作更简单,且无需昂贵的费用。
附图说明
图1为本发明系统结构示意图。
图2为本发明的一个具体应用实例的结构示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明采用的生成立体图像的方案包括:
步骤一、接收从一幅以上的图像中截取的对象,将所述截取的对象放置于背景图像中,得到第一平面图像;
其中,所述一幅以上的图像是通过摄像装置获取。
步骤二、根据待生成的第二平面图像对应的视点的位置和第一平面图像中每个对象的期望三维坐标,确定与所述第二平面图像上的第一像素对应的第一平面图像的第二像素;用所述第二像素的颜色值填充所述第一像素的颜色值,得到所述第二平面图像。
采用上述方法不仅计算方便,还可以有效避免空洞,且立体感好。
用户可根据需要设置待生成的第二平面图像的数量,例如可以是2幅或者是4幅或者是9幅等。
上述对象可能是一个物体也可能是一片区域。例如可以是一个杯子、一栋楼或者是一片天空等。
优选地,在得到第二平面图像后,可合并该第一平面图像和第二平面图像,生成立体图像,或者合并两个以上视点分别对应的第二平面图像,生成立体图像。或者也可以不合并,直接输出与第一平面图像有视差的图。例如以九宫格形式输出。
上述步骤二具体包括:
1、接收所述第一平面图像中每个对象的期望三维坐标值;
所述期望三维坐标可以是用户为该第一平面图像中每个对象预设的。如果第一图像中的对象包含三维坐标特征,则用户仅需设置该对象与第一平面图像上其他对象的三维坐标关系即可。第一平面图像中每个对象的期望三维坐标值可以采用以下设置方法中的任意一种进行设置:线性设置、圆形设置、等高线设置、局部点选设置。每个对象的期望三维坐标可以是一个固定值也可以是一个三维坐标范围。
2、根据该期望三维坐标值以及第一平面图像中每个像素的颜色值,生成该第一平面图像对应的三维坐标图;
第一平面图像中每个像素的颜色值是根据以下信息获得:所述截取的对象上每个像素的颜色值、背景图像的颜色值,以及对象的放置关系。对象的放置关系包括对象间的放置关系以及对象与背景的放置关系。
具体地,第一平面图像对应的三维坐标图包含第一平面图像中每个像素的颜色值以及每个像素的期望三维坐标,其中每个像素的颜色值为第一平面图像中对应像素的颜色值,每个像素的三维坐标值根据该像素所在对象的期望三维坐标值确定。
3、根据待生成的第二平面图像对应的视点的位置、所述第二平面图像上第一像素的位置,以及所述第二平面图像与所述三维坐标图的三维坐标关系,得到所述第一像素在所述三维坐标图上的对应位置的像素,将所述对应位置的像素的颜色值作为所述第一像素的颜色值,重复本步骤,得到所述第二平面图像上每个像素的颜色值。
上述第二平面图像与三维坐标图的三维坐标关系由该第二平面图像的三维坐标决定,该第二平面图像的三维坐标和最大三维坐标的三维坐标差与所述最大三维坐标的比值范围在0~1之间,可由用户设置,也可以采用系统默认值。
步骤三、判断第一平面图像和第二平面图像的视差是否在预设的视差范围之内;
步骤四、当在预设的视差范围之内时,存储所述第一平面图像和第二平面图像,使得在读取所述第一平面图像和第二平面图像其中之一时,会对应地读取其中另一平面图像;当不在预设的视差范围之内时,舍去所述第二平面图像。
实现上述方法的系统参见图1,包括:
第一装置,用于接收从一幅以上的图像中截取的对象,将所述截取的对象放置于背景图像中,得到第一平面图像;
第二装置,用于根据待生成的第二平面图像对应的视点的位置和第一平面图像中每个对象的期望三维坐标,确定与所述第二平面图像上的第一像素对应的第一平面图像的第二像素,用所述第二像素的颜色值填充所述第一像素的颜色值,得到所述第二平面图像。
优选地,该系统还包括第三装置,其用于在得到所述第二平面图像后,合并所述第一平面图像和第二平面图像,生成立体图像,或者合并两个以上视点分别对应的第二平面图像,生成立体图像。
优选地,该第二装置还包括期望三维坐标值获取模块、三维坐标图生成模块和视点图像生成模块,其中:
所述期望三维坐标值获取模块,用于接收所述第一平面图像中每个对象的期望三维坐标值;
所述三维坐标图生成模块,用于根据所述期望三维坐标值以及所述第一平面图像中每个像素的颜色值,生成所述第一平面图像对应的三维坐标图;
所述视点图像生成模块,用于重复以下操作得到所述第二平面图像上每个像素的颜色值:根据待生成的第二平面图像对应的视点的位置、所述第二平面图像上第一像素的位置,以及所述第二平面图像与所述三维坐标图的三维坐标关系,得到所述第一像素在所述三维坐标图上的对应位置的像素,将所述对应位置的像素的颜色值作为所述第一像素的颜色值。
优选地,该三维坐标图生成模块根据以下信息获得所述第一平面图像中每个像素的颜色值:所述截取的对象上每个像素的颜色值、背景图像的颜色值,以及对象的放置关系。
优选地,所述期望三维坐标值获取模块还用于采用以下设置方法中的任意一种设置所述第一平面图像中每个对象的期望三维坐标:线性设置、圆形设置、等高线设置、局部点选设置。
优选地,所述第一平面图像对应的三维坐标图包含第一平面图像中每个像素的颜色值以及每个像素的期望三维坐标;所述三维坐标图生成模块采用以下方式生成所述第一平面图像对应的三维坐标图:将所述第一平面图像对应的三维坐标图中每个像素的颜色值为第一平面图像中对应像素的颜色值;所述三维坐标图中每个像素的三维坐标值根据所述像素所在对象的期望三维坐标值确定。
优选地,所述视点图像生成模块包括运算区域确定单元、颜色值确定单元,其中:
所述运算区域确定单元,用于确定一绝对运算区域,该区域内第一平面图像对应的三维坐标图中的像素与所述第二平面图像中的像素的位置一一对应;
所述颜色值确定单元,用于在所述绝对运算区域内,确定所述第二平面图像对应的视点到所述第一像素的向量或向量延长线与所述三维坐标图的首个交点,将所述交点对应的像素的颜色值作为所述第一像素的颜色值。该绝对运算区域可以包含一行像素或者可以包含多行像素。
优选地,上述系统还包括判断模块和存储模块。所述判断模块与视点图像生成模块或第三装置相互连接。所述判断模块,用于判断第一平面图像和第二平面图像的视差是否在预设的视差范围之内。所述存储模块,用于当在预设的视差范围之内时,存储所述第一平面图像和第二平面图像,使得在读取所述第一平面图像和第二平面图像其中之一时,会对应地读取其中另一平面图像。当不在预设的视差范围之内时,舍去所述第二平面图像。
进一步地,在得到所述第二平面图像时,提升所述第二像素的对比度和饱和度,优选地,所述第二像素的对比度和饱和度分别提升20%以上。对比度和饱和度提升方法优选为采用色彩渲染的方法,充分利用前面得到的颜色值,渲染方法与该颜色值有机结合,通过渲染的方式按照色彩比例提升RBG值中任意一个或多个,以获得鲜明逼真色彩,增强3D显示效果。
在一个具体实施例中,上述三维坐标包括第一平面图像中对象的横坐标和纵坐标(或笛卡尔坐标)以及每个对象的期望深度坐标。所述深度包括第一平面图像中运动对象相对于镜头的运动深度和/或静止对象的位置深度。通常图像中具有运动对象和静止对象,为更加逼真地显示3D效果,可分别对运动对象和静止对象的深度作不同对待。通过分析光学流,利用物体运动和其相对于镜头的距离的关系来计算获得深度图,例如,优选地,选择目标对象运动与它们相对于镜头距离直接成正比或接近正比关系来精确计算深度图。
如图2所示,为本发明的一个具体应用实例。在该实例中,揭示了一种摄像装置,该摄像装置为三镜头摄像系统2,其包括摄像头a1、摄像头b1、摄像头c1,优选地,每个摄像头上都设有LED灯3。进一步的,所述摄像头a1、摄像头b1、摄像头c1通过转轴可作30度-120度旋转。三镜头摄像系统2通过支架4固定。结合所述三镜头摄像系统2,本发明系统的工作过程,如下所述:
通过三镜头摄像系统2获取一幅以上(例如三幅)的图像,并从一幅以上的图像中截取对象,将截取的对象放置于背景图像中,得到第一平面图像。
然后,所述摄像装置根据待生成的第二平面图像对应的视点的位置和第一平面图像中每个对象的期望三维坐标,确定与所述第二平面图像上的第一像素对应的第一平面图像的第二像素;用所述第二像素的颜色值填充所述第一像素的颜色值,得到所述第二平面图像。
本发明实施例通过对任意图像进行分割,获得图像上的物体对象,然后在背景上设置该一个或多个物体对象的位置及三维坐标,最后通过计算生成具有视差的两幅或者多幅具有视差的图像,从而替代了现有的获得三维图像的方法,操作更简单,且无需昂贵的费用。
应当理解的是,以上仅为本发明的优选实施例,不能因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (6)

1.一种生成立体图像的方法,包括:
步骤一、接收从一幅以上的图像中截取的对象,将所述截取的对象放置于背景图像中,得到第一平面图像;
步骤二、接收所述第一平面图像中每个对象的期望三维坐标值,根据该期望三维坐标值以及第一平面图像中每个像素的颜色值,生成该第一平面图像对应的三维坐标图,根据待生成的第二平面图像对应的视点的位置、所述第二平面图像上第一像素的位置,以及所述第二平面图像与所述三维坐标图的三维坐标关系,得到所述第一像素在所述三维坐标图上的对应位置的像素,将所述对应位置的像素的颜色值作为所述第一像素的颜色值,重复本步骤,得到所述第二平面图像上每个像素的颜色值,即得到所述第二平面图像;
步骤三、判断第一平面图像和第二平面图像的视差是否在预设的视差范围之内;
步骤四、当在预设的视差范围之内时,存储所述第一平面图像和第二平面图像,使得在读取所述第一平面图像和第二平面图像其中之一时,会对应地读取其中另一平面图像;当不在预设的视差范围之内时,舍去所述第二平面图像。
2.如权利要求1所述的方法,其特征在于,
得到所述第二平面图像后,合并所述第一平面图像和第二平面图像,生成立体图像,或者合并两个以上视点分别对应的第二平面图像,生成立体图像。
3.如权利要求1所述的方法,其特征在于,
所述一幅以上的图像是通过摄像装置获取。
4.一种生成立体图像的系统,包括:
第一装置,用于接收从一幅以上的图像中截取的对象,将所述截取的对象放置于背景图像中,得到第一平面图像;
第二装置,用于接收所述第一平面图像中每个对象的期望三维坐标值,根据该期望三维坐标值以及第一平面图像中每个像素的颜色值,生成该第一平面图像对应的三维坐标图,根据待生成的第二平面图像对应的视点的位置、所述第二平面图像上第一像素的位置,以及所述第二平面图像与所述三维坐标图的三维坐标关系,得到所述第一像素在所述三维坐标图上的对应位置的像素,将所述对应位置的像素的颜色值作为所述第一像素的颜色值,重复以上操作得到所述第二平面图像上每个像素的颜色值,即得到所述第二平面图像;
判断模块,用于判断第一平面图像和第二平面图像的视差是否在预设的视差范围之内;
存储模块,用于当在预设的视差范围之内时,存储所述第一平面图像和第二平面图像,使得在读取所述第一平面图像和第二平面图像其中之一时,会对应地读取其中另一平面图像;当不在预设的视差范围之内时,舍去所述第二平面图像。
5.如权利要求4所述的系统,其特征在于,
所述系统还包括第三装置,其用于在得到所述第二平面图像后,合并所述第一平面图像和第二平面图像,生成立体图像,或者合并两个以上视点分别对应的第二平面图像,生成立体图像。
6.如权利要求4所述的系统,其特征在于,
所述一幅以上的图像是通过摄像装置获取。
CN201310611732.XA 2013-11-26 2013-11-26 一种生成立体图像的方法和系统 Active CN103795999B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310611732.XA CN103795999B (zh) 2013-11-26 2013-11-26 一种生成立体图像的方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310611732.XA CN103795999B (zh) 2013-11-26 2013-11-26 一种生成立体图像的方法和系统

Publications (2)

Publication Number Publication Date
CN103795999A CN103795999A (zh) 2014-05-14
CN103795999B true CN103795999B (zh) 2016-01-20

Family

ID=50671224

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310611732.XA Active CN103795999B (zh) 2013-11-26 2013-11-26 一种生成立体图像的方法和系统

Country Status (1)

Country Link
CN (1) CN103795999B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105657400B (zh) * 2016-01-11 2017-11-03 上海斐讯数据通信技术有限公司 图像获取方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102158725A (zh) * 2011-05-06 2011-08-17 深圳超多维光电子有限公司 一种生成立体图像的方法和系统
CN102186093A (zh) * 2011-04-28 2011-09-14 深圳超多维光电子有限公司 一种生成立体图像的方法和系统
WO2012068724A1 (zh) * 2010-11-23 2012-05-31 深圳超多维光电子有限公司 立体图像获取系统及方法
CN103369331A (zh) * 2012-03-27 2013-10-23 北京数码视讯科技股份有限公司 图像空洞的填补方法和装置及视频图像的处理方法和装置
CN103384340A (zh) * 2013-06-28 2013-11-06 中南大学 一种从单幅2d图像获取3d成像图像的方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012068724A1 (zh) * 2010-11-23 2012-05-31 深圳超多维光电子有限公司 立体图像获取系统及方法
CN102186093A (zh) * 2011-04-28 2011-09-14 深圳超多维光电子有限公司 一种生成立体图像的方法和系统
CN102158725A (zh) * 2011-05-06 2011-08-17 深圳超多维光电子有限公司 一种生成立体图像的方法和系统
CN103369331A (zh) * 2012-03-27 2013-10-23 北京数码视讯科技股份有限公司 图像空洞的填补方法和装置及视频图像的处理方法和装置
CN103384340A (zh) * 2013-06-28 2013-11-06 中南大学 一种从单幅2d图像获取3d成像图像的方法

Also Published As

Publication number Publication date
CN103795999A (zh) 2014-05-14

Similar Documents

Publication Publication Date Title
US10373362B2 (en) Systems and methods for adaptive stitching of digital images
CN101271583B (zh) 一种基于深度图的快速图像绘制方法
KR101732836B1 (ko) 셰이더 기반의 그래픽스 콘텐츠에 대한 뷰잉 배향에 의한 입체 변환
US9697647B2 (en) Blending real and virtual construction jobsite objects in a dynamic augmented reality scene of a construction jobsite in real-time
KR101334187B1 (ko) 다시점 렌더링 장치 및 방법
CN103019507B (zh) 一种基于人脸跟踪改变视点角度显示三维图形的方法
CN108513123B (zh) 一种集成成像光场显示的图像阵列生成方法
JP5366547B2 (ja) 立体視表示装置
EP3350989B1 (en) 3d display apparatus and control method thereof
US20110205226A1 (en) Generation of occlusion data for image properties
US20140198101A1 (en) 3d-animation effect generation method and system
US9563959B2 (en) Image processor, lighting processor and method therefor
KR20130136536A (ko) 네이티브 모노스코픽 3d의 입체 3d 로의 런 타임 변환
Berning et al. A study of depth perception in hand-held augmented reality using autostereoscopic displays
US11176637B2 (en) Foveated rendering using eye motion
US20180184066A1 (en) Light field retargeting for multi-panel display
WO2016081118A1 (en) Measuring accuracy of image based depth sensing systems
CN104079913B (zh) 光栅式立体显示器兼容2d-3d显示的子像素排列方法、装置
Kovács et al. Quality Measurement Of 3D Light-Field Displays
US20080238930A1 (en) Texture processing apparatus, method and program
WO2018187635A1 (en) System, method and software for producing virtual three dimensional images that appear to project forward of or above an electronic display
EP3905673A1 (en) Generation method for 3d asteroid dynamic map and portable terminal
CN103745448A (zh) 光栅3d显示中超高分辨率合成图像的快速生成方法
US20130321409A1 (en) Method and system for rendering a stereoscopic view
KR20110055032A (ko) 전자기기에서 3차원 컨텐츠 생성 방법 및 장치

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant