CN102307308B - 一种在触摸屏上生成立体图像的方法和设备 - Google Patents

一种在触摸屏上生成立体图像的方法和设备 Download PDF

Info

Publication number
CN102307308B
CN102307308B CN201110149715.XA CN201110149715A CN102307308B CN 102307308 B CN102307308 B CN 102307308B CN 201110149715 A CN201110149715 A CN 201110149715A CN 102307308 B CN102307308 B CN 102307308B
Authority
CN
China
Prior art keywords
plane picture
pixel
depth
color value
touch information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201110149715.XA
Other languages
English (en)
Other versions
CN102307308A (zh
Inventor
楚明磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Super Perfect Optics Ltd
Original Assignee
深圳超多维光电子有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 深圳超多维光电子有限公司 filed Critical 深圳超多维光电子有限公司
Priority to CN201110149715.XA priority Critical patent/CN102307308B/zh
Publication of CN102307308A publication Critical patent/CN102307308A/zh
Application granted granted Critical
Publication of CN102307308B publication Critical patent/CN102307308B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明公开了一种在触摸屏上生成立体图像的方法和设备,所述方法包括:获取用户对触摸屏的触控信息;根据所述触控信息获取用户从原始图像中选择的对象,并将其从原始图像中分离出来;根据所述触控信息获取对象的放置位置,将所述对象根据所述放置位置放置于背景图像中,得到第一平面图像;根据所述触控信息获取第一平面图像中每个对象的期望深度;根据待生成的第二平面图像对应的视点的位置和第一平面图像中每个对象的期望深度,确定与所述第二平面图像上的第一像素对应的第一平面图像的第二像素;用所述第二像素的颜色值填充所述第一像素的颜色值,得到所述第二平面图像。本发明替代了现有的获得三维图像的方法,操作更简单,且无需昂贵的费用。

Description

一种在触摸屏上生成立体图像的方法和设备
技术领域
本发明涉及图像处理领域,具体涉及一种在触摸屏上生成立体图像的方法和设备。
背景技术
随着三维显示技术的发展,三维显示越来越多的融入到了大家的生活中。目前的三维显示技术是利用人眼的视差特征,在人眼裸视或者佩戴某种辅助设备的条件下,呈现出具有空间深度信息的逼真立体影像。
三维显示的图像一般都是存在视差的两幅或者多幅图像,而这些图像的得到方式一般有以下几种:一是用双镜头摄像机拍摄得到,而这种方法中使用的摄像机价格昂贵;另一种方法是利用单镜头相机,在不同角度拍摄图像,这种方法操作比较麻烦,并且,不易调整视差。
发明内容
本发明要解决的技术问题是提供一种在触摸屏上生成立体图像的方法和设备,可更简单方便地得到一幅或者一幅以上与源图有视差的图像。
为解决上述技术问题,本发明提供了一种在触摸屏上生成立体图像的方法,包括:获取用户对触摸屏的触控信息;根据所述触控信息获取用户从原始图像中选择的对象,将用户选择的一个或一个以上对象从原始图像中分离出来;根据所述触控信息获取对象的放置位置,将所述分离的对象根据所述放置位置放置于背景图像中,得到第一平面图像,其中,所述背景图像是一幅新的图像、原始图像或者经过立体处理后得到的图像中的任一种图像;根据所述触控信息获取第一平面图像中每个对象的期望深度;根据待生成的第二平面图像对应的视点的位置和第一平面图像中每个对象的期望深度,确定与所述第二平面图像上的第一像素对应的第一平面图像的第二像素;用所述第二像素的颜色值填充所述第一像素的颜色值,得到所述第二平面图像,上述步骤具体包括:
根据所述第一平面图像中每个对象的期望深度以及所述第一平面图像中每个像素的颜色值,生成所述第一平面图像对应的深度图;第一平面图像中每个像素的颜色值根据所分离的对象上每个像素的颜色值、背景图像的颜色值、以及对象的放置关系决定;
根据待生成的第二平面图像对应的视点的位置、所述第二平面图像上第一像素的位置,以及所述第二平面图像与所述深度图的深度关系,得到所述第一像素在所述深度图上对应位置的像素,将所述对应位置的像素的颜色值作为所述第一像素的颜色值。
为解决上述技术问题,本发明还提供了一种在触摸屏上生成立体图像的设备,包括:触控信息获取模块,用于获取用户对触摸屏的触控信息;图像分割模块,用于根据所述触控信息获取用户从原始图像中选择的对象,将用户选择的一个或一个以上对象从原始图像中分离出来;第一平面图像生成模块,用于根据所述触控信息获取对象的放置位置,将所述分离的对象根据所述放置位置放置于背景图像中,得到第一平面图像,其中,所述背景图像是一幅新的图像、原始图像或者经过立体处理后得到的图像中的任一种图像;期望深度获取模块,用于根据所述触控信息获取第一平面图像中每个对象的期望深度;第二平面图像生成模块,用于根据待生成的第二平面图像对应的视点的位置和第一平面图像中每个对象的期望深度,确定与所述第二平面图像上的第一像素对应的第一平面图像的第二像素,用所述第二像素的颜色值填充所述第一像素的颜色值,得到所述第二平面图像,所述第二平面图像生成模块包括:
深度图生成子模块,用于根据所述第一平面图像中每个对象的期望深度以及所述第一平面图像中每个像素的颜色值,生成所述第一平面图像对应的深度图;第一平面图像中每个像素的颜色值根据所分离的对象上每个像素的颜色值、背景图像的颜色值、以及对象的放置关系决定;
视点图生成子模块,用于根据待生成的第二平面图像对应的视点的位置、所述第二平面图像上第一像素的位置,以及所述第二平面图像与所述深度图的深度关系,得到所述第一像素在所述深度图上对应位置的像素,将所述对应位置的像素的颜色值作为所述第一像素的颜色值。
本发明实施例通过获取用户对触摸屏的触控信息来对任意图像进行分割,获得图像上的物体对象,然后通过所述触控信息获取该一个或多个物体对象的位置及深度,最后通过计算生成具有视差的两幅或者多幅具有视差的图像,从而替代了现有的获得三维图像的方法,操作更简单,且无需昂贵的费用。
附图说明
图1为本发明实施例的在触摸屏上生成立体图像的方法流程图;
图2为本发明实施例中以线性设置方式设置深度的示意图;
图3为本发明实施例中以圆形设置方式设置深度的示意图;
图4为本发明实施例中以等高线设置方式设置深度的示意图;
图5为本发明实施例中以局部点选设置方式设置深度的示意图;
图6为本发明实施例中以行为单位进行立体处理的流程图;
图7为本发明实施例的在触摸屏上生成立体图像的设备结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图及具体实施例对本发明进行详细描述。
图1为本发明实施例的在触摸屏上生成立体图像的方法流程图,参照图1,所述方法包括如下步骤:
步骤101:获取用户对触摸屏的触控信息;
首先,对用户通过触摸体(手指或触摸笔等)触摸触摸屏产生的触摸感应信号进行检测,然后,对所述触摸感应信号进行解析可以获得触控信息,所述触控信息主要包括:触控点位置、滑动路径、拖动路径和触控动作。
触控点位置可以是一个或多个,多个触控点位置可以是一次触摸产生,也可以是多次触摸产生。
滑动路径是指触摸体在触摸屏上滑过的路径。
拖动路径是指通过触摸体在触摸屏上选定一个对象后(触摸一个触摸点超过预设的时间),在触摸屏上拖动的路径。
触控动作包括单击、双击、张开手指、合拢手指等。
步骤102:根据所述触控信息获取用户从原始图像中选择的对象,将用户选择的一个或一个以上对象从原始图像中分离出来;
根据所述触控信息获取用户从原始图像中选择的对象的方法有如下两种:
方法一、根据所述触控信息中包括的一个或一个以上的触控点位置,获取用户从原始图像中选择的对象。
如果所述一个或一个以上的触控点位置均位于一个对象的显示区域内,则可以确定该对象为用户选择的对象。
或者,一个以上的触控点位置所包围的区域覆盖了一个对象的显示区域,则可以确定该对象为用户选择的对象。
方法二、根据所述触控信息中包括的滑动路径,获取用户从原始图像中选择的对象。
如果所述滑动路径位于一个对象的显示区域内,则可以确定该对象为用户选择的对象。
上述对象可能是一个物体也可能是一片区域,例如可以是一个杯子、一栋楼或者是一片天空等。
获取到用户从原始图像中选择的对象后,就可以对原始图像进行分割,将用户选择的一个或一个以上对象从原始图像中分离出来。优选采用图像分割算法(或称抠图算法)对原始图像进行分割。具体分割的方式很多,例如可以采用特定的形状模型进行分割,比如:长方形、圆形等;也可以采用一些算法进行智能的分割,如均值漂移算法、最小割/最大流算法等。
如果需要分离多个对象,通常一次分割一个对象,通过多次运行图像分割算法,分离出多个对象,将所有要分离的对象都分割出来后再执行步骤103。
步骤103:根据所述触控信息获取对象的放置位置,将所述分离的对象根据所述放置位置放置于背景图像中,得到第一平面图像;
可以根据所述触控信息中包括的拖动路径,来获取对象的放置位置。放置的位置关系对后续的立体显示的深度层次(三维显示时的凸凹层次)也会产生影响,位于上层的对象较位于下层的对象从视觉上更加凸出。
上述背景图像可以是一幅新的图像,或者可以是原始图像,还可以是经过立体处理后得到的图像。
本步骤中,将对象放置于背景图像中时,是根据用户通过触摸屏设置的对象的位置信息来进行放置即位置的设置。采用此种方式,用户可以自行设置三维显示时各对象的放置关系,给用户较大的自由度,用户体验较好。
步骤104:根据所述触控信息获取第一平面图像中每个对象的期望深度;
步骤105:根据待生成的第二平面图像对应的视点的位置和第一平面图像中每个对象的期望深度,确定与所述第二平面图像上的第一像素对应的第一平面图像的第二像素;用所述第二像素的颜色值填充所述第一像素的颜色值,得到所述第二平面图像。
在步骤104中,可以根据所述触控信息中包括的一个或一个以上触控点位置的深度值,采用线性设置、圆形设置、等高线设置或局部点选设置的方式设置所述第一平面图像中每个对象的期望深度。每个对象的期望深度可以是一个固定值也可以是一个深度范围。
下面对几种设置方法分别进行介绍
●线性设置:
如图2所示,设定一深度设置区201,在该区域中,设Ps为起点(start),起点的深度为Vs,Pe为终点(end),终点的深度为Ve。设起点和终点间线段PsPe上任一点Px的深度为Vx,则Vx=Vs+(Dsx/Dse)*Vse,其中,Dsx为点Ps到点Px的距离,Dse为点Ps到点Pe的距离,Vse=Ve–Vs。并且在该深度设置区内,该Px所在的垂直于线段PsPe的线段(如图中202)上所有点的深度值均为Vx。该深度设置区范围横向范围可通过起点和终点确定,纵向范围的初始大小可采用系统默认,也可由用户手动调整。
●圆形设置:
如图3所示,设定一圆形深度设置区301,在该区域中,设Ps为起点(start),起点的深度为Vs,Pe为终点(end),终点的深度为Ve,且半径为PsPe的圆上任一点的深度值均为Ve。设起点和终点间线段PsPe上任一点Px的深度为Vx,则Vx=Vs+(Dsx/Dse)*Vse,其中,Dsx为点Ps到点Px的距离,Dse为点Ps到点Pe的距离,Vse=Ve–Vs。并且在该深度设置区内,该Px所在的半径为PsPx的圆(如图中302)上任一点的深度值均为Vx。该深度设置区范围大小通过起点和终点的位置确定。
●等高线设置:
等高线是一条由用户点选的插值点组成的样条曲线。用户可通过鼠标的点击点选插值点,插值点之间用样条曲线连接。如图4所示,线401和线402为两条等高线,线401上所有点的深度为V1,线402上所有点的深度为V2,线401上任意一点Ps的法线与线402交于点Pe,则线段PsPe上任一点Px的深度为:Vx=V1+(Dsx/Dse)*Vse,其中,Dsx为点Ps到点Px的距离,Dse为点Ps到点Pe的距离,Vse=V2–V1。如果Ps的法线与线402无交点,则暂不处理,继续计算有交点的点。当所有能计算的点计算完毕后,再对无法计算深度的点采用加权平均的方式设置深度,比如可以采用3*3或5*5或者更大的高斯模板进行加权平均计算。
●局部点选设置:
局部点选的作用是对图像上的点的深度进行局部调整,例如,在采用该方式设置深度时,对用户选择的点进行深度的增加或减少,增加或减少的幅度d为系统预设,也可以由用户进行修改,例如d=5,而距离该点P的距离为r处的点(见图5)的深度增加或减少dr=k*d/r,其中k为加权参数,可以根据实际情况取值,例如k=0.3。
根据用户设定的深度进行深度设置,实施起来更加简单、容易实现,无需制作三维场景,无需进行测量,且用户不但可以根据喜好设置图片内容,还可以根据自己的需要设置深度,能够获得非常好的用户体验。
上述步骤105具体包括:
步骤S1:根据所述第一平面图像中每个对象的期望深度以及所述第一平面图像中每个像素的颜色值,生成所述第一平面图像对应的深度图;
第一平面图像中每个像素的颜色值根据所分离的对象上每个像素的颜色值、背景图像的颜色值,以及对象的放置关系来决定,从视点可见的对象和/或背景的颜色值共同组成第一平面图像的颜色值。
具体地,所述第一平面图像对应的深度图包含第一平面图像中每个像素的颜色值以及每个像素的深度值。其中,将所述第一平面图像对应的深度图中每个像素的颜色值设置为第一平面图像中对应像素的颜色值,每个像素的深度值根据所述像素所在对象的期望深度确定。
步骤S2:根据待生成的第二平面图像对应的视点的位置、所述第二平面图像上第一像素的位置,以及所述第二平面图像与所述深度图的深度关系,得到所述第一像素在所述深度图上的对应位置的像素,将所述对应位置的像素的颜色值作为所述第一像素的颜色值,重复本步骤,得到所述第二平面图像上每个像素的颜色值。
上述第二平面图像与深度图的深度关系由该第二平面图像的深度决定,该第二平面图像的深度和最大深度的深度差与所述最大深度的比值范围在0~1之间,可由用户设置,也可以采用系统默认值,优选为[0.2,0.4]。最大深度通常范围为[0,255],通常为255。
步骤S2具体包括:
步骤S21:确定一绝对运算区域,该区域内第一平面图像对应的深度图中的像素与所述第二平面图像中的像素的位置一一对应;
步骤S22:在所述绝对运算区域内,确定所述第二平面图像对应的视点到所述第一像素的向量或向量延长线与所述深度图的首个交点,将所述交点对应的像素的颜色值作为所述第一像素的颜色值。
上述绝对运算区域包含一行像素或者多行像素(如像素面)。根据绝对运算区域的不同,具体可分为以下两种计算方法:
方法A
绝对运算区域包含一像素行时,则生成的该第一平面图像对应的深度图为一深度曲线,该深度曲线上的像素与第二平面图像中的像素一一对应。第二平面图像中某行L上某像素点P的颜色值通过以下方法得到:确定预设视点到P点的向量或向量延长线与深度曲线的首个交点P’,确定该深度曲线上点P’对应像素的颜色值为所述P点的颜色值。
方法B
绝对运算区域包含多行像素,即一像素面,则生成的该第一平面图像对应的深度图为一深度曲面,该深度曲面中的像素与第二平面图像中的像素一一对应;第二平面图像中某行L上某像素点P的颜色值可参照方法A获得。
上述方法A和方法B均可通过构建数学模型来实现,区别在于方法A以线为单位构建平面数学模型,方法B以面为单位构建立体数学模型。方法B较方法A略复杂,且,方法B中由于视点的投影位置通常在视觉深度曲面的中心位置,因此在确定视点对应的待生成图像的颜色值时可能产生一定的视差。
以方法A为例说明立体处理的过程:
图6中,L1和L2对应第一平面图像的某一行M,其中L1表示该M行上每个像素的颜色值,L2表示该M行上每个像素的深度值,L1和L2共同组成第一平面图像的深度图。通过深度坐标来表示L1、L2以及待生成的第二平面对应像素行,如图6所示,在本实施例中L1的深度为0;L2的深度由L2上各像素的深度值决定,图6所示L2曲线形状仅为示例;L3为待生成第二平面图像上对应第一平面图像像素的像素行,也就是说L3上每一像素与L1上每一像素一一对应;L4为最大深度(本实施例中为255)。L3的深度位置由以下参数决定:L3到L4的深度与L1到L4的深度(即最大深度)的比值范围在0-1之间,优选为[0.2,0.4]。
图中的视距为左右视点到L3的距离。
L3上某像素点P1的颜色值通过以下方法得到:确定视点(左视点或者右视点)到P1点的向量或向量延长线与L2的首个交点,该交点对应像素在L1上的颜色值即为该视点对应的第二平面图像上P1点的颜色值。图中P1l为根据上述方法确定的左视点对应的第二平面图像中P1点的颜色值,P1r为根据上述方法确定的右视点对应的第二平面图像中P1点的颜色值;P2l为根据上述方法确定的左视点对应的第二平面图像中P2点的颜色值,P2r为根据上述方法确定的右视点对应的第二平面图像中P2点的颜色值。
用上述方法可以逐行确定某视点对应的第二平面图像上的颜色值,进而获得整幅该视点对应的待生成的第二平面图像。
上述实施例以两个视点为例进行说明,为了获得更好的立体效果,也可以设置多个视点,例如在上述左右视点的基础上增加左左视点和右右视点,重复上述方法,分别生成左左视点和右右视点对应的待生成图像,利用四个视点对应的待生成图像生成最终的立体图像。
优选地,在得到第二平面图像后,可合并该第一平面图像和第二平面图像,生成立体图像,或者合并两个或两个以上视点分别对应的第二平面图像,生成立体图像。或者也可以不合并,直接输出与第一平面图像有视差的图像,例如以九宫格形式输出。
优选地,在得到所述第二平面图像后,所述方法还包括:对所述第二平面图像中的空白像素利用图像补偿算法进行修复填充。可采用图像修描(Inpainting)技术或者调整(Resize)技术作为图像补偿算法对图像进行自动补偿。
以采用inpainting技术进行填补进行说明:根据空白像素旁边的部分像素,在整幅图像上进行搜索,当这部分像素与整幅图像上的某些像素达到一定的匹配时,就可以用这部分像素相邻的像素对空白像素进行填补。具体地,先在空白像素边缘处选择一个待匹配模型,例如有5*5个像素,假如其中有13个像素是已知的,有12个像素是空白像素,利用该13个已知像素在整幅图像上进行匹配,当待匹配模型中的13个已知像素与某一区域的13个像素相同,则该区域为匹配模型,匹配模型内的另12个已知像素用于填补待匹配模型中的12个空白像素。
采用本发明实施例的上述生成立体图像的方法不仅计算方便,还可以有效避免空洞,且立体感好。用户可根据需要设置待生成的第二平面图像的数量,例如可以是2幅或者是4幅或者是9幅等。
实现上述方法的设备参见图7,包括:
触控信息获取模块10,用于获取用户对触摸屏的触控信息;
图像分割模块20,用于根据所述触控信息获取用户从原始图像中选择的对象,将用户选择的一个或一个以上对象从原始图像中分离出来;
第一平面图像生成模块30,用于根据所述触控信息获取对象的放置位置,将所述分离的对象根据所述放置位置放置于背景图像中,得到第一平面图像;
期望深度获取模块40,用于根据所述触控信息获取第一平面图像中每个对象的期望深度;
第二平面图像生成模块50,用于根据待生成的第二平面图像对应的视点的位置和第一平面图像中每个对象的期望深度,确定与所述第二平面图像上的第一像素对应的第一平面图像的第二像素,用所述第二像素的颜色值填充所述第一像素的颜色值,得到所述第二平面图像。
其中,所述图像分割模块20进一步用于:
根据所述触控信息中包括的一个或一个以上的触控点位置,获取用户从原始图像中选择的对象;或者
根据所述触控信息中包括的滑动路径,获取用户从原始图像中选择的对象。
其中,所述第一平面图像生成模块30进一步用于:
根据所述触控信息中包括的拖动路径,获取对象的放置位置。
其中,所述期望深度获取模块40进一步用于:
根据所述触控信息中包括的一个或一个以上触控点位置的深度值,采用线性设置、圆形设置、等高线设置或局部点选设置的方式设置所述第一平面图像中每个对象的期望深度。
优选地,所述设备还包括立体图像生成模块60,用于合并所述第一平面图像和第二平面图像,生成立体图像,或者合并两个或两个以上视点分别对应的第二平面图像,生成立体图像。
优选地,所述设备还包括修复模块70,用于对所述第二平面图像中的空白像素进行修复填充。
优选地,所述第二平面图像生成模块50包括:
深度图生成子模块,用于根据所述第一平面图像中每个对象的期望深度以及所述第一平面图像中每个像素的颜色值,生成所述第一平面图像对应的深度图;
视点图像生成子模块,用于重复以下操作得到所述第二平面图像上每个像素的颜色值:根据待生成的第二平面图像对应的视点的位置、所述第二平面图像上第一像素的位置,以及所述第二平面图像与所述深度图的深度关系,得到所述第一像素在所述深度图上的对应位置的像素,将所述对应位置的像素的颜色值作为所述第一像素的颜色值。
优选地,所述深度图生成子模块根据以下信息获得所述第一平面图像中每个像素的颜色值:所述分离的对象上每个像素的颜色值、背景图像的颜色值,以及对象的放置关系。
优选地,所述第一平面图像对应的深度图包含第一平面图像中每个像素的颜色值以及每个像素的深度值;
所述深度图生成子模块采用以下方式生成所述第一平面图像对应的深度图:将所述第一平面图像对应的深度图中每个像素的颜色值设置为第一平面图像中对应像素的颜色值,每个像素的深度值根据所述像素所在对象的期望深度确定。
优选地,所述第二平面图像与所述深度图的深度关系由所述第二平面图像的深度决定,所述第二平面图像的深度和最大深度的深度差与所述最大深度的比值范围在0~1之间。
优选地,所述视点图像生成子模块包括:
运算区域确定单元,用于确定一绝对运算区域,该区域内第一平面图像对应的深度图中的像素与所述第二平面图像中的像素的位置一一对应;
颜色值确定单元,用于在所述绝对运算区域内,确定所述第二平面图像对应的视点到所述第一像素的向量或向量延长线与所述深度图的首个交点,将所述交点对应的像素的颜色值作为所述第一像素的颜色值。所述绝对运算区域可包含一行像素或者多行像素。
所述设备可以是手机、数码相机及PDA(个人数字助理)等。所述设备中还可包括立体显示模块,用于显示立体图像。观看立体图像的方式包括裸眼或者借助辅助设备。
所述设备在生成和显示立体图像的过程中,还能够支持各种触摸屏操作,比如:触摸屏设备向一侧转动时,其所处理的图像会随设备转动,并自动调整大小,以适合屏幕。再比如:连续点击两次图像两次,图像会放大,再连续点击两次会缩小,张开或合拢手指来放大或缩小图像等。同样,用户也可以使用这些操作来控制立体显示区域。例如,移动立体区域,放大或缩小立体区域等。
需要说明的是,上述实施例在生成立体图像时用到了物体对象的深度值信息,由于深度值信息与对象中像素的凸凹参数是可以相互转换的,因此,通过触摸屏输入像素的凸凹参数,采用类似的实现原理也能生成立体图像。
本领域普通技术人员可以理解,上述方法中的全部或部分步骤可通过程序来指令相关硬件完成,所述程序可以存储于计算机可读存储介质中,如只读存储器、磁盘或光盘等。可选地,上述实施例的全部或部分步骤也可以使用一个或多个集成电路来实现。相应地,上述实施例中的各模块/单元可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。本发明不限制于任何特定形式的硬件和软件的结合。
当然,本发明还可有其他多种实施例,在不背离本发明精神及其实质的情况下,熟悉本领域的技术人员当可根据本发明作出各种相应的改变和变形,但这些相应的改变和变形都应属于本发明所附的权利要求的保护范围。

Claims (9)

1.一种在触摸屏上生成立体图像的方法,其特征在于,包括:
获取用户对触摸屏的触控信息;
根据所述触控信息获取用户从原始图像中选择的对象,将用户选择的一个或一个以上对象从原始图像中分离出来;
根据所述触控信息获取对象的放置位置,将所述分离的对象根据所述放置位置放置于背景图像中,得到第一平面图像,其中,所述背景图像是一幅新的图像、原始图像或者经过立体处理后得到的图像中的任一种图像;
根据所述触控信息获取第一平面图像中每个对象的期望深度;
根据待生成的第二平面图像对应的视点的位置和第一平面图像中每个对象的期望深度,确定与所述第二平面图像上的第一像素对应的第一平面图像的第二像素;用所述第二像素的颜色值填充所述第一像素的颜色值,得到所述第二平面图像,上述步骤具体包括:
根据所述第一平面图像中每个对象的期望深度以及所述第一平面图像中每个像素的颜色值,生成所述第一平面图像对应的深度图;第一平面图像中每个像素的颜色值根据所分离的对象上每个像素的颜色值、背景图像的颜色值、以及对象的放置关系决定;
根据待生成的第二平面图像对应的视点的位置、所述第二平面图像上第一像素的位置,以及所述第二平面图像与所述深度图的深度关系,得到所述第一像素在所述深度图上对应位置的像素,将所述对应位置的像素的颜色值作为所述第一像素的颜色值。
2.如权利要求1所述的方法,其特征在于,所述根据所述触控信息获取用户从原始图像中选择的对象,包括:
根据所述触控信息中包括的一个或一个以上的触控点位置,获取用户从原始图像中选择的对象;或者
根据所述触控信息中包括的滑动路径,获取用户从原始图像中选择的对象。
3.如权利要求1所述的方法,其特征在于,所述根据所述触控信息获取对象的放置位置,包括:
根据所述触控信息中包括的拖动路径,获取对象的放置位置。
4.如权利要求1所述的方法,其特征在于,所述根据所述触控信息获取第一平面图像中每个对象的期望深度,包括:
根据所述触控信息中包括的一个或一个以上触控点位置的深度值,采用线性设置、圆形设置、等高线设置或局部点选设置的方式设置所述第一平面图像中每个对象的期望深度。
5.如权利要求1所述的方法,其特征在于,得到所述第二平面图像后,所述方法还包括:
对所述第二平面图像中的空白像素进行修复填充。
6.一种在触摸屏上生成立体图像的设备,其特征在于,包括:
触控信息获取模块,用于获取用户对触摸屏的触控信息;
图像分割模块,用于根据所述触控信息获取用户从原始图像中选择的对象,将用户选择的一个或一个以上对象从原始图像中分离出来;
第一平面图像生成模块,用于根据所述触控信息获取对象的放置位置,将所述分离的对象根据所述放置位置放置于背景图像中,得到第一平面图像,其中,所述背景图像是一幅新的图像、原始图像或者经过立体处理后得到的图像中的任一种图像;期望深度获取模块,用于根据所述触控信息获取第一平面图像中每个对象的期望深度;
第二平面图像生成模块,用于根据待生成的第二平面图像对应的视点的位置和第一平面图像中每个对象的期望深度,确定与所述第二平面图像上的第一像素对应的第一平面图像的第二像素,用所述第二像素的颜色填充所述第一像素的颜色值,得到所述第二平面图像,所述第二平面图像生成模块包括:
深度图生成子模块,用于根据所述第一平面图像中每个对象的期望深度以及所述第一平面图像中每个像素的颜色值,生成所述第一平面图像对应的深度图;第一平面图像中每个像素的颜色值根据所分离的对象上每个像素的颜色值、背景图像的颜色值、以及对象的放置关系决定;
视点图生成子模块,用于根据待生成的第二平面图像对应的视点的位置、所述第二平面图像上第一像素的位置,以及所述第二平面图像与所述深度图的深度关系,得到所述第一像素在所述深度图上对应位置的像素,将所述对应位置的像素的颜色值作为所述第一像素的颜色值。
7.如权利要求6所述的设备,其特征在于,所述图像分割模块进一步用于:
根据所述触控信息中包括的一个或一个以上的触控点位置,获取用户从原始图像中选择的对象;或者
根据所述触控信息中包括的滑动路径,获取用户从原始图像中选择的对象。
8.如权利要求6所述的设备,其特征在于,所述第一平面图像生成模块进一步用于:
根据所述触控信息中包括的拖动路径,获取对象的放置位置。
9.如权利要求6所述的设备,其特征在于,所述期望深度获取模块进一步用于:
根据所述触控信息中包括的一个或一个以上触控点位置的深度值,采用线性设置、圆形设置、等高线设置或局部点选设置的方式设置所述第一平面图像中每个对象的期望深度。
CN201110149715.XA 2011-06-03 2011-06-03 一种在触摸屏上生成立体图像的方法和设备 Active CN102307308B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201110149715.XA CN102307308B (zh) 2011-06-03 2011-06-03 一种在触摸屏上生成立体图像的方法和设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201110149715.XA CN102307308B (zh) 2011-06-03 2011-06-03 一种在触摸屏上生成立体图像的方法和设备

Publications (2)

Publication Number Publication Date
CN102307308A CN102307308A (zh) 2012-01-04
CN102307308B true CN102307308B (zh) 2014-04-09

Family

ID=45381104

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201110149715.XA Active CN102307308B (zh) 2011-06-03 2011-06-03 一种在触摸屏上生成立体图像的方法和设备

Country Status (1)

Country Link
CN (1) CN102307308B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103092985A (zh) * 2013-02-05 2013-05-08 上海华勤通讯技术有限公司 移动终端实现推送信息显示的方法
CN103631492B (zh) * 2013-09-27 2018-09-04 深圳超多维科技有限公司 一种调节立体内容深度的方法及装置
CN104935910B (zh) * 2015-06-03 2017-10-17 青岛海信电器股份有限公司 一种三维图像矫正的方法及设备
CN106408549A (zh) * 2016-08-26 2017-02-15 努比亚技术有限公司 克隆照片处理方法、装置及终端
CN109101167B (zh) * 2018-08-31 2021-06-11 北京新界教育科技有限公司 控制方法及装置
CN115278202A (zh) * 2022-07-29 2022-11-01 联想(北京)有限公司 显示方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN201311296Y (zh) * 2008-09-27 2009-09-16 比亚迪股份有限公司 具有立体显示的导航装置
WO2010062725A2 (en) * 2008-11-03 2010-06-03 Microsoft Corporation Converting 2d video into stereo video
CN101799937A (zh) * 2010-03-23 2010-08-11 南京大学 一种采用草图创建三维模型的方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN201311296Y (zh) * 2008-09-27 2009-09-16 比亚迪股份有限公司 具有立体显示的导航装置
WO2010062725A2 (en) * 2008-11-03 2010-06-03 Microsoft Corporation Converting 2d video into stereo video
CN101799937A (zh) * 2010-03-23 2010-08-11 南京大学 一种采用草图创建三维模型的方法

Also Published As

Publication number Publication date
CN102307308A (zh) 2012-01-04

Similar Documents

Publication Publication Date Title
CN109003325B (zh) 一种三维重建的方法、介质、装置和计算设备
US10652522B2 (en) Varying display content based on viewpoint
CN102307308B (zh) 一种在触摸屏上生成立体图像的方法和设备
US11050994B2 (en) Virtual reality parallax correction
CN102812420B (zh) 立体显示装置和立体成像装置、用于上述装置的优势眼判定方法
CN114245905A (zh) 深度感知照片编辑
EP2749993B1 (en) Apparatus for obtaining depth information
US9495755B2 (en) Apparatus, a method and a computer program for image processing
EP3189495A1 (en) Method and apparatus for efficient depth image transformation
US20130222363A1 (en) Stereoscopic imaging system and method thereof
TWI496452B (zh) 立體影像系統、立體影像產生方法、立體影像調整裝置及其方法
US20130009891A1 (en) Image processing apparatus and control method thereof
CN104200426A (zh) 图像插值方法和装置
US9959672B2 (en) Color-based dynamic sub-division to generate 3D mesh
EP3034999B1 (en) Method and apparatus for generating a composite image based on an ambient occlusion
CN106598250A (zh) 一种vr显示方法、装置和电子设备
CN114881841A (zh) 图像生成方法及其装置
CN105809664A (zh) 生成三维图像的方法和装置
JP2011039801A (ja) 画像処理装置および画像処理方法
CN102510503B (zh) 一种立体显示方法及立体显示设备
CN106131533A (zh) 一种图像显示方法和终端
US20130009949A1 (en) Method, system and computer program product for re-convergence of a stereoscopic image
US11741671B2 (en) Three-dimensional scene recreation using depth fusion
CN102186093B (zh) 一种生成立体图像的方法和系统
US10965930B2 (en) Graphical user interface for indicating off-screen points of interest

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20160612

Address after: 518000 Guangdong city of Shenzhen province Qianhai Shenzhen Hong Kong cooperation zone before Bay Road No. 1 building 201 room A

Patentee after: SHENZHEN RUNHUA CHUANGSHI SCIENCE & TECHNOLOGY CO., LTD.

Address before: 518053 Guangdong city of Shenzhen province Nanshan District overseas Chinese eastern industrial area H-1 building 101

Patentee before: Shenzhen SuperD Photoelectronic Co., Ltd.

C56 Change in the name or address of the patentee
CP01 Change in the name or title of a patent holder

Address after: 518000 Guangdong city of Shenzhen province Qianhai Shenzhen Hong Kong cooperation zone before Bay Road No. 1 building 201 room A

Patentee after: Shenzhen super Technology Co., Ltd.

Address before: 518000 Guangdong city of Shenzhen province Qianhai Shenzhen Hong Kong cooperation zone before Bay Road No. 1 building 201 room A

Patentee before: SHENZHEN RUNHUA CHUANGSHI SCIENCE & TECHNOLOGY CO., LTD.

TR01 Transfer of patent right

Effective date of registration: 20180112

Address after: 518000 Nanshan District science and technology south eight road No. 12 super multidimensional science and technology building, Shenzhen, Guangdong Province, 1603 room

Patentee after: Shenzhen SuperD Photoelectronic Co., Ltd.

Address before: 518000 Guangdong city of Shenzhen province Qianhai Shenzhen Hong Kong cooperation zone before Bay Road No. 1 building 201 room A

Patentee before: Shenzhen super Technology Co., Ltd.

TR01 Transfer of patent right
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: Method and equipment for generating three-dimensional image on touch screen

Effective date of registration: 20180124

Granted publication date: 20140409

Pledgee: CITIC Bank, Limited by Share Ltd, Shenzhen branch

Pledgor: Shenzhen SuperD Photoelectronic Co., Ltd.

Registration number: 2018440020006

PE01 Entry into force of the registration of the contract for pledge of patent right