CN104112275B - 一种生成视点的方法及装置 - Google Patents

一种生成视点的方法及装置 Download PDF

Info

Publication number
CN104112275B
CN104112275B CN201410336665.XA CN201410336665A CN104112275B CN 104112275 B CN104112275 B CN 104112275B CN 201410336665 A CN201410336665 A CN 201410336665A CN 104112275 B CN104112275 B CN 104112275B
Authority
CN
China
Prior art keywords
depth
viewpoint
image
value
segmentation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201410336665.XA
Other languages
English (en)
Other versions
CN104112275A (zh
Inventor
骆俊谕
高语函
陈辉
高维嵩
张钦泉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qingdao Hisense Electronics Co Ltd
Original Assignee
Qingdao Hisense Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qingdao Hisense Electronics Co Ltd filed Critical Qingdao Hisense Electronics Co Ltd
Priority to CN201410336665.XA priority Critical patent/CN104112275B/zh
Publication of CN104112275A publication Critical patent/CN104112275A/zh
Application granted granted Critical
Publication of CN104112275B publication Critical patent/CN104112275B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

本发明公开了一种图像分割方法及装置,用于解决现有技术中存在很难确认同一场景中的物体是否属于同一物体的问题。该方法包括:对彩色图像进行预分割处理,确定彩色图像中的所有分割物体块;根据与所述彩色图像同一场景的深度图像,确定每个分割物体块的深度值;从所有所述分割物体块中确定深度值相同的分割物体块;在深度值相同的分割物体块在所述深度图像中的位置满足设定条件时,确定深度值相同的分割物体块为同一物体。通过该方法,可以提高彩色图像物体分割方法的精度。

Description

一种生成视点的方法及装置
技术领域
本发明涉及图像处理领域,更具体的涉及一种图像分割方法及装置。
背景技术
一副图像往往包含许多不同类型的物体,比如,在道路环境中包括行人、车辆、交通标志等物体,或者在办公环境中包括桌子、凳子以及电脑等物体。在图像处理领域中,对图像进行高精度的物体分割对于物体分析及后续处理有很大的帮助。
现有图像分割方法中,通常利用不同物体的色彩不同,根据彩色图像进行分割。然而同一物体往往具有不同的色彩,根据彩色图像的分割方法导致原本属于同一物体被分成不同的物体块,比如,一个人的面部与其头发的颜色不同,则会将面部和头发分开为两个物体块;或者汽车车身的颜色不同,则会将汽车分为多个物体块。针对上述情景,通过彩色图像进行物体分割无法实现高精度的物体分割。
发明内容
本发明实施例提供一种图像分割方法及装置,通过该方法,可以提高彩色图像物体分割的精度。
本发明实施例提供一种图像分割方法,包括:
分割彩色图像,得到彩色图像中的分割物体块;
根据深度图像确定所述分割物体块的深度值;
当深度值相同的所述分割物体块在所述深度图像和所述彩色图像中满足设定条件时,合并所述深度值相同的所述分割物体块,得到具有深度值的物体。
本发明实施例提供一种图像分割装置,包括:
图像分割单元:用于分割彩色图像,得到彩色图像中的分割物体块;
深度值确定单元:用于根据深度图像确定所述分割物体块的深度值;
物体确定单元:用于当深度值相同的所述分割物体块在所述深度图像和所述彩色图像中满足设定条件时,合并所述深度值相同的所述分割物体块,得到具有深度值的物体。
本发明实施例根据分割的彩色图像,得到彩色图像中的分割物体块;根据深度图像确定所述分割物体块的深度值;当深度值相同的所述分割物体块在所述深度图像和所述彩色图像中满足设定条件时,合并所述深度值相同的所述分割物体块,得到具有深度值的物体。由于本发明将同一场景中彩色图像分割后的各个分割物体块和深度图像的深度值结合使用,赋予各个分割物体块深度值,通过对深度图像和彩色图像的判断,可以准确的确认具有深度信息的分割物体块是否属于同一物体,提高彩色图像物体分割的精度。
本发明实施例提供一种生成视点的方法,包括
获取各个物体在深度图像中的深度值,根据所述各个物体的深度值与所述深度图像中聚焦层深度值的关系,将所述各个物体分为前景物体和背景物体;
将所述前景物体和所述背景物体分别作为整体进行投影,得到参考视点;
其中,所述前景物体投影后深度值的增加值大于所述背景物体投影后深度值的增加值,且所述前景物体投影后的位置偏移量大于所述背景物体投影后的位置偏移量。
本发明实施例提供一种生成视点的装置,包括:
物体获取单元:用于获取各个物体在深度图像中的深度值,根据所述各个物体的深度值与所述深度图像中聚焦层深度值的关系,将所述各个物体分为前景物体和背景物体;
物体投影单元:用于将所述前景物体和所述背景物体分别作为整体进行投影,得到参考视点;
其中,所述前景物体投影后深度值的增加值大于所述背景物体投影后深度值的增加值,且所述前景物体投影后的位置偏移量大于所述背景物体投影后的位置偏移量。
本发明实施例根据获取各个物体在深度图像中的深度值及与深度图像中聚焦层深度值的关系,将所述各个物体分为前景物体和背景物体,在生成新视点过程中以前景物体和背景物体为单位进行不同程度的偏移,保证了投影过程中物体的完整性,改善了单纯的分层投影方法中导致物体割裂的问题;同时在新视点中,前景物体偏移量较大,背景物体偏移量较小,保证观看到的前景物体是由强3D效果向弱3D效果逐渐过渡,观看者即能明显感觉到立体效果,同时在逆视区的范围内降低了模糊度。
附图说明
图1为本发明实施例一提供的一种图像分割方法流程图;
图2A是本发明实施例一输入的彩色图像;
图2B是本发明实施例一分割后的彩色图像;
图2C是本发明实施例一分割后标号的彩色图像;
图2D是本发明实施例一输入的深度图像;
图2E是本发明实施例一分割后的深度图像;
图2F是本发明实施例一最终分割结果的彩色图像;
图2G是本发明实施例一输入的包含两个相同大小物体的彩色图像;
图2H是本发明实施例一输入的包含多个大小不同物体的彩色图像;
图2I是本发明实施例一输入的包含单个物体的彩色图像;
图3为本发明实施例二提供的一种生成视点的方法流程图;
图4是现有逆视区示意图;
图5是现有图像分层技术示意图;
图6a为本发明实施例二提供的一种逆视区矫正方法的虚拟多视点图像的示 意图;
图6b为本发明实施例二提供的一种逆视区矫正方法的虚拟多视点图像的示意图;
图6c为本发明实施例二提供的一种逆视区矫正方法的虚拟多视点图像的示意图;
图6d为本发明实施例二提供的一种逆视区矫正方法的虚拟多视点图像的示意图;
图7为本发明实施例三提供的一种3D投影方法;
图8为本发明实施例四提供的一种图像分割装置;
图9为本发明实施例五提供的一种生成视点的装置;
图10为本发明实施例六提供一种图像分割及投影装置。
具体实施方式
本发明实施例根据分割的彩色图像,得到彩色图像中的分割物体块;根据深度图像确定所述分割物体块的深度值;当深度值相同的所述分割物体块在所述深度图像和所述彩色图像中满足设定条件时,合并所述深度值相同的所述分割物体块,得到具有深度值的物体。由于本发明将同一场景中彩色图像分割后的各个分割物体块和深度图像的深度值结合使用,赋予各个分割物体块深度值,通过对深度图像和彩色图像的判断,可以提高彩色图像物体分割的精度。
其中,彩色图像由多个图像元素构成,每个图像元素表示对于图像的该点的可见光颜色值;深度图像包括多个图像元素,每个图像元素不表示元素而是表示深度摄像装置与场景中的该点处的物体或表面之间的距离。
应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。并且在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
实施例一
如图1所示,本发明实施例一提供的一种图像分割方法流程图,包括以下步骤:
步骤101、分割彩色图像,得到彩色图像中的分割物体块;
步骤102、根据深度图像确定所述分割物体块的深度值;
步骤103、当深度值相同的所述分割物体块在所述深度图像和所述彩色图像中满足设定条件时,合并所述深度值相同的所述分割物体块,得到具有深度值的物体。
图2A表示可见光摄像装置捕获的示例场景的红绿蓝或RGB图像,其中,每个图像元素表示对于图像的该点的可见光颜色值(比如,RGB强度),在本实施例中,使用条形线表示彩色图像中的颜色。在图中每个茶壶的颜色不相同,其中茶壶1的壶盖与壶身、壶把和壶嘴的颜色是不相同的;茶壶2的壶盖、壶身、壶嘴和壶把具有相同的颜色,茶壶3的壶盖、壶身、壶嘴和壶把具有相同的颜色;茶壶1、茶壶2、茶壶3和背景的颜色也是不相同的。其中图2A物体边缘线仅仅是为了表示清楚,并不是真实存在与彩色图像中。
对图2A所示的彩色图像进行图像分割,彩色图像分割是根据图像中各个物体的颜色,将具有不同颜色的物体分割开来,形成新的分割物体块。在彩色图像分割过程中,即便是一个物体,但是由于物体的某个区域包含其他颜色,也会被分割成不同的分割物体块,比如图2A中的茶壶1,由于茶壶的壶盖与壶身具有不同的颜色,在彩色图像分割后,茶壶1的壶盖和壶身被分为两个分割物体块,如图2B所示,其中分割物体块边缘线加粗仅仅是为将分割物体块表示清楚,并不是真实的存在于彩色分割图像中。
分割后的各个物体块,会因为处于不同的景深,使本来有明显距离的物体在图像中显示成相连的物体块,进而无法区分。比如,图2B中茶壶1的壶嘴部分和茶壶2的壶身部分,茶壶1的壶嘴与茶壶2的壶身分别处于同一场景中不同的景深处,但是从观看的角度而言,茶壶1的壶嘴与茶壶2的壶身连接到一块,从而无法将这两者区分开;或者是由于摄像装置拍摄角度的问题,对观察者造成部 分遮挡的区域无法显示,从而会将本是属于一个物体的物体块,分成不同的物体块,比如茶壶1的壶身和壶嘴被分割为不同的物体块;或者同为一个物体的物体块因为颜色的不同被分为两个不同的物体块,比如茶壶1的壶盖和壶身,因为茶壶1的壶身和壶盖的颜色不同而被分为两个物体块。
将图2B彩色分割图像中各个分割物体块分别用A、B、C、D、E和F标示,获得如图2C所述图像,茶壶3壶盖、壶身、壶嘴和壶把颜色相同,则用A标示茶壶3;同理,茶壶2的壶盖、壶身、壶嘴和壶把颜色相同,用B标示茶壶2;而茶壶1的壶盖和壶身颜色不同,按照彩色图像分割方法,将差壶1的壶盖和壶身分割开,差壶1的壶盖用E标示,而茶壶1的壶身用D标示;茶壶1的壶身和壶嘴颜色相同,但是彩色图像预分割后,将茶壶的壶身和壶嘴分割开来,则茶壶1的壶嘴用C标示;因为茶壶1壶把中间包括了一部分与茶壶颜色不同的背景颜色,则将茶壶1壶把包括的地方用F标示。
获取场景中各点相对于摄像机的距离是计算机视觉系统的重要任务之一。场景中各点相对于摄像机的距离可以用深度图来表示,即深度图中的每一个像素值表示场景中某一点与摄像机之间的距离。机器视觉系统获取场景深度图技术可分为被动测距传感和主动深度传感两大类。被动测距传感是指视觉系统接收来自场景发射或反射的光能量,形成有关场景光能量分布函数,即灰度图像,然后在这些图像的基础上恢复场景的深度信息。最一般的方法是使用两个相隔一定距离的摄像机同时获取场景图像来生成深度图。与此方法相类似的另一种方法是一个摄像机在不同空间位置上获取两幅或两幅以上图像,通过多幅图像的灰度信息和成像几何来生成深度图。深度信息还可以使用灰度图像的明暗特征、纹理特征、运动特征间接地估算。
对图2D所示的深度图像进行深度分割,得到图2E所示的深度图像分割图像,其中图2E中的物体边缘仅仅是为了表示清楚,并不是真实的存在于深度图像中。从图2E中可以看出,若图像的景深比较小,则能够很容易将图像中的背景和前景物体区分开;若图像的景深比较大,那么图像中的物体与背景将很难区分开。
图2E中已经得到每个茶壶的深度值,其中,茶壶1包括壶身、壶盖、壶嘴和壶把的深度值相同,而茶壶1壶身和壶把包括的背景部分与茶壶1壶身和壶把的深度值不相同;茶壶2包括壶身、壶盖、壶嘴和壶把的深度值相同,茶壶3包括壶身、壶盖、壶嘴和壶把的深度值相同;茶壶1、茶壶2和茶壶3的深度值各不相同。将图2E中确定的各个茶壶深度值赋予图2C中各个分割物体块。确定彩色图像中各个分割物体的深度值。
如图2F所示,茶壶3包括壶身、壶盖、壶嘴和壶把用A标示;茶壶2包括壶身、壶盖、壶嘴和壶把用B标示;在图2C中因为茶壶1的壶盖和壶身颜色不同,分别用E和D标示,而根据图2E深度图像中深度值的关系,茶壶1的壶盖和壶身的深度值相同,则将茶壶1的壶盖改为D标示;在图2C中,茶壶1的壶嘴和壶身颜色是相同的,但是由于彩色图像预分割后,将茶壶1的壶嘴和壶身分割成为两部分,而根据图2E深度图像中深度值的关系,茶壶1的壶嘴和壶身的深度值相等,则将茶壶1的壶嘴该为D1标示;在图2C中,茶壶1的壶身和壶把包括的背景部分用F标示,从彩色分割图像预分割后的情况很难区分茶壶1的壶身和壶把包括的背景部分是否是与茶壶1为一个物体,而根据图图2E深度图像中深度值的关系,茶壶1的壶身和壶把的深度值相等,而茶壶1的壶身、壶把与其保护的背景部分深度值不相同,所以将该部分依然用F标示。
较佳地,深度值相同的分割物体块在所述深度图像中的边界相邻,且所述深度值相同的分割物体块在所述彩色图像中的边界相邻,且所述深度值相同的分割物体块中最小的分割物体块的面积不大于第一阈值。
如图2C所示,茶壶1的壶盖和壶身颜色不同,按照彩色图像分割方法,将茶壶1的壶盖和壶身分别用E和D标示。因为茶壶1的壶盖和壶身在彩色图像中边界相邻,在深度图像中具有相同的深度值且边界相邻,其中茶壶1的壶身和壶盖两个分割物体块中,壶盖的面积小于壶身的面积,在该图像中,茶壶1的壶盖的面积小于预设的第一阈值,所以将茶壶1的壶盖和壶身确定为同一物体。在图2F中,将茶壶1的壶盖改为与壶身相同的标示D。
如图2G所示,彩色图像中有两个颜色不相同的罐子(使用条形线表示彩色图像中的颜色),其中两个罐子在彩色图像预分割图像中边界相邻,分别标示为罐1和罐2,两个分割罐子在深度图像中具有相同的深度值并且在深度图像中也边界相邻,其中两个分割罐子的面积一样大,在该图像中,两个分割罐子1和2的面积相等,不小于预设的第一阈值,所以认为这两个分割罐子不是同一物体。
其中,在本发明实施例中,第一阈值的范围介于1%-30%之间。
较佳地,深度值相同的分割物体块在所述深度图像中的边界相邻,且所述深度值相同的分割物体块在所述彩色图像中的边界不相邻,其所述深度值相同的分割物体块中最小的分割物体块的面积不大于第二阈值。
如图2H所示的彩色图像(使用条形线表示彩色图像中的颜色),彩色图像中有3个颜色不同的物体,其中物体1和物体2的颜色相同,与物体3的颜色不相同。3个物体在彩色分割图像中的边界各不相邻,3个分割物体块在深度图像中具有相同的深度值,并且边界相邻,其中,分割物体块1的面积最大,剩余两个分割物体块2和3的面积很小。在该图像中,若分割物体块2和分割物体块3的面积都不大于预设的第二阈值,则将分割物体块2和分割物体块3与分割物体块1认为属于同一物体;若分割物体块2的面积不大于预设的第二阈值,而分割物体块3的面积大于预设的第二阈值,则将分割物体块2和分割物体块1认为属于同一物体,而分割物体块3认为是另外的一个物体;若分割物体块2和分割物体块3的面积都大于预设的第二阈值,则认为该彩色图像中有三个物体,分别是物体1、物体2和物体3。
还比如,彩色图像中包括人体头部的图像,在彩色图像中人体头部包括面部、头发和耳朵。根据彩色图像预分割的结果,将人体面部、头发和耳朵会分成三部分,可能在彩色图像中耳朵和面部边界不相邻,但是根据深度图像,可以知道该人体面部和头发具有相同的深度值,而且边界相邻。分割后的耳朵的面积相对于人体面部的面积而言比较小的,在该图像中,耳朵的面积不大于预设的第二阈值,所以会将分割后的耳朵、人体面部和头发认为属于同一物体。
同时,对应本领域工作人员而言,由于公共常识,也会直接将分割后的耳朵、人体面部和头发认为属于同一物体。
其中,在本发明实施例中,第二阈值的范围介于1%-25%之间。
较佳地,深度值相同的分割物体块在所述深度图像中的边界相邻,且所述深度值相同的分割物体块在所述彩色图像中的边界不相邻,且深度值相同的分割物体块之间最大的间距不大于第三阈值。
如图2E所示,茶壶1包括壶盖和壶嘴的深度值相同,且茶壶1的壶身和壶嘴边界相邻,而在图2C中,由于摄像装置拍摄角度的问题,对观察者造成部分遮挡的区域无法显示,所以彩色分割图中茶壶1的壶身和壶嘴边界不相邻。若茶壶1的壶嘴和壶身的距离小于预设的第三阈值,则认为茶壶1的壶身和壶嘴是同一物体;若茶壶1的壶嘴和壶身的距离大于预设的第三阈值,则认为茶壶1的壶身和壶嘴不是同一物体;所以在图2F中,将茶壶1的壶嘴用D1标示。
其中,在本发明实施例中,第三阈值应该不大于30个像素值。
在步骤103中所述,当深度值相同的所述分割物体块在所述深度图像和所述彩色图像中满足设定条件,在本实施例中,以上述3中设定条件为例,但是在实际应用中,其设定条件包括上述设定条件但是不限于这3种条件,其中,只要是涉及各个分割物体块的深度值相同,且在所述深度图像中边界相邻,而在彩色图像中无论会发生什么情况,都有会落入包本申请的保护范围内。
较佳地,若彩色图像中仅包含一个物体,得到具有深度值的物体。
图2I所示彩色图像(使用条形线表示彩色图像中的颜色)。在图中只有一个茶壶,其中包括壶盖、壶嘴和壶把。在该彩色图像中,仅有一个物体,对该彩色图像分割后得到一个分割物体块,在可以直接判断该物体块为一个物体,对同一场景的图像不用深度值确定就可以确定分割物体块为同一物体块。在本发明实施中,若需要获取分割物体块的深度值,则通过同一场景的深度图像,可以获得该物体的深度值。
在本实施例中,深度值相同只针对某一副场景图像而言,比如,图2D所示 图像中,茶壶1包括壶身、壶盖、壶嘴和壶把具有相同的深度值,茶壶2包括壶身、壶盖、壶嘴和壶把具有相同的深度值;对本领域技术人员而言,若需要将茶壶1看做是一个整体物体,那么茶壶1的壶把的深度值就和茶壶1的壶身的深度值是相同的。比如,以一棵小树包括前后两片树叶,在实际操作中,若需要将距离观看者距离近的一片树叶看着一个整体物体,那么大树中距离观看者距离远的那个树叶的深度值与距离观众距离近的树叶的深度值就是不相同的;若需要将真个小树看着是一个整体物体,那么距离观众远的树叶和距离观众近的树叶的深度值就是相同的。
本发明实施例根据分割的彩色图像,得到彩色图像中的分割物体块;根据深度图像确定所述分割物体块的深度值;当深度值相同的所述分割物体块在所述深度图像和所述彩色图像中满足设定条件时,合并所述深度值相同的所述分割物体块,得到具有深度值的物体。由于本发明将同一场景中彩色图像分割后的各个分割物体块和深度图像的深度值结合使用,赋予各个分割物体块深度值,通过对深度图像和彩色图像的判断,可以准确的确认分割物体块是否属于同一物体。
实施例二
实际操作中,当同一场景中的同一物体分割出来后,可以将各个物体为整体分别进行投影,形成新视点。如图3所示,本发明实施例提供的一种视点生成方法,包括以下步骤:
步骤201,获取各个物体在深度图像中的深度值,根据所述各个物体的深度值与所述深度图像中聚焦层深度值的关系,将所述各个物体分为前景物体和背景物体;
步骤202,将所述前景物体和所述背景物体分别作为整体进行投影,得到参考视点;
步骤203,所述前景物体投影后深度值的增加值大于所述背景物体投影后深度值的增加值,且所述前景物体投影后的位置偏移量大于所述背景物体投影后 的位置偏移量。
在步骤201中,场景中的物体可以是一个,也可以是多个;其中多个物体的颜色可以是全部相同的,也可以是部分颜色相同,也可以是各不相同的颜色;其中多个物体的深度值可以是全部相同的,也可以是部分深度值相同的,也可以是各不相同的深度值。其中多个物体可以是全部边界相邻,也可以是部分边界相邻,也可以是全部边界不相邻。
根据同一场景的彩色图像信息和深度图像信息,可以获得同一场景中各个物体的深度值,也就是同一场景中各个物体的位置信息;其中,同一场景中的各个物体的位置信息可以是全部相同,也可以是部分相同,也可以是全部不相同。
在本实施例中,可以根据各个物体的深度值与深度图像中聚焦层的深度值的关系,确定前景物体和背景物体,其主要包括下列方法:
在同一场景的深度图像中选定一个深度值作为聚焦层的深度值;若同一场景中物体的深度值大于聚焦层的深度值,则将所述物体作为背景物体;若同一场景中物体的深度值小于聚焦层的深度值,则将所述物体作为前景物体。
比如图2E所示的深度图像预分割图像中,在该深度图像中选定某一个深度值作为聚焦层的深度值,其中,若茶壶3的深度值大于该深度图中预设聚焦层的深度值,则将茶壶3作为背景物体;若茶壶2的深度值大于该深度图中预设聚焦层的深度值,则将茶壶2也作为背景物体;若茶壶1的深度值大于该深度图中预设聚焦层的深度值,则将茶壶1也作为背景物体;同理,若茶壶1的深度值不大于该深度图中预设聚焦层的深度值,则将茶壶1作为前景物体;若茶壶2的深度值不大于该深度图中预设聚焦层的深度值,则将茶壶2也作为前景物体;若茶壶3的深度值不大于该深度图中预设聚焦层的深度值,则将茶壶3也作为前景物体。
步骤202中,将所述前景物体作为整体进行投影,得到参考视点。如图2F所示,其中茶壶1包括壶盖、壶嘴、壶把和壶身属于同一物体,若茶壶1和2在深度图像中的深度值小于深度图像聚焦层的深度值,则会认为茶壶1和2是前景物体。 由于同一场景中茶壶3的在深度图像中的深度值大于深度图像聚焦层的深度值,则会认为茶壶3是背景物体。
对同一场景中的前景物体和背景物体同时进行投影,其投影的示意图如图4所示,该示意图以9个试点为例,按1、2、3、4、5、6、7、8、9、1、2、3…的方式循环排列,其中视点1至视点9为一个视点周期,在一个视点周期内,视点1为首视点,视点9为尾视点,相邻视点的图像具有一定视差,左眼右眼可同时接受两个具有视差的相邻视点的图像,大脑将这两个图像进行融合,人便感受到立体感。
现有3D投影技术中,是依据分层后的深度图像进行投影。如图5所示,以一节火车箱为例,由于火车箱顶部有突出的出气窗,所以火车箱的顶部会高低不平,而表现在深度图像中,会出现如图4所示的分层现象(d1、d2、d3、d4……)从图中可以看出,d2将火车箱顶部的出气窗户分成了两部分,同样的,d3、d4也可能将火车箱的出气窗分成两部分;而这两部分可能是等分的,也可能是不等分的,或者是其中一部分很小;火车箱顶部的出气窗被分成多个不等部分,在投影过程中可能会导致火车箱顶部出现裂纹,甚至导致火车箱体产生割裂,严重的影响了图像显示效果。
现有技术中,本领域技术人员可知,裸眼3D显示还有许多未解决的技术问题,其中一个重要的问题就是逆视区的问题,如图4所示,在观看区域,如果进入人左眼的视点为K(k=1、2、3、4、5、6、7、8、9),进行右眼的视点为k+1,则人眼可以正常观看到立体图形内容;若进行人左眼的视点为9视点,进入人右眼的视点为1视点,则人眼无法看到正常的立体图像,此时的视差相对于左右眼来说是不正常视差,本领域人员称之为逆视差,观看者此时所处的区域称为逆视区。在逆视区观看时会产生模糊、晃眼的现象,导致观看者不舒服。
在步骤203中,对现有3D显示过程中存在的逆视差问题,进行了改正,采用该投影方法,可以有效的减小逆视差,即便是在逆视区区域观看,也可以观看到较为正常的立体图像,减小了在逆视区观看产生的晃眼、模糊等现象。
在投影过程中,让前景物体和背景物体同时进行横向和纵向偏移,其中,前景物体处于强3D区域,背景物体相对于前景物体处于若3D区域,若在投影的过程中,让前景物体的深度值的增加值较大,而背景物体深度值的增加值较小(纵向:前景物体深度值的变化量大于背景物体深度值的变化量),而且保证前景物体投影后的位置偏移量较大,背景物体投影后的位置偏移量较小(横行:前景物体位置偏移量大于背景物体位置偏移量),这样对于观看者而言,前景物体是有强3D效果向弱3D效果逐渐过渡的,这样观看者即能明显的感觉到立体感,同时在逆视区的范围内模糊度降低,减弱了观看者的不舒服程度。
较佳的,所述方法还包括:
获取所述参考视点的深度图;依据预设参数调整所述参考视点的深度图,生成首视点或尾视点的深度图;
其中,所述首视点和所述尾视点的深度图的最大灰度值应小于一个周期内的其它视点深度图的最大灰度值;所述首视点和所述尾视点的深度图的最大灰度值之间的差值小于第四阈值。
在介绍新的投影方法前,先介绍深度图像中深度值与灰度值的关系:本领域技术人员可知,深度图为灰度图时,深度图上各深度层的深度值为灰度值,其中该点灰度值为0时,代表该点距离观众无穷远处,该点灰度值为255时,代表该距离观众最近处;即该点灰度值越大,表示该点离观众越近;在深度图进行投影时,需将灰度值转化为实际场景中的景深,转化后的深度图上的深度值是用景深表示,景深与灰度值成反比关系,即景深越深,景深的数值越大,则离观众越远。本发明实施例中所描述的深度层的灰度值指的就是该视点的深度图为灰度图时的灰度值。本发明实施例中所定义的视点深度图的最大灰度值是指该视点的深度图上距离观众最近的点的灰度值,该视点深度图上的最大灰度值越大,则表明该点距离观众越近。同时本发明实施例中假设所有视点具有统一基底区域,若视点的深度图上的最大灰度值越大,则表明该视点的深度图前景物体第一区域距离基底区域越远,此时在后期可能带来较强的3D效果,若视 点的深度图上的最大灰度值越小,则表明该视点的深度图前景物体第一区域距离基底区域越近,此时在后期可能带来较弱的3D效果,若假设基底区域灰度值为0,该视点深度图上的最大灰度值也为0,则表面该深度图为一张2D图片。本发明实施例所描述的两深度区域的灰度值的差值表示两深度区域的距离。
在实施例中,所述新的投影方法同样是以9个视点为例,主要结合图6a、图6b、图6c、图6d具体介绍一下本发明投影方法的一个最佳方案。其中9个视点按1、2、3、4、5、6、7、8、9、1、2、3…的方式循环排列,其中视点1至视点9为一个视点周期,按照现有的投影方法,可以知道,若左眼观看到的是视点9的图像,右眼观看到的是视点1的图像,此时视点9与视点1组成逆视区,逆视区的逆视差过大时,观众在该逆视区会有模糊晃眼的现象。而当进入人左右眼的视点9与视点1的图像的最大视差小于最大视差阈值时,视点9与视点1所组成的逆视区内的图像模糊现象在很大程度上有所减轻。
本领域技术人员可知,若两个视点上的图像均为2D图像,则该两个视点所组成的视区内的图像视差可以很小,例如,若视点9与视点1上的图像均为2D图像,即假设所有视点具有统一基底区域,且基底区域灰度值为0时,此时视点9的最大灰度值为零,且进一步视点9的深度图的各深度层之间的差值也为0,视点1最大灰度值为零,且进一步视点1的深度图的各深度区域层之间的差值也为0,此时看到视点9与视点1之间的两幅2D图像之间视差可以很小。可见,单个视点中的深度图的最大灰度值,对两个视点之间的视差有影响。进一步,本领域技术人员可知,两相邻视点之间每一对应深度区域的灰度值的差值,对两个视点之间的视差有影响。进一步,视点之间的水平相对距离的大小对两个视点之间的视差也有影响。
本发明较佳方案中为了减小首视点和尾视点的逆视区的视差过大的问题,采取如下较佳的措施:
保证一个周期内所有单个视点的前景物体中相邻两深度区域的灰度值之差大于背景物体中相邻两深度区域的灰度值之差;较佳的,从前景物体第一区域 至背景物体最后一区域,相邻两深度区域的灰度值之差呈现逐渐递减趋势。
保证一个周期内所有单个视点最大灰度值在一定范围内,3D效果强的视区内视点之间视差比较大,3D效果弱的视区内视点之间的视差比较小,因此强3D区的的视点最大灰度值大于弱3D区的视点的最大灰度值;以便保证首视点和尾视点所组成的逆视区内3D效果较弱,此方法可减轻逆视区图片的模糊效果;进一步,保证首视点和尾视点的深度图的最大灰度值应小于一个周期内的其它视点深度图的最大灰度值。
保证同一周期内首视点和尾视点的深度图的最大灰度值之间的差值小于第一阈值。其中当两视点的最大灰度值之间的差值小于第一阈值时,可使两视点的逆视差小于最大视差阈值,进一步即可保证逆视区的图像模糊程度在人眼所能接受的范围之内。
保证一个周期内的所有相邻的视点的深度图之间的前景物体的灰度值的差值大于背景物体的灰度值的差值。保证一个周期内的所有相邻的视点之间的每一相对应的深度区域之间的灰度值的差值从前景物体第一区域至背景物体最后一区域,依次减小。其中,首视点的深度图的每一深度区域的灰度值均小于一个周期内的首视点的相邻视点的深度图的每一深度区域的灰度值;首视点与一个周期内的首视点的相邻视点之间每一区域前景物体的灰度值的差值均大于首视点与首视点的相邻视点之间每一区域背景物体的灰度值的差值;其中,尾视点的深度图的每一深度区域的的灰度值均小于一个周期内的尾视点的相邻视点的深度图的每一深度区域的的灰度值;尾视点与一个周期内的尾视点的相邻视点之间每一区域前景物体的灰度值的差值大于尾视点与尾视点的相邻视点之间每一区域背景物体的灰度值的差值。保证一个周期内的所有相邻的视点之间的每一相对应的深度区域之间的灰度值的差值从前景物体第一区域至背景物体最后一区域,依次减小。可保证同时进入人眼的两个视点所呈现的3D图像从前景至背景3D效果逐渐减弱,进一步使同时进入人眼所形成的3D图像,前景物体处于强3D区,背景物体处于弱3D区。
一个周期内的所有视点,从首视点至尾视点,各视点中每一对应深度区域的灰度值先增大后减小。一个周期内的关于中心线呈对称分布的两个视点的深度图之间的每一对应深度区域的灰度值相等,其中,中心线为一个周期内的首视点和尾视点的水平相对距离的中心线。
保证一个周期内的所有视点,从首视点至尾视点,每相邻两视点之间的水平相对距离先增大后减小。一个周期内的所有视点,每相邻两视点之间的水平相对距离关于一个周期内的所有视点的中心线呈对称分布。从首视点至尾视点,每相邻两视点之间的水平相对距离先增大后减小,保证水平相对距离从弱3D区至强3D区,再至弱3D区,3D效果平滑过渡,以此保证首视点和尾视点处于弱3D区。
下面结合图6a、图6b、图6c、图6d具体介绍一下本发明实施例一所提供的生成深度图的方法:
本发明实施例提供的方法为基于参考视点5的图像,依据所设置的参考视点和相邻视点的参数关系,即所设置的视点5和视点5的相邻视点4和相邻视点6的参数关系向两侧生成其相邻视点4和相邻视点6的虚拟深度图图像;接着以视点4为基础,生成视点4的相邻视点3的图像,以视点6为基础,生成视点6的相邻视点7的虚拟深度图图像;接着以视点3为基础生成其相邻视点2的虚拟深度图图像,以视点7为基础生成其相邻视点8的深度图图像,以视点2为基础,生成首视点1的深度图图像,以视点8为基础,生成尾视点9的深度图图像。
本领域技术人员可知,也可令第一个参考视点为视点1,依据视点1的深度图像开始向一侧生成相邻视点2虚拟深度图像,接着依据相邻视点2所生成的虚拟深度图像生成视点3虚拟深度图像,最后依次生成视点9的虚拟深度图像。生成视点的顺序可以自定。本发明实施例所假设的方法为以视点5为参考视点,向两侧生成其它视点的深度图图像。
深度图图像一般采用8比特的灰度图像来表示,深度图的灰度值此时是用灰度值来表示的,其中该点灰度值为0时,代表该点距离观众无穷远处,该点灰度 值为255时,代表该距离观众最近处。图像中物体数大于1的整数,假设本发明实施例中的参数视点的前景物体和背景物体包括5个,分别为a、b、c、d、e,如图6a、图6b、图6c、图6d所示。即将255级灰度值分为5个区域,即每51级为一个区域,灰度值越大,表示该深度区域离观众越近,反之,灰度值越小,表示该深度区域离观众越远,例如,在本发明实施例中可将灰度值255-205设置为a区域,灰度值204-154划定为b区域,此时明显a区域距离观众最近,b区域距离观众比a区域远。
参考视点的深度图进行分区域后,本发明实施例中得到5个深度区域,在该分区域后深度图中选定一个深度区域作为相机阵列的聚焦层,聚焦层距离观众的距离设置为基准值,若深度区域与观众的距离比聚焦层与观众的距离近的,即该深度区域的灰度值比聚焦层的灰度值大,将该深度区域设置为前景物体;若深度区域与观众的距离大于该基准值的,即该深度区域与观众的距离比聚焦层与观众的距离远的,即该深度区域的灰度值比聚焦层的灰度值小,将该深度层设置为背景物体。
本发明实施例中,如图6a、图6b、图6c、图6d所示,假设选定聚焦区域位于c与d之间的位置,则显然a区域、b区域、c区域与观众的距离比聚焦区域与观众的距离近,因此a区域、b区域、c区域设置为前景物体,其中a区域为前景物体第一区域,b区域为第二区域前景物体区域、c区域为前景物体第三区域;同样的,d区域、e区域与观众的距离比聚焦区域与观众的距离远,因此d区域、e区域设置为背景物体,其中d区域为背景物体第一区域,e区域为背景物体第二区域,在本发明实施例中,e区域也为背景物体中的最后一区域。其中深度图中的每一区域是指深度图中所有的区域,包括前景区域和背景区域,即为a区域、b区域、c区域、d区域和e区域,前景区域中的每一区域是指前景物体的所有区域,即为a区域、b区域、c区域;背景区域中的每一区域是指背景物体的所有区域,即为d区域、e区域。
如图6a、图6b、图6c、图6d所示,所有视点在e区域之后具有一个统一的基 区域,为后续描述方便,本发明实施例中统一将所有视点具有的同一基区域层称为基区。
为了进一步解释,如图6a、图6b、图6c、图6d所示,参考视点5的深度图像中的前景物体从前至后依次为a区域、b区域、c区域,背景物体从前至后依次为d区域、e区域,假设在所有视点的e区域背后有一个统一的基区域。在该假设中前景物体相邻深度区域分别为a区域和b区域、b区域和c区域,背景物体相邻深度区域分别为d区域和e区域、e区域和基区域。假设参考视点中前景物体第一区域a区域与前景物体第二区域b区域的灰度值之差为B1,前景物体相邻深度区域b区域与c区域的灰度值之差为B2,前景区域c区域与背景物体第一区域d区域的灰度值之差为B3,背景物体第一区域d层与背景物体e区域的距离,即灰度值之差为B4,e区域与基区域之间的距离,即灰度值之差为B5。所有灰度值的差值均为正数。
则此时前景物体相邻两深度区域的灰度值之差是指B1和B2;背景物体每一区域与背景区域中相邻两深度区域的灰度值之差是指B4和B5。
保证一个周期内所有单个视点前景物体相邻两深度区域的灰度值之差大于背景物体相邻两深度区域的灰度值之差,是指B1和B2均大于B4和B5;此时可保证后续在相邻两视点之间前景物体每一区域的偏移量大于背景物体每一区域的偏移量,进而使视区内前景物体的3D效果比背景物体的3D效果更强,进一步在后续步骤中可以将前景物体设置较大的偏移量,进一步加强视点前景物体的立体效果。
较佳的,从前景物体第一区域至背景物体最后一区域,相邻两深度区域的灰度值之差呈现逐渐递减趋势;较佳的,从前景物体第一区域开始至背景物体最后一区域,每相邻两深度区域之间的灰度值差值逐渐减小。即从B1至B5,依次递减,即B1大于B2,B2大于B3,B3大于B4,B4大于B5。可以使两相邻视点所组成的视区内前景部分处于强3D区,背景部分处于弱3D区,且从前景第一区域至背景最后一区域的3D效果逐渐减弱,实现了3D效果的平滑过渡。
较佳的,其它视点的深度图像与参考视点5的深度图像类似,所有视点的深度图像的深度区域从前景物体第一区域开始至背景物体最后一区域,每相邻两深度区域之间的灰度值差值逐渐减小,实现了视区内从前景第一区域至背景最后一区域的3D效果逐渐减弱,平滑过渡。
由于前景物体相对于背景物体在一定的距离范围内变化时,若视点的深度图中各深度区域之间的距离为0,则该视点的深度图为一张2D图像,此时两个相邻视点上的图像均为2D图像时,该相邻视点所组成的视区内视差很小。因此,为了减小逆视区视差,可进一步减小逆视区内单个视点第一区域深度区域与最后一区域深度区域的灰度值之间的差值,在本发明实施例中,因为所有视点具有统一的基底层,因此单个视点的第一区域深度区域与最后一区域深度区域的灰度值之间的差值可用该视点的深度图的最大灰度值来表示,该视点深度图的最大灰度值较大时,则表示该深度图的第一区域深度区域距离最后一区域深度区域的灰度值之间的差值较大,即表示该深度图的第一区域距离观众距离较近。较佳的,进一步,保证首视点和尾视点的深度图的最大灰度值应小于一个周期内的其它视点深度图的最大灰度值。如图6a、图6b、图6c、图6d所示,因为所有视点的最后的基底层的灰度值为0,因此首视点1的深度图像的第一区域深度区域与最后一区域深度区域之间的距离为首视点1的深度图的最大灰度值,表示为C1;尾视点9的深度图像的最大灰度值表示为C9。为了减小首视点1和尾视点9的3D效果,需保证首视点和尾视点的深度图的最大灰度值应小于一个周期内的其它视点深度图的最大灰度值,即C1和C9应小于其它视点的最大灰度值C2、C3、C4、C5、C6、C7、C8。
较佳的,除了首视点和尾视点之外的同一周期内的其它视点,如2、4、5、6、7、8,这些视点中若视点处于强3D区,即视区内视点之间视差比较大,可将该视点的深度图像的最大灰度值取偏大的值,若视点处于弱3D区,即视区内视点之间视差比较小,可将该视点的深度图像的最大灰度值取偏小的值。需保证最大灰度值不能过大,即保证单个视点内深度图像的前景与背景总距离不能过 大,以避免出现干扰3D效果的现象。较佳的,需实现视点之间3D效果从强到弱的渐变的效果,即如图6a、图6b、图6c、图6d所示,假设视点1的深度图像的最大灰度值为C1,视点2的深度图像的最大灰度值为C2,视点3的深度图像的最大灰度值为C3,视点4的深度图像的最大灰度值为C4,视点5的深度图像的最大灰度值为C5,视点6的深度图像的最大灰度值为C6,视点7的深度图像的最大灰度值为C7,视点8的深度图像的最大灰度值为C8,视点9的深度图像的最大灰度值为C9,本实例中选取中间视点5为3D效果最强的区域,则C5选取最大值,以视点5为中心,向两侧3D效果逐渐减弱,至视点1和视点9,3D效果变为最弱,即需保证C5大于C4,C4大于C3,C3大于C2,C2大于C1;C5大于C6,C6大于C7,C7大于C8,C8大于C9;实现了从视点5向视点1发展,3D效果逐渐减弱,实现了从视点5向视点9发展,3D效果逐渐减弱。进一步使首视点1和尾视点9处于弱3D区。
进一步,较佳的,可使同一周期内的视点的最大灰度值关于视点5对称,即C4等于C6,C3等于C7,C2等于C8,C1等于C9,以此实现了一个周期内的视点所呈现的3D效果以视点5为中心,向两侧均匀同步的逐渐递减。
本发明实施例中设定视点总数为9,且以拍摄的视点的图像,即参考视点5的图像作为虚拟平行多视点阵列的中心视点,即虚拟平行多视点阵列的最中间的位置,即参考视点5位于视点1至视点9的最中间位置,视点为视点1、2、3、4、6、7、8、9。所有视点组成的排列周期为1、2、3、4、5、6、7、8、9、1、2、3、4、5、6、7、8、9、1、2、3…;此排列周期中,一个视点周期为1、2、3、4、5、6、7、8、9,其中每个视点周期均有一个首视点和一个尾视点,首视点即为视点1,尾视点即为视点9。
同时进入眼睛的视点为同一周期内的相邻视点,以及非同一周期内的尾视点和首视点。如图6a、图6b、图6c、图6d所示,同时进入人眼睛的视点为同一周期内的相邻视点1和2、2和3、3和4、4和5、5和6、6和7、7和8、8和9,以及该周期内的视点9和该周期的下一周期内的视点1。由于每个周期内的同一视点的 图像均相同,即任意周期内的视点1的图像均为相同的图像,因此该周期内的视点9和该周期的下一周期内的视点1所组成的逆视区内的视差可通过控制同一周期内首视点1和尾视点9之间的视差进行控制。
以视点5的深度图像生成视点5的相邻视点4的深度图像为例,结合图6a、图6b、图6c、图6d进行说明。
根据所设置的视点4与视点5之间的水平方向的相对距离,以确定视点4在水平方向上的位置,如图6a、图6b、图6c、图6d所示,假设为X1,即参考视点5与参考视点5的相邻视点4之间的水平方向上的相对距离X1,确定视点4在水平方向上相对于视点5的位置。其中,保证水平相对距离不会过大,以致损坏3D效果。
根据预设参数调整参考视点深度图中每一深度区域的灰度值,生成参考视点的相邻视点的深度图,较佳的,参考视点的相邻视点的深度图的每一深度区域的灰度值均小于参考视点的深度图的每一深度区域的灰度值。例如,以视点5为参考视点,生成视点4的深度图时,视点4的深度图像的每一对应深度区域的深度值均小于视点5的深度图像的相对应的深度区域的深度值。较佳的,每一层的偏移量从前景层至最后一层,依次减小。
如图6a、图6b、图6c、图6d所示,以视点5为参考视点,输入视点5与视点4之间的水平方向相对距离X1,确定视点4在水平方向的位置,接着依据预设参数调整视点5的深度图像中各区域的灰度值,如图6a、图6b、图6c、图6d所示,使视点5与视点4之间的e区域的灰度值之差为D5,视点5与视点4之间的d区域的灰度值之差为D4,视点5与视点4之间的的灰度值之差为D3,视点5与视点4之间的的灰度值之差为D2,视点5与视点4之间的的灰度值之差为D1。相邻视点之间相对应深度区域之间的灰度值的差值越大,则3D效果越强,反之,则3D效果越弱。
根据调整后的参考视点5的深度图像的各层的灰度值,由背景物体至前景物体通过投影的方式生产视点4的虚拟深度图。
依据上述方法,生成与视点4的具有同样图像特性的视点2、3、6、7、8的虚拟深度图,在此不再赘述。
较佳的,一个周期内的所有相邻的视点的深度图之间的前景物体的灰度值的差值大于背景物体的灰度值的差值。较佳的,一个周期内的所有相邻的视点之间的每一相对应的深度区域之间的灰度值的差值从前景物体第一区域至背景物体最后一区域,依次减小。
对于同一周期内的所有相邻视点,包括视点1和2、2和3、3和4、4和5、5和6、6和7、7和8、8和9,以及视点9和视点1之间,较佳的,相邻视点之间前景物体中每一相对应的深度区域的灰度值的差值大于背景物体中每一相对应的深度区域的灰度值的差值。
由于在动态场景中,很多图像主要是前景物体在移动,背景几乎不变,进一步由于观众在观看时,对前景物体的立体感感知较强,对背景物体的立体感感知较弱,因此,较佳的,对深度图中的每一区域进行加权,使视点的前景物体偏移较大,保证足够的立体感,即使前景物体处于3D效果强的区域;使背景物体的偏移量较小,即使背景物体处于3D效果弱的区域。如图6a、图6b、图6c、图6d所示,D1和D2大于D4和D5,使前景物体偏移量大,背景物体偏移量小,使立体效果更强。
较佳的,可使视点偏移量D1至D5依次逐渐减小,即D1大于D2,D2大于D3,D3大于D4,D4大于D5。由于视点之间每一对应区域的灰度值的差值越大,则3D效果越强,因此从前景物体第一区域至背景物体最后一区域,相邻视点之间每一对应区域灰度值的差值依次减小,可使3D效果从前景物体至背景物体依次减小,逐渐过渡,进一步由于前景物体中灰度值的差值较大,3D效果最强,且观众能较好的感知前景的变化,进而使观众能够很好的感知3D效果。
此时,前景物体第一区域至背景物体最后一区域,各对应深度区域的灰度值的差值逐渐减小,进而使进入眼中的两相邻视点的3D效果前景物体第一区域至背景物体最后一区域逐渐平滑过渡,视差逐渐减小,进一步使前景物体处于强3D区,背景物体处于弱3D区。进一步,由于背景物体相对偏移较小,所以生成新视点过程中对于背景物体部分的投影数据可以简化,这样能够降低生成新 视点所需的数据量,提高视点生成的速度。
相邻视点包括视点1和2、2和3、3和4、4和5、5和6、6和7、7和8、8和9,以及视点9和视点1之间具有与视点4与5之间相同的特性,在此不再赘述。
依据预设参数调整参考视点的深度图,生成首视点或尾视点的深度图;其中,首视点和尾视点的深度图的最大灰度值应小于一个周期内的其它视点深度图的最大灰度值;首视点和尾视点的深度图的最大灰度值之间的差值小于第四阈值。
依据预设参数分别调整参考视点的深度图的前景物体和背景物体中每一区域的灰度值,生成首视点的深度图。
如图6a、图6b、图6c、图6d所示,以视点2为参考视点生成首视点1的虚拟深度图为例,即当参考视点2的相邻视点1为特定视点首视点时。
输入所设置的视点2与视点1之间的水平方向的相对距离X4,确定视点1在水平方向上相对于视点2的位置。其中,视点2与视点1之间的水平相对距离应小于一定值,以便保证视点之间的距离不会过大,以致损坏3D效果。
根据依据预设参数生成首视点和尾视点的深度图的深度图。视点1与视点9之间的最大灰度值应小于一个周期内的其它视点深度图的最大灰度值,且同时首视点和尾视点的深度图的最大灰度值之间的差值小于第一阈值,以便减轻逆视区因视差过大而造成的图像模糊现象。
所述首视点的深度图的每一深度区域的灰度值均小于所述参考视点的深度图的相对应的每一深度区域的灰度值。
较佳的,首视点的深度图的每一深度区域的灰度值均小于一个周期内的首视点的相邻视点的深度图的每一深度区域的灰度值;首视点与一个周期内的首视点的相邻视点之间每一区域前景物体的灰度值的差值均大于首视点与首视点的相邻视点之间每一区域背景物体的灰度值的差值;即首视点1的深度图中各区域的灰度值需小于视点2的深度图的各对应深度区域的灰度值。
如图6a、图6b、图6c、图6d所示,以视点2为参考视点,输入视点2与视点1 之间的水平方向相对距离X4,确定视点1在水平方向的位置,输入预设参数调整视点2的深度图像中各区域的深度值,由背景物体至前景物体通过投影的方式生产视点1的虚拟深度图。
假设如图6a、图6b、图6c、图6d所示,视点2的深度图像与视点1的深度图像之间的e区域的灰度值之差为E5,视点2的深度图像与视点1的深度图像之间的d区域的灰度值之差为E4,视点2的深度图像与视点1的深度图像之间的的灰度值之差为E3,视点2的深度图像与视点1的深度图像之间的b区域的灰度值之差为E2,视点2的深度图像与视点1的深度图像之间的a区域的灰度值之差为E1;
视点1与视点9之间深度图中的各对应深度区域的灰度值差值如下:视点9的深度图像与视点1的深度图像中的e区域相比,灰度值之差为F5,视点9的深度图像与视点1的深度图像中的d区域相比,灰度值之差为F4,视点9的深度图像与视点1的深度图像中的c区域相比,灰度值之差为F3,视点9的深度图像与视点1的深度图像中的b区域相比,灰度值之差为F2,视点9的深度图像与视点1的深度图像中的a区域相比,灰度值之差为F1。
由于在动态场景中,很多图像主要是前景物体在移动,背景几乎不变,进一步由于观众在观看时,对前景物体的立体感感知较强,对背景物体的立体感感知较弱,因此,较佳的,对深度图中的每一区域进行加权,使视点的前景物体偏移较大,保证足够的立体感,即使前景物体处于3D效果强的区域;使背景物体的偏移量较小,即使背景物体处于3D效果弱的区域。
视点1和2组成的视区内,较佳的,E1和E2大于E4和E5,使前景物体偏移量大,背景物体偏移量小,使立体效果更强。较佳的,可使视点偏移量E1至E5依次逐渐减小,即E1大于E2,E2大于E3,E3大于E4,E4大于E5。
视点9和1组成的逆视区内,较佳的,F1和F2大于F4和F5,使前景物体偏移量大,背景物体偏移量小,使立体效果更强。较佳的,可使视点偏移量F1至F5依次逐渐减小,即F1大于F2,F2大于F3,F3大于F4,F4大于F5。
由于视点之间每一区域的偏移量越大,则3D效果越强,因此从前景物体第 一区域至背景物体最后一区域,相邻视点之间每一区域偏移量依次减小,可使3D效果从前景物体至背景物体依次减小,逐渐过渡,进一步由于前景物体偏移量较大,3D效果最强,且观众能较好的感知前景物体的变化,进而使观众能够很好的感知3D效果。
此时,前景物体第一区域至背景物体最后一区域,各区域的偏移量逐渐减小,进而使进入眼中的两相邻视点的3D效果前景物体第一区域至背景物体最后一区域逐渐平滑过渡,视差逐渐减小,进一步使前景物体处于强3D区,背景物体处于弱3D区。进一步,由于背景物体相对偏移较小,所以生成新视点过程中对于背景物体部分的投影数据可以简化,这样能够降低生成新视点所需的数据量,提高视点生成的速度。
依据上述方法,依据视点8生成尾视点9的深度图,尾视点9的深度图与首视点1的深度图具有同样图像特性,在此不再赘述。
较佳的,依据预设参数分别调整参考视点的深度图的前景物体和背景物体中每一区域的灰度值,生成尾视点的深度图。
所述尾视点的深度图的每一深度区域的的灰度值均小于所述参考视点的深度图的相对应的每一深度区域的的灰度值。
较佳的,尾视点的深度图的每一深度区域的的灰度值均小于一个周期内的尾视点的相邻视点的深度图的每一深度区域的的灰度值;尾视点与一个周期内的尾视点的相邻视点之间每一区域前景物体的灰度值的差值大于尾视点与尾视点的相邻视点之间每一区域背景物体的灰度值的差值。
相邻视点8和9之间具有与视点1与2之间相同的特性,在此不再赘述。
如图6a、图6b、图6c、图6d所示,假设视点5与视点4之间的水平方向相对距离为X1,视点4与视点3之间的水平方向相对距离为X2,视点3与视点2之间的水平方向相对距离为X3,视点2与视点1之间的水平方向相对距离为X4,视点5与视点6之间的水平方向相对距离为X5,视点6与视点7之间的水平方向相对距离为X6,视点7与视点8之间的水平方向相对距离为X7,视点8与视点9之间的水平方 向相对距离为X8。视点1的a区域的灰度值为C1,视点2的a区域的灰度值为C2,视点3的a区域的灰度值为C3,视点4的a区域的灰度值为C4,视点5的a区域的灰度值为C5,视点6的a区域的灰度值为C6,视点7的a区域的灰度值为C7,视点8的a区域的灰度值为C8,视点9的a区域的灰度值为C9。
较佳的,一个周期内的所有视点,从首视点至尾视点,各视点中每一对应深度层的灰度值先增大后减小。即各视点的a区域的灰度值从首视点至尾视点,先增大后减小,即C1小于C2,C2小于C3,C3小于C4,C4小于C5,C5大于C6,C6大于C7,C7大于C8,C8大于C9。
较佳的,一个周期内的关于中心线呈对称分布的两个视点的深度图之间的每一对应深度层的灰度值相等,其中,中心线为一个周期内的首视点和尾视点的水平相对距离的中心线。
假设一种较佳的分布,即为所有视点关于一个周期内的首视点和尾视点的水平相对距离对称,较佳的,当视点个数为奇数时,首视点与尾视点的水平相对距离的中心线上刚好放置的为中间视点的深度图图像;当视点个数为偶数时,首视点与尾视点的水平相对距离的中心线可以为中间两视点的水平相对距离的中心线。依旧以9视点图像为例,所有视点图像关于中间视点5对称,即视点4与视点6的深度图的每一对应深度区域的灰度值是相等的,视点3与视点7的深度图的每一对应深度区域的灰度值是相等的,视点2与视点8的深度图的每一对应深度区域的灰度值是相等的,视点1与视点9的深度图的每一对应深度区域的灰度值是相等的。依旧以上面的例子中的a区域为例,即C6等于C4,C7等于C3,C8等于C2,C9等于C1。
较佳的,本发明实施例提供的方法为,每一区域的偏移量以视点5为中心,向两侧发展,逐渐减小。如图6a、图6b、图6c、图6d所示,a区域在视点5的深度图像和视点4的深度图像之间的偏移量为D1,a区域在视点4的深度图像和视点3的深度图像之间的偏移量为G2,a区域在视点3的深度图像和视点2的深度图像之间的偏移量为G3,a区域在视点2的深度图像和视点1的深度图像之间的偏移量为 E1,a区域在视点5的深度图像和视点6的深度图像之间的偏移量为G4,a区域在视点6的深度图像和视点7的深度图像之间的偏移量为G5,a区域在视点7的深度图像和视点8的深度图像之间的偏移量为G6,a区域在视点8的深度图像和视点9的深度图像之间的偏移量为G7。
本发明实施例提供的方法为视点5左侧按D1、G2、G3、E1的顺序逐渐减小,即D1大于G2,G2大于G3,G3大于E1;视点5右侧按G4、G5、G6、G7的顺序逐渐减小,即G4大于G5,G5大于G6,G6大于G7;进一步,较佳的,视点5两侧视点的3D效果关于视点5对称,即D1等于G4,G2等于G5,G3等于G6,E1等于G7。其它区域与a区域情况一样,即同一区域在各相邻视点之间的偏移量,以视点5为中心,向两侧发展,逐渐减小。由此形成了视点5的3D效果最强,向两侧发展,3D效果逐渐减弱。
如图6a、图6b、图6c、图6d所示,假设视点5与视点4之间的水平方向相对距离为X1,视点4与视点3之间的水平方向相对距离为X2,视点3与视点2之间的水平方向相对距离为X3,视点2与视点1之间的水平方向相对距离为X4,视点5与视点6之间的水平方向相对距离为X5,视点6与视点7之间的水平方向相对距离为X6,视点7与视点8之间的水平方向相对距离为X7,视点8与视点9之间的水平方向相对距离为X8。较佳的,一个周期内的所有视点,从首视点至尾视点,每相邻两视点之间的水平相对距离先增大后减小。
较佳的,假设视点5的3D效果最强,向两侧逐渐减弱,则从视点5开始向两侧视点发展,视点之间的水平相对距离逐渐减小,即X1大于X2,X2大于X3,X3大于X4;即X5大于X6,X6大于X7,X7大于X8;
假设一种较佳的分布,即为所有视点关于一个周期内的首视点和尾视点的水平相对距离对称,较佳的,当视点个数为奇数时,首视点与尾视点的水平相对距离的中心线上刚好放置的为中间视点的深度图图像;当视点个数为偶数时,首视点与尾视点的水平相对距离的中心线可以为中间两视点的水平相对距离的中心线。较佳的,一个周期内的所有视点,每相邻两视点之间的水平相对距离 关于一个周期内的所有视点的中心线呈对称分布。即,视点5两侧视点的3D效果关于视点5对称,即X1等于X5,X2等于X6,X3等于X7,X4等于X8。由此形成了视点5的3D效果最强,向两侧发展,3D效果逐渐减弱。
较佳的,深度图上3D效果从强3D区至弱3D区实现平滑逐渐的过渡。
假设以视点5为3D效果最强的区域,视点1与视点9处于3D效果最弱的区域,则视点排布具有以下特征:
一个周期内的所有视点,从首视点至尾视点,每相邻两视点之间的水平相对距离先增大后减小;较佳的,一个周期内的所有视点,每相邻两视点之间的水平相对距离关于一个周期内的所有视点的中心线呈对称分布。
一个周期内的所有视点,从首视点至尾视点,各视点中每一对应深度层的灰度值先增大后减小;较佳的,一个周期内的关于中心线呈对称分布的两个视点的深度图之间的每一对应深度层的灰度值相等,其中,中心线为一个周期内的首视点和尾视点的水平相对距离的中心线。
一个周期内的所有相邻的视点的深度图之间的前景层的灰度值的差值大于背景层的灰度值的差值;较佳的,一个周期内的所有相邻的视点之间的每一相对应的深度区域之间的灰度值的差值从前景物体第一区域至背景物体最后一区域,依次减小。
由于所形成的视点的深度图图像一般采用8比特的灰度图像来表示,其中0灰度值代表无穷远处,255代表最近处。灰度值越大,表示该深度层离观众越近,反之,灰度值越小,表示该深度层离观众越远,因此需先将灰度值转换为实际场景中的景深。景深与灰度值成反比关系。
依据转换为实际景深的深度图,此时深度图的灰度值用景深表示,将其从背景物体最后一区域至前景物体第一区域的顺序,逐层投影,形成虚拟视点的深度图。
假设以视点5为参考视点,输入视点5的相邻视点4的每一区域的偏移量,以及视点4与视点5之间的水平方向相对距离,接着将具有灰度值的深度图转化为 具有实际景深的深度图,按照从背景物体最后一区域至前景物体第一区域的顺序,逐层投影,形成虚拟视点4的深度图。依照同样的方法以视点5为参考视点,生成视点5的相邻视点6的深度图。
接着以视点4为基础,生成视点4的相邻视点3的深度图像,以视点6为基础,生成视点6的相邻视点7的深度图图像;接着以视点3为基础生成其相邻视点2的深度图图像,以视点7为基础生成其相邻视点8的深度图图像,以视点2为基础,并结合一定的参数关系生成视点1的深度图图像,以视点8为基础,并结合一定的参数关系,生成视点9的深度图图像。
本领域技术人员可知,也可令第一个参考视点为视点1,从视点1开始向一侧生成相邻视点2的深度图,接着依据相邻视点2所生成的虚拟深度图像生成视点3的深度图,最后依次生成视点9的深度图。生成视点的深度图的顺序可以自定。
本技术领域人员可知,在生成参考视点相邻视点的深度图之后,接着依据参考视点的彩色图和深度图以及参考视点相邻视点的深度图生成参考视点相邻视点的彩色图。直至一个周期内所有视点的各自的彩色图均生成之后,统一对各视点的彩色图进行融合,形成各视点上具有3D效果的图片。
在本发明实施例中,将同一场景图像中的物体分割处理后,获得物体的深度值,根据所述各个物体的深度值与所述深度图像中聚焦层深度值的关系,将所述各个物体分为前景物体和背景物体;将所述前景物体和所述背景物体分别作为整体进行投影,得到参考视点。与现有技术相比,以整体物体分别进行投影,避免了同一物体中高低不同的地方在图像显示过程中处理裂纹,甚至割裂的现象。
在投影过程提供了一种矫正逆视区的方法,获取参考视点的深度图;依据预设参数调整参考视点的深度图,生成首视点或尾视点的深度图;其中,首视点和尾视点的深度图的最大灰度值应小于一个周期内的其它视点深度图的最大灰度值;其中,所述首视点和所述尾视点的深度图的最大灰度值应小于一个周 期内的其它视点深度图的最大灰度值;所述首视点和所述尾视点的深度图的最大灰度值之间的差值小于第四阈值。由于首视点和尾视点的深度图的最大灰度值小于一个周期内的其它视点深度图的最大灰度值,且首视点和尾视点的深度图的最大灰度值之间的差值小于第四阈值,从而保证了首视点和尾视点处于弱3D区,且同时首视点和尾视点的逆视差小于最大视差阈值,进而减轻了逆视区内的的图片模糊现象,提高了3D显示效果。
实施例三
本发明实施例三提供一种3D投影方法,如图7所示,包括以下步骤:
步骤301,输入图像;
步骤302,判断输入的图书是否是3D虚拟图像,若是3D虚拟图像,则直接执行步骤310,否则,执行步骤303;
步骤303,摄像机拍摄的图像包括彩色图像和深度图像的2D图像;将彩色图像按照步骤304执行,将深度图像按照步骤307执行;
步骤304,得到彩色图像;
步骤305,对彩色图像进行预分割;
步骤306,对预分割后的彩色图像中的各个分割物体块进行标记;
步骤307,得到深度图像;
步骤308,对深度图像进行预分割;
步骤309,对与分割后的深度图像中各个分割物体块进行标记;
步骤310,结合彩色图像分割物体块与深度图像中分割物体块的关系,得到同一场景中各个同一物体;
步骤311,获取同一场景中各个同一物体的位置信息;
步骤312,对各个同一物体进行投影。
其中,图像通常可以分为摄像机拍摄的图片和3D建模构建出的虚拟3D模型图片。对应3D建模构建出的虚拟3D模型图片,由于制作过程中以物体为单位构建,并且物体的位置关系是已知的,所以不需要对其进行复杂的分割,即可获 取各物体块的景深信息。投影过程中可以直接利用各物体块的景深信息调整物体的大小、位置。
其中,对于摄像机拍摄的图片,可以包括可见光摄像装置拍摄的同一场景的彩色图像(红绿蓝或者RGB图像),也包括深度摄像装置拍摄的同一场景的深度图像。彩色图像是由多个图像元素构成,每个图像元素表示对于图像的该点的可见光颜色值;而深度图像中每个图像元素不表示元素而是表示深度摄像装置与场景中的该点处的物体或表面之间的距离。彩色图像和深度图像结合在一起表示了同一场景中的物体的颜色和空间布局两者的情况。
其中,若单纯的根据彩色图像进行预分割,则会出现原本同一物体可能因为不同的颜色表示则被分为不同的物体块,比如图2B所示的茶壶1,因为茶壶的壶盖和壶身分别用两个颜色表示,则分割后将茶壶的壶盖和壶身分割为两个不同的物体块;或者某个人的头部图像,会因为头发与面部颜色不同,而将其面部与头发分开为两个物体块。
其中,若单纯的根据深度图像进行预分割,分割后大体能够将图像中的前景和背景区别开来,但是某些部位将会被误分割为一个物体,比如图2E所示的深度图像分割图像,深度图像表示深度摄像装置与场景中的该点处的物体或表面之间的距离。若茶壶1与摄像装置的距离很近,则在深度图像中,茶壶1与它周边的背景将融为一体,很难区别;或者并排搀扶行走的路人,从深度图像中可以看出两个人具有相同的深度值,但是因为路人相互搀扶,所以很难干将并排搀扶行走的路人区分开。
综合使用彩色图和深度图分别同一场景的图像进行预分割,根据彩色图像预分割结果,可以得到同一场景中各个分割物体块;根据深度图像预分割结果,可以得到同一场景中各个分割物体块的深度值;根据同一场景中各个分割物体块的深度值确定具有相同深度值的分割物体块,在根据各个分割物体块在颜色图像中边界是否相邻和在深度图像中边界是否相邻等设定条件,判断各个分割物体块是否为同一物体。
其中,若彩色图像中仅包含一个分割物体块,确定所述分割物体块为同一物体。比如图2G所示图像,在该彩色图像中,仅仅包括一个茶壶,其中包括壶盖、壶嘴和壶把。在该彩色图像中,仅有一个物体块,将该彩色图像分割后得到一个分割物体块,在可以直接判断该物体块为一个物体,不用对同一场景的图像进行深度值确定就可以确定分割物体块为同一物体块。
其中,设定条件包括以下几种:
深度值相同的分割物体块在所述深度图像中的边界相邻,且所述深度值相同的分割物体块在所述彩色图像中的边界相邻,且所述深度值相同的分割物体块中最小的分割物体块的面积不大于第一阈值。
如图2C所示,茶壶1的壶盖和壶身颜色不同,按照彩色图像分割方法,将茶壶1的壶盖和壶身分别用E和D标示。因为茶壶1的壶盖和壶身在彩色图像中边界相邻,在深度图像中具有相同的深度值且边界相邻,其中茶壶1的壶身和壶盖两个分割物体块中,壶盖的面积小于壶身的面积,在该图像中,茶壶1的壶盖的面积小于预设的第一阈值,所以将茶壶1的壶盖和壶身确定为同一物体。在图2F中,将茶壶1的壶盖改为与壶身相同的标示D。
如图2G所示,彩色图像中有两个颜色不相同的罐子,其中两个罐子在彩色图像预分割图像中边界相邻,分别标示为罐1和罐2,两个分割罐子在深度图像中具有相同的深度值并且在深度图像中也边界相邻,其中两个分割罐子的面积一样大,在该图像中,两个分割罐子1和2的面积相等,不小于预设的第一阈值,所以认为这两个分割罐子不是同一物体。
深度值相同的分割物体块在所述深度图像中的边界相邻,且所述深度值相同的分割物体块在所述彩色图像中的边界不相邻,其所述深度值相同的分割物体块中最小的分割物体块的面积不大于第二阈值。
如图2H所示的彩色图像(使用条形线表示彩色图像中的颜色),彩色图像中有3个颜色不同的物体,其中物体1和物体2的颜色相同,与物体3的颜色不相同。其中3各物体在彩色图像预分割图像中的边界各不相邻,3个分割物体块在深度 图像中具有相同的深度值,并且边界相邻,其中,分割物体块1的面积最大,剩余两个分割物体块2和3的面积很小。在该图像中,若分割物体块2和分割物体块3的面积都不大于预设的第二阈值,则将分割物体块2和分割物体块3与分割物体块1认为属于同一物体;若分割物体块2的面积不大于预设的第二阈值,分割物体块3的面积都大于预设的第二阈值,则将分割物体块2和分割物体块1认为属于同一物体,而分割物体块3认为是另外的一个物体;若分割物体块2和分割物体块3的面积都大于预设的第二阈值,则认为分割物体块2和分割物体块3与分割物体块1不属于同一物体。
深度值相同的分割物体块在所述深度图像中的边界相邻,且所述深度值相同的分割物体块在所述彩色图像中的边界不相邻,且深度值相同的分割物体块之间最大的间距不大于第三阈值。
如图2E所示,茶壶1包括壶盖和壶嘴的深度值相同,且茶壶1的壶身和壶嘴边界相邻,而在图2C中,茶壶1的壶身和壶嘴边界不相邻。其中第三阈值的范围在0-100%之间,若茶壶1的壶嘴和壶身的距离小于预设的第三阈值,则认为茶壶1的壶身和壶嘴是同一物体;若茶壶1的壶嘴和壶身的距离大于预设的第三阈值,则认为茶壶1的壶身和壶嘴不是同一物体;所以在图2F中,将茶壶1的壶嘴用D1标示。
其中,获取同一场景中各个物体在深度图像中的深度值,根据所述各个物体的深度值与所述深度图像中聚焦层深度值的关系,将所述各个物体分为前景物体和背景物体;
将所述前景物体和所述背景物体分别作为整体进行投影,得到参考视点;在投影过程中,采用如图4、图6a、图6b、图6c或图6d所示投影方法,所述前景物体投影后深度值的增加值大于所述背景物体投影后深度值的增加值,且所述前景物体投影后的位置偏移量大于所述背景物体投影后的位置偏移量。由于前景物体会覆盖背景物体,因此,在生成新视点是需要先从背景同一物体开始投影,以此向前景过渡,最后投影前景的同一物体。
本发明实施例中,将同一场景中彩色图像预分割后的各个分割物体块和深度图像预分割后的中各分割物体块的深度值结合使用,可以准确的确定同一场景中的同一物体。在投影时以物体为单位进行整体投影,不会导致物体内部产生割裂,能够更加真实的还原场景。在投影过程中,保证前景物体深度值的增加量大于背景物体投影后深度值的增加量,且前景物体投影后的位置偏移量大于背景物体投影后的的位置偏移量。使观看者看到的前景物体是由强3D效果向弱3D效果逐渐过渡,观看者既能够明显感觉到立体感,同时,在逆视区的范围内模糊度降低,减弱观看的不舒适度。
基于同一发明构思,本发明实施例提供了一种图像分割装置,由于该装置解决技术问题的原理与一种图像分割方法相似,因此该装置的实施可以参见方法的实施,重复之处不再赘述。
实施例四
本发明实施例三提供了一种图像分割装置,如图8所示,该装置包括图像分割单元41、深度值确定单元42和物体确定单元43。
图像分割单元41:用于分割彩色图像,得到彩色图像中的分割物体块;深度值确定单元42:用于根据深度图像确定所述分割物体块的深度值;
物体确定单元43:用于当深度值相同的所述分割物体块在所述深度图像和所述彩色图像中满足设定条件时,合并所述深度值相同的所述分割物体块,得到具有深度值的物体。
较佳地,所述物体确定单元43根据以下设定条件确定深度值相同的分割物体块为同一物体:
深度值相同的分割物体块在所述深度图像中的边界相邻,且所述深度值相同的分割物体块在所述彩色图像中的边界相邻,且所述深度值相同的分割物体块中最小的分割物体块的面积不大于第一阈值;
深度值相同的分割物体块在所述深度图像中的边界相邻,且所述深度值相同的分割物体块在所述彩色图像中的边界不相邻,其所述深度值相同的分割物 体块中最小的分割物体块的面积不大于第二阈值;
深度值相同的分割物体块在所述深度图像中的边界相邻,且所述深度值相同的分割物体块在所述彩色图像中的边界不相邻,且深度值相同的分割物体块之间最大的间距不大于第三阈值。
较佳地,图像分割单元41,具体用于:
若彩色图像中仅包含一个物体,得到具有深度值的物体。
本发明实施提供一种图像分割装置,对彩色图像进行分割处理,确定彩色图像中的所有分割物体块;根据与所述彩色图像同一场景的深度图像,确定每个分割物体块的深度值;从所有所述分割物体块中确定深度值相同的分割物体块;在深度值相同的分割物体块在所述深度图像中的位置满足设定条件时,合并所述深度值相同的所述分割物体块,得到具有深度值的物体。可以准确的确定同一场景中的同一物体。
实施例五
如图9所示,本发明实施例五提供一种生成视点的装置,包括物体获得单元51和物体投影单元52。
物体获取单元51:用于获取各个物体在深度图像中的深度值,根据所述各个物体的深度值与所述深度图像中聚焦层深度值的关系,将所述各个物体分为前景物体和背景物体;
物体投影单元52:用于将所述前景物体和所述背景物体分别作为整体进行投影,得到参考视点;
其中,所述前景物体投影后深度值的增加值大于所述背景物体投影后深度值的增加值,且所述前景物体投影后的位置偏移量大于所述背景物体投影后的位置偏移量。
较佳地,所述物体投影单元52还用于:
获取所述参考视点的深度图;
依据预设参数调整所述参考视点的深度图,生成首视点或尾视点的深度图;
其中,所述首视点和所述尾视点的深度图的最大灰度值应小于一个周期内的其它视点深度图的最大灰度值;所述首视点和所述尾视点的深度图的最大灰度值之间的差值小于第四阈值。
本发明实施提供一种生成视点的装置,用于将前景物体和所述背景物体分别作为整体进行投影,并且在投影过程中,前景物体深度值相对于所述聚焦层深度值的变化量大于所述背景物体深度值相对于所述聚焦层深度值的变化量,且所述前景物体相对于所述主视点的偏移量大于所述背景物体相对于所述主视点的偏移量。采用该装置,观看者看到的前景物体是由强3D效果向弱3D效果逐渐过渡。观看者即能明显感觉到立体感,同时在逆视区的范围内不会出现突然跳变的模糊,消弱了逆视区的不舒适感。
实施例六
如图10所示,本发明实施例提供一种图像分割及投影装置,包括处理器60、存储器61、用户接口62和总线接口63。其中,处理器60、存储器61与用户接口62之间通过总线接口63连接。
处理器60,用于对彩色图像进行预分割处理,确定彩色图像中的所有分割物体块;根据与所述彩色图像同一场景的深度图像,确定每个分割物体块的深度值;从所有所述分割物体块中确定深度值相同的分割物体块;在深度值相同的分割物体块在所述深度图像中的位置满足设定条件时,确定深度值相同的分割物体块为同一物体。
较佳的,所述处理器60,具体用于:
深度值相同的分割物体块在所述深度图像中的边界相邻,且所述深度值相同的分割物体块在所述彩色图像中的边界相邻,且所述深度值相同的分割物体块中最小的分割物体块的面积不大于第一阈值;
深度值相同的分割物体块在所述深度图像中的边界相邻,且所述深度值相同的分割物体块在所述彩色图像中的边界不相邻,其所述深度值相同的分割物体块中最小的分割物体块的面积不大于第二阈值;
深度值相同的分割物体块在所述深度图像中的边界相邻,且所述深度值相同的分割物体块在所述彩色图像中的边界不相邻,且深度值相同的分割物体块之间最大的间距不大于第三阈值。
较佳的,所述处理器60,具体用于:
若彩色图像中仅包含一个分割物体块,确定所述分割物体块为同一物体。
较佳的,该图像分割装置还用于视点生成装置。
所述处理器60,还用于:
获取各个物体在深度图像中的深度值,根据所述各个物体的深度值与所述深度图像中聚焦层深度值的关系,将所述各个物体分为前景物体和背景物体;
将所述前景物体和所述背景物体分别作为整体进行投影,得到参考视点;
其中,所述前景物体投影后深度值的增加值大于所述背景物体投影后深度值的增加值,且所述前景物体投影后的位置偏移量大于所述背景物体投影后的位置偏移量。
较佳的,所述处理器60,还用于:
获取所述参考视点的深度图;
依据预设参数调整所述参考视点的深度图,生成首视点或尾视点的深度图;
其中,所述首视点和所述尾视点的深度图的最大灰度值应小于一个周期内的其它视点深度图的最大灰度值;所述首视点和所述尾视点的深度图的最大灰度值之间的差值小于第四阈值。
在本发明实施例图10中,总线构架可以包括任意数量的互联的总线和桥,具体由处理器60代表的一个或多个处理器和存储器61代表的存储器的各种电路链接在一起。总线架构还可以将诸如外围设备、稳压器和功率管理电路等之类的各种其他电路链接在一起,这些都是本领域所公知的,因此,本文不再对其进行进一步描述。
在本发明实施例图10中,总线接口63提供接口。处理器60负责管理总线架构和通常的处理,存储器61可以存储处理器60在执行操作时所使用的数据。针 对不同的用户装置,用户接口62还可以是能够外接内接需要设备的接口,连接的设备包括但不限于小键盘、显示器、扬声器、麦克风、操纵杆等。
处理器60负责管理总线架构和通常的处理,存储器61可以存储处理器60在执行操作时所使用的数据。
通过以上所述的流程图以及方案的描述,将同一场景中彩色图像预分割后的各个分割物体块和深度图像预分割后的中各分割物体块的深度值结合使用,可以准确的确定同一场景中多个物体是否属于同一物体。在投影时,前景物体深度值相对于所述聚焦层深度值的变化量大于所述背景物体深度值相对于所述聚焦层深度值的变化量,且所述前景物体相对于所述主视点的偏移量大于所述背景物体相对于所述主视点的偏移量。则观看者看到的前景物体是由强3D效果向弱3D效果逐渐过渡。观看者既能够明显感觉到立体感,同时,在逆视区的范围内模糊度降低,减弱观看的不舒适度。
应当理解,以上图像分割装置包括的单元仅为根据该设备装置实现的功能进行的逻辑划分,实际应用中,可以进行上述单元的叠加或拆分。并且该实施例提供的图像分割装置所实现的功能与上述实施例提供的图像分割方法一一对应,对于该装置所实现的更为详细的处理流程,在上述方法实施例一中已做详细描述,此处不再详细描述。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式 处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (6)

1.一种生成视点的方法,其特征在于,所述方法包括:
获取各个物体在深度图像中的深度值,根据所述各个物体的深度值与所述深度图像中聚焦层深度值的关系,将所述各个物体分为前景物体和背景物体;其中,所述物体是通过图像分割方法确定的,包括:分割彩色图像,得到彩色图像中的分割物体块;根据深度图像确定所述分割物体块的深度值;当深度值相同的所述分割物体块在所述深度图像和所述彩色图像中满足设定条件时,合并所述深度值相同的所述分割物体块,得到具有深度值的物体;所述设定条件包括:深度值相同的分割物体块在所述深度图像中的边界相邻,且所述深度值相同的分割物体块在所述彩色图像中的边界不相邻,其所述深度值相同的分割物体块中最小的分割物体块的面积不大于第二阈值;或
深度值相同的分割物体块在所述深度图像中的边界相邻,且所述深度值相同的分割物体块在所述彩色图像中的边界不相邻,且深度值相同的分割物体块之间最大的间距不大于第三阈值;
将所述前景物体和所述背景物体分别作为整体进行投影,得到参考视点;其中,所述前景物体投影后深度值的增加值大于所述背景物体投影后深度值的增加值,且所述前景物体投影后的位置偏移量大于所述背景物体投影后的位置偏移量。
2.如权利要求1所述方法,其特征在于,所述方法还包括:
获取所述参考视点的深度图;
依据预设参数调整所述参考视点的深度图,生成首视点或尾视点的深度图;
其中,所述首视点和所述尾视点的深度图的最大灰度值应小于一个周期内的其它视点深度图的最大灰度值;所述首视点和所述尾视点的深度图的最大灰度值之间的差值小于第四阈值。
3.如权利要求1所述方法,其特征在于,分割彩色图像,得到彩色图像中的分割物体块,还包括:
若彩色图像中仅包含一个物体,得到具有深度值的物体。
4.一种生成视点的装置,其特征在于,所述装置包括:
物体获取单元:用于获取各个物体在深度图像中的深度值,根据所述各个物体的深度值与所述深度图像中聚焦层深度值的关系,将所述各个物体分为前景物体和背景物体;其中,所述物体是通过图像分割装置得到的;所述图像分割装置包括:图像分割单元:用于分割彩色图像,得到彩色图像中的分割物体块;深度值确定单元:用于根据深度图像确定所述分割物体块的深度值;物体确定单元:用于当深度值相同的所述分割物体块在所述深度图像和所述彩色图像中满足设定条件时,合并所述深度值相同的所述分割物体块,得到具有深度值的物体;所述设定条件包括:深度值相同的分割物体块在所述深度图像中的边界相邻,且所述深度值相同的分割物体块在所述彩色图像中的边界不相邻,其所述深度值相同的分割物体块中最小的分割物体块的面积不大于第二阈值;或
深度值相同的分割物体块在所述深度图像中的边界相邻,且所述深度值相同的分割物体块在所述彩色图像中的边界不相邻,且深度值相同的分割物体块之间最大的间距不大于第三阈值;
物体投影单元:用于将所述前景物体和所述背景物体分别作为整体进行投影,得到参考视点;其中,所述前景物体投影后深度值的增加值大于所述背景物体投影后深度值的增加值,且所述前景物体投影后的位置偏移量大于所述背景物体投影后的位置偏移量。
5.如权利要求4所述装置,其特征在于,所述物体投影单元还用于:
获取所述参考视点的深度图;
依据预设参数调整所述参考视点的深度图,生成首视点或尾视点的深度图;
其中,所述首视点和所述尾视点的深度图的最大灰度值应小于一个周期内的其它视点深度图的最大灰度值;所述首视点和所述尾视点的深度图的最大灰度值之间的差值小于第四阈值。
6.如权利要求4所述装置,其特征在于,所述图像分割单元具体用于:
若彩色图像中仅包含一个物体,得到具有深度值的物体。
CN201410336665.XA 2014-07-15 2014-07-15 一种生成视点的方法及装置 Expired - Fee Related CN104112275B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410336665.XA CN104112275B (zh) 2014-07-15 2014-07-15 一种生成视点的方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410336665.XA CN104112275B (zh) 2014-07-15 2014-07-15 一种生成视点的方法及装置

Publications (2)

Publication Number Publication Date
CN104112275A CN104112275A (zh) 2014-10-22
CN104112275B true CN104112275B (zh) 2017-07-04

Family

ID=51709054

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410336665.XA Expired - Fee Related CN104112275B (zh) 2014-07-15 2014-07-15 一种生成视点的方法及装置

Country Status (1)

Country Link
CN (1) CN104112275B (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106469446B (zh) * 2015-08-21 2021-04-20 小米科技有限责任公司 深度图像的分割方法和分割装置
CN105117495B (zh) * 2015-09-24 2018-12-14 联想(北京)有限公司 一种图像处理方法及电子设备
CN108596128B (zh) * 2018-04-28 2020-06-26 京东方科技集团股份有限公司 对象识别方法、装置及存储介质
CN108805883B (zh) * 2018-06-08 2021-04-16 Oppo广东移动通信有限公司 一种图像分割方法、图像分割装置及电子设备
CN109389150B (zh) * 2018-08-28 2022-04-05 东软集团股份有限公司 图像一致性比对方法、装置、存储介质及电子设备
CN111507390B (zh) * 2020-04-11 2023-07-04 华中科技大学 一种基于轮廓特征的仓储箱体识别与定位方法
CN112183537B (zh) * 2020-11-30 2021-03-19 北京易真学思教育科技有限公司 模型训练方法及装置、文本区域检测方法及装置
CN112767412B (zh) * 2020-12-31 2024-04-12 东软睿驰汽车技术(沈阳)有限公司 车辆部件级分割方法、装置以及电子设备
CN114816169B (zh) * 2022-06-29 2022-11-04 荣耀终端有限公司 桌面图标的显示方法、设备及存储介质
CN115442580B (zh) * 2022-08-17 2024-03-26 深圳市纳晶云实业有限公司 一种便携式智能设备裸眼3d图片效果处理方法
CN115941920B (zh) * 2022-11-23 2023-11-10 马凯翔 裸眼3d视频生成方法、装置、设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102307312A (zh) * 2011-08-31 2012-01-04 四川虹微技术有限公司 一种对dibr技术生成的目标图像进行空洞填充的方法
CN102592275A (zh) * 2011-12-16 2012-07-18 天津大学 虚拟视点绘制方法
CN103795961A (zh) * 2012-10-30 2014-05-14 三亚中兴软件有限责任公司 会议电视网真系统及其图像处理方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102307312A (zh) * 2011-08-31 2012-01-04 四川虹微技术有限公司 一种对dibr技术生成的目标图像进行空洞填充的方法
CN102592275A (zh) * 2011-12-16 2012-07-18 天津大学 虚拟视点绘制方法
CN103795961A (zh) * 2012-10-30 2014-05-14 三亚中兴软件有限责任公司 会议电视网真系统及其图像处理方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Depth Assisted Object Segmentation in Multi-View Video;Cevahir Cigla 等;《2008 3DTV Conference: The True Vision - Capture, Transmission and Display of 3D Video》;20080530;摘要,第2节第2段,第3节第2段,第6节第1、2段,图3 *
Fusing Time-of-Flight Depth and Color for Real-Time Segmentation and Tracking;Amit Bleiweiss 等;《Dynamic 3D Imaging》;20091231;第5742卷;58-69 *
Hierarchical fusion of color and depth information at partition level by cooperative region merging;Felipe Calderero 等;《2009 IEEE International Conference on Acoustics, Speech and Signal Processing》;20090424;973-976 *
融合深度和颜色信息的图像物体分割算法;皮志明 等;《模式识别与人工智能》;20130228;第26卷(第2期);151-158 *

Also Published As

Publication number Publication date
CN104112275A (zh) 2014-10-22

Similar Documents

Publication Publication Date Title
CN104112275B (zh) 一种生成视点的方法及装置
JP6517245B2 (ja) 三次元画像を生成するための方法及び機器
US8638329B2 (en) Auto-stereoscopic interpolation
US8977039B2 (en) Pulling keys from color segmented images
JP5522404B2 (ja) 画像処理方法、画像処理装置及びプログラム
US20140111627A1 (en) Multi-viewpoint image generation device and multi-viewpoint image generation method
JP6060329B2 (ja) 3dディスプレイ装置で3次元映像を視覚化する方法および3dディスプレイ装置
US10553014B2 (en) Image generating method, device and computer executable non-volatile storage medium
CN109510975B (zh) 一种视频图像的提取方法、设备及系统
CN102098528A (zh) 一种平面图像的立体转换方法及装置
US9196080B2 (en) Medial axis decomposition of 2D objects to synthesize binocular depth
WO2002027667A1 (en) Method for automated two-dimensional and three-dimensional conversion
CN105263011B (zh) 多视点图像显示设备及其多视点图像显示方法
KR101731113B1 (ko) 2d-3d 영상 변환 방법 및 이를 이용한 입체 영상 표시장치
Cheng et al. 51.3: An Ultra‐Low‐Cost 2‐D/3‐D Video‐Conversion System
WO2011071978A1 (en) Three dimensional image rendering
KR20110082907A (ko) 입체 영상 변환 방법 및 입체 영상 변환 장치
CN110853147A (zh) 一种三维人脸变换的方法
JP2003521857A (ja) ソフトウェア焦点外し3d方法、そのシステム及び装置
Jeong et al. Depth image‐based rendering for multiview generation
JP2010259022A (ja) 表示装置、表示方法、および表示プログラム
CN116033137A (zh) 显示屏的处理方法、装置、非易失性存储介质及电子设备
TWI489860B (zh) 三維影像處理方法與應用其之三維影像顯示裝置
Byalmarkova et al. Approaches in Creation of 3D Content for Autostereoscopic Displays

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20170704

Termination date: 20200715