CN111369435B - 基于自适应稳定模型的彩色图像深度上采样方法及系统 - Google Patents

基于自适应稳定模型的彩色图像深度上采样方法及系统 Download PDF

Info

Publication number
CN111369435B
CN111369435B CN202010099267.6A CN202010099267A CN111369435B CN 111369435 B CN111369435 B CN 111369435B CN 202010099267 A CN202010099267 A CN 202010099267A CN 111369435 B CN111369435 B CN 111369435B
Authority
CN
China
Prior art keywords
depth
matrix
area
image
filled
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010099267.6A
Other languages
English (en)
Other versions
CN111369435A (zh
Inventor
王春兴
祖兰晶
万文博
任艳楠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong Normal University
Original Assignee
Shandong Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong Normal University filed Critical Shandong Normal University
Priority to CN202010099267.6A priority Critical patent/CN111369435B/zh
Publication of CN111369435A publication Critical patent/CN111369435A/zh
Application granted granted Critical
Publication of CN111369435B publication Critical patent/CN111369435B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4023Decimation- or insertion-based scaling, e.g. pixel or line decimation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/40Filling a planar surface by adding surface attributes, e.g. colour or texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4053Super resolution, i.e. output image resolution higher than sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Abstract

本公开公开了一种基于自适应稳定模型的彩色图像深度上采样方法及系统,包括将深度图划分为平坦区域和边缘区域,对边缘区域的像素点进行聚类,根据聚类结果将边缘区域分为区域Ⅰ和区域Ⅱ;将聚类深度图映射到与彩色图像有相同分辨率的高分辨率网格上,得到待填充矩阵,根据待填充矩阵得到观察矩阵;根据自适应稳定模型得到预测矩阵,由预测矩阵和观察矩阵得到深度矩阵;将聚类深度图进行双三次插值,得到初始深度图,采用初始深度图填充待填充矩阵区域Ⅰ的目标点,采用深度矩阵填充待填充矩阵区域Ⅱ的目标点,完成深度图的上采样。解决上采样深度图像中深度边缘模糊和深度掺混等深度图不够平滑的问题,生成边缘清晰的上采样深度图像。

Description

基于自适应稳定模型的彩色图像深度上采样方法及系统
技术领域
本公开涉及图像处理技术领域,特别是涉及一种基于自适应稳定模型的彩色图像深度上采样方法及系统。
背景技术
本部分的陈述仅仅是提供了与本公开相关的背景技术信息,不必然构成在先技术。
随着无人驾驶、三维电视以及3D电影的发展,3D内容与我们的生活息息相关。其中,动态和静态对象、场景的相关3D信息重建是计算机视觉的核心问题。早期,人们可以根据其视觉感知动态3D场景,因此相信计算机可以借助视觉信息解决问题,但即使建立精确的3D模型,并不一定能获得精确的3D信息。深度传感器已成为产生3D深度信息的重要工具,已用于各种应用程序,逐渐改变人们与机器交互的方式。但是,与传统的光学相机相比,深度传感器主要元器件的制造成本高,分辨率提高的速度慢,尽管主流光学相机的分辨率约为10兆像素,但ToF(Time of Flight)深度传感器的分辨率仍低于0.02兆像素,这极大地限制了它们的应用。因此如何获取高质量、高分辨率的深度信息是亟待解决的问题。
基于ToF的技术已成为密集深度感应等传统方法的替代方案。ToF距离传感器在运行时间中主动测量每个像素的深度,即使范围小,距离近也可以获得精密的深度信息。大众市场可以负担得起ToF传感器的价格,小数据包和低能耗使其可应用于移动设备。ToF深度相机利用来自同一场景的多个深度图像来重建高质量的深度图像。但是,发明人发现,其由于芯片尺寸的限制,导致产生低分辨率图像,有限的照明能量导致图像产生噪声,依赖于准确的校准,在用于动态环境时可能会失败,不能获得准确稳定的深度图。
另外,在彩色图像引导滤波方面,发明人发现目前几种现有技术中至少存在以下问题:Kopf等提出的联合双边上采样的算法,是基于彩色图像中相同场景的更高质量的假设,使用彩色图像中的边缘信息来增强深度图像的不连续区域。但是,此方法忽略了两个图像对之间不匹配的问题。
Liu等提出的在滤波核中利用测地距离代替欧式距离来获得更为精确的深度边缘,由于测地距离整合了沿曲线的联合颜色和空间变化,因此对表面周围的薄轮廓更敏感,即使轮廓两侧之间的色差很小,也可以提供清晰的深度边界。但由于彩色图像具有颜色或结构不连续性,此方法仍可能导致错误的深度信息输出,因此如何抑制纹理复制伪影仍然是一个具有挑战性的问题。
Ferstl将深度图上采样视为具有高阶正则化的凸优化问题,将根据HR强度图像的各向异性扩散张量作为指导完成深度上采样,其中将高阶正则化项强制执行为分段的精细解决方案,根据纹理保留尖锐的边缘,同时补偿采集噪声;但忽略了存在于深度图像和彩色图像之间的结构不一致性。
发明内容
为了解决上述问题,本公开提出了一种基于自适应稳定模型的彩色图像深度上采样方法及系统,通过对不可靠像素点的标记和修正,得到边缘增强、深度信息完整的深度图;对深度图的聚类、映射得到待填充矩阵和初始化深度图,根据由深度项和颜色项加权的自适应稳定模型对待填充矩阵的目标点进行填充,生成边缘清晰的上采样深度图像,可用于从2D彩色图像或视频中生成场景的深度图和3DTV中所需的深度图。
为了实现上述目的,本公开采用如下技术方案:
第一方面,本公开提供一种基于自适应稳定模型的彩色图像深度上采样方法,包括:
将彩色图像对应的深度图根据边缘点的分布划分为平坦区域和边缘区域,对边缘区域的像素点进行聚类,根据得到的聚类块中像素点数量将边缘区域分为区域Ⅰ和区域Ⅱ,并将平坦区域划分到区域Ⅰ中,得到聚类深度图;
将聚类深度图及其两个区域坐标映射到与彩色图像有相同分辨率的高分辨率网格上,得到待填充矩阵,根据待填充矩阵得到观察矩阵,所述待填充矩阵中包括待填充矩阵区域Ⅰ和待填充矩阵区域Ⅱ;
构建由深度项和颜色项加权的自适应稳定模型,根据自适应稳定模型得到预测矩阵,由预测矩阵和观察矩阵得到深度矩阵;
将聚类深度图进行双三次插值,得到初始深度图,采用初始深度图填充待填充矩阵区域Ⅰ的目标点,采用深度矩阵填充待填充矩阵区域Ⅱ的目标点,完成深度图的上采样,得到彩色图像的高分辨率深度图。
第二方面,本公开提供一种基于自适应稳定模型的彩色图像深度上采样系统,包括:
聚类模块,被配置为将彩色图像对应的深度图根据边缘点的分布划分为平坦区域和边缘区域,对边缘区域的像素点进行聚类,根据得到的聚类块中像素点数量将边缘区域分为区域Ⅰ和区域Ⅱ,并将平坦区域划分到区域Ⅰ中,得到聚类深度图;
映射模块,被配置为将聚类深度图及其两个区域坐标映射到与彩色图像有相同分辨率的高分辨率网格上,得到待填充矩阵,根据待填充矩阵得到观察矩阵,所述待填充矩阵中包括待填充矩阵区域Ⅰ和待填充矩阵区域Ⅱ;
自适应稳定模型构建模块,被配置为构建由深度项和颜色项加权的自适应稳定模型,根据自适应稳定模型得到预测矩阵,由预测矩阵和观察矩阵得到深度矩阵;
上采样模块,被配置为将聚类深度图进行双三次插值,得到初始深度图,采用初始深度图填充待填充矩阵区域Ⅰ的目标点,采用深度矩阵填充待填充矩阵区域Ⅱ的目标点,完成深度图的上采样,得到彩色图像的高分辨率深度图。
第三方面,本公开提供一种电子设备,包括存储器和处理器以及存储在存储器上并在处理器上运行的计算机指令,所述计算机指令被处理器运行时,完成一种基于自适应稳定模型的彩色图像深度上采样方法所述的步骤。
第四方面,本公开提供一种计算机可读存储介质,用于存储计算机指令,所述计算机指令被处理器执行时,完成一种基于自适应稳定模型的彩色图像深度上采样方法所述的步骤。
与现有技术相比,本公开的有益效果为:
利用彩色图像和深度图像之间的几何相关性来解决通过现有技术得到的上采样深度图像中深度边缘模糊和深度掺混等深度图不够平滑的问题,能够高效地生成边缘清晰的上采样深度图像,可用于从现有大量的2D彩色图像或视频中生成场景的深度图和3DTV中所需的深度图。
本公开有效针对深度不连续的区域,同时也有利于降低计算复杂度,便于获得最优解,保证结果的准确度。
附图说明
构成本公开的一部分的说明书附图用来提供对本公开的进一步理解,本公开的示意性实施例及其说明用于解释本公开,并不构成对本公开的不当限定。
图1是本公开实施例1提供的基于自适应稳定模型的彩色图像深度上采样方法总流程图;
图2是本公开实施例1提供的求颜色项系数的子流程图;
图3(a)是本公开实施例1提供的Book测试集的高分辨深度图;
图3(b)是本公开实施例1提供的Reindeer测试集的高分辨深度图;
图4(a)是通过Bicubic方法对测试集Book进行4倍上采样得到的高分辨深度图像;
图4(b)是通过JBU方法对测试集Book进行4倍上采样得到的高分辨深度图像;
图4(c)是通过Guide方法对测试集Book进行4倍上采样得到的高分辨深度图像;
图4(d)是通过TGV方法对测试集Book进行4倍上采样得到的高分辨深度图像;
图4(e)是通过AR方法对测试集Book进行4倍上采样得到的高分辨深度图像;
图4(f)是通过本公开实施例1提供的方法对测试集Book进行4倍上采样得到的高分辨深度图像;
图5(a)是通过Bicubic方法对测试集Reindeer进行4倍上采样得到的高分辨深度图像;
图5(b)是通过JBU方法对测试集Reindeer进行4倍上采样得到的高分辨深度图像;
图5(c)是通过Guide方法对测试集Reindeer进行4倍上采样得到的高分辨深度图像;
图5(d)是通过TGV方法对测试集Reindeer进行4倍上采样得到的高分辨深度图像;
图5(e)是通过AR方法对测试集Reindeer进行4倍上采样得到的高分辨深度图像;
图5(f)是通过本公开实施例1提供的方法对测试集Reindeer进行4倍上采样得到的高分辨深度图像;
图6是对测试集Book针对bpr指标的结果分析图。
具体实施方式:
下面结合附图与实施例对本公开做进一步说明。
应该指出,以下详细说明都是例示性的,旨在对本公开提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本公开所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本公开的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
实施例1
如图1所示,本实施例提供一种基于自适应稳定模型的彩色图像深度上采样方法,包括:
S1:将彩色图像对应的深度图根据边缘点的分布划分为平坦区域和边缘区域,对边缘区域的像素点进行聚类,根据得到的聚类块中像素点数量将边缘区域分为区域Ⅰ和区域Ⅱ,并将平坦区域划分到区域Ⅰ中,得到聚类深度图;
S2:将聚类深度图及其两个区域坐标映射到与彩色图像有相同分辨率的高分辨率网格上,得到待填充矩阵,根据待填充矩阵得到观察矩阵,所述待填充矩阵中包括待填充矩阵区域Ⅰ和待填充矩阵区域Ⅱ;
S3:构建由深度项和颜色项加权的自适应稳定模型,根据自适应稳定模型得到预测矩阵,由预测矩阵和观察矩阵得到深度矩阵;
S4:将聚类深度图进行双三次插值,得到初始深度图,采用初始深度图填充待填充矩阵区域Ⅰ的目标点,采用深度矩阵填充待填充矩阵区域Ⅱ的目标点,完成深度图的上采样,得到彩色图像的高分辨率深度图。
所述步骤S1中,深度图像DL中存在深度值缺失或具有错误深度值的像素点,在插值的过程中,会导致产生更多的错误像素点,从而导致插值后的图像边缘模糊,锯齿效应明显,因此,首先要标记不可靠像素。
采用Sobel算子对低分辨率深度图DL进行边缘点的提取,获得边缘图SDL,将其分为平坦区域和边缘区域,并根据边缘图标记不可靠像素点,具体为:
S-1-1:将深度值为0的像素点标记为不可靠像素点;
S-1-2:针对深度值不为0的像素点,将深度图DL划分为多个图像块,在本实施例中,在深度图DL中取3×3的图像块,如果图像块在平坦区域中,若出现该图像块中心像素点与其邻域像素点差值大于3的次数超过t1,则将中心点标记为不可靠像素;
如果图像块在边缘区域,则利用同种方法判断,本实施例中置t1为3,是为了保证该像素点为不可靠像素点的准确性。
S-1-3:若图像块同时处于平坦区域和边缘区域,则利用边缘图与图像块中边缘区域一一对应,并将图像块中处于边缘处的像素点与边缘区域相邻的像素点比较,若出现差值大于3的次数大于t2,则标记为不可靠像素;
图像块中处于平坦区域的像素点,则利用平坦区域与其相邻的像素点进行比较,利用同种方法进行判断,本实施例中置t2为2,是因为边缘处的像素点在上采样的过程中发挥着巨大作用,又避免其邻域单个像素的影响。依次完成对整个低分辨率图像DL的标记。
所述步骤1中,对不可靠像素点进行修正,具体包括:
S-2-1:对处于平坦区域或边缘区域的不可靠像素点,根据边缘图,利用8邻域可靠像素点的双三次插值进行深度值的填充;
S-2-2:若存在8邻域不同时处于同一个区域的不可靠像素点,则利用其对应区域相邻可靠像素点和的均值进行深度值的填充,得到边缘增强、深度信息完整的低分辨率深度图
Figure BDA0002386332810000081
所述步骤1中,对边缘区域的像素点进行聚类,根据得到的聚类块中像素点数量将边缘区域分为区域Ⅰ和区域Ⅱ,并将平坦区域划分到区域Ⅰ中,得到聚类深度图,具体为:
S-3-1:以边缘处起始点为中心自适应选取不同大小、形状规则的图像块;
S-3-2:将所有图像块分为两类,其中,将边缘点小于给定阈值的图像块设为区域Ⅰ,同时将未经聚类的平坦区域融合到区域Ⅰ中;
S-3-3:将边缘点大于给定阈值的图像块设为区域Ⅱ。本实施例中,为减少计算复杂性,一个图像块中包含像素点的数量最大值为4500,给定阈值根据实验效果设为30。
将已聚类后的低分辨率聚类深度图
Figure BDA0002386332810000091
进行双三次插值,得到初始深度图D1,将
Figure BDA0002386332810000092
两个区域的坐标分别映射到初始深度图D1中,
Figure BDA0002386332810000093
区域Ⅰ上采样到D1的区域为区域Ⅰ,
Figure BDA0002386332810000094
的区域Ⅱ上采样到D1的区域为区域Ⅱ,实现对初始深度图中像素点分类,并将其作为自适应稳定模型中的引导矩阵,用于计算深度项系数;另外初始深度图D1是伪高分辨率深度图像,存在图像模糊和深度锯齿伪影的问题,可用自回归自适用模型对其进行矫正,实现优化。
所述步骤S2中,获得待填充矩阵S具体为:将低分辨率聚类深度图
Figure BDA0002386332810000096
及其两个区域坐标对应到与彩色图像I有相同分辨率的高分辨率网格上,得到高分辨率的待填充矩阵S,将待填充矩阵S中缺少深度信息的点作为待填充的目标点,即{x|S(x)=0},有深度信息的点作为种子点,即{y|S(y)≠0};根据待填充矩阵S得到观察矩阵P,其中,P为对角矩阵,列的数量与待填充矩阵S的有效深度值的数量相同。待填充矩阵S中包括待填充矩阵区域Ⅰ和待填充矩阵区域Ⅱ,并用初始化深度图对待填充矩阵S中区域Ⅰ处的目标点进行填充;
所述步骤S3中,对初始化深度图和彩色图像区域Ⅱ中的像素点,通过自适应稳定模型获得加权系数wx,y的集合,即预测矩阵Q:
Figure BDA0002386332810000095
其中,Sx是归一化因子,
Figure BDA0002386332810000101
Figure BDA0002386332810000102
分别是深度项加权系数和颜色项加权系数,D表示初始化深度图像,I表示高分辨率彩色图像,x、y为像素点;
对于区域Ⅱ中像素点,利用深度项、颜色项同时加权的自适应稳定模型输出有效深度值Dx
Figure BDA0002386332810000103
其中,N是x的邻域,Dy表示在深度图D中像素点y处的深度值;
根据线性回归方程,由预测矩阵和观察矩阵得到高分辨率的深度矩阵D2
(PTP+λQTQ)D2=PTd,
其中,d为由待填充矩阵中有效深度值组成的矩阵,P是观察矩阵,Q是预测矩阵。
所述步骤S3的自适应稳定模型中,对初始深度图D1滤波得到深度项加权系数
Figure BDA0002386332810000104
深度加权块的公式为:
Figure BDA0002386332810000105
采用σd,x块自适应的原则,
Figure BDA0002386332810000106
其中,
Figure BDA0002386332810000107
表示第s个以像素点x为中心的高分辨率深度图像块的梯度;M表示当前图像块中像素个数;像素点y是像素点x邻域中任意像素点;D1x表示在初始化深度图D1中像素点x处的深度值;D1y表示在初始化深度图D1中像素点y处的深度值;d为由待填充矩阵中有效深度值组成的矩阵;a1、a2和a3为常数,根据经验值设置。
σd,x自适应变化,数值大小取决于当前窗口内的像素,针对不同图像块可提供适合当前像素的权值,同一个图像块所用σd,x相同。利用M取平均值可以缩小图像块与相邻图像块之间的深度值差异,有效改善相邻图像块之间的连接区域。采用块自适应的方法可避免因单个像素点的不可依赖性带来深度值预测错误的问题,可以利用像素点与其邻域之间的相互影响,推动像素点之间相互制约,保证深度图像更精准。
所述步骤S3中,如图2所示,求颜色项加权系数
Figure BDA0002386332810000111
S-3-1:求
Figure BDA0002386332810000118
SC:根据低分辨率图像与高分辨率图像之间的映射关系,利用低分辨率边缘检测图
Figure BDA0002386332810000112
输出高分辨率边缘深度图
Figure BDA0002386332810000113
用Sobel算子对高分辨率彩色图进行边缘提取,获得边缘图SC
S-3-2:由
Figure BDA0002386332810000114
和SC求参数τx
Figure BDA0002386332810000115
其中,τx
Figure BDA0002386332810000116
和SC的标准方差,可同时考虑深度图和彩色图,避免两者结构信息不匹配带来不利影响。τx取较小值时,能促进深度图像和彩色图像之间相互匹配,使Bx包含更多彩色图像的颜色和结构信息,增强深度不连续区域,有效降低深度图坏点率。
S-3-3:由参数τx求参数σc,x
Figure BDA0002386332810000117
其中,σc,x需利用均方差τx对其进行调整,σc,x随当前窗口内的像素变化。
S-3-4:由参数τx求控制参数εx,用于排除边缘对侧像素点对深度值预测的影响:
Figure BDA0002386332810000121
其中,当前窗口的大小为5×5,μw是窗口内像素点的平均值,SC
Figure BDA0002386332810000122
可确定当前像素点的所属区域,该区域中像素点的平均值为μbel。若当前像素点与其邻域在边缘同一侧,则其值接近当前像素所属区域的平均值,反之亦然。加入参数εx可有效减小边缘相对区域中像素点的影响,并针对像素点实现自适应变化。εx依据局部区域的特性来调整分配给像素点的权重,可给像素值接近于所属区域μbel的像素点分配较高权值;避免梯度反转,降低深度不连续区域的模糊性。
S-3-5:求滤波核Bx
Figure BDA0002386332810000123
Bx是自适应变化的滤波核,由衡量空间相似度和彩色图像区域的差异度两部分组成,其中y是像素点x的邻域,参数i表示颜色空间YUV三通道中的任意一个通道,
Figure BDA0002386332810000124
表示在颜色图像的YUV任意一个通道中,像素点x处的像素值,
Figure BDA0002386332810000125
表示在颜色图像的YUV任意一个通道中,像素点y处的像素值;加入控制参数σc,x和εx,σc,x与σd,x相同,都取决于窗口内的图像块,εx的变化依赖于像素点的所属区域。
Figure BDA0002386332810000126
Figure BDA0002386332810000127
其中,
Figure BDA0002386332810000131
表示在空间上的紧密程度,σ1是常数;
Figure BDA0002386332810000132
表示强度信息的相似程度;σc,x自适应变化,打破只与彩色图像结构信息相关的局限,可有效调整强度信息相似度对加权值的影响。若深度图像和彩色图像在外观上差异较大,例如,在彩色区域上颜色非常相似的部分,在深度图中深度值不在同一个深度连续区域中;在彩色区域中存在的边缘部分,在深度图像中可能不存在,导致输出带有伪影的深度图像,加入参数σc,x可有效改善由彩色图像和深度图像不匹配带来的影响。
S-3-6:求颜色项加权系数
Figure BDA0002386332810000133
颜色项加权系数
Figure BDA0002386332810000134
是由自适应滤波核Bx对衡量颜色区域差异项滤波后输出,并综合方位空间、纹理空间和深度空间三者信息生成加权函数后为该区域像素点重新分配权值;
Figure BDA0002386332810000135
其中,σc是常数,当前彩色图像转换为YUV空间进行运算,与其它颜色空间相比较,结果较好,
Figure BDA0002386332810000136
是在颜色空间YUV中,以像素点x为中心的图像块,
Figure BDA0002386332810000137
是在颜色空间YUV中,以像素点y为中心的图像块。
所述步骤S4中,采用初始深度图填充待填充矩阵区域Ⅰ的目标点,即{x|S(x)=D1(x),x∈Ι}。
实验证明:
(1)仿真条件:在Intel(R)Core(TM)i7-8700CPU@3.20GHz,WINDOWS 10系统,Matlab R2018a平台上进行了仿真,如图3(a)和图3(b)所示,本实施例选择两组测试图像进行仿真,实验开始前,对测试集中提供的高分辨深度图,分别进行2倍,4倍,8倍和16倍的降采样处理,得到待上采样的低分辨深度图像。
(2)仿真方法:①双三次插值;
②Kopf提出的联合双边滤波上采样JBU方法;
③Shuhang Gu提出的可实现深度增强的上采样Guide方法;
④Ferstl提出的利用各向异性扩散张量实现深度图像上采样TGV方法;
⑤Yang提出的基于自适应稳定模型的深度图像上采样AR方法;
⑥本实施例基于联合自适应稳定模型加入多个自适应变化参数的上采样方法。
(3)仿真内容:
对Laundry测试集分别用上述Bicubic,JBU,JGU,TGV、AR和本实施例方法进行4倍和8倍的深度图上采样,结果比较:
从图4(a)和图5(a)可以看出,经双三次插值后的深度图空洞区域扩大,边缘模糊,此方法只利用了深度图像邻域的像素,比较单一;
从图4(b)和图5(b)可以看出,图像中空洞区域扩大,增加伪像,JBU能保护深度边缘,但在纹理复杂的边缘区域,也会产生不准确的深度值;
从图4(c)和图5(c)可以看出,边缘较清晰,缺少真实深度图中的部分细节边缘;
从图4(d)和图5(d)可以看出,细节丰富,边缘区域明显,但增加了空洞区域,从整体上来看,图像比较模糊;
从图4(e)和图5(e)可以看出,对象景深对比明显,但图像模糊,算法结构复杂,耗时较长;
通过图4(f)和图5(f)可以看出,图像清晰,细节丰富,该方法不仅能增强边缘细节,还可以修复低分辨率深度图中深度黑洞,输出深度信息完整的准确的高分辨率深度图像。
通过六种方法输出的深度图的比较,前5种方法获得的图像,存在模糊和伪像的问题,其中也存在边缘混杂的现象;从主观效果而言,本实施例产生的深度图像,边缘清晰,更具有准确性和稳定性。
对图3(a)所示的Book测试集图分别利用Bicubic,JBU,Guide,TGV、AR和本实施例方法进行2倍,4倍,8倍和16倍深度图上采样,并针对坏点率bpr的评价指标对实验结果进行数据分析。结果如图6所示,从图6可以看出,本实施例方法不仅能在主观上给人以良好的视觉效果,在评价指标上也具有非常明显的优势。
在其他实施例中,还提供:
一种基于自适应稳定模型的彩色图像深度上采样系统,包括:
聚类模块,被配置为将彩色图像对应的深度图根据边缘点的分布划分为平坦区域和边缘区域,对边缘区域的像素点进行聚类,根据得到的聚类块中像素点数量将边缘区域分为区域Ⅰ和区域Ⅱ,并将平坦区域划分到区域Ⅰ中,得到聚类深度图;
映射模块,被配置为将聚类深度图及其两个区域坐标映射到与彩色图像有相同分辨率的高分辨率网格上,得到待填充矩阵,根据待填充矩阵得到观察矩阵,所述待填充矩阵中包括待填充矩阵区域Ⅰ和待填充矩阵区域Ⅱ;
自适应稳定模型构建模块,被配置为构建由深度项和颜色项加权的自适应稳定模型,根据自适应稳定模型得到预测矩阵,由预测矩阵和观察矩阵得到深度矩阵;
上采样模块,被配置为将聚类深度图进行双三次插值,得到初始深度图,采用初始深度图填充待填充矩阵区域Ⅰ的目标点,采用深度矩阵填充待填充矩阵区域Ⅱ的目标点,完成深度图的上采样,得到彩色图像的高分辨率深度图。
一种电子设备,包括存储器和处理器以及存储在存储器上并在处理器上运行的计算机指令,所述计算机指令被处理器运行时,完一种基于自适应稳定模型的彩色图像深度上采样方法所述的步骤。
一种计算机可读存储介质,用于存储计算机指令,所述计算机指令被处理器执行时,完成一种基于自适应稳定模型的彩色图像深度上采样方法所述的步骤。
在以上实施例中,利用彩色图像和深度图像之间的几何相关性来解决通过现有技术得到的上采样深度图像中深度边缘模糊和深度掺混等深度图不够平滑的问题,能够高效地生成边缘清晰的上采样深度图像,可用于从现有大量的2D彩色图像或视频中生成场景的深度图和3DTV中所需的深度图。
以上仅为本公开的优选实施例而已,并不用于限制本公开,对于本领域的技术人员来说,本公开可以有各种更改和变化。凡在本公开的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本公开的保护范围之内。
上述虽然结合附图对本公开的具体实施方式进行了描述,但并非对本公开保护范围的限制,所属领域技术人员应该明白,在本公开的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本公开的保护范围以内。

Claims (7)

1.一种基于自适应稳定模型的彩色图像深度上采样方法,其特征在于,包括:
将彩色图像对应的深度图根据边缘点的分布划分为平坦区域和边缘区域,对边缘区域的像素点进行聚类,根据得到的聚类块中像素点数量将边缘区域分为区域Ⅰ和区域Ⅱ,并将平坦区域划分到区域Ⅰ中,得到聚类深度图;
将聚类深度图及其两个区域坐标映射到与彩色图像有相同分辨率的高分辨率网格上,得到待填充矩阵,根据待填充矩阵得到观察矩阵,所述待填充矩阵中包括待填充矩阵区域Ⅰ和待填充矩阵区域Ⅱ;
构建由深度项和颜色项加权的自适应稳定模型,根据自适应稳定模型得到预测矩阵,由预测矩阵和观察矩阵得到深度矩阵;
将聚类深度图进行双三次插值,得到初始深度图,采用初始深度图填充待填充矩阵区域Ⅰ的目标点,采用深度矩阵填充待填充矩阵区域Ⅱ的目标点,完成深度图的上采样,得到彩色图像的高分辨率深度图;
通过自适应稳定模型获得加权系数wx,y的集合,即预测矩阵Q:
Figure FDA0004083664400000011
其中,Sx是归一化因子,
Figure FDA0004083664400000012
Figure FDA0004083664400000013
分别是深度项加权系数和颜色项加权系数,x、y为像素点,D表示初始化深度图像,I表示高分辨率彩色图像;
所述深度项加权系数
Figure FDA0004083664400000014
为:
Figure FDA0004083664400000015
Figure FDA0004083664400000016
其中,
Figure FDA0004083664400000021
表示第s个以像素点x为中心的高分辨率深度图像块的梯度,M表示当前图像块中像素个数,像素点y是像素点x邻域中任意像素点,D1x表示在初始化深度图D1中像素点x处的深度值,D1y表示在初始化深度图D1中像素点y处的深度值,d为由待填充矩阵中有效深度值组成的矩阵,a1、a2和a3为常数;
所述颜色项加权系数
Figure FDA0004083664400000022
为:
Figure FDA0004083664400000023
其中,σc是常数;
Figure FDA0004083664400000024
是在颜色空间YUV中,以像素点x为中心的图像块;
Figure FDA0004083664400000025
是在颜色空间YUV中,以像素点y为中心的图像块;Bx是自适应变化的滤波核。
2.如权利要求1所述的一种基于自适应稳定模型的彩色图像深度上采样方法,其特征在于,采用Sobel算子对深度图进行边缘点提取,获得边缘图,并根据边缘图标记不可靠像素点,具体为:
将深度值为0的像素点标记为不可靠像素点;
针对深度值不为0的像素点,将深度图划分为多个图像块,若图像块处于平坦区域或边缘区域,将该图像块中心像素点与其邻域像素点作差,若差值满足第一阈值范围,则该中心像素点标记为不可靠像素点;
若图像块同时处于平坦区域和边缘区域,将边缘图与图像块中边缘区域和平坦区域进行对应,并将图像块中处于边缘区域的像素点与其相邻的像素点比较,将图像块中处于平坦区域的像素点与其相邻的像素点比较,将差值满足第二阈值范围的像素点标记为不可靠像素点。
3.如权利要求2所述的一种基于自适应稳定模型的彩色图像深度上采样方法,其特征在于,对不可靠像素点进行修正,具体包括:
处于平坦区域或边缘区域的不可靠像素点,根据边缘图,利用8邻域可靠像素点的双三次插值进行深度值的填充;
若存在8邻域不同时处于同一个区域的不可靠像素点,则利用其对应区域相邻可靠像素点和的均值进行深度值的填充。
4.如权利要求1所述的一种基于自适应稳定模型的彩色图像深度上采样方法,其特征在于,根据线性回归方程,由预测矩阵和观察矩阵得到深度矩阵D2
(PTP+λQTQ)D2=PTd,
其中,d为由待填充矩阵中有效深度值组成的矩阵,P是观察矩阵,Q是预测矩阵。
5.一种基于自适应稳定模型的彩色图像深度上采样系统,其特征在于,包括:
聚类模块,被配置为将彩色图像对应的深度图根据边缘点的分布划分为平坦区域和边缘区域,对边缘区域的像素点进行聚类,根据得到的聚类块中像素点数量将边缘区域分为区域Ⅰ和区域Ⅱ,并将平坦区域划分到区域Ⅰ中,得到聚类深度图;
映射模块,被配置为将聚类深度图及其两个区域坐标映射到与彩色图像有相同分辨率的高分辨率网格上,得到待填充矩阵,根据待填充矩阵得到观察矩阵,所述待填充矩阵中包括待填充矩阵区域Ⅰ和待填充矩阵区域Ⅱ;
自适应稳定模型构建模块,被配置为构建由深度项和颜色项加权的自适应稳定模型,根据自适应稳定模型得到预测矩阵,由预测矩阵和观察矩阵得到深度矩阵;
上采样模块,被配置为将聚类深度图进行双三次插值,得到初始深度图,采用初始深度图填充待填充矩阵区域Ⅰ的目标点,采用深度矩阵填充待填充矩阵区域Ⅱ的目标点,完成深度图的上采样,得到彩色图像的高分辨率深度图;
通过自适应稳定模型获得加权系数wx,y的集合,即预测矩阵Q:
Figure FDA0004083664400000041
其中,Sx是归一化因子,
Figure FDA0004083664400000042
Figure FDA0004083664400000043
分别是深度项加权系数和颜色项加权系数,x、y为像素点,D表示初始化深度图像,I表示高分辨率彩色图像;
所述深度项加权系数
Figure FDA0004083664400000044
为:
Figure FDA0004083664400000045
Figure FDA0004083664400000046
其中,
Figure FDA0004083664400000047
表示第s个以像素点x为中心的高分辨率深度图像块的梯度,M表示当前图像块中像素个数,像素点y是像素点x邻域中任意像素点,D1x表示在初始化深度图D1中像素点x处的深度值,D1y表示在初始化深度图D1中像素点y处的深度值,d为由待填充矩阵中有效深度值组成的矩阵,a1、a2和a3为常数;
所述颜色项加权系数
Figure FDA0004083664400000048
为:
Figure FDA0004083664400000049
其中,σc是常数;
Figure FDA0004083664400000051
是在颜色空间YUV中,以像素点x为中心的图像块;
Figure FDA0004083664400000052
是在颜色空间YUV中,以像素点y为中心的图像块;Bx是自适应变化的滤波核。
6.一种电子设备,其特征在于,包括存储器和处理器以及存储在存储器上并在处理器上运行的计算机指令,所述计算机指令被处理器运行时,完成权利要求1-4任一项方法所述的步骤。
7.一种计算机可读存储介质,其特征在于,用于存储计算机指令,所述计算机指令被处理器执行时,完成权利要求1-4任一项方法所述的步骤。
CN202010099267.6A 2020-02-18 2020-02-18 基于自适应稳定模型的彩色图像深度上采样方法及系统 Active CN111369435B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010099267.6A CN111369435B (zh) 2020-02-18 2020-02-18 基于自适应稳定模型的彩色图像深度上采样方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010099267.6A CN111369435B (zh) 2020-02-18 2020-02-18 基于自适应稳定模型的彩色图像深度上采样方法及系统

Publications (2)

Publication Number Publication Date
CN111369435A CN111369435A (zh) 2020-07-03
CN111369435B true CN111369435B (zh) 2023-04-07

Family

ID=71206319

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010099267.6A Active CN111369435B (zh) 2020-02-18 2020-02-18 基于自适应稳定模型的彩色图像深度上采样方法及系统

Country Status (1)

Country Link
CN (1) CN111369435B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112669232A (zh) * 2020-12-24 2021-04-16 浙江大华技术股份有限公司 一种深度图像增强处理方法及装置
CN117152221B (zh) * 2023-10-26 2024-01-16 山东科技大学 一种图像非刚性配准方法、系统、设备和存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102722863A (zh) * 2012-04-16 2012-10-10 天津大学 采用自回归模型对深度图进行超分辨率重建的方法
CN106651871A (zh) * 2016-11-18 2017-05-10 华东师范大学 一种深度图像空洞的自动填充方法
CN106961608A (zh) * 2017-04-07 2017-07-18 山东师范大学 高清解码器数字显示混合格式码流自适应处理系统及方法
CN108259917A (zh) * 2016-12-28 2018-07-06 中国移动通信集团山东有限公司 基于深度时域下采样的三维视频编解码方法及系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9153065B2 (en) * 2013-02-05 2015-10-06 Google Technology Holdings LLC System and method for adjusting image pixel color to create a parallax depth effect

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102722863A (zh) * 2012-04-16 2012-10-10 天津大学 采用自回归模型对深度图进行超分辨率重建的方法
CN106651871A (zh) * 2016-11-18 2017-05-10 华东师范大学 一种深度图像空洞的自动填充方法
CN108259917A (zh) * 2016-12-28 2018-07-06 中国移动通信集团山东有限公司 基于深度时域下采样的三维视频编解码方法及系统
CN106961608A (zh) * 2017-04-07 2017-07-18 山东师范大学 高清解码器数字显示混合格式码流自适应处理系统及方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Xiaodong Jiang.Research on Image Super-resolution Based on Improved Convolutional Neural Network.《IEEE》.2019,全文. *
万文博.自适应参数与边缘点引导的深度图像超分辨.《郑州大学学报》.2021,全文. *
杨志政.基于卷积神经网络的图像超分辨率方法研究.《山东师范大学学报》.2018,全文. *

Also Published As

Publication number Publication date
CN111369435A (zh) 2020-07-03

Similar Documents

Publication Publication Date Title
CN109377530B (zh) 一种基于深度神经网络的双目深度估计方法
US10540576B1 (en) Panoramic camera systems
CN110324664B (zh) 一种基于神经网络的视频补帧方法及其模型的训练方法
CN106780590B (zh) 一种深度图的获取方法及系统
Lee et al. Local disparity estimation with three-moded cross census and advanced support weight
Xu et al. Generalized equalization model for image enhancement
CN110378838B (zh) 变视角图像生成方法,装置,存储介质及电子设备
TWI489418B (zh) Parallax Estimation Depth Generation
CN111899295B (zh) 一种基于深度学习的单目场景深度预测方法
Lee et al. Real-time disparity estimation algorithm for stereo camera systems
Hua et al. Extended guided filtering for depth map upsampling
CN111369435B (zh) 基于自适应稳定模型的彩色图像深度上采样方法及系统
Liu et al. High quality depth map estimation of object surface from light-field images
WO2021017589A1 (zh) 一种基于梯度域映射的图像融合方法
CN114996814A (zh) 一种基于深度学习与三维重建的家具设计系统
CN114677479A (zh) 一种基于深度学习的自然景观多视图三维重建方法
Feng et al. Low-light image enhancement algorithm based on an atmospheric physical model
CN109218706B (zh) 一种由单张图像生成立体视觉图像的方法
CN116645569A (zh) 一种基于生成对抗网络的红外图像彩色化方法和系统
CN115631223A (zh) 基于自适应学习和聚合的多视图立体重建方法
CN110895790B (zh) 基于后验降质信息估计的场景图像超分辨方法
Yue et al. High-dimensional camera shake removal with given depth map
CN112365400A (zh) 一种快速光场角度超分辨重建方法
CN114638748A (zh) 图像处理方法、图像修复方法、计算机设备、存储介质
Wu et al. Contrast enhancement based on discriminative co-occurrence statistics

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant