CN106651938B - 一种融合高分辨率彩色图像的深度图增强方法 - Google Patents

一种融合高分辨率彩色图像的深度图增强方法 Download PDF

Info

Publication number
CN106651938B
CN106651938B CN201710034551.3A CN201710034551A CN106651938B CN 106651938 B CN106651938 B CN 106651938B CN 201710034551 A CN201710034551 A CN 201710034551A CN 106651938 B CN106651938 B CN 106651938B
Authority
CN
China
Prior art keywords
depth
point
interpolation
neighborhood
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710034551.3A
Other languages
English (en)
Other versions
CN106651938A (zh
Inventor
向北海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hunan Youxiang Technology Co Ltd
Original Assignee
Hunan Youxiang Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hunan Youxiang Technology Co Ltd filed Critical Hunan Youxiang Technology Co Ltd
Priority to CN201710034551.3A priority Critical patent/CN106651938B/zh
Publication of CN106651938A publication Critical patent/CN106651938A/zh
Application granted granted Critical
Publication of CN106651938B publication Critical patent/CN106651938B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

本发明提出了一种融合高分辨率彩色图像的深度图增强方法,首先通过邻域差分法求取邻域内像素点的最大深度差值,将低分辨率深度图像划分为边缘区域和非边缘区域,并利用局部邻域方差将非边缘区域进行二次划分,分别采用均值插值法和立体卷积插值法获取待插值点对应映射点的深度值,然后以高分辨率彩色图像为参考图,基于双边滤波原理将低分辨率深度图上采样到高分辨率图像,获取各像素点对应映射点的深度值,最后将插值处理完成的深度增强图像输出。本发明不仅能有效地去除噪声干扰,缩短深度增强算法的复杂度,而且可以保持图像边缘信息的完整性。

Description

一种融合高分辨率彩色图像的深度图增强方法
技术领域
本发明属于图像处理技术领域,涉及深度图像增强方法,特指一种融合高分辨率彩色图像的深度图增强方法。
背景技术
深度图像是一种用来描述三维场景几何信息的图像,图像中的每一个像素点都表示三维场景中某点到成像平面的距离。随着计算机视觉技术的发展,深度信息估计技术也逐渐发展成为计算机视觉领域的研究热点之一,被广泛地应用于导航系统分析、立体视频生成、虚拟现实等系统中。
目前对深度信息估计的方法主要分为两类:主动光方法和被动光方法。
主动光方法是一种利用特殊测距设备如TOF摄像头、微软的Kinect、三维激光扫描仪等设备直接获取三维场景深度信息的方法,该方法具有较高的精确性和实时性,但主动光方法存在设备价格昂贵、易受噪声影响、分辨率低的缺陷。
被动光方法则无需添置额外设备,而是利用现有的图像采集设备直接获取彩色图像或视频,并从这些图像或视频帧中恢复出深度图,这种方法对视差估计精度要求较高,需要计算各坐标系的变换矩阵和摄像机内外参数,如双目立体匹配,存在较多的约束条件和高时间复杂度问题。
主动光方法因其获取深度图像具有实时性,因此越来越受人们的关注,逐步发展成为深度图获取的主流方式之一,并针对主动光设备获取的深度图提出了许多后处理方法来提高原深度图质量,达到降低噪声影响、提高深度图分辨率的目的。
深度图分辨率的提升是根据已知采样点的低分辨率深度值估计未知采样点的深度值,从有限离散采样点的深度图中恢复出更加连续的深度图像。经典插值方法是根据低分辨率图像本身的信息采用加权方法来确定待插值像素的深度值,这类经典的方法仅仅依靠深度图像本身的冗余信息,插值效果受到限制。
目前对于深度图像增强方法已有不少的研究,主要分为两类:基于全局优化的插值方法和基于双边的插值方法。基于全局优化的插值方法不仅从整体上考虑了深度图像的全局代价,而且考虑了局部平滑因素,能获得高质量的深度图像,主要代表方法有基于最小二乘优化的插值方法、基于马尔科夫随机场的深度图像插值方法、自回归优化方法等,但此类方法计算量大,时间复杂度高,耗时较长。基于双边滤波的插值方法具有低复杂度的性质,更适用于实时性较强的深度图像增强方法,但直接基于双边滤波插值方法可以有效地实现空洞填补,对深度图的分辨率增强并无明显改善,因此研究人员提出了许多改进方法,主要有针对边缘扩散问题的自适应融合颜色相似项与原始深度相似项的插值方法,基于梯度域的彩色图像滤波方法对边缘进行平滑约束等。
发明内容
针对主动光设备获取的深度图像存在分辨率低、易受噪声影响等缺陷,本发明其目的在于提出一种融合高分辨率彩色图像的深度图增强方法。
本发明的技术方案是:
一种融合高分辨率彩色图像的深度图增强方法,包括以下步骤:
S1对低分辨率的深度图像利用邻域差分法求取邻域内像素点的最大深度差值,设定阈值对深度图像进行区域划分,将深度图像划分为边缘区域和非边缘区域。
首先选定一个5*5的邻域窗口Ω,以待判定的像素点Pij为邻域窗口中心像素点,通过取最大值函数max和取最小值函数min求得深度图像邻域窗口Ω内所有像素点的最大深度差值(max(Ω)-min(Ω)),设定阈值T,比较该邻域的最大深度差值与阈值的大小,若最大深度差值大于阈值T,则判断该邻域区域为边缘区域;否则,该邻域区域为非边缘区域。
S2对S1中低分辨率深度图像的非边缘区域基于局部邻域方差进行二次划分,初始化一个4*4的邻域窗口,以待插值点为中心,计算待插值点的直接相邻像素点深度值的期望和方差,根据深度方差将非边缘区域再次划分为深度值变化平坦区和纹理复杂区;
将S1中所有判定为低分辨率深度图像的非边缘区域的像素点标记为S1区域,判定为低分辨率深度图像的边缘区域的像素点标记为S2区域;基于局部邻域方差的立体卷积插值方法对S1区域的像素点进行插值,先在S1区域初始化一个像素点为待插值点,由(1)式计算待插值点在原图像(即低分辨率深度图像)中对应的四个直接与之相邻像素点的平均值E,由(2)式计算待插值点的直接相邻像素点深度值方差Var。
Var=(E-D(i-1,j))2+(E-D(i+1,j))2+(E-D(i,j-1))2+(E-D(i,j+1))2 (2)
设定阈值,当待插值点的直接相邻像素点深度值方差小于设定阈值时,表明该点所处的四邻域区域比较平坦,深度值变化不大,为深度值变化平坦区;当待插值点的直接相邻像素点深度值方差大于设定阈值时,表明该点的四邻域区域纹理细节较丰富,为纹理复杂区。
S3对S2得到的深度值变化平坦区进行插值增强,以四个直接相邻像素点的深度平均值作为待插值点对应映射点的深度值即D(i+μ,j+υ)=E,对纹理复杂区利用4*4邻域的立体卷积插值法求得待插值点对应映射点的深度值;
利用立体卷积插值法既考虑四个直接相邻像素点的深度值影响,也考虑到4*4邻域内其他像素点间深度值变化率的影响,通过待插值点邻域内的16个已知像素点深度值估计映射点深度值。设待插值点(i,j)的深度值为D(i,j),对应的映射点为(i+μ,j+υ),映射点的深度值表示为D(i+μ,j+υ),其中插值基函数S(x)的表达式如式(3)所示,x为自变量。
则利用立体卷积插值法计算映射点的深度值D(i+μ,j+υ)的公式如下:
S4对低分辨率深度图像的边缘区域基于联合双边滤波方法进行插值处理,以同一场景下的高分辨率彩色图像作为参考图,基于双边滤波原理将低分辨率深度图上采样到高分辨率图像,计算边缘区域内各像素点对应映射点的深度值,并将插值处理完成的深度增强图像输出。
设点m、n为同一场景下的高分辨率图像上的两个像素点,m'、n'是低分辨率深度图像上与高分辨率图像上m、n对应位置的像素点,Im、In表示高分辨率图像在m、n点处的灰度值,权重函数通常以高斯函数作为核函数,其中δs、δr分别为空域距离核函数和颜色相似核函数的标准差,则空域距离核函数Hs(m',n')和灰度相似核函数Hr(Im,In)的表达式如(5)式所示:
上采样高分辨图像与高分辨率彩色图像具有边缘一致性,以w为双边滤波窗口,将低分辨率深度图像边缘区域即S2区域上的所有像素点上采样到高分辨率计算公式如下:
其中Dn'表示低分辨率深度图上的像素点n'对应的深度值,Dm表示上采样高分辨率图像上各像素点对应的深度值。根据(6)式计算得到原低分辨率深度图像边缘区域内各像素点对应映射点的深度值,最后将低分辨率深度图像插值处理完成之后的深度增强图像输出。
本发明提出了一种融合高分辨率彩色图像的深度图增强方法,不仅能有效地去除噪声干扰,缩短深度增强算法的复杂度,而且可以保持图像边缘信息的完整性。通过邻域差分法求取邻域内像素点的最大深度差值,将低分辨率深度图像划分为边缘区域和非边缘区域,并利用局部邻域方差将非边缘区域进行二次划分,分别采用均值插值法和立体卷积插值法获取待插值点对应映射点的深度值,然后以高分辨率彩色图像为参考图,基于双边滤波原理将低分辨率深度图上采样到高分辨率图像,获取各像素点对应映射点的深度值,最后将插值处理完成的深度增强图像输出。
附图说明
图1是本发明一种融合高分辨率彩色图像的深度图增强方法的流程图;
图2是基于局部方差的插值法流程框图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
通过主动光设备获取的深度图像分辨率较低且存在大量的噪声干扰,深度图像相对于彩色图像而言,其边缘结构更加简单,可以利用插值方法来增加深度图像的分辨率,实现深度图像增强。若直接采用经典插值算法对整幅深度图进行处理,容易造成深度图像的非边缘区域出现纹理拷贝和边缘模糊的现象,同时为了避免深度图像出现边缘过平滑的问题。因此,本发明利用邻域差分法求取邻域内最大深度差值,设定阈值对深度图像进行区域划分,将深度图像的边缘区域和非边缘区域分离。
参照图1,本发明一种融合高分辨率彩色图像的深度图增强方法的流程图。
首先选定一个5*5的邻域窗口Ω,以待判定的像素点Pij为邻域窗口中心像素点,通过取最大值函数max和取最小值函数min求得深度图像邻域窗口Ω内所有像素点的最大深度差值(max(Ω)-min(Ω)),设定阈值T,比较该邻域的最大深度差值与阈值的大小,若最大深度差值大于阈值T,则判断该邻域区域为边缘区域;否则,该邻域区域为非边缘区域。
将所有判定为非边缘区域的像素点标记为S1区域,判定为边缘区域的像素点标记为S2区域,然后分别对图像的两个区域像素点处理,基于局部邻域方差的立体卷积插值方法对S1区域的像素点进行插值,基于联合双边滤波方法对S2区域的像素点进行插值,达到较少噪声干扰,增加深度图像分辨率的目的。
考虑到邻域点深度值和邻域内像素点之间深度值变化率的影响,对非边缘区域S1中的像素点基于局部邻域方差的立体卷积插值方法进行插值处理。为了避免S1区域内所有像素点进行立体卷积插值处理,减少计算量,将待插值点的四邻域像素点深度值方差(即由公式(2)计算得到的待插值点的直接相邻像素点深度值方差Var)与设定阈值进行比较,当方差值小于阈值时,表明该点所处的四邻域区域比较平坦,深度值变化不大,则取相邻像素点的深度平均值作为待插值点对应映射点的深度值;当方差值大于阈值Var时,表明该点的四邻域区域纹理细节较丰富,则利用立体卷积插值法计算待插值点的深度值,提高算法精度,直到S1区域内的所有像素点计算完成。具体过程如图2所示:先在S1区域初始化一个像素点为待插值点,由(1)式计算待插值点在原图像中对应的四个直接相邻像素点的平均值E,由(2)式计算待插值点的直接相邻像素点深度值方差Var。
Var=(E-D(i-1,j))2+(E-D(i+1,j))2+(E-D(i,j-1))2+(E-D(i,j+1))2 (2)
根据实验经验值取阈值为20时,既能保证图像质量又能有效地降低运算量。当Var<20时,取相邻像素点的深度平均值作为待插值点对应映射点的深度值,即D(i+μ,j+υ)=E;当Var≥20时,利用立体卷积插值法既考虑四个直接相邻点的深度值影响,也考虑到4*4邻域内其他像素点间深度值变化率的影响,通过待插值点邻域内的16个已知像素点深度值估计映射点深度值,设待插值点(i,j)的深度值为D(i,j),对应的映射点为(i+μ,j+υ),映射点的深度值表示为D(i+μ,j+υ),其中插值基函数S(x)的表达式如式(3)所示,x为自变量。
则利用立体卷积插值法计算映射点的深度值D(i+μ,j+υ)的公式如下:
至此,基于局部邻域方差的立体卷积插值方法完成对S1区域的所有像素点进行插值处理,降低计算量的同时保证非边缘区域的纹理细节信息被增强。由于彩色图像与深度图像之间存在着很强的结构相似性,因此通过高分辨率的彩色图像与低分辨率深度图像融合,基于联合双边滤波方法对深度图像的边缘S2区域进行插值来滤出噪声干扰,并提高深度图像的分辨率,实现深度图增强。
将同一场景下的高分辨率彩色图像作为参考图,基于双边滤波原理将低分辨率深度图像上采样到高分辨率图像,双边滤波结合了空域距离核函数和灰度相似核函数,双边滤波系数由空域邻近系数和灰度相似系数的非线性组合,空域邻近系数随着像素点坐标距离的增大而减小,灰度相似系数随着像素灰度之差的增大而减小。在图像变化平滑的区域,双边滤波转化为高斯低通滤波;在图像变化剧烈的区域,双边滤波转化为高斯高通滤波。因此,基于双边滤波的插值方法可以去噪的同时保留图像边缘细节信息。
设点m、n为高分辨率图像上的两个像素点,m'、n'是低分辨率深度图像上与高分辨率图像上m、n对应位置的像素点,Im、In表示高分辨率图像在m、n点处的灰度值,权重函数通常以高斯函数作为核函数,其中δs、δr分别为空域距离核函数和颜色相似核函数的标准差,则空域距离核函数Hs(m',n')和灰度相似核函数Hr(Im,In)的表达式如(5)式所示:
上采样高分辨图像与高分辨率彩色图像具有边缘一致性,以w为双边滤波窗口,将低分辨率深度图像边缘区域S2上的所有像素点上采样到高分辨率计算公式如下:
其中Dn'表示低分辨率深度图上的像素点n'对应的深度值,Dm表示上采样高分辨率图像上各像素点对应的深度值。根据(6)式计算得到原低分辨率深度图像边缘区域S2内各像素点对应映射点的深度值,最后将低分辨率深度图像插值处理完成之后的深度增强图像输出。
以上包含了本发明优选实施例的说明,这是为了详细说明本发明的技术特征,并不是想要将发明内容限制在实施例所描述的具体形式中,依据本发明内容主旨进行的其他修改和变型也受本专利保护。本发明内容的主旨是由权利要求书所界定,而非由实施例的具体描述所界定。

Claims (6)

1.一种融合高分辨率彩色图像的深度图增强方法,其特征在于,包括以下步骤:
S1.对低分辨率的深度图像利用邻域差分法求取邻域内像素点的最大深度差值,设定阈值对深度图像进行区域划分,将深度图像划分为边缘区域和非边缘区域;
S2对S1中低分辨率深度图像的非边缘区域基于局部邻域方差进行二次划分,初始化一个4*4的邻域窗口,以待插值点为中心,计算待插值点的直接相邻像素点深度值的期望和方差,根据深度方差将非边缘区域再次划分为深度值变化平坦区和纹理复杂区;
S3对S2得到的深度值变化平坦区进行插值增强,以四个直接相邻像素点的深度平均值作为待插值点对应映射点的深度值,对纹理复杂区利用4*4邻域的立体卷积插值法求得待插值点对应映射点的深度值;
S4对低分辨率深度图像的边缘区域基于联合双边滤波方法进行插值处理,以同一场景下的高分辨率彩色图像作为参考图,基于双边滤波原理将低分辨率深度图上采样到高分辨率图像,计算边缘区域内各像素点对应映射点的深度值,并将插值处理完成的深度增强图像输出。
2.根据权利要求1所述的融合高分辨率彩色图像的深度图增强方法,其特征在于:S1中,首先选定一个5*5的邻域窗口Ω,以待判定的像素点Pij为邻域窗口中心像素点,通过取最大值函数max和取最小值函数min求得深度图像邻域窗口Ω内所有像素点的最大深度差值(max(Ω)-min(Ω)),设定阈值T,比较该邻域的最大深度差值与阈值的大小,若最大深度差值大于阈值T,则判断该邻域区域为边缘区域;否则,该邻域区域为非边缘区域。
3.根据权利要求1所述的融合高分辨率彩色图像的深度图增强方法,其特征在于:S2中,将S1中所有判定为低分辨率深度图像的非边缘区域的像素点标记为S1区域,判定为低分辨率深度图像的边缘区域的像素点标记为S2区域;基于局部邻域方差的立体卷积插值方法对S1区域的像素点进行插值,先在S1区域初始化一个像素点为待插值点,由(1)式计算待插值点在低分辨率深度图像中对应的四个直接与之相邻像素点的平均值E,由(2)式计算待插值点的直接相邻像素点深度值方差Var:
Var=(E-D(i-1,j))2+(E-D(i+1,j))2+(E-D(i,j-1))2+(E-D(i,j+1))2 (2)
设定阈值,当待插值点的直接相邻像素点深度值方差小于设定阈值时,表明该点所处的四邻域区域比较平坦,深度值变化不大,为深度值变化平坦区;当待插值点的直接相邻像素点深度值方差大于设定阈值时,表明该点的四邻域区域纹理细节较丰富,为纹理复杂区。
4.根据权利要求3所述的融合高分辨率彩色图像的深度图增强方法,其特征在于:S2中设定的阈值为20,当Var<20时,表明该点所处的四邻域区域比较平坦,深度值变化不大,为深度值变化平坦区;当Var≥20时,表明该点的四邻域区域纹理细节较丰富,为纹理复杂区。
5.根据权利要求3所述的融合高分辨率彩色图像的深度图增强方法,其特征在于:S3中,对纹理复杂区利用4*4邻域的立体卷积插值法求得待插值点对应映射点的深度值,通过待插值点邻域内的16个已知像素点深度值估计映射点深度值,其方法如下:
设待插值点(i,j)的深度值为D(i,j),对应的映射点为(i+μ,j+υ),映射点的深度值表示为D(i+μ,j+υ),其中插值基函数S(x)的表达式如式(3)所示,x为自变量;
则利用立体卷积插值法计算映射点的深度值D(i+μ,j+υ)的公式如下:
6.根据权利要求5所述的融合高分辨率彩色图像的深度图增强方法,其特征在于:S4中,设点m、n为同一场景下的高分辨率图像上的两个像素点,m'、n'是低分辨率深度图像上与高分辨率图像上m、n对应位置的像素点,Im、In表示高分辨率图像在m、n点处的灰度值,权重函数通常以高斯函数作为核函数,其中δs、δr分别为空域距离核函数和颜色相似核函数的标准差,则空域距离核函数Hs(m',n')和灰度相似核函数Hr(Im,In)的表达式如(5)式所示:
上采样高分辨图像与高分辨率彩色图像具有边缘一致性,以w为双边滤波窗口,将低分辨率深度图像边缘区域即S2区域上的所有像素点上采样到高分辨率计算公式如下:
其中Dn'表示低分辨率深度图上的像素点n'对应的深度值,Dm表示上采样高分辨率图像上各像素点对应的深度值;根据(6)式计算得到原低分辨率深度图像边缘区域内各像素点对应映射点的深度值,最后将低分辨率深度图像插值处理完成之后的深度增强图像输出。
CN201710034551.3A 2017-01-17 2017-01-17 一种融合高分辨率彩色图像的深度图增强方法 Active CN106651938B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710034551.3A CN106651938B (zh) 2017-01-17 2017-01-17 一种融合高分辨率彩色图像的深度图增强方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710034551.3A CN106651938B (zh) 2017-01-17 2017-01-17 一种融合高分辨率彩色图像的深度图增强方法

Publications (2)

Publication Number Publication Date
CN106651938A CN106651938A (zh) 2017-05-10
CN106651938B true CN106651938B (zh) 2019-09-17

Family

ID=58840788

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710034551.3A Active CN106651938B (zh) 2017-01-17 2017-01-17 一种融合高分辨率彩色图像的深度图增强方法

Country Status (1)

Country Link
CN (1) CN106651938B (zh)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107204011A (zh) * 2017-06-23 2017-09-26 万维云视(上海)数码科技有限公司 一种深度图生成方法和装置
CN107689050B (zh) * 2017-08-15 2020-11-17 武汉科技大学 一种基于彩色图像边缘引导的深度图像上采样方法
CN107644405B (zh) * 2017-09-11 2020-04-07 北京小米移动软件有限公司 图像处理方法及装置、电子设备和计算机可读存储介质
CN109661683B (zh) * 2017-12-15 2020-09-15 深圳配天智能技术研究院有限公司 基于图像内容的投射结构光方法、深度检测方法及结构光投射装置
CN108062769B (zh) * 2017-12-22 2020-11-17 中山大学 一种用于三维重建的快速深度恢复方法
CN108335267A (zh) * 2017-12-29 2018-07-27 上海玮舟微电子科技有限公司 一种深度图像的处理方法、装置、设备和存储介质
CN109146941A (zh) * 2018-06-04 2019-01-04 成都通甲优博科技有限责任公司 一种基于网格区域划分的深度图像优化方法及系统
CN109377450B (zh) * 2018-08-24 2021-12-10 南京理工大学 一种边缘保护的去噪方法
CN109345490B (zh) * 2018-11-20 2021-09-21 湖南快乐阳光互动娱乐传媒有限公司 一种移动播放端实时视频画质增强方法及系统
CN111369611B (zh) * 2018-12-25 2023-06-02 曜科智能科技(上海)有限公司 图像像素深度值优化方法及其装置、设备和存储介质
CN110110742B (zh) * 2019-03-26 2021-02-12 北京达佳互联信息技术有限公司 多特征融合方法、装置、电子设备及存储介质
CN110148086B (zh) * 2019-04-28 2023-02-17 暗物智能科技(广州)有限公司 稀疏深度图的深度补齐方法、装置及三维重建方法、装置
CN110264433B (zh) * 2019-05-05 2021-04-09 杭州电子科技大学 一种基于彩色分割指导的深度图插值方法
CN112040214A (zh) * 2019-06-04 2020-12-04 万维科研有限公司 双摄像机三维立体成像系统和处理方法
CN110322411A (zh) * 2019-06-27 2019-10-11 Oppo广东移动通信有限公司 深度图像的优化方法、终端及存储介质
CN110599408B (zh) * 2019-07-25 2022-10-14 安庆师范大学 一种基于图像纹理区域选择性多尺度去纹理方法
CN110826569B (zh) * 2019-11-05 2022-07-19 泰康保险集团股份有限公司 票据图像的预处理方法、装置、介质及电子设备
CN111402210B (zh) * 2020-03-03 2022-11-11 山东师范大学 一种单分子荧光信号图像的超分辨定位方法及系统
CN111489383B (zh) * 2020-04-10 2022-06-10 山东师范大学 基于深度边缘点与彩色图像的深度图像上采样方法及系统
CN112200848B (zh) * 2020-10-30 2023-02-17 中国科学院自动化研究所 低光照弱对比复杂环境下的深度相机视觉增强方法及系统
CN112669232B (zh) * 2020-12-24 2024-08-09 浙江大华技术股份有限公司 一种深度图像增强处理方法及装置
CN112801894B (zh) * 2021-01-14 2024-05-14 江苏大学 一种使用迭代滤波处理的深度图像修复方法
CN112767294B (zh) * 2021-01-14 2024-04-26 Oppo广东移动通信有限公司 深度图像的增强方法、装置、电子设备以及存储介质
CN112882057B (zh) * 2021-01-19 2023-12-08 中国科学院西安光学精密机械研究所 一种基于插值的光子计数非视域三维成像超分辨方法
CN113345015A (zh) * 2021-08-05 2021-09-03 浙江华睿科技股份有限公司 一种包裹位置检测方法、装置、设备及可读存储介质
CN113672664A (zh) * 2021-08-17 2021-11-19 杭州鲁尔物联科技有限公司 降雨量插值方法、装置、计算机设备及存储介质
CN114170619B (zh) * 2021-10-18 2022-08-19 中标慧安信息技术股份有限公司 基于边缘计算的数据核查方法和系统
CN114549669B (zh) * 2022-01-28 2023-04-21 电子科技大学 一种基于图像融合技术的彩色三维点云获取方法
CN114549307B (zh) * 2022-01-28 2023-05-30 电子科技大学 一种基于低分辨率图像的高精度点云色彩重建方法
CN115797225B (zh) * 2023-01-06 2023-04-21 山东环宇地理信息工程有限公司 一种水下地形测量用无人船采集图像增强方法
CN118195902B (zh) * 2024-05-17 2024-07-16 四川新视创伟超高清科技有限公司 基于插值算法的超分辨率图像处理方法及其处理系统

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8395642B2 (en) * 2009-03-17 2013-03-12 Mitsubishi Electric Research Laboratories, Inc. Method for virtual image synthesis
US20120069197A1 (en) * 2010-09-16 2012-03-22 Stephen Michael Maloney Method and process of making camouflage patterns
CN103854257A (zh) * 2012-12-07 2014-06-11 山东财经大学 一种基于自适应三边滤波的深度图像增强方法
CN103957397B (zh) * 2014-04-02 2015-11-25 宁波大学 一种基于图像特征的低分辨率深度图像上采样方法
CN105205786B (zh) * 2014-06-19 2019-02-05 联想(北京)有限公司 一种图像深度恢复方法及电子设备

Also Published As

Publication number Publication date
CN106651938A (zh) 2017-05-10

Similar Documents

Publication Publication Date Title
CN106651938B (zh) 一种融合高分辨率彩色图像的深度图增强方法
CN112435325B (zh) 基于vi-slam和深度估计网络的无人机场景稠密重建方法
EP3673461B1 (en) Systems and methods for hybrid depth regularization
CN106780590B (zh) 一种深度图的获取方法及系统
CN108596965B (zh) 一种光场图像深度估计方法
WO2022222077A1 (zh) 基于反射分解的室内场景虚拟漫游方法
CN110211169B (zh) 基于多尺度超像素和相位相关的窄基线视差的重构方法
CN102436671B (zh) 一种基于深度值非线性变换的虚拟视点绘制方法
US20140147031A1 (en) Disparity Estimation for Misaligned Stereo Image Pairs
CN112927251B (zh) 基于形态学的场景稠密深度图获取方法、系统及装置
CN106981078A (zh) 视线校正方法、装置、智能会议终端及存储介质
CN114519772A (zh) 一种基于稀疏点云和代价聚合的三维重建方法及系统
US20230394833A1 (en) Method, system and computer readable media for object detection coverage estimation
CN111489383B (zh) 基于深度边缘点与彩色图像的深度图像上采样方法及系统
CN114677479A (zh) 一种基于深度学习的自然景观多视图三维重建方法
Pan et al. Depth map completion by jointly exploiting blurry color images and sparse depth maps
CN114996814A (zh) 一种基于深度学习与三维重建的家具设计系统
Al Ismaeil et al. Enhancement of dynamic depth scenes by upsampling for precise super-resolution (UP-SR)
CN107767393B (zh) 一种面向移动硬件的场景流估计方法
Le Besnerais et al. Dense height map estimation from oblique aerial image sequences
Cho et al. Depth map up-sampling using cost-volume filtering
Yang et al. Hierarchical joint bilateral filtering for depth post-processing
Bareja et al. An improved iterative back projection based single image super resolution approach
CN109345482B (zh) 一种深度超分辨率图像滤波处理方法
Ren et al. Depth up-sampling via pixel-classifying and joint bilateral filtering

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant