CN112907641B - 一种基于细节信息保持的多视点视图深度估计方法 - Google Patents

一种基于细节信息保持的多视点视图深度估计方法 Download PDF

Info

Publication number
CN112907641B
CN112907641B CN202110151211.5A CN202110151211A CN112907641B CN 112907641 B CN112907641 B CN 112907641B CN 202110151211 A CN202110151211 A CN 202110151211A CN 112907641 B CN112907641 B CN 112907641B
Authority
CN
China
Prior art keywords
map
feature
scale
pixel
depth estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110151211.5A
Other languages
English (en)
Other versions
CN112907641A (zh
Inventor
周文晖
黄鸿飞
张桦
戴国骏
徐风帆
沈蓉豪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN202110151211.5A priority Critical patent/CN112907641B/zh
Publication of CN112907641A publication Critical patent/CN112907641A/zh
Application granted granted Critical
Publication of CN112907641B publication Critical patent/CN112907641B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Abstract

本发明公开了一种基于细节信息保持的多视点视图深度估计方法。本方法首先利用U型神经网络提取出图片序列在不同尺度的特征,在同一尺度的特征中,分为两个分支:一个分支进行分割操作,得到高质量细节保持的目标分割图;一个分支进行为后续的深度估计进行特征提取。将不同尺度的特征与同尺度下的分割图Fs相乘,按照单应矩阵映射融合为3D特征体素,最后通过回归得到深度图。将该深度图与对应大小的Fs逐像素相乘,通过由粗到细不同尺度的优化,输出最终的深度图,其中只有目标的深度信息有效。本发明提出的基于细节信息保持的多视点视图深度估计方法,避免了重建中背景对目标的影响,提高了深度估计的精度。

Description

一种基于细节信息保持的多视点视图深度估计方法
技术领域
本发明涉及深度估计领域,具体是一种基于细节信息保持的多视点视图深度估计方法。
背景技术
重建真实世界中物体的三维建模一直是计算机视觉领域热点之一。图像是真实世界中三维场景在二维平面的一个投影。传统多视点三维重建方法耗时长,易受到复杂背景的干扰,并存在因深度估计不准确而导致重建质量差等问题。近年来,随着深度相机的普及,基于RGB-D相机的三维重建研究取得了显著进展,但仍存在深度分辨率不高,深度图过度平滑等缺点,导致重建的模型细节信息丢失。
基于图像的传统三维重建通常采用从运动恢复结构的技术,利用立体匹配算法计算出每帧图像对应的深度图,形成每帧图像的三维点云;并通过相邻帧运动估计获取每帧图像的相机位姿,进而将每帧图像的三维点云融合成最终的三维模型。然而传统三维重建技术通常存在以下缺点:在大尺度背景下重建小尺度目标时,特征提取与匹配易受到背景纹理干扰,使得估计的位姿不够精确,且容易丢失目标的细节信息;此外,传统立体匹配算法在遮挡和弱纹理区域中难以精确估计出深度信息。
为解决传统三维重建技术的局限,本发明采用深度学习方法,在多视点视图深度估计的同时,实现基于细节信息保持的目标分割,得到目标区域,从而减少背景的影响,提高位姿和深度估计的精度。
发明内容
本发明的目的是针对现有技术不足,提供一种基于细节信息保持的多视点视图深度估计方法。本发明其输入为一组多视点图像,输出为主视点的深度图,输出的深度图中,只有目标区域有深度信息,其他区域没有深度信息。
为了实现上述目的,本发明的技术方案包括如下步骤:
步骤1、输入多视点图像序列,尺寸为W×H,W为图像的宽,H为图像的高;多视点图像序列包含一幅主视点图像Cs和其他视点图像Ci,i=1,2...N,N为视点编号。将多视点图像序列输入到一个U型神经网络中,提取图像语义特征。
所述的U型神经网络的定义如下:卷积核的大小为3×3,池化层为最大池化层,上采样的方式选择转置卷积。在相同的尺度且未进入多分支的情况下,通道数不变;S/8尺度、S/4尺度、S/2尺度和S尺度对应的通道数分别为1024、512、256和128。将尺度为S×S的多视点图像输入到U型神经网络中,首先经过三层卷积层,得到的特征图尺度为S×S×128;将/>做最大池化并增加一倍,经过三层卷积,得到了(S/2)×(S/2)×256的特征图/>将特征图/>做最大池化并增加一倍,经过三层卷积,得到了(S/4)×(S/4)×512的特征图将/>做最大池化增加一倍,得到(S/8)×(S/8)×1024的特征图/>将特征图/>进行转置卷积并两两相加,得到(S/4)×(S/4)×512的特征图/>将特征图/>进行转置卷积并相加,得到(S/2)×(S/2)×256的特征图/>将特征图/>进行转置卷积并两两相加,得到S×S×128的特征图。第十三层的特征图尺度为原图的四分之一,是最大的尺度的深度估计;第十六层的特征图尺度为原图的二分之一,是中间尺度的深度估计;第十九层的特征尺度与原图相等的,是最精细尺度的深度估计。
步骤2、将U型神经网络中的第十三层输出特征图对应的特征O3输入到两个分支网络中,其中一个分支网络起到目标分割的作用,将特征O3通过三层卷积层得到S/4尺度的分割图S3,另一个分支网络起到特征提取的作用,将特征O3通过三层卷积层得到特征图F3,将S3与F3逐像素相乘,步骤如下:取出特征图F3,其大小为(S/4)×(S/4),取语义分割图S3,其大小为(S/4)×(S/4),然后两个矩阵逐像素相乘,逐像素相乘的过程如下:取特征图F3第i行第j列的元素F3|i,j(i=0,1...S,j=0,1...S),取S3图的第i行第j列元素S3|i,j(i=0,1...S,j=0,1...S),两者相乘得到Outputi,j,输出图的尺寸仍为(S/4)×(S/4),然后再通过单应矩阵将相乘的结果映射到对应的位置并融合成一个3D特征体素V3,尺寸为(S/4)×(S/4)×256。
步骤3.将3D特征体素V3,经过三层3D卷积进行特征提取,第一层输出尺度为(S/4)×(S/4)×256的特征体素,第二层输出尺度为(S/4)×(S/4)×128的特征体素,第三层输出尺度为(S/4)×(S/4)×64的3D特征体素按照基于方差的度量方法,根据其他视点图像序列与主视点的角度将3D特征体素/>转换为代价体素V3d,最后对代价体素V3d进行回归计算得到了尺寸为(S/4)×(S/4)×1的深度估计图/>并与分割图S3逐像素相乘和上采样,得到新的深度估计图DM3d,图中仅目标区域深度有效。
步骤4、将深度估计图DM3d上采样,得到(S/2)×(S/2)×1的深度图DM3,将U型神经网络中的第十六层的特征O2输入到两个分支网络,其中一个分支网络起到语义分割的作用,将O2通过三层卷积层得到(S/2)尺度的分割图S2,另一个分支网络进行特征提取,将O2通过三层卷积层得到特征图F2,将S2与F2逐像素相乘,步骤如下:取出特征图F2,其大小为(S/2)×(S/2),取语义分割图S2,其大小为(S/2)×(S/2),然后两个矩阵逐像素相乘,得到的结果大小为(S/2)×(S/2),然后再通过单应矩阵将相乘的结果映射到对应的位置并融合成一个3D的特征体素V2,尺寸为(S/2)×(S/2)×128。
步骤5、将3D特征体素V2,经过三层3D卷积进行特征提取,第一层输出尺度为(S/2)×(S/2)×128的特征体素,第二层输出尺度为(S/2)×(S/2)×64的特征体素,第三层输出尺度为(S/2)×(S/2)×32的3D特征体素按照基于方差的度量方法,根据其他视点图像序列与主视点的角度将3D特征体素/>转换为代价体素V2d,最后对代价体素V2d进行回归计算得到了尺寸为(S/2)×(S/2)×1的深度图/>并与分割图S2逐像素相乘和上采样,得到新的深度估计图DM2d,图中仅目标区域深度有效。
步骤6、将深度估计图DM2d上采样,得到S×S×1的深度图DM2,将U型神经网络中的第十九层的特征O1输入到两个分支网络,其中一个分支网络起到语义分割的作用,将O1通过三层卷积层得到S尺度的分割图S1,另一个分支网络进行特征提取,将O1通过三层卷积层得到特征图F1,将S1与F1逐像素相乘,步骤如下:取出特征图F1,其大小为S×S,取语义分割图S1,其大小为S×S,然后两个矩阵逐像素相乘,得到的结果大小为S×S,然后再通过单应矩阵将相乘的结果映射到对应的位置并融合成一个3D的特征体素V1,尺寸为S×S×64。
步骤7、将3D特征体素V1,经过三层3D卷积进行特征提取,第一层输出尺度为S×S×64的特征体素,第二层输出尺度为S×S×32的特征体素,第三层输出尺度为S×S×16的3D特征体素按照基于方差的度量方法,根据其他视点图像序列与主视点的角度将3D特征体素/>转换为代价体素V1d,最后对代价体素V1d进行回归计算得到了尺寸为S×S×1的深度估计图/>并与分割图S1逐像素相乘和上采样,得到最终的深度估计图DM1,图中仅目标区域深度有效。
本发明的有益效果如下:
本发明提出了一种新的神经网络模型,实现了细节信息保持的多视点视图深度估计。首先将多视点图片输入到U型神经网络,提取出不同尺度的特征信息,每个尺度的特征输入到两个分支:一个分支提取出图像中目标区域信息,另一个分支提取更深层次的特征。为了减少背景信息对深度估计的影响,约束特征于目标区域,将上述分支提取出的特征与提取出的目标区域信息相乘;然后,相乘后的特征通过单应矩阵映射,融合为3D特征体素,该体素经过几层卷积后进行回归得到深度图。为了约束估计的深度图于目标区域,得到的深度图与目标区域信息相乘,然后输入到更小尺度上去。最后融合不同尺度的目标区域信息与深度信息,对估计的深度进行由粗到细的优化。本发明引入目标区域信息对特征提取与深度估计进行约束,并利用多尺度进行由粗到细的优化,实现了细节信息保持的多视点视图深度估计。
附图说明
图1整体神经网络模型架构图。
图2编解码神经网络结构图。
图3时编编解码提取特征时的不同分支。
图4逐像素相乘图。
图5三维特征体素估计深度图。
图6神经网络详细图解。
具体实施方式
下面结合附图和实例对本发明作进一步说明。
如图1所示,基于多视点的细粒度深度估计方法,大概框架如下:
输入的图像序列,主视角图像为Cs,其他视角为图像为Ci(i=0,1...N),先经过一个编解码的神经网络,并且在不同尺度上,将不同层次的特征(S/2尺度的特征需要和S/4尺度预测出来的DM3进行融合,S尺度的特征需要和S/2尺度预测出来的DM2进行融合)按照单应矩阵映射到3D空间融合为3D特征体素,将体素转换到3D的代价体素,最后通过由粗到细的优化和回归,得到估计的最终深度图DM1。在下采样的两个小尺度中,尺度为S/4、S/2的深度估计图DM3、DM2,和上一层特征提取的特征图映射融合成尺度为(S/2)×(S/2)×128、S×S×64特征体素。
图2是一个U型神经网络结构,输入的图像序列,主视角图像为Cs,其他视角的图像为Ci(i=0,1...N),为了编解码不同层次特征信息,从而从不同的尺度来估计与逐步优化深度。第十九层的特征尺度与原图相等的,是最精细尺度的深度估计,第十六层的特征图尺度为原图的二分之一,是中间尺度的深度估计;第十三层的特征图尺度为原图的四分之一,是最大的尺度的深度估计。
U型神经网络的定义如下:卷积核的大小为3×3,池化层为最大池化,上采样的方式选择转置卷积。在相同的尺度且未进入多分支的情况下,通道数不变,S/8尺度,S/4尺度,S/2尺度,S尺度对应的通道数分别为1024,512,256,128。将尺度为S×S的多视点图像输入到U型神经网络中,首先经过三层卷积层,得到的特征图尺度为S×S×128;将/>做最大池化并增加一倍,经过三层卷积,得到了(S/2)×(S/2)×256的特征图/>将特征图/>做最大池化并增加一倍,经过三层卷积,得到了(S/4)×(S/4)×512的特征图/>将/>做最大池化增加一倍,得到(S/8)×(S/8)×1024的特征图/>将特征图/>进行转置卷积并两两相加,得到(S/4)×(S/4)×512的特征图/>将特征图/>进行转置卷积并相加,得到(S/2)×(S/2)×256的特征图/>将特征图/>进行转置卷积并两两相加,得到S×S×128的特征图。
图3是编解码神经网络特征提取时的两个分支,在编解码的特征提取的某个尺度上,将特征输入到两个分支:分支1起到分割作用,经过三层卷积层后,得到了分割图S;分支2继续进行特征提取,经过三层卷积层后,得到特征图F,将F与分割图S逐像素相乘后按照单应矩阵映射为3D特征体素,再经过3D卷积层与回归获得当前预测的深度图D,将深度图D与分割图S相乘,得到最终预测的深度图。
图4是编解码神经网络语义分割特征图与图像特征层逐像素相乘示意图,假定某视点图像提取出的某层特征Fea,大小为S×S,该图像的某个尺度的分割图,大小为S×S,逐像素相乘的过程如下:取特征图Fea第i行第j列的元素Fea|i,j(i=0,1...S,j=0,1...S),取Fs图的第i行第j列元素Fs|i,j(i=0,1...S,j=0,1...S),两者相乘得到Outputi,j,输出图的尺寸仍为S×S。
图5是3D特征体素实现由粗到细的优化结构图。首先将编解码中神经网络的分割分支得到的分割图S3与提取出的特征图进行逐像素相乘,再经过单应矩阵将不同视角的特征图映射到不同的位置并转化为3D体素,该3D体素经过三层3D卷积层提取特征,得到的3D体素通道数缩小为原来的四分之一。按照基于方差的度量方法,将缩小的3D特征体素转换为代价体素,最后对这个代价体素进行回归计算并与对应尺寸的分割图S3逐像素相乘和上采样,得到大小为(S/2)×(S/2)的估计图DM3,然后将估计图DM3和编解码神经网络中尺度为(S/2)×(S/2)的特征图结合起来,经过同样的步骤,得到估计图DM2,将DM2和编解码神经网络中尺度为S×S的特征图结合起来,进行卷积操作和深度回归,最终得到了尺度为S×S的深度估计图,S×S的深度估计图与S×S大小的分割图S1逐像素相乘得到的结果,即为本神经网络结构的输出。
图6是本发明的详细的神经网络结构图。大体结构与每个模块在上述已经说明。

Claims (8)

1.一种基于细节信息保持的多视点视图深度估计方法,其特征在于输入为一组多视点图像,输出为主视点的深度图,输出的深度图中,只有目标区域有深度信息,其他区域没有深度信息;具体包括如下步骤:
步骤1、输入多视点图像序列,尺寸为W×H,W为图像的宽,H为图像的高;多视点图像序列包含一幅主视点图像Cs和其他视点图像Ci;将多视点图像序列输入到一个U型神经网络中,提取图像语义特征;
步骤2、将U型神经网络中的第十三层输出特征图对应的特征O3输入到两个分支网络中,其中一个分支网络将特征O3通过三层卷积层得到S/4尺度的分割图S3,另一个分支网络将特征O3通过三层卷积层得到特征图F3,将S3与F3逐像素相乘,获得3D特征体素V3;其中S是图像的长度;
步骤3.将3D特征体素V3经过三层3D卷积进行特征提取后,按照基于方差的度量方法得到新的深度估计图DM3d
步骤4、将深度估计图DM3d上采样,得到(S/2)×(S/2)×1的深度图DM3;同时将U型神经网络中的第十六层的特征O2输入到两个分支网络,得到S/2尺度的分割图S2和特征图F2,将S2与F2逐像素相乘获得3D特征体素V2
步骤5、将3D特征体素V2经过三层3D卷积进行特征提取后,按照基于方差的度量方法得到新的深度估计图DM2d
步骤6、将深度估计图DM2d上采样,得到S×S×1的深度图DM2;将U型神经网络中的第十九层的特征O1输入到两个分支网络,得到S尺度的分割图S1和特征图F1,将S1与F1逐像素相乘得到3D特征体素V1
步骤7、将3D特征体素V1,经过三层3D卷积进行特征提取按照基于方差的度量方法得到新的最终深度估计图DM1
2.根据权利要求1所述的一种基于细节信息保持的多视点视图深度估计方法,其特征在于步骤1所述的U型神经网络的定义如下:
卷积核的大小为3×3,池化层为最大池化层,上采样的方式选择转置卷积;在相同的尺度且未进入多分支的情况下,通道数不变;S/8尺度、S/4尺度、S/2尺度和S尺度对应的通道数分别为1024、512、256和128;将尺度为S×S的多视点图像输入到U型神经网络中,首先经过三层卷积层,得到的特征图尺度为S×S×128;将/>做最大池化并增加一倍,经过三层卷积,得到了(S/2)×(S/2)×256的特征图/>将特征图/>做最大池化并增加一倍,经过三层卷积,得到了(S/4)×(S/4)×512的特征图/>将/>做最大池化增加一倍,得到(S/8)×(S/8)×1024的特征图/>将特征图/>进行转置卷积并两两相加,得到(S/4)×(S/4)×512的特征图/>将特征图/>进行转置卷积并相加,得到(S/2)×(S/2)×256的特征图将特征图/>进行转置卷积并两两相加,得到S×S×128的特征图;第十三层的特征图尺度为原图的四分之一,是最大的尺度的深度估计;第十六层的特征图尺度为原图的二分之一,是中间尺度的深度估计;第十九层的特征尺度与原图相等的,是最精细尺度的深度估计。
3.根据权利要求2所述的一种基于细节信息保持的多视点视图深度估计方法,其特征在于步骤2所述的将S3与F3逐像素相乘获得3D特征体素V3,具体如下:
取出特征图F3,其大小为(S/4)×(S/4),取语义分割图S3,其大小为(S/4)×(S/4);然后两个矩阵逐像素相乘,逐像素相乘的过程如下:取特征图F3第i行第j列的元素F3|i,j,取S3图的第i行第j列元素S3|i,j,两者相乘得到Outputi,j,输出图的尺寸仍为(S/4)×(S/4),其中i=0,1...S,j=0,1...S;然后再通过单应矩阵将相乘的结果映射到对应的位置并融合成一个3D特征体素V3,尺寸为(S/4)×(S/4)×256。
4.根据权利要求1或3所述的一种基于细节信息保持的多视点视图深度估计方法,其特征在于步骤3具体实现如下:
3D特征体素V3经过三层3D卷积进行特征提取,第一层输出尺度为(S/4)×(S/4)×256的3D特征体素,第二层输出尺度为(S/4)×(S/4)×128的3D特征体素,第三层输出尺度为(S/4)×(S/4)×64的3D特征体素按照基于方差的度量方法,根据其他视点图像序列与主视点的角度将3D特征体素/>转换为代价体素V3d,最后对代价体素V3d进行回归计算得到尺寸为(S/4)×(S/4)×1的深度估计图/>将深度估计图/>与分割图S3逐像素相乘和上采样,得到新的深度估计图DM3d,图中仅目标区域深度有效。
5.根据权利要求4所述的一种基于细节信息保持的多视点视图深度估计方法,其特征在于步骤4所述的将S2与F2逐像素相乘获得3D特征体素V2,具体如下:
取出特征图F2,其大小为(S/2)×(S/2),取语义分割图S2,其大小为(S/2)×(S/2),然后两个矩阵逐像素相乘,得到的结果大小为(S/2)×(S/2),然后再通过单应矩阵将相乘的结果映射到对应的位置并融合成一个3D的特征体素V2,尺寸为(S/2)×(S/2)×128。
6.根据权利要求5所述的一种基于细节信息保持的多视点视图深度估计方法,其特征在于步骤5具体实现如下:
3D特征体素V2经过三层3D卷积进行特征提取后,第一层输出尺度为(S/2)×(S/2)×128的3D特征体素,第二层输出尺度为(S/2)×(S/2)×64的3D特征体素,第三层输出尺度为(S/2)×(S/2)×32的3D特征体素按照基于方差的度量方法,根据其他视点图像序列与主视点的角度将3D特征体素/>转换为代价体素V2d,最后对代价体素V2d进行回归计算得到尺寸为(S/2)×(S/2)×1的深度图/>并与分割图S2逐像素相乘和上采样,得到新的深度估计图DM2d,图中仅目标区域深度有效。
7.根据权利要求6所述的一种基于细节信息保持的多视点视图深度估计方法,其特征在于步骤6所述的将S1与F1逐像素相乘获得3D特征体素V1,具体如下:
取出特征图F1,其大小为S×S,取语义分割图S1,其大小为S×S,然后两个矩阵逐像素相乘,得到的结果大小为S×S,然后再通过单应矩阵将相乘的结果映射到对应的位置并融合成一个3D的特征体素V1,尺寸为S×S×64。
8.根据权利要求7所述的一种基于细节信息保持的多视点视图深度估计方法,其特征在于步骤7具体实现如下:
3D特征体素V1经过三层3D卷积进行特征提取后,第一层输出尺度为S×S×64的特征体素,第二层输出尺度为S×S×32的特征体素,第三层输出尺度为S×S×16的3D特征体素按照基于方差的度量方法,根据其他视点图像序列与主视点的角度将3D特征体素/>转换为代价体素V1d,最后对代价体素V1d进行回归计算得到了尺寸为S×S×1的深度估计图并与分割图S1逐像素相乘和上采样,得到最终的深度估计图DM1,图中仅目标区域深度有效。
CN202110151211.5A 2021-02-03 2021-02-03 一种基于细节信息保持的多视点视图深度估计方法 Active CN112907641B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110151211.5A CN112907641B (zh) 2021-02-03 2021-02-03 一种基于细节信息保持的多视点视图深度估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110151211.5A CN112907641B (zh) 2021-02-03 2021-02-03 一种基于细节信息保持的多视点视图深度估计方法

Publications (2)

Publication Number Publication Date
CN112907641A CN112907641A (zh) 2021-06-04
CN112907641B true CN112907641B (zh) 2024-04-09

Family

ID=76122116

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110151211.5A Active CN112907641B (zh) 2021-02-03 2021-02-03 一种基于细节信息保持的多视点视图深度估计方法

Country Status (1)

Country Link
CN (1) CN112907641B (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103702098A (zh) * 2013-12-09 2014-04-02 上海交通大学 一种时空域联合约束的三视点立体视频深度提取方法
CN103916658A (zh) * 2014-04-18 2014-07-09 山东大学 采用深度传播技术的3dv系统视点间深度图生成方法
CN107211116A (zh) * 2015-01-30 2017-09-26 高通股份有限公司 用于无线装置中的多视图视频的系统和方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103702098A (zh) * 2013-12-09 2014-04-02 上海交通大学 一种时空域联合约束的三视点立体视频深度提取方法
CN103916658A (zh) * 2014-04-18 2014-07-09 山东大学 采用深度传播技术的3dv系统视点间深度图生成方法
CN107211116A (zh) * 2015-01-30 2017-09-26 高通股份有限公司 用于无线装置中的多视图视频的系统和方法

Also Published As

Publication number Publication date
CN112907641A (zh) 2021-06-04

Similar Documents

Publication Publication Date Title
CN107578436B (zh) 一种基于全卷积神经网络fcn的单目图像深度估计方法
CN111739078B (zh) 一种基于上下文注意力机制的单目无监督深度估计方法
CN109377530B (zh) 一种基于深度神经网络的双目深度估计方法
CN112396703B (zh) 一种单图像三维点云模型重建方法
CN109598754B (zh) 一种基于深度卷积网络的双目深度估计方法
CN111259945B (zh) 引入注意力图谱的双目视差估计方法
CN115690324A (zh) 一种基于点云的神经辐射场重建优化方法及装置
CN110443883A (zh) 一种基于dropblock的单张彩色图片平面三维重建方法
CN111950477A (zh) 一种基于视频监督的单图像三维人脸重建方法
CN114170286B (zh) 一种基于无监督深度学习的单目深度估计方法
CN113962858A (zh) 一种多视角深度获取方法
CN111899295A (zh) 一种基于深度学习的单目场景深度预测方法
CN112767467A (zh) 一种基于自监督深度学习的双图深度估计方法
CN114996814A (zh) 一种基于深度学习与三维重建的家具设计系统
CN115187638A (zh) 一种基于光流遮罩的无监督单目深度估计方法
CN115272438A (zh) 一种面向三维场景重建的高精度单目深度估计系统及方法
CN109345444B (zh) 深度感知增强的超分辨率立体图像构建方法
CN112906675B (zh) 一种固定场景中的无监督人体关键点检测方法及系统
CN109218706B (zh) 一种由单张图像生成立体视觉图像的方法
CN112927348B (zh) 一种基于多视点rgbd相机高分辨率人体三维重建方法
CN112634127B (zh) 一种无监督立体图像重定向方法
CN112785502A (zh) 一种基于纹理迁移的混合相机的光场图像超分辨率方法
CN112907641B (zh) 一种基于细节信息保持的多视点视图深度估计方法
CN115330935A (zh) 一种基于深度学习的三维重建方法及系统
CN116309774A (zh) 一种基于事件相机的密集三维重建方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant