CN113096174A - 一种基于多平面扫描的端到端网络的多视点场景重建方法 - Google Patents

一种基于多平面扫描的端到端网络的多视点场景重建方法 Download PDF

Info

Publication number
CN113096174A
CN113096174A CN202110312406.3A CN202110312406A CN113096174A CN 113096174 A CN113096174 A CN 113096174A CN 202110312406 A CN202110312406 A CN 202110312406A CN 113096174 A CN113096174 A CN 113096174A
Authority
CN
China
Prior art keywords
depth
image
map
resolution
depth map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110312406.3A
Other languages
English (en)
Inventor
李兆歆
王兆其
高诗雨
朱登明
朱正刚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou Zhongke Guangshi Culture Technology Co ltd
Original Assignee
Suzhou Zhongke Guangshi Culture Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou Zhongke Guangshi Culture Technology Co ltd filed Critical Suzhou Zhongke Guangshi Culture Technology Co ltd
Priority to CN202110312406.3A priority Critical patent/CN113096174A/zh
Publication of CN113096174A publication Critical patent/CN113096174A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于多平面扫描的端到端网络的多视点场景重建方法,用于对已知相机内外参矩阵的多视点图像数据集进行三维重建,构建出深度图和点云。该方法包括如下步骤:(1)用金字塔结构提取各级图像特征,得到不同大小和分辨率的特征图;(2)用多平面扫描的方式在分辨率最低的特征图上构建基于方差的成本量并估计一个低分辨率的深度图;(3)将低分辨率深度图进行上采样,并且联合更高分辨率的特征图对深度图进行细化,直到得到原图像大小的深度图为止。本发明能对已知相机内外参的多视点图像进行很好的重建,兼顾准确率和完整度。

Description

一种基于多平面扫描的端到端网络的多视点场景重建方法
技术领域
本发明涉及本发明涉及数字图像处理与计算机视觉领域,具体是一种基于多平面扫描的端到端网络的多视点场景重建方法,用于对已知相机内外参矩阵的多视点图像数据集进行三维重建,构建出深度图和点云的方法。
背景技术
多视点三维重建(multi-view stereo)是计算机视觉领域中的研究热点之一,得到了学者们的广泛关注和大力研究,如何从图像中恢复物体的三维信息是计算机视觉研究的一个核心问题。Multi-view Stereo(MVS)的方法即为给定从不同视角拍摄的图像以及其对应的相机几何,通过稠密匹配的方式恢复出物体以及场景的三维结构。
现有MVS方法存在重建结果一般,准确率和完整度不能兼顾的问题。
发明内容
本发明的目的是为了解决现有技术的不足,提供一种基于多平面扫描的端到端网络的多视点场景重建方法,用于对已知相机内外参矩阵的多视点图像数据集进行三维重建,构建出深度图和点云的方法。
为了实现以上目的,本发明所述的一种基于多平面扫描的端到端网络的多视点场景重建方法,该方法的具体步骤如下:
用金字塔结构提取各级图像特征,得到不同大小和分辨率的特征图,并计算相应内参;
用多平面扫描的方式在分辨率最低的特征图上构建基于方差的成本量并估计一个低分辨率的深度图;
将所述低分辨率的深度图进行上采样,并且联合更高分辨率的特征图对深度图进行细化,直到得到原图像大小的深度图为止。
进一步地,所述用金字塔结构提取各级图像特征,得到不同大小和分辨率的特征图,并计算相应内参,包括:
首先用CNN对原始的图像进行特征的提取,再使用双线性插值的方法对原图进行下采样,每次下采样的系数为0.5,然后将下采样的彩色图像输入到提取特征的CNN网络结构,提取下采样之后图像的特征图,构建一个两层的金字塔特征结构;
在训练的阶段提取3张图像的金字塔特征,分别为一张参考图像和两张源图像,在测试的时候提取5张图像的金字塔特征,包括一张参考图像和4张源图像。
进一步地,所述用金字塔结构提取各级图像特征的具体操作步骤为:
(a)先用深度神经网络提取原图像的特征图,所述深度神经网络一共有9层,每层都有3*3的卷积核以及一个Leaky ReLU激活函数,最后特征提取网络输出的通道数为16;
(b)用双线性插值的方法来对原图像进行下采样,每下采样一次,图像的长和宽变成原来的一半;
(c)在训练阶段,提取三张图像的金字塔特征,其中一张是需要估计的参考图像,另外两张是源图像。
进一步地,所述计算相应内参,包括:
对于不同分辨率的图像重新计算内参矩阵的大小,具体的换算公式为:
Figure BDA0002990365010000021
其中,f'为下采样图像对应的相机焦距,f为相机焦距,cx'为下采样图像对应的光心的x坐标,cx为光心的x坐标,cy'为对应的光心的y坐标,cy为光心的y坐标。
进一步地,所述用多平面扫描的方式在分辨率最低的特征图上构建基于方差的成本量,包括:
使用三个不同的扫描方向,分别为45°,90°和135°,从这三个不同的方向分别构建出三个不同的成本量。
进一步地,所述用多平面扫描的方式在分辨率最低的特征图上构建基于方差的成本量,包括:
(a)通过单应性变换将不同相机参考坐标系下的图像变换到同一个坐标系下,得到源图像和参考图像在同一个相机参考坐标系下的特征图;
(b)平面扫描的方向有三个,分别是45°,90°和135°,形成三个不同方向的平行平面集;将这三个平行平面集对应的法向量和距离代入到(a)中的所述变换中,得到不同参数下源图像变换到参考图像相机坐标系中的特征图,对每一个假设平面方向,每一个假设的深度得到一张源图像变换的特征图,由此得到3张参考相机坐标系下的特征图;
(c)用求方差的方式来评估特征图之间的相似性,假设深度接近真实的深度值,由此得到一个方差图,沿着假设深度的方向将方差图堆叠起来,就得到一个成本量;每个平面扫描的方向构成一个成本量,对每一张源图像一共有三个成本量;所述三个成本量在整个神经网络中是独立的,分别输出一个距离图,再转换成深度进行融合。
进一步地,所述估计一个低分辨率的深度图,包括:
用3D卷积核对成本量进行正则化,使之在深度方向上和像素点在对应深度的概率值对齐,得到三个概率体,再计算每个像素点沿着深度方向上概率分布的熵,在三个概率分布中选择熵最小的概率分布,沿着深度方向用概率对深度进行加权,得到一张低分辨率的深度图。
进一步地,所述估计一个低分辨率的深度图,包括:
(a)用三个相同结构但是不共享参数的U-Net 3D卷积网络来提取深度的概率分布;通过整个神经网络的损失将U-Net的输出对应为参考图像沿着深度方向在不同深度上的概率分布,输出为一个概率体;
(b)根据深度概率分布的熵来融合深度信息;对于参考图像的每个像素有三个不同的概率估计,选择熵最小的概率估计作为该像素点沿着深度方向的概率分布,再使用softmax回归,得到该像素点的一个深度估计;对所有像素点重复这个操作,得到最低分辨率距离参考坐标系原点的距离图;
(c)将估计出来的三张参考图像在不同虚拟扫描平面下的距离图转化为世界坐标系下的深度图,得到参考图像的三张深度估计图。
进一步地,所述将所述低分辨率的深度图进行上采样,并且联合更高分辨率的特征图对深度图进行细化,直到得到原图像大小的深度图为止,包括:
将上一级估计出来的低分辨率的深度图进行上采样到一个更大的深度图上,再对这个深度图进行细化,得到原图大小的深度图,完成对单张参考图像深度的估计。
进一步地,所述将所述低分辨率的深度图进行上采样,并且联合更高分辨率的特征图对深度图进行细化,直到得到原图像大小的深度图为止,包括:
(a)将初步估计的深度图进行优化和调整;将低分辨率的深度图进行上采样,得到一个初步的深度估计,在所述深度估计附近进行采样估计;
(b)构建法向量垂直于参考图像相机坐标系的假设平面的成本量,沿着假设平面法向量方向在所述深度估计附近采样8个深度值,对深度进行更精细的估计;
(c)对低分辨率的深度图重复上采样和细化的过程直到得到与输入图像大小相同的深度图为止,即得到参考图像的深度估计图。
本发明所述的具体是一种基于多平面扫描的端到端网络的多视点场景重建方法,用于对已知相机内外参矩阵的多视点图像数据集进行三维重建,构建出深度图和点云。通过像素级的稠密匹配的方式从多张图像中恢复出物体以及场景的三维结构。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1为根据本发明实施方式的基于多平面扫描的端到端网络的多视点场景重建方法流程图;
图2为根据本发明实施方式的特征金字塔网络结构示意图;
图3为根据本发明实施方式的平面扫描变换原理示意图;
图4为根据本发明实施方式的平面扫描单应性变换之后的特征图;
图5为根据本发明实施方式的U-Net网络结构图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施方式。虽然附图中显示了本公开的示例性实施方式,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施方式所限制。相反,提供这些实施方式是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
本发明中,基于平面扫描的多视点场景重建的本质是借鉴基于两张图片构建成本量(cost volume)的双目立体匹配的深度估计方法,扩展到多张图片的深度估计中。
本发明中,平面扫描算法将深度范围内分为一个个平面,如果平行平面足够密集,空间被分割的足够细,那么空间物体表面上的一点M一定位于众多平行平面中的其中一个平面上。平面扫描法通过将一组图像投影到一个平面假设上,然后再投影到参考图像上来匹配参考图像。通过这个步骤卷曲的图像将和参考图像比较测量图像的不相似度,计算得出一个cost(损失)值。如果测试的平面假设接近参考图像中一个像素的真实深度,则对应的cost会较低。测试许多平面假设,取每个像素的最佳匹配平面所产生的深度,然后生成参考图像的深度图。将平面扫描算法应用到多视点三维重建中,在参考图像和一张源图像两两之间用平面扫描的方法构建一系列深度假设及其对应的损失函数cost map,再通过计算方差的方法来将多个视点卷曲变换之后的特征图联合在一起评价,假设的深度越接近真实值,多视点卷曲变换之后的方差越小,这样构建出来的损失是一个3D volume的结构,可以直接输入到U-Net结构中求出沿深度方向的概率分布。
多平面扫描是指用多个不同方向的平面簇对场景的深度进行划分,再基于这些不同方向的平面做单应性变换,将源图像变换到参考图像相机坐标系。多平面的假设有利于估计倾斜平面的深度。
如图1所示,本发明所述的一种基于多平面扫描的端到端网络的多视点场景重建方法,该方法的具体步骤如下:
步骤一:用特征金字塔提取各级图像特征,并计算相应内参;
(1):利用特征金字塔提取各级图像特征,得到不同大小和分辨率的特征图,分为原图特征提取,图像下采样,下采样图像特征提取三个部分,具体为:
(1.1):首先对输入的原图像进行特征提取
在训练阶段,输入是三张图像,包括一张需要估计深度的参考图像(referenceimage)和两张辅助深度估计的源图像(source image),为了构建图像特征金字塔,需要在同一图像的不同分辨率上提取特征,并且在各个尺度上提取特征的网络是共享权重的。特征提取网络的结构如图2所示,整个网络一共有9层,每层都有3*3大小的卷积核以及一个Leaky ReLU激活函数,输入的彩色图像是三通道,经过卷积之后输出为16通道的特征;
(1.2):用双线性插值的方法对图像进行下采样
用双线性插值的方式对原图像进行下采样,并且每次插值采用的scale系数为0.5,每下采样一次,图像的长和宽变为原图像的一半;将原图下采样两次,得到原图1/2*1/2以及1/4*1/4大小的低分辨率图像;
(1.3):下采样图像特征提取
将低分辨率图像输入到相同的特征提取网络(feature extraction network)中,提取出16通道的特征,在这一步中使用的是和原图中同一个特征提取网络,包含9层,每层都有3*3大小的卷积核以及一个Leaky ReLU激活函数并且共享特征,保证在不同分辨率的图像中提取的是同种类的特征;对输入的三张图像都做上述的操作,至此可以分别得到三张图像的三层特征金字塔,每一层有16个通道的特征;
(2):三个图像的特征金字塔用于后面的cost volume构建,在图像进行下采样的时候,图像相对应的内参K也会发生变化,因此对于不同分辨率的图像需要重新计算内参矩阵的大小,具体的换算公式为:
Figure BDA0002990365010000061
其中,f'为下采样图像对应的相机焦距,cx'为下采样图像对应的光心的x坐标,cy'为对应的光心的y坐标,最后计算得出的内参矩阵形式为:
Figure BDA0002990365010000062
步骤二:用多平面扫描来构建低分辨率深度图;
(1)通过平面扫描单应性变换将不同相机参考坐标系下的图像变换到同一个坐标系下,并构建cost volume,具体步骤为:
(1.1):将相机的模型抽象成一个针孔成像的模型,取源图像特征金字塔最上层分辨率为原图1/4*1/4大小的特征图,将源图像特征图的像素逆投影到虚拟平面上,再将同一个虚拟平面上的点投影到参考相机坐标系上,得到源图像变换到参考图像平面的特征图,特征变换的单应性矩阵为:
Figure BDA0002990365010000071
其中,K为相机的内参矩阵,R为外参矩阵中的旋转矩阵,t为外参矩阵中的平移矩阵,n为平面扫描的法向量方向,d为原点到假设平面的距离,I是一个3*3的单位矩阵。对于同一个扫描方向n,有d个距原点不同的平面,平面扫描变换原理如图3所示,对源图像中的所有像素点,都有x'=Hx,其中x'是参考图像中的像素点投影到源图像中对应的像素点坐标,x是源图像坐标系中的像素坐标。通过平面扫描,可以构建出一张源图像特征图变换到参考图像平面的d张特征图,当扫描方向和虚拟平面距离不一样时,变换之后的特征图也不一样,如图4所示;
(1.2):平面扫描的方向有三个,分别是45°,90°和135°,对应的法向量为
Figure BDA0002990365010000072
对于每一个扫描平面的方向,又可以假设不同的d,即原点到平面的距离d∈[dmin,dmax],这样就形成了三个不同方向的平行平面集。将这三个平行平面集对应的法向量和距离d代入到单应性变换的公式中,可以得到不同参数下源图像变换到参考图像相机坐标系中的特征图,对每一个假设平面方向,每一个假设的深度可以得到一张源图像变换的特征图,将这些深度图沿着假设深度方向堆叠在一起可以得到一个源图像特征图构成的volume。每个volume的大小为B×D×F×H×W其中,B为batch size的大小,D为平面距离假设的数目,F为特征图的数量,H为特征图的高度,W为特征图的宽度;
(1.3):将每个源图像都变换到参考图像相机坐标系之后,对于每个源图像可以得到三个不同扫描方向的volume。每一张参考图像特征图有两张源图像与其对应,通过求方差的方式将多视点的信息融合在一起构建出一个cost map:
Figure BDA0002990365010000081
其中,Vi表示第i个视角变换到参考图像相机坐标系的特征图,
Figure BDA0002990365010000082
表示当前平面d下所有特征的均值,N表示视点的数目,C即为构建出来的基于方差的cost map,也可以称为variance map,方差图。当参考图像和源图像变换到参考坐标系的特征图之间的方差最小时,说明此时的平面法向量和深度最接近像素真实(ground-truth)的法向量和深度,经过方差的运算,参考图像和源图像的特征被融合到了一张图像上,将这样得到的三个costvolume记为C1,C2,C3,分别对应45°,90°和135°的扫描方向。
(2):用U-Net网络来提取深度的概率分布
(2.1):由于假设平面的法向量不相同,因此深度的概率分布也不相同,不能使用共享参数的U-Net。U-Net是一种经典的全卷积网络结构,网络结构如图5所示,网络左侧是压缩路径(contracting path),右侧是扩展路径(expansive path)压缩路径由4个block组成,每个block使用了3个有效卷积和1个Max Pooling降采样,扩展路径同样由4个block组成,每个block通过反卷积将Feature Map的尺寸变大,通过这样对称的操作,将costvolume映射成一个代表概率的概率体(volume P)。这个概率volume的大小为B×D×H×W,其中,B为batch size的大小,D为平面距离假设的数目,H为特征图的高度,W为特征图的宽度,这个概率volume表示每个像素在对应平面上的概率大小。将U-Net输出的三个概率分布用softmax进行回归可以分别得到三张像素距离光心的距离图,对于90°扫描平面估计出来的为深度图,然而45°和135°估计出来的并不是深度图,需要做一个转换,将其转换为深度图。
(2.2)对于90°扫描方向的平面来说,虚拟平面垂直于参考图像坐标系的z轴,因此估计出来的平面距离等于像素的深度值,而对于45°和135°的扫描平面来说,平面距光心的距离不等于深度值,因此需要将估计出来的距离值转换成深度图,变换的公式如下:
Figure BDA0002990365010000091
其中,Z为世界坐标系下的深度值,d为平面到光心的距离,即(2.1)中估计出来的距离图,K表示参考图像相机的内参矩阵,(u,v)表示对应像素的坐标,nT表示扫描方向对应的法向量。这里用其次坐标来表示,通过这一步将(2.1)中估计出来的三张参考图像在不同虚拟扫描平面下的距离图转化为世界坐标系下的深度图,得到了参考图像的三张深度估计图。
(2.3)当虚拟扫描平面跟像素所在三维平面更接近时,cost的值会更小,因此,估计出来的概率分布的熵越小,基于这个假设,对估计出来的三个概率volume P沿着深度方向分别求熵:
Figure BDA0002990365010000092
其中,pi表示某个像素在平面i处的概率,H表示某像素概率分布的熵,D为平面距离假设的数目。通过上述公式可以得到三张熵图,分别表示45°,90°和135°虚拟扫描平面构建出来的深度图在对应像素处概率分布的熵值大小,对比这三张熵图取每个像素熵最小对应估计出来的深度值,得到最后的深度估计,由此估计出了一个较为可靠的低分辨率深度图。
步骤三:对低分辨率深度图进行上采样并细化(refine);
(1)将初步估计的深度图进行优化和调整,称之为refine。将低分辨率的深度图进行上采样,得到一个初步的深度估计D,调整之后的深度D=D+△D,在D附近进行采样估计,此时的单应性矩阵变为:
Figure BDA0002990365010000093
其中△d=Sp/M,Sp为深度采样的范围,M为深度采样的数量,由此得到像素变换的关系;
(2)根据步骤(2)中提到的方法构建cost volume,在第一个阶段中,对低分辨率深度图的估计已经考虑了像素点在不同平面的情况,并且已经得到了一个较为准确的初步估计。因此在refine过程中只需构建法向量垂直于参考图像相机坐标系的假设平面的costvolume,沿着假设平面法向量方向在D附近采样8个深度值,再输入扫描平面为90°的U-Net网络中,对深度进行更精细的估计。
(3)在每个refine的阶段,都有
Figure BDA0002990365010000101
其中Dl表示H/2l×W/2l大小图像的深度估计。对低分辨率的深度图重复上采样和refine的过程直到得到与输入图像大小相同的深度图H×W为止,即得到了参考图像的深度估计图。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。

Claims (10)

1.一种基于多平面扫描的端到端网络的多视点场景重建方法,其特征在于:该方法的具体步骤如下:
用金字塔结构提取各级图像特征,得到不同大小和分辨率的特征图,并计算相应内参;
用多平面扫描的方式在分辨率最低的特征图上构建基于方差的成本量并估计一个低分辨率的深度图;
将所述低分辨率的深度图进行上采样,并且联合更高分辨率的特征图对深度图进行细化,直到得到原图像大小的深度图为止。
2.根据权利要求1所述的一种基于多平面扫描的端到端网络的多视点场景重建方法,其特征在于:
所述用金字塔结构提取各级图像特征,得到不同大小和分辨率的特征图,并计算相应内参,包括:
首先用CNN对原始的图像进行特征的提取,再使用双线性插值的方法对原图进行下采样,每次下采样的系数为0.5,然后将下采样的彩色图像输入到提取特征的CNN网络结构,提取下采样之后图像的特征图,构建一个两层的金字塔特征结构;
在训练的阶段提取3张图像的金字塔特征,分别为一张参考图像和两张源图像,在测试的时候提取5张图像的金字塔特征,包括一张参考图像和4张源图像。
3.根据权利要求1所述的一种基于多平面扫描的端到端网络的多视点场景重建方法,其特征在于:
所述用金字塔结构提取各级图像特征的具体操作步骤为:
(a)先用深度神经网络提取原图像的特征图,所述深度神经网络一共有9层,每层都有3*3的卷积核以及一个Leaky ReLU激活函数,最后特征提取网络输出的通道数为16;
(b)用双线性插值的方法来对原图像进行下采样,每下采样一次,图像的长和宽变成原来的一半;
(c)在训练阶段,提取三张图像的金字塔特征,其中一张是需要估计的参考图像,另外两张是源图像。
4.根据权利要求1所述的一种基于多平面扫描的端到端网络的多视点场景重建方法,其特征在于:
所述计算相应内参,包括:
对于不同分辨率的图像重新计算内参矩阵的大小,具体的换算公式为:
Figure FDA0002990365000000021
其中,f'为下采样图像对应的相机焦距,f为相机焦距,cx'为下采样图像对应的光心的x坐标,cx为光心的x坐标,cy'为对应的光心的y坐标,cy为光心的y坐标。
5.根据权利要求1所述的一种基于多平面扫描的端到端网络的多视点场景重建方法,其特征在于:
所述用多平面扫描的方式在分辨率最低的特征图上构建基于方差的成本量,包括:
使用三个不同的扫描方向,分别为45°,90°和135°,从这三个不同的方向分别构建出三个不同的成本量。
6.根据权利要求2或3所述的一种基于多平面扫描的端到端网络的多视点场景重建方法,其特征在于:
所述用多平面扫描的方式在分辨率最低的特征图上构建基于方差的成本量,包括:
(a)通过单应性变换将不同相机参考坐标系下的图像变换到同一个坐标系下,得到源图像和参考图像在同一个相机参考坐标系下的特征图;
(b)平面扫描的方向有三个,分别是45°,90°和135°,形成三个不同方向的平行平面集;将这三个平行平面集对应的法向量和距离代入到(a)中的所述变换中,得到不同参数下源图像变换到参考图像相机坐标系中的特征图,对每一个假设平面方向,每一个假设的深度得到一张源图像变换的特征图,由此得到3张参考相机坐标系下的特征图;
(c)用求方差的方式来评估特征图之间的相似性,假设深度接近真实的深度值,由此得到一个方差图,沿着假设深度的方向将方差图堆叠起来,就得到一个成本量;每个平面扫描的方向构成一个成本量,对每一张源图像一共有三个成本量;所述三个成本量在整个神经网络中是独立的,分别输出一个距离图,再转换成深度进行融合。
7.根据权利要求1所述的一种基于多平面扫描的端到端网络的多视点场景重建方法,其特征在于:
所述估计一个低分辨率的深度图,包括:
用3D卷积核对成本量进行正则化,使之在深度方向上和像素点在对应深度的概率值对齐,得到三个概率体,再计算每个像素点沿着深度方向上概率分布的熵,在三个概率分布中选择熵最小的概率分布,沿着深度方向用概率对深度进行加权,得到一张低分辨率的深度图。
8.根据权利要求1所述的一种基于多平面扫描的端到端网络的多视点场景重建方法,其特征在于:
所述估计一个低分辨率的深度图,包括:
(a)用三个相同结构但是不共享参数的U-Net 3D卷积网络来提取深度的概率分布;通过整个神经网络的损失将U-Net的输出对应为参考图像沿着深度方向在不同深度上的概率分布,输出为一个概率体;
(b)根据深度概率分布的熵来融合深度信息;对于参考图像的每个像素有三个不同的概率估计,选择熵最小的概率估计作为该像素点沿着深度方向的概率分布,再使用softmax回归,得到该像素点的一个深度估计;对所有像素点重复这个操作,得到最低分辨率距离参考坐标系原点的距离图;
(c)将估计出来的三张参考图像在不同虚拟扫描平面下的距离图转化为世界坐标系下的深度图,得到参考图像的三张深度估计图。
9.根据权利要求1所述的一种基于多平面扫描的端到端网络的多视点场景重建方法,其特征在于:
所述将所述低分辨率的深度图进行上采样,并且联合更高分辨率的特征图对深度图进行细化,直到得到原图像大小的深度图为止,包括:
将上一级估计出来的低分辨率的深度图进行上采样到一个更大的深度图上,再对这个深度图进行细化,得到原图大小的深度图,完成对单张参考图像深度的估计。
10.根据权利要求1所述的一种基于多平面扫描的端到端网络的多视点场景重建方法,其特征在于:
所述将所述低分辨率的深度图进行上采样,并且联合更高分辨率的特征图对深度图进行细化,直到得到原图像大小的深度图为止,包括:
(a)将初步估计的深度图进行优化和调整;将低分辨率的深度图进行上采样,得到一个初步的深度估计,在所述深度估计附近进行采样估计;
(b)构建法向量垂直于参考图像相机坐标系的假设平面的成本量,沿着假设平面法向量方向在所述深度估计附近采样8个深度值,对深度进行更精细的估计;
(c)对低分辨率的深度图重复上采样和细化的过程直到得到与输入图像大小相同的深度图为止,即得到参考图像的深度估计图。
CN202110312406.3A 2021-03-24 2021-03-24 一种基于多平面扫描的端到端网络的多视点场景重建方法 Pending CN113096174A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110312406.3A CN113096174A (zh) 2021-03-24 2021-03-24 一种基于多平面扫描的端到端网络的多视点场景重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110312406.3A CN113096174A (zh) 2021-03-24 2021-03-24 一种基于多平面扫描的端到端网络的多视点场景重建方法

Publications (1)

Publication Number Publication Date
CN113096174A true CN113096174A (zh) 2021-07-09

Family

ID=76669382

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110312406.3A Pending CN113096174A (zh) 2021-03-24 2021-03-24 一种基于多平面扫描的端到端网络的多视点场景重建方法

Country Status (1)

Country Link
CN (1) CN113096174A (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2061005A2 (en) * 2007-11-16 2009-05-20 Gwangju Institute of Science and Technology Device and method for estimating depth map, and method for generating intermediate image and method for encoding multi-view video using the same
US20170019653A1 (en) * 2014-04-08 2017-01-19 Sun Yat-Sen University Non-feature extraction-based dense sfm three-dimensional reconstruction method
CN108510573A (zh) * 2018-04-03 2018-09-07 南京大学 一种基于深度学习的多视点人脸三维模型重建的方法
EP3382645A2 (en) * 2017-03-27 2018-10-03 3Dflow srl Method for generation of a 3d model based on structure from motion and photometric stereo of 2d sparse images
KR102141319B1 (ko) * 2019-12-09 2020-08-04 이화여자대학교 산학협력단 다시점 360도 영상의 초해상화 방법 및 영상처리장치
CN111612898A (zh) * 2020-06-18 2020-09-01 腾讯科技(深圳)有限公司 图像处理方法、装置、存储介质及电子设备
US20200364928A1 (en) * 2018-03-08 2020-11-19 Intel Corporation Methods and apparatus to generate a three-dimensional (3d) model for 3d scene reconstruction
US20210012561A1 (en) * 2019-07-12 2021-01-14 Adobe Inc. Deep novel view and lighting synthesis from sparse images

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2061005A2 (en) * 2007-11-16 2009-05-20 Gwangju Institute of Science and Technology Device and method for estimating depth map, and method for generating intermediate image and method for encoding multi-view video using the same
US20170019653A1 (en) * 2014-04-08 2017-01-19 Sun Yat-Sen University Non-feature extraction-based dense sfm three-dimensional reconstruction method
EP3382645A2 (en) * 2017-03-27 2018-10-03 3Dflow srl Method for generation of a 3d model based on structure from motion and photometric stereo of 2d sparse images
US20200364928A1 (en) * 2018-03-08 2020-11-19 Intel Corporation Methods and apparatus to generate a three-dimensional (3d) model for 3d scene reconstruction
CN108510573A (zh) * 2018-04-03 2018-09-07 南京大学 一种基于深度学习的多视点人脸三维模型重建的方法
US20210012561A1 (en) * 2019-07-12 2021-01-14 Adobe Inc. Deep novel view and lighting synthesis from sparse images
KR102141319B1 (ko) * 2019-12-09 2020-08-04 이화여자대학교 산학협력단 다시점 360도 영상의 초해상화 방법 및 영상처리장치
CN111612898A (zh) * 2020-06-18 2020-09-01 腾讯科技(深圳)有限公司 图像处理方法、装置、存储介质及电子设备

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
XIAODONG GU. ET AL: "Cascade Cost Volume for High-Resolution Multi-View Stereo and Stereo Matching", 《PROCEEDINGS OF THE IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》, pages 2495 - 2502 *
YAO YAO. ET AL: "MVSNet: Depth Inference for Unstructured Multi-view Stereo", 《PROCEEDINGS OF THE EUROPEAN CONFERENCE ON COMPUTER VISION》, pages 767 *
杨贞: "《图像特征处理技术及应用》", 科学技术文献出版社, pages: 149 - 150 *

Similar Documents

Publication Publication Date Title
CN109377530B (zh) 一种基于深度神经网络的双目深度估计方法
CN110880162B (zh) 基于深度学习的快照光谱深度联合成像方法及系统
CN114666564B (zh) 一种基于隐式神经场景表示进行虚拟视点图像合成的方法
KR102141319B1 (ko) 다시점 360도 영상의 초해상화 방법 및 영상처리장치
US11641457B2 (en) Method for high-precision true color three-dimensional reconstruction of a mechanical component
CN113506336B (zh) 一种基于卷积神经网络和注意力机制的光场深度预测方法
CN109949354B (zh) 一种基于全卷积神经网络的光场深度信息估计方法
Jin et al. Light field super-resolution via attention-guided fusion of hybrid lenses
CN112750201A (zh) 三维重建方法及相关装置、设备
KR102422822B1 (ko) 경쟁적 학습을 이용한 3차원 얼굴 이미지 합성 장치 및 방법
CN114782636A (zh) 三维重建方法、装置及系统
CN116958437A (zh) 融合注意力机制的多视图重建方法及系统
CN114332125A (zh) 点云重建方法、装置、电子设备和存储介质
CN116912405A (zh) 一种基于改进MVSNet的三维重建方法及系统
CN114742875A (zh) 基于多尺度特征提取和自适应聚合的双目立体匹配方法
CN113034666B (zh) 一种基于金字塔视差优化代价计算的立体匹配方法
CN111105370A (zh) 图像处理方法、图像处理装置、电子设备和可读存储介质
CN110335228B (zh) 一种图像视差的确定方法、装置及系统
CN114092540A (zh) 基于注意力机制的光场深度估计方法及计算机可读介质
CN112270701B (zh) 基于分组距离网络的视差预测方法、系统及存储介质
CN113887568A (zh) 一种各向异性卷积的双目图像立体匹配方法
CN113840127A (zh) 一种卫星视频影像获取水域自动掩膜处理dsm的方法
CN112927348A (zh) 一种基于多视点rgbd相机高分辨率人体三维重建方法
CN117274514A (zh) 基于地空视角几何变换的遥感图像生成方法及装置
CN116778091A (zh) 基于路径聚合的深度学习多视角立体三维重建算法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination