CN110910437A - 一种复杂室内场景的深度预测方法 - Google Patents

一种复杂室内场景的深度预测方法 Download PDF

Info

Publication number
CN110910437A
CN110910437A CN201911080071.6A CN201911080071A CN110910437A CN 110910437 A CN110910437 A CN 110910437A CN 201911080071 A CN201911080071 A CN 201911080071A CN 110910437 A CN110910437 A CN 110910437A
Authority
CN
China
Prior art keywords
depth
network
features
prediction
loss function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911080071.6A
Other languages
English (en)
Other versions
CN110910437B (zh
Inventor
姚翰
孙焘
杨鑫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dalian University of Technology
Original Assignee
Dalian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dalian University of Technology filed Critical Dalian University of Technology
Priority to CN201911080071.6A priority Critical patent/CN110910437B/zh
Publication of CN110910437A publication Critical patent/CN110910437A/zh
Application granted granted Critical
Publication of CN110910437B publication Critical patent/CN110910437B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明属于计算机视觉技术领域,提供了一种复杂室内场景的深度预测方法。本发明提出的深度预测方法,使用更为全面的损失函数,将结构语义特征提取出来,包括深度特征、边缘特征、法向量特征,从而实现深度图预测的整体化、结构化、精确化,能更好的解决部分区域预测不协调的情况。另外,使用点云数据加入到网络的训练中,能更好的实现特征的提取,参数的更新,和深度图点云图一致化的预测。从而实现2D、2.5D、3D之间的联系。本发明也可以在其他三维方向上提供启示和帮助实验结果表明,本发明方法能够取得更优的实验效果,说明了方法的可行性和有效性。

Description

一种复杂室内场景的深度预测方法
技术领域
本发明属于计算机视觉技术领域,尤其涉及基于深度学习的图像语义分割技术,针对室内场景这一最常见的复杂场景,获取较高精确度的深度信息结果。
背景技术
从图像采集器到场景中各点的距离被称为深度值,将深度值作为像素所表示值的图像被称为深度图像。深度图像直接体现了场景轮廓的几何形状。而普通图片在成像过程中,并未记录对应场景下的深度信息,这将引起对物体尺寸和几何形状的错误理解。由于将光照强度或图像颜色的测量值映射到深度值时存在模糊性,因此基于一般场景下的单目图像深度预测较为困难,而通过深度采集设备直接获取深度信息又有着各自的缺陷。例如微软公司推出的Kinect 3D传感器和英特尔公司推出的RealSense智能体感相机可以直接获取深度信息,却由于作用范围有限,不适用于室外场景下的深度预测问题;传统的激光测距设备价格昂贵,不适宜推广使用。采用基于图片的深度预测方法相对于以上方法,可以有效节省硬件购买成本。这种三维重建方法可以大致划分为双目图像深度预测与单目图像深度预测两种。双目图像的深度预测具有输出效果稳定、解决方案成熟的优点,但是该方法的运算量较大,且两个相机对准容易受到诸多因素干扰,不适用于处理实时深度预测问题,而单目图像深度预测方法则兼具成本低廉和开发简单两种优点,但效果较差,难以很好的表现深度。本发明则主要关注场景理解中的对精准度要求最高的深度值预测子任务,主要针对室内环境的复杂场景,利用深度学习的方法,计算出图片中各像素的深度值结果。
单目图像深度估计的早期方法着力于手工标注的特征。该方法需要对场景做出较强的几何假设,并使用概率图模型分析解决该问题。经典方法之一是将超像素视为平面,并通过平面系数和马尔可夫条件随机场(MRF)推断深度信息,其中条件随机场被用于深度图的正则化。使用这一方法,从图像中提取局部特征和全局特征来推断对应场景下的深度信息,同时在马尔可夫条件随机场公式中引入超像素以强制执行相邻约束,则可以很好的约束像素点之间的关系,拥有较强的一致性。另一经典方法则是将图片与数据库中的深度图片进行特征匹配,找出两者间最为相似的图像,然后将提取出的深度信息进行匹配组合,用于生成最终的输出深度图。或是在文件库里检索中存储的深度图并计算中值,然后进行交叉双边滤波,这样可以使得到的深度图变得平滑。
深度学习领域的显著进步推动了使用卷积神经网络进行深度估计的研究,深度学习算法能够建立起输入与输出之间的多维映射,对于深度预测来说,它能够建立起输入图像与输出深度值间的像素级别的映射,并且整个过程快速、独立、完整,完全不需要人为的参与。深度学习分割方法相对于传统方法能够取得显著效果提升的根本原因是深度学习能够学习到图像中合适的特征表示,目前,由于深度估计与语义分割方法密切相关,大多数的基于深度学习技术的深度估计算法与语义分割算法相同,同来源属于一个共同的先驱分割模型,全卷积网络(FCN)。Laina等人首先将FCN网络运用到深度估计的任务中,该方法将整个网络看作是Encoder-Decoder的过程,这样能更好的利用GPU的性能,也能处理任意大小的图像。Xu等人把卷积神经网络(CNN)和图模型方法结合起来以改进FCN,引用多尺度的信息结合低维度和高维度的特征以解决像素级的分类回归问题,将图模型很好的表达能力与CNN模型的特征提取能力结合起来,得到更好的效果。
近年来基于深度学习技术,出现了很多深度预测方法,但由于数据集的稀少和质量不佳也导致模型的训练很难应对场景的切换和颜色纹理不同带来的特征变化,且缺乏深度图必有的结构性,在复杂场景中表现较差,准确度将严重下降。因此,可以看出当前阶段,深度方法依然需要进一步提高其鲁棒性。尤其针对物体较多的室内场景,需要获得更多的关注,这也是本发明的目的所在。
发明内容
本发明针对复杂室内场景进行深度图预测(depth map prediction),目的是从自然图像中精确提取出信息,通过计算和预测,得到各个像素点对于相机相对距离,在图像中用0到255的灰度值表示,所得到的深度图可以为后续的三维重建,目标检测等任务提供输入。另一方面,利用彩色图片中隐含的结构性信息,将其提取出来与深度特征相结合,使得深度信息与结构信息之间能进行相互约束,以致预测结果精细化,
本发明的技术方案:
为了实现直接的端到端的深度预测网络,本发明提出基于结构特征结合的深度值预测算法。基于深度图预测的特殊性,与其他的计算机视觉任务不同,深度图预测旨在提取出与图形图像结构相关的特征,例如法向量特征,边缘特征,平面特征等,而本发明在基于以上特征的基础上,加入三维点云特征进行对预测精度的提升,最后,合理分配各特征之间的权重,从而达到最好的结果。
一种复杂室内场景的深度预测方法,步骤如下:
(一)基于结构的深度预测网络架构
基于迁移学习的语义分割网络包括以下四个部分:
(1)编码器部分:编码器负责提取多种尺度的特征,编码器采用ResNet的网络结构前半部分,包含5个卷积层以及残差和Bottleneck结构,用来减小参数加速收敛,并获得包含1024个通道的特征图;随后将获得的1024个通道的特征图进行实例标准化,并对特征进行正则化,得到1/4,1/8,1/16和1/32四个尺度的特征;
(2)解码器部分:采用四个向上投影模块来逐步放大编码器的最终特征,同时减少通道的数量,将1/32的特征转化为1/2的尺度特征;
(3)多尺度特征融合模块部分:使用向上投影和通道连接来集成来自编码器的四种尺度的特征;具体地说,四个编码器块(每个具有16个通道)的输出分别被×2,×4,×8和×16上采样,以便具有与最终输出相同的大小;这种上采样以通道方式完成,然后将它们连接起来并通过卷积层进一步变换以获得具有64个通道的输出;多尺度特征融合模块的主要目的是将多个尺度的不同信息合并为一个;从而使编码器的下层输出保留了具有更精细空间分辨率的信息,这应该用于恢复由于下采样的多次应用而丢失的精细细节。
细化模块部分:将解码器部分得到的特征和多尺度特征融合模块得到的特征进行融合和卷积恢复,细化模块将得到的特征分别送入两个不同的卷积结构中,其中一个包含3个卷积层,得到用于优化网络的3通道点云特征,另一个包含4个卷积层,能得到单通道的深度图像;
(二)数据集采集
首先对NYUdepth v2数据集进行处理,得到包含RGB图片、深度图片、表面向量图片、边界图片和点云特征图的合成数据集,再结合SUNCG数据集中的对应内容组成完整的训练数据;
(三)训练步骤
首先需要对网络输入室内场景的RGB图像I,将预测出的深度图像D与真实的深度图像G进行损失函数的计算从而训练网络。
总体的损失函数由4部分组成,其函数表示如公式(1):
Figure BDA0002263678330000041
其中,深度损失函数ldepth为常见的对数损失,如公式(3)所示,此函数可以约束预测深度(di)与实际深度(gi)间的不同,为该损失函数的主要部分。
Figure BDA0002263678330000042
梯度损失函数lgrad如公式(4)所示,此函数能约束点在x轴,y轴上的梯度变化
Figure BDA0002263678330000043
能敏感的检测出边缘信息,深度通常在物体的边界处是不连续的。
Figure BDA0002263678330000044
向量损失函数lnormal如公式(5)所示,由于测量估计深度图表面法线相对于其真实数据表面法线的准确性。虽然这种损失也是根据深度梯度计算出来的,但它测量的是两个表面法线之间
Figure BDA0002263678330000051
的角度,因此此损失对深度结构很敏感,能够提升预测深度的结构一致性。
Figure BDA0002263678330000052
点距离损失函数ldistence如公式(6)所示,此损失为点云部分的约束,对于点云图上的每个点p,能与稀疏的点云结构上的最近点q计算点距离来进行约束,来优化网络的参数,使得网络在进行深度预测时,更能从结构层面考虑。由于点云的顺序不确定性,在设计损失函数时,通过几何最近点匹配保持结构一致性。
Figure BDA0002263678330000053
由于四部分损失函数的目的不同,在设计时要进行加权处理,如公式(1)中的γ,μ,
Figure BDA0002263678330000054
可根据结果进行调参来更好的训练网络。
将训练数据多线程分批输送到待训练的网络模型中,最后使用反向传播的梯度下降方法和Adam优化器迭代更新网络参数,直到达到预定迭代次数或者是多轮迭代后训练误差不再发生变化后停止,完成网络的训练。
本发明的有益效果:本发明提出了一种端对端的室内场景深度预测模型。使用更为全面的损失函数,将结构语义特征提取出来,包括深度特征、边缘特征、法向量特征,从而实现深度图预测的整体化、结构化、精确化,能更好的解决部分区域预测不协调的情况。另外,使用点云数据加入到网络的训练中,能更好的实现特征的提取,参数的更新,和深度图点云图一致化的预测。从而实现2D、2.5D、3D之间的联系。本发明也可以在其他三维方向上提供启示和帮助实验结果表明,本发明方法能够取得更优的实验效果,说明了方法的可行性和有效性。
附图说明
图1为方法流程架构图。室内场景图片的深度预测网络是一个全卷积网络结构,主网络用于图片特征的提取和预测,结构恢复部分用于对特征转换后的深度值进行约束和优化,提高网络的收敛效果和结果的一致性。
具体实施方式
以下结合附图和及时方案,进一步说明本发明的具体实施方式。
(一)训练集划分
首先使用open3d工具处理NYU数据集中的1000对深度图片和RGB图片,得到表面向量图片,边界图片,点云特征图,与其原有的深度图片和RGB图片组成新的合成场景组。
使用SUNCG数据集中的10000组随机场景组和NYU数据集的合成场景组作为数据集,本发明使用双线性插值将图像从原始尺寸(640×480)下采样到480×240像素,然后裁剪它们的中心部分以获得具有480×224像素的图像对于训练,深度图被下采样到114×152以适合输出的大小。并按照8:2的比例划分训练集和测试集。
(二)网络训练
首先将室内场景RGB图像与对应的真实深度图像和部分点云结构图像一同送入模型迭代训练20次,学习率设定在0.0001,并且每训练5次将学习率下调10%,在损失函数中,对应的权重值分别为γ=0.5,μ=0.5,
Figure BDA0002263678330000061
在网络训练时,本发明使用的是Ubuntu操作系统的服务器,配备Intel(R)Xeon(R)CPU I7-8700的3.2GHz的CPU处理器,系统内存为128GB,使用RTX2080Ti显卡,显存为12GB。代码使用Python3编程语言,在Pytorch深度学习框架下进行实验模型的训练及测试。在训练时需要加入想要将此发明应用到的特定室内场景的情况下的数据集,以此来提升网络对特定场景的预测效果。
(三)测试与应用
本发明主要针对室内复杂场景的深度预测问题,对输入的室内场景图像的分辨率大小没有限制,不需要对输入图像进行预处理便可直接将图片输入到网络中。
在测试和应用时,首先创建目标场景图像文件夹和输出深度图像文件夹,修改代码中的文件路径参数,加载训练好的模型,就会得到一个对应的室内场景图像的深度预测效果。除了深度图的视觉效果可供参考外,也可以查看网络运行后保存的rmse,rel,log10等指标,本例子为0.709,0.140,0.091。

Claims (1)

1.一种复杂室内场景的深度预测方法,其特征在于,步骤如下:
(一)基于结构的深度预测网络架构
基于迁移学习的语义分割网络包括以下四个部分:
(1)编码器部分:编码器负责提取多种尺度的特征,编码器采用ResNet的网络结构前半部分,包含5个卷积层以及残差和Bottleneck结构,获得包含1024个通道的特征图;将获得的1024个通道的特征图进行实例标准化,并对特征进行正则化,得到1/4,1/8,1/16和1/32四个尺度的特征;
(2)解码器部分:采用四个向上投影模块来逐步放大编码器的最终特征,同时减少通道的数量,将1/32的特征转化为1/2的尺度特征;
(3)多尺度特征融合模块部分:使用向上投影和通道连接来集成来自编码器的四种尺度的特征;四个编码器块的输出分别被×2,×4,×8和×16上采样,最终输出相同的大小;上采样以通道方式完成,然后将它们连接起来并通过卷积层进一步变换以获得具有64个通道的输出;
细化模块部分:将解码器部分得到的特征和多尺度特征融合模块得到的特征进行融合和卷积恢复,细化模块将得到的特征分别送入两个不同的卷积结构中,其中一个包含3个卷积层,得到用于优化网络的3通道点云特征;另一个包含4个卷积层,得到单通道的深度图像;
(二)数据集采集
首先对NYUdepth v2数据集进行处理,得到包含RGB图片、深度图片、表面向量图片、边界图片和点云特征图的合成数据集,再结合SUNCG数据集中的对应内容组成完整的训练数据;
(三)训练网络
首先需要对网络输入室内场景的RGB图像I,将预测出的深度图像D与真实的深度图像G进行损失函数的计算,从而训练网络;
总体损失函数由4部分组成,其函数表示如公式(1):
Figure FDA0002263678320000021
其中,深度损失函数ldepth为常见的对数损失,如公式(3)所示,此函数用于约束预测深度di与实际深度gi间的不同,为总体损失函数的主要部分;
Figure FDA0002263678320000022
梯度损失函数lgrad如公式(4)所示,此函数约束点在x轴,y轴上的梯度变化
Figure FDA0002263678320000023
用于检测出边缘信息,深度在物体的边界处是不连续的;
Figure FDA0002263678320000024
向量损失函数lnormal如公式(5)所示,用于测量估计深度图表面法线相对于其真实数据表面法线的准确性;虽然这种损失也是根据深度梯度计算出来的,但测量的是两个表面法线之间
Figure FDA0002263678320000025
的角度;因此该损失对深度结构很敏感,能提升预测深度的结构一致性;
Figure FDA0002263678320000026
点距离损失函数ldistence如公式(6)所示,此损失为点云部分的约束,对于点云图上的每个点p,与稀疏的点云结构上的最近点q计算点距离来进行约束,进而优化网络的参数,使得网络在进行深度预测时,更能从结构层面考虑;由于点云的顺序不确定性,在设计损失函数时,通过几何最近点匹配保持结构一致性;
Figure FDA0002263678320000027
四部分损失函数的目的不同,在设计时要进行加权处理,如公式(1)中的γ,μ,
Figure FDA0002263678320000031
根据结果进行调参来更好的训练网络;
将训练数据多线程分批输送到待训练的网络模型中,最后使用反向传播的梯度下降方法和Adam优化器迭代更新网络参数,直到达到预定迭代次数或是多轮迭代后训练误差不再发生变化后停止,完成网络的训练。
CN201911080071.6A 2019-11-07 2019-11-07 一种复杂室内场景的深度预测方法 Active CN110910437B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911080071.6A CN110910437B (zh) 2019-11-07 2019-11-07 一种复杂室内场景的深度预测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911080071.6A CN110910437B (zh) 2019-11-07 2019-11-07 一种复杂室内场景的深度预测方法

Publications (2)

Publication Number Publication Date
CN110910437A true CN110910437A (zh) 2020-03-24
CN110910437B CN110910437B (zh) 2021-11-05

Family

ID=69816344

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911080071.6A Active CN110910437B (zh) 2019-11-07 2019-11-07 一种复杂室内场景的深度预测方法

Country Status (1)

Country Link
CN (1) CN110910437B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111724478A (zh) * 2020-05-19 2020-09-29 华南理工大学 一种基于深度学习的点云上采样方法
CN111860425A (zh) * 2020-07-30 2020-10-30 清华大学 一种深度多模态跨层交叉融合方法、终端设备及存储介质
CN112150531A (zh) * 2020-09-29 2020-12-29 西北工业大学 一种鲁棒的自监督学习单帧图像深度估计方法
CN112750155A (zh) * 2021-01-15 2021-05-04 福州大学 基于卷积神经网络的全景深度估计方法
CN113284173A (zh) * 2021-04-20 2021-08-20 中国矿业大学 基于伪激光雷达的端到端的场景流、位姿联合学习方法
CN113436220A (zh) * 2021-05-28 2021-09-24 华东师范大学 一种基于深度图分割的图像背景估计方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107292234A (zh) * 2017-05-17 2017-10-24 南京邮电大学 一种基于信息边缘和多模态特征的室内场景布局估计方法
CN109255833A (zh) * 2018-09-30 2019-01-22 宁波工程学院 基于语义先验和渐进式优化宽基线致密三维场景重建方法
US20190139179A1 (en) * 2017-11-03 2019-05-09 Baidu Usa Llc Systems and methods for unsupervised learning of geometry from images using depth-normal consistency

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107292234A (zh) * 2017-05-17 2017-10-24 南京邮电大学 一种基于信息边缘和多模态特征的室内场景布局估计方法
US20190139179A1 (en) * 2017-11-03 2019-05-09 Baidu Usa Llc Systems and methods for unsupervised learning of geometry from images using depth-normal consistency
CN109255833A (zh) * 2018-09-30 2019-01-22 宁波工程学院 基于语义先验和渐进式优化宽基线致密三维场景重建方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
DAVID EIGEN 等: "Predicting Depth, Surface Normals and Semantic Labels with a Common Multi-scale Convolutional Architecture", 《ICCV2015》 *
ZHENYU ZHANG 等: "Pattern-Affinitive Propagation across Depth, Surface Normal and Semantic Segmentation", 《HTTPS://ARXIV.ORG/ABS/1906.03525》 *
张钰 等: "多任务学习", 《HTTP://KNS.CNKI.NET/KCMS/DETAIL/11.1826.TP.20190417.1526.002.HTML》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111724478A (zh) * 2020-05-19 2020-09-29 华南理工大学 一种基于深度学习的点云上采样方法
CN111724478B (zh) * 2020-05-19 2021-05-18 华南理工大学 一种基于深度学习的点云上采样方法
CN111860425A (zh) * 2020-07-30 2020-10-30 清华大学 一种深度多模态跨层交叉融合方法、终端设备及存储介质
CN112150531A (zh) * 2020-09-29 2020-12-29 西北工业大学 一种鲁棒的自监督学习单帧图像深度估计方法
CN112150531B (zh) * 2020-09-29 2022-12-09 西北工业大学 一种鲁棒的自监督学习单帧图像深度估计方法
CN112750155A (zh) * 2021-01-15 2021-05-04 福州大学 基于卷积神经网络的全景深度估计方法
CN112750155B (zh) * 2021-01-15 2022-07-01 福州大学 基于卷积神经网络的全景深度估计方法
CN113284173A (zh) * 2021-04-20 2021-08-20 中国矿业大学 基于伪激光雷达的端到端的场景流、位姿联合学习方法
CN113284173B (zh) * 2021-04-20 2023-12-19 中国矿业大学 一种基于伪激光雷达的端到端的场景流、位姿联合学习方法
CN113436220A (zh) * 2021-05-28 2021-09-24 华东师范大学 一种基于深度图分割的图像背景估计方法

Also Published As

Publication number Publication date
CN110910437B (zh) 2021-11-05

Similar Documents

Publication Publication Date Title
CN110910437B (zh) 一种复杂室内场景的深度预测方法
Ming et al. Deep learning for monocular depth estimation: A review
CN110458939B (zh) 基于视角生成的室内场景建模方法
CN109791697B (zh) 使用统计模型从图像数据预测深度
CN112001960B (zh) 基于多尺度残差金字塔注意力网络模型的单目图像深度估计方法
Zhang et al. Deep hierarchical guidance and regularization learning for end-to-end depth estimation
CN110009674B (zh) 基于无监督深度学习的单目图像景深实时计算方法
CN111325794A (zh) 一种基于深度卷积自编码器的视觉同时定位与地图构建方法
CN110381268B (zh) 生成视频的方法,装置,存储介质及电子设备
CN111523398A (zh) 一种融合2d人脸检测和3d人脸识别的方法及装置
WO2022206020A1 (zh) 图像场景深度的估计方法、装置、终端设备和存储介质
WO2020134818A1 (zh) 图像处理方法及相关产品
US20200410688A1 (en) Image Segmentation Method, Image Segmentation Apparatus, Image Segmentation Device
CN111860651B (zh) 一种基于单目视觉的移动机器人半稠密地图构建方法
US11651581B2 (en) System and method for correspondence map determination
AliAkbarpour et al. Fast structure from motion for sequential and wide area motion imagery
dos Santos Rosa et al. Sparse-to-continuous: Enhancing monocular depth estimation using occupancy maps
CN116205962B (zh) 基于完整上下文信息的单目深度估计方法及系统
CN114429555A (zh) 由粗到细的图像稠密匹配方法、系统、设备及存储介质
Ubina et al. Intelligent underwater stereo camera design for fish metric estimation using reliable object matching
CN117315169A (zh) 基于深度学习多视密集匹配的实景三维模型重建方法和系统
Qin et al. Depth estimation by parameter transfer with a lightweight model for single still images
Yang et al. Mixed-scale UNet based on dense atrous pyramid for monocular depth estimation
CN110533663B (zh) 一种图像视差确定方法、装置、设备及系统
CN116310104A (zh) 一种复杂场景下的人体三维重建方法、系统及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant