CN114332186A - 一种无监督单视图船舶深度估计方法 - Google Patents
一种无监督单视图船舶深度估计方法 Download PDFInfo
- Publication number
- CN114332186A CN114332186A CN202111672271.8A CN202111672271A CN114332186A CN 114332186 A CN114332186 A CN 114332186A CN 202111672271 A CN202111672271 A CN 202111672271A CN 114332186 A CN114332186 A CN 114332186A
- Authority
- CN
- China
- Prior art keywords
- depth estimation
- network
- ship
- view
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 56
- 238000012549 training Methods 0.000 claims abstract description 39
- 230000008569 process Effects 0.000 claims abstract description 20
- 238000012360 testing method Methods 0.000 claims abstract description 16
- 238000013140 knowledge distillation Methods 0.000 claims abstract description 10
- 238000005286 illumination Methods 0.000 claims description 12
- 238000009877 rendering Methods 0.000 claims description 10
- 238000010586 diagram Methods 0.000 claims description 9
- 230000004927 fusion Effects 0.000 claims description 9
- 238000005070 sampling Methods 0.000 claims description 7
- 238000004040 coloring Methods 0.000 claims description 5
- 230000000694 effects Effects 0.000 claims description 5
- 238000012795 verification Methods 0.000 claims description 5
- 239000000284 extract Substances 0.000 claims description 4
- 238000012545 processing Methods 0.000 claims description 4
- 238000005457 optimization Methods 0.000 claims description 3
- 230000002194 synthesizing effect Effects 0.000 claims description 2
- 230000000007 visual effect Effects 0.000 claims description 2
- 238000010200 validation analysis Methods 0.000 claims 1
- 230000007547 defect Effects 0.000 abstract description 2
- 238000004821 distillation Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000008447 perception Effects 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000000137 annealing Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明涉及一种船舶深度估计方法,针对其他深度估计方法存在的缺陷,公开了一种无监督单视图船舶深度估计方法。本发明首先搭建了一个知识蒸馏网络框架,在框架下使用高性能的教师网络对低参数量的学生网络进行训练,提高学生网络的深度估计性能,获得低参数量和高性能的深度估计网络;然后,通过渲染软件和船舶3D模型构造船舶数据集;最后,在船舶数据集上对模型进行训练并测试,获得可以对船舶进行无监督单视图深度估计的网络模型。通过本发明的模型和方法首次完成基于单视图的船舶深度估计,训练过程不需要真实深度数据和复杂的图像标注,而且具有较小规模模型参数量。
Description
技术领域
本发明涉及一种船舶深度估计方法,尤其涉及一种无监督单视图船舶深度估计方法。
背景技术
深度估计作为计算机视觉的一个研究方向,是为了得到反映物体和摄像机位置距离的深度图像,深度图像可以为三维重建和距离感知等任务提供深度信息。随着航运的发展,水上交通安全越发受到重视,高效获得船舶的深度图像,对于水路交通状况的感知、船舶航行安全的保障具有重要意义。
基于深度学习的深度估计主要分为多视图深度估计方法和单视图深度估计方法。多视图深度估计方法,如基于二进制分类的方法、时序网络深度估计方法、利用MVS算法提高特征提取能力优化深度估计效果的方法,是通过输入两张不同视图的图像,对两张图像的像素点进行立体匹配,计算视差(即相同物体在两张图像中坐标变化),坐标变化信息和物体的相对位置远近相关,相对位置远的物体坐标变化小于相对位置近的物体,因此通过视差可以获得深度信息。单视图深度估计方法,如利用图像粗估计和精估计结合深度估计方法、基于残差网络的深度估计方法、基于空洞卷积的深度估计方法,是通过启发式的算法输入单张图像,通过图像自身的线索获得深度信息,并且根据模型训练的不同监督条件,还可以分为有监督(输入的所有图像均有对应的真实深度图)、半监督(输入的图像中只有部分图像有对应的真实深度图)、无监督训练(输入的所有图像均无对应的真实深度图)。
本发明涉及的无监督深度学习船舶深度估计的研究是为了解决其他深度估计方法的下列缺陷:
(1)多视图深度估计方法具有局限性。多视图深度估计方法需要对左右视图进行像素点匹配和视差计算,而像素点匹配的质量难以保证,并且这种方法有较高的算力需求。
(2)高性能的深度学习模型权重文件过于庞大,适用性低,不能在多种设备上部署。目前拥有良好深度估计表现的模型大多采用了残差网络结构,网络结构复杂,权重文件过大,这在很大程度上限制了模型在不同运算能力设备的适用性。
(3)有监督、半监督模式的深度估计需要获得真实深度数据,数据标注工作量大。模型训练中常常需要真实深度数据作为ground truth,真实数据获得难度很大,并且部分模型需要对输入数据进行标注,加重了工作量。
发明内容
针对上述问题本发明提供了一种无监督单视图船舶深度估计方法。
为了达到上述目的,本发明采用了下列技术方案:
本发明提供一种无监督单视图船舶深度估计模型,包括:教师网络深度估计模块、学生网络深度估计模块、Light Net网络、View Net网络、Albedo Net网络、SD Net网络;
其中,教师网络深度估计模块包括作编码器结构的ResNet网络、用于多维度特征处理的自适应密集特征融合ADFF结构以及作解码器结构的拉普拉斯金字塔(LPD)结构;
学生网络深度估计模块包括作编码器结构的Ghost Net网络和作解码器结构的NNConv5结构。
进一步,所述学生网络深度估计模块的NNConv5结构由五层网络组成,每层由一个Depthwise层、一个Pointwise层、一个上采样层组成;Depthwise层和Pointwise层会逐层恢复深度信息,上采样层在Depthwise层和Pointwise层后执行插值运算,使图的空间分辨率翻倍。
本发明还提供一种基于上述估计模型的无监督单视图船舶深度估计方法,包括以下步骤:
(1)无监督单视图船舶深度估计模型的建立;
(2)无监督单视图船舶深度估计知识蒸馏网络框架的建立;
(3)构建船舶深度估计数据集;
(4)无监督单视图船舶深度估计模型的训练;
(5)无监督单视图船舶深度估计模型的测试。
进一步,所述无监督单视图船舶深度估计模型包括教师网络深度估计模块、学生网络深度估计模块、Light Net网络、View Net网络、Albedo Net网络、SD Net网络;其中,
教师网络深度估计模块建立的过程为:使用高性能的ResNet网络作为编码器结构,使用自适应密集特征融合ADFF结构对多个维度的特征进行处理,最后使用拉普拉斯金字塔结构(LPD)作为模块的解码器结构;
学生网络深度估计模块建立的过程为:使用Ghost Net网络作为编码器结构,使用添加Depthwise和Pointwise结构的NNConv5结构作为深度估计模块的解码器结构;
Light Net网络、View Net网络、Albedo Net网络、SD Net网络分别用于提取图像的光照信息、视角信息、反照度图和对称信息图。
进一步,所述无监督单视图船舶深度估计知识蒸馏网络框架建立的具体过程为:首先,将单张RGB图像输入结构复杂且性能强大的教师网络深度估计模块和Light Net网络、View Net网络、Albedo Net网络、SD Net网络分别提取图像的深度图、光照信息、视角信息、反照度图和对称信息图;然后,将提取的光照信息和深度图通过渲染获得着色深度图;合成着色深度图、反照度图获得规范视角图,并通过正向渲染规范视角图、深度图、视角信息获得重建的RGB图像;基于输入的图像,构建重建图像的重建损失,以此回归教师网络模型的参数;最后,将教师网络深度估计模块替换为学生网络深度估计模块,构建重建损失的同时,构建相同图像输入时教师网络深度估计模块和学生网络深度估计模块的多维度对应特征图损失,通过两个损失的联合优化,轻量型学生网络获得接近于教师网络的性能。与教师网络深度估计模块相比,学生网络深度估计模块的权重文件规模大大降低。
进一步,所述船舶深度估计数据集构建的具体过程为:创建3D船舶模,使用KeyShot 3D真实感渲染软件设置光照、视角类物理参数对船舶的3D模型进行渲染,获得真实感船舶图像作为船舶深度估计数据集;所诉船舶深度估计数据集包括训练集、验证集和测试集。
进一步,所述无监督单视图船舶深度估计模型训练的具体过程为:将船舶深度估计数据集中的训练集图像变换到设定的分辨率大小,并按照Batch Size的数量分批次将变换后的单视图船舶图像输入到网络中,并按照所述无监督单视图船舶深度估计知识蒸馏网络框架建立的过程进行训练,经过多次迭代,迭代Epoch后停止训练,获得网络权重文件,并得到能够对船舶进行深度估计的模型。
进一步,所述无监督单视图船舶深度估计模型测试的具体过程为:用船舶深度估计数据集中的测试集图像测试训练后得到的能够对船舶进行深度估计的模型的效果,通过与验证集比较获得最终可用于深度估计的模型。
与现有技术相比本发明具有以下优点:
1、本发明公开了一种无监督单视图船舶深度估计模型及估计方法,能够实现单视图下船舶目标的无监督深度估计。本方法首先建立了一个无监督单视图船舶深度估计模型,基于该模型搭建了一个知识蒸馏网络框架,在框架下使用高性能的教师网络对低参数量的学生网络进行训练,提高学生网络的深度估计性能,获得低参数量和高性能的深度估计网络;然后,通过渲染软件和船舶3D模型构造船舶数据集;最后,在船舶数据集上对模型进行训练并测试,获得可以对船舶进行无监督单视图深度估计的网络模型。本方法首次完成基于单视图的船舶深度估计,训练过程不需要真实深度数据和复杂的图像标注,而且具有较小规模模型参数量。
2、与教师网络深度估计模块相比,学生网络深度估计模块的权重文件规模大大降低。
3、本发明为了克服真实船舶图像对模型训练造成的影响,通过创建3D船舶模型,使用渲染软件即可获得真实感图像。
附图说明
图1为本发明无监督单视图船舶深度估计模型框架图。
图2为本发明教师网络深度估计模块结构图。
图3为本发明学生网络深度估计模块结构图。
图4为本发明Albedo Net网络、View Net网络、SD Net网络、Light Net网络的结构图。
附图5为本发明船舶图像深度估计结果。
具体实施方式
下面结合本发明实施例和附图,对本发明的技术方案进行具体、详细的说明。应当指出,对于本领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干变型和改进,这些也应视为属于本发明的保护范围。
实施例1
无监督单视图船舶深度估计模型,框架图如图1所示:
所述模型包括:教师网络深度估计模块、学生网络深度估计模块、Light Net网络、View Net网络、Albedo Net网络、SD Net网络;
其中,教师网络深度估计模块包括作编码器结构的ResNet网络、用于多维度特征处理的自适应密集特征融合结构以及作解码器结构的拉普拉斯金字塔结构;学生网络深度估计模块包括作编码器结构的Ghost Net网络和作解码器结构的NNConv5结构。NNConv5结构由五层网络组成,每层由一个Depthwise层、一个Pointwise层、一个上采样层组成;Depthwise层和Pointwise层会逐层恢复深度信息,上采样层在Depthwise层和Pointwise层后执行插值运算,使图的空间分辨率翻倍。
实施例2
(1)教师网络深度估计模块设计
深度估计模块使用高性能的ResNet特征提取网络编码器、自适应密集特征融合(ADFF)结构和拉普拉斯金字塔结构解码器。ResNet特征提取网络编码器的残差网络结构如图2所示,将输出信息与输入信息拼接后得到的信息,作为下一层网络的输入信息,保护信息的完整性,一定程度上解决了信息丢失、损耗问题。编码器会向下一层输出编码器不同网络层提取的特征图,分别为原图大小的1/2,1/4,1/8,1/16,1/32。ADFF结构会对这些特征图分别进行上下采样操作,获得与输入单视图相比1/2,1/4,1/8,1/16,1/32大小的一系列特征图,然后将同一大小的特征图进行拼接后再通过卷积去除多余通道作为融合信号拉普拉斯金字塔结构作为教师网络深度估计模块的解码器,通过残差结构在解码器逐步恢复深度图时,添加ADFF获得的融合信号来恢复高分辨率特征图,具体计算为:首先对ADFF最小分辨率的进行Batch Normal标准化处理,使用Relu激活函数激活得到初步处理的特征图TL;然后,TL经过LPD处理层逐步添加不同分辨率融合信号来恢复深度图。
(2)学生网络深度估计模块设计
学生网络深度估计模块(如图3)使用GhostNet网络作为深度估计模块编码器,并使用NNConv5结构作为解码器。编码器通过多层Ghost层提取特征。Ghost层会先进行卷积运算,然后用简单的线性变换来获取更多特征,并同时使用残差结构来保持原有特征。编码器会将一部分网络层输出的特征图传输到深度估计模块解码器中。解码器NNConv5由五层网络组成,每层由一个Depthwise层、一个Pointwise层、一个上采样层组成。Depthwise层和Pointwise层会逐层恢复深度信息。上采样层在Depthwise层和Pointwise层后执行插值运算,使中间特征图的空间分辨率翻倍,以满足NNConv5残差结构的分辨率需求。
(3)设计无监督单视图船舶深度估计知识蒸馏网络框架
首先,网络将单张RGB图像作为输入,使用步骤(1)的深度估计模块提取深度信息得到深度图,使用图4中所示Light Net、View Net、Albedo Net、SD Net,分别获得光照信息、视角信息、反照度图、对称信息图。其中,光照信息与深度图通过渲染获得着色深度图。在假设深度图和反照度图相对于一个固定的垂直面对称的基础上,对深度图、反照度图进行翻转,通过融合光照信息,构建规范视角图。在规范视角下图像的对称性较好。然后,将翻转前深度图、规范视角图、视角信息输入到渲染器中,重建出图像P′;将翻转后的深度图、规范视角图、视角信息输入到渲染器中,重建出图像P″。最后,结合P′和P″,并利用对称信息图,通过公式(1)计算与初始图像的差别,以此训练整个网络。
其中,LR为渲染损失;d′,d″分别为翻转前的对称信息图和翻转后得到的对称信息图;W,H分别为图像的宽和高;P′,P″分别为翻转前重建的图像和翻转后得到的重建图像;P为原输入图像;λ1为翻转后渲染图像损失的权重。
由于仅仅使用渲染损失会导致重建图像模糊,因此损失函数中加入了感知损失,计算如公式(2),与渲染损失一样感知损失也由翻转前和翻转后两部分组成。首先,将翻转前、翻转后重建的两张图像和训练图像拆分成数层后,输入到VGG-16网络中提取特征,分别得到翻转前、翻转后重建图像与训练图像拆分后各层的特征图,比较各层特征图的差异作为感知损失,这里VGG-16网络不需要进行任何训练。
Lr=Lr1+λ2Lr2 (2)
其中,Lr为感知损失;W,H分别为图像的宽和高;P′,P″分别为翻转前重建的图像和翻转后重建图像;P为训练图像;λ2为翻转后感知损失的权重;Vi(P″),Vi(P),Vi(P′)为VGG-16网络提取的第i层训练图像、重建图像、翻转后重建图像的特征图;d′i,d″i分别为分层的第i层的翻转前对称信息图和翻转后对称信息图。
总的重建损失如公式(5)所示,由渲染损失和感知损失组成:
L=LR+λlLr (5)
其中,L为重建损失;λl为感知损失的权重。
(4)在知识蒸馏网络框架下进行学生网络无监督训练
如图1所示将教师网络的深度估计模块替换为步骤(2)得到的学生网络深度估计模块,计算重建损失和蒸馏损失进行训练,计算重建损失的训练流程同步骤(3)。在学生网络深度估计模块训练时同步向教师网络深度估计模块输入同样的RGB图像,获得教师网络一系列维度不同的特征图,结合学生网络深度估计模块中获得的一系列特征图构建蒸馏损失,具体如公式(6)所示。在蒸馏损失函数优化过程中,学生网络深度估计模块可以获得接近教师网络深度估计模块的性能。
其中,Ldi为蒸馏损失;Fs为学生网络深度估计模块提取的一组特征图;Ft为教师网络深度估计模块提取的一组特征图;fs,ft分别为Fs和Ft中相对应的特征图;W,H分别为特征图宽和高。
(5)构建船舶数据集
通过创建3D船舶模型,使用KeyShot 3D真实感渲染软件,设置不同的外部环境如光照和角度等渲染船舶模型真实感图像,获得1200张船舶图像组成的船舶数据集。以1080张图像作为数据集的训练集,120张图像为验证集,120张图像为测试集(验证集和测试集含有同种数据)。
(6)船舶数据集上的模型训练
将整个深度估计模型在步骤(5)获得的船舶数据集的训练集上进行训练,将输入图像的尺寸统一设定为128*128,Batch size设置为32,Epoch设置为100,学习率设置为0.01,模拟余弦退火策略来调整网络的学习率。通过不断迭代,使得损失函数的数值变化趋于稳定,即完成训练。最后,得到船舶深度估计模型以及网络权重文件。
(7)模型测试
模型训练后,将测试集中图像输入到训练完成的深度估计模型中,由深度估计模块输出深度图如附图5所示。表明本发明的无监督单视图船舶深度估计模型及估计方法,能够很好的实现单视图下船舶目标的无监督深度估计。
Claims (8)
1.一种无监督单视图船舶深度估计模型,其特征在于,所述模型包括:教师网络深度估计模块、学生网络深度估计模块、Light Net网络、View Net网络、Albedo Net网络、SD Net网络;
其中,教师网络深度估计模块包括作编码器结构的ResNet网络、用于多维度特征处理的自适应密集特征融合结构以及作解码器结构的拉普拉斯金字塔结构;
学生网络深度估计模块包括作编码器结构的Ghost Net网络和作解码器结构的NNConv5结构。
2.根据权利要求1所述的一种无监督单视图船舶深度估计模型,其特征在于:所述学生网络深度估计模块的NNConv5结构由五层网络组成,每层由一个Depthwise层、一个Pointwise层、一个上采样层组成;Depthwise层和Pointwise层会逐层恢复深度信息,上采样层在Depthwise层和Pointwise层后执行插值运算,使图的空间分辨率翻倍。
3.一种基于权利要求1或2任一项所述估计模型的无监督单视图船舶深度估计方法,其特征在于,包括以下步骤:
无监督单视图船舶深度估计模型的建立;
无监督单视图船舶深度估计知识蒸馏网络框架的建立;
构建船舶深度估计数据集;
无监督单视图船舶深度估计模型的训练;
无监督单视图船舶深度估计模型的测试。
4.根据权利要求3所述的一种无监督单视图船舶深度估计方法,其特征在于,所述无监督单视图船舶深度估计模型包括教师网络深度估计模块、学生网络深度估计模块、LightNet网络、View Net网络、Albedo Net网络、SD Net网络;其中,
教师网络深度估计模块建立的过程为:使用高性能的ResNet网络作为编码器结构,使用自适应密集特征融合结构对多个维度的特征进行处理,最后使用拉普拉斯金字塔结构作为模块的解码器结构;
学生网络深度估计模块建立的过程为:使用Ghost Net网络作为编码器结构,使用添加Depthwise和Pointwise结构的NNConv5结构作为深度估计模块的解码器结构;
Light Net网络、View Net网络、Albedo Net网络、SD Net网络分别用于提取图像的光照信息、视角信息、反照度图和对称信息图。
5.根据权利要求3所述的一种无监督单视图船舶深度估计方法,其特征在于,所述无监督单视图船舶深度估计知识蒸馏网络框架建立的具体过程为:
首先,将单张RGB图像输入教师网络深度估计模块和Light Net网络、View Net网络、Albedo Net网络、SD Net网络分别提取图像的深度图、光照信息、视角信息、反照度图和对称信息图;
然后,将提取的光照信息和深度图通过渲染获得着色深度图;合成着色深度图、反照度图获得规范视角图,并通过正向渲染规范视角图、深度图、视角信息获得重建的RGB图像;基于输入的图像,构建重建图像的重建损失,以此回归教师网络模型的参数;
最后,将教师网络深度估计模块替换为学生网络深度估计模块,构建重建损失的同时,构建相同图像输入时教师网络深度估计模块和学生网络深度估计模块的多维度对应特征图损失,通过两个损失的联合优化,轻量型学生网络获得接近于教师网络的性能。
6.根据权利要求3所述的一种无监督单视图船舶深度估计方法,其特征在于,所述船舶深度估计数据集构建的具体过程为:创建3D船舶模型,使用KeyShot 3D真实感渲染软件设置光照、视角类物理参数对船舶的3D模型进行渲染,获得真实感船舶图像作为船舶深度估计数据集;所述船舶深度估计数据集包括训练集、验证集和测试集。
7.根据权利要求3所述的一种无监督单视图船舶深度估计方法,其特征在于,所述无监督单视图船舶深度估计模型训练的具体过程为:将船舶深度估计数据集中的训练集图像变换到设定的分辨率大小,并按照Batch Size的数量分批次将变换后的单视图船舶图像输入到网络中,并按照所述无监督单视图船舶深度估计知识蒸馏网络框架建立的过程进行训练,经过多次迭代,迭代Epoch后停止训练,获得网络权重文件,并得到能够对船舶进行深度估计的模型。
8.根据权利要求3所述的一种无监督单视图船舶深度估计方法,其特征在于,所述无监督单视图船舶深度估计模型测试的具体过程为:用船舶深度估计数据集中的测试集图像测试训练后得到的能够对船舶进行深度估计的模型的效果,通过与验证集比较获得最终可用于深度估计的模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111672271.8A CN114332186A (zh) | 2021-12-31 | 2021-12-31 | 一种无监督单视图船舶深度估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111672271.8A CN114332186A (zh) | 2021-12-31 | 2021-12-31 | 一种无监督单视图船舶深度估计方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114332186A true CN114332186A (zh) | 2022-04-12 |
Family
ID=81021335
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111672271.8A Pending CN114332186A (zh) | 2021-12-31 | 2021-12-31 | 一种无监督单视图船舶深度估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114332186A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114742950A (zh) * | 2022-04-19 | 2022-07-12 | 上海海事大学 | 船舶外形3d数字重构方法、装置、存储介质及电子设备 |
-
2021
- 2021-12-31 CN CN202111672271.8A patent/CN114332186A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114742950A (zh) * | 2022-04-19 | 2022-07-12 | 上海海事大学 | 船舶外形3d数字重构方法、装置、存储介质及电子设备 |
CN114742950B (zh) * | 2022-04-19 | 2024-02-02 | 上海海事大学 | 船舶外形3d数字重构方法、装置、存储介质及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108921926B (zh) | 一种基于单张图像的端到端三维人脸重建方法 | |
CN112767468A (zh) | 基于协同分割与数据增强的自监督三维重建方法及系统 | |
CN113240613A (zh) | 一种基于边缘信息重建的图像修复方法 | |
CN105654492A (zh) | 基于消费级摄像头的鲁棒实时三维重建方法 | |
CN110009722A (zh) | 三维重建方法及装置 | |
CN110009674A (zh) | 基于无监督深度学习的单目图像景深实时计算方法 | |
CN113313732A (zh) | 一种基于自监督学习的前视场景深度估计方法 | |
CN114359509B (zh) | 一种基于深度学习的多视图自然场景重建方法 | |
CN114782634B (zh) | 基于表面隐函数的单目图像着装人体重建方法与系统 | |
CN112132770A (zh) | 图像修复的方法、装置、计算机可读介质及电子设备 | |
CN115908753B (zh) | 一种全身人体网格表面重建方法及相关装置 | |
CN110766623A (zh) | 一种基于深度学习的立体图像修复方法 | |
CN110930500A (zh) | 一种基于单视角视频的动态头发建模方法 | |
CN113077545B (zh) | 一种基于图卷积的从图像中重建着装人体模型的方法 | |
CN116385667B (zh) | 三维模型的重建方法、纹理重构模型的训练方法以及装置 | |
CN114677479A (zh) | 一种基于深度学习的自然景观多视图三维重建方法 | |
CN112785502A (zh) | 一种基于纹理迁移的混合相机的光场图像超分辨率方法 | |
CN115330935A (zh) | 一种基于深度学习的三维重建方法及系统 | |
CN117315169A (zh) | 基于深度学习多视密集匹配的实景三维模型重建方法和系统 | |
CN114219900B (zh) | 基于混合现实眼镜的三维场景重建方法、重建系统和应用 | |
CN116229394A (zh) | 一种自动驾驶图像识别方法、装置及识别设备 | |
CN104463962A (zh) | 基于gps信息视频的三维场景重建方法 | |
CN114332186A (zh) | 一种无监督单视图船舶深度估计方法 | |
CN110889868A (zh) | 一种结合梯度和纹理特征的单目图像深度估计方法 | |
CN114494395A (zh) | 基于平面先验的深度图生成方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |