CN115393410A - 一种基于神经辐射场和语义分割的单目视图深度估计方法 - Google Patents

一种基于神经辐射场和语义分割的单目视图深度估计方法 Download PDF

Info

Publication number
CN115393410A
CN115393410A CN202210854710.5A CN202210854710A CN115393410A CN 115393410 A CN115393410 A CN 115393410A CN 202210854710 A CN202210854710 A CN 202210854710A CN 115393410 A CN115393410 A CN 115393410A
Authority
CN
China
Prior art keywords
depth
information
map
network
semantic segmentation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210854710.5A
Other languages
English (en)
Inventor
杨杰
马利庄
宋海川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
East China Normal University
Original Assignee
East China Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by East China Normal University filed Critical East China Normal University
Priority to CN202210854710.5A priority Critical patent/CN115393410A/zh
Publication of CN115393410A publication Critical patent/CN115393410A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/52Scale-space analysis, e.g. wavelet analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于神经辐射场和语义分割的单目视图深度估计方法,其特点是采用基于神经辐射场的语义分割或者部件分割的方法,利用增强的语义信息提升网络的拟合和自适应能力,实现对单场景下多张视图进行深度估计,具体包括:1)深度先验预测;2)深度先验优化;3)神经辐射场训练;4)体渲染输出深度图等步骤。本发明与现有技术相比具有解决了常规单目深度估计问题中低纹理区域特征不足和自遮挡导致的缝隙深度误差问题,提升了网络的拟合和自适应能力,增强了语义信息,从而提高了深度尤其是低纹理区域和边缘区域深度的预测效果,方法简便,使用效果好,优势,具有广泛的应用前景。

Description

一种基于神经辐射场和语义分割的单目视图深度估计方法
技术领域
本发明涉及三维重建单目深度估计技术领域,尤其是一种基于神经辐射场与语义分割信息的单目视图深度估计方法。
背景技术
单目深度估计问题是三维重建领域十分重要的任务,是进行三维重建各类下游任务的前提条件。传统单目深度的获得基本上由深度相机拍摄获取,其估计问题则常常利用运动推断结构法和多视角立体法进行计算,由于这类方法依赖图片质量和纹理特征,所以存在其固有局限性,因而后期发展缓慢。随着深度学习领域的发展,三维重建领域的各类歧义问题引入了新的解法。基于深度学习的三维重建和深度估计技术在最近的几年内发展迅速。单目深度估计是三维重建深度估计中最重要的环节,因为其硬件要求低、操作便利,落地性强,所以是串起整个三维重建流程的重要一环,也为后续的虚拟增强现实技术、机器人技术以及自动驾驶技术等提供强有力的支持。
现有的基于深度学习的单目深度估计方法缺乏对低纹理区域特征不足问题的解决方案,无法处理室内场景下难以拥有全局信息时深度歧义的问题。此外,由于室内物体之间相互遮挡关系复杂,常规深度估计方法和神经辐射场算法都难以应对遮挡导致的深度突变问题,使得在部分缝隙处深度估计受前景影响,误差极大。
发明内容
本发明的目的是针对现有技术的不足而提供的一种基于神经辐射场和语义分割的单目视图深度估计方法,采用基于神经辐射场的语义分割或者部件分割的方法,利用增强的语义信息提升网络的拟合和自适应能力,实现对单场景下多张视图进行深度估计,有效处理了室内场景下难以拥有全局信息时深度歧义,以及遮挡导致的深度突变问题,使得在部分缝隙处深度估计不受前景影响,误差小,大大提高了单目视图深度深度,尤其是低纹理区域和边缘区域深度的预测效果。该方法使用语义分割网络和深度预测网络构建三维场景或者物体点云进行语义分割或者部件分割系统,将学习的几何卷积核提取点云几何特征,使用网络对点云的边缘进行预测并利用边缘信息更好地提取局部特征,使得点云尤其是边缘区域拥有更好的分割效果。利用场景的语义信息提高图片的物体区分度,解决低纹理区域特征不足问题,并且利用神经辐射场加强全局信息学习,生成的颜色图和语义分割图对网络得到的密度概率信息进行指导,获得更合理和解决真实值的深度信息,有效解决了常规单目深度估计问题中低纹理区域特征不足和自遮挡导致的缝隙深度误差问题,方法简便,使用效果好,优势,具有广泛的应用前景。
实现本发明目的的具体技术方案是:一种基于神经辐射场和语义分割的单目视图深度估计方法,其特点是采用基于神经辐射场的语义分割或者部件分割的方法,利用增强的语义信息提升网络的拟合和自适应能力,解决低纹理和自遮挡问题,实现对单场景下多张视图进行深度估计具体包括下述步骤:
步骤1:深度先验预测
1-1:将每个场景图片一起输入利用三维重建算法获得场景的稀疏点云,并将点云投影到每个视角下,获得对应视角的稀疏深度图和对应遮罩。
1-2:将场景图片单独输入到预训练的深度预测网络,利用其对应的稀疏深度图和尺度不变的损失函数进行指导获得每张图片对应的深度先验图,从而将网络过拟合到该场景,即同一场景所有图片共享网络参数。
步骤2:深度先验优化
2-1:将每个场景图片单独输入到预训练的语义分割网络,获得对应的语义分割灰度图结果,将语义分割灰度图和步骤1-2获得的深度先验图进行拼接,共同输入到优化网络。
2-2:优化网络整体呈编码器-解码器结构,提取不同尺度图片信息,并输出场景每张图片的深度预测图,对深度预测图和步骤1-1获得的稀疏深度图计算尺度不变的损失函数,并与步骤1-2深度预测网络的损失函数一起加权求和,获得总损失函数进行指导,强化场景的语义理解,优化步骤1-2获得的深度先验图。
步骤3:神经辐射场训练
3-1:利用每张图片的相机位姿参数,在每个像素对应相机视角的射线上采样,采样范围由深度先验图、以及根据深度先验图计算出的深度置信图进行指导,即将颜色图片信息转换为包含点的位置和观察视角的大量空间点的信息。
3-2:将所有三维空间点的坐标信息输入到全连接网络,在多层感知机和残差结构后输出每个点对应的密度概率值和分割信息值,同时向网络中输入空间点的视角信息,并在额外的全连接层后输出每个三维空间点的颜色信息值。
步骤4:体渲染输出深度图
4-1:利用体渲染公式和输出的密度概率信息、分割信息以及颜色信息计算每个像素的预测分割概率分布、预测颜色值,将生成的分割信息和原图对应的语义分割图信息进行比较,计算交叉熵损失;将生成的颜色信息和原图颜色信息进行比较,计算其均方方差损失;将交叉熵损失和均方方差损失的两个函数加权相加,并进行反向传播推进网络训练。
4-2:利用完成训练的密度概率信息和每个点采样时的深度信息进行体渲染,得到每个像素最终的深度值,从而完成深度图的生成。
4-3:利用体渲染得到的颜色图与输入神经辐射场的原图进行对比,计算其误差作为滤波,对得到的深度图进行过滤优化。
所述步骤1的深度先验预测利用场景图片和传统算法预先获得较准确的稀疏深度图作为指导,将常规的预训练深度网络过拟合到当前场景,且所有图片共享网络参数;所述尺度不变的损失函数是指先利用遮罩去除稀疏深度图中不可用的数据,然后利用对数函数放缩数值范围,再计算图片间平均误差,将预测结果每个像素加上平均误差再与真实参考值进行差值计算并求和。
所述步骤2的深度优化网络输入将场景图片的语义信息和深度信息拼接,利用语义信息中的类别和边缘信息指导深度图中低纹理区域和边缘区域的深度变化;所述深度优化网络用了U型编码解码结构,充分利用深度预测图和语义分割图的不同尺度信息,并在下采样时在不同尺度上加入原始的卷积层信息,将图片中不同模块的区别度加以强调。
所述步骤3的利用深度先验进行神经辐射场采样的指导包括:
A1:首先是将每张深度图投影回三维空间形成点,再投影到所有其他视角下,获
得每个视角下其他视角投影过来的深度图,并取其中K张误差最小的图作为参考计算
其平均误差,误差小的深度值相对准确,误差大的深度值则相反;
A2:然后在每个像素对应射线上深度先验的周围采样空间点,并依赖该像素的深度误差图进行采样范围的放缩,其中,由于像素深度误差只可能前景挡后景,所以设置的采样范围主要靠后偏移。
所述步骤3的神经辐射场网络除了常规的颜色输出和密度概率输出以外,额外输出与观察视角无关的语义信息,每个空间点输出包含255类语义的概率分布情况。
所述步骤4的神经辐射场网络除了利用颜色图进行自监督指导以外,还利用体渲染获得的语义分割信息和先前的语义分割图进行交叉熵计算,进一步加强语义信息的影响;所述过滤是指根据生成颜色图和原图之间的误差设计平面双边滤波器,进一步优化深度图获得最终结果。
本发明与现有技术相比具有解决了常规单目深度估计问题中低纹理区域特征不足和自遮挡导致的缝隙深度误差问题,提升了网络的拟合和自适应能力,增强了语义信息,从而提高了深度尤其是低纹理区域和边缘区域深度的预测效果,方法简便,使用效果好,优势,具有广泛的应用前景。
附图说明
图1为本发明流程图;
图2为深度先验预测流程图;
图3为神经辐射场流程图。
具体实施方式
参阅图1,本发明采用基于神经辐射场的语义分割或者部件分割的方法,利用增强的语义信息提升网络的拟合和自适应能力,实现对单场景下多张视图进行深度估计,具体包括下述步骤:
S120-130:深度先验预测;
S140-150: 深度先验优化;
S200-220: 神经辐射场训练;
S300-S320: 体渲染输出深度图。
本发明利用现有的预训练单目深度估计网络获得场景图片的深度先验,并使用传统三维重建算法获得场景稀疏点云来进行网络的过拟合,将场景图片输入至现有的预训练语义分割网络获得语义分割结果,并与深度先验一起加入进阶网络加强深度先验的语义信息,然后将图片信息输入到全连接网络学习神经辐射场,并利用深度先验指导采样范围,最后利用神经辐射场输出的语义信息进一步加强图片语义理解,从而优化深度学习,利用体渲染算法输出深度图,最后再次利用颜色图对深度图进行过滤优化。
以下结合附图及具体实施对本发明作进一步详细描述。
实施例1
步骤1:深度先验预测
参阅图2,深度先验预测具体包括下述步骤:
S100:将场景中的多视图RGB图输入到传统的三维重建算法或者软件中(本实施例使用colmap软件),获得场景三维点云。
S110:将得到的三维点云投影到每张图片对应的视角下,获得对应的稀疏深度图,同时输出对应的mask遮罩用来去除无深度区域和深度不可靠区域。
S120:将场景中图片分别单独输入到预训练好的backbone单目深度预测网络,输出对应深度先验图。
S130:利用S110得到的稀疏深度图和S120得到的深度先验图计算尺度不变的损失函数,并进行反向传播从而让网络过拟合到当前场景。
所述步骤1中将场景图片单独输入到可用的预训练好的深度预测网络,利用其对应的上述稀疏深度图和尺度不变的损失函数进行指导,从而将网络过拟合到该场景(同一场景所有图片共享网络参数)。
步骤2:深度先验优化
参阅图2,深度先验优化具体包括下述步骤:
S140-150:将场景中图片分别单独输入语义分割网络并直接进行inference预测,不训练网络,获得每张场景图片对应的语义分割图,包含带具体语义的RGB图和只区分不同类别的灰度图,这里只取灰度图。
S160:深度优化网络整体为Unet结构,上下采样各四次。网络输入为S130中获得的深度先验图和语义分割图(维度拼接),并最终输出灰度图即为优化后的深度图。
S170:同样利用S110得到的稀疏深度图和优化网络输出得到的深度图计算尺度不变的损失函数,和S130的损失函数加权在一起共同对深度预测网络和优化网络进行指导和反向传播。
所述步骤2中将每个场景图片单独输入到可用的预训练好的语义分割网络,获得对应的语义分割灰度图结果。将语义分割灰度图和S120获得的深度先验图进行拼接,共同输入到优化网络。
所述步骤2中的优化网络整体呈编码器-解码器结构,从而提取不同尺度图片信息,并再次输出场景每张图片的深度预测图,与稀疏深度图计算尺度不变的损失函数,与S130的损失函数一起加权求和获得总损失函数进行指导,从而强化场景的语义理解,优化获得的深度先验。
步骤3:神经辐射场训练
参阅图3,神经辐射场训练具体包括下述步骤:
S200:将同一场景的所有深度先验图投影到三维空间中获得对应三维空间点,并将每一张图片的三维空间点投影到其他所有视角下,从而在每个视角下获得自身的深度先验图和其他视角深度先验投影到当前视角下的深度先验图,取其中最接近本身深度先验图的K张,求出它们与本身深度先验图误差的平均值作为当前视角下深度的置信图。
S210:过场景中的任一图片的相机光圈中心做M条射线,随机选定图片上的M个像素,每条射线经过各自的像素,根据S130的深度先验设定在射线上采样的基点,采样范围依赖当前图片对应的深度置信图,如果置信图对应像素值(即误差)小,则围绕采样基点选取较小的采样范围,反之亦然。采样范围设定上下阈值,并且在基点以内的采样阈值较小,在基点以外的采样阈值较大,从而实现大部分采样发生在基点以外。对场景中所有图片进行上述同样处理,获得大量的空间点信息,包含点的位置和观察该点的视角方向。
S220:神经辐射场的网络结构整体为一个多层感知机,网络最初的输入是S210中得到的空间点的坐标信息,并在多层感知机设定的某些固定层上附加一个残差结构,重新将网络输入拼接到特征中。
S230-250:在神经辐射场多层感知机的多个隐藏层训练后输出每个点的密度概率值和语义分割概率。其中,语义分割概率是指该点属于255个语义类别的概率分布,然后将该点的观察视角信息拼接输入到网络中,继续多层感知机后输出该点的颜色值(RGB三维度)。
所述步骤3中的神经辐射场的输入数据是利用每张图片的相机位姿等参数在每个像素对应的过相机视角的射线上采样获得,采样范围由前述深度先验和根据深度先验计算出的深度置信图进行指导,即将颜色图片信息转换为大量空间点的信息,包含点的位置和观察视角。
所述步骤3中神经辐射场结构是将所有三维空间点的坐标信息输入到全连接网络,在多层感知机和残差结构后输出每个点对应的密度概率值和分割信息值,同时向网络中输入空间点的视角信息,并在额外的全连接层后输出每个三维空间点的颜色信息值。
S220:神经辐射场的网络结构整体为一个多层感知机,网络最初的输入是S210中得到的空间点的坐标信息,并在多层感知机设定的某些固定层上附加一个残差结构,重新将网络输入拼接到特征中。
步骤4:体渲染输出深度图
参阅图1,体渲染输出深度图具体包括下述步骤:
S300-S310:针对每个点在S240和S250输出的颜色值和语义分割概率,利用S230获得的密度概率值和体渲染公式对同一射线上的采样点进行体渲染,获得射线对应图片像素的颜色值和语义分割预测,接着颜色值和原图的像素RGB值计算均方方差损失、语义分割预测和S140-150产出的语义分割图计算交叉熵损失函数,将交叉熵损失和均方方差损失的两个损失函数加权求和,获得总损失函数,反向传播指导网络学习更合理的密度概率分布。
S320:利用输入神经辐射场的原图和输出的RGB图进行误差计算,不同于S310计算出整张图片的损失值,此处根据图片逐像素的误差制作置信图,并利用置信图制作平面双边滤波器,对利用体渲染得到的预测深度图(由密度概率值、采样深度计算获得)进一步进行过滤,优化得到最后的深度图结果。
所述步骤4中过滤操作是利用体渲染得到的颜色图与输入神经辐射场的原图进行对比,计算其误差作为滤波对得到的深度图进行最后的过滤优化。
以上只是对本发明作进一步的说明,并非用以限制本专利,凡为本发明等效实施,均应包含于本专利的权利要求范围之内。

Claims (9)

1.一种基于神经辐射场和语义分割的单目视图深度估计方法,其特征在于采用基于神经辐射场的语义分割或者部件分割的方法,利用增强的语义信息提升网络的拟合和自适应能力,实现对单场景下多张视图进行深度估计,具体包括下述步骤:
步骤1:深度先验预测
1-1:将每个场景图片一起输入利用三维重建算法获得场景的稀疏点云,并将点云投影到每个视角下,获得对应视角的稀疏深度图和对应遮罩;
1-2:将场景图片单独输入到预训练的深度预测网络,利用其对应的稀疏深度图和尺度不变的损失函数进行指导获得每张图片对应的深度先验图,从而将网络过拟合到该场景,即同一场景所有图片共享网络参数;
步骤2:深度先验优化
2-1:将每个场景图片单独输入到预训练的语义分割网络,获得对应的语义分割灰度图结果,将语义分割灰度图和步骤1-2获得的深度先验图进行拼接,共同输入到优化网络;
2-2:优化网络整体呈编码器-解码器结构,提取不同尺度图片信息,并输出场景每张图片的深度预测图,对深度预测图和步骤1-1获得的稀疏深度图计算尺度不变的损失函数,并与步骤1-2深度预测网络的损失函数一起加权求和,获得总损失函数进行指导,强化场景的语义理解,优化步骤1-2获得的深度先验图;
步骤3:神经辐射场训练
3-1:利用每张图片的相机位姿参数,在每个像素对应相机视角的射线上采样,采样范围由深度先验图、以及根据深度先验图计算出的深度置信图进行指导,即将颜色图片信息转换为包含点的位置和观察视角的大量空间点的信息;
3-2:将所有三维空间点的坐标信息输入到全连接网络,在多层感知机和残差结构后输出每个点对应的密度概率值和分割信息值,同时向网络中输入空间点的视角信息,并在额外的全连接层后输出每个三维空间点的颜色信息值;
步骤4:体渲染输出深度图
4-1:利用体渲染公式和输出的密度概率信息、分割信息以及颜色信息计算每个像素的预测分割概率分布、预测颜色值,将生成的分割信息和原图对应的语义分割图信息进行比较,计算交叉熵损失;将生成的颜色信息和原图颜色信息进行比较,计算其均方方差损失;将交叉熵损失和均方方差损失的两个函数加权相加,并进行反向传播推进网络训练;
4-2:利用完成训练的密度概率信息和每个点采样时的深度信息进行体渲染,得到每个像素最终的深度值,从而完成深度图的生成;
4-3:利用体渲染得到的颜色图与输入神经辐射场的原图进行对比,计算其误差作为滤波,对得到的深度图进行过滤优化。
2.根据权利要求1所述的一种基于神经辐射场和语义分割的单目视图深度估计方法,其特征在于所述步骤1-1获得的稀疏深度图作为指导是利用场景图片和三维重建算法预先获得较准确的稀疏深度图作为指导,并将预训练深度网络过拟合到当前场景,且所有图片共享网络参数。
3.根据权利要求1所述的一种基于神经辐射场和语义分割的单目视图深度估计方法,其特征在于所述步骤1-2中尺度不变的损失函数是利用尺度不变的损失函数进行反向传播,所述尺度不变的损失函数是利用遮罩去除稀疏深度图中不可用的数据,然后根据对数函数放缩数值范围,计算图片间平均误差,并将预测结果的每个像素加上平均误差后与真实参考值进行差值计算并求和。
4.根据权利要求1所述的一种基于神经辐射场和语义分割的单目视图深度估计方法,其特征在于所述步骤2-1中语义分割灰度图和步骤1获得的深度先验图进行拼接是将场景图片的语义信息和深度信息拼接,利用语义信息中的类别和边缘信息,指导深度图中低纹理区域和边缘区域的深度变化。
5.根据权利要求1所述的一种基于神经辐射场和语义分割的单目视图深度估计方法,其特征在于所述步骤2-2中优化网络使用U型编码解码结构,利用深度预测图和语义分割图的不同尺度信息,且下采样时在不同尺度上加入原始的卷积层信息,将图片中不同模块的区别度加以强调。
6.根据权利要求1所述的一种基于神经辐射场和语义分割的单目视图深度估计方法,其特征在于所述步骤3-1中根据深度先验图计算出的深度置信图进行指导,利用深度先验进行神经辐射场采样的指导,具体包括:
A1:将每张深度图投影回三维空间形成点,然后投影到所有其他视角下,获得每个视角下其他视角投影过来的深度图,并取其中K张误差最小的图作为参考计算其平均误差;
A2:在每个像素对应射线上深度先验图的周围采样空间点,并依赖该像素的深度误差图进行采样范围的放缩。
7.根据权利要求1所述的一种基于神经辐射场和语义分割的单目视图深度估计方法,其特征在于所述步骤3-2中输出每个点对应的密度概率值和分割信息值,除了常规的颜色输出和密度概率输出以外,额外输出与观察视角无关的语义信息,每个空间点输出包含255类语义的概率分布情况。
8.根据权利要求1所述的一种基于神经辐射场和语义分割的单目视图深度估计方法,其特征在于所述步骤4-1中将生成的分割信息和原图对应的语义分割图信息进行比较,除了利用颜色图进行自监督指导以外,还利用体渲染获得的语义分割信息和先前的语义分割图进行交叉熵计算,进一步加强语义信息的影响。
9.根据权利要求1所述的一种基于神经辐射场和语义分割的单目视图深度估计方法,其特征在于所述步骤4-3中计算其误差作为滤波是根据生成颜色图和原图之间的误差设计平面双边滤波器,进一步优化深度图获得最终结果。
CN202210854710.5A 2022-07-18 2022-07-18 一种基于神经辐射场和语义分割的单目视图深度估计方法 Pending CN115393410A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210854710.5A CN115393410A (zh) 2022-07-18 2022-07-18 一种基于神经辐射场和语义分割的单目视图深度估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210854710.5A CN115393410A (zh) 2022-07-18 2022-07-18 一种基于神经辐射场和语义分割的单目视图深度估计方法

Publications (1)

Publication Number Publication Date
CN115393410A true CN115393410A (zh) 2022-11-25

Family

ID=84116428

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210854710.5A Pending CN115393410A (zh) 2022-07-18 2022-07-18 一种基于神经辐射场和语义分割的单目视图深度估计方法

Country Status (1)

Country Link
CN (1) CN115393410A (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115965758A (zh) * 2022-12-28 2023-04-14 无锡东如科技有限公司 一种图协同单目实例三维重建方法
CN116152323A (zh) * 2023-04-18 2023-05-23 荣耀终端有限公司 深度估计方法、单目深度估计模型生成方法和电子设备
CN116152442A (zh) * 2023-03-30 2023-05-23 北京数原数字化城市研究中心 一种三维点云模型生成方法及装置
CN116452758A (zh) * 2023-06-20 2023-07-18 擎翌(上海)智能科技有限公司 一种神经辐射场模型加速训练方法、装置、设备及介质
CN116563303A (zh) * 2023-07-11 2023-08-08 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) 一种场景可泛化的交互式辐射场分割方法
CN116778061A (zh) * 2023-08-24 2023-09-19 浙江大学 一种基于非真实感图片的三维物体生成方法
CN117745924A (zh) * 2024-02-19 2024-03-22 北京渲光科技有限公司 基于深度无偏估计的神经渲染方法、系统及设备

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115965758A (zh) * 2022-12-28 2023-04-14 无锡东如科技有限公司 一种图协同单目实例三维重建方法
CN116152442B (zh) * 2023-03-30 2023-09-08 北京数原数字化城市研究中心 一种三维点云模型生成方法及装置
CN116152442A (zh) * 2023-03-30 2023-05-23 北京数原数字化城市研究中心 一种三维点云模型生成方法及装置
CN116152323A (zh) * 2023-04-18 2023-05-23 荣耀终端有限公司 深度估计方法、单目深度估计模型生成方法和电子设备
CN116152323B (zh) * 2023-04-18 2023-09-08 荣耀终端有限公司 深度估计方法、单目深度估计模型生成方法和电子设备
CN116452758A (zh) * 2023-06-20 2023-07-18 擎翌(上海)智能科技有限公司 一种神经辐射场模型加速训练方法、装置、设备及介质
CN116452758B (zh) * 2023-06-20 2023-10-20 擎翌(上海)智能科技有限公司 一种神经辐射场模型加速训练方法、装置、设备及介质
CN116563303A (zh) * 2023-07-11 2023-08-08 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) 一种场景可泛化的交互式辐射场分割方法
CN116563303B (zh) * 2023-07-11 2023-10-27 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) 一种场景可泛化的交互式辐射场分割方法
CN116778061A (zh) * 2023-08-24 2023-09-19 浙江大学 一种基于非真实感图片的三维物体生成方法
CN116778061B (zh) * 2023-08-24 2023-10-27 浙江大学 一种基于非真实感图片的三维物体生成方法
CN117745924A (zh) * 2024-02-19 2024-03-22 北京渲光科技有限公司 基于深度无偏估计的神经渲染方法、系统及设备
CN117745924B (zh) * 2024-02-19 2024-05-14 北京渲光科技有限公司 基于深度无偏估计的神经渲染方法、系统及设备

Similar Documents

Publication Publication Date Title
CN115393410A (zh) 一种基于神经辐射场和语义分割的单目视图深度估计方法
CN110363716B (zh) 一种基于条件生成对抗网络复合降质图像高质量重建方法
CN110335290B (zh) 基于注意力机制的孪生候选区域生成网络目标跟踪方法
US10353271B2 (en) Depth estimation method for monocular image based on multi-scale CNN and continuous CRF
CN110378838B (zh) 变视角图像生成方法,装置,存储介质及电子设备
WO2023138062A1 (zh) 图像处理方法及装置
CN111931787A (zh) 一种基于特征聚合的rgbd显著性检测方法
CN110381268B (zh) 生成视频的方法,装置,存储介质及电子设备
CN111508013B (zh) 立体匹配方法
CN111753698A (zh) 一种多模态三维点云分割系统和方法
CN109005398B (zh) 一种基于卷积神经网络的立体图像视差匹配方法
CN110689599A (zh) 基于非局部增强的生成对抗网络的3d视觉显著性预测方法
CN112329780B (zh) 一种基于深度学习的深度图像语义分割方法
US11763471B1 (en) Method for large scene elastic semantic representation and self-supervised light field reconstruction
CN116205962B (zh) 基于完整上下文信息的单目深度估计方法及系统
CN115147709B (zh) 一种基于深度学习的水下目标三维重建方法
CN115880720A (zh) 一种基于置信度分享的无标注场景自适应人体姿态和外形估计方法
CN116563682A (zh) 一种基于深度霍夫网络的注意力方案和条带卷积语义线检测的方法
CN114693744A (zh) 一种基于改进循环生成对抗网络的光流无监督估计方法
CN116681839B (zh) 一种基于改进NeRF的实景三维目标重建与单体化方法
Zhang et al. MFFE: multi-scale feature fusion enhanced net for image dehazing
CN116863053A (zh) 一种基于知识蒸馏的点云渲染增强方法
US20230281830A1 (en) Optical flow techniques and systems for accurate identification and tracking of moving objects
CN115170921A (zh) 一种基于双边网格学习和边缘损失的双目立体匹配方法
CN114708423A (zh) 基于改进Faster RCNN的水下目标检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination