CN112037138B - 一种单张深度图点云场景语义补全的方法 - Google Patents

一种单张深度图点云场景语义补全的方法 Download PDF

Info

Publication number
CN112037138B
CN112037138B CN202010741547.2A CN202010741547A CN112037138B CN 112037138 B CN112037138 B CN 112037138B CN 202010741547 A CN202010741547 A CN 202010741547A CN 112037138 B CN112037138 B CN 112037138B
Authority
CN
China
Prior art keywords
point cloud
semantic
depth map
completion
segmentation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010741547.2A
Other languages
English (en)
Other versions
CN112037138A (zh
Inventor
杨鑫
李童
张肇轩
尹宝才
朴星霖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dalian University of Technology
Original Assignee
Dalian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dalian University of Technology filed Critical Dalian University of Technology
Priority to CN202010741547.2A priority Critical patent/CN112037138B/zh
Publication of CN112037138A publication Critical patent/CN112037138A/zh
Application granted granted Critical
Publication of CN112037138B publication Critical patent/CN112037138B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Probability & Statistics with Applications (AREA)
  • Biophysics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Algebra (AREA)
  • Computational Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

本发明提供了一种单张深度图点云场景语义补全的方法,属于计算机视觉领域中的三维重建领域。该方法通过在深度图、深度分割图和点云相互投影的过程中转换视点修补漏洞,实现同时进行高分辨率点云补全和语义分割。本发明解决了场景语义补全问题中体素表现形式分辨率低、点云表现形式无法兼顾语义分割的问题,通过在三维点云上进行场景语义补全,可以同时恢复场景的高分辨率几何结构和语义信息细节;本发明基于单张深度图,可以同时完成三维点云补全和语义分割的任务;证实了语义信息和三维几何信息约束对点云场景语义补全的有效性。

Description

一种单张深度图点云场景语义补全的方法
技术领域
本发明属于计算机视觉领域中的三维重建(3D Reconstruction)领域,具体实现结果为室内场景的点云语义补全,特别涉及一种同时进行表面补全和语义分割的方法。
背景技术
三维重建中的语义场景重建任务是根据二维图像恢复三维场景并得到语义信息的过程。借助于深度信息,三维场景重建可以更加精确可靠。然而采集到的深度图往往因为遮挡和固定视点的原因并不完整,对局部深度图进行理解和重建变得至关重要。从早期的体素方法,到端到端的深度卷积神经网络架构,再到RGB与深度信息的融合,语义场景补全的方法随着深度学习的不断发展日益进步与完善。
但是这些方法重建出来的体素化场景分辨率低,原始场景的高频细节无法准确还原。为了解决该限制,一种体素引导的渐进视图补全方法被提出,以高分辨率点云的形式替代了体素表达。尽管重建效果可观,但仍有改进空间。例如,重建的三维点云没有提供任何语义信息;在二维补全阶段只关注全局上下文信息而忽略了局部信息;选取视点的奖励函数只考虑了二维补全效果而忽略了三维重建质量。
与点云场景语义补全方法相关的现有的方法主要包含语义场景补全、点云补全和点云分割等方法。
(a)语义场景补全
语义场景补全旨在生成一个从单视点观测到的以完整三维体素形式展现的的场景体积占据表示,带有语义标签,是几何补全的一个子任务。通常以单张深度图为输入,或辅以RGB图像,利用深度、几何、语义等信息,实现场景的语义补全。但这些方法都基于体积表示结果,分辨率低,场景表达受限,达不到点云能够实现的精细化效果。
(b)点云补全
点云补全的目的是从不完整的区域中推断出完整的几何体形状。围绕这个问题,许多基于学习的离线和在线方法被提出,点云补全在准确率、保真度和效率等方面有了较大的提升,缺失区域的几何结构也得以在一定程度上进行恢复。但这些方法仅解决了物体级别的点补全任务,在大规模的场景中并不适用。
(c)点云分割
点云分割是根据空间、几何和纹理等特征对点云进行划分,使得同一划分内的点云拥有相似的特征,是对二维图像域的扩展。通过卷积神经网络、多层感知机等诸多方案,可以实现精细化点云级别的语义分割效果。但是这些方法都以点云作为输入,通过不同的网络来直接处理三维点,不能实现从局部深度图产生带有语义标签的完整点云的效果。
发明内容
本发明的目的是针对单张深度图,通过在深度图、深度分割图和点云相互投影的过程中转换视点修补漏洞,实现同时进行高分辨率点云补全和语义分割的方法,适用于室内场景。为实现上述目的,本发明提出了一种受语义信息和三维几何约束的点云场景语义补全的方法,将全局与局部信息结合,二维与三维信息结合,通过给定单张深度图,来生成最终的点云场景语义补全结果。
本发明的技术方案为:
一种单张深度图点云场景语义补全的方法,该方法包括以下步骤:
步骤1:生成特定视点下带有语义标注的初始点云
1.1)基于给定深度图D0和其对应的视点v0,选用DANet作为深度图语义分割网络,来预测每个像素的语义标签,生成深度分割图S0
1.2)在视点v0下,将深度图D0和深度分割图S0转化为世界坐标系下带有语义标注的初始点云
Figure BDA0002606926880000031
中的每个三维点都与一个语义标签相关联。
步骤2:视图路径规划
视图路径的选取可以看作是一个马尔可夫决策过程(MDP),选用深度Q网络(DQN)的方法进行视图路径的选取。MDP的状态即本发明中的点云状态,定义为
Figure BDA0002606926880000032
(i表示三维补全的次数,i=1,2,3,…,n),学习到的最优策略基于
Figure BDA0002606926880000033
预测一个新的最佳视点,视点的选取范围限定在动作空间之内。所述的动作空间是一个固定的视点集,包含20个不同的视点。视点坐标为:x=asinθsinφ,y=acosθ,
Figure BDA0002606926880000034
其中θ∈[70°,90°],φ∈[-50°,-40°,-30°,-20°,-10°,10°,20°,30°,40°,50°],所有的视点面向场景中心,a设置为3米。
对得到的点云
Figure BDA0002606926880000035
在上述动作空间内的20个不同视点下分别进行投影,获得20组对应的深度图和深度分割图,把它们输入DQN;并根据设计的奖励函数进行计算,从而在上述20个视点中选取最佳视点vi(i=1,2,3,…,n)。由于视点的选取影响到三维重建的质量,因此上述奖励函数的设计同时考虑了二维补全效果和三维点云补全质量;针对二维补全效果的为填充奖励函数
Figure BDA0002606926880000036
和图像修补奖励函数
Figure BDA0002606926880000037
针对三维点云补全质量的为点云恢复奖励函数
Figure BDA0002606926880000038
这三部分综合起来形成
Figure BDA0002606926880000039
鼓励代理选择对修补漏洞有益、修补质量高以及能够产生更准确的三维点的视点。
步骤3:语义补全和深度图补全
3.1)体素补全网络选用SSCNet,以深度图D0作为输入,生成完整的体素结果Vc;在步骤2选取的最佳视点vi下对补全的体素结果Vc进行投影,得到对应的体素深度图
Figure BDA0002606926880000041
3.2)分割补全网络选用PartialCNN,以步骤2选取的最佳视点vi对应的深度分割图Si和步骤3.1)得到的体素深度图
Figure BDA0002606926880000042
作为输入,得到补全的分割图
Figure BDA0002606926880000043
3.3)深度图补全网络选用StructureFlow,通过步骤3.2)得到的补全的分割图
Figure BDA0002606926880000044
提供局部信息,与全局信息结合能够更好地辅助步骤2选取的最佳视点vi对应的深度图Di的补全,生成补全后的深度图
Figure BDA0002606926880000045
步骤4:聚合三维语义标注点,生成阶段性点云
在最佳视点vi下,将步骤3.2)得到的补全的分割图
Figure BDA0002606926880000046
和步骤3.3)得到的补全后的深度图
Figure BDA0002606926880000047
投影成带有语义标签的新三维点云;从而将二维补全产生的点被重新投影回三维点云,将这些新三维点云与投影前的旧点云
Figure BDA0002606926880000048
聚合,生成一个更加稠密的点云
Figure BDA0002606926880000049
以实现修补漏洞、点云补全的效果,并作为下一个阶段的输入。
步骤5:多视点渐进生成密集点云,输出场景补全结果
重复步骤2到步骤4,直到收敛。具体为:记
Figure BDA00026069268800000410
对应的不带语义信息的点云为Pi,在步骤2提到的动作空间下,对Pi在20个视点下进行深度图投影,计算每个生成的深度图像中覆盖漏洞的像素个数,用
Figure BDA00026069268800000411
表示这些像素个数的总和;当
Figure BDA00026069268800000412
时,即原始点云上超过95%的缺失点被修复,则终止该循环过程;最终输出补全后的带有语义信息的点云
Figure BDA00026069268800000413
步骤6:有效性验证
为了验证本发明有效性,与相关领域的最新方法进行比较。SUNCG是一个人工创建的带有密集体积标注的大规模合成3D场景数据集。为了进行公平的比较,相关领域的方法均使用其公开的代码或带有原始建议参数的设置,并且均在SUNCG或者基于SUNCG生成的训练集中进行训练,在基于SUNCG生成的测试集上进行测试。
所述相关领域的最新方法包括SSCNet、VVNet、ForkNet和Deep ReinforcementLearning of Volume-guided Progressive View Inpaintingfor 3D Point SceneCompletion from a Single Depth Image(VGPVI)。
进一步地,DQN的训练涉及到的奖励函数为:
填充奖励函数
Figure BDA0002606926880000051
与VGPVI保持一致。
图像修补奖励函数
Figure BDA0002606926880000052
为:
Figure BDA0002606926880000053
其中,
Figure BDA0002606926880000054
表示漏洞区域Ω的L1损失,|Ω|表示Ω区域内像素点的个数,
Figure BDA0002606926880000055
Figure BDA0002606926880000056
分别表示
Figure BDA0002606926880000057
Figure BDA0002606926880000058
相应的真值。
点云恢复奖励函数
Figure BDA0002606926880000059
为:
Figure BDA00026069268800000510
其中,
Figure BDA00026069268800000511
N表示
Figure BDA00026069268800000512
内点的总个数,
Figure BDA00026069268800000513
是一个三维点集且包含第i次三维补全恢复的所有三维点,即
Figure BDA00026069268800000514
Figure BDA00026069268800000515
是点云真值的子集并且每个点在以点pj为中心,以r为半径的球体内,Lp代表点p的分割标签,OP是包含在集合P内的所有点的标签的分割标签集。
Figure BDA00026069268800000516
估计了所有预测值中的正确预测的百分比。
综合奖励函数
Figure BDA00026069268800000517
是以上三个奖励函数的结合:
Figure BDA00026069268800000518
其中α、β和γ是平衡权重。
本发明的有益效果:
(1)基于单张深度图的点云场景语义补全结果
本发明解决了场景语义补全问题中体素表现形式分辨率低,点云表现形式无法兼顾语义分割的问题,通过在三维点云上进行场景语义补全,可以同时恢复场景的高分辨率几何结构和语义信息细节。本发明基于单张深度图,可以同时完成三维点云补全和语义分割的任务。目前为止,本发明是第一个实现这个目标的发明。
(2)语义信息和三维几何信息约束的作用
本发明证实了语义信息和三维几何信息约束对点云场景语义补全的有效性。在补全深度图时,本发明通过语义分割信息为深度图补全提供局部信息,与全局信息结合,实现更好的深度图补全效果;在选取视点时,通过设计点云恢复函数同时考虑二维补全效果和三维重建质量,得以实现比其他相关领域方案更好的效果。以上两点都证明了语义信息和三维几何信息约束的有效性。
附图说明
图1为本发明所述网络结构的初始化阶段。
图2为本发明所述网络结构的循环补全阶段。
图3为对比实验的显示结果。
图4是图3的图例。
具体实施方式
下面结合附图和技术方案,进一步说明本发明的具体实施方式。
本实施例基于SUNCG数据集,生成训练集和测试集。随机选取1590个场景进行渲染,其中1439个场景被用作DQN的训练,剩余的作为DQN的测试。为了训练分割补全和深度图补全网络,随机选取定义在动作空间中的5或6个视点,将它们应用在上面提到的1590个场景上渲染超过一万组的深度图和语义分割真值。其中,选取一千组对本发明进行测试。
本发明包含四个主要的组成部分,分别是深度图语义分割网络、体素补全网络、分割补全网络和深度图补全网络。在PyTorch框架上实现了所有需要的DCNN网络。使用Open3D来处理点云。采用预训练的SSCNet模型作为体素补全网络,并在SUNCG新生成的数据集上进行微调。对于深度图语义分割网络,训练过程配备了3×e-3的学习率、0.9的动量和1×e-4的权重衰减的随机梯度下降(SGD)用于优化。分割补全网络和深度图补全网络分别采用2×e-4和1×e-4的学习率的自适应矩估计(Adam)优化器。对于DQN网络,设置经验缓冲容量为5000,并初次训练400次以填充容缓存。
本发明采用联合训练的方式,有助于训练的收敛和稳定性。第一,分别对深度图语义分割网络和体素补全网络单独进行预训练。第二,固定深度图语义分割网络和体素补全网络的参数,训练分割补全网络。第三,固定上面提到的三个网络的参数,训练深度图补全网络。第四,获得了上面四个网络的预训练模型后,联合训练整个网络。在两个NVIDIA GTX2080Ti显卡上训练所有的DCNN网络和DQN网络。微调体素补全网络需要30小时,训练深度图语义分割网络需要50小时,训练分割补全网络需要46小时,训练深度图补全网络需要36小时,联合训练这些网络需要20个小时,对DQN进行训练需要80小时。一旦经过训练,本发明平均需要70秒和5-6个视点来处理一个局部深度图。
图1和图2为本发明的网络结构。图1为初始化阶段,首先将原始深度图输入到深度图语义分割网络获取深度分割图,再与深度图一起投影成带有语义信息的点云,作为后期循环补全阶段的初始点云。图2是循环补全阶段,将上一步骤得到的初始点云在动作空间的20个视点下分别进行深度图投影和深度图分割,并输入DQN网络来选取最佳补全视点。将原始深度图输入到SSCNet中进行体素补全,并在选取的最佳视点下进行体素深度图投影。将上一步骤的点云在同一视点下进行投影生成深度图和对应的深度分割图。分割补全网络该体素深度图和深度分割图作为输入,生成补全的分割图。深度图补全网络以点云在上述选取的最佳视点下投影的深度图和补全的分割图作为输入,生成补全的深度图;与补全的分割图一起重新投影成带有语义标注的点云,与上一阶段的点云聚合,生成阶段性补全的点云。在选取的不同视点下,重复以上步骤,直到95%的漏洞都被修复,输出最后的点云场景语义补全结果。
图3是对比实验的显示结果。将用于体素场景语义补全的网络在SUNCG数据集上进行训练,所述网络包括SSCNet、VVNet和ForkNet,将点云场景补全网络在基于SUNCG生成的训练集上进行训练,所述网络为VGPVI。在训练过程中调整了这些网络的训练参数用以获得最佳的场景语义补全结果,最后使用基于SUNCG生成的测试集进行验证,比较最终的场景补全和语义分割结果。经过实验对比,本发明中场景语义补全网络具有最好的场景补全和语义分割准确率,说明了高分辨率点云比体素能够实现更精细化的效果,并且验证了语义和三维几何约束对于语义场景重建的有效性。
对比实验的定量验证结果分为场景补全和语义分割,如表1、表2所示。其中CD代表倒角距离(Chamfer Distance),用来衡量预测的点云和点云真值之间的距离;CD越小表示结果越精确。Cr是完整性度量,表示跟真值相比,补全准确的部分在整体恢复三维点中的占比,球体的中心是重建点,半径为r,Cr越大表示结果越精确。对于语义分割验证,除去空的类别,本实施例使用与SUNCG相同的语义分类,分别为天花板、地板、墙壁、窗户、椅子、床、沙发、桌子、电视、家具和其他物品。
表1
方法 CD↓ C<sub>r=0.02</sub>(%)↑ C<sub>r=0.04</sub>(%)↑ C<sub>r=0.06</sub>(%)↑ C<sub>r=0.08</sub>(%)↑ C<sub>r=0.10</sub>(%)↑
SSCNet 0.7077 8.87 17.52 30.59 44.21 51.66
VVNet 0.6937 10.38 20.77 35.22 49.38 55.64
ForkNet 0.6976 16.79 36.03 47.54 53.68 57.37
VGPVI 0.2366 55.52 60.42 63.36 65.60 67.54
本发明 0.1866 55.30 60.90 64.21 66.64 68.71
表2
Figure BDA0002606926880000091

Claims (5)

1.一种单张深度图点云场景语义补全的方法,其特征在于,该方法包括以下步骤:
步骤1:生成特定视点下带有语义标注的初始点云
1.1)基于给定深度图D0和其对应的视点v0,选用DANet作为深度图语义分割网络,来预测每个像素的语义标签,生成深度分割图S0
1.2)在视点v0下,将深度图D0和深度分割图S0转化为世界坐标系下带有语义标注的初始点云
Figure FDA0002606926870000011
中的每个三维点都与一个语义标签相关联;
步骤2:视图路径规划
对得到的点云
Figure FDA0002606926870000012
在动作空间内的不同视点下分别进行投影,获得对应的深度图和深度分割图,把它们输入DQN;并根据奖励函数进行计算,从而在个动作空间的视点中选取最佳视点vi;其中,i表示三维补全的次数,i=1,2,3,…,n;
步骤3:语义补全和深度图补全
3.1)体素补全网络选用SSCNet,以深度图D0作为输入,生成完整的体素结果Vc;在步骤2选取的最佳视点vi下对补全的体素结果Vc进行投影,得到对应的体素深度图
Figure FDA0002606926870000013
3.2)分割补全网络选用PartialCNN,以最佳视点vi对应的深度分割图Si和体素深度图
Figure FDA0002606926870000014
作为输入,得到补全的分割图
Figure FDA0002606926870000015
3.3)深度图补全网络选用StructureFlow,通过补全的分割图
Figure FDA0002606926870000016
提供局部信息,与全局信息结合来辅助最佳视点vi对应的深度图Di的补全,生成补全后的深度图
Figure FDA0002606926870000017
步骤4:聚合三维语义标注点,生成阶段性点云
在最佳视点vi下,将步骤3.2)得到的补全的分割图
Figure FDA0002606926870000018
和步骤3.3)得到的补全后的深度图
Figure FDA0002606926870000019
投影成带有语义标签的新三维点云;将新三维点云与投影前的旧点云
Figure FDA00026069268700000110
聚合,生成一个更加稠密的点云
Figure FDA00026069268700000111
以实现修补漏洞、点云补全的效果,并作为下一个阶段的输入;
步骤5:多视点渐进生成密集点云,输出场景补全结果
重复步骤2到步骤4,直到收敛,最终输出补全后的带有语义信息的点云
Figure FDA0002606926870000021
2.根据权利要求1所述的方法,其特征在于,所述的动作空间为一个固定的视点集,包含20个不同的视点;所述视点的坐标为:x=asinθsinφ,y=acosθ,
Figure FDA0002606926870000022
其中θ∈[70°,90°],φ∈[-50°,-40°,-30°,-20°,-10°,10°,20°,30°,40°,50°],所有的视点面向场景中心,a为3米。
3.根据权利要求1或2所述的方法,其特征在于,所述的奖励函数包括填充奖励函数
Figure FDA0002606926870000023
图像修补奖励函数
Figure FDA0002606926870000024
和点云恢复奖励函数
Figure FDA0002606926870000025
其中,图像修补奖励函数
Figure FDA0002606926870000026
为:
Figure FDA0002606926870000027
式(1)中,
Figure FDA0002606926870000028
表示漏洞区域Ω的L1损失,|Ω|表示Ω区域内像素点的个数,
Figure FDA0002606926870000029
Figure FDA00026069268700000210
分别表示
Figure FDA00026069268700000211
Figure FDA00026069268700000212
相应的真值;
点云恢复奖励函数
Figure FDA00026069268700000213
为:
Figure FDA00026069268700000214
式(2)中,
Figure FDA00026069268700000215
N表示
Figure FDA00026069268700000216
内点的总个数,
Figure FDA00026069268700000217
是一个三维点集且包含第i次三维补全恢复的所有三维点,即
Figure FDA00026069268700000218
Figure FDA00026069268700000219
是点云真值的子集并且每个点在以点pj为中心,以r为半径的球体内,Lp代表点p的分割标签,OP是包含在集合P内的所有点的标签的分割标签集;
奖励函数
Figure FDA00026069268700000220
是三个奖励函数的结合:
Figure FDA00026069268700000221
其中α、β和γ是平衡权重。
4.根据权利要求1或2所述的方法,其特征在于,所述的步骤5具体为:
Figure FDA0002606926870000031
对应的不带语义信息的点云为Pi,对Pi在步骤2中的动作空间下进行深度图投影,计算每个生成的深度图像中覆盖漏洞的像素个数,用
Figure FDA0002606926870000032
表示这些像素个数的总和;当
Figure FDA0002606926870000033
时,即原始点云上超过95%的缺失点被修复,则终止步骤2至步骤4的循环过程。
5.根据权利要求3所述的方法,其特征在于,所述的步骤5具体为:
Figure FDA0002606926870000034
对应的不带语义信息的点云为Pi,对Pi在步骤2中的动作空间下进行深度图投影,计算每个生成的深度图像中覆盖漏洞的像素个数,用
Figure FDA0002606926870000035
表示这些像素个数的总和;当
Figure FDA0002606926870000036
时,即原始点云上超过95%的缺失点被修复,则终止步骤2至步骤4的循环过程。
CN202010741547.2A 2020-07-29 2020-07-29 一种单张深度图点云场景语义补全的方法 Active CN112037138B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010741547.2A CN112037138B (zh) 2020-07-29 2020-07-29 一种单张深度图点云场景语义补全的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010741547.2A CN112037138B (zh) 2020-07-29 2020-07-29 一种单张深度图点云场景语义补全的方法

Publications (2)

Publication Number Publication Date
CN112037138A CN112037138A (zh) 2020-12-04
CN112037138B true CN112037138B (zh) 2022-09-20

Family

ID=73583437

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010741547.2A Active CN112037138B (zh) 2020-07-29 2020-07-29 一种单张深度图点云场景语义补全的方法

Country Status (1)

Country Link
CN (1) CN112037138B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113378756B (zh) * 2021-06-24 2022-06-14 深圳市赛维网络科技有限公司 一种三维人体语义分割方法、终端设备及存储介质
CN114067091B (zh) * 2022-01-17 2022-08-16 深圳慧拓无限科技有限公司 一种多源数据标注方法、系统、电子设备和存储介质
CN114637880A (zh) * 2022-02-18 2022-06-17 厦门大学 基于多视角投影的跨维数据检索方法
CN115187843B (zh) * 2022-07-28 2023-03-14 中国测绘科学研究院 基于物方体素及几何特征约束的深度图融合方法
CN117422629B (zh) * 2023-12-19 2024-04-26 华南理工大学 一种实例感知的单目语义场景补全方法、介质及设备

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109447923A (zh) * 2018-09-27 2019-03-08 中国科学院计算技术研究所 一种语义场景补全系统与方法
CN109410307B (zh) * 2018-10-16 2022-09-20 大连理工大学 一种场景点云语义分割方法
CN109636905B (zh) * 2018-12-07 2023-01-24 东北大学 基于深度卷积神经网络的环境语义建图方法
CN110458939B (zh) * 2019-07-24 2022-11-18 大连理工大学 基于视角生成的室内场景建模方法
CN110660128B (zh) * 2019-09-23 2023-08-11 云南电网有限责任公司电力科学研究院 一种基于生成对抗网络的三维语义场景重建方法

Also Published As

Publication number Publication date
CN112037138A (zh) 2020-12-04

Similar Documents

Publication Publication Date Title
CN112037138B (zh) 一种单张深度图点云场景语义补全的方法
CN109754417B (zh) 从图像中无监督学习几何结构的系统与方法
Song et al. Semantic scene completion from a single depth image
Raveendran et al. Blending liquids
CN101400001B (zh) 一种视频帧深度图的生成方法及系统
US10885707B1 (en) Network, system and method for multi-view 3D mesh generation via deformation
Ito et al. Reliable isotropic tetrahedral mesh generation based on an advancing front method.
JP7448566B2 (ja) クロスリアリティシステムにおけるスケーラブル3次元オブジェクト認識
CN114998548B (zh) 一种图像重建的方法和系统
Kong et al. Pixel-wise attentional gating for scene parsing
CN111028335B (zh) 一种基于深度学习的点云数据的分块面片重建方法
CN106101535A (zh) 一种基于局部及整体运动差异补偿的视频稳定方法
CN110211223A (zh) 一种增量式多视图三维重建方法
US10467794B2 (en) Techniques for generating dynamic effects animations
JP7294788B2 (ja) 3d配置のタイプに応じた2d画像の分類
US9619936B2 (en) Method and apparatus for quickly generating natural terrain
WO2021219835A1 (en) Pose estimation method and apparatus
US20220245510A1 (en) Multi-dimensional model shape transfer
US11403807B2 (en) Learning hybrid (surface-based and volume-based) shape representation
Shi et al. Self-supervised visibility learning for novel view synthesis
CN102355589B (zh) 基于参数自优化多群粒子群优化的视频超分辨重建方法
Schäfer et al. Dynamic feature-adaptive subdivision
CN103582901A (zh) 生成运动合成数据的方法和生成运动合成数据的设备
Hara et al. Enhancement of novel view synthesis using omnidirectional image completion
Liu et al. PU-refiner: A geometry refiner with adversarial learning for point cloud upsampling

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant