CN115601498A - 基于RealPoin3D的单幅图像三维重建方法 - Google Patents
基于RealPoin3D的单幅图像三维重建方法 Download PDFInfo
- Publication number
- CN115601498A CN115601498A CN202211178763.6A CN202211178763A CN115601498A CN 115601498 A CN115601498 A CN 115601498A CN 202211178763 A CN202211178763 A CN 202211178763A CN 115601498 A CN115601498 A CN 115601498A
- Authority
- CN
- China
- Prior art keywords
- dimensional
- layer
- features
- single image
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 230000004927 fusion Effects 0.000 claims abstract description 21
- 230000007246 mechanism Effects 0.000 claims abstract description 7
- 238000013527 convolutional neural network Methods 0.000 claims description 7
- 210000002569 neuron Anatomy 0.000 claims description 6
- 230000004913 activation Effects 0.000 claims description 4
- 238000011176 pooling Methods 0.000 claims description 3
- 230000003993 interaction Effects 0.000 claims description 2
- 239000011159 matrix material Substances 0.000 claims description 2
- 238000005070 sampling Methods 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 claims 1
- 239000000284 extract Substances 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract description 4
- 238000010586 diagram Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 4
- 238000011160 research Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 241000282326 Felis catus Species 0.000 description 2
- 240000002853 Nelumbo nucifera Species 0.000 description 2
- 235000006508 Nelumbo nucifera Nutrition 0.000 description 2
- 235000006510 Nelumbo pentapetala Nutrition 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241000196324 Embryophyta Species 0.000 description 1
- 241000282324 Felis Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000002401 inhibitory effect Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
一种基于RealPoin3D的单幅图像三维重建方法,获取图像数据集,数据集内的数据为若干单幅图像及其三维点云;根据相似性,在数据集内搜索与待重建单幅图像相似的图像,并得到相应的三维点云;将待重建单幅图像输入到2D编码器,提取其二维特征;将相应的三维点云输入到3D编码器,提取其三维特征;通过一个加入注意力机制的2D‑3D融合模块,融合所述二维特征和所述三维特征,得到包括图像特征和空间特征的融合特征;将所述融合特征输入到解码器,使用卷积层和反卷积层预测单幅图像的3D点云,实现其三维重建。本发明进一步提高了图像的三维重建效果,并提高了其重建速度。
Description
技术领域
本发明属于计算机视觉技术领域,涉及单幅图像的三维重建,特别涉及一种基于RealPoin3D的单幅图像三维重建方法。
背景技术
基于图像的三维重建是计算机视觉、虚拟现实、医学图像处理中一个很常见的问题,且是计算机视觉领域的重要研究方向,与人工手动建模与三维扫描设备建模相比,基于二维图像的三维重建拥有耗时低、成本低的优势。同时,与它相关的研究对于无人驾驶、目标识别、工业控制和医疗诊断等许多相关领域的发展具有重要的推动作用。其中基于单幅图像的三维重建,相比于基于多幅图像的三维重建,单幅图像可获取的信息量受到的限制较多,但是它更便捷、快速、易于实现,因此具有更广阔的前景,且设计一种有效、稳定、高质量的单幅图像三维重建方法,已成为研究者们共同的研究目标。
近年来,随着卷积神经网络的广泛应用,图像重建技术与方法从传统的数理几何计算发展到了应用深度学习。基于深度学习的单幅图像三维重建是利用计算机搭建神经网络,通过大量的图像数据与三维模型数据进行训练,学习单图像至三维模型的映射关系,从而实现对新的图像目标进行三维重建,使用深度学习方法进行图像的三维重建,可以仅基于单幅图像进行重建,并预测图像中不可见部分的空间结构,拥有更高的重建精度。同时,网络工作过程为端到端,降低了工程复杂度。
近几年深度学习方面提出了Pix2Vox网络,该网络结构基于编码结构搭建,可完成多类别目标的单图像与多图像重建任务,所设计的感知模块可以自适应地对重建对象的不同视角进行权重分配,更好地融合不同视角的重建结果。RealPoint3D网络结合检索模型方法,将三维数据与二维数据联合输入取得了较好的重建效果,但其使用了聚类检索算法,使得网络训练时间较长。目前的点云生成方法有一些局限性,主要是固定视角和特定距离,导致模型在不同视图下的性能较差、失真和细节丢失。
发明内容
为了克服上述现有技术的缺点,本发明的目的在于提供一种基于RealPoin3D的单幅图像三维重建方法,以期进一步提高图像的三维重建效果,并提高其重建速度。
为了实现上述目的,本发明采用的技术方案是:
一种基于RealPoin3D的单幅图像三维重建方法,包括如下步骤:
步骤1,获取图像数据集,数据集内的数据为若干单幅图像及其三维点云;根据相似性,在数据集内搜索与待重建单幅图像相似的图像,并得到相应的三维点云;
步骤2,将待重建单幅图像输入到2D编码器,提取其二维特征;
步骤3,将相应的三维点云输入到3D编码器,提取其三维特征;
步骤4,通过一个加入注意力机制的2D-3D融合模块,融合所述二维特征和所述三维特征,得到包括图像特征和空间特征的融合特征;
步骤5,将所述融合特征输入到解码器,使用卷积层和反卷积层预测单幅图像的3D点云,实现其三维重建。
与现有技术相比,本发明的有益效果是:
首先,在3D编码器部分使用了由替代的分层点网组件组成的PointNet++,它可以有效且稳健地学习深度点集特征。本发明采用了四个集合抽象层,并使用多尺度分组策略来获得检索形状的全局特征潜在空间。其次,针对对象的单视图图像给出了3D对象的不完整信息的问题,本发明提出了2D-3D融合模块,能够将2D特征和3D特征融合在一起,获得更多的自适应特征,包括图像特征和空间特征,其中有2DRGB、边缘和3D点分布,能更好的得到遮挡部分的多视点的更多信息。最后,本发明在获取2D特征的同时引入扩展的卷积和池化层,将中浅尺度特征图输入到扩展层中,然后再拼接到解码器的连接通道中,为所拼接的不同尺度特征通道分配权重,进而达到增强高效特征通道,抑制低效特征通道的效果。
附图说明
图1是本发明整体流程示意图。
图2是2D编码器示意图。
图3是3D编码器示意图。
图4是本发明2D-3D融合模块示意图。
图5是本发明引入的扩展层示意图。
图6是解码器示意图。
图7是注意力机制示意图。
图8是目标物体的单幅图像。
图9是相似物体的点云。
图10是目标物体重建结果图。
具体实施方式
下面结合附图和实施例详细说明本发明的实施方式。
本发明是一种基于RealPoint3D的单幅图像的三维重建方法,如图1所示,本发明主要分为四个部分,第一部分为整个网络框架的输入,第二部分为编码部分,第三部分为扩展层,第四部分为解码与输出部分。
在第一部分,设计了两个输入,分别是待重建单幅图像以及其相似图像的三维点云,在第二部分,对待重建单幅图像进行2D编码,对三维点云进行3D编码,并融合获得更多的自适应特征,第三部分用于将2D编码中的中浅尺度特征图引入解码部分,第四部分进行解码输出。值得说明的是,第三部分是本发明的进一步优化设计,无论是否含有第三部分,均不影响本发明主体方案的实现。
下面对各个部分进行详细描述。
在第一部分,为了获取二维的待重建单幅图像相似图像的三维点云,需要先获取一个图像数据集。一般来说,根据待重建单幅图像中的目标,均有成熟的数据集。例如,目标为动物:猫,则获取关于“猫”或“猫科动物”的图像数据集;目标为植物:荷花,则获取关于“荷花”或“花”的图像数据集;目标为物体:花粉,则获取关于“花粉”的图像数据集。越相近、范围越小的数据集显然越容易找到其相似图像。如果对于某一目标,尚不存在成熟数据集,则可以自主采集构建。这些数据集中,以单幅图像-其三维点云的数据形式存储,即,每个单幅图像皆有其三维点云数据。
由此,在获取图像数据集之后,根据相似性,在数据集内搜索与待重建单幅图像相似的图像,并得到相应的三维点云。在本发明中,相似性可由余弦距离定义,并由预训练VGG网络获得的特征图测量。VGG网络是应用于图像识别分类任务的经典卷积神经网络。该网络基于3×3的轻量卷积核设计,具有结构简洁且迁移性强的特点,因此被作为特征提取模块广泛应用于不同领域的图像处理任务中。与其它图像检索实践一样,该过程由一个或多个特征图的距离指示。具体而言,在VGG网络中使用倒数第二个特征映射和余弦距离。余弦距离定义如下:
其中x,y是两个需要比较的图像,去满足要求条件下的最小值,得到与待重建单幅图像最相似的图像,以该最相似图像的三维点云,作为待重建单幅图像相应的三维点云。
在第二部分,设计了2D编码器、3D编码器和一个加入注意力机制的2D-3D融合模块,待重建单幅图像输入到2D编码器,提取其二维特征;而相应的三维点云输入到3D编码器,提取其三维特征;2D-3D融合模块则融合该二维特征和三维特征,得到包括图像特征和空间特征的融合特征。
2D编码器的结构参考图2,其使用卷积神经网络(CNN)从图像中提取二维特征,由卷积层和ReLU层组成,采用ReLU激活函数,是由于ReLU只有负值才会被稀疏掉,即引入的稀疏性是可以训练调节的,是动态变化的。只要进行梯度训练,网络可以向误差减少的方向,自动调控稀疏比率,保证激活链上存在着合理数量的非零值。卷积核的大小为3×3,并且作为输入的单幅图像被拉伸为1024维向量。示例地,该2D编码器有五层卷积层,其第二个卷积层得到一个中尺度的特征图,第四个卷积层得到一个小尺度的特征图,该中尺度的特征图和小尺度的特征图构成了中浅尺度特征图。
3D编码器的结构参考图3,其为由四个集合抽象层组成的PointNet++层,每个集合抽象层依次包括采样层、分组层和PointNet层。其中PointNet是处理点云的深度学习模型,其地位堪比2D图像处理中的CNN网络。主要工作是对点云做特征学习,并将学习的特征做不同的应用,如分类、分割等。PointNet++是由于PointNet缺乏捕获局部结构的能力而提出的一种分层点网组件组成的网络,它可以有效且稳健地学习深度点集特征。在本发明中,将对应的三点云输入到PointNet++层,并使用多尺度分组策略来获得检索点云的全局特征潜在空间,进而通过3D编码获得2048维全局点云特征,即全局特征潜在空间。
2D-3D融合模块的结构参考图4,该模块由三个全连接层组成,以学习融合二维特征和三维特征的相对权重。其中,第一个全连接层有两个神经元,二维特征和三维特征输入到第一个全连接层的该两个神经元,通过softmax激活函数输出两个特征的权重,再与原来的二维特征和三维特征进行相乘,然后经过两个2048个神经元的全连接层。通过2D-3D融合模块,可将获得的融合特征重塑为16×16×8大小,与图像大小相同。
通过2D-3D融合模块,能够将二维特征和三维特征融合在一起,获得更多的自适应特征,包括图像特征和空间特征,其中有2DRGB、边缘和3D点分布,能更好的得到遮挡部分的多视点的更多信息。
在第三部分,设计了扩展层,扩展层的结构参考图5,扩展层有两个,分别由依次的两个3×3大小的卷积层、一个3×3的池化层以及一个1×1的卷积层组成。将2D编码器中的中浅尺度特征图输入到扩展层(具体地,中尺度特征图输入到扩展层1,小尺度特征图输入到扩展层2)中,并拼接到解码器的注意力机制通道中,如图6所示,对所传播的特征图采用不同大小的卷积处理,以增加通道数而不改变特征图尺寸,同时为所拼接的不同尺度特征通道分配权重,以抑制低效特征通道,增强高效特征通道。具体地,可通过注意力模块计算特征之间的相互影响程度得到注意力权重矩阵,通过将注意力权重与原特征向量相乘,为所拼接的不同尺度特征通道分配权重。
在第四部分,融合特征输入到解码器,使用卷积层和反卷积层预测单幅图像的3D点云,实现其三维重建。
本发明中,解码器由卷积层、反卷积层和完全连接层组成,将卷积层和反卷积层核大小设置为5×5,如图7。受U-Net的启发,编码部分的信息被添加到解码器中,以便能够恢复输出中的细节。例如,二维RGB和边缘的特征保留在底层中,这对于三维重建很重要,而且PointNet++中的特征具有3D空间分布的抽象表示,由此,编码部分的信息被添加到了解码器中,从而能够恢复输出其中的细节。最后一层是完全连接层,3D编码器中的第三个抽象层所得到的三维空间特征与解码器中的倒数第二层全连接得到的特征信息求内积,通过解码器的最后一层全连接层,将求得的内积重整为N×3的大小。
在本发明的一个具体实施例中,以汽车为目标,二维的待重建单幅图像如图8所示,在三维重建专用数据库中,检索到其相似图像的三维点云如图9所示,通过本发明的方法,得到的重建结果如图10所示,可以看出,本发明的重建效果良好,而由于对RealPoint3D网络的改进,其重建速度也明显更快。
以上所述仅是本发明的优选实施方式,应当指出:对于本技术领域技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (10)
1.一种基于RealPoin3D的单幅图像三维重建方法,其特征在于,包括如下步骤:
步骤1,获取图像数据集,数据集内的数据为若干单幅图像及其三维点云;根据相似性,在数据集内搜索与待重建单幅图像相似的图像,并得到相应的三维点云;
步骤2,将待重建单幅图像输入到2D编码器,提取其二维特征;
步骤3,将相应的三维点云输入到3D编码器,提取其三维特征;
步骤4,通过一个加入注意力机制的2D-3D融合模块,融合所述二维特征和所述三维特征,得到包括图像特征和空间特征的融合特征;
步骤5,将所述融合特征输入到解码器,使用卷积层和反卷积层预测单幅图像的3D点云,实现其三维重建。
2.根据权利要求1所述基于RealPoin3D的单幅图像三维重建方法,其特征在于,所述步骤1,相似性由余弦距离定义,并由预训练VGG网络获得的特征图测量。
3.根据权利要求1所述基于RealPoin3D的单幅图像三维重建方法,其特征在于,所述2D编码器使用卷积神经网络(CNN)提取二维特征,其由卷积层和ReLU层组成,卷积核的大小为3×3,作为输入的单幅图像被拉伸为1024维向量。
4.根据权利要求1所述基于RealPoin3D的单幅图像三维重建方法,其特征在于,所述3D编码器为由四个集合抽象层组成的PointNet++层,每个集合抽象层依次包括采样层、分组层和PointNet层;所述分组层使用多尺度分组策略获得点云的全局特征潜在空间,最终得到2048维全局点云特征。
5.根据权利要求1所述基于RealPoin3D的单幅图像三维重建方法,其特征在于,所述2D-3D融合模块由三个全连接层组成,以学习融合二维特征和所述三维特征的相对权重,将获得的融合特征重塑为16×16×8大小,与图像大小相同。
6.根据权利要求5所述基于RealPoin3D的单幅图像三维重建方法,其特征在于,所述2D-3D融合模块中,第一个全连接层有两个神经元,所述二维特征和三维特征输入到第一个全连接层,通过softmax激活函数输出两个特征的权重,再与原来的所述二维特征和三维特征进行相乘,然后经过两个2048个神经元的全连接层。
7.根据权利要求1所述基于RealPoin3D的单幅图像三维重建方法,其特征在于,所述解码器由卷积层、反卷积层和完全连接层组成,其中卷积层和反卷积层核大小设置为5×5,最后一层是完全连接层,所述3D编码器中的第三个抽象层所得到的三维空间特征与解码器中的倒数第二层全连接得到的特征信息求内积,通过解码器的最后一层全连接层,将求得的内积重整为N×3的大小。
8.根据权利要求1所述基于RealPoin3D的单幅图像三维重建方法,其特征在于,将所述2D编码器中的中浅尺度特征图输入到扩展层中,并拼接到所述解码器的注意力机制通道中,以增加通道数而不改变特征图尺寸;为所拼接的不同尺度特征通道分配权重,以抑制低效特征通道,增强高效特征通道。
9.根据权利要求7所述基于RealPoin3D的单幅图像三维重建方法,其特征在于,所述扩展层由依次的两个3×3大小的卷积层、一个3×3的池化层以及一个1×1的卷积层组成,所述扩展层有两个,所述中浅尺度特征图中,中尺度特征图输入到扩展层1,小尺度特征图输入到扩展层2。
10.根据权利要求7所述基于RealPoin3D的单幅图像三维重建方法,其特征在于,通过注意力模块计算特征之间的相互影响程度得到注意力权重矩阵,通过将注意力权重与原特征向量相乘,为所拼接的不同尺度特征通道分配权重。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211178763.6A CN115601498A (zh) | 2022-09-27 | 2022-09-27 | 基于RealPoin3D的单幅图像三维重建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211178763.6A CN115601498A (zh) | 2022-09-27 | 2022-09-27 | 基于RealPoin3D的单幅图像三维重建方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115601498A true CN115601498A (zh) | 2023-01-13 |
Family
ID=84844098
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211178763.6A Pending CN115601498A (zh) | 2022-09-27 | 2022-09-27 | 基于RealPoin3D的单幅图像三维重建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115601498A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024178565A1 (zh) * | 2023-02-27 | 2024-09-06 | 上海交通大学 | 一种解码方法、解码器以及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110689008A (zh) * | 2019-09-17 | 2020-01-14 | 大连理工大学 | 一种面向单目图像的基于三维重建的三维物体检测方法 |
CN111652966A (zh) * | 2020-05-11 | 2020-09-11 | 北京航空航天大学 | 一种基于无人机多视角的三维重建方法及装置 |
CN112396703A (zh) * | 2020-11-18 | 2021-02-23 | 北京工商大学 | 一种单图像三维点云模型重建方法 |
CN113781650A (zh) * | 2021-09-10 | 2021-12-10 | 南京邮电大学 | 一种基于数据融合的动态物体可视化三维重建方法及系统 |
CN114283258A (zh) * | 2021-12-27 | 2022-04-05 | 上海电力大学 | 一种基于cnn的单幅图像生成三维点云的方法 |
CN114708380A (zh) * | 2022-03-08 | 2022-07-05 | 南京大学 | 一种基于融合多视角特征与深度学习的三维重建方法 |
-
2022
- 2022-09-27 CN CN202211178763.6A patent/CN115601498A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110689008A (zh) * | 2019-09-17 | 2020-01-14 | 大连理工大学 | 一种面向单目图像的基于三维重建的三维物体检测方法 |
CN111652966A (zh) * | 2020-05-11 | 2020-09-11 | 北京航空航天大学 | 一种基于无人机多视角的三维重建方法及装置 |
CN112396703A (zh) * | 2020-11-18 | 2021-02-23 | 北京工商大学 | 一种单图像三维点云模型重建方法 |
CN113781650A (zh) * | 2021-09-10 | 2021-12-10 | 南京邮电大学 | 一种基于数据融合的动态物体可视化三维重建方法及系统 |
CN114283258A (zh) * | 2021-12-27 | 2022-04-05 | 上海电力大学 | 一种基于cnn的单幅图像生成三维点云的方法 |
CN114708380A (zh) * | 2022-03-08 | 2022-07-05 | 南京大学 | 一种基于融合多视角特征与深度学习的三维重建方法 |
Non-Patent Citations (4)
Title |
---|
YANGZHANG: "RealPoint3D: An Efficient Generation Network for 3D Object Reconstruction From a Single Image", IEEE ACCESS, vol. 7, pages 57539 - 57549, XP011724104, DOI: 10.1109/ACCESS.2019.2914150 * |
何鑫睿: "基于改进Pix2Vox 的单图像三维重建网络", 计算机辅助设计与图形学学报, vol. 34, no. 3, pages 364 - 372 * |
朱莉;陈辉;: "基于深度学习的单幅图像三维重建算法", 吉林化工学院学报, no. 01 * |
陈加;张玉麒;宋鹏;魏艳涛;王煜;: "深度学习在基于单幅图像的物体三维重建中的应用", 自动化学报, no. 04 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024178565A1 (zh) * | 2023-02-27 | 2024-09-06 | 上海交通大学 | 一种解码方法、解码器以及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108491880B (zh) | 基于神经网络的物体分类和位姿估计方法 | |
Mao et al. | Beyond single receptive field: A receptive field fusion-and-stratification network for airborne laser scanning point cloud classification | |
CN114255238A (zh) | 一种融合图像特征的三维点云场景分割方法及系统 | |
CN108710906B (zh) | 基于轻量级网络LightPointNet的实时点云模型分类方法 | |
CN113159232A (zh) | 一种三维目标分类、分割方法 | |
CN111695494A (zh) | 一种基于多视角卷积池化的三维点云数据分类方法 | |
CN116229461A (zh) | 一种基于多尺度细化的室内场景图像实时语义分割方法 | |
CN111126385A (zh) | 一种可变形活体小目标的深度学习智能识别方法 | |
CN113449612B (zh) | 一种基于子流型稀疏卷积的三维目标点云识别的方法 | |
CN108171249A (zh) | 一种基于rgbd数据的局部描述子学习方法 | |
CN114549537A (zh) | 基于跨模态语义增强的非结构化环境点云语义分割方法 | |
Lee et al. | Connectivity-based convolutional neural network for classifying point clouds | |
Wang et al. | A learnable joint spatial and spectral transformation for high resolution remote sensing image retrieval | |
Tun et al. | Multi-classification of satellite imagery using fully convolutional neural network | |
Liu et al. | LANet: Stereo matching network based on linear-attention mechanism for depth estimation optimization in 3D reconstruction of inter-forest scene | |
Fan et al. | Hcpvf: Hierarchical cascaded point-voxel fusion for 3D object detection | |
CN116503602A (zh) | 基于多层级边缘增强的非结构化环境三维点云语义分割方法 | |
CN115601498A (zh) | 基于RealPoin3D的单幅图像三维重建方法 | |
Li et al. | Multi-view convolutional vision transformer for 3D object recognition | |
CN118247645A (zh) | 一种新型DDCE-YOLOv8s模型的水下图像目标检测方法 | |
Alhamazani et al. | 3DCascade-GAN: Shape completion from single-view depth images | |
CN112767539A (zh) | 一种基于深度学习的图像三维重构方法及系统 | |
CN116883767A (zh) | 一种基于多源信息多尺度融合的目标检测方法 | |
CN117173445A (zh) | 一种超图卷积网络和对比学习的多视图三维物体分类方法 | |
CN116206082A (zh) | 一种语义场景补全方法、系统、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |