CN113808006A - 一种基于二维图像重建三维网格模型的方法及装置 - Google Patents
一种基于二维图像重建三维网格模型的方法及装置 Download PDFInfo
- Publication number
- CN113808006A CN113808006A CN202111019790.4A CN202111019790A CN113808006A CN 113808006 A CN113808006 A CN 113808006A CN 202111019790 A CN202111019790 A CN 202111019790A CN 113808006 A CN113808006 A CN 113808006A
- Authority
- CN
- China
- Prior art keywords
- vertex
- dimensional
- image
- model
- loss function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 230000006870 function Effects 0.000 claims abstract description 34
- 230000009466 transformation Effects 0.000 claims abstract description 16
- 230000008447 perception Effects 0.000 claims abstract description 10
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 8
- 238000007670 refining Methods 0.000 claims abstract description 3
- 238000009499 grossing Methods 0.000 claims description 13
- 239000011159 matrix material Substances 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000005259 measurement Methods 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 238000013527 convolutional neural network Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
Images
Classifications
-
- G06T3/08—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于二维图像重建三维网格模型的方法及装置,所述方法包括:输入二维图像到ResNet50中,通过ResNet50的Stage1,Stage2和Stage3提取图像二维信息,对这些信息进行特征连接;通过相机参数计算输入图像平面的2D投影,然后通过双线性插值法得到感知特征;通过隐式曲面算法生成初始椭球,从输入二维图像中汇集图像特征,结合图像特征和感知特征进行网格变形;通过上采样细化网格模型;利用损失函数促使系统生成粗略的三维模型;进行二次变换、三次变换生成较精细三维模型和精细的三维模型。本发明通过初始椭球进行三次变换,能够学习网格的多尺度和上下文信息,生成更加精细的三维模型。
Description
技术领域
本发明属于计算机视觉领域,具体涉及一种基于二维图像重建三维网格模型的方法及装置。
背景技术
近年来,使用深度学习技术将二维图像生成三维的形状已经取得了巨大的进步,大型训练数据集的不断增加的可用性,已经产生了新一代的方法,能够从一个或多个RGB图像中恢复物体的三维几何和结构,而不需要复杂的相机标定过程。早期提出的一些方法借助了CNN在图像的特征匹配上的巨大优势,例如DeepVO、BA-Net、Code SLAM等,都是在传统三维重建算法中引入深度学习方法进行改进,通过CNN去优化算法的处理过程和结果。DeepVO是基于深度递归卷积神经网络(RCNN)直接从一系列原始RGB图像(视频)中推断出姿态,而不采用传统视觉里程计中的任何模块,改进了三维重建中的视觉里程计这一环。BA-Net将SfM算法中的一环集束调整(BundleAdjustment,BA)优化算法作为神经网络的一层,以便训练出更好的基函数生成网络,从而简化重建中的后端优化过程。Code SLAM则是通过神经网络提取出若干个基函数来表示场景的深度,这些基函数可以简化传统几何方法的优化问题。目前三维重建的形式有体素、点云和网格。体素需要高空间分辨率来捕捉几何细节导致消耗大量的内存,点云缺乏顶点和表面拓扑之间的连通性,而网格可以更有效地表示几何上下文,因为它只表示对象的边界,没有表示对象内部的冗余元素。一种流行的方法是通过将每个顶点的邻域局部编码到规则域中来对3D形状进行深度学习,Masci等人试图在预定义的本地补丁中聚合信息;Chen等提出非监督学习局部卷积模板;Maron等人使用全局参数化来执行表面卷积;Poulenard等人将方向函数扩展到表面以此保持方向信息。虽然它们都能够允许网络拓扑变化,具有良好的局部表示,但是它们不能够学习网格中的多尺度和上下文信息。为了融合多尺度特征并提取上下文信息,本发明提出了一个深度学习的框架,它不是从神经网络中直接合成三维网格,而是学习物体的上下文信息从一个初始的形状逐步变化为三维网格模型,使模型更加的精细、逼真。
发明内容
发明目的:本发明旨在提供一种基于二维图像重建三维网格模型的方法及装置,通过学习和预测将网格从初始的形状变为重建物体的几何形状。
技术方案:本发明提供一种基于二维图像重建三维网格模型的方法,具体包括以下步骤:
(1)输入二维图像到ResNet50中,通过ResNet50的Stage1,Stage2和Stage3提取图像二维信息,对这些信息进行特征连接;
(2)通过相机参数计算输入图像平面的2D投影,然后通过双线性插值法得到感知特征;
(3)通过隐式曲面算法生成初始椭球,从输入二维图像中汇集图像特征,结合图像特征和感知特征进行网格变形;
(4)通过上采样细化网格模型;
(5)利用损失函数促使系统生成粗略的三维模型;所述损失函数包括倒角损失、重投影损失和平滑损失,它们能够使三维网格模型更加精细、更加平滑。
(6)进行二次变换、三次变换生成精细的三维模型;所述二次变换包括网格变形,上采样细化网格模型,生成精细的三维模型;所述三次变换包括网格变形,生成精细的三维模型。
进一步地,步骤(1)所述的特征连接,Stage1的特征维度为256,Stage2的特征维度为512,Stage3的特征维度为1024,总维度为1792。
进一步地,所述步骤(3)所述的初始椭球以摄像机前方a为中心,以x、y、z为三轴半径,包含m个顶点;所述的图像特征附着在初始椭球的顶点上;所述的网格变形将感知特征和图像特征相连得到顶点坐标和三维形状特征并将其馈送到图残差网络中,生成新的顶点坐标和新的三维形状特征,作为网格变形的输出,图残差网络包含14个基于图形的卷积,基于图形的卷积层输出为其中是任意顶点p在卷积后的特征向量,i+1是卷积后的状态,w0是顶点p的可学习参数矩阵,是顶点p在卷积前的特征向量,i是卷积前的状态,顶点b是顶点p的相邻顶点,w1是顶点b的可学习参数矩阵,是顶点b在卷积前的特征向量。
进一步地,步骤(4)所述的上采样细化网格模型,网格是三角形,在三角形每条边的中心添加一个顶点,新添加顶点的3D特征被设置为其两个相邻顶点的平均值,将中心点两两相连,一个三角形即可变成四个三角形,细化网格模型。
进一步地,所述步骤(5)通过以下公式实现:
倒角损失函数Lcd:
倒角损失函数表示为预测点集与地面真实值点集见各个顶点的最小距离差值,其中,K为预测点集合,R为地面真实值顶点集合,顶点k为预测点集合K中任一顶点,顶点r是地面真实值的任一点;
重投影损失函数Lreproj:
重投影损失函数同时考虑了单应矩阵的计算误差和图像点的测量误差,其中,K为预测点集合,vk代表顶点k的坐标,顶点k为预测点集合K中任一顶点,πk代表任一顶点k变形后的相机位姿,利用与网格关联的语义对应,通过关键点分配矩阵A与顶点k的坐标vk,形成关键点重投影损失Lreproj;
平滑损失函数Lsmooth:
Lsmooth=||BK||2
平滑损失函数能够将三维网格模型表面光滑化为平均曲率的最小化,其中,其中B为离散的拉普拉斯-贝尔特拉米算子,K为预测点集合;
总损失Lall为三种损失的加权和:
Lall=Lcd+λ1Lreproj+λ2Lsmooth
其中,λ1与λ2分别为重投影损失函数Lreproj和平滑损失函数Lsmooth的可调整权重参数。
基于相同的发明构思,本发明还提供一种基于二维图像重建三维网格模型的装置,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述计算机程序被加载至处理器时实现上述的基于二维图像重建三维网格模型的方法。
有益效果:与现有技术相比,本发明的有益效果:1、取消了ResNet50最后一层,降低了计算资源的耗费;使用ResNet50的Stage1,Stage2和Stage3提取图像二维信息,有效解决CNN网络达到一定深度后网络性能下降的问题,同时能够提供更加精细的二维数据,有利于生成更加精细的三维网格模型;2、采用三维损失与二维损失相融合的方法,先用3D监督训练网络,然后用2D监督对其进行微调,能够使生成的三维网格模型更加精细,同时使用平滑损失让生成的三维网格模型更加平滑;3、没有直接从神经网络中输出三维网格模型,而是从一个初始的椭球进行三次学习与变换,由粗到细,最终生成三维网格形状。
附图说明
图1为基于二维图像重建三维网格模型的方法的流程图;
图2为ResNet50网络中的Stage0、Stage1、Stage2和Stage3模块示意图;
图3为Stage中的BTNK1和BTNK2模块示意图;
图4为本发明的网格变形模块示意图。
具体实施方式
下面结合附图对本发明作进一步详细说明。
本发明提出一种基于二维图像重建三维网格模型的方法,初始模型是一个端到端的深度学习的框架,它以一个二维图像作为输入,即可在摄像机坐标下生成一个网格模型。ResNet50能够提取更加抽象的高阶特征、有更高的精度,同时有效解决CNN网络达到一定深度后网络性能下降的问题。ResNet50前三层已经能够提取足够的二维信息,因此为了节约计算资源,取消了ResNet50最后一层。输入200×200的RGB二维图像,进入修改后的ResNet50网络,将Stage1,Stage2,Stage3输入到感知特征中,通过一个初始的椭球进行网格变形,生成模型,然后进行上采样,网格变形,生成模型,再进行上采样,网格变形,生成模型;由粗到细,最终生成三维网格模型。如图1所示,具体包括以下步骤:
步骤1:输入二维图像到ResNet50中,通过ResNet50的Stage1,Stage2和Stage3提取图像二维信息,如图2所示,对这些信息进行特征连接;如图3所示Stage中包括BTNK1和BTNK2模块。
Stage1的特征维度为256,Stage2的特征维度为512,Stage3的特征维度为1024,总维度为1792。
步骤2:通过相机参数计算输入图像平面的2D投影,然后通过双线性插值法得到感知特征。
步骤3:通过隐式曲面算法生成初始椭球,从输入二维图像中汇集图像特征,结合图像特征和感知特征进行网格变形,如图4所示。
初始椭球以摄像机前方a为中心,以x、y、z为三轴半径,包含m个顶点。此处初始椭球以摄像机前方0.8米为中心,以0.2米、0.2米、0.4米为三轴半径,包含156个顶点;图像特征附着在初始椭球的顶点上;网格变形将感知特征和图像特征相连得到顶点坐标和三维形状特征并将其馈送到图残差网络中,生成新的顶点坐标和新的三维形状特征,作为网格变形的输出,图残差网络包含14个基于图形的卷积,基于图形的卷积层输出为其中是任意顶点p在卷积后的特征向量,i+1是卷积后的状态,w0是顶点p的可学习参数矩阵,是顶点p在卷积前的特征向量,i是卷积前的状态,顶点b是顶点p的相邻顶点,w1是顶点b的可学习参数矩阵,是顶点b在卷积前的特征向量。
步骤4:通过上采样细化网格模型。
网格是三角形,在三角形每条边的中心添加一个顶点,新添加顶点的3D特征被设置为其两个相邻顶点的平均值,将中心点两两相连,一个三角形即可变成四个三角形,细化网格模型。
步骤5:利用倒角损失、重投影损失和平滑损失三种损失函数使三维网格模型更加精细、更加平滑。
倒角损失函数Lcd:
倒角损失函数表示为预测点集与地面真实值点集见各个顶点的最小距离差值,其中,K为预测点集合,R为地面真实值顶点集合,顶点k为预测点集合K中任一顶点,顶点r是地面真实值的任一点。
重投影损失函数Lreproj:
重投影损失函数同时考虑了单应矩阵的计算误差和图像点的测量误差,其中,K为预测点集合,vk代表顶点k的坐标,顶点k为预测点集合K中任一顶点,πk代表任一顶点k变形后的相机位姿,利用与网格关联的语义对应,通过关键点分配矩阵A与顶点k的坐标vk,形成关键点重投影损失Lreproj;该公式激活了在投影到图像上时,预测的3D关键点与标注的2D关键点匹配。
平滑损失函数Lsmooth:
Lsmooth=||BK||2
平滑损失函数能够将三维网格模型表面光滑化为平均曲率的最小化,其中,其中B为离散的拉普拉斯-贝尔特拉米算子,K为预测点集合。
总损失Lall为三种损失的加权和:
Lall=Lcd+λ1Lreproj+λ2Lsmooth
其中,λ1与λ2分别为重投影损失函数Lreproj和平滑损失函数Lsmooth的可调整权重参数。
步骤6:进行二次变换、三次变换生成精细的三维模型。
二次变换包括网格变形,上采样细化网格模型,生成较精细的三维模型;三次变换包括网格变形,生成精细的三维模型。
基于相同的发明构思,本发明还提供一种基于二维图像重建三维网格模型的装置,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述计算机程序被加载至处理器时实现上述的基于二维图像重建三维网格模型的方法。
Claims (6)
1.一种基于二维图像重建三维网格模型的方法,其特征在于,包括以下步骤:
(1)输入二维图像到ResNet50中,通过ResNet50的Stage1,Stage2和Stage3提取图像二维信息,对这些信息进行特征连接;
(2)通过相机参数计算输入图像平面的2D投影,然后通过双线性插值法得到感知特征;
(3)通过隐式曲面算法生成初始椭球,从输入二维图像中汇集图像特征,结合图像特征和感知特征进行网格变形;
(4)通过上采样细化网格模型;
(5)利用损失函数促使系统生成粗略的三维模型;所述损失函数包括倒角损失、重投影损失和平滑损失,它们能够使三维网格模型更加精细、更加平滑;
(6)再进行二次变换、三次变换生成较为精细的三维模型和精细的三维模型;所述二次变换包括网格变形,上采样细化网格模型,生成较精细的三维模型;所述三次变换包括网格变形,生成精细的三维模型。
2.根据权利要求1所述的基于二维图像重建三维网格模型的方法,其特征在于,步骤(1)所述的Stage1的特征维度为256,Stage2的特征维度为512,Stage3的特征维度为1024,总维度为1792。
3.根据权利要求1所述的基于二维图像重建三维网格模型的方法,其特征在于,所述步骤(3)所述的初始椭球以摄像机前方a为中心,以x、y、z为三轴半径,包含m个顶点;所述的图像特征附着在初始椭球的顶点上;所述的网格变形将感知特征和图像特征相连得到顶点坐标和三维形状特征并将其馈送到图残差网络中,生成新的顶点坐标和新的三维形状特征,作为网格变形的输出,图残差网络包含14个基于图形的卷积,基于图形的卷积层输出为其中是任意顶点p在卷积后的特征向量,i+1是卷积后的状态,w0是顶点p的可学习参数矩阵,是顶点p在卷积前的特征向量,i是卷积前的状态,顶点b是顶点p的相邻顶点,w1是顶点b的可学习参数矩阵,是顶点b在卷积前的特征向量。
4.根据权利要求1所述的基于二维图像重建三维网格模型的方法,其特征在于,步骤(4)所述的上采样细化网格模型为网格是三角形,在三角形每条边的中心添加一个顶点,新添加顶点的3D特征被设置为其两个相邻顶点的平均值,将中心点两两相连,一个三角形即可变成四个三角形。
5.根据权利要求1所述的基于二维图像重建三维网格模型的方法,其特征在于,所述步骤(5)通过以下公式实现:
倒角损失函数Lcd:
倒角损失函数表示为预测点集与地面真实值点集见各个顶点的最小距离差值,其中,K为预测点集合,R为地面真实值顶点集合,顶点k为预测点集合K中任一顶点,顶点r是地面真实值的任一点;
重投影损失函数Lreproj:
重投影损失函数同时考虑了单应矩阵的计算误差和图像点的测量误差,其中,K为预测点集合,vk代表顶点k的坐标,顶点k为预测点集合K中任一顶点,πk代表任一顶点k变形后的相机位姿,利用与网格关联的语义对应,通过关键点分配矩阵A与顶点k的坐标vk,形成关键点重投影损失Lreproj;
平滑损失函数Lsmooth:
Lsmooth=||BK||2
平滑损失函数能够将三维网格模型表面光滑化为平均曲率的最小化,其中,其中B为离散的拉普拉斯-贝尔特拉米算子,K为预测点集合;
总损失Lall为三种损失的加权和:
Lall=Lcd+λ1Lreproj+λ2Lsmooth
其中,λ1与λ2分别为重投影损失函数Lreproj和平滑损失函数Lsmooth的可调整权重参数。
6.一种基于二维图像重建三维网格模型的装置,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述计算机程序被加载至处理器时实现根据权利要求1-5任一项所述的基于二维图像重建三维网格模型的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111019790.4A CN113808006B (zh) | 2021-09-01 | 2021-09-01 | 一种基于二维图像重建三维网格模型的方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111019790.4A CN113808006B (zh) | 2021-09-01 | 2021-09-01 | 一种基于二维图像重建三维网格模型的方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113808006A true CN113808006A (zh) | 2021-12-17 |
CN113808006B CN113808006B (zh) | 2023-05-23 |
Family
ID=78894562
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111019790.4A Active CN113808006B (zh) | 2021-09-01 | 2021-09-01 | 一种基于二维图像重建三维网格模型的方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113808006B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115410135A (zh) * | 2022-11-01 | 2022-11-29 | 中国民航大学 | 自主式搬运的航空行李特征感知重构方法、系统及其应用 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108305229A (zh) * | 2018-01-29 | 2018-07-20 | 深圳市唯特视科技有限公司 | 一种基于深度学习轮廓网络的多视图重建方法 |
CN109147048A (zh) * | 2018-07-23 | 2019-01-04 | 复旦大学 | 一种利用单张彩色图的三维网格重建方法 |
CN110021069A (zh) * | 2019-04-15 | 2019-07-16 | 武汉大学 | 一种基于网格形变的三维模型重建方法 |
CN110136063A (zh) * | 2019-05-13 | 2019-08-16 | 南京信息工程大学 | 一种基于条件生成对抗网络的单幅图像超分辨率重建方法 |
US20190254807A1 (en) * | 2018-02-20 | 2019-08-22 | Tepha, Inc. | Expandable absorbable implants for breast reconstruction and augmentation |
CN110443892A (zh) * | 2019-07-25 | 2019-11-12 | 北京大学 | 一种基于单张图像的三维网格模型生成方法及装置 |
CN113077545A (zh) * | 2021-04-02 | 2021-07-06 | 华南理工大学 | 一种基于图卷积的从图像中重建着装人体模型的方法 |
CN113096234A (zh) * | 2019-12-23 | 2021-07-09 | 复旦大学 | 利用多张彩色图片生成三维网格模型的方法及装置 |
CN113313828A (zh) * | 2021-05-19 | 2021-08-27 | 华南理工大学 | 基于单图片本征图像分解的三维重建方法与系统 |
-
2021
- 2021-09-01 CN CN202111019790.4A patent/CN113808006B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108305229A (zh) * | 2018-01-29 | 2018-07-20 | 深圳市唯特视科技有限公司 | 一种基于深度学习轮廓网络的多视图重建方法 |
US20190254807A1 (en) * | 2018-02-20 | 2019-08-22 | Tepha, Inc. | Expandable absorbable implants for breast reconstruction and augmentation |
CN109147048A (zh) * | 2018-07-23 | 2019-01-04 | 复旦大学 | 一种利用单张彩色图的三维网格重建方法 |
US20200027269A1 (en) * | 2018-07-23 | 2020-01-23 | Fudan University | Network, System and Method for 3D Shape Generation |
CN110021069A (zh) * | 2019-04-15 | 2019-07-16 | 武汉大学 | 一种基于网格形变的三维模型重建方法 |
CN110136063A (zh) * | 2019-05-13 | 2019-08-16 | 南京信息工程大学 | 一种基于条件生成对抗网络的单幅图像超分辨率重建方法 |
CN110443892A (zh) * | 2019-07-25 | 2019-11-12 | 北京大学 | 一种基于单张图像的三维网格模型生成方法及装置 |
CN113096234A (zh) * | 2019-12-23 | 2021-07-09 | 复旦大学 | 利用多张彩色图片生成三维网格模型的方法及装置 |
CN113077545A (zh) * | 2021-04-02 | 2021-07-06 | 华南理工大学 | 一种基于图卷积的从图像中重建着装人体模型的方法 |
CN113313828A (zh) * | 2021-05-19 | 2021-08-27 | 华南理工大学 | 基于单图片本征图像分解的三维重建方法与系统 |
Non-Patent Citations (1)
Title |
---|
胡健等: "空间旋转目标窄带雷达干涉式三维成像与微动特征提取", 《电子与信息学报》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115410135A (zh) * | 2022-11-01 | 2022-11-29 | 中国民航大学 | 自主式搬运的航空行李特征感知重构方法、系统及其应用 |
Also Published As
Publication number | Publication date |
---|---|
CN113808006B (zh) | 2023-05-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108921926B (zh) | 一种基于单张图像的端到端三维人脸重建方法 | |
CN113096234B (zh) | 利用多张彩色图片生成三维网格模型的方法及装置 | |
CN108038906B (zh) | 一种基于图像的三维四边形网格模型重建方法 | |
CN110390638B (zh) | 一种高分辨率三维体素模型重建方法 | |
Lu et al. | Attention-based dense point cloud reconstruction from a single image | |
CN110349247A (zh) | 一种基于语义理解的室内场景cad三维重建方法 | |
CN110827295A (zh) | 基于体素模型与颜色信息耦合的三维语义分割方法 | |
Tang et al. | Skeletonnet: A topology-preserving solution for learning mesh reconstruction of object surfaces from rgb images | |
CN112862949B (zh) | 基于多视图的物体3d形状重建方法 | |
CN115984494A (zh) | 一种基于深度学习的月面导航影像三维地形重建方法 | |
CN116958453B (zh) | 基于神经辐射场的三维模型重建方法、设备和介质 | |
CN113077554A (zh) | 一种基于任意视角图片的三维结构化模型重建的方法 | |
CN111028335B (zh) | 一种基于深度学习的点云数据的分块面片重建方法 | |
Kang et al. | Competitive learning of facial fitting and synthesis using uv energy | |
CN114708380A (zh) | 一种基于融合多视角特征与深度学习的三维重建方法 | |
Sharma et al. | Point cloud upsampling and normal estimation using deep learning for robust surface reconstruction | |
CN113808006B (zh) | 一种基于二维图像重建三维网格模型的方法及装置 | |
Cheng et al. | GaussianPro: 3D Gaussian Splatting with Progressive Propagation | |
CN112837420B (zh) | 基于多尺度和折叠结构的兵马俑点云的形状补全方法及系统 | |
CN108876922A (zh) | 一种基于内二面角补角正则化的网格修补方法 | |
CN115115860A (zh) | 一种基于深度学习的图像特征点检测匹配网络 | |
CN113781372A (zh) | 一种基于深度学习的戏曲脸谱生成方法及系统 | |
CN113610711A (zh) | 一种单图像引导的三维表面重建方法及装置 | |
CN113139965A (zh) | 一种基于深度图的室内实时三维语义分割方法 | |
CN116363329B (zh) | 基于CGAN与LeNet-5的三维图像生成方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |