CN112562067A - 一种生成大批量点云数据集的方法 - Google Patents

一种生成大批量点云数据集的方法 Download PDF

Info

Publication number
CN112562067A
CN112562067A CN202011545635.1A CN202011545635A CN112562067A CN 112562067 A CN112562067 A CN 112562067A CN 202011545635 A CN202011545635 A CN 202011545635A CN 112562067 A CN112562067 A CN 112562067A
Authority
CN
China
Prior art keywords
point cloud
scene
model
surface point
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011545635.1A
Other languages
English (en)
Inventor
王念峰
林景新
张宪民
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN202011545635.1A priority Critical patent/CN112562067A/zh
Publication of CN112562067A publication Critical patent/CN112562067A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种生成大批量点云数据集的方法,包括以下步骤:将场景中的物体建立三维模型;针对三维模型中各顶点与面片重新采样出点,形成该三维模型的表面点云;把场景中各个组成部分的表面点云进行组合处理,生成场景点云信息;采用模拟的相机模型,对场景点云信息进行处理,形成模拟结构光系统获取到的模拟场景点云信息;多次重复即可生成大批量的点云数据集;本发明在于提高用于点云处理的神经网络的训练数据量,同时,针对特定的场景以及处理任务有着针对性,从而提高神经网络的性能。

Description

一种生成大批量点云数据集的方法
技术领域
本发明涉及机器视觉的研究领域,特别涉及一种生成大批量点云数据集的方法。
背景技术
目前点云数据处理是机器视觉领域中一种比较热门的领域,点云作为一种三维数据,能够为物体与环境提供详细的三维信息,其数据处理是三维视觉技术的一个重要方面,在各个领域中有广大应用。
受到深度学习以及神经网络在二维图像中可以学习特征的启发,基于神经网络的点云处理方法目前正在不断发展。但不同的是,目前用于处理二维图像的神经网络的训练数据集来源广泛,而三维点云的获取相对于二维图像来说则困难得多,用于训练神经网络的点云数据集目前更是稀缺。针对一些特殊应用下的场景,点云的获取则更加困难。这对于神经网络的训练以及其最终的性能都有着较大的影响。
发明内容
本发明的主要目的在于克服现有技术的缺点与不足,提供一种生成大批量点云数据集的方法,目的在于提高用于点云处理的神经网络的训练数据量,同时,根据不同的应用场景以及处理任务,可相应地生成对应的场景点云数据,针对用户自定的场景以及处理任务有着针对性,从而提高相应神经网络的性能。
本发明的目的通过以下的技术方案实现:
一种生成大批量点云数据集的方法,包括以下步骤:
将场景中的物体建立三维模型;
利用三维模型采样出点,形成该三维模型的表面点云;
把场景中各个组成部分的表面点云进行组合处理,生成组合表面点云信息;
对组合表面点云信息进行后处理,形成模拟结构光系统获取到的模拟场景点云信息;
多次重复即可生成大批量的点云数据集。
进一步地,所述将场景中的物体建立三维模型,具体为:将场景中的各个不同的物体分别建立三维模型,并转化为易于读取其模型中顶点与面片信息的模型格式,例如.obj格式。
进一步地,所述针对三维模型中各顶点与面片重新采样出点,形成该三维模型的表面点云,具体为:利用模型中的顶点与面片信息,重采样出该模型的表面点云;假设模型中已将模型表面划分成若干细小的三角面片;其中一个三角面片的三个顶点三维坐标分别为A(x1,y1,z1)、B(x2,y2,z2)、C(x3,y3,z3),设a,b,c为三个随机数,其中a+b+c=1且a,b,c∈(0,1),则有,重采样出该三角面片中的一个点D(x,y,z),D的各坐标分量由下式决定:
x=ax1+bx2+cx3
y=ay1+by2+cy3
z=az1+bz2+cz3
其中,a,b,c都为随机数;
以随机或顺序方式遍历模型中的各个面片,并且每次采样这三个随机数a,b,c都进行重新随机,直到采样出足够数量的点,并与原来的面片顶点,组成一个模型的表面点云。
进一步地,所述表面点云包含表面点云各点的三维坐标信息,用m×3的矩阵来表示该表面点云,其中,m为该表面点云中点的个数。
进一步地,所述把场景中各个组成部分的表面点云进行组合处理,生成组合表面点云信息,具体为:采用随机的位置关系将场景中各个组成部分的模型表面点云进行组合;以场景组成部分中的地面为基础,其他的组成部分的表面点云在允许的位置范围内用随机位置变换,最后将各点云的数据矩阵拼接在一起,即将场景中各部分组合起来,生成组合表面点云信息。
进一步地,所述随机位置变换为用随机的旋转矩阵以及平移矩阵进行随机的位置变换。
进一步地,所述对组合表面点云信息进行后处理,形成模拟结构光系统获取到的场景点云信息,具体为:
建立相机投影模型,设ow-xwywzw为世界坐标系,在场景中指定一个点作为相机的光心,建立相机坐标系oc-xcyczc,zc轴朝向场景中需要最后成像的位置,xc轴水平向右,yc轴竖直向下;平行oc-xcyc平面,在zc轴正方向距原点f处建立成像平面,以相机坐标系zc轴与成像平面的交点为原点建立成像平面坐标系o-xoyo,再设图像坐标系o-uv,以图像左上角为原点,图像坐标系的单位为像素;各坐标系间转换关系为:
Figure BDA0002855697450000031
Figure BDA0002855697450000032
Figure BDA0002855697450000033
其中R为3×3旋转矩阵,t为3×1平移矩阵,由世界坐标系与相机坐标系的相对位置决定;
以非常大的数值K初始化一个二维矩阵作为图像,该数值K要确保比组合表面点云中最大的距离要大,以米为距离单位时在大多数场景中可设置该数值为100,具体可根据场景的大小设定。将组合表面点云中的各个点在世界坐标下的坐标值转换成该视点下的图像坐标系,以相机坐标系下的zc轴坐标值作为图像像素值,通过各个点投影到图像坐标系中,并与图像中相应位置的原距离值作比较,取两者中的较小值作为图像中该像素的值,以此将相机没有拍摄到的被遮挡的物体的背面的点去除,即进行转换。在组合表面点云中的点较为稀疏的情况下,可能有一些在实物上理应被遮挡的背面点没有被前面的点遮挡而保留,这需要一些额外的过滤方法。
点云中的点逐一进行转换后,得到一张关于场景的深度图,再从该深度图按原来的转换方法逆转换,得到处理后的点云,此时该场景点云为模拟结构光系统得到的点云,用N×3的数据矩阵进行表示,N为点云中点的个数,将点云顺序打乱后,下采样到统一的n个点,得到n×3的场景点云数据矩阵。
进一步地,额外的过滤方法,在转换中,设置一个阈值,新像素值减去阈值后比周围像素值小,才能进行转换。该阈值应设为数倍于点云中各点间的平均间距,以免一些凹面中的点被误去除,但应比场景中厚度最薄的物体的厚度值小,以免背面点不能有效去除。
进一步地,所述多次重复即可生成大批量的点云数据集,具体为:每次重复采用不同的随机数,使得每一次生成场景中各部分的相对位置关系不同。
进一步地,所述重复次数为f次,将所有数据拼接并保存,得到f×n×3的点云数据集张量。
本发明与现有技术相比,具有如下优点和有益效果:
本发明目的在于提高用于点云处理的神经网络的训练数据量。同时,根据不同的应用场景以及处理任务,可相应地生成对应的场景点云数据,具有广泛应用性。针对用户自定的场景以及处理任务有着针对性,从而提高相应神经网络的性能。
附图说明
图1是本发明所述一种生成大批量点云数据集的方法的流程图;
图2是本发明所述实施例中生成数据集流程图;
图3是本发明所述实施例中三角面片坐标示意图;
图4是本发明所述实施例中相机投影成像模型图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例:
一种生成大批量点云数据集的方法,如图1所示,专门针对解决基于点云处理的神经网络训练时数据集稀缺的问题,使基于神经网络的点云处理算法性能有所提升。图2为生成数据集的流程以及对应的示例图,主要的步骤为建模、由模型转化为物体表面点云、场景各部分点云合成、后续处理;包括以下步骤:
将场景中的物体建立三维模型;
利用三维模型采样出点,形成该三维模型的表面点云;
把场景中各个组成部分的表面点云进行组合处理,生成组合表面点云信息;
对组合表面点云信息进行后处理,形成模拟结构光系统获取到的场景点云信息;
多次重复上述步骤即可生成大批量的点云数据集;
具体过程如下:
首先利用建模软件建立好场景中各部分的三维模型。再模型文件中读取出顶点与面片信息,假设模型中已将模型表面划分成许多细小的三角面片,以图3中举例,某一个三角面片的三个顶点三维坐标分别为A(x1,y1,z1)、B(x2,y2,z2)、C(x3,y3,z3),设a,b,c为三个随机数,其中a+b+c=1且a,b,c∈(0,1),则有,重采样出该三角面片中的一个点D(x,y,z),D的各坐标分量由下式决定:
x=ax1+bx2+cx3
y=ay1+by2+cy3
z=az1+bz2+cz3
以随机或顺序方式遍历模型中的各个面片,并且每次采样这三个随机数a,b,c都进行重新随机,直到采样出足够数量的点,并与原来的面片顶点,组成一个模型的表面点云,该点云包含各点的三维坐标信息,用m×3的矩阵来表示该表面点云,其中,m为该表面点云中点的个数,各个模型中的点云个数m并不一定相等。
之后以场景组成部分中的“地面”为基础,其他的组成部分的点云在允许的位置范围内用随机的旋转矩阵以及平移矩阵进行随机的位置变换,最后将各点云的数据矩阵拼接在一起,即将场景中各部分组合起来,形成组合表面点云。
将组合的物体表面点云去除不需要的点,模拟出使用结构光系统获取的点云的效果。如图4的相机投影成像模型图,设ow-xwywzw为世界坐标系,此时原点建立在机器人底座的底面中心处,以地面作为ow-xwyw平面,zw轴向上;在场景中指定一个点作为相机的光心,建立相机坐标系oc-xcyczc,相机坐标系的原点在相机的光心处,zc轴朝向场景中需要最后成像的位置,即zc轴方向为相机的光轴方向,垂直指向成像平面,xc轴水平向右,yc轴竖直向下;平行oc-xcyc平面,在zc轴正方向距原点f处建立成像平面,以相机坐标系zc轴与成像平面的交点为原点建立成像平面坐标系o-xoyo,再设图像坐标系o-uv,以图像左上角为原点,图像坐标系的单位为像素;各坐标系间转换关系为:
Figure BDA0002855697450000061
Figure BDA0002855697450000062
Figure BDA0002855697450000063
其中R为3×3旋转矩阵,t为3×1平移矩阵,由世界坐标系与相机坐标系的相对位置决定。
以非常大的数值K初始化一个二维矩阵作为“图像”,该数值K要确保比组合表面点云中最大的距离要大,以米为距离单位时在大多数场景中可设置该数值为100,具体可根据场景的大小设定。将组合表面点云中的各个点在世界坐标下的坐标值转换成该视点下的图像坐标系,以相机坐标系下的zc轴坐标值作为图像像素值,通过各个点“投影”到图像坐标系中,并与“图像”中相应位置的距离值作比较,取两者中较小值作为“图像”中该像素的值,以此将“相机没有拍摄到的被遮挡的物体的背面的点”去除。这个过程中,偶尔会有“背面”的点会由于处在“前面”的点的缝隙间而没被遮挡,保留了下来,即在组合表面点云中的点较为稀疏的情况下,有一些在实物上理应被遮挡的背面点没有被前面的点遮挡而保留,则需要额外的过滤方法进行处理;为尽量避免这种情况,像素值替换时不仅需要比原像素值小,还应设置一个阈值,该阈值应设为数倍于点云中各点间的平均间距,以免一些凹面中的点被误去除,但应比场景中厚度最薄的物体的厚度值小,以免背面点不能有效去除。新像素值减去阈值后比周围像素值小,才能进行替换,该阈值主要用来区别在同一个表面但该表面是凹面的点和在“背面”的点。点云中的点逐一进行转换后,得到一张关于场景的“深度图”,再从该深度图按原来的转换方法逆转换,得到处理后的点云,此时该场景点云为模拟结构光系统得到的点云,可用N×3的数据矩阵进行表示,N为点云中点的个数,不同的场景中N的数值不一定相等。将点云顺序打乱后,下采样到统一的n个点,得到n×3的场景点云数据矩阵。
最后每次采用不同的随机数,使得每一次生成场景中各部分的相对位置关系不同。设重复上述过程f次,将所有数据拼接并保存,得到f×n×3的点云数据集张量。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (10)

1.一种生成大批量点云数据集的方法,其特征在于,包括以下步骤:
将场景中的物体建立三维模型;
利用三维模型采样出点,形成该三维模型的表面点云;
把场景中各个组成部分的表面点云进行组合处理,生成组合表面点云信息;
对组合表面点云信息进行后处理,形成模拟结构光系统获取到的场景点云信息;
多次重复即可生成大批量的点云数据集。
2.根据权利要求1所述的一种生成大批量点云数据集的方法,其特征在于,所述将场景中的物体建立三维模型,具体为:将场景中的各个不同的物体分别建立三维模型,并转化为易于读取其模型中顶点与面片信息的模型格式。
3.根据权利要求1所述的一种生成大批量点云数据集的方法,其特征在于,所述利用三维模型采样出点,形成该三维模型的表面点云,具体为:利用模型中的顶点与面片信息,重采样出该模型的表面点云;假设模型中已将模型表面划分成若干细小的三角面片;其中一个三角面片的三个顶点三维坐标分别为A(x1,y1,z1)、B(x2,y2,z2)、C(x3,y3,z3),设a,b,c为三个随机数,其中a+b+c=1且a,b,c∈(0,1),则有,重采样出该三角面片中的一个点D(x,y,z),D的各坐标分量由下式决定:
x=ax1+bx2+cx3
y=ay1+by2+cy3
z=az1+bz2+cz3
其中,a,b,c都为随机数;
以随机或顺序方式遍历模型中的各个面片,并且每次采样这三个随机数a,b,c都进行重新随机,直到采样出足够数量的点,并与原来的面片顶点,组成一个模型的表面点云。
4.根据权利要求3所述的一种生成大批量点云数据集的方法,其特征在于,所述表面点云包含三维模型表面各点的三维坐标信息,用m×3的矩阵来表示该表面点云,其中,m为该表面点云中点的个数。
5.根据权利要求1所述的一种生成大批量点云数据集的方法,其特征在于,所述把场景中各个组成部分的表面点云进行组合处理,生成组合表面点云信息,具体为:采用随机的位置关系将场景中各个组成部分的模型表面点云进行组合;以场景组成部分中的地面为基础,其他的组成部分的表面点云在允许的位置范围内用随机位置变换,最后将各点云的数据矩阵拼接在一起,即将场景中各部分组合起来,生成组合表面点云信息。
6.根据权利要求5所述的一种生成大批量点云数据集的方法,其特征在于,所述随机位置变换为用随机的旋转矩阵以及平移矩阵进行随机的位置变换。
7.根据权利要求1所述的一种生成大批量点云数据集的方法,其特征在于,所述对组合表面点云信息进行后处理,形成模拟结构光系统获取到的场景点云信息,具体为:
建立相机投影模型,设ow-xwywzw为世界坐标系,在场景中指定一个点作为相机的光心,建立相机坐标系oc-xcyczc,zc轴朝向场景中需要最后成像的位置,xc轴水平向右,yc轴竖直向下;平行oc-xcyc平面,在zc轴正方向距原点f处建立成像平面,以相机坐标系zc轴与成像平面的交点为原点建立成像平面坐标系o-xoyo,再设图像坐标系o-uv,以图像左上角为原点,图像坐标系的单位为像素;各坐标系间转换关系为:
Figure FDA0002855697440000021
Figure FDA0002855697440000022
Figure FDA0002855697440000023
其中R为3×3旋转矩阵,t为3×1平移矩阵,由世界坐标系与相机坐标系的相对位置决定;
以数值K初始化一个二维矩阵作为图像,所述数值K要确保比组合表面点云中最大的距离要大,将组合表面点云中的各个点在世界坐标下的坐标值转换成该视点下的图像坐标系,以相机坐标系下的zc轴坐标值作为图像像素值,通过各个点投影到图像坐标系中,并与图像中相应位置的原距离值作比较,取两者中较小值作为图像中该像素的值,以此将相机没有拍摄到的被遮挡的物体的背面的点去除,即进行转换;
组合表面点云中的点逐一进行转换后,得到一张关于场景的深度图,再从该深度图按原来的转换方法逆转换,得到处理后的点云,此时该场景点云为模拟结构光系统得到的点云,用N×3的数据矩阵进行表示,N为点云中点的个数,将点云顺序打乱后,下采样到统一的n个点,得到n×3的场景点云数据矩阵。
8.根据权利要求7所述的一种生成大批量点云数据集的方法,其特征在于,所述转换中,设置一个阈值,新像素值减去阈值后比周围像素值小,才能进行转换;该阈值设为数倍于点云中各点间的平均间距,但应比场景中厚度最薄的物体的厚度值小。
9.根据权利要求1所述的一种生成大批量点云数据集的方法,其特征在于,所述多次重复即可生成大批量的点云数据集,具体为:每次重复采用不同的随机数,使得每一次生成场景中各部分的相对位置关系不同。
10.根据权利要求9所述的一种生成大批量点云数据集的方法,其特征在于,所述重复次数为f次,将所有数据拼接并保存,得到f×n×3的点云数据集张量。
CN202011545635.1A 2020-12-24 2020-12-24 一种生成大批量点云数据集的方法 Pending CN112562067A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011545635.1A CN112562067A (zh) 2020-12-24 2020-12-24 一种生成大批量点云数据集的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011545635.1A CN112562067A (zh) 2020-12-24 2020-12-24 一种生成大批量点云数据集的方法

Publications (1)

Publication Number Publication Date
CN112562067A true CN112562067A (zh) 2021-03-26

Family

ID=75030495

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011545635.1A Pending CN112562067A (zh) 2020-12-24 2020-12-24 一种生成大批量点云数据集的方法

Country Status (1)

Country Link
CN (1) CN112562067A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115578524A (zh) * 2022-12-09 2023-01-06 华东交通大学 红外三维重构方法、系统、存储介质及计算机设备
CN117516485A (zh) * 2024-01-04 2024-02-06 东北大学 一种飞机发动机自动引导安装的位姿视觉测量方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108428255A (zh) * 2018-02-10 2018-08-21 台州智必安科技有限责任公司 一种基于无人机的实时三维重建方法
CN108629835A (zh) * 2017-03-20 2018-10-09 哈尔滨工业大学 基于高光谱、真彩图与点云互补的室内重建方法及系统
CN109685848A (zh) * 2018-12-14 2019-04-26 上海交通大学 一种三维点云与三维传感器的神经网络坐标变换方法
CN109685891A (zh) * 2018-12-28 2019-04-26 鸿视线科技(北京)有限公司 基于深度图像的建筑物三维建模与虚拟场景生成系统
CN111079545A (zh) * 2019-11-21 2020-04-28 上海工程技术大学 一种基于图像修复的三维目标检测方法和系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108629835A (zh) * 2017-03-20 2018-10-09 哈尔滨工业大学 基于高光谱、真彩图与点云互补的室内重建方法及系统
CN108428255A (zh) * 2018-02-10 2018-08-21 台州智必安科技有限责任公司 一种基于无人机的实时三维重建方法
CN109685848A (zh) * 2018-12-14 2019-04-26 上海交通大学 一种三维点云与三维传感器的神经网络坐标变换方法
CN109685891A (zh) * 2018-12-28 2019-04-26 鸿视线科技(北京)有限公司 基于深度图像的建筑物三维建模与虚拟场景生成系统
CN111079545A (zh) * 2019-11-21 2020-04-28 上海工程技术大学 一种基于图像修复的三维目标检测方法和系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SHENG J 等: "Research on point-cloud collection and 3D model reconstruction", IECON 2020 THE 46TH ANNUAL CONFERENCE OF THE IEEE INDUSTRIAL ELECTRONICS SOCIETY. IEEE, pages 5331 - 5336 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115578524A (zh) * 2022-12-09 2023-01-06 华东交通大学 红外三维重构方法、系统、存储介质及计算机设备
CN117516485A (zh) * 2024-01-04 2024-02-06 东北大学 一种飞机发动机自动引导安装的位姿视觉测量方法
CN117516485B (zh) * 2024-01-04 2024-03-22 东北大学 一种飞机发动机自动引导安装的位姿视觉测量方法

Similar Documents

Publication Publication Date Title
CN111243093B (zh) 三维人脸网格的生成方法、装置、设备及存储介质
CN110874864B (zh) 获取对象三维模型的方法、装置、电子设备及系统
CN115100339B (zh) 图像生成方法、装置、电子设备和存储介质
CN108921926A (zh) 一种基于单张图像的端到端三维人脸重建方法
CN105678683A (zh) 一种三维模型的二维存储方法
CN110060329B (zh) 一种基于彩色深度视频流数据的移动端人体模型重建方法
CN111080776B (zh) 人体动作三维数据采集和复现的处理方法及系统
CN110246146A (zh) 基于多次深度图像渲染的全视差光场内容生成方法及装置
CN112651881B (zh) 图像合成方法、装置、设备、存储介质以及程序产品
CN113012293A (zh) 石刻模型构建方法、装置、设备及存储介质
CN106023307B (zh) 基于现场环境的快速重建三维模型方法及系统
EP4118619A1 (en) Pose estimation method and apparatus
WO2023093739A1 (zh) 一种多视图三维重建的方法
JP7479729B2 (ja) 三次元表現方法及び表現装置
CN112562067A (zh) 一种生成大批量点云数据集的方法
CN114742956B (zh) 模型处理方法、装置、设备及计算机可读存储介质
CN113112608A (zh) 一种从物体图形自动建立三维模型的方法
CN114463408A (zh) 自由视点图生成方法、装置、设备及存储介质
CN113989434A (zh) 一种人体三维重建方法及设备
CN116681839B (zh) 一种基于改进NeRF的实景三维目标重建与单体化方法
CN111105489A (zh) 数据合成方法和装置、存储介质和电子装置
CN116012449A (zh) 一种基于深度信息的图像渲染方法及装置
KR100693134B1 (ko) 3차원 이미지 처리
CN113223137B (zh) 透视投影人脸点云图的生成方法、装置及电子设备
Waizenegger et al. Parallel high resolution real-time visual hull on gpu

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination