CN110378947B - 3d模型重建方法、装置及电子设备 - Google Patents

3d模型重建方法、装置及电子设备 Download PDF

Info

Publication number
CN110378947B
CN110378947B CN201910591285.3A CN201910591285A CN110378947B CN 110378947 B CN110378947 B CN 110378947B CN 201910591285 A CN201910591285 A CN 201910591285A CN 110378947 B CN110378947 B CN 110378947B
Authority
CN
China
Prior art keywords
model
target object
texture map
texture
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910591285.3A
Other languages
English (en)
Other versions
CN110378947A (zh
Inventor
李佩易
王长虎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing ByteDance Network Technology Co Ltd
Original Assignee
Beijing ByteDance Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing ByteDance Network Technology Co Ltd filed Critical Beijing ByteDance Network Technology Co Ltd
Priority to CN201910591285.3A priority Critical patent/CN110378947B/zh
Publication of CN110378947A publication Critical patent/CN110378947A/zh
Application granted granted Critical
Publication of CN110378947B publication Critical patent/CN110378947B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Data Mining & Analysis (AREA)
  • Geometry (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Generation (AREA)

Abstract

本公开实施例中提供了一种3D模型重建方法、装置及电子设备,属于数据处理技术领域,该方法包括:从包含目标对象的输入图像上对所述目标对象执行分割操作,以获得所述目标对象在所述输入图像上的纹理贴图;对所述目标对象执行骨骼检测,形成所述目标对象的3D骨骼模型;获取所述纹理贴图的边缘部分及所述边缘部分在所述3D骨骼模型中三角面片上的深度值;当所述深度值是否大于预设阈值时,利用预设的网络对所述边缘部分边缘纹理进行预测,形成边缘预测纹理贴图;基于所述边缘预测纹理贴图,形成所述目标对象的3D重建模型。通过本公开的方案,能够基于多张图像生成贴图纹理,提高了3D模型重建纹理的准确性。

Description

3D模型重建方法、装置及电子设备
技术领域
本公开涉及3D模型重建技术领域,尤其涉及一种3D模型重建方法、装置及电子设备。
背景技术
基于人物的3D建模,是通过一定的技术手段来设立人物的三维模型,常见的3D模型重建方法包括基于高精度硬件,对整个人体进行全身进行扫描,根据扫描数据建立人体3D模型。还可以根据标准人体3D模型,由专业的艺术工作者,根据目标人体的样貌(照片、视频等记录下的样貌),调整3D模型,使其尽可能地接近目标人体的3D样貌。或者使用GAN网络实现相似功能,创建后的人体3D模型,一般的使用场景是让该模型做一些指定的动作(比如跳舞)。使用深度学习中的对抗网络(GAN)也可以达到相类似的效果。方法是通过对目标人物(人物A)的多张图片数据,学习出人物A的GAN模型,然后根据舞蹈动作的2D骨骼生成人物A的跳舞动作。
上述实现方式的执行过程中,存在3D建模贴图失真的情况,导致产生的3D建模图像不够真实。
发明内容
有鉴于此,本公开实施例提供一种3D模型重建方法、装置及电子设备,至少部分解决现有技术中存在的问题。
第一方面,本公开实施例提供了一种3D模型重建方法,包括:
从包含目标对象的输入图像上对所述目标对象执行分割操作,以获得所述目标对象在所述输入图像上的纹理贴图;
对所述目标对象执行骨骼检测,形成所述目标对象的3D骨骼模型;
获取所述纹理贴图的边缘部分及所述边缘部分在所述3D骨骼模型中三角面片上的深度值;
当所述深度值是否大于预设阈值时,利用预设的网络对所述边缘部分边缘纹理进行预测,形成边缘预测纹理贴图;
基于所述边缘预测纹理贴图,形成所述目标对象的3D重建模型。
根据本公开实施例的一种具体实现方式,所述获取所述纹理贴图的边缘部分及所述边缘部分在所述3D骨骼模型中三角面片上的深度值,包括:
获取所述边缘部分在所述3D骨骼模型中三角面片Z轴上的值;
将所述Z轴上的值作为所述深度值。
根据本公开实施例的一种具体实现方式,所述基于所述预测纹理,形成所述目标对象的3D重建模型,包括:
获取目标对象的正面纹理贴图、遮挡纹理贴图及边缘预测纹理贴图;
将正面纹理贴图、遮挡纹理贴图及边缘预测纹理贴图按照预设的规则匹配到所述3D骨骼模型的三角面片上,形成所述3D重建模型。
根据本公开实施例的一种具体实现方式,所述获取目标对象的正面纹理贴图、遮挡纹理贴图及边缘预测纹理贴图,包括:
对所述输入图像进行梯度计算;
选取梯度计算结果大于预设值的像素点,形成所述目标对象的边缘;
基于所述目标对象的边缘,形成所述目标对象的分割掩码;
获取所述分割掩码区域在所述输入图像上的区域表示;
将所述区域表示内的像素集合作为所述输入图像的正面纹理贴图。
根据本公开实施例的一种具体实现方式,所述获取目标对象的正面纹理贴图、遮挡纹理贴图及边缘预测纹理贴图,还包括:
获取所述3D骨骼模型被遮挡部分的区域表示;
将所述区域表示及所述输入图像输入到预测网络中;
利用预测网络预测所述区域表示内的图像,形成遮挡纹理贴图。
根据本公开实施例的一种具体实现方式,所述对所述目标对象执行骨骼检测,形成所述目标对象的3D骨骼模型,包括:
将预设的3D初始模型投影到2D平面上,形成模型轮廓;
基于所述分割掩码,形成所述目标对象的输入轮廓;
在所述输入轮廓和所述模型轮廓上分别设置第一关键点集合和第二关键点集合,所述第一关键点集合与所述第二关键点集合中关键点的数目相同且一一对应;
计算所述模型轮廓中任一关键点pi在所述输入轮廓中的对应平面坐标(xi,yi);
根据输入轮廓和模型轮廓在长、宽上的变化比例,变换所述3D初始模型中任一关键点pi的空间坐标zi;
基于所述平面坐标和所述空间坐标,确定所述3D骨骼模型的最终形状。
根据本公开实施例的一种具体实现方式,所述将正面纹理贴图、遮挡纹理贴图及边缘预测纹理贴图按照预设的规则匹配到所述3D骨骼模型的三角面片上,形成所述3D重建模型,包括:
确认3D空间坐标系下的摄像机坐标,使得在所述摄像机坐标下,所述3D骨骼模型在显像画面上的投影所形成的轮廓与所述输入轮廓完全重合;
确定组成所述3D骨骼模型的任一个三角面片的三个顶点在所述输入轮廓对应原图上的3个2D对应点;
利用所述对应点、正面纹理贴图、遮挡纹理贴图及边缘预测纹理贴图,确定贴图面片;
将所述贴图面片作为其所对应的3D三角面片的贴图,将所述输入图像上的贴图面片贴在所述3D三角面片上;
将包含贴图面片的3D骨骼模型作为所述目标对象的第一3D重建模型。
根据本公开实施例的一种具体实现方式,所述对所述目标对象执行骨骼检测,形成所述目标对象的3D骨骼模型,包括:
将预设的3D初始模型投影到2D平面上,形成模型轮廓;
基于所述目标对象的分割掩码,形成所述目标对象的输入轮廓;
基于所述输入轮廓和所述模型轮廓,形成所述目标对象的3D骨骼模型。
第二方面,本公开实施例提供了一种3D模型重建装置,包括:
分割模块,用于从包含目标对象的输入图像上对所述目标对象执行分割操作,以获得所述目标对象在所述输入图像上的纹理贴图;
形成模块,用户对所述目标对象执行骨骼检测,形成所述目标对象的3D骨骼模型;
获取模块,用于获取所述纹理贴图的边缘部分及所述边缘部分在所述3D骨骼模型中三角面片上的深度值;
预测模块,用于当所述深度值是否大于预设阈值时,利用预设的网络对所述边缘部分边缘纹理进行预测,形成边缘预测纹理贴图;
执行模块,用于基于所述边缘预测纹理贴图,形成所述目标对象的3D重建模型。
第三方面,本公开实施例还提供了一种电子设备,该电子设备包括:
至少一个处理器;以及,
与该至少一个处理器通信连接的存储器;其中,
该存储器存储有可被该至少一个处理器执行的指令,该指令被该至少一个处理器执行,以使该至少一个处理器能够执行前述任第一方面或第一方面的任一实现方式中的3D模型重建方法。
第四方面,本公开实施例还提供了一种非暂态计算机可读存储介质,该非暂态计算机可读存储介质存储计算机指令,该计算机指令用于使该计算机执行前述第一方面或第一方面的任一实现方式中的3D模型重建方法。
第五方面,本公开实施例还提供了一种计算机程序产品,该计算机程序产品包括存储在非暂态计算机可读存储介质上的计算程序,该计算机程序包括程序指令,当该程序指令被计算机执行时,使该计算机执行前述第一方面或第一方面的任一实现方式中的3D模型重建方法。
本公开实施例中的3D模型重建方案,包括从包含目标对象的输入图像上对所述目标对象执行分割操作,以获得所述目标对象在所述输入图像上的纹理贴图;对所述目标对象执行骨骼检测,形成所述目标对象的3D骨骼模型;获取所述纹理贴图的边缘部分及所述边缘部分在所述3D骨骼模型中三角面片上的深度值;当所述深度值是否大于预设阈值时,利用预设的网络对所述边缘部分边缘纹理进行预测,形成边缘预测纹理贴图;基于所述边缘预测纹理贴图,形成所述目标对象的3D重建模型。通过本公开的方案,能够基于多张图像生成贴图纹理,提高了3D模型重建纹理的准确性。
附图说明
为了更清楚地说明本公开实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1为本公开实施例提供的一种3D模型重建流程示意图;
图2为本公开实施例提供的另一种3D模型重建流程示意图;
图3为本公开实施例提供的另一种3D模型重建流程示意图;
图4为本公开实施例提供的另一种3D模型重建流程示意图;
图5为本公开实施例提供的3D模型重建装置结构示意图;
图6为本公开实施例提供的电子设备示意图。
具体实施方式
下面结合附图对本公开实施例进行详细描述。
以下通过特定的具体实例说明本公开的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本公开的其他优点与功效。显然,所描述的实施例仅仅是本公开一部分实施例,而不是全部的实施例。本公开还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本公开的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。基于本公开中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本公开保护的范围。
需要说明的是,下文描述在所附权利要求书的范围内的实施例的各种方面。应显而易见,本文中所描述的方面可体现于广泛多种形式中,且本文中所描述的任何特定结构及/或功能仅为说明性的。基于本公开,所属领域的技术人员应了解,本文中所描述的一个方面可与任何其它方面独立地实施,且可以各种方式组合这些方面中的两者或两者以上。举例来说,可使用本文中所阐述的任何数目个方面来实施设备及/或实践方法。另外,可使用除了本文中所阐述的方面中的一或多者之外的其它结构及/或功能性实施此设备及/或实践此方法。
还需要说明的是,以下实施例中所提供的图示仅以示意方式说明本公开的基本构想,图式中仅显示与本公开中有关的组件而非按照实际实施时的组件数目、形状及尺寸绘制,其实际实施时各组件的型态、数量及比例可为一种随意的改变,且其组件布局型态也可能更为复杂。
另外,在以下描述中,提供具体细节是为了便于透彻理解实例。然而,所属领域的技术人员将理解,可在没有这些特定细节的情况下实践所述方面。
本公开实施例提供一种3D模型重建方法。本实施例提供的3D模型重建方法可以由一计算装置来执行,该计算装置可以实现为软件,或者实现为软件和硬件的组合,该计算装置可以集成设置在服务器、终端设备等中。
参见图1及图2,本公开实施例提供的一种3D模型重建方法,包括如下步骤:
S101,从包含目标对象的输入图像上对所述目标对象执行分割操作,以获得所述目标对象在所述输入图像上的纹理贴图。
输入图像为常见的包含物体的图像,例如,输入图像可以是一个包含人物的照片,也可以是从包含人物的视频中提取的一个视频帧图像,输入图像作为一个静态的图像,能够对其进行图像处理。
目标对象是输入图像中存在的对象,目标对象可以是人、动物、汽车等各种可以通过3D模型来描述的对象,目标对象在输入图像中以2D的形式存在。
目标对象在输入图像中通常占用一定的面积,为此,需要对输入图像进行分割操作,通过分割操作,能够获取目标对象在输入图像上的轮廓,通过该轮廓,能够确定目标对象的存在区域,从而进一步的确定目标对象的分割掩码。对目标对象进行分割操作可以采用多种现有技术中存在的分割算法,在此不对分割操作的方式进行限定。
获取到分割掩码之后,可以基于分割掩码在输入图像上的表示区域来获取该表示区域内的所有像素集合,将该像素集合作为目标对象在所述输入图像上的纹理贴图。
纹理贴图包含了目标对象的多种色彩信息,例如,以人物类型的目标对象为例,纹理贴图中包含有人物不同部分的颜色,这些不同部位的颜色可以是头发的颜色、四肢的颜色、上衣的颜色、裤子的颜色等等。通过获取纹理贴图,能够准确的获取目标对象的2D颜色表示,从而为构建目标对象的3D模型奠定了基础。
为了便于对纹理贴图进行管理和使用,可以对纹理贴图进行分块管理,具体的,可以将纹理贴图分割成多个组成部分,每一个组成部分代表不同的颜色组成,通过对不同的部分进行编号处理,形成纹理贴图序列。在使用时,可以基于实际的需要使用纹理贴图序列中的一个或多个纹理贴图(例如,仅使用人物的四肢纹理贴图)。
S102,对所述目标对象执行骨骼检测,形成所述目标对象的3D骨骼模型。
获得到目标对象的轮廓之后,可以基于目标对象的轮廓对目标对象执行2D骨骼检测,例如,可以通过深度学习的方式对目标对象的体姿态进行分析,用卷积图层表达纹理信息和空间信息。将深度学习的网络结构分为多个阶段,其中第一个阶段会产生初步的关键点的检测效果,接下来的几个阶段均以前一个阶段的预测输出和从原图提取的特征作为输入,进一步提高关键点的检测效果。除了上面的2D骨骼检测方法之外,还可以采用其他的2D骨骼检测方法,在此不对此进行限定。
接下来,将已经建好的3D模型(初始模型)投影到2D的平面,这样在2D的平面上就形成了一个模型轮廓剪影。分别将输入图像中的目标对象的输入轮廓剪影和模型轮廓剪影进行投影操作,形成输入轮廓和模型轮廓。
在输入轮廓和模型轮廓上取相同个数的点,保证这些点之间一一对应,模型轮廓上的点形成点集P,通过变换公式将点集换为输入轮廓上的点集。用这个方法,就可以求得模型轮廓中任意一点在输入轮廓中的对应坐标。
处理3D模型中所有三角面片的顶点坐标中的x和y坐标,这样,新的3D模型的剪影就可以和输入剪影完全重合。根据输入轮廓和模型轮廓长、宽上的变化比例,变换3D模型中的z坐标。
通过以上的方法步骤,改变后的3D模型的体格就和图片中的人体体格一致。这样出来的3D人体重建就可以更加的逼真。
S103,获取所述纹理贴图的边缘部分及所述边缘部分在所述3D骨骼模型中三角面片上的深度值。
边缘处的纹理很容易就被背景的纹理、颜色所干扰,而引起失真。边缘部分的纹理贴图如果不进行处理,会出现失真的情况,因此,需要特殊处理。
具体的处理方法是根据被贴图的三角形面片在Z轴上的纵深来进行判断,Z轴为深度轴,其为垂直于输入图像且指向输入图像里的轴。可以采用常见的获取图像深度值的方式来获取三角面片上的深度值,在此不对获取深度值的具体实现方式进行限定。
S104,当所述深度值是否大于预设阈值时,利用预设的网络对所述边缘部分边缘纹理进行预测,形成边缘预测纹理贴图。
如果纵深的跨度超过一个阈值,则记录下此面盘,并使用预设的网络(例如GAN网络)进行纹理生成。作为一个例子,可以采用基于神经网络模型的预测网络,预测网络包括卷积层、采样层和全连接层。卷积层主要参数包括卷积核的大小和输入特征图的数量,每个卷积层可以包含若干个相同大小的特征图,同一层特征值采用共享权值的方式,每层内的卷积核大小一致。卷积层对输入图像进行卷积计算,并提取输入图像的布局特征。
卷积层的特征提取层后面都可以与采样层连接,采样层用来求输入图像的局部平均值并进行二次特征提取,通过将采样层与卷积层连接,能够保证神经网络模型对于输入图像具有较好的鲁棒性。
采样层可以包括上采样层和下采样层,上采样层通过对输入图像进行插值等方式,增加图像中的像素信息。下采样层通过对输入的图像进行特征提取的方式,提取输入图像的特征,
为了加快预测网络的训练速度,还可以在卷积层后面还设置有池化层(图中未示出),池化层采用最大池化的方式对卷积层的输出结果进行处理,能够更好的提取输入图像的不变性特征。
全连接层将经过多个卷积层和池化层的图像特征图中的特征进行整合,获取输入图像特征具有的分类特征,以用于图像分类。在预测网络的神经网络模型中,全连接层将卷积层产生的特征图映射成一个固定长度的特征向量。该特征向量包含了输入图像所有特征的组合信息,该特征向量将图像中含有最具有特点的图像特征保留了下来以完成图像分类任务。这样一来便可以计算输入的图像对应的边缘预测纹理贴图。
S105,基于所述边缘预测纹理贴图,形成所述目标对象的3D重建模型。
获取到边缘预测纹理贴图之后,可以结合边缘预测纹理贴图以及其他的纹理贴图一起,将贴图贴到3D骨骼模型中,形成最终的3D重建模型,对于粘贴到3D骨骼模型中的贴图,可以采用如下方式综合获取:
a、直接使用分割,将输入图片中的剪影部分生成最终3D建模后的纹理贴图。该部分纹理贴图覆盖了同输入图像相同角度观察人体时,能直接观察到的三角形面片的贴图。
b、根据建好的3D骨骼模型,获得遮挡的信息(比如手放在身体前面了,遮挡了身体的一部分,被遮挡的部分的纹理贴图在原图中就看不到),并将遮挡的部分使用GAN网络(预测网络)生成纹理贴图。另外,遮挡的关系可以通过渲染工具(比如OpenGL)中的z-buffer来进行检查。
c、边缘部分的纹理贴图通过步骤S104中的方法来获得。
d、背对摄像机的部分的纹理贴图从单张图片中是无法获取的,处理方法是:经过上面a、b、c、三步处理后的贴图,全部集合在一起,生成一个剪影的贴图,直接作为背面的贴图。将敏感的地方作抠图处理,并用GAN网络进行纹理生成。以人体为例,敏感的地方包括:头部的后面、身体上有衣服logo的部分、鞋子的部分等。
获得贴图后,可以找到3D空间坐标系下的合适的摄像机坐标,使得在该摄像机坐标下,3D骨骼模型在显像画面上的投影所形成的轮廓,和输入轮廓完全重合。
对于3D骨骼模型上每一个三角面片,用三个顶点来进行表示,具体表示为(xi,yi,zi)其中i=1,…,3。由于轮廓完全重合,因此这三个点在轮廓所框出的原图上可以找到对应的3个2D的点,即(xi,yi)其中i=1,…,3。
这三个在原图(输入图像)上的2D点就可以从原图中抠出一个贴图面片,将这个贴图面片则作为其所对应的3D三角面片的贴图,通过贴图时的差值计算,就可以将原图中的三角面片贴图贴在3D的三角面片上。
由于单张图片只有一个视角,因此3D骨骼模型中并不是所有的三角面片都能找到对应的2D输入图像中的三角面片(由于模型自遮挡、处于模型背面),称之为不可见面片。此时,由于人体的模型是一个3D的单联通域,因此,对于被遮挡的、处于模型背面的三角面片,总能找到一个对应的处于正面的且未被遮挡的三角面片,称这个三角面片为可视面片。在这个建模方法中,使用对应的可视面片上的贴图来对不可见面片进行贴图。
本公开中的方案可以应用在网购方面有虚拟试衣,娱乐方面有图片中动作重新自定义,图片中人物跳舞等。使用限制很少,建好的3D模型可以做任何的动作。同时并不一定需要使用包含整个身体的图片,包含半个身体(例如,左右半个、上下半个)的图片同样可以使用,该套流程可以为其生成半个身体的3D重建模型。由此提高了3D重建模型的便利性。
通过本申请的方案,能够达到如下技术效果:1、被建模的人物不需要配合,只需提供单张全身照片即可。2、成本低,无需特殊硬件。3、完全自动化,整个建模过程不需要人工干预。4、获得的人体3D模型可以应用于各种场景,使用方面不受限制。5、由于贴图获取的方法的改进方法,人体3D模型真实度大大提高。
参见图3,根据本公开实施例的一种具体实现方式,所述基于所述预测纹理,形成所述目标对象的3D重建模型,包括:
S301,获取目标对象的正面纹理贴图、遮挡纹理贴图及边缘预测纹理贴图。
对于正面纹理贴图直接使用分割,将输入图片中的剪影部分生成最终3D建模后的纹理贴图。该部分纹理贴图覆盖了同输入图像相同角度观察人体时,能直接观察到的三角形面片的贴图。
根据建好的3D骨骼模型,获得遮挡的信息(比如手放在身体前面了,遮挡了身体的一部分,被遮挡的部分的纹理贴图在原图中就看不到),并将遮挡的部分使用GAN网络(预测网络)生成遮挡纹理贴图。另外,遮挡的关系可以通过渲染工具(比如OpenGL)中的z-buffer来进行检查。
边缘预测纹理贴图可以采用步骤S104中的方式进行获取。
S302,将正面纹理贴图、遮挡纹理贴图及边缘预测纹理贴图按照预设的规则匹配到所述3D骨骼模型的三角面片上,形成所述3D重建模型。
背对摄像机的部分的纹理贴图从单张图片中是无法获取的,处理方法是:经过上面步骤S301处理后的贴图,全部集合在一起,生成一个剪影的贴图,直接作为背面的贴图。将敏感的地方作抠图处理,并用GAN网络进行纹理生成。以人体为例,敏感的地方包括:头部的后面、身体上有衣服logo的部分、鞋子的部分等。
根据本公开实施例的一种具体实现方式,所述获取目标对象的正面纹理贴图、遮挡纹理贴图及边缘预测纹理贴图,包括:对所述输入图像进行梯度计算;选取梯度计算结果大于预设值的像素点,形成所述目标对象的边缘;基于所述目标对象的边缘,形成所述目标对象的分割掩码;获取所述分割掩码区域在所述输入图像上的区域表示;将所述区域表示内的像素集合作为所述输入图像的正面纹理贴图。
根据本公开实施例的一种具体实现方式,所述获取目标对象的正面纹理贴图、遮挡纹理贴图及边缘预测纹理贴图,还包括:获取所述3D骨骼模型被遮挡部分的区域表示;将所述区域表示及所述输入图像输入到预测网络中;利用预测网络预测所述区域表示内的图像,形成遮挡纹理贴图。
根据本公开实施例的一种具体实现方式,所述对所述目标对象执行骨骼检测,形成所述目标对象的3D骨骼模型,包括:将预设的3D初始模型投影到2D平面上,形成模型轮廓;基于所述分割掩码,形成所述目标对象的输入轮廓;在所述输入轮廓和所述模型轮廓上分别设置第一关键点集合和第二关键点集合,所述第一关键点集合与所述第二关键点集合中关键点的数目相同且一一对应;计算所述模型轮廓中任一关键点pi在所述输入轮廓中的对应平面坐标(xi,yi);根据输入轮廓和模型轮廓在长、宽上的变化比例,变换所述3D初始模型中任一关键点pi的空间坐标zi;基于所述平面坐标和所述空间坐标,确定所述3D骨骼模型的最终形状。
参见图4,根据本公开实施例的一种具体实现方式,所述将正面纹理贴图、遮挡纹理贴图及边缘预测纹理贴图按照预设的规则匹配到所述3D骨骼模型的三角面片上,形成所述3D重建模型,包括:
S401,确认3D空间坐标系下的摄像机坐标,使得在所述摄像机坐标下,所述3D骨骼模型在显像画面上的投影所形成的轮廓与所述输入轮廓完全重合。
S402,确定组成所述3D骨骼模型的任一个三角面片的三个顶点在所述输入轮廓对应原图上的3个2D对应点。
S403,利用所述对应点、正面纹理贴图、遮挡纹理贴图及边缘预测纹理贴图,确定贴图面片;将所述贴图面片作为其所对应的3D三角面片的贴图,将所述输入图像上的贴图面片贴在所述3D三角面片上。
S404,将包含贴图面片的3D骨骼模型作为所述目标对象的第一3D重建模型。
根据本公开实施例的一种具体实现方式,所述对所述目标对象执行骨骼检测,形成所述目标对象的3D骨骼模型,包括:将预设的3D初始模型投影到2D平面上,形成模型轮廓;基于所述目标对象的分割掩码,形成所述目标对象的输入轮廓;基于所述输入轮廓和所述模型轮廓,形成所述目标对象的3D骨骼模型。
与上面的方法实施例相对应,参见图5,本公开实施例还提供了一种3D模型重建装置50,包括:
分割模块501,用于从包含目标对象的输入图像上对所述目标对象执行分割操作,以获得所述目标对象在所述输入图像上的纹理贴图;
形成模块502,用户对所述目标对象执行骨骼检测,形成所述目标对象的3D骨骼模型;
获取模块503,用于获取所述纹理贴图的边缘部分及所述边缘部分在所述3D骨骼模型中三角面片上的深度值;
预测模块504,用于当所述深度值是否大于预设阈值时,利用预设的网络对所述边缘部分边缘纹理进行预测,形成边缘预测纹理贴图;
执行模块505,用于基于所述边缘预测纹理贴图,形成所述目标对象的3D重建模型。
图5所示装置可以对应的执行上述方法实施例中的内容,本实施例未详细描述的部分,参照上述方法实施例中记载的内容,在此不再赘述。
参见图6,本公开实施例还提供了一种电子设备60,该电子设备包括:
至少一个处理器;以及,
与该至少一个处理器通信连接的存储器;其中,
该存储器存储有可被该至少一个处理器执行的指令,该指令被该至少一个处理器执行,以使该至少一个处理器能够执行前述方法实施例中3D模型重建方法。
本公开实施例还提供了一种非暂态计算机可读存储介质,该非暂态计算机可读存储介质存储计算机指令,该计算机指令用于使该计算机执行前述方法实施例中。
本公开实施例还提供了一种计算机程序产品,该计算机程序产品包括存储在非暂态计算机可读存储介质上的计算程序,该计算机程序包括程序指令,当该程序指令被计算机执行时,使该计算机执行前述方法实施例中的3D模型重建方法。
下面参考图6,其示出了适于用来实现本公开实施例的电子设备60的结构示意图。本公开实施例中的电子设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图6示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图6所示,电子设备60可以包括处理装置(例如中央处理器、图形处理器等)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储装置608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有电子设备60操作所需的各种程序和数据。处理装置601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
通常,以下装置可以连接至I/O接口605:包括例如触摸屏、触摸板、键盘、鼠标、图像传感器、麦克风、加速度计、陀螺仪等的输入装置606;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置607;包括例如磁带、硬盘等的存储装置608;以及通信装置609。通信装置609可以允许电子设备60与其他设备进行无线或有线通信以交换数据。虽然图中示出了具有各种装置的电子设备60,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置609从网络上被下载和安装,或者从存储装置608被安装,或者从ROM 602被安装。在该计算机程序被处理装置601执行时,执行本公开实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取至少两个网际协议地址;向节点评价设备发送包括所述至少两个网际协议地址的节点评价请求,其中,所述节点评价设备从所述至少两个网际协议地址中,选取网际协议地址并返回;接收所述节点评价设备返回的网际协议地址;其中,所获取的网际协议地址指示内容分发网络中的边缘节点。
或者,上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:接收包括至少两个网际协议地址的节点评价请求;从所述至少两个网际协议地址中,选取网际协议地址;返回选取出的网际协议地址;其中,接收到的网际协议地址指示内容分发网络中的边缘节点。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定,例如,第一获取单元还可以被描述为“获取至少两个网际协议地址的单元”。
应当理解,本公开的各部分可以用硬件、软件、固件或它们的组合来实现。
以上所述,仅为本公开的具体实施方式,但本公开的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本公开揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本公开的保护范围之内。因此,本公开的保护范围应以权利要求的保护范围为准。

Claims (9)

1.一种3D模型重建方法,其特征在于,包括:
从包含目标对象的输入图像上对所述目标对象执行分割操作,以获得所述目标对象在所述输入图像上的纹理贴图;
将预设的3D初始模型投影到2D平面上,形成模型轮廓;
基于分割掩码,形成所述目标对象的输入轮廓;其中,所述分割掩码是从所述输入图像中提取所述目标对象的边缘,根据所述边缘形成的;
在所述输入轮廓和所述模型轮廓上分别设置第一关键点集合和第二关键点集合,所述第一关键点集合与所述第二关键点集合中关键点的数目相同且一一对应;
计算所述模型轮廓中任一关键点pi在所述输入轮廓中的对应平面坐标(xi,yi);
根据所述输入轮廓和模型轮廓在长、宽上的变化比例,变换所述3D初始模型中任一关键点pi的空间坐标zi;
基于所述平面坐标和所述空间坐标,确定3D骨骼模型的最终形状;
获取所述纹理贴图的边缘部分及所述边缘部分在所述3D骨骼模型中三角面片上的深度值;
当所述深度值是否大于预设阈值时,利用预设的网络对所述边缘部分边缘纹理进行预测,形成边缘预测纹理贴图;
基于所述边缘预测纹理贴图,形成所述目标对象的3D重建模型。
2.根据权利要求1所述的方法,其特征在于,所述获取所述纹理贴图的边缘部分及所述边缘部分在所述3D骨骼模型中三角面片上的深度值,包括:
获取所述边缘部分在所述3D骨骼模型中三角面片Z轴上的值;
将所述Z轴上的值作为所述深度值。
3.根据权利要求1所述的方法,其特征在于,所述基于所述边缘预测纹理贴图,形成所述目标对象的3D重建模型,包括:
获取目标对象的正面纹理贴图、遮挡纹理贴图及边缘预测纹理贴图;
将正面纹理贴图、遮挡纹理贴图及边缘预测纹理贴图按照预设的规则匹配到所述3D骨骼模型的三角面片上,形成所述3D重建模型。
4.根据权利要求3所述的方法,其特征在于,所述获取目标对象的正面纹理贴图、遮挡纹理贴图及边缘预测纹理贴图,包括:
对所述输入图像进行梯度计算;
选取梯度计算结果大于预设值的像素点,形成所述目标对象的边缘;
基于所述目标对象的边缘,形成所述目标对象的分割掩码;
获取所述分割掩码区域在所述输入图像上的区域表示;
将所述区域表示内的像素集合作为所述输入图像的正面纹理贴图。
5.根据权利要求4所述的方法,其特征在于,所述获取目标对象的正面纹理贴图、遮挡纹理贴图及边缘预测纹理贴图,还包括:
获取所述3D骨骼模型被遮挡部分的区域表示;
将所述区域表示及所述输入图像输入到预测网络中;
利用预测网络预测所述区域表示内的图像,形成遮挡纹理贴图。
6.根据权利要求3所述的方法,其特征在于,所述将正面纹理贴图、遮挡纹理贴图及边缘预测纹理贴图按照预设的规则匹配到所述3D骨骼模型的三角面片上,形成所述3D重建模型,包括:
确认3D空间坐标系下的摄像机坐标,使得在所述摄像机坐标下,所述3D骨骼模型在显像画面上的投影所形成的轮廓与所述输入轮廓完全重合;
确定组成所述3D骨骼模型的任一个三角面片的三个顶点在所述输入轮廓对应原图上的3个2D对应点;
利用所述对应点、正面纹理贴图、遮挡纹理贴图及边缘预测纹理贴图,确定贴图面片;
将所述贴图面片作为其所对应的3D三角面片的贴图,将所述输入图像上的贴图面片贴在所述3D三角面片上;
将包含贴图面片的3D骨骼模型作为所述目标对象的第一3D重建模型。
7.一种3D模型重建装置,其特征在于,包括:
分割模块,用于从包含目标对象的输入图像上对所述目标对象执行分割操作,以获得所述目标对象在所述输入图像上的纹理贴图;
形成模块,用于将预设的3D初始模型投影到2D平面上,形成模型轮廓;基于分割掩码,形成所述目标对象的输入轮廓;其中,所述分割掩码是从所述输入图像中提取所述目标对象的边缘,根据所述边缘形成的;在所述输入轮廓和所述模型轮廓上分别设置第一关键点集合和第二关键点集合,所述第一关键点集合与所述第二关键点集合中关键点的数目相同且一一对应;计算所述模型轮廓中任一关键点pi在所述输入轮廓中的对应平面坐标(xi,yi);根据所述输入轮廓和模型轮廓在长、宽上的变化比例,变换所述3D初始模型中任一关键点pi的空间坐标zi;基于所述平面坐标和所述空间坐标,确定3D骨骼模型的最终形状;
获取模块,用于获取所述纹理贴图的边缘部分及所述边缘部分在所述3D骨骼模型中三角面片上的深度值;
预测模块,用于当所述深度值是否大于预设阈值时,利用预设的网络对所述边缘部分边缘纹理进行预测,形成边缘预测纹理贴图;
执行模块,用于基于所述边缘预测纹理贴图,形成所述目标对象的3D重建模型。
8.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-6任意一项所述的3D模型重建方法。
9.一种非暂态计算机可读存储介质,该非暂态计算机可读存储介质存储计算机指令,该计算机指令用于使该计算机执行权利要求1-6任意一项所述的3D模型重建方法。
CN201910591285.3A 2019-07-02 2019-07-02 3d模型重建方法、装置及电子设备 Active CN110378947B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910591285.3A CN110378947B (zh) 2019-07-02 2019-07-02 3d模型重建方法、装置及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910591285.3A CN110378947B (zh) 2019-07-02 2019-07-02 3d模型重建方法、装置及电子设备

Publications (2)

Publication Number Publication Date
CN110378947A CN110378947A (zh) 2019-10-25
CN110378947B true CN110378947B (zh) 2023-04-07

Family

ID=68251680

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910591285.3A Active CN110378947B (zh) 2019-07-02 2019-07-02 3d模型重建方法、装置及电子设备

Country Status (1)

Country Link
CN (1) CN110378947B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110827383B (zh) * 2019-11-25 2020-11-10 腾讯科技(深圳)有限公司 三维模型的姿态模拟方法、装置、存储介质和电子设备
CN112669431B (zh) * 2020-12-30 2023-10-20 北京百度网讯科技有限公司 图像处理方法、装置、设备、存储介质以及程序产品
CN112862949B (zh) * 2021-01-18 2022-08-19 北京航空航天大学 基于多视图的物体3d形状重建方法
CN113144615B (zh) * 2021-05-24 2024-04-30 上海随幻智能科技有限公司 一种从单张设计图片建模3d场景系统
CN116485586B (zh) * 2023-06-26 2023-12-26 厦门泛卓信息科技有限公司 基于综合数字平台的智慧建筑管理方法及系统
CN117272758B (zh) * 2023-11-20 2024-03-15 埃洛克航空科技(北京)有限公司 基于三角格网的深度估计方法、装置、计算机设备和介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101593205A (zh) * 2009-06-24 2009-12-02 清华大学 基于视频的三维模型检索方法
CN109255831A (zh) * 2018-09-21 2019-01-22 南京大学 基于多任务学习的单视图人脸三维重建及纹理生成的方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2343599B (en) * 1998-11-06 2003-05-14 Videologic Ltd Texturing systems for use in three dimensional imaging systems

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101593205A (zh) * 2009-06-24 2009-12-02 清华大学 基于视频的三维模型检索方法
CN109255831A (zh) * 2018-09-21 2019-01-22 南京大学 基于多任务学习的单视图人脸三维重建及纹理生成的方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
基于选择学习机制的深度图像超分辨率算法;任晓芳等;《电视技术》;20150902(第17期);全文 *
基于骨架的单幅图像三维建模;张淑军等;《计算机与数字工程》;20180520(第05期);全文 *
张淑军等.基于骨架的单幅图像三维建模.《计算机与数字工程》.2018,(第05期),全文. *
自由多视角恢复表面纹理的三维重建;崔桂涣等;《微计算机应用》;20090115(第01期);标题3内容 *
通信网络中的数字监控彩色图像的轮廓提取;陈彦名等;《中国新通信》;20070805(第15期);全文 *

Also Published As

Publication number Publication date
CN110378947A (zh) 2019-10-25

Similar Documents

Publication Publication Date Title
CN110378947B (zh) 3d模型重建方法、装置及电子设备
CN110058685B (zh) 虚拟对象的显示方法、装置、电子设备和计算机可读存储介质
CN111787242B (zh) 用于虚拟试衣的方法和装置
CN106846497B (zh) 应用于终端的呈现三维地图的方法和装置
CN111815755A (zh) 虚拟物体被遮挡的区域确定方法、装置及终端设备
CN109754464B (zh) 用于生成信息的方法和装置
CN113220251B (zh) 物体显示方法、装置、电子设备及存储介质
CN112581632B (zh) 一种房源数据的处理方法和装置
CN113313832B (zh) 三维模型的语义生成方法、装置、存储介质与电子设备
CN115810101A (zh) 三维模型风格化方法、装置、电子设备及存储介质
CN113610958A (zh) 一种基于风格迁移的3d图像构建方法、装置及终端
CN112734896A (zh) 环境遮蔽渲染方法、装置、存储介质及电子设备
CN110378948B (zh) 3d模型重建方法、装置及电子设备
CN111508058A (zh) 图像三维重建的方法、装置、存储介质及电子设备
CN116385622B (zh) 云图处理方法、装置、计算机及可读存储介质
CN111862342A (zh) 增强现实的纹理处理方法、装置、电子设备及存储介质
CN115713585B (zh) 纹理图像重建方法、装置、计算机设备和存储介质
CN109816791B (zh) 用于生成信息的方法和装置
CN110363860B (zh) 3d模型重建方法、装置及电子设备
CN110390717B (zh) 3d模型重建方法、装置及电子设备
CN116778015A (zh) 模型描边的方法、装置、电子设备及存储介质
CN116977539A (zh) 图像处理方法、装置、计算机设备、存储介质和程序产品
CN114049403A (zh) 一种多角度三维人脸重建方法、装置及存储介质
CN114693515A (zh) 图像变形方法及装置、电子设备和存储介质
CN114862997A (zh) 图像渲染方法和装置、介质和计算机设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant