CN114078184B - 数据处理方法、装置、电子设备和介质 - Google Patents
数据处理方法、装置、电子设备和介质 Download PDFInfo
- Publication number
- CN114078184B CN114078184B CN202111336049.0A CN202111336049A CN114078184B CN 114078184 B CN114078184 B CN 114078184B CN 202111336049 A CN202111336049 A CN 202111336049A CN 114078184 B CN114078184 B CN 114078184B
- Authority
- CN
- China
- Prior art keywords
- data
- model
- object model
- sub
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title abstract description 21
- 230000009466 transformation Effects 0.000 claims abstract description 79
- 238000012545 processing Methods 0.000 claims abstract description 35
- 230000006870 function Effects 0.000 claims description 42
- 238000000034 method Methods 0.000 claims description 25
- 210000000697 sensory organ Anatomy 0.000 claims description 11
- 238000010276 construction Methods 0.000 claims description 9
- 210000001508 eye Anatomy 0.000 claims description 9
- 210000003128 head Anatomy 0.000 claims description 9
- 210000004709 eyebrow Anatomy 0.000 claims description 8
- 230000011218 segmentation Effects 0.000 claims description 8
- 210000001061 forehead Anatomy 0.000 claims description 4
- 239000000126 substance Substances 0.000 claims 1
- 238000013473 artificial intelligence Methods 0.000 abstract description 3
- 230000003190 augmentative effect Effects 0.000 abstract description 2
- 230000014509 gene expression Effects 0.000 description 28
- 239000011159 matrix material Substances 0.000 description 12
- 238000004590 computer program Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 238000005457 optimization Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 230000000877 morphologic effect Effects 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 241000353135 Psenopsis anomala Species 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G06T3/04—
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本公开提供了一种数据处理方法、装置、设备、介质和产品,涉及人工智能技术领域,具体为增强/虚拟现实、计算机视觉和图像处理技术领域。数据处理方法包括:确定目标对象模型数据和标准对象模型数据之间的目标变换数据;确定标准对象模型数据和第一对象模型数据之间的差异数据,其中,第一对象模型数据与标准对象模型数据相关联;基于目标对象模型数据、目标变换数据和差异数据,生成第二对象模型数据,其中,第二对象模型数据与目标对象模型数据相关联。
Description
技术领域
本公开涉及人工智能技术领域,具体为增强/虚拟现实、计算机视觉和图像处理技术领域,更具体地,涉及一种数据处理方法、装置、电子设备、介质和程序产品。
背景技术
相关技术中,通常可以基于图像构建对象模型,例如可以利用三维重建技术构建对象模型,对象模型可以是3D模型。在构建对象模型时,相关技术的构建效率低、构建成本高。
发明内容
本公开提供了一种数据处理方法、装置、电子设备、存储介质以及程序产品。
根据本公开的一方面,提供了一种数据处理方法,包括:确定目标对象模型数据和标准对象模型数据之间的目标变换数据;确定所述标准对象模型数据和第一对象模型数据之间的差异数据,其中,所述第一对象模型数据与所述标准对象模型数据相关联;基于所述目标对象模型数据、所述目标变换数据和所述差异数据,生成第二对象模型数据,其中,所述第二对象模型数据与所述目标对象模型数据相关联。
根据本公开的另一方面,提供了一种数据处理装置,包括:第一确定模块、第二确定模块以及生成模块。第一确定模块,用于确定目标对象模型数据和标准对象模型数据之间的目标变换数据;第二确定模块,用于确定所述标准对象模型数据和第一对象模型数据之间的差异数据,其中,所述第一对象模型数据与所述标准对象模型数据相关联;生成模块,用于基于所述目标对象模型数据、所述目标变换数据和所述差异数据,生成第二对象模型数据,其中,所述第二对象模型数据与所述目标对象模型数据相关联。
根据本公开的另一方面,提供了一种电子设备,包括:至少一个处理器和与所述至少一个处理器通信连接的存储器。其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述的数据处理方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行上述的数据处理方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现上述的数据处理方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1示意性示出了根据本公开一实施例的数据处理方法和装置的应用场景;
图2示意性示出了根据本公开一实施例的数据处理方法的流程图;
图3示意性示出了根据本公开一实施例的对象模型分割示意图;
图4示意性示出了根据本公开一实施例的数据处理的示意图;
图5示意性示出了根据本公开一实施例的数据处理装置的框图;以及
图6是用来实现本公开实施例的用于执行数据处理的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本公开。在此使用的术语“包括”、“包含”等表明了所述特征、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部件。
在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来解释。
在使用类似于“A、B和C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B和C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。
本公开的实施例提供了一种数据处理方法,包括:确定目标对象模型数据和标准对象模型数据之间的目标变换数据。然后,确定标准对象模型数据和第一对象模型数据之间的差异数据,第一对象模型数据与标准对象模型数据相关联。接下来,基于目标对象模型数据、目标变换数据和差异数据,生成第二对象模型数据,其中,第二对象模型数据与目标对象模型数据相关联。
图1示意性示出了根据本公开一实施例的数据处理方法和装置的应用场景。需要注意的是,图1所示仅为可以应用本公开实施例的应用场景的示例,以帮助本领域技术人员理解本公开的技术内容,但并不意味着本公开实施例不可以用于其他设备、系统、环境或场景。
如图1所示,根据本公开的应用场景100,标准对象模型数据110、第一对象模型数据120和目标对象模型数据130各自对应的对象模型可以是3D虚拟对象模型。
示例性地,第一对象模型数据120例如与标准对象模型数据110相关联,第一对象模型数据120例如包括形态模型数据121和表情模型数据122。
例如,第一对象模型数据120表征的对象在形态、表情上和标准对象模型数据110表征的形态和表情不同,换言之,第一对象模型数据120表征的形态、表情是在标准对象模型数据110表征的形态、表情的基础上得到的。
将标准对象模型数据110、第一对象模型数据120和目标对象模型数据130输入电子设备140中进行处理。示例性地,电子设备140例如包括智能手机、计算机等。电子设备140具有数据处理功能。
例如,电子设备140的处理结果包括与目标对象模型数据130相关联的第二对象模型数据150。第二对象模型数据150表征的对象在形态、表情上和目标对象模型数据130表征的形态和表情不同,换言之,第二对象模型数据150表征的形态、表情例如是在目标对象模型数据130表征的形态、表情的基础上得到的。
本公开实施例提供了一种数据处理方法,下面结合图1的应用场景,参考图2~图4来描述根据本公开示例性实施方式的数据处理方法。
图2示意性示出了根据本公开一实施例的数据处理方法的流程图。
如图2所示,本公开实施例的数据处理方法200例如可以包括操作S210~操作S230。
在操作S210,确定目标对象模型数据和标准对象模型数据之间的目标变换数据。
在操作S220,确定标准对象模型数据和第一对象模型数据之间的差异数据,第一对象模型数据与标准对象模型数据相关联。
在操作S230,基于目标对象模型数据、目标变换数据和差异数据,生成第二对象模型数据,第二对象模型数据与目标对象模型数据相关联。
示例性地,目标变换数据例如表征了目标对象模型数据和标准对象模型数据之间的差异,即由目标对象模型数据得到标准对象模型数据需要进行的变换操作,或者由标准对象模型数据得到目标对象模型数据需要进行的变换操作。
与标准对象模型数据相关联的第一对象模型数据例如包括形态模型数据和表情模型数据。例如,第一对象模型数据表征的对象在形态、表情上和标准对象模型数据表征的形态和表情不同,换言之,第一对象模型数据表征的形态、表情是在标准对象模型数据表征的形态、表情的基础上得到的。
标准对象模型数据和第一对象模型数据之间的差异数据例如表征了两者之间存在的形态区别或表情区别。
在确定目标变换数据和差异数据之后,可以基于目标对象模型数据、目标变换数据和差异数据,生成与目标对象模型数据相关联的第二对象模型数据。第二对象模型数据例如包括形态模型数据和表情模型数据。例如,第二对象模型数据表征的对象在形态、表情上和目标对象模型数据表征的形态和表情不同,换言之,第二对象模型数据表征的形态、表情是在目标对象模型数据表征的形态、表情的基础上得到的。
根据本公开的实施例,通过确定目标对象模型数据和标准对象模型数据之间的目标变换数据,并确定标准对象模型数据和相关联的第一对象模型数据之间的差异数据,基于目标变换数据和差异数据处理目标对象模型数据,得到与目标对象模型数据相关联的第二对象模型数据。可以理解,通过本公开的实施例,提高了第二对象模型数据的生成效率,降低了第二对象模型数据的生成成本。
以下将说明如何确定目标对象模型数据和标准对象模型数据之间的目标变换数据。
首先,对标准对象模型数据进行分割处理,得到第一模型子数据和除第一模型子数据之外的剩余模型子数据。
然后,从目标对象模型数据中确定与第一模型子数据对应的第二模型子数据。
其次,确定第一模型子数据和第二模型子数据之间的变换度,作为针对第一模型子数据的第一变换数据。
接下来,基于第一变换数据,确定针对剩余模型子数据的第二变换数据。
最后,确定第一变换数据和第二变换数据为目标变换数据。
首先参考图3说明对标准对象模型数据进行分割处理的过程。
图3示意性示出了根据本公开一实施例的对象模型分割示意图。
如图3所示,标准对象模型数据例如包括头部模型数据,可以基于五官特征对头部模型数据进行分割处理,得到处理结果310。处理结果310例如包括多个第一模型子数据和剩余模型子数据,剩余模型子数据例如为头部模型数据中除第一模型子数据之外的其他模型子数据。
例如,第一模型子数据可以包括:针对左眉毛的模型子数据、针对右眉毛的模型子数据、针对左眼的模型子数据、针对右眼的模型子数据、针对鼻子的模型子数据、针对嘴巴的模型子数据、针对脸颊的模型子数据、针对额头的模型子数据、针对颈部的模型子数据。
示例性地,之所以基于五官特征进行分割,是因为一个对象模型的表现力主要是通过五官区域的特性来表达的。比如形容一个人时,通常形容这个人眼睛很大、这个人的鼻子高挺、这个人脸是瓜子脸等,这些都是通过一些五官的特性进行定义的。因此,基于五官特征对头部模型数据进行分割处理使得分割结果更加能体现分割后每个部分的特征。
根据本公开的实施例,根据五官特征进行数据分割,以便基于五官特征计算目标变换数据,提高了计算的准确性。
在进行分割处理之后,以下将说明如何从目标对象模型数据中确定与第一模型子数据对应的第二模型子数据。
例如,标准对象模型数据包括第一拓扑关系,目标对象模型数据包括第二拓扑关系,第一拓扑关系和第二拓扑关系相关联。拓扑关系例如表征了3D模型的网格结构,第一拓扑关系和第二拓扑关系相关联表征了标准对象模型数据对应的网格结构中网格点的数量和连接关系与目标对象模型数据对应的网格结构中网格点的数量和连接关系一致,但是标准对象模型数据对应的网格点的位置和目标对象模型数据对应的网格点的位置不一致。
例如,基于第一模型子数据,从标准对象模型数据中确定与第一模型子数据对应的第一特征点集合,基于第一拓扑关系和第二拓扑关系,从目标对象模型数据中确定与第一特征点集合对应的第二特征点集合。然后,将第二特征点集合确定为第二模型子数据。
按照五官特征对标准对象模型数据进行分割之后,需要确定每个第一模型子数据与整个标准对象模型数据的对应关系。由于标准对象模型数据中关于点线面的第一拓扑关系是唯一确定的,当进行分割得到多个第一模型子数据之后,每个第一模型子数据对应的局部拓扑关系和整个标准对象模型数据对应的第一拓扑关系不一致,因此需要知道整个标准对象模型数据中哪些特征点(网格点)和第一模型子数据对应的特征点(网格点)是对应的。由于标准对象模型数据是三维数据,可以利用K近邻方法进行特征点搜索。例如,针对每个第一模型子数据中的特征点,在整个标准对象模型数据中查找最近的特征点,从而得到第一特征点集合。
由于标准对象模型数据对应的第一拓扑关系和目标对象模型数据对应的第二拓扑关系一致,因此,在得到针对标准对象模型数据的第一特征点集合后,可以基于第一拓扑关系和第二拓扑关系,从目标对象模型数据中确定与第一特征点集合对应的第二特征点集合,并将第二特征点集合确定为第二模型子数据。
在本公开的实施例中,将标准对象模型数据进行分割之后,基于拓扑关系搜索与第一模型子数据对应的第二模型子数据,提高了数据搜索的准确性,保证后续基于第一模型子数据和第二模型子数据进行处理的准确性。
在得到多个第一模型子数据和对应的多个第二模型子数据之后,针对每个第一模型子数据,确定该第一模型子数据和对应第二模型子数据之间的变换度,将变换度作为针对第一模型子数据的第一变换数据。
例如,变换度包括旋转数据和缩放数据。首先确定由第一模型子数据得到第二模型子数据的旋转数据和缩放数据,并将旋转数据和缩放数据确定为第一变换数据。旋转数据和缩放数据例如表征了将第一模型子数据进行旋转和缩放后得到第二模型子数据,或者旋转数据和缩放数据表征了将第二模型子数据进行旋转和缩放后得到第一模型子数据。
例如,首先构建第一目标函数,第一目标函数与第一模型子数据、第二模型子数据、旋转数据和缩放数据相关联。旋转数据例如包括旋转矩阵R,缩放数据例如包括缩放矩阵S。第一目标函数如公式(1)所示。
其中,第一模型子数据p={p1,p2,p3,...,pn},第二模型子数据q={q1,q2,q3,...,qn},n为大于1的整数,n表示第一模型子数据和第二模型子数据中的特征点(网格点)数量。pi和pi例如均为三维坐标值。旋转矩阵R的维度例如为m*m,平移矩阵t的维度例如为m*1,m例如为大于1的整数,在一示例中m例如为3。缩放矩阵S例如为
接下来,基于奇异值分解(Singular Value Decomposition,SVD)算法对第一目标函数在最小化的情况下进行求解,得到旋转矩阵R、缩放矩阵S和平移矩阵t,并将旋转矩阵R、缩放矩阵S分别作为旋转数据和缩放数据。
由于通过公式(1)计算得到的是针对第一模型子数据的第一变换数据(旋转数据和缩放数据),此外还需计算针对标准对象模型数据中除第一模型子数据之外的剩余模型子数据的第二变换数据(旋转数据和缩放数据)。
针对剩余模型子数据的缩放数据,一种示例中可以通过局部优化的方式来计算得到。
例如,构建第二目标函数,第二目标函数与第一变换数据中的缩放数据和第二变换数据中的缩放数据相关联。第二目标函数如公式(2)所示。
其中,si表示剩余模型子数据中第i个特征点(网格点)的缩放数据,缩放数据例如包括six、siy、siz。sj例如为第i个特征点(网格点)的相邻特征点的缩放数据(sj可能属于第一模型子数据,也可能属于剩余模型子数据)。n表示剩余模型子数据中特征点的数量。
接下来,求解公式(2)所示的第二目标函数,使得第一模型子数据和剩余模型子数据中相邻模型子数据的变换数据差值小于预设差值,以得到第二变换数据中的缩放数据。变换数据差值小于预设差值例如表征缩放数据尽可能一致,即,第二目标函数可以约束每个网格点的缩放数据尽可能地与周围网格点的缩放数据保持一致。通过求解第二目标函数,即可得到剩余模型子数据中每个特征点(网格点)的缩放数据。
针对剩余模型子数据的缩放数据,另一种示例中可以通过全局优化的方式来计算得到。在进行全局优化时,可以对通过公式(1)得到的缩放数据进行优化,将优化后的缩放数据作为针对第一模型子数据最终的缩放数据。
例如,构建第二目标函数,第二目标函数与第一变换数据中的缩放数据和第二变换数据中的缩放数据相关联。第二目标函数如公式(3)所示。
其中,si表示标准对象模型数据中第i个特征点(网格点)的缩放数据。sj例如为第i个特征点(网格点)的相邻特征点的缩放数据。sk表示第一模型子数据中第k个特征点的缩放数据,sk0表示通过公式(1)得到的第k个特征点的缩放数据初值。n表示标准对象模型数据中特征点的数量。m表示第一模型子数据中特征点的数量。
接下来,求解公式(3)所示的第二目标函数,使得标准对象模型数据中相邻模型子数据的变换数据差值小于预设差值,以得到第二变换数据中的缩放数据。变换数据差值小于预设差值例如表征缩放数据尽可能一致,即,第二目标函数可以约束每个网格点的缩放数据尽可能地与周围网格点的缩放数据保持一致。通过求解第二目标函数,即可得到标准对象模型数据中每个特征点(网格点)的缩放数据,其中包括对通过公式(1)得到的缩放数据进行优化得到的优化后缩放数据。
在旋转矩阵的参数过多的情况下,可以处理旋转矩阵得到三维欧拉角的形式,便于进行后续计算。
针对剩余模型子数据的旋转数据,一种示例中可以通过局部优化的方式来计算得到。具体参见公式(4)所示的第二目标函数。
其中,ri表示剩余模型子数据中第i个特征点(网格点)的旋转数据。rj例如为第i个特征点(网格点)的相邻特征点的旋转数据(rj可能属于第一模型子数据,也可能属于剩余模型子数据)。n表示剩余模型子数据中特征点的数量。通过公式(4)得到旋转数据的过程与通过公式(2)得到缩放数据的过程类似,在此不再赘述。
针对剩余模型子数据的旋转数据,另一种示例中可以通过全局优化的方式来计算得到。在进行全局优化时,可以对通过公式(1)得到的旋转数据进行优化,将优化后的旋转数据作为针对第一模型子数据最终的旋转数据。具体参见公式(5)所示的第二目标函数。
其中,ri表示标准对象模型数据中第i个特征点(网格点)的旋转数据。rj例如为第i个特征点(网格点)的相邻特征点的旋转数据。rk表示第一模型子数据中第k个特征点的旋转数据,rk0表示通过公式(1)得到的第k个特征点的旋转数据初值。n表示标准对象模型数据中特征点的数量。m表示第一模型子数据中特征点的数量。通过公式(5)得到旋转数据的过程与通过公式(3)得到缩放数据的过程类似,在此不再赘述。
根据本公开的实施例,通过构建第一目标函数得到第一模型子数据的第一变换数据,并通过构建第二目标函数得到剩余模型子数据的第二变换数据。在计算第二变换数据时,可以根据情况采用局部优化或全局优化的方式,提高了变换数据的计算准确性,从而提高后续生成第二对象模型数据的准确性。
根据本公开的实施例,标准对象模型数据和第一对象模型数据例如均包括特征点坐标值,坐标值可以是三维坐标值。可以将标准对象模型数据的特征点坐标值和第一对象模型数据的特征点坐标值之间的坐标差值,作为标准对象模型数据和第一对象模型数据的差异数据。
示例性地,目标对象模型数据和第二对象模型数据均包括特征点坐标值,坐标值可以是三维坐标值。在得到针对标准对象模型数据的目标变换数据和差异数据之后,确定目标变换数据和差异数据之间的乘积,并将目标对象模型数据的特征点坐标值和乘积之间的和值,作为第二对象模型数据的特征点坐标值。具体如公式(6)所示。
Ti=T+RS*(Bi-B) 公式(6)
其中,B为标准对象模型数据,针对与标准对象模型数据相关联的多个第一对象模型数据,Bi为多个第一对象模型数据中的第i个第一对象模型数据,(Bi-B)为差异数据。T为目标对象模型数据,R为针对标准对象模型数据中每个特征点的旋转数据,S为针对标准对象模型数据中每个特征点的缩放数据。乘积RS为目标变换数据。针对与目标对象模型数据相关联的多个第二对象模型数据,Ti为多个第二对象模型数据中的第i个第一对象模型数据。
根据本公开的实施例,基于目标对象模型数据、目标变换数据和差异数据,生成第二对象模型数据,提高了第二对象模型数据的生成效率,降低了第二对象模型数据的生成成本。
图4示意性示出了根据本公开一实施例的数据处理的示意图。
如图4所示,与标准对象模型数据410相关联的第一对象模型数据例如包括形态模型数据421和表情模型数据422。
例如,第一对象模型数据表征的对象在形态、表情上和标准对象模型数据410表征的形态和表情不同,换言之,第一对象模型数据表征的形态、表情是在标准对象模型数据410表征的形态、表情的基础上得到的。
基于标准对象模型数据410、第一对象模型数据和目标对象模型数据430,生成与目标对象模型数据430相关联的第二对象模型数据。第二对象模型数据例如包括形态模型数据451和表情模型数据452。多个第二对象模型数据与多个第一对象模型数据一一对应,相互对应的第二对象模型数据和第一对象模型数据的形态或表情一致。
例如,第二对象模型数据表征的对象在形态、表情上和目标对象模型数据430表征的形态和表情不同,换言之,第二对象模型数据表征的形态、表情是在目标对象模型数据430表征的形态、表情的基础上得到的。
图5示意性示出了根据本公开一实施例的数据处理装置的框图。
如图5所示,本公开实施例的数据处理装置500例如包括第一确定模块510、第二确定模块520和生成模块530。
第一确定模块510可以用于确定目标对象模型数据和标准对象模型数据之间的目标变换数据。根据本公开实施例,第一确定模块510例如可以执行上文参考图2描述的操作S210,在此不再赘述。
第二确定模块520可以用于确定标准对象模型数据和第一对象模型数据之间的差异数据,其中,第一对象模型数据与标准对象模型数据相关联。根据本公开实施例,第二确定模块520例如可以执行上文参考图2描述的操作S220,在此不再赘述。
生成模块530可以用于基于目标对象模型数据、目标变换数据和差异数据,生成第二对象模型数据,其中,第二对象模型数据与目标对象模型数据相关联。根据本公开实施例,生成模块530例如可以执行上文参考图2描述的操作S230,在此不再赘述。
根据本公开的实施例,第一确定模块510包括:处理子模块、第一确定子模块、第二确定子模块、第三确定子模块和第四确定子模块。处理子模块,用于对标准对象模型数据进行分割处理,得到第一模型子数据和除第一模型子数据之外的剩余模型子数据;第一确定子模块,用于从目标对象模型数据中确定与第一模型子数据对应的第二模型子数据;第二确定子模块,用于确定第一模型子数据和第二模型子数据之间的变换度,作为针对第一模型子数据的第一变换数据;第三确定子模块,用于基于第一变换数据,确定针对剩余模型子数据的第二变换数据;第四确定子模块,用于确定第一变换数据和第二变换数据为目标变换数据。
根据本公开的实施例,第二确定子模块包括:第一确定单元和第二确定单元。第一确定单元,用于确定由第一模型子数据得到第二模型子数据的旋转数据和缩放数据;第二确定单元,用于将旋转数据和缩放数据确定为第一变换数据。
根据本公开的实施例,第一确定单元包括:构建子单元和获得子单元。构建子单元,用于构建第一目标函数,其中,第一目标函数与第一模型子数据、第二模型子数据、旋转数据和缩放数据相关联;获得子单元,用于在第一目标函数最小化的情况下,得到旋转数据和缩放数据。
根据本公开的实施例,第三确定子模块包括:构建单元和求解单元。构建单元,用于构建第二目标函数,其中,第二目标函数与第一变换数据和第二变换数据相关联;求解单元,用于求解第二目标函数,使得第一模型子数据和剩余模型子数据中相邻模型子数据的变换数据差值小于预设差值,以得到第二变换数据。
根据本公开的实施例,标准对象模型数据包括第一拓扑关系,目标对象模型数据包括第二拓扑关系,第一拓扑关系和第二拓扑关系相关联;其中,第一确定子模块包括:第三确定单元、第四确定单元和第五确定单元。第三确定单元,用于基于第一模型子数据,从标准对象模型数据中确定与第一模型子数据对应的第一特征点集合;第四确定单元,用于基于第一拓扑关系和第二拓扑关系,从目标对象模型数据中确定与第一特征点集合对应的第二特征点集合;第五确定单元,用于将第二特征点集合确定为第二模型子数据。
根据本公开的实施例,标准对象模型数据和第一对象模型数据均包括特征点坐标值;第二确定模块520还用于:将标准对象模型数据的特征点坐标值和第一对象模型数据的特征点坐标值之间的坐标差值,作为差异数据。
根据本公开的实施例,目标对象模型数据和第二对象模型数据均包括特征点坐标值;生成模块530包括:第五确定子模块和第六确定子模块。第五确定子模块,用于确定目标变换数据和差异数据之间的乘积;第六确定子模块,用于将目标对象模型数据的特征点坐标值和乘积之间的和值,作为第二对象模型数据的特征点坐标值。
根据本公开的实施例,标准对象模型数据包括头部模型数据;处理子模块还用于:基于五官特征对头部模型数据进行分割处理,得到第一模型子数据和剩余模型子数据;其中,第一模型子数据包括以下至少一项:针对左眉毛的模型子数据、针对右眉毛的模型子数据、针对左眼的模型子数据、针对右眼的模型子数据、针对鼻子的模型子数据、针对嘴巴的模型子数据、针对脸颊的模型子数据、针对额头的模型子数据、针对颈部的模型子数据。
本公开的技术方案中,所涉及的用户个人信息的收集、存储、使用、加工、传输、提供和公开等处理,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图6是用来实现本公开实施例的用于执行数据处理的电子设备的框图。
图6示出了可以用来实施本公开实施例的示例电子设备600的示意性框图。电子设备600旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图6所示,设备600包括计算单元601,其可以根据存储在只读存储器(ROM)602中的计算机程序或者从存储单元608加载到随机访问存储器(RAM)603中的计算机程序,来执行各种适当的动作和处理。在RAM 603中,还可存储设备600操作所需的各种程序和数据。计算单元601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
设备600中的多个部件连接至I/O接口605,包括:输入单元606,例如键盘、鼠标等;输出单元607,例如各种类型的显示器、扬声器等;存储单元608,例如磁盘、光盘等;以及通信单元609,例如网卡、调制解调器、无线通信收发机等。通信单元609允许设备600通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元601可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元601的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元601执行上文所描述的各个方法和处理,例如数据处理方法。例如,在一些实施例中,数据处理方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元608。在一些实施例中,计算机程序的部分或者全部可以经由ROM 602和/或通信单元609而被载入和/或安装到设备600上。当计算机程序加载到RAM 603并由计算单元601执行时,可以执行上文描述的数据处理方法的一个或多个步骤。备选地,在其他实施例中,计算单元601可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行数据处理方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (18)
1.一种数据处理方法,包括:
确定目标对象模型数据和标准对象模型数据之间的目标变换数据;
确定所述标准对象模型数据和第一对象模型数据之间的差异数据,其中,所述第一对象模型数据与所述标准对象模型数据相关联;以及
基于所述目标对象模型数据、所述目标变换数据和所述差异数据,生成第二对象模型数据,其中,所述第二对象模型数据与所述目标对象模型数据相关联;
其中,所述确定目标对象模型数据和标准对象模型数据之间的目标变换数据包括:
对所述标准对象模型数据进行分割处理,得到第一模型子数据和除所述第一模型子数据之外的剩余模型子数据;
从所述目标对象模型数据中确定与所述第一模型子数据对应的第二模型子数据;
确定所述第一模型子数据和所述第二模型子数据之间的变换度,作为针对所述第一模型子数据的第一变换数据;
基于所述第一变换数据,确定针对所述剩余模型子数据的第二变换数据;以及
确定所述第一变换数据和所述第二变换数据为所述目标变换数据。
2.根据权利要求1所述的方法,其中,所述确定所述第一模型子数据和所述第二模型子数据之间的变换度,作为针对所述第一模型子数据的第一变换数据包括:
确定由所述第一模型子数据得到所述第二模型子数据的旋转数据和缩放数据;以及
将所述旋转数据和所述缩放数据确定为所述第一变换数据。
3.根据权利要求2所述的方法,其中,所述确定由所述第一模型子数据得到所述第二模型子数据的旋转数据和缩放数据包括:
构建第一目标函数,其中,所述第一目标函数与所述第一模型子数据、所述第二模型子数据、所述旋转数据和所述缩放数据相关联;以及
在所述第一目标函数最小化的情况下,得到所述旋转数据和所述缩放数据。
4.根据权利要求1所述的方法,其中,所述基于所述第一变换数据,确定针对所述剩余模型子数据的第二变换数据包括:
构建第二目标函数,其中,所述第二目标函数与所述第一变换数据和所述第二变换数据相关联;以及
求解所述第二目标函数,使得所述第一模型子数据和所述剩余模型子数据中相邻模型子数据的变换数据差值小于预设差值,以得到所述第二变换数据。
5.根据权利要求1所述的方法,其中,所述标准对象模型数据包括第一拓扑关系,所述目标对象模型数据包括第二拓扑关系,所述第一拓扑关系和所述第二拓扑关系相关联;
其中,所述从所述目标对象模型数据中确定与所述第一模型子数据对应的第二模型子数据包括:
基于所述第一模型子数据,从所述标准对象模型数据中确定与所述第一模型子数据对应的第一特征点集合;
基于所述第一拓扑关系和所述第二拓扑关系,从所述目标对象模型数据中确定与所述第一特征点集合对应的第二特征点集合;以及
将所述第二特征点集合确定为所述第二模型子数据。
6.根据权利要求1所述的方法,其中,所述标准对象模型数据和所述第一对象模型数据均包括特征点坐标值;所述确定所述标准对象模型数据和第一对象模型数据之间的差异数据包括:
将所述标准对象模型数据的特征点坐标值和所述第一对象模型数据的特征点坐标值之间的坐标差值,作为所述差异数据。
7.根据权利要求6所述的方法,其中,所述目标对象模型数据和所述第二对象模型数据均包括特征点坐标值;所述基于所述目标对象模型数据、所述目标变换数据和所述差异数据,生成第二对象模型数据包括:
确定所述目标变换数据和所述差异数据之间的乘积;以及
将所述目标对象模型数据的特征点坐标值和所述乘积之间的和值,作为所述第二对象模型数据的特征点坐标值。
8.根据权利要求1-5中任意一项所述的方法,其中,所述标准对象模型数据包括头部模型数据;所述对所述标准对象模型数据进行分割处理,得到第一模型子数据和除所述第一模型子数据之外的剩余模型子数据包括:
基于五官特征对所述头部模型数据进行分割处理,得到所述第一模型子数据和所述剩余模型子数据;
其中,所述第一模型子数据包括以下至少一项:
针对左眉毛的模型子数据、针对右眉毛的模型子数据、针对左眼的模型子数据、针对右眼的模型子数据、针对鼻子的模型子数据、针对嘴巴的模型子数据、针对脸颊的模型子数据、针对额头的模型子数据、针对颈部的模型子数据。
9.一种数据处理装置,包括:
第一确定模块,用于确定目标对象模型数据和标准对象模型数据之间的目标变换数据;
第二确定模块,用于确定所述标准对象模型数据和第一对象模型数据之间的差异数据,其中,所述第一对象模型数据与所述标准对象模型数据相关联;以及
生成模块,用于基于所述目标对象模型数据、所述目标变换数据和所述差异数据,生成第二对象模型数据,其中,所述第二对象模型数据与所述目标对象模型数据相关联;
其中,所述第一确定模块包括:
处理子模块,用于对所述标准对象模型数据进行分割处理,得到第一模型子数据和除所述第一模型子数据之外的剩余模型子数据;
第一确定子模块,用于从所述目标对象模型数据中确定与所述第一模型子数据对应的第二模型子数据;
第二确定子模块,用于确定所述第一模型子数据和所述第二模型子数据之间的变换度,作为针对所述第一模型子数据的第一变换数据;
第三确定子模块,用于基于所述第一变换数据,确定针对所述剩余模型子数据的第二变换数据;以及
第四确定子模块,用于确定所述第一变换数据和所述第二变换数据为所述目标变换数据。
10.根据权利要求9所述的装置,其中,所述第二确定子模块包括:
第一确定单元,用于确定由所述第一模型子数据得到所述第二模型子数据的旋转数据和缩放数据;以及
第二确定单元,用于将所述旋转数据和所述缩放数据确定为所述第一变换数据。
11.根据权利要求10所述的装置,其中,所述第一确定单元包括:
构建子单元,用于构建第一目标函数,其中,所述第一目标函数与所述第一模型子数据、所述第二模型子数据、所述旋转数据和所述缩放数据相关联;以及
获得子单元,用于在所述第一目标函数最小化的情况下,得到所述旋转数据和所述缩放数据。
12.根据权利要求9所述的装置,其中,所述第三确定子模块包括:
构建单元,用于构建第二目标函数,其中,所述第二目标函数与所述第一变换数据和所述第二变换数据相关联;以及
求解单元,用于求解所述第二目标函数,使得所述第一模型子数据和所述剩余模型子数据中相邻模型子数据的变换数据差值小于预设差值,以得到所述第二变换数据。
13.根据权利要求9所述的装置,其中,所述标准对象模型数据包括第一拓扑关系,所述目标对象模型数据包括第二拓扑关系,所述第一拓扑关系和所述第二拓扑关系相关联;
其中,所述第一确定子模块包括:
第三确定单元,用于基于所述第一模型子数据,从所述标准对象模型数据中确定与所述第一模型子数据对应的第一特征点集合;
第四确定单元,用于基于所述第一拓扑关系和所述第二拓扑关系,从所述目标对象模型数据中确定与所述第一特征点集合对应的第二特征点集合;以及
第五确定单元,用于将所述第二特征点集合确定为所述第二模型子数据。
14.根据权利要求9所述的装置,其中,所述标准对象模型数据和所述第一对象模型数据均包括特征点坐标值;所述第二确定模块还用于:
将所述标准对象模型数据的特征点坐标值和所述第一对象模型数据的特征点坐标值之间的坐标差值,作为所述差异数据。
15.根据权利要求14所述的装置,其中,所述目标对象模型数据和所述第二对象模型数据均包括特征点坐标值;所述生成模块包括:
第五确定子模块,用于确定所述目标变换数据和所述差异数据之间的乘积;以及
第六确定子模块,用于将所述目标对象模型数据的特征点坐标值和所述乘积之间的和值,作为所述第二对象模型数据的特征点坐标值。
16.根据权利要求9-13中任意一项所述的装置,其中,所述标准对象模型数据包括头部模型数据;所述处理子模块还用于:
基于五官特征对所述头部模型数据进行分割处理,得到所述第一模型子数据和所述剩余模型子数据;
其中,所述第一模型子数据包括以下至少一项:
针对左眉毛的模型子数据、针对右眉毛的模型子数据、针对左眼的模型子数据、针对右眼的模型子数据、针对鼻子的模型子数据、针对嘴巴的模型子数据、针对脸颊的模型子数据、针对额头的模型子数据、针对颈部的模型子数据。
17.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-8中任一项所述的方法。
18.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行权利要求1-8中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111336049.0A CN114078184B (zh) | 2021-11-11 | 2021-11-11 | 数据处理方法、装置、电子设备和介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111336049.0A CN114078184B (zh) | 2021-11-11 | 2021-11-11 | 数据处理方法、装置、电子设备和介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114078184A CN114078184A (zh) | 2022-02-22 |
CN114078184B true CN114078184B (zh) | 2022-10-21 |
Family
ID=80283723
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111336049.0A Active CN114078184B (zh) | 2021-11-11 | 2021-11-11 | 数据处理方法、装置、电子设备和介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114078184B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115359171B (zh) * | 2022-10-21 | 2023-04-07 | 北京百度网讯科技有限公司 | 虚拟形象处理方法、装置、电子设备和存储介质 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8711141B2 (en) * | 2011-08-28 | 2014-04-29 | Arcsoft Hangzhou Co., Ltd. | 3D image generating method, 3D animation generating method, and both 3D image generating module and 3D animation generating module thereof |
CN110866864A (zh) * | 2018-08-27 | 2020-03-06 | 阿里巴巴集团控股有限公司 | 人脸姿态估计/三维人脸重构方法、装置及电子设备 |
CN111401445B (zh) * | 2020-03-16 | 2023-03-10 | 腾讯科技(深圳)有限公司 | 一种图像识别模型的训练方法、图像识别的方法及装置 |
CN111815761A (zh) * | 2020-07-14 | 2020-10-23 | 杭州翔毅科技有限公司 | 三维立体展示方法、装置、设备及存储介质 |
CN112002014B (zh) * | 2020-08-31 | 2023-12-15 | 中国科学院自动化研究所 | 面向精细结构的三维人脸重建方法、系统、装置 |
CN112396117A (zh) * | 2020-11-24 | 2021-02-23 | 维沃移动通信有限公司 | 图像的检测方法、装置及电子设备 |
CN112419485B (zh) * | 2020-11-25 | 2023-11-24 | 北京市商汤科技开发有限公司 | 一种人脸重建方法、装置、计算机设备及存储介质 |
CN112581573B (zh) * | 2020-12-15 | 2023-08-04 | 北京百度网讯科技有限公司 | 虚拟形象驱动方法、装置、设备、介质和程序产品 |
CN112634416B (zh) * | 2020-12-23 | 2023-07-28 | 北京达佳互联信息技术有限公司 | 虚拟形象模型的生成方法、装置、电子设备及存储介质 |
CN112530021B (zh) * | 2020-12-24 | 2023-06-23 | 北京百度网讯科技有限公司 | 用于处理数据的方法、装置、设备以及存储介质 |
-
2021
- 2021-11-11 CN CN202111336049.0A patent/CN114078184B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN114078184A (zh) | 2022-02-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114140603B (zh) | 虚拟形象生成模型的训练方法和虚拟形象生成方法 | |
CN115147265B (zh) | 虚拟形象生成方法、装置、电子设备和存储介质 | |
CN114612600B (zh) | 虚拟形象生成方法、装置、电子设备和存储介质 | |
CN114792355B (zh) | 虚拟形象生成方法、装置、电子设备和存储介质 | |
CN113379627A (zh) | 图像增强模型的训练方法和对图像进行增强的方法 | |
CN112581573A (zh) | 虚拟形象驱动方法、装置、设备、介质和程序产品 | |
CN115147523A (zh) | 虚拟形象驱动方法及装置、设备、介质和程序产品 | |
CN114078184B (zh) | 数据处理方法、装置、电子设备和介质 | |
CN114549728A (zh) | 图像处理模型的训练方法、图像处理方法、装置及介质 | |
CN113658035A (zh) | 脸部变换方法、装置、设备、存储介质以及产品 | |
CN112562043A (zh) | 图像处理方法、装置和电子设备 | |
CN115359166B (zh) | 一种图像生成方法、装置、电子设备和介质 | |
CN115393488B (zh) | 虚拟人物表情的驱动方法、装置、电子设备和存储介质 | |
US20220392251A1 (en) | Method and apparatus for generating object model, electronic device and storage medium | |
CN115906987A (zh) | 深度学习模型的训练方法、虚拟形象驱动方法和装置 | |
EP4155670A1 (en) | Intersection vertex height value acquisition method and apparatus, electronic device and storage medium | |
CN115147306A (zh) | 图像处理方法、装置、电子设备和存储介质 | |
CN114037814B (zh) | 数据处理方法、装置、电子设备和介质 | |
CN114549785A (zh) | 一种模型基底的生成方法、装置、电子设备及存储介质 | |
CN113344213A (zh) | 知识蒸馏方法、装置、电子设备及计算机可读存储介质 | |
CN113610992B (zh) | 骨骼驱动系数确定方法、装置、电子设备及可读存储介质 | |
CN116030150B (zh) | 虚拟形象生成方法、装置、电子设备和介质 | |
CN116229214B (zh) | 模型训练方法、装置及电子设备 | |
CN116206035B (zh) | 人脸重建方法、装置、电子设备以及存储介质 | |
CN113608615B (zh) | 对象数据处理方法、处理装置、电子设备以及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |