CN113781653A - 对象模型生成方法、装置、电子设备及存储介质 - Google Patents

对象模型生成方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN113781653A
CN113781653A CN202110945260.6A CN202110945260A CN113781653A CN 113781653 A CN113781653 A CN 113781653A CN 202110945260 A CN202110945260 A CN 202110945260A CN 113781653 A CN113781653 A CN 113781653A
Authority
CN
China
Prior art keywords
images
initial
synthesized
models
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110945260.6A
Other languages
English (en)
Other versions
CN113781653B (zh
Inventor
张世昌
郭紫垣
赵亚飞
陈超
范锡睿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202110945260.6A priority Critical patent/CN113781653B/zh
Publication of CN113781653A publication Critical patent/CN113781653A/zh
Priority to US17/820,108 priority patent/US20220392251A1/en
Priority to EP22190483.2A priority patent/EP4086853A3/en
Application granted granted Critical
Publication of CN113781653B publication Critical patent/CN113781653B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • G06T17/205Re-meshing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/44Morphing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2021Shape modification

Abstract

本公开提供了一种对象模型生成方法、装置、电子设备及存储介质,涉及计算机技术领域,尤其涉及深度学习、计算机视觉等人工智能技术领域。具体实现方案为:获取初始形态模型;获取对象的多个初始图像,和与各个初始图像分别对应的深度图像,并分别根据深度图像处理对应的初始图像,以得到多个目标拓扑图像,再基于多个目标拓扑图像分别处理初始形态模型,以得到多个待合成模型,以及利用多个待合成模型,生成目标对象模型。由此,能够在大幅降低对象模型生成成本的同时,有效地提升对象模型的生成效果,从而能够有效地提升对象模型生成方法的适用性。

Description

对象模型生成方法、装置、电子设备及存储介质
技术领域
本公开涉及计算机技术领域,尤其涉及深度学习、计算机视觉等人工智能技术领域,具体涉及一种对象模型生成方法、装置、电子设备及存储介质。
背景技术
人工智能是研究使计算机来模拟人的某些思维过程和智能行为(如学习、推理、思考、规划等)的学科,既有硬件层面的技术也有软件层面的技术。人工智能硬件技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理等技术;人工智能软件技术主要包括计算机视觉技术、语音识别技术、自然语言处理技术,以及机器学习、深度学习、大数据处理技术、知识图谱技术等几大方向。
相关技术中的对象模型生成方法,通常需要依赖昂贵的图像采集设备,高配置的电脑硬件,复杂繁重的计算流程,导致其很难具有普适性。
发明内容
本公开提供了一种对象模型生成方法、装置、电子设备、存储介质以及计算机程序产品。
根据本公开的第一方面,提供了一种对象模型生成方法,包括:获取初始形态模型;获取对象的多个初始图像,和与各个初始图像分别对应的深度图像,并分别根据深度图像处理对应的初始图像,以得到多个目标拓扑图像,再基于多个目标拓扑图像分别处理初始形态模型,以得到多个待合成模型,以及利用多个待合成模型,生成目标对象模型。
根据本公开的第二方面,提供了一种对象模型生成装置,包括:第一获取模块,用于获取初始形态模型;第二获取模块,用于获取对象的多个初始图像,和与各个初始图像分别对应的深度图像;第一处理模块,用于分别根据所述深度图像处理对应的初始图像,以得到多个目标拓扑图像;以及第二处理模块,用于基于所述多个目标拓扑图像分别处理所述初始形态模型,以得到多个待合成模型;生成模块,用于利用所述多个待合成模型,生成目标对象模型。
根据本公开的第三方面,提供了一种电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行如第一方面的对象模型生成方法。
根据本公开的第四方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,计算机指令用于使计算机执行如第一方面的对象模型生成方法。
根据本公开的第五方面,提供了一种计算机程序产品,包括计算机程序,计算机程序在被处理器执行时实现如第一方面的对象模型生成方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开第一实施例的示意图;
图2是根据本公开第二实施例的示意图;
图3是根据本公开实施例的图像获取示意图;
图4是根据本公开实施例的网格细分处理示意图;
图5是根据本公开实施例中非刚性形变处理示意图;
图6是根据本公开第三实施例的示意图;
图7是根据本公开实施例的模型合成处理示意图;
图8是根据本公开第四实施例的示意图;
图9是根据本公开第五实施例的示意图;
图10示出了可以用来实施本公开实施例的对象模型生成方法的示例电子设备的示意性框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
图1是根据本公开第一实施例的示意图。
其中,需要说明的是,本实施例的对象模型生成方法的执行主体为对象模型生成装置,该装置可以由软件和/或硬件的方式实现,该装置可以配置在电子设备中,电子设备可以包括但不限于终端、服务器端等。
本公开实施例涉及深度学习、计算机视觉等人工智能技术领域。
其中,人工智能(Artificial Intelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。
深度学习是学习样本数据的内在规律和表示层次,这些学习过程中获得的信息对诸如文字,图像和声音等数据的解释有很大的帮助。深度学习的最终目标是让机器能够像人一样具有分析学习能力,能够识别文字、图像和声音等数据。
计算机视觉,是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送至仪器检测的图像。
如图1所示,该对象模型生成方法包括:
S101:获取初始形态模型。
其中,形态模型可以直观地描述对象的形态(例如:纹理、结构、形状等),而对象可以具体例如为人体、动物、建筑物等,对此不做限制。
其中,上述形态模型可以是二维(Two Dimensional,2D)模型,或者是三维(ThreeDimensional,3D)模型,对此不做限制。
举例而言,本公开实施例的一种具体的应用场景可以具体例如为:采用对象形态模型生成方法,生成可以用于表征真人形象的3D人体模型,本公开实施例下述的描述说明将以前述应用场景进行示例,另外本公开实施例也可以应用在其它任意可能的对象形态模型生成的应用场景中,对此不做限制。
其中,在对象形态模型生成方法的开始阶段,获取得到的未经处理的形态模型即可以被称为初始形态模型,初始形态模型可以具体例如为初始的3D头部模型,3D人脸参数化模型等,对此不做限制。
其中,本公开实施例中,关于人体模型、头部模型、人脸模型、身体模型的获取,其获取过程均符合相关法律、法规,且不违背公序良俗。
举例而言,一些实施例中,在执行获取初始形态模型时,可以是从模型库中调取任意的3D头部模型和3D人脸参数化模型,并将其作为初始形态模型,或者,还可以采用3D模型搭建技术搭建3D头部模型和3D人脸参数化模型,并将其作为初始形态模型,对此不做限制。
S102:获取对象的多个初始图像,和与各个初始图像分别对应的深度图像。
其中,当在上述生成3D人体模型的应用场景中,对象可以具体例如为人的头部、身体等,相应地,获取对象的多个初始图像,和与各个初始图像分别对应的深度图像,可以具体例如为,获取人的头部的多个初始图像,和与各个初始图像分别对应的深度图像。
其中,上述多个初始图像和与各个初始图像对应的深度图像均是在符合相关法律、法规的情况下获取的,例如可以是从公开图像集处获取的,还可以是经过相关用户授权后,从相关用户处获取的。
其中,多个初始图像可以是由至少两个不同的初始图像构成,对此不做限制。
其中,多个初始图像可以针对对象在不同时间维度上获取得到的,或者还可以是针对对象在不同角度上获取得到的,该初始图像可以是三原色(Red Green Blue,RGB)图像,对此不做限制。
其中,深度图像还可以被称为距离影像,是指将图像采集装置到物体中各点的距离作为像素值的图像。
一些实施例中,获取对象的多个初始图像,和与各个初始图像对应的深度图像,可以是采用图像采集装置获取对象的多个初始图像,并在多个初始图像的基础上,对初始图像进行图像处理,以得到与初始图像对应的深度图像,还可以是通过平面相机和深度相机(深度相机例如双目立体相机、飞行时间测距法(Time Of Flight,TOF)相机等)组成相机模组,由相机模组对对象进行拍摄得到的,对此不做限制。
S103:分别根据深度图像处理对应的初始图像,以得到多个目标拓扑图像。
其中,拓扑是指将实体对象抽象成与其大小形状无关的点和线,进而以图像的形式来表示这些点线关系的方法,相应地,用于表示前述点和线之间关系的图像,可以被称为拓扑图像。
上述在获取的多个初始图像,和与多个初始图像分别对应的多个深度图像后,可以根据多个深度图像分别处理对应的多个初始图像,以得到多个处理后的图像,并将该图像作为目标拓扑图像。
一些实施例中,根据深度图像处理分别处理对应的多个初始图像,以得到多个目标拓扑图像,可以是根据深度图像,采用相应的拓扑算法,对多个初始图像进行处理,以得到多个目标拓扑图像,或者也可以采用其它任意可能的方式实现根据度图像处理分别处理对应的多个初始图像,以得到多个目标拓扑图像,例如模型解析的方式、图像变换的方式等,对此不做限制。
S104:基于多个目标拓扑图像分别处理初始形态模型,以得到多个待合成模型。
上述在获取的多个初始图像,和与各个初始图像分别对应的深度图像后,可以分别根据深度图像处理对应的初始图像,以得到多个处理后的图像,并将该图像作为目标拓扑图像。
一些实施例中,分别根据深度图像处理处理对应的初始图像,以得到多个目标拓扑图像,可以是分别根据深度图像,采用相应的拓扑算法,对对应的初始图像进行处理,以得到多个目标拓扑图像,或者也可以采用其它任意可能的方式实现分别根据所述深度图像处理对应的初始图像,以得到多个目标拓扑图像,例如模型解析的方式、图像变换的方式等,对此不做限制。
S105:利用多个待合成模型,生成目标对象模型。
上述在基于多个目标拓扑图像分别处理初始形态模型,以得到多个待合成模型之后,可以利用多个待合成模型,生成目标对象模型,目标对象模型可以具体例如为3D人体模型,对此不做限制。
一些实施例中,在得到多个待合成模型之后,可以对多个待合成模型进行拼接处理,并将拼接处理后的模型作为3D人体模型。
举例而言,如果多个待合成模型为3D头部模型、3D身体模型,则可以对3D头部模型和3D身体模型进行拼接处理,以得到3D人体模型,并将其作为目标对象模型。
或者,也可以采用其它任意可能的方式,利用多个待合成模型,生成目标对象模型,对此不做限制。
本实施例中,通过获取初始形态模型;获取对象的多个初始图像,和与各个初始图像分别对应的深度图像,并分别根据深度图像处理对应的初始图像,以得到多个目标拓扑图像,再基于多个目标拓扑图像分别处理初始形态模型,以得到多个待合成模型,以及利用多个待合成模型,生成目标对象模型。由此,能够在大幅降低对象模型生成成本的同时,有效地提升对象模型的生成效果,从而能够有效地提升对象模型生成方法的适用性。
图2是根据本公开第二实施例的示意图。
如图2所示,该对象模型生成方法,包括:
S201:获取初始形态模型。
S202:基于多个采集角度分别捕获对象的多个初始图像,和与各个初始图像分别对应的深度图像。
其中,采集角度也可以理解为图像的拍摄角度,以对象是人的头部为例,多个采集角度可以例如为人的头部正前方,头部左侧,头部右侧等,对此不做限制。
也即是说,本实施例中,可以基于对象的不同采集角度,获取对象多个不同采集角度的初始图像,和与各个初始图像分别对应的深度图像,由于是从多个采集角度获取对象的多个初始图像和深度图像,能够在有效地降低图像采集成本的同时,有效地提升图像采集的便捷性,且能够基于各个采集角度采集的对象图像充分表征对对象形象进行表征,使得生成的对象模型能具有更高的准确性。
举例而言,可以一并结合图3对本实施例做具体举例说明,图3是根据本公开实施例的图像获取示意图,如图3所示,可以基于图3所示的4个不同的采集角度分别捕获人的头部的4个初始图像,和与4个初始图像分别对应的多个深度图像。
需要说明的是,图3所示的图像是在经过相关用户授权后获取的,其获取过程符合相关法律、法规的规定,且不违背公序良俗。
S203:分别根据深度图像分别处理对应的初始图像,以得到多个初始拓扑图像,初始拓扑图像的点云数据密度为初始点云数据密度。
上述在获取多个初始图像,和与各个初始图像分别对应的深度图像后,可以根据深度图像处理对应的初始图像,以得到多个处理后的图像,该图像即可以被称为初始拓扑图像。
其中,初始拓扑图像可以具有相应的点云数据密度,该点数据密度即可以被称为初始点云数据密度。
可选地,一些实施例中,分别根据深图像处理对应的初始图像,以得到多个初始拓扑图像,可以是根据深度图像对对应的初始图像进行可微分渲染处理,并将处理得到的多个图像作为多个初始拓扑图像,由此可以有效地降低图像处理过程中图像数据的损失,有效地提高初始拓扑图像的准确度,从而能够更为有效地辅助后续对象模型生成方法的执行。
本实施例中,可以基于预先训练好的可微分渲染模型实现根据深度图像对对应的初始图像进行可微分渲染处理的步骤,例如可以将深度图像和对应的初始图像共同作为预训练的可微分渲染模型的输入参数,以得到可微分渲染模型输出的多个初始拓扑图像,对此不做限制。
S204:对多个初始拓扑图像是分别进行网格细分处理,以得到多个目标拓扑图像,目标拓扑图像的点云数据密度为目标点云数据密度,目标点云数据密度大于初始点云数据密度。
其中,目标拓扑图像可以具有相应的点云数据密度,该点云数据密度即可以被称为目标点云数据密度,目标点云数据密度大于初始点云数据密度。
上述在分别根据深度图像处理对应的初始图像,以得到多个初始拓扑图像后,可以对多个初始拓扑图像进行网格细分处理,以得到多个目标拓扑图像,由此可以在后续对象模型生成过程中,有效地保障图像的对齐效果,较大程度地提升后续对象模型生成结果的准确性和可靠性。
也即是说,上述在分别根据深度图像处理对应的初始图像,以得到多个初始拓扑图像后,可以对多个初始拓扑图像进行网格细分处理,以增加多个初始拓扑图像的点云数据密度,以得到多个目标拓扑图像。
其中,网格细分是指根据一定的处理规则给网格增加顶点和三角面片的数量,以增加网格密度的处理方式,例如,如图4所示,图4是根据本公开实施例的网格细分处理示意图,通过网格细分可以在初始拓扑图像网格密度的基础上,增加网格密度,以实现增加多个初始拓扑图像的点云数据数据密度,得到多个目标拓扑图像。
S205:基于多个目标拓扑图像分别对初始形态模型进行非刚性形变处理,并将处理得到的多个形态模型作为多个待合成模型。
上述对多个初始拓扑图像分别进行网格细分处理,以得到多个目标拓扑图像后,可以基于多个目标拓扑图像分别对初始形态模型进行非刚性形变处理,并将处理得到的多个形态模型作为多个待合成模型。
其中,非刚性形变是一种图像变换方式,例如:图像伸缩变换、图像投射变换、图像仿射变换等,对此不做限制。
本实施例中,考虑到在实际应用中多个目标拓扑图像和初始形态模型的拓扑结构可能存在不一致,可能会导致无法直接进行迁移形变,此时可以参考多个目标拓扑图像对初始形态模型进行非刚性形变处理,以使目标拓扑图像和初始形态模型可以具有相同的拓扑结构,由此,能够有效地保障目标拓扑图像和初始形态模型的对齐效果,从而能够使得处理得到的多个待合成模型能够更加贴合目标拓扑图像。
举例而言,可以一并结合图5对本实施例做具体解释说明,图5是根据本公开实施例中非刚性形变处理示意图,如图5所示,可以对参考目标拓扑图像对组成初始形态模型拓扑结构的多个三角面片的每一个顶点,计算一个仿射变换矩阵,在通过仿射变换矩阵,实现对初始形态模型的非刚性形变处理,以得到处理后的多个形态模型,并将其作为多个待合成模型。
本实施例中,通过获取初始形态模型,并基于对象的不同采集角度,获取对象多个不同采集角度的初始图像,和与多个初始图像分别对应的多个深度图像,由于是从多个采集角度获取对象的多个初始图像和深度图像,能够在有效地降低图像采集成本的同时,有效地提升图像采集的便捷性,且能够基于各个采集角度采集的对象图像充分表征对对象形象进行表征,使得生成的对象模型能具有更高的准确性,在分别根据深度图像处理对应的初始图像,以得到多个初始拓扑图像后,可以对多个初始拓扑图像进行网格细分处理,以得到多个目标拓扑图像,由此可以在后续对象模型生成过程中,有效地保障图像的对齐效果,较大程度地提升后续对象模型生成结果的准确性和可靠性,再基于多个目标拓扑图像分别对初始形态模型进行非刚性形变处理,并将分别处理得到的多个形态模型作为多个待合成模型,由此,能够有效地保障目标拓扑图像和初始形态模型的对齐效果,从而能够使得处理得到的多个待合成模型能够更加贴合目标拓扑图像,从而有效地保障对象模型的生成效果。
图6是根据本公开第三实施例的示意图。
如图6所示,该对象模型生成方法,包括:
S601:获取初始形态模型。
S602:获取对象的多个初始图像,和与各个初始图像分别对应的深度图像。
S603:基于多个深度图像分别处理对应的初始图像,以得到多个目标拓扑图像。
S604:基于多个目标拓扑图像分别处理初始形态模型,以得到多个待合成模型。
S601-S604的描述说明可以具体参见上述实施例,在此不再赘述。
S605:确定与各个待合成模型分别对应的多个标注点信息。
上述在基于多个目标拓扑图像分别处理初始形态模型,以得到多个待合成模型后,可以确定与各个待合成模型分别对应的多个标注点信息。
其中,用于对各个待合成模型进行合成处理的参考点可以被称为标注点,标注点可以具体例如为在上述非刚性形变处理过程中未发生形变的三角面片顶点,还可以人工标注的其它可以用于对多个待合成模型进行合成处理的参考点,对此不做限制。
相应地,标注点可以具有一些相关联的信息,该信息即可以被称为标注点信息,标注点信息可以具体例如为标注点的位置信息,标注点间距离信息等,对此不做限制。
本实施例中,确定与各个待合成模型分别对应的多个标注点信息,可以是在3D头部模型和3D身体模型的脖颈处分别确定多个标注点,并根据前述确定的多个标注点,确定与各个待合成模型分别对应的多个标注点信息。
S606:根据对应的标注点信息,确定与各个待合成模型分别对应的多种合成参数信息。
其中,用于对多个待合成模型进行合成处理的参数,可以被称为合成参数信息,合成参数信息可以具体例如为3D头部模型和3D身体模型的尺度、刚性、位移矩阵等,对此不做限制。
可选地,一些实施例中,根据对应的标注点信息,确定与各个待合成模型分别对应的多种合成参数信息,可以是根据对应的标注点信息,确定与各个待合成模型分别对应的尺度信息、刚性信息,以及位移矩阵,并将尺度信息、刚性信息,以及位移矩阵共同作为合成参数信息,由此,能够有效地提高合成参数信息多样性的同时,有效地保障合成参数信息的准确性,从而可以基于合成参数信息,有效地辅助提升对象模型的生成效果。
一些实施例中,可以根据对应的标注点信息,通过数学运算的方式,确定与各个待合成模型分别对应的多种合成参数信息,或者,也可以采用其它任意可能的方式确定与多个待合成模型分别对应的多种合成参数信息,对此不做限制。
S607:根据多个待合成模型对应的合成参数信息对多个待合成模型进行合成处理,以得到目标对象模型。
上述在根据多个标注点信息,确定与多个待合成模型分别对应的多种合成参数信息后,可以根据多个待合成模型对应的合成参数信息对多个待合成模型进行合成处理,以得到目标对象模型。
一些实施例中,如图7所示,图7是根据本公开实施例的模型合成处理示意图,根据多个待合成模型对应的合成参数信息对多个待合成模型进行合成处理,可以是根据合成参数信息确定3D头部模型和3D身体模型之间具有一定对应关系的标注点,从而可以基与该标注点对3D头部模型和3D身体模型进行合成处理以得到目标对象模型,或者还可以是根据多种合成参数信息构建刚性变换矩阵,从而可以根据上述构建得到的刚性变换矩阵,实现对多个待合成模型进行合成处理,以得到目标对象模型,对此不做限制。
从而本实施例中,通过确定与各个待合成模型分别对应的标注点信息,并根据对应的标注点信息,确定与各个待合成模型分别对应的多种合成参数信息,再根据多个待合成模型对应的合成参数信息对多个待合成模型进行合成处理,以得到目标对象模型,由于是根据多个待合成模型分别对应的多个标注点信息对多个待合成模型进行合成处理,能够客观地,准确地对参考标注点信息多个待合成模型进行合成处理,有效地避免引入主观合成的干扰因素,保障模型的合成效果。
本实施例中,通过获取初始形态模型,并获取对象的多个初始图像,和各个与初始图像分别对应的深度图像,再分别根据深度图像分别处理对应的初始图像,以得到多个目标拓扑图像,并基于多个目标拓扑图像分别处理初始形态模型,以得到多个待合成模型,通过确定与各个待合成模型分别对应的多个标注点信息,并根据对应的标注点信息,确定与各个待合成模型分别对应的多种合成参数信息,再根据多个待合成模型对应的合成参数信息对多个待合成模型进行合成处理,以得到目标对象模型,由于是根据多个待合成模型分别对应的多个标注点信息对多个待合成模型进行合成处理,能够客观地,准确地对参考标注点信息多个待合成模型进行合成处理,有效地避免引入主观合成的干扰因素,保障模型的合成效果。
图8是根据本公开第四实施例的示意图。
如图8所示,该对象模型生成装置80,包括:
第一获取模块801,用于获取初始形态模型;
第二获取模块802,用于获取对象的多个初始图像,和与各个初始图像分别对应的深度图像;
第一处理模块803,用于分别根据深度图像处理对应的初始图像,以得到多个目标拓扑图像;
第二处理模块804,用于基于多个目标拓扑图像分别处理初始形态模型,以得到多个待合成模型;
生成模块805,用于利用多个待合成模型,生成目标对象模型。
在本公开的一些实施例中,如图9所示,图9是根据本公开第五实施例的示意图,该对象模型生成装置90,包括:第一获取模块901、第二获取模块902、第一处理模块903、第二处理模块904,生成模块905其中,第一处理模块903,包括:
第一处理子模块9031,用于分别根据深度图像处理对应的初始图像,以得到多个初始拓扑图像,初始拓扑图像的点云数据密度为初始点云数据密度;
第二处理子模块9032,用于对多个初始拓扑图像分别进行网格细分处理,以得到多个目标拓扑图像,目标拓扑图像的点云数据密度为目标点云数据密度,目标点云数据密度大于初始点云数据密度。
在本公开的一些实施例中,其中,第二处理模块904,还用于:
基于多个目标拓扑图像分别对初始形态模型进行非刚性形变处理,并将处理得到的多个形态模型作为多个待合成模型。
在本公开的一些实施例中,其中,第一处理子模块9031,还用于:
根据深度图像对对应的初始图像进行可微分渲染处理,并将处理得到的多个图像作为多个初始拓扑图像。
在本公开的一些实施例中,生成模块905,还用于:
确定与各个待合成模型分别对应的标注点信息;
根据对应的标注点信息,确定与各个待合成模型分别对应的合成参数信息;
根据多个待合成模型对应的合成参数信息对多个待合成模型进行合成处理,以得到目标对象模型。
在本公开的一些实施例中,多个初始图像分别对应不同的采集角度,其中,第二获取模块902,还用于:
基于多个采集角度分别捕获对象的多个初始图像。
在本公开的一些实施例中,生成模块905,还用于:
根据对应的标注点信息,确定与各个待合成模型分别对应的尺度信息、刚性信息,以及位移矩阵,并将尺度信息、刚性信息,以及位移矩阵共同作为合成参数信息。
可以理解的是,本实施例附图9中的对象模型生成装置90与上述实施例中的对象模型生成装置80,第一获取模块901与上述实施例中的第一获取模块801,第二获取模块902与上述实施例中的第二获取模块802,第一处理模块903与上述实施例中的第一处理模块803,第二处理模块904与上述实施例中的第二处理模块804,生成模块905与上述实施例中的生成模块805可以具有相同的功能和结构。
需要说明的是,前述对对象模型生成方法的解释说明也适用于本实施例的对象模型生成装置。
本实施例中,通过获取初始形态模型;获取对象的多个初始图像,和与各个初始图像分别对应的深度图像,并分别根据深度图像处理对应的初始图像,以得到多个目标拓扑图像,再基于多个目标拓扑图像分别处理初始形态模型,以得到多个待合成模型,以及利用多个待合成模型,生成目标对象模型。由此,能够在大幅降低对象模型生成成本的同时,有效地提升对象模型的生成效果,从而能够有效地提升对象模型生成方法的适用性。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图10示出了可以用来实施本公开实施例的对象模型生成方法的示例电子设备的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图10所示,设备1000包括计算单元1001,其可以根据存储在只读存储器(ROM)1002中的计算机程序或者从存储单元1008加载到随机访问存储器(RAM)1003中的计算机程序,来执行各种适当的动作和处理。在RAM 1003中,还可存储设备1000操作所需的各种程序和数据。计算单元1001、ROM 1002以及RAM 1003通过总线1004彼此相连。输入/输出(I/O)接口1005也连接至总线1004。
设备1000中的多个部件连接至I/O接口1005,包括:输入单元1006,例如键盘、鼠标等;输出单元1007,例如各种类型的显示器、扬声器等;存储单元1008,例如磁盘、光盘等;以及通信单元1009,例如网卡、调制解调器、无线通信收发机等。通信单元1009允许设备1000通过诸如因特网的计算机网络和/或各种电信网络与其它设备交换信息/数据。
计算单元1001可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元1001的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元1001执行上文所描述的各个方法和处理,例如对象模型生成方法。例如,在一些实施例中,对象模型生成方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元1008。在一些实施例中,计算机程序的部分或者全部可以经由ROM 1002和/或通信单元1009而被载入和/或安装到设备1000上。当计算机程序加载到RAM 1003并由计算单元1001执行时,可以执行上文描述的对象模型生成方法的一个或多个步骤。备选地,在其它实施例中,计算单元1001可以通过其它任何适当的方式(例如,借助于固件)而被配置为执行对象模型生成方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、互联网及区块链网络。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务("Virtual Private Server",或简称"VPS")中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其它因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。

Claims (17)

1.一种对象模型生成方法,包括:
获取初始形态模型;
获取对象的多个初始图像,和与各个初始图像分别对应的深度图像;
分别根据所述深度图像处理对应的初始图像,以得到多个目标拓扑图像;
基于所述多个目标拓扑图像分别处理所述初始形态模型,以得到多个待合成模型;
利用所述多个待合成模型,生成目标对象模型。
2.根据权利要求1所述的方法,其中,所述分别根据所述深度图像处理对应的初始图像,以得到多个目标拓扑图像,包括:
分别根据所述深度图像处理对应的初始图像,以得到多个初始拓扑图像,所述初始拓扑图像的点云数据密度为初始点云数据密度;
对所述多个初始拓扑图像分别进行网格细分处理,以得到多个目标拓扑图像,所述目标拓扑图像的点云数据密度为目标点云数据密度,所述目标点云数据密度大于所述初始点云数据密度。
3.根据权利要求2所述的方法,其中,所述基于所述多个目标拓扑图像分别处理所述初始形态模型,以得到多个待合成模型,包括:
基于所述多个目标拓扑图像分别对所述初始形态模型进行非刚性形变处理,并将处理得到的多个形态模型作为所述多个待合成模型。
4.根据权利要求2所述的方法,其中,所述分别根据所述深度图像处理对应的初始图像,以得到多个初始拓扑图像,包括:
根据所述深度图像对对应的初始图像进行可微分渲染处理,并将处理得到的多个图像作为所述多个初始拓扑图像。
5.根据权利要求1所述的方法,所述利用所述多个待合成模型,生成目标对象模型,包括:
确定与各个待合成模型分别对应的标注点信息;
根据对应的标注点信息,确定与各个待合成模型分别对应的合成参数信息;
根据所述多个待合成模型对应的合成参数信息对所述多个待合成模型进行合成处理,以得到所述目标对象模型。
6.根据权利要求1所述的方法,所述多个初始图像对应不同的采集角度,其中,所述获取对象的多个初始图像,包括:
基于所述多个采集角度分别捕获所述对象的多个初始图像。
7.根据权利要求5所述的方法,其中,所述根据对应的标注点信息,确定与各个待合成模型分别对应的合成参数信息,包括:
根据所述对应的标注点信息,确定与各个待合成模型分别对应的尺度信息、刚性信息以及位移矩阵,并将所述尺度信息、刚性信息以及位移矩阵共同作为所述合成参数信息。
8.一种对象模型生成装置,包括:
第一获取模块,用于获取初始形态模型;
第二获取模块,用于获取对象的多个初始图像,和与各个初始图像分别对应的深度图像;
第一处理模块,用于分别根据所述深度图像处理对应的初始图像,以得到多个目标拓扑图像;以及
第二处理模块,用于基于所述多个目标拓扑图像分别处理所述初始形态模型,以得到多个待合成模型;
生成模块,用于利用所述多个待合成模型,生成目标对象模型。
9.根据权利要求8所述的装置,其中,所述第一处理模块,包括:
第一处理子模块,用于分别根据所述深度图像处理对应的初始图像,以得到多个初始拓扑图像,所述初始拓扑图像的点云数据密度为初始点云数据密度;
第二处理子模块,用于对所述多个初始拓扑图像分别进行网格细分处理,以得到多个目标拓扑图像,所述目标拓扑图像的点云数据密度为目标点云数据密度,所述目标点云数据密度大于所述初始点云数据密度。
10.根据权利要求9所述的装置,其中,所述第二处理模块,还用于:
基于所述多个目标拓扑图像分别对所述初始形态模型进行非刚性形变处理,并将处理得到的多个形态模型作为所述多个待合成模型。
11.根据权利要求9所述的装置,其中,所述第一处理子模块,还用于:
根据所述深度图像对对应的初始图像进行可微分渲染处理,并将处理得到的多个图像作为所述多个初始拓扑图像。
12.根据权利要求8所述的装置,其中,所述生成模块,还用于:
确定与各个待合成模型分别对应的标注点信息;
根据对应的标注点信息,确定与各个待合成模型分别对应的合成参数信息;
根据所述多个待合成模型对应的合成参数信息对所述多个待合成模型进行合成处理,以得到所述目标对象模型。
13.根据权利要求8所述的装置,所述多个初始图像对应不同的采集角度,其中,所述第二获取模块,还用于:
基于所述多个采集角度分别捕获所述对象的多个初始图像。
14.根据权利要求12所述的方法,其中,所述生成模块,还用于:
根据对应的标注点信息,确定与各个待合成模型分别对应的尺度信息、刚性信息以及位移矩阵,并将所述尺度信息、刚性信息以及位移矩阵共同作为所述合成参数信息。
15.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-7中任一项所述的方法。
16.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-7中任一项所述的方法。
17.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-7中任一项所述方法的步骤。
CN202110945260.6A 2021-08-17 2021-08-17 对象模型生成方法、装置、电子设备及存储介质 Active CN113781653B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202110945260.6A CN113781653B (zh) 2021-08-17 2021-08-17 对象模型生成方法、装置、电子设备及存储介质
US17/820,108 US20220392251A1 (en) 2021-08-17 2022-08-16 Method and apparatus for generating object model, electronic device and storage medium
EP22190483.2A EP4086853A3 (en) 2021-08-17 2022-08-16 Method and apparatus for generating object model, electronic device and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110945260.6A CN113781653B (zh) 2021-08-17 2021-08-17 对象模型生成方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN113781653A true CN113781653A (zh) 2021-12-10
CN113781653B CN113781653B (zh) 2022-09-23

Family

ID=78838178

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110945260.6A Active CN113781653B (zh) 2021-08-17 2021-08-17 对象模型生成方法、装置、电子设备及存储介质

Country Status (3)

Country Link
US (1) US20220392251A1 (zh)
EP (1) EP4086853A3 (zh)
CN (1) CN113781653B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115761123A (zh) * 2022-11-11 2023-03-07 北京百度网讯科技有限公司 三维模型处理方法、装置、电子设备以及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111028330A (zh) * 2019-11-15 2020-04-17 腾讯科技(深圳)有限公司 三维表情基的生成方法、装置、设备及存储介质
CN111768488A (zh) * 2020-07-07 2020-10-13 网易(杭州)网络有限公司 一种虚拟角色脸部模型的处理方法和装置
US20200357158A1 (en) * 2019-05-06 2020-11-12 Vangogh Imaging, Inc. Remote visualization of three-dimensional (3d) animation with synchronized voice in real-time
CN112002014A (zh) * 2020-08-31 2020-11-27 中国科学院自动化研究所 面向精细结构的三维人脸重建方法、系统、装置
CN112634343A (zh) * 2020-12-23 2021-04-09 北京百度网讯科技有限公司 图像深度估计模型的训练方法、图像深度信息的处理方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200357158A1 (en) * 2019-05-06 2020-11-12 Vangogh Imaging, Inc. Remote visualization of three-dimensional (3d) animation with synchronized voice in real-time
CN111028330A (zh) * 2019-11-15 2020-04-17 腾讯科技(深圳)有限公司 三维表情基的生成方法、装置、设备及存储介质
CN111768488A (zh) * 2020-07-07 2020-10-13 网易(杭州)网络有限公司 一种虚拟角色脸部模型的处理方法和装置
CN112002014A (zh) * 2020-08-31 2020-11-27 中国科学院自动化研究所 面向精细结构的三维人脸重建方法、系统、装置
CN112634343A (zh) * 2020-12-23 2021-04-09 北京百度网讯科技有限公司 图像深度估计模型的训练方法、图像深度信息的处理方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115761123A (zh) * 2022-11-11 2023-03-07 北京百度网讯科技有限公司 三维模型处理方法、装置、电子设备以及存储介质
CN115761123B (zh) * 2022-11-11 2024-03-12 北京百度网讯科技有限公司 三维模型处理方法、装置、电子设备以及存储介质

Also Published As

Publication number Publication date
EP4086853A3 (en) 2023-03-01
US20220392251A1 (en) 2022-12-08
CN113781653B (zh) 2022-09-23
EP4086853A2 (en) 2022-11-09

Similar Documents

Publication Publication Date Title
CN114550177B (zh) 图像处理的方法、文本识别方法及装置
CN113674421B (zh) 3d目标检测方法、模型训练方法、相关装置及电子设备
EP3876204A2 (en) Method and apparatus for generating human body three-dimensional model, device and storage medium
CN115330940B (zh) 一种三维重建方法、装置、设备和介质
CN114092759A (zh) 图像识别模型的训练方法、装置、电子设备及存储介质
CN112580666A (zh) 图像特征的提取方法、训练方法、装置、电子设备及介质
CN114187624A (zh) 图像生成方法、装置、电子设备及存储介质
CN114792355B (zh) 虚拟形象生成方法、装置、电子设备和存储介质
CN114067051A (zh) 三维重建处理方法、装置、电子设备以及存储介质
CN112581573A (zh) 虚拟形象驱动方法、装置、设备、介质和程序产品
CN113379877B (zh) 人脸视频生成方法、装置、电子设备及存储介质
CN113781653B (zh) 对象模型生成方法、装置、电子设备及存储介质
CN114120413A (zh) 模型训练方法、图像合成方法、装置、设备及程序产品
CN113177466A (zh) 基于人脸图像的身份识别方法、装置、电子设备及介质
CN116309983B (zh) 虚拟人物模型的训练方法、生成方法、装置和电子设备
CN109816791B (zh) 用于生成信息的方法和装置
EP4123605A2 (en) Method of transferring image, and method and apparatus of training image transfer model
CN115222895B (zh) 图像生成方法、装置、设备以及存储介质
CN115409951A (zh) 图像处理方法、装置、电子设备及存储介质
CN115775300A (zh) 人体模型的重建方法、人体重建模型的训练方法及装置
CN114863450A (zh) 图像处理方法、装置、电子设备及存储介质
CN113903071A (zh) 人脸识别方法、装置、电子设备和存储介质
EP3929866A2 (en) Inpainting method and apparatus for human image, and electronic device
CN114037814B (zh) 数据处理方法、装置、电子设备和介质
CN113656629B (zh) 视觉定位方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant