CN117274491A - 三维重建模型的训练方法、装置、设备和介质 - Google Patents
三维重建模型的训练方法、装置、设备和介质 Download PDFInfo
- Publication number
- CN117274491A CN117274491A CN202311236381.9A CN202311236381A CN117274491A CN 117274491 A CN117274491 A CN 117274491A CN 202311236381 A CN202311236381 A CN 202311236381A CN 117274491 A CN117274491 A CN 117274491A
- Authority
- CN
- China
- Prior art keywords
- image
- deep learning
- learning model
- inferred
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 69
- 238000012549 training Methods 0.000 title claims abstract description 33
- 238000013136 deep learning model Methods 0.000 claims abstract description 107
- 230000000875 corresponding effect Effects 0.000 claims description 71
- 238000009792 diffusion process Methods 0.000 claims description 26
- 238000004590 computer program Methods 0.000 claims description 16
- 230000005855 radiation Effects 0.000 claims description 9
- 230000001537 neural effect Effects 0.000 claims description 6
- 230000002596 correlated effect Effects 0.000 claims description 5
- 238000010606 normalization Methods 0.000 claims description 2
- 238000013473 artificial intelligence Methods 0.000 abstract description 7
- 238000013135 deep learning Methods 0.000 abstract description 7
- 230000003190 augmentative effect Effects 0.000 abstract description 2
- 238000004891 communication Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 12
- 238000005516 engineering process Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 230000003993 interaction Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 210000005036 nerve Anatomy 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003924 mental process Effects 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- Geometry (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Graphics (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本公开提供了一种三维重建模型的训练方法、装置、设备和介质,涉及人工智能领域,具体为计算机视觉、增强现实、虚拟现实、深度学习等技术领域,可应用于元宇宙、数字人等场景。该方法包括:确定目标对象的描述信息;利用第一深度学习模型生成初始图像,初始图像表征从指定的目标位姿对目标对象进行观察得到的图像的预测结果;向初始图像增加噪声,以得到待推理图像;基于描述信息,利用第二深度学习模型对待推理图像进行推理,以得到推理结果,其中,推理结果能够用于对待推理图像进行噪声去除,并生成符合描述信息的图像;基于噪声和推理结果,调整第一深度学习模型的参数,以得到与符合描述信息的目标对象对应的三维重建模型。
Description
技术领域
本公开涉及人工智能技术领域,具体为计算机视觉、增强现实、虚拟现实、深度学习等技术领域,可应用于元宇宙、数字人等场景,特别涉及一种三维重建模型的训练方法、三维重建模型的训练装置、电子设备、计算机可读存储介质和计算机程序产品。
背景技术
人工智能是研究使计算机来模拟人的某些思维过程和智能行为(如学习、推理、思考、规划等)的学科,既有硬件层面的技术也有软件层面的技术。人工智能硬件技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理等技术;人工智能软件技术主要包括计算机视觉技术、语音识别技术、自然语言处理技术以及机器学习/深度学习、大数据处理技术、知识图谱技术等几大方向。
物体的三维重建是计算机视觉领域的热门分支,现有方法通过利用从各个角度对待重建对象拍摄的稠密图像数据,能够完成对该对象的三维重建。
在此部分中描述的方法不一定是之前已经设想到或采用的方法。除非另有指明,否则不应假定此部分中描述的任何方法仅因其包括在此部分中就被认为是现有技术。类似地,除非另有指明,否则此部分中提及的问题不应认为在任何现有技术中已被公认。
发明内容
本公开提供了一种三维重建模型的训练方法、三维重建模型的训练装置、电子设备、计算机可读存储介质和计算机程序产品。
根据本公开的一方面,提供了一种三维重建模型的训练方法,包括:确定目标对象的描述信息;利用第一深度学习模型生成初始图像,初始图像表征从指定的目标位姿对目标对象进行观察得到的图像的预测结果;向初始图像增加噪声,以得到待推理图像;基于描述信息,利用第二深度学习模型对待推理图像进行推理,以得到推理结果,其中,推理结果能够用于对待推理图像进行噪声去除,并生成符合描述信息的图像;以及基于噪声和推理结果,调整第一深度学习模型的参数,以得到与符合描述信息的目标对象对应的三维重建模型。
根据本公开的一方面,提供了一种三维重建模型的训练装置,包括:描述信息确定单元,被配置为确定目标对象的描述信息;第一生成单元,被配置为,利用第一深度学习模型生成初始图像,初始图像表征从指定的目标位姿对目标对象进行观察得到的图像的预测结果;噪声添加单元,被配置为向初始图像增加噪声,以得到待推理图像;第二生成单元,被配置为基于描述信息,利用第二深度学习模型对待推理图像进行推理,以得到推理结果,其中,推理结果能够用于对待推理图像进行噪声去除,并生成符合描述信息的图像;以及调参单元,被配置为基于噪声和推理结果,调整第一深度学习模型的参数,以得到与符合描述信息的目标对象对应的三维重建模型。
根据本公开的另一方面,提供了一种电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中存储器存储有可被至少一个处理器执行的指令,这些指令被至少一个处理器执行,以使至少一个处理器能够执行上述方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,计算机指令用于使计算机执行上述方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,其中,计算机程序在被处理器执行时实现上述方法。
根据本公开的一个或多个实施例,通过对第一深度学习模型生成的初始图像增加噪声,以得到待推理图像,并利用第二深度学习模型生成能够用于对待推理图像进行噪声去除并生成符合输入的描述信息的图像的推理结果,进而基于噪声和推理结果对第一深度学习模型进行参数调整,实现了利用第二深度学习模型所具备的图像生成能力对第一深度学习模型进行训练,使得经训练的第一深度学习模型(即三维重建模型)能够生成与符合描述信息的目标对象对应的图像,实现了在无需待重建对象的图像的情况下对待重建对象进行三维重建。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图示例性地示出了实施例并且构成说明书的一部分,与说明书的文字描述一起用于讲解实施例的示例性实施方式。所示出的实施例仅出于例示的目的,并不限制权利要求的范围。在所有附图中,相同的附图标记指代类似但不一定相同的要素。
图1示出了根据本公开的实施例的可以在其中实施本文描述的各种方法的示例性系统的示意图;
图2示出了根据本公开示例性实施例的三维重建模型的训练方法的流程图;
图3示出了根据本公开示例性实施例的利用第一深度学习模型生成初始图像的流程图;
图4示出了根据本公开示例性实施例的利用第二深度学习模型对待推理图像进行推理的流程图;
图5示出了根据本公开示例性实施例的利用第二深度学习模型对待推理图像进行推理的流程图;
图6示出了根据本公开示例性实施例的利用第二深度学习模型对待推理图像进行推理的流程图;
图7示出了根据本公开示例性实施例的利用第一编码子网络对待推理图像进行编码的流程图;
图8示出了根据本公开示例性实施例的三维重建模型的训练装置的结构框图;以及
图9示出了能够用于实现本公开的实施例的示例性电子设备的结构框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
在本公开中,除非另有说明,否则使用术语“第一”、“第二”等来描述各种要素不意图限定这些要素的位置关系、时序关系或重要性关系,这种术语只是用于将一个元件与另一元件区分开。在一些示例中,第一要素和第二要素可以指向该要素的同一实例,而在某些情况下,基于上下文的描述,它们也可以指代不同实例。
在本公开中对各种所述示例的描述中所使用的术语只是为了描述特定示例的目的,而并非旨在进行限制。除非上下文另外明确地表明,如果不特意限定要素的数量,则该要素可以是一个也可以是多个。此外,本公开中所使用的术语“和/或”涵盖所列出的项目中的任何一个以及全部可能的组合方式。
相关技术中,在进行三维重建时,一些实施方式需要提供从各个视角拍摄待重建的对象的图像,但由于实际条件的限制,往往很难获取到360度无死角的图像供重建使用。
为解决上述问题,本公开通过对第一深度学习模型生成的初始图像增加噪声,以得到待推理图像,并利用第二深度学习模型生成能够用于对待推理图像进行噪声去除并生成符合输入的描述信息的图像的推理结果,进而基于噪声和推理结果对第一深度学习模型进行参数调整,实现了利用第二深度学习模型所具备的图像生成能力对第一深度学习模型进行训练,使得经训练的第一深度学习模型(即三维重建模型)能够生成与符合描述信息的目标对象对应的图像,实现了在无需待重建对象的图像的情况下对待重建对象进行三维重建。
下面将结合附图详细描述本公开的实施例。
图1示出了根据本公开的实施例可以将本文描述的各种方法和装置在其中实施的示例性系统100的示意图。参考图1,该系统100包括一个或多个客户端设备101、102、103、104、105和106、服务器120以及将一个或多个客户端设备耦接到服务器120的一个或多个通信网络110。客户端设备101、102、103、104、105和106可以被配置为执行一个或多个应用程序。
在本公开的实施例中,服务器120可以运行使得能够执行三维重建模型的训练方法的一个或多个服务或软件应用。
在某些实施例中,服务器120还可以提供可以包括非虚拟环境和虚拟环境的其他服务或软件应用。在某些实施例中,这些服务可以作为基于web的服务或云服务提供,例如在软件即服务(SaaS)网络下提供给客户端设备101、102、103、104、105和/或106的用户。
在图1所示的配置中,服务器120可以包括实现由服务器120执行的功能的一个或多个组件。这些组件可以包括可由一个或多个处理器执行的软件组件、硬件组件或其组合。操作客户端设备101、102、103、104、105和/或106的用户可以依次利用一个或多个客户端应用程序来与服务器120进行交互以利用这些组件提供的服务。应当理解,各种不同的系统配置是可能的,其可以与系统100不同。因此,图1是用于实施本文所描述的各种方法的系统的一个示例,并且不旨在进行限制。
用户可以使用客户端设备101、102、103、104、105和/或106来进行人机交互。客户端设备可以提供使客户端设备的用户能够与客户端设备进行交互的接口。客户端设备还可以经由该接口向用户输出信息。尽管图1仅描绘了六种客户端设备,但是本领域技术人员将能够理解,本公开可以支持任何数量的客户端设备。
客户端设备101、102、103、104、105和/或106可以包括各种类型的计算机设备,例如便携式手持设备、通用计算机(诸如个人计算机和膝上型计算机)、工作站计算机、可穿戴设备、智能屏设备、自助服务终端设备、服务机器人、游戏系统、瘦客户端、各种消息收发设备、传感器或其他感测设备等。这些计算机设备可以运行各种类型和版本的软件应用程序和操作系统,例如MICROSOFT Windows、APPLE iOS、类UNIX操作系统、Linux或类Linux操作系统(例如GOOGLE Chrome OS);或包括各种移动操作系统,例如MICROSOFT WindowsMobile OS、iOS、Windows Phone、Android。便携式手持设备可以包括蜂窝电话、智能电话、平板电脑、个人数字助理(PDA)等。可穿戴设备可以包括头戴式显示器(诸如智能眼镜)和其他设备。游戏系统可以包括各种手持式游戏设备、支持互联网的游戏设备等。客户端设备能够执行各种不同的应用程序,例如各种与Internet相关的应用程序、通信应用程序(例如电子邮件应用程序)、短消息服务(SMS)应用程序,并且可以使用各种通信协议。
网络110可以是本领域技术人员熟知的任何类型的网络,其可以使用多种可用协议中的任何一种(包括但不限于TCP/IP、SNA、IPX等)来支持数据通信。仅作为示例,一个或多个网络110可以是局域网(LAN)、基于以太网的网络、令牌环、广域网(WAN)、因特网、虚拟网络、虚拟专用网络(VPN)、内部网、外部网、公共交换电话网(PSTN)、红外网络、无线网络(例如蓝牙、WIFI)和/或这些和/或其他网络的任意组合。
服务器120可以包括一个或多个通用计算机、专用服务器计算机(例如PC(个人计算机)服务器、UNIX服务器、中端服务器)、刀片式服务器、大型计算机、服务器群集或任何其他适当的布置和/或组合。服务器120可以包括运行虚拟操作系统的一个或多个虚拟机,或者涉及虚拟化的其他计算架构(例如可以被虚拟化以维护服务器的虚拟存储设备的逻辑存储设备的一个或多个灵活池)。在各种实施例中,服务器120可以运行提供下文所描述的功能的一个或多个服务或软件应用。
服务器120中的计算单元可以运行包括上述任何操作系统以及任何商业上可用的服务器操作系统的一个或多个操作系统。服务器120还可以运行各种附加服务器应用程序和/或中间层应用程序中的任何一个,包括HTTP服务器、FTP服务器、CGI服务器、JAVA服务器、数据库服务器等。
在一些实施方式中,服务器120可以包括一个或多个应用程序,以分析和合并从客户端设备101、102、103、104、105和106的用户接收的数据馈送和/或事件更新。服务器120还可以包括一个或多个应用程序,以经由客户端设备101、102、103、104、105和106的一个或多个显示设备来显示数据馈送和/或实时事件。
在一些实施方式中,服务器120可以为分布式系统的服务器,或者是结合了区块链的服务器。服务器120也可以是云服务器,或者是带人工智能技术的智能云计算服务器或智能云主机。云服务器是云计算服务体系中的一项主机产品,以解决传统物理主机与虚拟专用服务器(VPS,Virtual Private Server)服务中存在的管理难度大、业务扩展性弱的缺陷。
系统100还可以包括一个或多个数据库130。在某些实施例中,这些数据库可以用于存储数据和其他信息。例如,数据库130中的一个或多个可用于存储诸如音频文件和视频文件的信息。数据库130可以驻留在各种位置。例如,由服务器120使用的数据存储库可以在服务器120本地,或者可以远离服务器120且可以经由基于网络或专用的连接与服务器120通信。数据库130可以是不同的类型。在某些实施例中,由服务器120使用的数据库可以是数据库,例如关系数据库。这些数据库中的一个或多个可以响应于命令而存储、更新和检索到数据库以及来自数据库的数据。
在某些实施例中,数据库130中的一个或多个还可以由应用程序使用来存储应用程序数据。由应用程序使用的数据库可以是不同类型的数据库,例如键值存储库,对象存储库或由文件系统支持的常规存储库。
图1的系统100可以以各种方式配置和操作,以使得能够应用根据本公开所描述的各种方法和装置。
根据本公开的一方面,提供了一种三维重建模型的训练方法。如图2所示,三维重建模型的训练方法包括:步骤S201、确定目标对象的描述信息;步骤S202、,利用第一深度学习模型生成初始图像,初始图像表征从指定的目标位姿对目标对象进行观察得到的图像的预测结果;步骤S203、向初始图像增加噪声,以得到待推理图像;步骤S204、基于描述信息,利用第二深度学习模型对待推理图像进行推理,以得到推理结果,其中,推理结果能够用于对待推理图像进行噪声去除,并生成符合描述信息的图像;以及步骤S205、基于噪声和推理结果,调整第一深度学习模型的参数,以得到与符合描述信息的目标对象对应的三维重建模型。
由此,通过对第一深度学习模型生成的初始图像增加噪声,以得到待推理图像,并利用第二深度学习模型生成能够用于对待推理图像进行噪声去除并生成符合输入的描述信息的图像的推理结果,进而基于噪声和推理结果对第一深度学习模型进行参数调整,实现了利用第二深度学习模型所具备的图像生成能力对第一深度学习模型进行训练,使得经训练的第一深度学习模型(即三维重建模型)能够生成与符合描述信息的目标对象对应的图像,实现了在无需待重建对象的图像的情况下对待重建对象进行三维重建。
在一些实施例中,目标对象为预先确定的需要进行三维重建的对象。目标对象可以为人体,也可以为其他特定物体,例如水杯、桌子、汽车等等。本公开中将以人体作为目标对象的示例对技术方案进行说明,但并不意图对目标对象的具体类别进行限定。
目标对象的描述信息可以包括描述目标对象的类别、属性、外观等内容的信息。在目标对象为人体的实施例中,描述信息可以包括关于人体姿态和外貌特征的相关信息。
与目标对象对应的第一深度学习模型的训练目标为能够基于给定的位姿(即,相机位姿),生成高质量的新视角图像,即从目标位姿对目标对象进行观察得到的图像的准确预测结果。第一深度学习模型(即待训练的三维重建模型)能够生成相应的图像,但质量较差。
目标位姿可以是随机确定的或人为确定的,对应任意一个观察目标对象的位置和姿态(视角)。在一些实施例中,可以指定多个目标位姿(例如可以包括能够无死角地观察目标对象的所有位姿),并利用第一深度学习模型生成与各个位姿对应的初始图像,进而基于这些初始图像利用步骤S203-步骤S205对第一深度学习模型进行训练,以得到三维重建模型。在一些实施例中,也可以迭代确定目标位姿并生成相应的初始图像,并迭代完成对第二深度学习模型的训练。
根据一些实施例,第一深度学习模型和对第一深度学习模型进行训练后得到的三维重建模型可以基于神经辐射场。神经辐射场是一种计算机视觉技术,用于生成高质量的三维重建模型。它利用深度学习技术从多个视角的图像中提取出对象的几何形状和纹理信息,然后使用这些信息生成一个连续的三维辐射场,从而可以获取从任意角度(例如,位姿)对三维模型进行观察而得到的结果。
在一些实施例中,如图3所示,步骤S202、利用第一深度学习模型生成初始图像可以包括:步骤S301、针对待生成的初始图像中的每一个像素,基于第一深度学习模型,确定位于与该像素对应的射线上的多个体素各自的体素密度和颜色;以及步骤S302、基于与该像素对应的射线上的多个体素各自的体素密度和颜色,确定该像素的像素值。
由此,通过使用神经辐射场作为第一深度学习模型,使得最终能够训练得到质量高、逼真度高的三维重建模型。
在一些实施例中,第二深度学习模型可以是扩散模型(Diffusion模型),或者可以认为是扩散模型中的U-网络(U-Net)。扩散模型可以包括两个过程:前向扩散过程和逆向推理过程。
在前向扩散过程中,具体做法是是给定一张真实图片x0,通过预设数值T次累计对其添加预设概率分布(例如,高斯分布)噪声,依次得到x1,x2…xT,该过程可以表示为q(xt|xt-1)。这里需给定一系列的预设概率分布的预设参数(例如,高斯分布方差的超参数)前向过程由于每个时刻t只与t-1时刻有关,所以也可以看作马尔科夫过程,具体公式如下:
其中,αt=1-βt,在前向扩散过程中,随着t的增大,xt越来越接近纯噪声。当T趋于无穷时,xT是完全的高斯噪声。实际中,βt是随t增大的,即β1<β2<…<βt。通过一系列推导可以通过x0和β快速得到xt。具体公式如下:
其中,
前向扩散过程可以被认为是加噪的过程,逆向推理过程可以被认为是去噪推断过程。在训练扩散模型时,需要先对原图进行前向扩散加噪,再利用扩散模型进行逆向推理去噪,并使得模型输出的结果尽可能接近前向扩散的过程中得到的结果。
需要注意的是,对待推理图像进行推理得到完全消除噪声的图像是通过迭代多次实现的。如果能够逐步得到逆转后的分布q(xt|xt-1),就可以从完全的预设概率分布(例如,高斯分布)还原出原图分布x0(或符合额外条件的新图像)。然而由于无法简单推断q(xt|xt-1),因此可以使用第二深度学习模型(参数为θ,可以使用U-Net结构)去预测这样的一个逆向的分布pθ,从而达到去噪的目的。
在一些实施例中,针对时间步数为t的待推理图像(即,通过t次增加噪声得到的图像),可以预测一个逆向的分布pθ(例如,高斯分布),从而达到去噪的目的。
其中,μθ(xt,t)指代的就是推理后的图像的均值,xt为时间步数为t的待推理图像,方差可以直接使用基于预设概率分布的预设参数计算待推理图像和中间噪声图像的差值可以表示为:
其中,xt为时间步数为t的待推理图像,zθ(xt,t)为深度学习模型基于待推理图像xt(或融合图像)和时间步数t而得到的推理结果。
在利用训练扩散模型基于已有的原图生成新图像时,需要先对原图进行前向扩散加噪,再利用扩散模型进行逆向推理得到对噪声的预测结果,并利用该预测结果对原图进行去噪,以得到与原图相关(例如,包含相同的对象、内容或主题)并且符合对目标对象的描述信息的新图像。
扩散模型还可以接收对期望生成的图像的描述信息,从而使得生成的图像满足描述信息。在一些实施例中,可以将加入了噪声的待推理图像和描述信息输入第二深度学习模型,以得到既能够用于去噪,还能够使最终得到的图像满足描述信息的推理结果。可以通过从待推理图像中减去推理结果的方式得到去除了噪声并且符合描述信息的图像。
在本公开的方法中,不需要获取最终生成的新图像,而只需获取第二深度学习模型生成的推理结果,即对向初始图像增加的噪声的预测结果。而后,在步骤S205,可以基于推理结果和实际添加的噪声(例如,基于二者间的差异的损失值)训练第一深度学习模型。通过这样的方式,可以在原图质量不佳的情况下(例如,由未训练好的神经辐射场生成的图像),利用训练好的扩散模型的图像生成能够用于得到高质量的图像的推理结果,并基于该推理结果调整第一深度学习网络的参数,使得训练后的第一深度学习网络能够输出质量更高的图像,提升了第一深度学习网络的三维重建能力。
回到步骤S204。扩散模型可以接收图像格式的描述信息,并以接收的图像作为参考生成新图像。在一些实施例中,第一深度学习模型生成初始图像具有相应的目标位姿,初始图像可以表征从指定的目标位姿对目标对象进行观察得到的图像的预测结果。目标位姿的含义可以理解为三维重建场景中的虚拟的观察者的位置和视角。扩散模型可以接收人体姿态图像,从而使得生成的新图像中的人体与接收的与目标位姿对应的人体姿态图像中的姿态一致。因此,目标对象的描述信息可以包括描述目标对象的身体姿态的姿态先验信息。
根据一些实施例,如图4所示,步骤S204、基于描述信息,利用第二深度学习模型对待推理图像进行推理,以得到推理结果可以包括:步骤S401、基于姿态先验信息,确定与目标位姿对应的人体姿态图像;以及步骤S402、基于人体姿态图像,利用第二深度学习模型对待推理图像进行推理,以得到推理结果。
人体姿态图像表征从目标位姿观察具有姿态先验信息所描述的身体位姿的目标对象时所看到的人体姿态。由此,通过上述方式,使得第二深度学习模型生成的推理结果能够用于得到与目标位姿观察对应的、符合描述信息中所描述的目标对象的身体姿态的预测图像,进而使得训练后的第一深度学习模型能够学习到相应的姿态先验信息,使得最终得到的三维重建模型对目标对象的建模符合该身体姿态。
在一些实施例中,可以使用控制网络ControlNet作为第二深度学习模型。ControlNet是一种通过添加额外条件来控制扩散模型的神经网络结构。它提供了一种增强稳定扩散的方法,在图像和/或文本到图像生成过程中使用条件输入,如人体姿态图像等。
根据一些实施例,姿态先验信息可以包括目标对象的三维人体骨骼点信息,人体姿态图像可以包括二维人体骨骼图像,二维人体骨骼图像可以是通过将三维人体骨骼点信息按照目标位姿进行投影而得到的。
可以理解的是,姿态先验信息和人体姿态图像还可以采用其他的形式在此不作限定。
根据一些实施例,描述信息可以包括描述目标对象的外貌特征的提示文本。在一个示例性实施例中,提示文本例如可以为“穿白裙子的女孩”。如图5所示,步骤S402、基于人体姿态图像,利用第二深度学习模型对待推理图像进行推理,以得到推理结果可以包括:步骤S501、基于提示文本和人体姿态图像,利用第二深度学习模型对待推理图像进行推理,以得到推理结果。
由此,使得第二深度学习模型在该显式的描述信息下生成推理结果,该推理结果能够用于得到呈现该外貌特征的预测图像,进而使得训练后的第一深度学习模型能够学习到相应的外貌特征,使得最终得到的三维重建模型对目标对象的建模符合该外貌特征。
根据一些实施例,第二深度学习模型可以基于预训练的扩散模型,并且包括第一编码子网络、第二编码子网络和解码子网络。如图6所示,步骤S501、基于提示文本和人体姿态图像,利用第二深度学习模型对待推理图像进行推理,以得到推理结果可以包括:步骤S601、基于编码后的提示文本,利用第一编码子网络对待推理图像进行编码,以得到第一中间图像,第一中间图像的尺寸小于待推理图像;步骤S602、基于编码后的提示文本,利用第二编码子网络对第一融合图像进行编码,以得到第二中间图像,第一融合图像是通过将待推理图像和人体姿态图像进行融合而得到的,第二中间图像与第一中间图像尺寸相同;以及步骤S603、基于编码后的提示文本,利用解码子网络对第二融合图像进行解码,以得到推理结果,第二融合图像是通过将第一中间图像和第二中间图像进行融合而得到的。
由此,通过上述方式,能够实现更好地基于提示文本和人体姿态图像,利用第二深度学习模型对待推理图像进行推理,并得到更准确的推理结果。
在一些实施例中,可以利用文本编码器(编码网络)对提示文本进行编码,以得到编码后的提示文本。还可以利用时间编码器对时间步数(即前文中提到的扩散过程的时刻t)进行编码,并在步骤S601-步骤S603中基于编码后的提示文本和编码后的时间步数进行编码和解码。
根据一些实施例,第一编码子网络可以包括交替设置的至少一个第一编码块和至少一个第一注意力层,至少一个第一注意力层中的每一个第一注意力层可以被设置为紧邻在对应的第一编码块之后。如图7所示,步骤S601、基于编码后的提示文本,利用第一编码子网络对待推理图像进行编码,以得到第一中间图像可以包括:步骤S701、利用至少一个第一编码块中的第一编码块,对该第一编码块的输入图像进行编码,以得到该第一编码块输出的编码图像;以及步骤S702、利用至少一个第一注意力层中的第一注意力层,基于编码后的提示文本确定用于该第一注意力层的输入图像中的像素的注意力得分,以得到该第一注意力层输出的第一注意力图像,其中,该第一注意力层的输入图像为对应的第一编码块输出的编码图像,至少一个第一注意力层中的最后一个第一注意力层输出的第一注意力图像为第一中间图像。
由此,通过上述方式实现了更好地基于提示文本对待推理图像进行推理,以使得推理结果能够用于生成质量更高的符合提示文本所描述的外貌特征的图像。
在一些实施例中,至少一个第一编码块和至少一个第一注意力层的数量可以相同,每一个第一编码块都具有一个对应的第一注意力层。即,第一编码块的输出为对应的第一注意力层的输入,而该第一注意力层的输出可以是下一个第一编码块的输入(或第一编码子网络的最终输出)。
可以理解的是,交替设置的至少一个第一编码块和至少一个第一注意力层的含义为每一个第一编码块具有一个对应的第一注意力层,第一编码块之后紧邻的是与该第一编码块对应的第一注意力层,而后紧邻的便是下一个第一编码块和对应第一注意力层,直至最后一个第一注意力层和对应的第一注意力层。
在一些实施例中,可以利用至少一个第一编码块中的每一个第一编码块,对该第一编码块的输入图像进行编码,以得到该第一编码块输出的编码图像,并且可以利用至少一个第一注意力层中的每一个第一注意力层,基于编码后的提示文本确定用于该第一注意力层的输入图像中的每一个像素的注意力得分,以得到该第一注意力层输出的第一注意力图像。
在一些实施例中,第一编码子网络和第二编码子网络在对相应的输入图像进行编码的同时对图像执行了降采样,因而第一中间图像/第二中间图像的尺寸小于待推理图像。相反地,解码子网络在对相应的输入图像进行解码的同时对图像执行了上采样,因此最终输出的推理结果的尺寸大于解码子网络的输入图像。在一些实施例中,推理结果的尺寸与待推理图像相同。因而,第二深度学习模型可以是U-Net。
在一些实施例中,在步骤S702,可以基于编码后的提示文本和编码后的时间步数确定相应的注意力得分。
在一些实施例中,在步骤S602之前,可以采用各种方式将待推理图像和人体姿态图像进行融合,以得到第二中间图像,例如拼接、直接相加、加权求和、利用小型神经网络处理等或上述方式的任意组合。在一个示例性实施例中,可以利用零卷积(zeroconvolution,即带有零初始化权重和偏差的1×1卷积)对人体姿态图像进行处理,并将处理结果与待推理图像进行拼接或相加,以得到第二中间图像。
在一些实施例中,第二编码子网络可以包括交替设置的编码块和注意力层,解码子网络可以包括交替设置的解码块和注意力层,以更好地实现基于提示文本(以及时间步数)进行编码和解码。可以将第二编码子网络中的每一个编码块输出的编码图像与解码子网络中的对应的解码块输出的尺寸一致的解码图像进行融合,以提升网络的预测能力。
在一些实施例中,在步骤S205,可以基于向初始图像增加的噪声和推理结果计算第一损失值,并基于第一损失值调整第一深度学习模型的参数。损失值可以与噪声和推理结果的差呈正相关。在一个示例性实施例中,可以以两者差值的L2损失作为相应的损失值,即:
其中,L1为损失值,∈为噪声,为推理结果。
根据一些实施例,三维重建模型的训练方法还可以包括:确定初始图像中的每一个像素对应的射线的熵损失,包括:针对初始图像中的每一个像素,对位于与该像素对应的射线上的多个体素各自的体素密度进行归一化,以得到多个体素各自的归一化后的体素密度;以及基于多个体素各自的归一化后的体素密度,确定射线的熵损失。第一深度学习模型的参数可以是基于初始图像中的每一个像素对应的射线的熵损失、噪声和推理结果而调整的。
由此,通过使用上述基于熵损失的损失值调整第一深度学习模型的参数,使得三维重建模型对目标物体的三维建模的物体表面更加锐利。
根据一些实施例,基于多个体素各自的归一化后的体素密度,确定射线的熵损失可以包括:针对多个体素中的每一个体素,基于该体素的归一化后的体素密度的对数和该体素的归一化后的体素密度的乘积的相反数,确定与该体素对应的损失项;以及基于多个体素各自对应的损失项的总和,确定射线的熵损失。
在一个示例性实施例中,每一个射线的熵损失可以表示为:
L2=∑0~n-σilog(σi)
其中,L2为第一损失值,0~n表示所有体素,σi表示归一化后的体素密度。由此,通过上述方式,可以得到能够用于准确评估表面是否锐利的射线的熵损失。
根据一些实施例,步骤S205、基于噪声和推理结果,调整第一深度学习模型的参数,以得到与符合描述信息的目标对象对应的三维重建模型可以包括:基于初始图像中的每一个像素对应的射线的熵损失的总和,确定第一损失值;基于噪声和推理结果,确定第二损失值,第二损失值与噪声和推理结果的差呈正相关;以及基于第一损失值和第二损失值,调整第一深度学习模型的参数。
在一个示例性实施例中,可以将所有射线的L1和L2相加得到总的损失值L,并基于损失值L调整第一深度学习模型的参数。由此,可以实现同时基于上述两种损失值计算方式调整深度学习模型的参数。
在一些实施例中,在训练得到三维重建模型后,可以利用移动立方体(MarchingCube)的方式从训练得到的神经辐射场中提取体素密度等值面,从而得到3D物体的网格(mesh)。在一个示例性实施例中,可以取密度为2.5。
根据本公开的另一方面,提供了一种三维重建模型的训练装置。如图8所示,装置800,包括:描述信息确定单元810,被配置为确定目标对象的描述信息;第一生成单元820,被配置为利用第一深度学习模型生成初始图像,初始图像表征从指定的目标位姿对目标对象进行观察得到的图像的预测结果;噪声添加单元830,被配置为向初始图像增加噪声,以得到待推理图像;第二生成单元840,被配置为基于描述信息,利用第二深度学习模型对待推理图像进行推理,以得到推理结果,其中,推理结果能够用于对待推理图像进行噪声去除,并生成符合描述信息的图像;以及调参单元850,被配置为基于噪声和推理结果,调整第一深度学习模型的参数,以得到与符合描述信息的目标对象对应的三维重建模型。
可以理解的是,装置800中的单元810-单元850的操作分别和图2中的步骤S201-步骤S205的操作类似,在此不作赘述。
根据一些实施例,第一深度学习模型和三维重建模型可以基于神经辐射场。第一生成单元可以包括:体素确定子单元,被配置为针对待生成的初始图像中的每一个像素,基于第一深度学习模型,确定位于与该像素对应的射线上的多个体素各自的体素密度和颜色;以及像素值确定子单元,被配置为针对待生成的初始图像中的每一个像素,基于与该像素对应的射线上的多个体素各自的体素密度和颜色,确定该像素的像素值。
根据一些实施例,描述信息可以包括描述目标对象的身体姿态的姿态先验信息。第二生成单元可以包括:人体姿态图像确定子单元,被配置为基于姿态先验信息,确定与目标位姿对应的人体姿态图像;以及生成子单元,被配置为基于人体姿态图像,利用第二深度学习模型对待推理图像进行推理,以得到推理结果。
根据一些实施例,姿态先验信息可以包括目标对象的三维人体骨骼点信息,人体姿态图像可以包括二维人体骨骼图像,二维人体骨骼图像可以是通过将三维人体骨骼点信息按照目标位姿进行投影而得到的。
根据一些实施例,描述信息可以包括描述目标对象的外貌特征的提示文本。生成子单元可以被配置为基于提示文本和人体姿态图像,利用第二深度学习模型对待推理图像进行推理,以得到推理结果。
根据一些实施例,第二深度学习模型可以基于预训练的扩散模型,并且可以包括第一编码子网络、第二编码子网络和解码子网络。生成子单元可以包括:第一编码子单元,被配置为基于编码后的提示文本,利用第一编码子网络对待推理图像进行编码,以得到第一中间图像,第一中间图像的尺寸小于待推理图像;第二编码子单元,被配置为基于编码后的提示文本,利用第二编码子网络对第一融合图像进行编码,以得到第二中间图像,第一融合图像是通过将待推理图像和人体姿态图像进行融合而得到的,第二中间图像与第一中间图像尺寸相同;以及解码子单元,被配置为基于编码后的提示文本,利用解码子网络对第二融合图像进行解码,以得到推理结果,第二融合图像是通过将第一中间图像和第二中间图像进行融合而得到的。
根据一些实施例,第一编码子网络可以包括交替设置的至少一个第一编码块和至少一个第一注意力层。第一编码子单元可以被配置为:利用至少一个第一编码块中的第一编码块,对该第一编码块的输入图像进行编码,以得到该第一编码块输出的编码图像;以及利用至少一个第一注意力层中的第一注意力层,基于编码后的提示文本确定用于该第一注意力层的输入图像中的像素的注意力得分,以得到该第一注意力层输出的第一注意力图像,其中,该第一注意力层的输入图像为对应的第一编码块输出的编码图像,至少一个第一注意力层中的最后一个第一注意力层输出的第一注意力图像为第一中间图像。
根据一些实施例,装置800还可以包括(图中未示出):熵损失确定单元,被配置为确定初始图像中的每一个像素对应的射线的熵损失。熵损失确定单元可以包括:归一化子单元,被配置为针对初始图像中的每一个像素,对位于与该像素对应的射线上的多个体素各自的体素密度进行归一化,以得到多个体素各自的归一化后的体素密度;熵损失确定子单元,被配置为基于多个体素各自的归一化后的体素密度,确定射线的熵损失。第一深度学习模型的参数可以是基于初始图像中的每一个像素对应的射线的熵损失、噪声和推理结果而调整的。
根据一些实施例,熵损失确定子单元可以包括:损失项确定子单元,被配置为针对多个体素中的每一个体素,基于该体素的归一化后的体素密度的对数和该体素的归一化后的体素密度的乘积的相反数,确定与该体素对应的损失项。熵损失确定子单元被配置为基于多个体素各自对应的损失项总和,确定射线的熵损失。
根据一些实施例,调参单元可以包括:第一损失值确定子单元,被配置为基于初始图像中的每一个像素对应的射线的熵损失的总和,确定第一损失值;第二损失值确定子单元,被配置为基于噪声和推理结果,确定第二损失值,第二损失值与噪声和推理结果的差呈正相关;以及调参子单元,被配置为基于第一损失值和第二损失值,调整第一深度学习模型的参数。
本公开的技术方案中,所涉及的用户个人信息的收集、存储、使用、加工、传输、提供和公开等处理,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
参考图9,现将描述可以作为本公开的服务器或客户端的电子设备900的结构框图,其是可以应用于本公开的各方面的硬件设备的示例。电子设备旨在表示各种形式的数字电子的计算机设备,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字助理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图9所示,设备900包括计算单元901,其可以根据存储在只读存储器(ROM)902中的计算机程序或者从存储单元908加载到随机访问存储器(RAM)903中的计算机程序,来执行各种适当的动作和处理。在RAM 903中,还可存储设备900操作所需的各种程序和数据。计算单元901、ROM 902以及RAM 903通过总线904彼此相连。输入/输出(I/O)接口905也连接至总线904。
设备900中的多个部件连接至I/O接口905,包括:输入单元906、输出单元907、存储单元908以及通信单元909。输入单元906可以是能向设备900输入信息的任何类型的设备,输入单元906可以接收输入的数字或字符信息,以及产生与电子设备的用户设置和/或功能控制有关的键信号输入,并且可以包括但不限于鼠标、键盘、触摸屏、轨迹板、轨迹球、操作杆、麦克风和/或遥控器。输出单元907可以是能呈现信息的任何类型的设备,并且可以包括但不限于显示器、扬声器、视频/音频输出终端、振动器和/或打印机。存储单元908可以包括但不限于磁盘、光盘。通信单元909允许设备900通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据,并且可以包括但不限于调制解调器、网卡、红外通信设备、无线通信收发机和/或芯片组,例如蓝牙TM设备、802.11设备、WiFi设备、WiMax设备、蜂窝通信设备和/或类似物。
计算单元901可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元901的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习网络算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元901执行上文所描述的各个方法和处理,例如三维重建模型的训练方法和/或深度学习模型的训练方法。例如,在一些实施例中,三维重建模型的训练方法和/或深度学习模型的训练方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元908。在一些实施例中,计算机程序的部分或者全部可以经由ROM 902和/或通信单元909而被载入和/或安装到设备900上。当计算机程序加载到RAM 903并由计算单元901执行时,可以执行上文描述的三维重建模型的训练方法和/或深度学习模型的训练方法的一个或多个步骤。备选地,在其他实施例中,计算单元901可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行三维重建模型的训练方法和/或深度学习模型的训练方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、复杂可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务("Virtual Private Server",或简称"VPS")中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行、也可以顺序地或以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
虽然已经参照附图描述了本公开的实施例或示例,但应理解,上述的方法、系统和设备仅仅是示例性的实施例或示例,本发明的范围并不由这些实施例或示例限制,而是仅由授权后的权利要求书及其等同范围来限定。实施例或示例中的各种要素可以被省略或者可由其等同要素替代。此外,可以通过不同于本公开中描述的次序来执行各步骤。进一步地,可以以各种方式组合实施例或示例中的各种要素。重要的是随着技术的演进,在此描述的很多要素可以由本公开之后出现的等同要素进行替换。
Claims (23)
1.一种三维重建模型的训练方法,包括:
确定目标对象的描述信息;
利用第一深度学习模型生成初始图像,所述初始图像表征从指定的目标位姿对所述目标对象进行观察得到的图像的预测结果;
向所述初始图像增加噪声,以得到待推理图像;
基于所述描述信息,利用第二深度学习模型对所述待推理图像进行推理,以得到推理结果,其中,所述推理结果能够用于对所述待推理图像进行噪声去除,并生成符合所述描述信息的图像;以及
基于所述噪声和所述推理结果,调整所述第一深度学习模型的参数,以得到与符合所述描述信息的所述目标对象对应的三维重建模型。
2.根据权利要求1所述的方法,其中,所述目标对象为人体,所述描述信息包括描述所述目标对象的身体姿态的姿态先验信息,
其中,基于所述描述信息,利用第二深度学习模型对所述待推理图像进行推理,以得到推理结果包括:
基于所述姿态先验信息,确定与所述目标位姿对应的人体姿态图像;以及
基于所述人体姿态图像,利用所述第二深度学习模型对所述待推理图像进行推理,以得到所述推理结果。
3.根据权利要求2所述的方法,其中,所述姿态先验信息包括所述目标对象的三维人体骨骼点信息,所述人体姿态图像包括二维人体骨骼图像,所述二维人体骨骼图像是通过将所述三维人体骨骼点信息按照所述目标位姿进行投影而得到的。
4.根据权利要求2所述的方法,其中,所述描述信息包括描述所述目标对象的外貌特征的提示文本,其中,基于所述人体姿态图像,利用所述第二深度学习模型对所述待推理图像进行推理,以得到所述推理结果包括:
基于所述提示文本和所述人体姿态图像,利用所述第二深度学习模型对所述待推理图像进行推理,以得到所述推理结果。
5.根据权利要求4所述的方法,其中,所述第二深度学习模型基于预训练的扩散模型,并且包括第一编码子网络、第二编码子网络和解码子网络,
其中,基于所述提示文本和所述人体姿态图像,利用所述第二深度学习模型对所述待推理图像进行推理,以得到所述推理结果包括:
基于编码后的所述提示文本,利用所述第一编码子网络对所述待推理图像进行编码,以得到第一中间图像,所述第一中间图像的尺寸小于所述待推理图像;
基于编码后的所述提示文本,利用所述第二编码子网络对第一融合图像进行编码,以得到第二中间图像,所述第一融合图像是通过将所述待推理图像和所述人体姿态图像进行融合而得到的,所述第二中间图像与所述第一中间图像尺寸相同;以及
基于编码后的所述提示文本,利用所述解码子网络对第二融合图像进行解码,以得到所述推理结果,所述第二融合图像是通过将所述第一中间图像和所述第二中间图像进行融合而得到的。
6.根据权利要求5所述的方法,其中,所述第一编码子网络包括交替设置的至少一个第一编码块和至少一个第一注意力层,
其中,基于编码后的所述提示文本,利用所述第一编码子网络对所述待推理图像进行编码,以得到第一中间图像包括:
利用所述至少一个第一编码块中的第一编码块,对该第一编码块的输入图像进行编码,以得到该第一编码块输出的编码图像;以及
利用所述至少一个第一注意力层中的第一注意力层,基于所述编码后的所述提示文本确定用于该第一注意力层的输入图像中的像素的注意力得分,以得到该第一注意力层输出的第一注意力图像,其中,该第一注意力层的输入图像为对应的第一编码块输出的编码图像,所述至少一个第一注意力层中的最后一个第一注意力层输出的第一注意力图像为所述第一中间图像。
7.根据权利要求1所述的方法,其中,所述第一深度学习模型和所述三维重建模型基于神经辐射场,
其中,利用第一深度学习模型生成初始图像包括:
针对待生成的所述初始图像中的每一个像素,
基于所述第一深度学习模型,确定位于与该像素对应的射线上的多个体素各自的体素密度和颜色;以及
基于与该像素对应的射线上的多个体素各自的体素密度和颜色,确定该像素的像素值。
8.根据权利要求7所述的方法,还包括:
确定所述初始图像中的每一个像素对应的射线的熵损失,包括:
针对所述初始图像中的每一个像素,对位于与该像素对应的射线上的多个体素各自的体素密度进行归一化,以得到所述多个体素各自的归一化后的体素密度;以及
基于所述多个体素各自的归一化后的体素密度,确定所述射线的熵损失,
其中,所述第一深度学习模型的参数是基于所述初始图像中的每一个像素对应的射线的熵损失、所述噪声和所述推理结果而调整的。
9.根据权利要求8所述的方法,其中,基于所述多个体素各自的归一化后的体素密度,确定所述射线的熵损失包括:
针对所述多个体素中的每一个体素,基于该体素的归一化后的体素密度的对数和该体素的归一化后的体素密度的乘积的相反数,确定与该体素对应的损失项;以及
基于所述多个体素各自对应的损失项的总和,确定所述射线的熵损失。
10.根据权利要求8所述的方法,其中,基于所述噪声和所述推理结果,调整所述第一深度学习模型的参数,以得到与符合所述描述信息的所述目标对象对应的三维重建模型包括:
基于所述初始图像中的每一个像素对应的射线的熵损失的总和,确定第一损失值;
基于所述噪声和所述推理结果,确定第二损失值,所述第二损失值与所述噪声和所述推理结果的差呈正相关;以及
基于所述第一损失值和所述第二损失值,调整所述第一深度学习模型的参数。
11.一种三维重建模型的训练装置,包括:
描述信息确定单元,被配置为确定目标对象的描述信息;
第一生成单元,被配置为利用第一深度学习模型生成初始图像,所述初始图像表征从指定的目标位姿对所述目标对象进行观察得到的图像的预测结果;
噪声添加单元,被配置为向所述初始图像增加噪声,以得到待推理图像;
第二生成单元,被配置为基于所述描述信息,利用第二深度学习模型对所述待推理图像进行推理,以得到推理结果,其中,所述推理结果能够用于对所述待推理图像进行噪声去除,并生成符合所述描述信息的图像;以及
调参单元,被配置为基于所述噪声和所述推理结果,调整所述第一深度学习模型的参数,以得到与符合所述描述信息的所述目标对象对应的三维重建模型。
12.根据权利要求11所述的装置,其中,所述描述信息包括描述所述目标对象的身体姿态的姿态先验信息,
其中,所述第二生成单元包括:
人体姿态图像确定子单元,被配置为基于所述姿态先验信息,确定与所述目标位姿对应的人体姿态图像;以及
生成子单元,被配置为基于所述人体姿态图像,利用所述第二深度学习模型对所述待推理图像进行推理,以得到所述推理结果。
13.根据权利要求12所述的装置,其中,所述姿态先验信息包括所述目标对象的三维人体骨骼点信息,所述人体姿态图像包括二维人体骨骼图像,所述二维人体骨骼图像是通过将所述三维人体骨骼点信息按照所述目标位姿进行投影而得到的。
14.根据权利要求12所述的装置,其中,所述描述信息包括描述所述目标对象的外貌特征的提示文本,其中,所述生成子单元被配置为基于所述提示文本和所述人体姿态图像,利用所述第二深度学习模型对所述待推理图像进行推理,以得到所述推理结果。
15.根据权利要求14所述的装置,其中,所述第二深度学习模型基于预训练的扩散模型,并且包括第一编码子网络、第二编码子网络和解码子网络,
其中,所述生成子单元包括:
第一编码子单元,被配置为基于编码后的所述提示文本,利用所述第一编码子网络对所述待推理图像进行编码,以得到第一中间图像,所述第一中间图像的尺寸小于所述待推理图像;
第二编码子单元,被配置为基于编码后的所述提示文本,利用所述第二编码子网络对第一融合图像进行编码,以得到第二中间图像,所述第一融合图像是通过将所述待推理图像和所述人体姿态图像进行融合而得到的,所述第二中间图像与所述第一中间图像尺寸相同;以及
解码子单元,被配置为基于编码后的所述提示文本,利用所述解码子网络对第二融合图像进行解码,以得到所述推理结果,所述第二融合图像是通过将所述第一中间图像和所述第二中间图像进行融合而得到的。
16.根据权利要求15所述的装置,其中,所述第一编码子网络包括交替设置的至少一个第一编码块和至少一个第一注意力层,
其中,所述第一编码子单元被配置为:
利用所述至少一个第一编码块中的第一编码块,对该第一编码块的输入图像进行编码,以得到该第一编码块输出的编码图像;以及
利用所述至少一个第一注意力层中的第一注意力层,基于所述编码后的所述提示文本确定用于该第一注意力层的输入图像中的像素的注意力得分,以得到该第一注意力层输出的第一注意力图像,其中,该第一注意力层的输入图像为对应的第一编码块输出的编码图像,所述至少一个第一注意力层中的最后一个第一注意力层输出的第一注意力图像为所述第一中间图像。
17.根据权利要求11所述的装置,其中,所述第一深度学习模型和所述三维重建模型基于神经辐射场,
其中,所述第一生成单元包括:
体素确定子单元,被配置为针对待生成的所述初始图像中的每一个像素,基于所述第一深度学习模型,确定位于与该像素对应的射线上的多个体素各自的体素密度和颜色;以及
像素值确定子单元,被配置为基于与该像素对应的射线上的多个体素各自的体素密度和颜色,确定该像素的像素值。
18.根据权利要求17所述的装置,还包括:
熵损失确定单元,被配置为确定所述初始图像中的每一个像素对应的射线的熵损失,所述熵损失确定单元包括:
归一化子单元,被配置为针对所述初始图像中的每一个像素,对位于与该像素对应的射线上的多个体素各自的体素密度进行归一化,以得到所述多个体素各自的归一化后的体素密度;以及
熵损失确定子单元,被配置为基于所述多个体素各自的归一化后的体素密度,确定所述射线的熵损失,
其中,所述第一深度学习模型的参数是基于所述初始图像中的每一个像素对应的射线的熵损失、所述噪声和所述推理结果而调整的。
19.根据权利要求18所述的装置,其中,所述熵损失确定子单元包括:
损失项确定子单元,被配置为针对所述多个体素中的每一个体素,基于该体素的归一化后的体素密度的对数和该体素的归一化后的体素密度的乘积的相反数,确定与该体素对应的损失项,
其中,所述熵损失确定子单元被配置为基于所述多个体素各自对应的损失项总和,确定所述射线的熵损失。
20.根据权利要求18所述的装置,其中,所述调参单元包括:
第一损失值确定子单元,被配置为基于所述初始图像中的每一个像素对应的射线的熵损失的总和,确定第一损失值;
第二损失值确定子单元,被配置为基于所述噪声和所述推理结果,确定第二损失值,所述第二损失值与所述噪声和所述推理结果的差呈正相关;以及
调参子单元,被配置为基于所述第一损失值和所述第二损失值,调整所述第一深度学习模型的参数。
21.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-10中任一项所述的方法。
22.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-10中任一项所述的方法。
23.一种计算机程序产品,包括计算机程序,其中,所述计算机程序在被处理器执行时实现权利要求1-10中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311236381.9A CN117274491A (zh) | 2023-09-22 | 2023-09-22 | 三维重建模型的训练方法、装置、设备和介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311236381.9A CN117274491A (zh) | 2023-09-22 | 2023-09-22 | 三维重建模型的训练方法、装置、设备和介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117274491A true CN117274491A (zh) | 2023-12-22 |
Family
ID=89219214
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311236381.9A Pending CN117274491A (zh) | 2023-09-22 | 2023-09-22 | 三维重建模型的训练方法、装置、设备和介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117274491A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117475089A (zh) * | 2023-12-27 | 2024-01-30 | 浪潮电子信息产业股份有限公司 | 基于预训练语言模型的三维场景生成方法及相关组件 |
CN117745956A (zh) * | 2024-02-20 | 2024-03-22 | 之江实验室 | 一种基于位姿引导的图像生成方法、装置、介质及设备 |
CN117808976A (zh) * | 2024-03-01 | 2024-04-02 | 之江实验室 | 一种三维模型构建方法、装置、存储介质及电子设备 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170161945A1 (en) * | 2015-12-04 | 2017-06-08 | Autodesk, Inc. | Keypoint-based point-pair-feature for scalable automatic global registration of large rgb-d scans |
CN107167660A (zh) * | 2017-05-16 | 2017-09-15 | 中国电子科技集团公司第四十研究所 | 一种高安全性的外置存储器式频谱分析仪及其方法 |
CN114004941A (zh) * | 2022-01-04 | 2022-02-01 | 苏州浪潮智能科技有限公司 | 一种基于神经辐射场的室内场景三维重建系统及方法 |
CN114549765A (zh) * | 2022-02-28 | 2022-05-27 | 北京京东尚科信息技术有限公司 | 三维重建方法及装置、计算机可存储介质 |
CN115631418A (zh) * | 2022-11-18 | 2023-01-20 | 北京百度网讯科技有限公司 | 图像处理方法、神经辐射场的训练方法和神经网络 |
CN115880435A (zh) * | 2022-12-21 | 2023-03-31 | 北京百度网讯科技有限公司 | 图像重建方法、模型训练方法、装置、电子设备和介质 |
CN116205819A (zh) * | 2023-03-23 | 2023-06-02 | 北京百度网讯科技有限公司 | 字符图像生成方法、深度学习模型的训练方法和装置 |
CN116612204A (zh) * | 2023-06-01 | 2023-08-18 | 北京百度网讯科技有限公司 | 图像生成方法、训练方法、装置、电子设备以及存储介质 |
-
2023
- 2023-09-22 CN CN202311236381.9A patent/CN117274491A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170161945A1 (en) * | 2015-12-04 | 2017-06-08 | Autodesk, Inc. | Keypoint-based point-pair-feature for scalable automatic global registration of large rgb-d scans |
CN107167660A (zh) * | 2017-05-16 | 2017-09-15 | 中国电子科技集团公司第四十研究所 | 一种高安全性的外置存储器式频谱分析仪及其方法 |
CN114004941A (zh) * | 2022-01-04 | 2022-02-01 | 苏州浪潮智能科技有限公司 | 一种基于神经辐射场的室内场景三维重建系统及方法 |
CN114549765A (zh) * | 2022-02-28 | 2022-05-27 | 北京京东尚科信息技术有限公司 | 三维重建方法及装置、计算机可存储介质 |
CN115631418A (zh) * | 2022-11-18 | 2023-01-20 | 北京百度网讯科技有限公司 | 图像处理方法、神经辐射场的训练方法和神经网络 |
CN115880435A (zh) * | 2022-12-21 | 2023-03-31 | 北京百度网讯科技有限公司 | 图像重建方法、模型训练方法、装置、电子设备和介质 |
CN116205819A (zh) * | 2023-03-23 | 2023-06-02 | 北京百度网讯科技有限公司 | 字符图像生成方法、深度学习模型的训练方法和装置 |
CN116612204A (zh) * | 2023-06-01 | 2023-08-18 | 北京百度网讯科技有限公司 | 图像生成方法、训练方法、装置、电子设备以及存储介质 |
Non-Patent Citations (2)
Title |
---|
POOLE, BEN, ET AL.: "Dreamfusion: Text-to-3d using 2d diffusion", 《ARXIV PREPRINT》, vol. 2209, 31 December 2022 (2022-12-31), pages 14988 * |
龙宇航;吴德胜;: "高空遥感图像空间特征信息三维虚拟重建仿真", 计算机仿真, no. 12, 15 December 2019 (2019-12-15) * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117475089A (zh) * | 2023-12-27 | 2024-01-30 | 浪潮电子信息产业股份有限公司 | 基于预训练语言模型的三维场景生成方法及相关组件 |
CN117475089B (zh) * | 2023-12-27 | 2024-03-29 | 浪潮电子信息产业股份有限公司 | 基于预训练语言模型的三维场景生成方法及相关组件 |
CN117745956A (zh) * | 2024-02-20 | 2024-03-22 | 之江实验室 | 一种基于位姿引导的图像生成方法、装置、介质及设备 |
CN117808976A (zh) * | 2024-03-01 | 2024-04-02 | 之江实验室 | 一种三维模型构建方法、装置、存储介质及电子设备 |
CN117808976B (zh) * | 2024-03-01 | 2024-05-24 | 之江实验室 | 一种三维模型构建方法、装置、存储介质及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113313650B (zh) | 图像画质增强方法、装置、设备和介质 | |
CN117274491A (zh) | 三维重建模型的训练方法、装置、设备和介质 | |
CN116051729B (zh) | 三维内容生成方法、装置和电子设备 | |
CN115147558A (zh) | 三维重建模型的训练方法、三维重建方法及装置 | |
CN115578515B (zh) | 三维重建模型的训练方法、三维场景渲染方法及装置 | |
CN116309983B (zh) | 虚拟人物模型的训练方法、生成方法、装置和电子设备 | |
CN114972958B (zh) | 关键点检测方法、神经网络的训练方法、装置和设备 | |
CN115661375B (zh) | 三维发型生成方法、装置、电子设备和存储介质 | |
CN116245998B (zh) | 渲染贴图生成方法及装置、模型训练方法及装置 | |
CN116228867B (zh) | 位姿确定方法、装置、电子设备、介质 | |
CN116205819B (zh) | 字符图像生成方法、深度学习模型的训练方法和装置 | |
CN116524162A (zh) | 三维虚拟形象迁移方法、模型更新方法及相关设备 | |
CN115511779B (zh) | 图像检测方法、装置、电子设备和存储介质 | |
CN116030185A (zh) | 三维发丝生成方法和模型的训练方法 | |
CN115393514A (zh) | 三维重建模型的训练方法、三维重建方法、装置、设备 | |
CN114119935B (zh) | 图像处理方法和装置 | |
CN114049472A (zh) | 三维模型调整方法、装置、电子设备、介质 | |
CN115331077B (zh) | 特征提取模型的训练方法、目标分类方法、装置、设备 | |
CN112967355B (zh) | 图像填充方法及装置、电子设备和介质 | |
CN116385641B (zh) | 图像处理方法及装置、电子设备和存储介质 | |
CN116246026B (zh) | 三维重建模型的训练方法、三维场景渲染方法及装置 | |
CN116228897B (zh) | 图像处理方法、图像处理模型和训练方法 | |
CN115797455B (zh) | 目标检测方法、装置、电子设备和存储介质 | |
CN116580212B (zh) | 图像生成方法、图像生成模型的训练方法、装置和设备 | |
CN113793290B (zh) | 一种视差确定方法、装置、设备、介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |