CN115272575A - 图像生成方法及装置、存储介质和电子设备 - Google Patents

图像生成方法及装置、存储介质和电子设备 Download PDF

Info

Publication number
CN115272575A
CN115272575A CN202210900092.3A CN202210900092A CN115272575A CN 115272575 A CN115272575 A CN 115272575A CN 202210900092 A CN202210900092 A CN 202210900092A CN 115272575 A CN115272575 A CN 115272575A
Authority
CN
China
Prior art keywords
information
image
dimensional
characteristic information
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210900092.3A
Other languages
English (en)
Other versions
CN115272575B (zh
Inventor
张琦
刘巧俏
邹航
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Telecom Corp Ltd
Original Assignee
China Telecom Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Telecom Corp Ltd filed Critical China Telecom Corp Ltd
Priority to CN202210900092.3A priority Critical patent/CN115272575B/zh
Publication of CN115272575A publication Critical patent/CN115272575A/zh
Application granted granted Critical
Publication of CN115272575B publication Critical patent/CN115272575B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Image Generation (AREA)

Abstract

本公开提供了一种图像生成方法、图像生成装置、存储介质和电子设备,涉及图像处理技术领域。该图像生成方法包括:获取与待生成图像对应的相机位姿,根据相机位姿确定与待生成图像中各像素点对应的射线;针对每条射线上的采样点,根据采样点的位置信息确定采样点的特征信息;特征信息根据输入图像的视觉特征信息确定出,视觉特征信息包括输入图像的像素点的二维特征信息、三维体素特征信息、三维表面特征信息中的至少一种;根据采样点的位置信息和特征信息,确定采样点的色彩信息和密度信息;利用射线上各采样点的色彩信息和密度信息,确定待生成图像中与射线对应的像素点的色彩信息,以生成待生成图像。本公开可以提升生成新视角图像的效果。

Description

图像生成方法及装置、存储介质和电子设备
技术领域
本公开涉及图像处理技术领域,具体而言,涉及一种图像生成方法、图像生成装置、存储介质和电子设备。
背景技术
三维重建和新视角图像渲染一直是计算机图形学领域的核心,也是近年来研究的重点。随着数字孪生、全息通讯和元宇宙等新概念的提出,工业界也对三维重建和新视角图像渲染的需求逐渐增加。
目前,新视角图像生成的方案中,普遍存在新视角图像渲染效果差的问题。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开的目的在于提供一种图像生成方法、图像生成装置、存储介质和电子设备,进而至少在一定程度上克服新视角图像渲染效果差的问题。
根据本公开的第一方面,提供了一种图像生成方法,包括:获取与待生成图像对应的相机位姿,根据相机位姿确定与待生成图像中各像素点对应的射线;针对每条射线上的采样点,根据采样点的位置信息确定采样点的特征信息,特征信息根据输入图像的视觉特征信息确定出,视觉特征信息包括输入图像的像素点的二维特征信息、三维体素特征信息、三维表面特征信息中的至少一种;根据采样点的位置信息和特征信息,确定采样点的色彩信息和密度信息;利用射线上各采样点的色彩信息和密度信息,确定待生成图像中与射线对应的像素点的色彩信息,以生成待生成图像。
可选地,在视觉特征信息包括输入图像的像素点的三维体素特征信息的情况下,图像生成方法还包括:对输入图像进行特征提取,以得到输入图像的二维特征信息;对二维特征信息进行三维卷积处理,以得到输入图像的三维体素特征信息。
可选地,在采样点的特征信息包括采样点的三维表面特征信息的情况下,图像生成方法还包括:确定输入图像中的属于物体表面的像素点;针对采样点,确定输入图像中邻近的预定数量个参考像素点,参考像素点均为属于物体表面的像素点;根据各参考像素点的特征信息确定采样点的三维表面特征信息。
可选地,根据各参考像素点的特征信息确定采样点的三维表面特征信息包括:计算各参考像素点距采样点的距离;对各参考像素点的特征信息进行加权平均,以得到采样点的三维表面特征信息;其中,参考像素点的特征信息的权重与参考像素点距采样点的距离呈负相关关系。
可选地,在确定出采样点的二维特征信息、三维体素特征信息、三维表面特征信息中的至少两种的情况下,图像生成方法还包括:利用Transformer模型对采样点的二维特征信息、三维体素特征信息、三维表面特征信息中的至少两种进行特征融合,以确定出采样点的特征信息。
可选地,根据采样点的位置信息和特征信息,确定采样点的色彩信息和密度信息,包括:将采样点的位置信息和特征信息输入全连接网络,通过全连接网络的预测过程确定出采样点的色彩信息和密度信息。
可选地,利用射线上各采样点的色彩信息和密度信息,确定待生成图像中与射线对应的像素点的色彩信息,包括:以射线上各采样点的密度信息作为权重,对相应的色彩信息进行积分操作,以确定出待生成图像中与射线对应的像素点的色彩信息。
根据本公开的第二方面,提供了一种图像生成装置,包括:射线确定模块,用于获取与待生成图像对应的相机位姿,根据相机位姿确定与待生成图像中各像素点对应的射线;特征确定模块,用于针对每条射线上的采样点,根据采样点的位置信息确定采样点的特征信息;特征信息根据输入图像的视觉特征信息确定出,视觉特征信息包括输入图像的像素点的二维特征信息、三维体素特征信息、三维表面特征信息中的至少一种;信息确定模块,用于根据采样点的位置信息和特征信息,确定采样点的色彩信息和密度信息;图像生成模块,用于利用射线上各采样点的色彩信息和密度信息,确定待生成图像中与射线对应的像素点的色彩信息,以生成待生成图像。
可选地,在视觉特征信息包括输入图像的像素点的三维体素特征信息的情况下,图像生成装置还包括输入图像特征提取模块,该输入图像特征提取模块可以用于对输入图像进行特征提取,以得到输入图像的二维特征信息;对二维特征信息进行三维卷积处理,以得到输入图像的三维体素特征信息。
可选地,在采样点的特征信息包括采样点的三维表面特征信息的情况下,特征确定模块可以被配置为执行:确定输入图像中的属于物体表面的像素点;根据采样点的位置信息,确定输入图像中邻近的预定数量个参考像素点,参考像素点均为属于物体表面的像素点;根据各参考像素点的特征信息确定采样点的三维表面特征信息。
可选地,特征确定模块根据各参考像素点的特征信息确定采样点的三维表面特征信息的过程可以被配置为执行:计算各参考像素点距采样点的距离;对各参考像素点的特征信息进行加权平均,以得到采样点的三维表面特征信息;其中,参考像素点的特征信息的权重与参考像素点距采样点的距离呈负相关关系。
可选地,在确定出采样点的二维特征信息、三维体素特征信息、三维表面特征信息中的至少两种的情况下,特征确定模块可以被配置为执行:利用Transformer模型对采样点的二维特征信息、三维体素特征信息、三维表面特征信息中的至少两种进行特征融合,以确定出采样点的特征信息。
可选地,信息确定模块可以被配置为执行:将采样点的位置信息和特征信息输入全连接网络,通过全连接网络的预测过程确定出采样点的色彩信息和密度信息。
可选地,图像生成模块可以被配置为执行:以射线上各采样点的密度信息作为权重,对相应的色彩信息进行积分操作,以确定出待生成图像中与射线对应的像素点的色彩信息。
根据本公开的第三方面,提供了一种存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述图像生成方法。
根据本公开的第四方面,提供了一种电子设备,包括:处理器;以及存储器,用于存储所述处理器的可执行指令;该处理器被配置为经由执行可执行指令来实现上述图像生成方法。
在本公开的一些实施例所提供的技术方案中,通过引入输入图像的像素点的二维特征信息、三维体素特征信息、三维表面特征信息中的至少一种来生成与输入图像同场景且不同视角的图像,增强了针对场景的视觉一致性,可以提升新视角图像渲染效果,提高了生成的图像的逼真程度。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1示出了本公开实施方式的图像生成过程的示意图;
图2示出了本公开实施例的图像生成方案所涉各个阶段的示意图;
图3示意性示出了根据本公开示例性实施方式的图像生成方法的流程图;
图4示意性示出了本公开实施例的确定采样点的三维体素特征信息的流程图;
图5示意性示出了本公开实施例的确定采样点的三维表面特征信息的流程图;
图6示意性示出了根据本公开示例性实施方式的图像生成装置的方框图;
图7示意性示出了根据本公开另一示例性实施方式的图像生成装置的方框图;
图8示意性示出了根据本公开的示例性实施方式的电子设备的方框图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本公开的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免喧宾夺主而使得本公开的各方面变得模糊。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
附图中所示的流程图仅是示例性说明,不是必须包括所有的步骤。例如,有的步骤还可以分解,而有的步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。
需要说明的是,本公开实施方式的图像生成方案可以由电子设备实现。也就是说,可以由电子设备执行本公开实施方式的图像生成方法的各个步骤,图像生成装置可以配置在该电子设备中。
本公开所说的电子设备包括但不限于智能手机、平板电脑、智能可穿戴设备等,另外,电子设备还可以是服务器,本公开对此不做限制。
图1示出了本公开实施方式的图像生成过程的示意图。参考图1,如果将本公开实施方式的图像生成过程看作一个整体,那么这个整体的输入是输入图像以及新视角,输出是该新视角下对应的图像,即新视角图像。另外,可以利用训练样本来训练图像生成过程中使用的参数,训练样本可以包括在多个场景下拍摄的图像。
对于视角,指的是观察者的观察角度,在本公开实施方式基于计算机来实现方案处理的过程中,可以利用相机位姿来表征视角。
本公开实施方式生成的新视角图像是与输入图像场景相同而视角不同的图像。
图2示出了本公开实施例的图像生成方案所涉各个阶段的示意图。参考图2,本公开实施例的图像生成方案涉及的阶段至少包括输入预处理阶段、特征处理阶段、神经渲染网络处理阶段和三维体渲染阶段。
输入预处理阶段可以包括三维虚拟射线生成过程和三维空间点采样过程。
在三维虚拟射线生成过程中,不同的视角对应不同的相机位姿,在获取到目标视角时,即在获取到相机位姿时,以相机位姿为起点向观察方向投射射线,如果目标图像的大小为H×W(高×宽),则以像素点之间的距离为偏移量生成H×W条射线。
在三维空间点采样过程中,由于电子设备计算能力以及操作耗时的限制,通常无法对空间中每个点的信息进行查询,因此,需要进行空间点采样。具体的,沿每条射线采样固定数量的点,采样的方式例如为随机采样。通过三维空间点采样,可以例如确定出H×W×N个采样点。
特征处理阶段可以包括二维特征提取过程、三维体素特征提取过程、三维表面特征提取过程、投影和插值操作过程和特征融合过程。
在二维特征提取的过程中,电子设备可以对输入图像进行特征提取,具体的,可以采用机器学习或深度学习的特征提取器实现特征提取,采用的网络例如包括ResNet、MobileNet等。
在三维体素特征提取的过程中,电子设备可以对输入图像进行三维特征的提取。具体的,可以采用三维卷积核进行三维特征的提取。三维特征的提取有助于避免同一场景不同空间点对应同一个二维特征的问题。
在三维表面特征提取的过程中,电子设备可以对输入图像进行是三维表面特征的提取。具体的,可以采用多层神经网络对三维场景表面的点进行回归,然后逐点进行特征提取。本公开对执行点的回归的神经网络的类型不做限制,可以使用pointnet、pointnet++等网络进行逐点的特征提取。三维表面特征的提取可以捕捉三维场景的表面细节特征,从而使生成的新视角图像分辨率更高。
投影和插值操作分别针对上述二维特征提取、三维体素特征提取和三维表面特征提取的结果。
对于二维特征提取的投影和插值操作:对于要询问的空间坐标X=(x,y,z),使用相机参数和相机位姿投影到二维平面上,并利用插值得到对应位置的二维特征向量。具体操作包括下述公式1和公式2的处理过程:
Figure BDA0003770476640000071
fV=B(FV,Ω(X)) (公式2)
其中,公式1表示二维与三维的转换方式,
Figure BDA0003770476640000072
表示相机参数,
Figure BDA0003770476640000073
表示相机位姿;针对公式2,Ω(X)表示公式1将三维坐标映射到二维平面的操作,FV表示整体二维特征,B表示插值操作,fV表示想要得到的二维像素点的特征。
对于三维体素特征提取的投影和插值操作:对于要询问的空间坐标X=(x,y,z),获取以其为中心的方格的8个相邻顶点的特征,并根据三线性插值计算该点的三维体素特征。具体操作包括下述公式3和公式4的处理过程:
Ω(X)={X+s·n|n=(1,0,0),(0,1,0),(0,0,1),...} (公式3)
fV=τ(FV,Ω(X)) (公式4)
其中,s为缩放因子,用于决定所取8个像素点的位置。τ表示三维插值操作。
对于三维表面特征提取的投影和插值操作:对于要询问的空间坐标X=(x,y,z),获取k个相邻点的特征,并利用加权平均的方式求解出该点的特征,其中,权重和各个相邻点到X的距离成反比。具体操作包括下述公式5和公式6的处理过程:
Figure BDA0003770476640000081
wk=1/(1+exp(||X-Sm(k)||)) (公式6)
其中,m(k)是第k个邻近点的特征,k=0,1,2…,K,wk为权重,S代表surface(表面)。
在特征融合的过程中,可以采用Transformer模型,将采样点的上述不同种类的特征进行融合。
针对神经渲染网络处理阶段:本公开采用的神经渲染网络可以是全连接网络,网络的输入是空间中采样点的位置以及采样点的特征信息,输出是该采样点的色彩值和密度值。其中,密度值表征的是该采样点的透明程度,可以作为色彩值的权重应用于后续处理过程。
针对三维体渲染阶段:三维空间中每条射线对应新视角二维图像的一个像素点,渲染过程逐点进行,也就是沿该射线上采样到的三维点进行积分操作,具体如公式7所示:
Figure BDA0003770476640000082
其中,C为目标图像上像素点的RGB值,r表示射线,d为射线方向向量,c表示空间采样点RGB值,σ为密度值。tn、tf分别为在射线上积分的最近点和最远点。T(t)计算了到该射线上的某点为止的光线的累积投射率。
本公开实施方式引入二维图像的视觉特征来指导新视角图像的生成,网络可以根据不同的特征标记不同的对象,具备通用性;通过引入三维体素特征,解决了三维空间点映射到二维平面时可能出现的混淆问题;通过引入三维表面特征,可以获取更细节的几何纹理信息,提高了新视角图像的质量,有效减少了图像模糊情况的出现;通过引入Transformer模型实现特征融合,保证了特征的完整性。
图3示意性示出了本公开的示例性实施方式的图像生成方法的流程图。参考图3,该图像生成方法可以包括以下步骤:
S32.获取与待生成图像对应的相机位姿,根据相机位姿确定与待生成图像中各像素点对应的射线。
相机位姿对应视角,即观察者的观察位置和观察姿态。在一个实施例中,可以由用户根据期望生成的图像手动输入相机位姿;在另一个实施例中,电子设备可以根据图像渲染效果自动生成相机位姿,其中,图像渲染效果涉及的因素包括但不限于景深配置、旋转、移动等。
在获取到相机位姿后,可以基于相机位姿发射H×W条射线。可以理解的是,本公开实施例中所说的射线是虚拟射线,是计算机处理时采用的算法手段,不意味着空间中实际也存在射线。其中,待生成图像的大小为H×W,也就是说,每一条射线均对应待生成图像上一个像素点。
此外,针对每一条射线,可以进行采样,确定出采样点。例如,每条射线选取N个采样点,在这种情况下,一共采集得到H×W×N个采样点。
S34.针对每条射线上的采样点,根据采样点的位置信息确定采样点的特征信息,特征信息根据输入图像的视觉特征信息确定出,视觉特征信息包括输入图像的像素点的二维特征信息、三维体素特征信息、三维表面特征信息中的至少一种。
在随后生成待生成图像的过程中,可以利用采样点的特征信息,本公开所说的采样点的特征信息包括采样点的二维特征信息、采样点的三维体素特征信息、采样点的三维表面特征信息中的至少一种。
也就是说,在本公开的第一实施例中,采样点的特征信息是采样点的二维特征信息;在本公开的第二实施例中,采样点的特征信息是采样点的三维体素特征信息;在本公开的第三实施例中,采样点的特征信息是采样点的三维表面特征信息;在本公开的第四实施例中,采样点的特征信息是采样点的二维特征信息和三维体素特征信息;在本公开的第五实施例中,采样点的特征信息是采样点的二维特征信息和三维表面特征信息;在本公开的第六实施例中,采样点的特征信息是采样点的三维体素特征信息和三维表面特征信息;在本公开的第七实施例中,采样点的特征信息是采样点的二维特征信息、三维体素特征信息和三维表面特征信息。
采样点的二维特征信息可以根据输入图像的像素点的二维特征信息确定出。采样点的三维体素特征信息可以根据输入图像的像素点的三维体素特征信息确定出。采样点的三维表面特征可以根据输入图像的像素点的三维表面特征信息确定出。
针对获取采样点的二维特征信息的方式:
一方面,可以对输入图像进行特征提取,以得到输入图像的二维特征信息。具体的,可以采用机器学习或深度学习的特征提取器实现特征提取,采用的网络例如包括ResNet、MobileNet等。
另一方面,可以将采样点的三维位置信息转换为二维位置信息。具体的,将位置信息先进行世界坐标系到相机坐标系的转换,再进行相机坐标系到图像坐标系的转换,然后进行图像坐标系到像素坐标系的转换。
在采样点对应的二维位置信息是输入图像上目标像素点的位置信息时,则将目标像素点的二维特征信息作为采样点的二维特征信息。
在采样点对应的二维位置信息不是输入图像上像素点的位置信息时,可以采用双线性插值的方式确定出该采样点的二维特征信息。
针对获取采样点的三维体素特征信息的方式:
图4示意性示出了本公开实施例的确定采样点的三维体素特征信息的流程图。
在步骤S402中,电子设备可以对输入图像进行特征提取,得到输入图像的二维特征信息。
在步骤S404中,电子设备可以对二维特征信息进行三维卷积处理,得到输入图像的三维体素特征信息。
在步骤S406中,以采样点为中心,获取邻近的8个像素点的特征信息。
在步骤S408中,电子设备对这邻近的8个像素点的特征信息进行插值处理,以得到该采样点的三维体素特征信息。
应当注意的是,选取8个邻近像素点仅是对方案示例性的说明,本公开另一些实例中,还可以选取4个邻近像素点、16个邻近像素点等,本公开三维插值的构成不做限制。
针对获取采样点的三维表面特征信息的方式:
图5示意性示出了本公开实施例的确定采样点的三维表面特征信息的流程图。
在步骤S502中,电子设备可以确定输入图像中属于物体表面的像素点。
在步骤S504中,电子设备可以根据采样点的位置信息,确定输入图像中邻近的预定数量个(k个)属于物体表面的参考像素点。
在步骤S506中,电子设备可以计算参考像素点距采样点的距离。
在步骤S508中,电子设备可以对各参考像素点的特征信息进行加权平均,以得到采样点的三维表面特征信息。其中,加权所用的权重与距离成反比。也就是说,参考像素点的特征信息的权重与参考像素点距采样点的距离呈负相关关系,距离越大,权重越小。
S36.根据采样点的位置信息和特征信息,确定采样点的色彩信息和密度信息。
在本公开的示例性实施方式中,电子设备可以将采样点的位置信息和特征信息输入全连接网络,即上面提到的神经渲染网络。可以通过全连接网络的预测过程确定出该采样点的色彩信息和密度信息。
可以理解的是,该全连接网络是经训练后确定出的网络。训练的过程可以由电子设备执行,也可以由云平台执行。训练样本可以包括多个场景下拍摄得到的图像,本公开对训练过程不做限制。
S38.利用射线上各采样点的色彩信息和密度信息,确定待生成图像中与射线对应的像素点的色彩信息,以生成待生成图像。
电子设备可以根据步骤S36确定出射线上每个采样点的色彩信息和密度信息。在这种情况下,以该射线上各采样点的密度信息作为权重,对相应的色彩信息进行积分操作,以确定出待生成图像中与该射线对应的像素点的色彩信息。
根据本公开的一些实施例,可以上述公式7确定出待生成图像中与该射线对应的像素点的色彩信息,即RGB值。
针对每一条射线,均可以确定出待生成图像中对应像素点的色彩信息。鉴于射线与待生成图像中像素点一一对应,在确定出待生成图像中每个像素点的色彩信息的情况下,生成了该待生成图像,即生成了与输入图像同场景且视角区别于输入图像的新视角的图像。
本公开实施方式的图像生成方法,通过引入二维图像的视觉特征来指导新视角图像的生成,网络可以根据不同的特征标记不同的对象,具备通用性;通过引入三维体素特征,解决了三维空间点映射到二维平面时可能出现的混淆问题;通过引入三维表面特征,可以获取更细节的几何纹理信息,提高了新视角图像的质量,有效减少了图像模糊情况的出现;通过引入Transformer模型实现特征融合,保证了特征的完整性。
应当注意,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
进一步的,本示例实施方式中还提供了一种图像生成装置。
图6示意性示出了本公开的示例性实施方式的图像生成装置的方框图。参考图6,根据本公开的示例性实施方式的图像生成装置6可以包括射线确定模块61、特征确定模块63、信息确定模块65和图像生成模块67。
具体的,射线确定模块61可以用于获取与待生成图像对应的相机位姿,根据相机位姿确定与待生成图像中各像素点对应的射线;特征确定模块63可以用于针对每条射线上的采样点,根据采样点的位置信息确定采样点的特征信息;特征信息根据输入图像的视觉特征信息确定出,视觉特征信息包括输入图像的像素点的二维特征信息、三维体素特征信息、三维表面特征信息中的至少一种;信息确定模块65可以用于根据采样点的位置信息和特征信息,确定采样点的色彩信息和密度信息;图像生成模块67可以用于利用射线上各采样点的色彩信息和密度信息,确定待生成图像中与射线对应的像素点的色彩信息,以生成待生成图像。
根据本公开的示例性实施例,在视觉特征信息包括输入图像的像素点的三维体素特征信息的情况下,参考图7,相比于图像生成装置6,图像生成装置7还包括输入图像特征提取模块71。
具体的,输入图像特征提取模块71可以用于对输入图像进行特征提取,以得到输入图像的二维特征信息;对二维特征信息进行三维卷积处理,以得到输入图像的三维体素特征信息。
根据本公开的示例性实施例,在采样点的特征信息包括采样点的三维表面特征信息的情况下,特征确定模块63可以被配置为执行:确定输入图像中的属于物体表面的像素点;根据采样点的位置信息,确定输入图像中邻近的预定数量个参考像素点,参考像素点均为属于物体表面的像素点;根据各参考像素点的特征信息确定采样点的三维表面特征信息。
根据本公开的示例性实施例,特征确定模块63根据各参考像素点的特征信息确定采样点的三维表面特征信息的过程可以被配置为执行:计算各参考像素点距采样点的距离;对各参考像素点的特征信息进行加权平均,以得到采样点的三维表面特征信息;其中,参考像素点的特征信息的权重与参考像素点距采样点的距离呈负相关关系。
根据本公开的示例性实施例,在确定出采样点的二维特征信息、三维体素特征信息、三维表面特征信息中的至少两种的情况下,特征确定模块63可以被配置为执行:利用Transformer模型对采样点的二维特征信息、三维体素特征信息、三维表面特征信息中的至少两种进行特征融合,以确定出采样点的特征信息。
根据本公开的示例性实施例,信息确定模块65可以被配置为执行:将采样点的位置信息和特征信息输入全连接网络,通过全连接网络的预测过程确定出采样点的色彩信息和密度信息。
根据本公开的示例性实施例,图像生成模块67可以被配置为执行:以射线上各采样点的密度信息作为权重,对相应的色彩信息进行积分操作,以确定出待生成图像中与射线对应的像素点的色彩信息。
由于本公开实施方式的图像生成装置的各个功能模块与上述方法实施方式中相同,因此在此不再赘述。
在本公开的示例性实施例中,还提供了一种计算机可读存储介质,其上存储有能够实现本说明书上述方法的程序产品。在一些可能的实施方式中,本公开的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。
根据本公开的实施方式的用于实现上述方法的程序产品可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本公开的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光盘、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本公开操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
在本公开的示例性实施例中,还提供了一种能够实现上述方法的电子设备。
所属技术领域的技术人员能够理解,本公开的各个方面可以实现为系统、方法或程序产品。因此,本公开的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
下面参照图8来描述根据本公开的这种实施方式的电子设备800。图8显示的电子设备800仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图8所示,电子设备800以通用计算设备的形式表现。电子设备800的组件可以包括但不限于:上述至少一个处理单元810、上述至少一个存储单元820、连接不同系统组件(包括存储单元820和处理单元810)的总线830、显示单元840。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元810执行,使得所述处理单元810执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。例如,所述处理单元810可以执行本公开实施方式的图像生成方法的各个步骤。
存储单元820可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)8201和/或高速缓存存储单元8202,还可以进一步包括只读存储单元(ROM)8203。
存储单元820还可以包括具有一组(至少一个)程序模块8205的程序/实用工具8204,这样的程序模块8205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线830可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备800也可以与一个或多个外部设备900(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备800交互的设备通信,和/或与使得该电子设备800能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口850进行。并且,电子设备800还可以通过网络适配器860与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器860通过总线830与电子设备800的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备800使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
此外,上述附图仅是根据本公开示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
本领域技术人员在考虑说明书及实践这里公开的内容后,将容易想到本公开的其他实施例。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限。

Claims (10)

1.一种图像生成方法,其特征在于,包括:
获取与待生成图像对应的相机位姿,根据所述相机位姿确定与所述待生成图像中各像素点对应的射线;
针对每条所述射线上的采样点,根据所述采样点的位置信息确定所述采样点的特征信息,所述特征信息根据输入图像的视觉特征信息确定出,所述视觉特征信息包括所述输入图像的像素点的二维特征信息、三维体素特征信息、三维表面特征信息中的至少一种;
根据所述采样点的位置信息和特征信息,确定所述采样点的色彩信息和密度信息;
利用所述射线上各采样点的色彩信息和密度信息,确定所述待生成图像中与所述射线对应的像素点的色彩信息,以生成所述待生成图像。
2.根据权利要求1所述的图像生成方法,其特征在于,在所述视觉特征信息包括所述输入图像的像素点的三维体素特征信息的情况下,所述图像生成方法还包括:
对所述输入图像进行特征提取,以得到所述输入图像的二维特征信息;
对所述二维特征信息进行三维卷积处理,以得到所述输入图像的三维体素特征信息。
3.根据权利要求1所述的图像生成方法,其特征在于,在所述采样点的特征信息包括所述采样点的三维表面特征信息的情况下,根据所述采样点的位置信息确定所述采样点的特征信息包括:
确定所述输入图像中的属于物体表面的像素点;
根据所述采样点的位置信息,确定所述输入图像中邻近的预定数量个参考像素点,所述参考像素点均为属于物体表面的像素点;
根据各所述参考像素点的特征信息确定所述采样点的三维表面特征信息。
4.根据权利要求3所述的图像生成方法,其特征在于,根据各所述参考像素点的特征信息确定所述采样点的三维表面特征信息包括:
计算各所述参考像素点距所述采样点的距离;
对各所述参考像素点的特征信息进行加权平均,以得到所述采样点的三维表面特征信息;
其中,所述参考像素点的特征信息的权重与所述参考像素点距所述采样点的距离呈负相关关系。
5.根据权利要求1所述的图像生成方法,其特征在于,在确定出所述采样点的二维特征信息、三维体素特征信息、三维表面特征信息中的至少两种的情况下,所述图像生成方法还包括:
利用Transformer模型对所述采样点的二维特征信息、三维体素特征信息、三维表面特征信息中的至少两种进行特征融合,以确定出所述采样点的特征信息。
6.根据权利要求1所述的图像生成方法,其特征在于,根据所述采样点的位置信息和特征信息,确定所述采样点的色彩信息和密度信息,包括:
将所述采样点的位置信息和特征信息输入全连接网络,通过所述全连接网络的预测过程确定出所述采样点的色彩信息和密度信息。
7.根据权利要求1所述的图像生成方法,其特征在于,利用所述射线上各采样点的色彩信息和密度信息,确定所述待生成图像中与所述射线对应的像素点的色彩信息,包括:
以所述射线上各采样点的密度信息作为权重,对相应的色彩信息进行积分操作,以确定出所述待生成图像中与所述射线对应的像素点的色彩信息。
8.一种图像生成装置,其特征在于,包括:
射线确定模块,用于获取与待生成图像对应的相机位姿,根据所述相机位姿确定与所述待生成图像中各像素点对应的射线;
特征确定模块,用于针对每条所述射线上的采样点,根据所述采样点的位置信息确定所述采样点的特征信息;所述特征信息根据输入图像的视觉特征信息确定出,所述视觉特征信息包括所述输入图像的像素点的二维特征信息、三维体素特征信息、三维表面特征信息中的至少一种;
信息确定模块,用于根据所述采样点的位置信息和特征信息,确定所述采样点的色彩信息和密度信息;
图像生成模块,用于利用所述射线上各采样点的色彩信息和密度信息,确定所述待生成图像中与所述射线对应的像素点的色彩信息,以生成所述待生成图像。
9.一种存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的图像生成方法。
10.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器被配置为经由执行所述可执行指令来实现权利要求1至7中任一项所述的图像生成方法。
CN202210900092.3A 2022-07-28 2022-07-28 图像生成方法及装置、存储介质和电子设备 Active CN115272575B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210900092.3A CN115272575B (zh) 2022-07-28 2022-07-28 图像生成方法及装置、存储介质和电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210900092.3A CN115272575B (zh) 2022-07-28 2022-07-28 图像生成方法及装置、存储介质和电子设备

Publications (2)

Publication Number Publication Date
CN115272575A true CN115272575A (zh) 2022-11-01
CN115272575B CN115272575B (zh) 2024-03-29

Family

ID=83770411

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210900092.3A Active CN115272575B (zh) 2022-07-28 2022-07-28 图像生成方法及装置、存储介质和电子设备

Country Status (1)

Country Link
CN (1) CN115272575B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116612204A (zh) * 2023-06-01 2023-08-18 北京百度网讯科技有限公司 图像生成方法、训练方法、装置、电子设备以及存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113706714A (zh) * 2021-09-03 2021-11-26 中科计算技术创新研究院 基于深度图像和神经辐射场的新视角合成方法
CN114119839A (zh) * 2022-01-24 2022-03-01 阿里巴巴(中国)有限公司 三维模型重建与图像生成方法、设备以及存储介质
CN114119838A (zh) * 2022-01-24 2022-03-01 阿里巴巴(中国)有限公司 体素模型与图像生成方法、设备及存储介质
CN114511662A (zh) * 2022-01-28 2022-05-17 北京百度网讯科技有限公司 渲染图像的方法、装置、电子设备及存储介质
WO2022104299A1 (en) * 2020-11-16 2022-05-19 Google Llc Deformable neural radiance fields
CN114549731A (zh) * 2022-04-22 2022-05-27 清华大学 视角图像的生成方法、装置、电子设备及存储介质
WO2022133944A1 (zh) * 2020-12-24 2022-06-30 华为技术有限公司 图像处理方法和图像处理装置
CN114693853A (zh) * 2022-04-06 2022-07-01 商汤集团有限公司 对象渲染方法、装置、电子设备及存储介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022104299A1 (en) * 2020-11-16 2022-05-19 Google Llc Deformable neural radiance fields
WO2022133944A1 (zh) * 2020-12-24 2022-06-30 华为技术有限公司 图像处理方法和图像处理装置
CN113706714A (zh) * 2021-09-03 2021-11-26 中科计算技术创新研究院 基于深度图像和神经辐射场的新视角合成方法
CN114119839A (zh) * 2022-01-24 2022-03-01 阿里巴巴(中国)有限公司 三维模型重建与图像生成方法、设备以及存储介质
CN114119838A (zh) * 2022-01-24 2022-03-01 阿里巴巴(中国)有限公司 体素模型与图像生成方法、设备及存储介质
CN114511662A (zh) * 2022-01-28 2022-05-17 北京百度网讯科技有限公司 渲染图像的方法、装置、电子设备及存储介质
CN114693853A (zh) * 2022-04-06 2022-07-01 商汤集团有限公司 对象渲染方法、装置、电子设备及存储介质
CN114549731A (zh) * 2022-04-22 2022-05-27 清华大学 视角图像的生成方法、装置、电子设备及存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ANPEI CHEN等: "MVSNeRF: Fast Generalizable Radiance Field Reconstruction from Multi-View Stereo", 《ARXIV:2103.15595》 *
KAI-EN LIN等: "Vision Transformer for NeRF-Based View Synthesis from a Single Input Image", 《ARXIV:2207.05736V1》, pages 2 - 4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116612204A (zh) * 2023-06-01 2023-08-18 北京百度网讯科技有限公司 图像生成方法、训练方法、装置、电子设备以及存储介质
CN116612204B (zh) * 2023-06-01 2024-05-03 北京百度网讯科技有限公司 图像生成方法、训练方法、装置、电子设备以及存储介质

Also Published As

Publication number Publication date
CN115272575B (zh) 2024-03-29

Similar Documents

Publication Publication Date Title
EP3852068A1 (en) Method for training generative network, method for generating near-infrared image and apparatuses
KR100793838B1 (ko) 카메라 모션 추출장치, 이를 이용한 해상장면의 증강현실 제공 시스템 및 방법
CN107484428B (zh) 用于显示对象的方法
WO2020048484A1 (zh) 超分辨图像重建方法、装置、终端和存储介质
CN113330486A (zh) 深度估计
CN116310076A (zh) 基于神经辐射场的三维重建方法、装置、设备及存储介质
CN113643414B (zh) 一种三维图像生成方法、装置、电子设备及存储介质
CN111583381B (zh) 游戏资源图的渲染方法、装置及电子设备
CN113313832B (zh) 三维模型的语义生成方法、装置、存储介质与电子设备
US20240037898A1 (en) Method for predicting reconstructabilit, computer device and storage medium
US11961266B2 (en) Multiview neural human prediction using implicit differentiable renderer for facial expression, body pose shape and clothes performance capture
CN112562056A (zh) 虚拟演播室中虚拟灯光的控制方法、装置、介质与设备
CN116778063A (zh) 一种基于特征纹理网格和哈希编码的快速虚拟视点合成方法及装置
CN115272575B (zh) 图像生成方法及装置、存储介质和电子设备
JP5795556B2 (ja) 陰影情報導出装置、陰影情報導出方法及びプログラム
CN114627438A (zh) 目标检测模型生成方法、目标检测方法、设备及介质
CN114913287B (zh) 一种三维人体模型重建方法及系统
CN113496506A (zh) 图像处理方法、装置、设备及存储介质
CN115147577A (zh) Vr场景生成方法、装置、设备及存储介质
CN112634439B (zh) 一种3d信息展示方法及装置
CN112785494B (zh) 一种三维模型构建方法、装置、电子设备和存储介质
CN115409949A (zh) 模型训练方法、视角图像生成方法、装置、设备及介质
CN115100360B (zh) 图像生成方法及装置、存储介质和电子设备
CN112203074A (zh) 一种基于两部迭代的相机平移新视点图像生成方法和系统
CN115272576A (zh) 图像生成方法及装置、存储介质和电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant