CN115100360B - 图像生成方法及装置、存储介质和电子设备 - Google Patents
图像生成方法及装置、存储介质和电子设备 Download PDFInfo
- Publication number
- CN115100360B CN115100360B CN202210903807.0A CN202210903807A CN115100360B CN 115100360 B CN115100360 B CN 115100360B CN 202210903807 A CN202210903807 A CN 202210903807A CN 115100360 B CN115100360 B CN 115100360B
- Authority
- CN
- China
- Prior art keywords
- information
- image
- determining
- input image
- characteristic information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 65
- 238000005070 sampling Methods 0.000 claims abstract description 139
- 230000004927 fusion Effects 0.000 claims abstract description 35
- 238000012545 processing Methods 0.000 claims abstract description 21
- 238000000605 extraction Methods 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 7
- 238000009877 rendering Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 10
- 238000012549 training Methods 0.000 description 8
- 230000001537 neural effect Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000010276 construction Methods 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000001186 cumulative effect Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Abstract
本公开提供了一种图像生成方法、图像生成装置、存储介质和电子设备,涉及图像处理技术领域。该图像生成方法包括:获取与待生成图像对应的相机位姿,根据相机位姿确定与待生成图像中各像素点对应的射线;针对每条射线上的采样点,根据采样点的位置信息确定采样点的特征信息,特征信息根据输入图像上与采样点的位置信息对应的像素点的融合特征信息确定出,融合特征信息包括色彩特征信息和深度特征信息;根据采样点的位置信息和特征信息,确定采样点的色彩信息和密度信息;利用射线上各采样点的色彩信息和密度信息,确定待生成图像中与射线对应的像素点的色彩信息,以生成待生成图像。本公开可以提升生成新视角图像的效果。
Description
技术领域
本公开涉及图像处理技术领域,具体而言,涉及一种图像生成方法、图像生成装置、存储介质和电子设备。
背景技术
三维重建和新视角图像渲染一直是计算机图形学领域的核心,也是近年来研究的重点。随着数字孪生、全息通讯和元宇宙等新概念的提出,工业界也对三维重建和新视角图像渲染的需求逐渐增加。
目前,新视角图像生成的方案中,普遍存在新视角图像渲染效果差的问题。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开的目的在于提供一种图像生成方法、图像生成装置、存储介质和电子设备,进而至少在一定程度上克服新视角图像渲染效果差的问题。
根据本公开的第一方面,提供了一种图像生成方法,包括:获取与待生成图像对应的相机位姿,根据相机位姿确定与待生成图像中各像素点对应的射线;针对每条射线上的采样点,根据采样点的位置信息确定采样点的特征信息,特征信息根据输入图像上与采样点的位置信息对应的像素点的融合特征信息确定出,融合特征信息包括色彩特征信息和深度特征信息;根据采样点的位置信息和特征信息,确定采样点的色彩信息和密度信息;利用射线上各采样点的色彩信息和密度信息,确定待生成图像中与射线对应的像素点的色彩信息,以生成待生成图像。
可选地,图像生成方法还包括:获取输入图像;确定输入图像的色彩特征信息和深度特征信息;将输入图像的色彩特征信息与深度特征信息融合,以得到融合特征信息。
可选地,确定输入图像的深度特征信息包括:确定输入图像的稠密深度图;对稠密深度图进行深度特征提取操作,以得到输入图像的深度特征信息。
可选地,确定输入图像的稠密深度图包括:对输入图像进行稀疏深度估计,以得到输入图像的稀疏深度图;对稀疏深度图进行稠密深度估计,以得到输入图像的稠密深度图。
可选地,根据采样点的位置信息确定采样点的特征信息包括:将采样点的三维位置信息转换为二维位置信息;如果采样点的二维位置信息为输入图像上目标像素点的位置信息,则将目标像素点的融合特征信息确定为采样点的特征信息;如果采样点的二维位置信息与输入图像上所有像素点的位置信息均不同,则确定输入图像上与采样点的二维位置信息邻近的像素点,对与采样点的二维位置信息邻近的像素点的融合特征信息进行插值处理,以得到采样点的特征信息。
可选地,根据采样点的位置信息和特征信息,确定采样点的色彩信息和密度信息,包括:将采样点的位置信息和特征信息输入全连接网络,通过全连接网络的预测过程确定出采样点的色彩信息和密度信息。
可选地,利用射线上各采样点的色彩信息和密度信息,确定待生成图像中与射线对应的像素点的色彩信息,包括:以射线上各采样点的密度信息作为权重,对相应的色彩信息进行积分操作,以确定出待生成图像中与射线对应的像素点的色彩信息。
根据本公开的第二方面,提供了一种图像生成装置,包括:射线确定模块,用于获取与待生成图像对应的相机位姿,根据相机位姿确定与待生成图像中各像素点对应的射线;特征确定模块,用于针对每条射线上的采样点,根据采样点的位置信息确定采样点的特征信息,特征信息根据输入图像上与采样点的位置信息对应的像素点的融合特征信息确定出,融合特征信息包括色彩特征信息和深度特征信息;信息确定模块,用于根据采样点的位置信息和特征信息,确定采样点的色彩信息和密度信息;图像生成模块,用于利用射线上各采样点的色彩信息和密度信息,确定待生成图像中与射线对应的像素点的色彩信息,以生成待生成图像。
可选地,图像生成装置还可以包括融合特征确定模块,该融合特征确定模块可以被配置为执行:获取输入图像;确定输入图像的色彩特征信息和深度特征信息;将输入图像的色彩特征信息与深度特征信息融合,以得到融合特征信息。
可选地,融合特征确定模块确定输入图像的深度特征信息的过程可以被配置为执行:确定输入图像的稠密深度图;对稠密深度图进行深度特征提取操作,以得到输入图像的深度特征信息。
可选地,融合特征确定模块确定输入图像的稠密深度图的过程可以被配置为执行:对输入图像进行稀疏深度估计,以得到输入图像的稀疏深度图;对稀疏深度图进行稠密深度估计,以得到输入图像的稠密深度图。
可选地,特征确定模块可以被配置为执行:将采样点的三维位置信息转换为二维位置信息;如果采样点的二维位置信息为输入图像上目标像素点的位置信息,则将目标像素点的融合特征信息确定为采样点的特征信息;如果采样点的二维位置信息与输入图像上所有像素点的位置信息均不同,则确定输入图像上与采样点的二维位置信息邻近的像素点,对与采样点的二维位置信息邻近的像素点的融合特征信息进行插值处理,以得到采样点的特征信息。
可选地,信息确定模块可以被配置为执行:将采样点的位置信息和特征信息输入全连接网络,通过全连接网络的预测过程确定出采样点的色彩信息和密度信息。
可选地,图像生成模块可以被配置为执行:以射线上各采样点的密度信息作为权重,对相应的色彩信息进行积分操作,以确定出待生成图像中与射线对应的像素点的色彩信息。
根据本公开的第三方面,提供了一种存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述图像生成方法。
根据本公开的第四方面,提供了一种电子设备,包括:处理器;以及存储器,用于存储所述处理器的可执行指令;该处理器被配置为经由执行可执行指令来实现上述图像生成方法。
在本公开的一些实施例所提供的技术方案中,引入深度特征来自适应指导新视角图像的生成,通过深度特征的引入,有效避免了不同空间点对应同一个二维特征的混淆问题,保证了同一场景下不同视角图像的一致性渲染,提高了图像渲染的准确度。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1示出了本公开实施方式的图像生成过程的示意图;
图2示出了本公开实施例的图像生成方案所涉各个阶段的示意图;
图3示意性示出了根据本公开示例性实施方式的图像生成方法的流程图;
图4示意性示出了根据本公开实施例的确定输入图像的深度特征信息的过程的流程图;
图5示意性示出了根据本公开实施例的确定采样点的特征信息的过程的流程图;
图6示意性示出了根据本公开示例性实施方式的图像生成装置的方框图;
图7示意性示出了根据本公开另一示例性实施方式的图像生成装置的方框图;
图8示意性示出了根据本公开的示例性实施方式的电子设备的方框图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本公开的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免喧宾夺主而使得本公开的各方面变得模糊。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
附图中所示的流程图仅是示例性说明,不是必须包括所有的步骤。例如,有的步骤还可以分解,而有的步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。
需要说明的是,本公开实施方式的图像生成方案可以由电子设备实现。也就是说,可以由电子设备执行本公开实施方式的图像生成方法的各个步骤,图像生成装置可以配置在该电子设备中。
本公开所说的电子设备包括但不限于智能手机、平板电脑、智能可穿戴设备等,另外,电子设备还可以是服务器,本公开对此不做限制。
图1示出了本公开实施方式的图像生成过程的示意图。参考图1,如果将本公开实施方式的图像生成过程看作一个整体,那么这个整体的输入是输入图像以及新视角,输出是该新视角下对应的图像,即新视角图像。另外,可以利用训练样本来训练图像生成过程中使用的参数,训练样本可以包括在多个场景下拍摄的图像。
对于视角,指的是观察者的观察角度,在本公开实施方式基于计算机来实现方案处理的过程中,可以利用相机位姿来表征视角。
本公开实施方式生成的新视角图像是与输入图像场景相同而视角不同的图像。
图2示出了本公开实施例的图像生成方案所涉各个阶段的示意图。参考图2,本公开实施例的图像生成方案涉及的阶段至少包括输入预处理阶段、深度信息提取阶段、色彩特征提取阶段、神经渲染网络处理阶段和三维体渲染阶段。
针对输入预处理阶段:可以获取拍摄的图像,将图像输入到SFM(Structure FromMotion,运动恢复结构)模块中以估计出该图像对应的相机位姿。在对该模块进行训练时,可以随机选择一些已知的图像,再选择一些作为待预测图像,进而执行训练过程。
在三维虚拟射线生成过程中,不同的视角对应不同的相机位姿,在获取到视角时,即在获取到相机位姿时,以相机位姿为起点向观察方向投射射线,如果目标图像的大小为H×W(高×宽),则以像素点之间的距离为偏移量生成H×W条射线。
在三维空间点采样过程中,由于电子设备计算能力以及操作耗时的限制,通常无法对空间中每个点的信息进行查询,因此,需要进行空间点采样。具体的,沿每条射线采样固定数量的点,采样的方式例如为随机采样。通过三维空间点采样,可以例如确定出H×W×N个采样点。
针对深度信息提取阶段:对图像执行SFM算法处理,以进行稀疏深度估计,得到稀疏深度图。将稀疏深度图与RGB图进行拼接,得到RGBD图像,输入至稠密深度估计网络中,进行稠密深度估计,以得到稠密深度图。该稠密深度图为单通道的深度图,接下来,对该单通道的深度图转换成HSV格式,以得到3通道的深度图。然后,将该3通道的深度图输入特征提取网络,进行深度特征提取,以得到图像的深度特征信息。
针对色彩特征提取阶段:对输入的图像进行色彩特征的特征提取操作,例如,利用卷积神经网络提取出色彩特征信息。
针对神经渲染网络处理阶段:本公开采用的神经渲染网络可以是全连接网络,网络的输入是空间中采样点的位置以及输入图像的深度特征信息和色彩特征信息,输出是该采样点的色彩值和密度值。其中,密度值表征的是该采样点的透明程度,可以作为色彩值的权重应用于后续处理过程。
针对三维体渲染阶段:三维空间中每条射线对应新视角二维图像的一个像素点,渲染过程逐点进行,也就是沿该射线上采样到的三维点进行积分操作,具体公式如下:
其中,C为目标图像上像素点的RGB值,r表示射线,d为射线方向向量,c表示空间采样点RGB值,σ为密度值。tn、tf分别为在射线上积分的最近点和最远点。T(t)计算了到该射线上的某点为止的光线的累积投射率。
本公开实施方式引入深度信息作为一种监督信息来使用,相比于仅利用RGB信息的方案,不仅能使过程中使用的网络在训练时更快收敛,有助于捕捉三维信息,使得新视角图像的构建更精确,确保各个视角的一致性,提升图像渲染效果。
另外,深度信息作为一种先决条件使得网络具备通用性,使方案具备区分不同场景的能力。
图3示意性示出了本公开的示例性实施方式的图像生成方法的流程图。参考图3,该图像生成方法可以包括以下步骤:
S32.获取与待生成图像对应的相机位姿,根据相机位姿确定与待生成图像中各像素点对应的射线。
相机位姿对应视角,即观察者的观察位置和观察姿态。在一个实施例中,可以由用户根据期望生成的图像手动输入相机位姿;在另一个实施例中,电子设备可以根据图像渲染效果自动生成相机位姿,其中,图像渲染效果涉及的因素包括但不限于景深配置、旋转、移动等。
在获取到相机位姿后,可以基于相机位姿发射H×W条射线。可以理解的是,本公开实施例中所说的射线是虚拟射线,是计算机处理时采用的算法手段,不意味着空间中实际也存在射线。其中,待生成图像的大小为H×W,也就是说,每一条射线均对应待生成图像上一个像素点。
此外,针对每一条射线,可以进行采样,确定出采样点。例如,每条射线选取N个采样点,在这种情况下,一共采集得到H×W×N个采样点。
S34.针对每条射线上的采样点,根据采样点的位置信息确定采样点的特征信息,特征信息根据输入图像上与采样点的位置信息对应的像素点的融合特征信息确定出,融合特征信息包括色彩特征信息和深度特征信息。
针对输入图像,一方面,可以提取输入图像的色彩特征信息,例如,可以利用卷积操作提取输入图像的色彩特征信息。另一方面,可以提取输入图像的深度特征信息。
图4示意性示出了根据本公开实施例的确定输入图像的深度特征信息的过程的流程图。
在步骤S402中,电子设备可以获取输入图像。
在步骤S404中,电子设备可以对输入图像进行稀疏深度估计,得到稀疏深度图。
在步骤S406中,电子设备可以对稀疏深度图进行稠密深度估计,得到稠密深度图。具体的,可以将稀疏深度图与RGB图进行拼接,得到RGBD图像,输入至稠密深度估计网络中,进行稠密深度估计,以得到稠密深度图。
在步骤S408中,电子设备可以将稠密深度图转换为HSV格式的深度图。
在步骤S410中,电子设备可以利用卷积神经网络(例如Resnet等)提取HSV格式的深度图的深度特征信息。
针对步骤S32确定出的每条射线上的采样点,可以根据采样点的位置信息确定采样点的特征信息,该特征信息是根据输入图像上与采样点的位置信息对应的像素点的融合特征信息确定出,融合特征信息包括上述色彩特征信息和深度特征信息。
其中,输入图像上与采样点的位置信息对应的像素点指的是输入图像上采样点转换为二维坐标位置时对应的像素点,如果转换为二维坐标位置之后未对应到输入图像的像素点坐标,则输入图像上与该位置邻近的像素点可以作为对应的像素点,例如,周围4个像素点、周围8个像素点等。
图5示意性示出了根据本公开实施例的确定采样点的特征信息的过程的流程图。
在步骤S502中,电子设备将采样点的三维位置信息转换为二维位置信息。具体的,将位置信息先进行世界坐标系到相机坐标系的转换,再进行相机坐标系到图像坐标系的转换,然后进行图像坐标系到像素坐标系的转换。
在步骤S504中,电子设备判断采样点的二维位置信息是否属于输入图像的像素点。如果属于,则执行步骤S506;如果不属于,则执行步骤S508。
在步骤S506中,确定输入图像上与采样点的二维位置信息对应的像素点,作为目标像素点,并将目标像素点的融合特征信息确定为采样点的特征信息。
在步骤S508中,确定输入图像上位置与采样点的二维位置信息邻近的像素点(如周围4个像素点、8个像素点等),对这些邻近的像素点的融合特征信息进行插值处理,并将插值处理得到的融合特征信息确定为采样点的特征信息。
S36.根据采样点的位置信息和特征信息,确定采样点的色彩信息和密度信息。
在本公开的示例性实施方式中,电子设备可以将采样点的位置信息和特征信息输入全连接网络,即上面提到的神经渲染网络。可以通过全连接网络的预测过程确定出该采样点的色彩信息和密度信息。
可以理解的是,该全连接网络是经训练后确定出的网络。训练的过程可以由电子设备执行,也可以由云平台执行。训练样本可以包括多个场景下拍摄得到的图像,本公开对训练过程不做限制。
S38.利用射线上各采样点的色彩信息和密度信息,确定待生成图像中与射线对应的像素点的色彩信息,以生成待生成图像。
电子设备可以根据步骤S36确定出射线上每个采样点的色彩信息和密度信息。在这种情况下,以该射线上各采样点的密度信息作为权重,对相应的色彩信息进行积分操作,以确定出待生成图像中与该射线对应的像素点的色彩信息。
根据本公开的一些实施例,可以结合下式确定出待生成图像中与该射线对应的像素点的色彩信息,即RGB值。
其中,C为目标图像上像素点的RGB值,r表示射线,d为射线方向向量,c表示空间采样点RGB值,σ为密度值。tn、tf分别为在射线上积分的最近点和最远点。T(t)计算了到该射线上的某点为止的光线的累积投射率。
针对每一条射线,均可以确定出待生成图像中对应像素点的色彩信息。鉴于射线与待生成图像中像素点一一对应,在确定出待生成图像中每个像素点的色彩信息的情况下,生成了该待生成图像,即生成了与输入图像同场景且视角区别于输入图像的新视角的图像。
本公开实施方式引入深度信息作为一种监督信息来使用,相比于仅利用RGB信息的方案,不仅能使过程中使用的网络在训练时更快收敛,有助于捕捉三维信息,使得新视角图像的构建更精确,确保各个视角的一致性,提升图像渲染效果。
另外,本公开方案可以实现单视图或少量视图下的新视角图像的构建,深度信息作为一种先决条件使得网络具备通用性,使方案具备区分不同场景的能力。
应当注意,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
进一步的,本示例实施方式中还提供了一种图像生成装置。
图6示意性示出了本公开的示例性实施方式的图像生成装置的方框图。参考图6,根据本公开的示例性实施方式的图像生成装置6可以包括射线确定模块61、特征确定模块63、信息确定模块65和图像生成模块67。
具体的,射线确定模块61可以用于获取与待生成图像对应的相机位姿,根据相机位姿确定与待生成图像中各像素点对应的射线;特征确定模块63可以用于针对每条射线上的采样点,根据采样点的位置信息确定采样点的特征信息,特征信息根据输入图像上与采样点的位置信息对应的像素点的融合特征信息确定出,融合特征信息包括色彩特征信息和深度特征信息;信息确定模块65可以用于根据采样点的位置信息和特征信息,确定采样点的色彩信息和密度信息;图像生成模块67可以用于利用射线上各采样点的色彩信息和密度信息,确定待生成图像中与射线对应的像素点的色彩信息,以生成待生成图像。
根据本公开的示例性实施例,参考图7,相比于图像生成装置6,图像生成装置7还可以包括融合特征确定模块71。
具体的,融合特征确定模块71可以被配置为执行:获取输入图像;确定输入图像的色彩特征信息和深度特征信息;将输入图像的色彩特征信息与深度特征信息融合,以得到融合特征信息。
根据本公开的示例性实施例,融合特征确定模块71确定输入图像的深度特征信息的过程可以被配置为执行:确定输入图像的稠密深度图;对稠密深度图进行深度特征提取操作,以得到输入图像的深度特征信息。
根据本公开的示例性实施例,融合特征确定模块71确定输入图像的稠密深度图的过程可以被配置为执行:对输入图像进行稀疏深度估计,以得到输入图像的稀疏深度图;对稀疏深度图进行稠密深度估计,以得到输入图像的稠密深度图。
根据本公开的示例性实施例,特征确定模块63可以被配置为执行:将采样点的三维位置信息转换为二维位置信息;如果采样点的二维位置信息为输入图像上目标像素点的位置信息,则将目标像素点的融合特征信息确定为采样点的特征信息;如果采样点的二维位置信息与输入图像上所有像素点的位置信息均不同,则确定输入图像上与采样点的二维位置信息邻近的像素点,对与采样点的二维位置信息邻近的像素点的融合特征信息进行插值处理,以得到采样点的特征信息。
根据本公开的示例性实施例,信息确定模块65可以被配置为执行:将采样点的位置信息和特征信息输入全连接网络,通过全连接网络的预测过程确定出采样点的色彩信息和密度信息。
根据本公开的示例性实施例,图像生成模块67可以被配置为执行:以射线上各采样点的密度信息作为权重,对相应的色彩信息进行积分操作,以确定出待生成图像中与射线对应的像素点的色彩信息。
由于本公开实施方式的图像生成装置的各个功能模块与上述方法实施方式中相同,因此在此不再赘述。
在本公开的示例性实施例中,还提供了一种计算机可读存储介质,其上存储有能够实现本说明书上述方法的程序产品。在一些可能的实施方式中,本公开的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。
根据本公开的实施方式的用于实现上述方法的程序产品可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本公开的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光盘、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本公开操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
在本公开的示例性实施例中,还提供了一种能够实现上述方法的电子设备。
所属技术领域的技术人员能够理解,本公开的各个方面可以实现为系统、方法或程序产品。因此,本公开的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
下面参照图8来描述根据本公开的这种实施方式的电子设备800。图8显示的电子设备800仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图8所示,电子设备800以通用计算设备的形式表现。电子设备800的组件可以包括但不限于:上述至少一个处理单元810、上述至少一个存储单元820、连接不同系统组件(包括存储单元820和处理单元810)的总线830、显示单元840。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元810执行,使得所述处理单元810执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。例如,所述处理单元810可以执行本公开实施方式的图像生成方法的各个步骤。
存储单元820可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)8201和/或高速缓存存储单元8202,还可以进一步包括只读存储单元(ROM)8203。
存储单元820还可以包括具有一组(至少一个)程序模块8205的程序/实用工具8204,这样的程序模块8205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线830可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备800也可以与一个或多个外部设备900(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备800交互的设备通信,和/或与使得该电子设备800能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口850进行。并且,电子设备800还可以通过网络适配器860与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器860通过总线830与电子设备800的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备800使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
此外,上述附图仅是根据本公开示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
本领域技术人员在考虑说明书及实践这里公开的内容后,将容易想到本公开的其他实施例。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限。
Claims (7)
1.一种图像生成方法,其特征在于,包括:
获取与待生成图像对应的相机位姿,根据所述相机位姿确定与所述待生成图像中各像素点对应的射线;
针对每条所述射线上的采样点,根据所述采样点的位置信息确定所述采样点的特征信息,所述特征信息根据输入图像上与所述采样点的位置信息对应的像素点的融合特征信息确定出,所述融合特征信息包括色彩特征信息和深度特征信息;
根据所述采样点的位置信息和特征信息,确定所述采样点的色彩信息和密度信息;
利用所述射线上各采样点的色彩信息和密度信息,确定所述待生成图像中与所述射线对应的像素点的色彩信息,以生成所述待生成图像;
其中,根据所述采样点的位置信息确定所述采样点的特征信息包括:
将所述采样点的三维位置信息转换为二维位置信息;
如果所述采样点的二维位置信息为所述输入图像上目标像素点的位置信息,则将所述目标像素点的融合特征信息确定为所述采样点的特征信息;
如果所述采样点的二维位置信息与所述输入图像上所有像素点的位置信息均不同,则确定所述输入图像上与所述采样点的二维位置信息邻近的像素点,对与所述采样点的二维位置信息邻近的像素点的融合特征信息进行插值处理,以得到所述采样点的特征信息;
所述图像生成方法还包括:
获取所述输入图像;
确定所述输入图像的色彩特征信息;
确定所述输入图像的稠密深度图,对所述稠密深度图进行深度特征提取操作,以得到所述输入图像的深度特征信息;
将所述输入图像的色彩特征信息与深度特征信息融合,以得到所述融合特征信息。
2.根据权利要求1所述的图像生成方法,其特征在于,确定所述输入图像的稠密深度图包括:
对所述输入图像进行稀疏深度估计,以得到所述输入图像的稀疏深度图;
对所述稀疏深度图进行稠密深度估计,以得到所述输入图像的稠密深度图。
3.根据权利要求1所述的图像生成方法,其特征在于,根据所述采样点的位置信息和特征信息,确定所述采样点的色彩信息和密度信息,包括:
将所述采样点的位置信息和特征信息输入全连接网络,通过所述全连接网络的预测过程确定出所述采样点的色彩信息和密度信息。
4.根据权利要求1所述的图像生成方法,其特征在于,利用所述射线上各采样点的色彩信息和密度信息,确定所述待生成图像中与所述射线对应的像素点的色彩信息,包括:
以所述射线上各采样点的密度信息作为权重,对相应的色彩信息进行积分操作,以确定出所述待生成图像中与所述射线对应的像素点的色彩信息。
5.一种图像生成装置,其特征在于,包括:
射线确定模块,用于获取与待生成图像对应的相机位姿,根据所述相机位姿确定与所述待生成图像中各像素点对应的射线;
特征确定模块,用于针对每条所述射线上的采样点,根据所述采样点的位置信息确定所述采样点的特征信息,所述特征信息根据输入图像上与所述采样点的位置信息对应的像素点的融合特征信息确定出,所述融合特征信息包括色彩特征信息和深度特征信息;
信息确定模块,用于根据所述采样点的位置信息和特征信息,确定所述采样点的色彩信息和密度信息;
图像生成模块,用于利用所述射线上各采样点的色彩信息和密度信息,确定所述待生成图像中与所述射线对应的像素点的色彩信息,以生成所述待生成图像;
其中,所述特征确定模块被配置为执行:将所述采样点的三维位置信息转换为二维位置信息;如果所述采样点的二维位置信息为所述输入图像上目标像素点的位置信息,则将所述目标像素点的融合特征信息确定为所述采样点的特征信息;如果所述采样点的二维位置信息与所述输入图像上所有像素点的位置信息均不同,则确定所述输入图像上与所述采样点的二维位置信息邻近的像素点,对与所述采样点的二维位置信息邻近的像素点的融合特征信息进行插值处理,以得到所述采样点的特征信息;
所述图像生成装置还包括:
融合特征确定模块,用于获取所述输入图像,确定所述输入图像的色彩特征信息,确定所述输入图像的稠密深度图,对所述稠密深度图进行深度特征提取操作,以得到所述输入图像的深度特征信息,将所述输入图像的色彩特征信息与深度特征信息融合,以得到所述融合特征信息。
6.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至4中任一项所述的图像生成方法。
7.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器被配置为经由执行所述可执行指令来实现权利要求1至4中任一项所述的图像生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210903807.0A CN115100360B (zh) | 2022-07-28 | 2022-07-28 | 图像生成方法及装置、存储介质和电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210903807.0A CN115100360B (zh) | 2022-07-28 | 2022-07-28 | 图像生成方法及装置、存储介质和电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115100360A CN115100360A (zh) | 2022-09-23 |
CN115100360B true CN115100360B (zh) | 2023-12-01 |
Family
ID=83300733
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210903807.0A Active CN115100360B (zh) | 2022-07-28 | 2022-07-28 | 图像生成方法及装置、存储介质和电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115100360B (zh) |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102609974A (zh) * | 2012-03-14 | 2012-07-25 | 浙江理工大学 | 一种基于深度图分割渲染的虚拟视点图像的生成方法 |
CN109829947A (zh) * | 2019-02-25 | 2019-05-31 | 北京旷视科技有限公司 | 位姿确定方法、托盘装载方法、装置、介质及电子设备 |
CN112446842A (zh) * | 2019-08-28 | 2021-03-05 | 深圳市光鉴科技有限公司 | 基于稀疏和稠密深度图图像重建方法、系统、设备及介质 |
CN112613609A (zh) * | 2020-12-18 | 2021-04-06 | 中山大学 | 基于联合位姿优化的神经辐射场增强方法 |
CN112669436A (zh) * | 2020-12-25 | 2021-04-16 | 嘉兴恒创电力集团有限公司博创物资分公司 | 一种基于3d点云的深度学习样本生成方法 |
CN113674400A (zh) * | 2021-08-18 | 2021-11-19 | 公安部物证鉴定中心 | 基于重定位技术的光谱三维重建方法、系统及存储介质 |
CN113706714A (zh) * | 2021-09-03 | 2021-11-26 | 中科计算技术创新研究院 | 基于深度图像和神经辐射场的新视角合成方法 |
CN113793420A (zh) * | 2021-09-17 | 2021-12-14 | 联想(北京)有限公司 | 深度信息处理方法、装置、电子设备及存储介质 |
CN113902789A (zh) * | 2021-09-24 | 2022-01-07 | Oppo广东移动通信有限公司 | 图像特征处理、深度图像生成方法及装置、介质和设备 |
CN114004941A (zh) * | 2022-01-04 | 2022-02-01 | 苏州浪潮智能科技有限公司 | 一种基于神经辐射场的室内场景三维重建系统及方法 |
CN114119839A (zh) * | 2022-01-24 | 2022-03-01 | 阿里巴巴(中国)有限公司 | 三维模型重建与图像生成方法、设备以及存储介质 |
CN114445562A (zh) * | 2022-02-17 | 2022-05-06 | 北京大甜绵白糖科技有限公司 | 三维重建方法及装置、电子设备和存储介质 |
WO2022124607A1 (en) * | 2020-12-07 | 2022-06-16 | Samsung Electronics Co., Ltd. | Depth estimation method, device, electronic equipment and computer readable storage medium |
CN114638869A (zh) * | 2022-02-16 | 2022-06-17 | 奥比中光科技集团股份有限公司 | 深度图像的获取方法、装置、深度系统、终端和存储介质 |
CN114666564A (zh) * | 2022-03-23 | 2022-06-24 | 南京邮电大学 | 一种基于隐式神经场景表示进行虚拟视点图像合成的方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4183082B2 (ja) * | 2003-09-26 | 2008-11-19 | シャープ株式会社 | 3次元画像描画装置および3次元画像描画方法 |
-
2022
- 2022-07-28 CN CN202210903807.0A patent/CN115100360B/zh active Active
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102609974A (zh) * | 2012-03-14 | 2012-07-25 | 浙江理工大学 | 一种基于深度图分割渲染的虚拟视点图像的生成方法 |
CN109829947A (zh) * | 2019-02-25 | 2019-05-31 | 北京旷视科技有限公司 | 位姿确定方法、托盘装载方法、装置、介质及电子设备 |
CN112446842A (zh) * | 2019-08-28 | 2021-03-05 | 深圳市光鉴科技有限公司 | 基于稀疏和稠密深度图图像重建方法、系统、设备及介质 |
WO2022124607A1 (en) * | 2020-12-07 | 2022-06-16 | Samsung Electronics Co., Ltd. | Depth estimation method, device, electronic equipment and computer readable storage medium |
CN112613609A (zh) * | 2020-12-18 | 2021-04-06 | 中山大学 | 基于联合位姿优化的神经辐射场增强方法 |
CN112669436A (zh) * | 2020-12-25 | 2021-04-16 | 嘉兴恒创电力集团有限公司博创物资分公司 | 一种基于3d点云的深度学习样本生成方法 |
CN113674400A (zh) * | 2021-08-18 | 2021-11-19 | 公安部物证鉴定中心 | 基于重定位技术的光谱三维重建方法、系统及存储介质 |
CN113706714A (zh) * | 2021-09-03 | 2021-11-26 | 中科计算技术创新研究院 | 基于深度图像和神经辐射场的新视角合成方法 |
CN113793420A (zh) * | 2021-09-17 | 2021-12-14 | 联想(北京)有限公司 | 深度信息处理方法、装置、电子设备及存储介质 |
CN113902789A (zh) * | 2021-09-24 | 2022-01-07 | Oppo广东移动通信有限公司 | 图像特征处理、深度图像生成方法及装置、介质和设备 |
CN114004941A (zh) * | 2022-01-04 | 2022-02-01 | 苏州浪潮智能科技有限公司 | 一种基于神经辐射场的室内场景三维重建系统及方法 |
CN114119839A (zh) * | 2022-01-24 | 2022-03-01 | 阿里巴巴(中国)有限公司 | 三维模型重建与图像生成方法、设备以及存储介质 |
CN114638869A (zh) * | 2022-02-16 | 2022-06-17 | 奥比中光科技集团股份有限公司 | 深度图像的获取方法、装置、深度系统、终端和存储介质 |
CN114445562A (zh) * | 2022-02-17 | 2022-05-06 | 北京大甜绵白糖科技有限公司 | 三维重建方法及装置、电子设备和存储介质 |
CN114666564A (zh) * | 2022-03-23 | 2022-06-24 | 南京邮电大学 | 一种基于隐式神经场景表示进行虚拟视点图像合成的方法 |
Non-Patent Citations (3)
Title |
---|
图像融合在空间目标三维重建中的应用;杨洪飞;夏晖;陈忻;孙胜利;饶鹏;;红外与激光工程(09);374-381 * |
融合两种深度线索的光场图像深度估计方法;苏钰生;王亚飞;;计算机工程与应用(15);205-213 * |
视觉与激光点云融合的深度图像获取方法;王东敏;彭永胜;李永乐;;军事交通学院学报(10);83-87 * |
Also Published As
Publication number | Publication date |
---|---|
CN115100360A (zh) | 2022-09-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3786890B1 (en) | Method and apparatus for determining pose of image capture device, and storage medium therefor | |
JP7273129B2 (ja) | 車線検出方法、装置、電子機器、記憶媒体及び車両 | |
CN109191554B (zh) | 一种超分辨图像重建方法、装置、终端和存储介质 | |
CN112561978B (zh) | 深度估计网络的训练方法、图像的深度估计方法、设备 | |
EP3958207A2 (en) | Method and apparatus for video frame interpolation, and electronic device | |
EP4053784A1 (en) | Image processing method and apparatus, electronic device, and storage medium | |
CN113313832B (zh) | 三维模型的语义生成方法、装置、存储介质与电子设备 | |
JP2023530545A (ja) | 空間幾何情報推定モデルの生成方法及び装置 | |
CN113409368B (zh) | 建图方法及装置、计算机可读存储介质、电子设备 | |
CN115272575B (zh) | 图像生成方法及装置、存储介质和电子设备 | |
CN113766117B (zh) | 一种视频去抖动方法和装置 | |
CN113793370B (zh) | 三维点云配准方法、装置、电子设备及可读介质 | |
CN113409340A (zh) | 语义分割模型训练方法、语义分割方法、装置及电子设备 | |
CN112085842B (zh) | 深度值确定方法及装置、电子设备和存储介质 | |
CN110717405B (zh) | 人脸特征点定位方法、装置、介质及电子设备 | |
CN117011137A (zh) | 基于rgb相似度特征匹配的图像拼接方法、装置及设备 | |
CN115100360B (zh) | 图像生成方法及装置、存储介质和电子设备 | |
CN116863078A (zh) | 三维人体模型重建方法、装置、电子设备和可读介质 | |
CN109816791B (zh) | 用于生成信息的方法和装置 | |
CN114663810B (zh) | 基于多模态的物体图像增广方法及装置、设备及存储介质 | |
CN116012913A (zh) | 模型训练方法、人脸关键点检测方法、介质及装置 | |
CN115880435A (zh) | 图像重建方法、模型训练方法、装置、电子设备和介质 | |
CN113537194A (zh) | 光照估计方法、光照估计装置、存储介质与电子设备 | |
CN113763468A (zh) | 一种定位方法、装置、系统及存储介质 | |
CN116558540B (zh) | 模型训练方法和装置、轨迹生成方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |