CN113132706A - 基于逆向映射的可控位置虚拟视点生成方法及装置 - Google Patents
基于逆向映射的可控位置虚拟视点生成方法及装置 Download PDFInfo
- Publication number
- CN113132706A CN113132706A CN202110245620.1A CN202110245620A CN113132706A CN 113132706 A CN113132706 A CN 113132706A CN 202110245620 A CN202110245620 A CN 202110245620A CN 113132706 A CN113132706 A CN 113132706A
- Authority
- CN
- China
- Prior art keywords
- viewpoint
- network model
- image
- convolution network
- virtual viewpoint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/261—Image signal generators with monoscopic-to-stereoscopic image conversion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2213/00—Details of stereoscopic systems
- H04N2213/003—Aspects relating to the "2D+depth" image format
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
本发明提供一种基于逆向映射的可控位置虚拟视点生成方法及装置,该方法包括:将待检测图像的左右视点图像输入预训练的第一卷积网络模型,得到预测的中间视点视差图;根据所述中间视点视差图、左右视点图像以及给定的位置因子,基于逆向映射分别合成给定位置的第一虚拟视点图像和第二虚拟视点图像;将所述第一虚拟视点图像和第二虚拟视点图像输入预训练的第二卷积网络模型,得到目标虚拟视点图像;其中,所述第一卷积网络模型,根据中间视点图像已知的左右视点图像作为样本训练得到。该方法运算量较小且能有效避免出现空洞和伪影,显著提高虚拟视点的质量。同时该方法无需精确的深度图,避免在实际场景中获取深度图的困难。
Description
技术领域
本发明涉及图像处理技术领域,尤其涉及一种基于逆向映射的可控位置虚拟视点生成方法及装置。
背景技术
随着计算机技术和图像处理技术的快速发展,3D电视和自由立体视频越来越吸引人们的眼球。多视点图像作为其展示内容的方式被认为拥有非常广阔的实际应用前景。然后受限于多视点采集的困难,比如相机阵列的同步调整、相机的标定和多视点图像的存储与传输等,借助稀疏视点采集(两视点采集)生成密集的虚拟视点是推动三维立体显示发展的关键技术。
现在用于生成虚拟视点图像的主要方法有两种:基于模型渲染的方法和基于图像渲染的方法。基于模型渲染的方法需要构建场景中模型的所有信息,运算量巨大,难以实现。基于图像渲染的方法考虑从2D图像生成虚拟视点,这样可以简化计算量。此方法中较为典型的传统方法是基于深度图像的虚拟视点渲染(DIBR:Depth Image Based Rendering)。然而传统的DIBR方法在渲染(生成)虚拟视点时容易出现空洞和伪影,严重影响虚拟视点的质量。另外考虑到此方法需要精确的深度图,不过在实际场景中,如何获取精确的深度图(视差图)也极为困难。
发明内容
针对现有技术存在的问题,本发明提供一种基于逆向映射的可控位置虚拟视点生成方法及装置。
本发明提供一种基于逆向映射的可控位置虚拟视点生成方法,包括:将待检测图像的左右视点图像输入预训练的第一卷积网络模型,得到预测的中间视点视差图;根据所述中间视点视差图、左右视点图像以及给定的位置因子,基于逆向映射分别合成给定位置的第一虚拟视点图像和第二虚拟视点图像;将所述第一虚拟视点图像和第二虚拟视点图像输入预训练的第二卷积网络模型,得到目标虚拟视点图像;所述第一卷积网络模型,根据中间视点图像已知的左右视点图像作为样本训练得到;所述第二卷积网络模型,根据训练后的第一卷积网络模型的输出作为输入,对应位置的已知视点图像作为标签训练后得到。
根据本发明一个实施例的基于逆向映射的可控位置虚拟视点生成方法,所述将待检测图像的左右视点图像输入预训练的第一卷积网络模型之前,还包括:将中间视点图像已知的样本左右视点图像输入构建的第一卷积网络模型,得到预测的中间视点视差图;根据样本左右视点图像以及预测的中间视点视差图,分别基于逆向映射得到合成的两个中间视点图像;根据已知的中间视点图像和合成的两个中间视点图像,确定预设损失函数的损失值;根据多次训练结果,得到损失函数最小时的第一卷积网络模型,作为所述预训练的第一卷积网络模型。
根据本发明一个实施例的基于逆向映射的可控位置虚拟视点生成方法,所述损失函数确定如下:
loss=|Im-Il→m|+|Im-Ir→m|;
其中,Im为已知的中间视点图像,Il→m和Ir→m分别为样本左右视点图像对应的合成的中间视点图像。
根据本发明一个实施例的基于逆向映射的可控位置虚拟视点生成方法,将所述第一虚拟视点图像和第二虚拟视点图像输入预训练的第二卷积网络模型之前,还包括:获取第二样本左右视点图像,所述第二样本左右视点图像在左右位置之间具有已知位置的真实视点图像;将第二样本左右视点图像,输入预训练的第一卷积网络模型,得到预测的中间视点视差图;根据得到的中间视点视差图、第二样本左右视点图像以及已知位置的位置因子,基于逆向映射分别合成已知位置的第一虚拟视点图像和第二虚拟视点图像;将已知位置的第一虚拟视点图像和第二虚拟视点图像作为输入,已知位置的真实视点图像作为标签,对构建的第二卷积网络模型进行训练,得到所述预训练的第二卷积网络模型。
根据本发明一个实施例的基于逆向映射的可控位置虚拟视点生成方法,所述第二样本左右视点图像的已知位置,至少包括两个不同的位置。
根据本发明一个实施例的基于逆向映射的可控位置虚拟视点生成方法,所述第二样本左右视点图像的已知位置具体为1/4位置、1/2位置和3/4位置。
本发明还提供一种基于逆向映射的可控位置虚拟视点生成装置,包括:视差预测模块,用于将待检测图像的左右视点图像输入预训练的第一卷积网络模型,得到预测的中间视点视差图;视点生成模块,用于根据所述中间视点视差图、左右视点图像以及给定的位置因子,基于逆向映射分别合成左右视点图对应的第一虚拟视点图像和第二虚拟视点图像;视点修正模块,用于将所述第一虚拟视点图像和第二虚拟视点图像输入预训练的第二卷积网络模型,得到目标虚拟视点图像;其中,所述第一卷积网络模型,根据中间视点图像已知的左右视点图像作为样本训练得到;所述第二卷积网络模型,根据训练后的第一卷积网络模型的输出作为输入,对应位置的已知视点图像作为标签训练后得到。
根据本发明一个实施例的基于逆向映射的可控位置虚拟视点生成装置,还包括训练模块,用于:将中间视点图像已知的样本左右视点图像输入构建的第一卷积网络模型,得到预测的中间视点视差图;根据样本左右视点图像以及预测的中间视点视差图,分别基于逆向映射得到合成的两个中间视点图像;根据已知的中间视点图像和合成的两个中间视点图像,确定预设损失函数的损失值;根据多次训练结果,得到损失函数最小时的第一卷积网络模型,作为所述预训练的第一卷积网络模型。
本发明还提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上述任一种所述基于逆向映射的可控位置虚拟视点生成方法的步骤。
本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如上述任一种所述基于逆向映射的可控位置虚拟视点生成方法的步骤。
本发明提供的基于逆向映射的可控位置虚拟视点生成方法及装置,通过第一卷积网络模型确定中间视点视差图,运算量较小,通过第二卷积网络模型处理虚拟视点图像,可有效避免出现空洞和伪影,显著提高虚拟视点的质量。本发明的方法无需精确的深度图,避免在实际场景中获取深度图的困难。相比于预测左右视点的视差图,中间视点的视差图的预测范围小了一半,同时难度也小了一半,提高了视差图的准确性。
附图说明
为了更清楚地说明本发明或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明提供的基于逆向映射的可控位置虚拟视点生成方法的流程示意图;
图2是本发明提供的基于中间视点视差图的虚拟视点生成方法流程图;
图3是本发明提供的基于逆向映射的可控位置虚拟视点生成装置的结构示意图;
图4是本发明提供的电子设备的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明中的附图,对本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
中间视点:相对于左视点和右视点而言,其正中间的视点称之为中间视点。它分别包含了左视点和右视点的部分信息。
视差图:以图像对(左视点图和右视点图)中任一幅图像为基准图像,元素值为视差值的图像。
虚拟视点:这些视点不是通过相机采集获得,而是通过计算机程序结合已有视点重新生成的不同视点图。可以理解为在真实世界中放置虚拟相机采集的视点图像。
Inverse Warp:逆向映射,一种虚拟视点生成的技术。它使用一幅参考图像和其相对的视差图像生成目标图像。该技术生成的图像在视差大的区域容易出现伪影。
卷积神经网络:一类包含卷积计算且具有深度结构的神经网络。它仿照生物的视知觉机制构建,具有表征学习能力。
下面结合图1-图4描述本发明的基于逆向映射的可控位置虚拟视点生成方法及装置。图1是本发明提供的基于逆向映射的可控位置虚拟视点生成方法的流程示意图,如图1所示,本发明提供基于逆向映射的可控位置虚拟视点生成方法,包括:
101、将待检测图像的左右视点图像输入预训练的第一卷积网络模型,得到预测的中间视点视差图。
图2是本发明提供的基于中间视点视差图的虚拟视点生成方法流程图,可参见图2。给定左右视点对,通过训练完成的第一卷积神经网络预测中间视点的视差图,即卷积网络预测出中间视点的视差图Dm。
102、根据所述中间视点视差图、左右视点图像以及给定的位置因子,基于逆向映射分别合成左右视点图对应的第一虚拟视点图像和第二虚拟视点图像。
基于视差图Dm和给定的位置因子,左右视点对(Il,Ir)使用Inverse Warp操作合成给定位置的视点图。也就是说,在得到中间视点的视差图之后,需要借助位置因子α来生成指定位置的虚拟视点。该过程可以理解为使用位置因子α调整视差图的某些值,从而控制像素的移动距离,最终可以生成指定位置α的虚拟视点,以下公式可以表现其具体实现:
Il→α=f(Il,α*Dm)
Ir→α=f(Ir,(2-α)*Dm)
其中,α的取值范围为(0,1)。
103、将所述第一虚拟视点图像和第二虚拟视点图像输入预训练的第二卷积网络模型,得到目标虚拟视点图像。
虚拟视点对(Il→α,Ir→α)包含大量的伪影,这些伪影的存在使得虚拟视点的质量严重下降。为了提高虚拟视点的质量,使用第二卷积神经网络对虚拟视点对进行色彩修正,最终得到高精度的虚拟视点图。
由于第一卷积网络模型根据中间视点图像已知的左右视点图像作为样本训练得到,可根据左右视点图像对应的已知中间视点图像,与生成的第一虚拟视点图像和第二虚拟视点图像的误差,来训练第一卷积网络模型。训练完成的第一卷积网络模型可得到准确的中间视点视差图。同样地,可根据真实的视点图像与第一虚拟视点图像和第二虚拟视点图像的误差,训练第二卷积网络模型,从而第二卷积网络模型,可实现去除伪影等功能。
本发明的基于逆向映射的可控位置虚拟视点生成方法,通过第一卷积网络模型确定中间视点视差图,运算量较小,通过第二卷积网络模型处理虚拟视点图像,可有效避免出现空洞和伪影,显著提高虚拟视点的质量。本发明的方法无需精确的深度图,避免在实际场景中获取深度图的困难。相比于预测左右视点的视差图,中间视点的视差图的预测范围小了一半,同时难度也小了一半,提高了视差图的准确性。
在一个实施例中,所述将待检测图像的左右视点图像输入预训练的第一卷积网络模型之前,还包括:将中间视点图像已知的样本左右视点图像输入构建的第一卷积网络模型,得到预测的中间视点视差图;根据样本左右视点图像以及预测的中间视点视差图,分别基于逆向映射得到合成的两个中间视点图像;根据已知的中间视点图像和合成的两个中间视点图像,确定预设损失函数的损失值;根据多次训练结果,得到损失函数最小时的第一卷积网络模型,作为所述预训练的第一卷积网络模型。
给定左右视点对,首先训练卷积神经网络预测中间视点的视差图。在训练阶段采用视点监督的方式,即通过中间视点图像而不是真实的中间视点的视差图来监督训练过程。
左右视点对(Il,Ir)使用Inverse Warp操作合成中间视点(Il→m,Ir→m),这一过程可以用以下公式表示:
Il→m=f(Il,Dm)
Ir→m=f(Ir,Dm)
f表示Inverse Warp操作。在得到虚拟的中间视点后,使用真实的中间视点Im计算损失函数。
在一个实施例中,所述损失函数确定如下:
loss=|Im-Il→m|+|Im-Ir→m|;
其中,Im为已知的中间视点图像,Il→m和Ir→m分别为样本左右视点图像对应的合成的中间视点图像。
在一个实施例中,将所述第一虚拟视点图像和第二虚拟视点图像输入预训练的第二卷积网络模型之前,还包括:获取第二样本左右视点图像,所述第二样本左右视点图像在左右位置之间具有已知位置的真实视点图像;将第二样本左右视点图像,输入预训练的第一卷积网络模型,得到预测的中间视点视差图;根据得到的中间视点视差图、第二样本左右视点图像以及已知位置的位置因子,基于逆向映射分别合成已知位置的第一虚拟视点图像和第二虚拟视点图像;将已知位置的第一虚拟视点图像和第二虚拟视点图像作为输入,已知位置的真实视点图像作为标签,对构建的第二卷积网络模型进行训练,得到所述预训练的第二卷积网络模型。
在第一卷积神经网络模型训练完成后,根据训练完成的第一卷积神经网络模型的输出结果作为输入,第二样本图像的对应位置的真实视点图作为标签,对第二卷积网络模型进行训练,从而可以得到能够有效去除伪影的与训练的第二卷积网络模型。使用第二卷积神经网络对虚拟视点对进行色彩修正,最终得到高精度的虚拟视点图。
在一个实施例中,所述第二样本左右视点图像的已知位置,至少包括两个不同的位置。
为了提高准确性,第二样本左右视点图像在左右位置之间具有已知位置的真实视点图像。该已知位置不限于正中间的视点,而是左右视点之间的视点。选取左右视点之间至少两个不同位置的第二样本,对第二卷积网络模型进行训练,从而可以提高不同给定位置因子的虚拟视点图像的准确度。
在一个实施例中,所述第二样本左右视点图像的已知位置具体为1/4位置、1/2位置和3/4位置。经验证,在上述三个位置的样本进行训练,便可以在较小的计算量的情况下,准确消除任意给定位置的虚拟视点图像的伪影。
下面对本发明提供的基于逆向映射的可控位置虚拟视点生成装置进行描述,下文描述的基于逆向映射的可控位置虚拟视点生成装置与上文描述的基于逆向映射的可控位置虚拟视点生成方法可相互对应参照。
图3是本发明提供的基于逆向映射的可控位置虚拟视点生成装置的结构示意图,如图3所示,该基于逆向映射的可控位置虚拟视点生成装置包括:视差预测模块301、视点生成模块302和视点修正模块303。其中,视差预测模块301用于将待检测图像的左右视点图像输入预训练的第一卷积网络模型,得到预测的中间视点视差图;视点生成模块302用于根据所述中间视点视差图、左右视点图像以及给定的位置因子,基于逆向映射分别合成左右视点图对应的第一虚拟视点图像和第二虚拟视点图像;视点修正模块303用于将所述第一虚拟视点图像和第二虚拟视点图像输入预训练的第二卷积网络模型,得到目标虚拟视点图像;其中,所述第一卷积网络模型,根据中间视点图像已知的左右视点图像作为样本训练得到;所述第二卷积网络模型,根据训练后的第一卷积网络模型的输出作为输入,对应位置的已知视点图像作为标签训练后得到。
在一个装置实施例中,还包括训练模块,用于:将中间视点图像已知的样本左右视点图像输入构建的第一卷积网络模型,得到预测的中间视点视差图;根据样本左右视点图像以及预测的中间视点视差图,分别基于逆向映射得到合成的两个中间视点图像;根据已知的中间视点图像和合成的两个中间视点图像,确定预设损失函数的损失值;根据多次训练结果,得到损失函数最小时的第一卷积网络模型,作为所述预训练的第一卷积网络模型。
本发明实施例提供的装置实施例是为了实现上述各方法实施例的,具体流程和详细内容请参照上述方法实施例,此处不再赘述。
本发明实施例提供的基于逆向映射的可控位置虚拟视点生成装置,通过第一卷积网络模型确定中间视点视差图,运算量较小,通过第二卷积网络模型处理虚拟视点图像,可有效避免出现空洞和伪影,显著提高虚拟视点的质量。本发明的方法无需精确的深度图,避免在实际场景中获取深度图的困难。相比于预测左右视点的视差图,中间视点的视差图的预测范围小了一半,同时难度也小了一半,提高了视差图的准确性。
图4是本发明提供的电子设备的结构示意图,如图4所示,该电子设备可以包括:处理器(processor)401、通信接口(Communications Interface)402、存储器(memory)403和通信总线404,其中,处理器401,通信接口402,存储器403通过通信总线404完成相互间的通信。处理器401可以调用存储器403中的逻辑指令,以执行基于逆向映射的可控位置虚拟视点生成方法,该方法包括:视差预测模块,用于将待检测图像的左右视点图像输入预训练的第一卷积网络模型,得到预测的中间视点视差图;视点生成模块,用于根据所述中间视点视差图、左右视点图像以及给定的位置因子,基于逆向映射分别合成左右视点图对应的第一虚拟视点图像和第二虚拟视点图像;视点修正模块,用于将所述第一虚拟视点图像和第二虚拟视点图像输入预训练的第二卷积网络模型,得到目标虚拟视点图像;其中,所述第一卷积网络模型,根据中间视点图像已知的左右视点图像作为样本训练得到;所述第二卷积网络模型,根据训练后的第一卷积网络模型的输出作为输入,对应位置的已知视点图像作为标签训练后得到。
此外,上述的存储器403中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
另一方面,本发明还提供一种计算机程序产品,所述计算机程序产品包括存储在非暂态计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,计算机能够执行上述各方法所提供的基于逆向映射的可控位置虚拟视点生成方法,该方法包括:视差预测模块,用于将待检测图像的左右视点图像输入预训练的第一卷积网络模型,得到预测的中间视点视差图;视点生成模块,用于根据所述中间视点视差图、左右视点图像以及给定的位置因子,基于逆向映射分别合成左右视点图对应的第一虚拟视点图像和第二虚拟视点图像;视点修正模块,用于将所述第一虚拟视点图像和第二虚拟视点图像输入预训练的第二卷积网络模型,得到目标虚拟视点图像;其中,所述第一卷积网络模型,根据中间视点图像已知的左右视点图像作为样本训练得到;所述第二卷积网络模型,根据训练后的第一卷积网络模型的输出作为输入,对应位置的已知视点图像作为标签训练后得到
又一方面,本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各实施例提供的基于逆向映射的可控位置虚拟视点生成方法,该方法包括:视差预测模块,用于将待检测图像的左右视点图像输入预训练的第一卷积网络模型,得到预测的中间视点视差图;视点生成模块,用于根据所述中间视点视差图、左右视点图像以及给定的位置因子,基于逆向映射分别合成左右视点图对应的第一虚拟视点图像和第二虚拟视点图像;视点修正模块,用于将所述第一虚拟视点图像和第二虚拟视点图像输入预训练的第二卷积网络模型,得到目标虚拟视点图像;其中,所述第一卷积网络模型,根据中间视点图像已知的左右视点图像作为样本训练得到;所述第二卷积网络模型,根据训练后的第一卷积网络模型的输出作为输入,对应位置的已知视点图像作为标签训练后得到。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种基于逆向映射的可控位置虚拟视点生成方法,其特征在于,包括:
将待检测图像的左右视点图像输入预训练的第一卷积网络模型,得到预测的中间视点视差图;
根据所述中间视点视差图、左右视点图像以及给定的位置因子,基于逆向映射分别合成给定位置的第一虚拟视点图像和第二虚拟视点图像;
将所述第一虚拟视点图像和第二虚拟视点图像输入预训练的第二卷积网络模型,得到目标虚拟视点图像;
其中,所述第一卷积网络模型,根据中间视点图像已知的左右视点图像作为样本训练得到;所述第二卷积网络模型,根据训练后的第一卷积网络模型的输出作为输入,对应位置的已知视点图像作为标签训练后得到。
2.根据权利要求1所述的基于逆向映射的可控位置虚拟视点生成方法,其特征在于,所述将待检测图像的左右视点图像输入预训练的第一卷积网络模型之前,还包括:
将中间视点图像已知的样本左右视点图像输入构建的第一卷积网络模型,得到预测的中间视点视差图;
根据样本左右视点图像以及预测的中间视点视差图,分别基于逆向映射得到合成的两个中间视点图像;
根据已知的中间视点图像和合成的两个中间视点图像,确定预设损失函数的损失值;
根据多次训练结果,得到损失函数最小时的第一卷积网络模型,作为所述预训练的第一卷积网络模型。
3.根据权利要求1所述的基于逆向映射的可控位置虚拟视点生成方法,其特征在于,所述损失函数确定如下:
loss=|Im-Il→m|+|Im-Ir→m|;
其中,Im为已知的中间视点图像,Il→m和Ir→m分别为样本左右视点图像对应的合成中间视点图像。
4.根据权利要求1或2所述的基于逆向映射的可控位置虚拟视点生成方法,其特征在于,将所述第一虚拟视点图像和第二虚拟视点图像输入预训练的第二卷积网络模型之前,还包括:
获取第二样本左右视点图像,所述第二样本左右视点图像在左右位置之间具有已知位置的真实视点图像;
将第二样本左右视点图像,输入预训练的第一卷积网络模型,得到预测的中间视点视差图;
根据得到的中间视点视差图、第二样本左右视点图像以及已知位置的位置因子,基于逆向映射分别合成已知位置的第一虚拟视点图像和第二虚拟视点图像;
将已知位置的第一虚拟视点图像和第二虚拟视点图像作为输入,已知位置的真实视点图像作为标签,对构建的第二卷积网络模型进行训练,得到所述预训练的第二卷积网络模型。
5.根据权利要求4所述的基于逆向映射的可控位置虚拟视点生成方法,其特征在于,所述第二样本左右视点图像的已知位置,至少包括两个不同的位置。
6.根据权利要求4所述的基于逆向映射的可控位置虚拟视点生成方法,其特征在于,所述第二样本左右视点图像的已知位置具体为1/4位置、1/2位置和3/4位置。
7.一种基于逆向映射的可控位置虚拟视点生成装置,其特征在于,包括:
视差预测模块,用于将待检测图像的左右视点图像输入预训练的第一卷积网络模型,得到预测的中间视点视差图;
视点生成模块,用于根据所述中间视点视差图、左右视点图像以及给定的位置因子,基于逆向映射分别合成左右视点图对应的第一虚拟视点图像和第二虚拟视点图像;
视点修正模块,用于将所述第一虚拟视点图像和第二虚拟视点图像输入预训练的第二卷积网络模型,得到目标虚拟视点图像;
其中,所述第一卷积网络模型,根据中间视点图像已知的左右视点图像作为样本训练得到;所述第二卷积网络模型,根据训练后的第一卷积网络模型的输出作为输入,对应位置的已知视点图像作为标签训练后得到。
8.根据权利要求7所述的基于逆向映射的可控位置虚拟视点生成装置,其特征在于,还包括训练模块,用于:
将中间视点图像已知的样本左右视点图像输入构建的第一卷积网络模型,得到预测的中间视点视差图;
根据样本左右视点图像以及预测的中间视点视差图,分别基于逆向映射得到合成的两个中间视点图像;
根据已知的中间视点图像和合成的两个中间视点图像,确定预设损失函数的损失值;
根据多次训练结果,得到损失函数最小时的第一卷积网络模型,作为所述预训练的第一卷积网络模型。
9.一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至6任一项所述基于逆向映射的可控位置虚拟视点生成方法的步骤。
10.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6任一项所述基于逆向映射的可控位置虚拟视点生成方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110245620.1A CN113132706A (zh) | 2021-03-05 | 2021-03-05 | 基于逆向映射的可控位置虚拟视点生成方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110245620.1A CN113132706A (zh) | 2021-03-05 | 2021-03-05 | 基于逆向映射的可控位置虚拟视点生成方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113132706A true CN113132706A (zh) | 2021-07-16 |
Family
ID=76772565
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110245620.1A Pending CN113132706A (zh) | 2021-03-05 | 2021-03-05 | 基于逆向映射的可控位置虚拟视点生成方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113132706A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115134579A (zh) * | 2022-06-16 | 2022-09-30 | 抖音视界(北京)有限公司 | 一种虚拟视点的生成方法、装置、存储介质及电子设备 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20090107748A (ko) * | 2008-04-10 | 2009-10-14 | 포항공과대학교 산학협력단 | 무안경식 3차원 입체 tv를 위한 고속 다시점 3차원 입체영상 합성 장치 및 방법 |
CN102075779A (zh) * | 2011-02-21 | 2011-05-25 | 北京航空航天大学 | 一种基于块匹配视差估计的中间视图合成方法 |
CN102254348A (zh) * | 2011-07-25 | 2011-11-23 | 北京航空航天大学 | 一种基于块匹配视差估计的中间视图合成方法 |
CN103647960A (zh) * | 2013-12-24 | 2014-03-19 | 北京邮电大学 | 一种合成三维图像的方法 |
CN109978936A (zh) * | 2019-03-28 | 2019-07-05 | 腾讯科技(深圳)有限公司 | 视差图获取方法、装置、存储介质及设备 |
US20190244379A1 (en) * | 2018-02-07 | 2019-08-08 | Fotonation Limited | Systems and Methods for Depth Estimation Using Generative Models |
CN110942441A (zh) * | 2018-09-25 | 2020-03-31 | 英特尔公司 | 具有流估计和图像超分辨率的多相机阵列图像的视图插补 |
CN111325693A (zh) * | 2020-02-24 | 2020-06-23 | 西安交通大学 | 一种基于单视点rgb-d图像的大尺度全景视点合成方法 |
-
2021
- 2021-03-05 CN CN202110245620.1A patent/CN113132706A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20090107748A (ko) * | 2008-04-10 | 2009-10-14 | 포항공과대학교 산학협력단 | 무안경식 3차원 입체 tv를 위한 고속 다시점 3차원 입체영상 합성 장치 및 방법 |
CN102075779A (zh) * | 2011-02-21 | 2011-05-25 | 北京航空航天大学 | 一种基于块匹配视差估计的中间视图合成方法 |
CN102254348A (zh) * | 2011-07-25 | 2011-11-23 | 北京航空航天大学 | 一种基于块匹配视差估计的中间视图合成方法 |
CN103647960A (zh) * | 2013-12-24 | 2014-03-19 | 北京邮电大学 | 一种合成三维图像的方法 |
US20190244379A1 (en) * | 2018-02-07 | 2019-08-08 | Fotonation Limited | Systems and Methods for Depth Estimation Using Generative Models |
CN110942441A (zh) * | 2018-09-25 | 2020-03-31 | 英特尔公司 | 具有流估计和图像超分辨率的多相机阵列图像的视图插补 |
CN109978936A (zh) * | 2019-03-28 | 2019-07-05 | 腾讯科技(深圳)有限公司 | 视差图获取方法、装置、存储介质及设备 |
CN111325693A (zh) * | 2020-02-24 | 2020-06-23 | 西安交通大学 | 一种基于单视点rgb-d图像的大尺度全景视点合成方法 |
Non-Patent Citations (2)
Title |
---|
YONGRUI LI等: "A Hole-filling Method for DIBR Based on Convolutional Neural Network", 《IEEE》 * |
付傲威等: "自由立体显示中基于深度卷积神经网络的虚拟视点生成方法", 《液晶与显示》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115134579A (zh) * | 2022-06-16 | 2022-09-30 | 抖音视界(北京)有限公司 | 一种虚拟视点的生成方法、装置、存储介质及电子设备 |
CN115134579B (zh) * | 2022-06-16 | 2024-08-23 | 抖音视界(北京)有限公司 | 一种虚拟视点的生成方法、装置、存储介质及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108335322B (zh) | 深度估计方法和装置、电子设备、程序和介质 | |
JP5561781B2 (ja) | 2d画像データを立体画像データに変換する方法およびシステム | |
Chang et al. | Content-aware display adaptation and interactive editing for stereoscopic images | |
CN108495110A (zh) | 一种基于生成式对抗网络的虚拟视点图像生成方法 | |
TWI497980B (zh) | 處理3d立體影像的系統與方法 | |
CN101247530A (zh) | 增强图像的立体效果的三维图像显示设备和方法 | |
CN111047709B (zh) | 一种双目视觉裸眼3d图像生成方法 | |
CN103236082A (zh) | 面向捕获静止场景的二维视频的准三维重建方法 | |
CN112884682A (zh) | 一种基于匹配与融合的立体图像颜色校正方法及系统 | |
CN109218706B (zh) | 一种由单张图像生成立体视觉图像的方法 | |
CN104506872A (zh) | 一种平面视频转立体视频的方法及装置 | |
CN104010180A (zh) | 三维视频滤波方法和装置 | |
CN115731336B (zh) | 图像渲染方法、图像渲染模型生成方法及相关装置 | |
CN114401391A (zh) | 虚拟视点生成方法及装置 | |
CN111612878A (zh) | 将静态照片制作成三维效果视频的方法及装置 | |
CN103297790A (zh) | 图像处理装置、图像处理方法及程序 | |
Ye et al. | Computational multi-view imaging with Kinect | |
CN113132706A (zh) | 基于逆向映射的可控位置虚拟视点生成方法及装置 | |
Guo et al. | Adaptive estimation of depth map for two-dimensional to three-dimensional stereoscopic conversion | |
CN117501313A (zh) | 基于深度神经网络的毛发渲染系统 | |
CN103945206A (zh) | 一种基于相似帧比较的立体图像合成系统 | |
CN116012449A (zh) | 一种基于深度信息的图像渲染方法及装置 | |
Knorr et al. | From 2D-to stereo-to multi-view video | |
US11908070B2 (en) | Dynamic three-dimensional imaging method | |
CN104994365B (zh) | 一种获取非关键帧深度图像的方法以及2d视频立体化方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210716 |
|
RJ01 | Rejection of invention patent application after publication |