CN116567194B - 虚拟图像合成方法、装置、设备及存储介质 - Google Patents

虚拟图像合成方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN116567194B
CN116567194B CN202310792410.3A CN202310792410A CN116567194B CN 116567194 B CN116567194 B CN 116567194B CN 202310792410 A CN202310792410 A CN 202310792410A CN 116567194 B CN116567194 B CN 116567194B
Authority
CN
China
Prior art keywords
target
image
pixel
determining
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310792410.3A
Other languages
English (en)
Other versions
CN116567194A (zh
Inventor
常远
魏莱
沈云
丁鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Telecom Corp Ltd
Original Assignee
China Telecom Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Telecom Corp Ltd filed Critical China Telecom Corp Ltd
Priority to CN202310792410.3A priority Critical patent/CN116567194B/zh
Publication of CN116567194A publication Critical patent/CN116567194A/zh
Application granted granted Critical
Publication of CN116567194B publication Critical patent/CN116567194B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/15Processing image signals for colour aspects of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0085Motion estimation from stereoscopic image signals
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)

Abstract

本公开提供了一种虚拟图像合成方法、装置、设备及存储介质,涉及图像处理领域,获取不同视点位置中每个视点位置对应的图像以及图像对应的图像参数,基于图像参数确定每个视点对应的场景深度范围数据,基于视点位置以及多个像素中目标像素的像素位置在场景深度范围数据中确定目标像素对应的采样点,基于采样点以及训练完成的图像预测模型确定目标像素对应的颜色以及深度数据。提高了渲染的准确度,使得合成的图像真实度较高。

Description

虚拟图像合成方法、装置、设备及存储介质
技术领域
本公开涉及无线通信领域,尤其涉及一种虚拟图像合成方法、装置、设备及存储介质。
背景技术
在当前社会中,用户通常都会通过网络来获取信息。随着社会的发展,用户对于获取信息的效率越来越高。在用户使用网络获取信息时,需要将获取的信息渲染到界面上,然后由用户通过渲染完成的界面来获取信息。
而在虚拟现实应用场景中,通过相关技术中渲染方法进行渲染可能导致渲染的图像精度较低的问题。
发明内容
本公开提供一种虚拟图像合成方法、装置、设备及存储介质,至少在一定程度上克服了当前虚拟现实场景中图像渲染精度较低的问题。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开的一个方面,提供一种虚拟图像合成方法,包括:
获取不同视点位置中每个视点位置对应的图像以及图像对应的图像参数;
基于图像参数确定每个视点对应的场景深度范围数据;
基于视点位置以及多个像素中目标像素的像素位置在场景深度范围数据中确定目标像素对应的采样点;
基于采样点以及训练完成的图像预测模型确定目标像素对应的颜色以及深度数据。
在本公开的一个实施例中,获取不同视点位置中每个视点位置对应的图像以及图像对应的图像参数,包括:
获取不同视点位置中每个视点位置对应的图像;
基于运动恢复结构算法对图像进行处理,得到每个图像对应的图像参数。
在本公开的一个实施例中,在基于采样点以及训练完成的图像预测模型对目标像素的颜色以及深度数据进行预测,得到目标像素对应的颜色以及深度数据之前,方法还包括:
基于采样点对神经网络进行训练,得到训练完成的图像预测模型。
在本公开的一个实施例中,基于采样点对神经网络进行训练,得到训练完成的图像预测模型,包括:
基于每张图像的图像参数确定每张图像中每个像素对应的深度值下界数据;
基于采样点对神经网络进行训练,得到训练完成的图像预测模型,深度值下界数据用于构建图像预测模型对应的损失函数。
在本公开的一个实施例中,基于每张图像的图像参数确定每张图像中每个像素对应的深度值下界数据,包括:
基于平面扫描多视图立体匹配算法确定每个像素对应的多个深度值;
基于第一预设公式在多个深度值中确定最优深度值;
基于每个像素对应的最优深度值确定图像对应的深度图像;
基于几何一致性检验算法对图像对应的深度图像进行过滤,得到过滤后图像的像素点对应的目标深度值;
基于图像的颜色数据将图像划分为目标区域;
将目标区域内像素点对应的目标深度值的数量大于第一预设阈值的目标区域确定为可靠目标区域,小于第一预设阈值的目标区域确定为不可靠目标区域;
将可靠目标区域内大于并且与第一预设阈值最接近的目标深度值与预设偏移量的差值确定为可靠目标区域内全部像素的深度值下界数据;
基于不可靠目标区域相似的多个可靠目标区域中最低的深度值下界数据确定为不可靠目标区域的深度值下界数据。
在本公开的一个实施例中,第一预设公式为: 其中,/>,/>为像素位置数据,/>为多个深度值中的任意一个深度值,/>、/>为权重系数,/>为/>对应的像素的颜色数据,/>为、/>对应的像素的颜色数据,/>为/>对应的像素的深度值,/>为/>对应的像素的深度值,/>、/>、/>、/>、/>均为常数,/>为视点,/>对应的像素根据深度值/>投影至视点/>对应的图像/>中的像素点/>产生的匹配误差数据,/>和/>分别表示像素/>和像素/>处的图像梯度,/>和/>为常数。
在本公开的一个实施例中,在基于与不可靠目标区域相似的多个可靠目标区域中最低的深度值下界数据确定为不可靠目标区域的深度值下界数据之前,方法还包括:
确定不可靠目标区域与可靠目标区域之间的路径,路径包括连线,连线为以相邻的目标区域为节点构建的连线;
基于不可靠目标区域相邻的可靠目标区域的颜色直方图的横坐标数据确定连线的权重值;
基于相邻目标区域分别对应的颜色直方图的横坐标数据确定相邻目标区域之间连线的权重值;
基于路径上每段连线的权重值确定路径的权重值;
将权重值大于第二预设阈值的路径一端的可靠目标区域确定为路径另一端的不可靠目标区域的相似可靠目标区域。
在本公开的一个实施例中,基于视点位置以及多个像素中目标像素的像素位置在场景深度范围数据中确定目标像素对应的采样点,包括:
基于视点位置与多个像素中目标像素的像素位置确定目标像素对应的成像光线;
基于成像光线以及场景深度范围数据确定目标像素对应的采样点。
在本公开的一个实施例中,基于采样点以及训练完成的图像预测模型确定目标像素对应的颜色以及深度数据,包括:
基于训练完成的图像预测模型确定采样点的体密度数据以及颜色数据;
基于第二预设公式、采样点的体密度数据以及颜色数据确定目标像素对应的颜色以及深度数据。
在本公开的一个实施例中,第二预设公式包括:
其中,/>为目标像素的颜色数据,/>为第/>个采样点,为第/>个采样点,/>为相邻采样点之间的距离,/>为第/>个采样点的体密度,/>为第/>个采样点的颜色数据,/>为第/>个采样点,/>为第/>个采样点,为为第/>个采样点的体密度,D为目标像素的深度数据。
根据本公开的另一个方面,提供一种虚拟图像合成装置,包括:
获取模块,用于获取不同视点位置中每个视点位置对应的图像以及图像对应的图像参数;
第一确定模块,用于基于图像参数确定每个视点对应的场景深度范围数据;
第二确定模块,用于基于视点位置以及多个像素中目标像素的像素位置在场景深度范围数据中确定目标像素对应的采样点;
第三确定模块,用于基于采样点以及训练完成的图像预测模型确定目标像素对应的颜色以及深度数据。
在本公开的一个实施例中,获取模块,包括:
获取单元,用于获取不同视点位置中每个视点位置对应的图像。
处理单元,用于基于运动恢复结构算法对图像进行处理,得到每个图像对应的图像参数。
在本公开的一个实施例中,装置还包括:
训练模块,在基于采样点以及训练完成的图像预测模型对目标像素的颜色以及深度数据进行预测,得到目标像素对应的颜色以及深度数据之前,用于基于采样点对神经网络进行训练,得到训练完成的图像预测模型。
在本公开的一个实施例中,训练模块还包括:
第一确定单元,用于基于每张图像的图像参数确定每张图像中每个像素对应的深度值下界数据;
训练单元,用于基于采样点对神经网络进行训练,得到训练完成的图像预测模型,深度值下界数据用于构建图像预测模型对应的损失函数。
在本公开的一个实施例中,第一确定单元,包括:
第一确定子单元,用于基于平面扫描多视图立体匹配算法确定每个像素对应的多个深度值;
第二确定子单元,基于第一预设公式在多个深度值中确定最优深度值;
第三确定子单元,基于每个像素对应的最优深度值确定图像对应的深度图像;
过滤子单元,用于基于几何一致性检验算法对图像对应的深度图像进行过滤,得到过滤后图像的像素点对应的目标深度值;
划分子单元,用于基于图像的颜色数据将图像划分为目标区域;
第四确定子单元,用于将目标区域内像素点对应的目标深度值的数量大于第一预设阈值的目标区域确定为可靠目标区域,小于第一预设阈值的目标区域确定为不可靠目标区域;
第五确定子单元,将可靠目标区域内大于并且与第一预设阈值最接近的目标深度值与预设偏移量的差值确定为可靠目标区域内全部像素的深度值下界数据;
第六确定子单元,基于不可靠目标区域相似的多个可靠目标区域中最低的深度值下界数据确定为不可靠目标区域的深度值下界数据。
在本公开的一个实施例中,第一预设公式为: 其中,/>,/>为像素位置数据,/>为多个深度值中的任意一个深度值,/>、/>为权重系数,/>为/>对应的像素的颜色数据,/>为、/>对应的像素的颜色数据,/>为/>对应的像素的深度值,/>为/>对应的像素的深度值,/>、/>、/>、/>、/>均为常数,/>为视点,/>对应的像素根据深度值/>投影至视点/>对应的图像/>中的像素点/>产生的匹配误差数据,/>和/>分别表示像素/>和像素/>处的图像梯度,/>和/>为常数。
在本公开的一个实施例中,训练模块,还包括:
第二确定单元,用于确定不可靠目标区域与可靠目标区域之间的路径,路径包括连线,连线为以相邻的目标区域为节点构建的连线;
第三确定单元,用于基于不可靠目标区域相邻的可靠目标区域的颜色直方图的横坐标数据确定连线的权重值;
第四确定单元,用于基于相邻目标区域分别对应的颜色直方图的横坐标数据确定相邻目标区域之间连线的权重值;
第五确定单元,用于基于路径上每段连线的权重值确定路径的权重值;
第六确定单元,用于将权重值大于第二预设阈值的路径一端的可靠目标区域确定为路径另一端的不可靠目标区域的相似可靠目标区域。
在本公开的一个实施例中,第二确定模块,包括:
第七确定单元,用于基于视点位置与多个像素中目标像素的像素位置确定目标像素对应的成像光线;
第八确定单元,用于基于成像光线以及场景深度范围数据确定目标像素对应的采样点。
在本公开的一个实施例中,第三确定模块,包括:
第九确定单元,用于基于训练完成的图像预测模型确定采样点的体密度数据以及颜色数据;
第十确定单元,用于基于第二预设公式、采样点的体密度数据以及颜色数据确定目标像素对应的颜色以及深度数据。
在本公开的一个实施例中,第二预设公式包括:
其中,/>为目标像素的颜色数据,/>为第/>个采样点,为第/>个采样点,/>为相邻采样点之间的距离,/>为第/>个采样点的体密度,/>为第/>个采样点的颜色数据,/>为第/>个采样点,/>为第/>个采样点,为为第/>个采样点的体密度,D为目标像素的深度数据。
根据本公开的再一个方面,提供一种电子设备,包括:处理器;以及存储器,用于存储处理器的可执行指令;其中,处理器配置为经由执行可执行指令来执行上述的虚拟图像合成方法。
根据本公开的又一个方面,提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述的虚拟图像合成方法。
本公开的实施例所提供的虚拟图像合成方法,获取不同视点位置中每个视点位置对应的图像以及图像对应的图像参数,基于图像参数确定每个视点对应的场景深度范围数据,基于视点位置以及多个像素中目标像素的像素位置在场景深度范围数据中确定目标像素对应的采样点,基于采样点 以及训练完成的图像预测模型确定目标像素对应的颜色以及深度数据。提高了渲染的准确度,使得合成的图像真实度较高。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出本公开实施例中一种虚拟图像合成方法流程示意图。
图2示出本公开实施例中一种深度范围示意图。
图3示出本公开实施例中另一种虚拟图像合成方法流程示意图。
图4示出本公开实施例中再一种虚拟图像合成方法流程示意图。
图5示出本公开实施例中又一种虚拟图像合成方法流程示意图。
图6示出本公开实施例中又一种虚拟图像合成方法流程示意图。
图7示出本公开实施例中一种路径示意图。
图8示出本公开实施例中又一种虚拟图像合成方法实例示意图。
图9示出了本公开实施例中又一种虚拟图像合成方法流程示意图。
图10示出本公开实施例中一种虚拟图像合成装置示意图。
图11示出本公开实施例中一种电子设备的结构框图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
为了解决上述问题,本公开实施例提供了一种虚拟图像合成方法、装置、设备及存储介质。
为了便于理解,本公开实施例首先会对虚拟图像合成方法进行介绍。上述虚拟图像合成方法可以应用于终端设备或服务器中。
示例性的,终端设备可以是各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机、台式计算机、可穿戴设备、增强现实设备、虚拟现实设备等。
处理服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN(Content Delivery Network,内容分发网络)、以及大数据和人工智能平台等基础云计算服务的云服务器。终端可以是智能手机、平板电脑、笔记本电脑、台式计算机、智能音箱、智能手表等,但并不局限于此。终端以及服务器可以通过有线或无线通信方式进行直接或间接地连接,本申请在此不做限制。
图1示出了本公开实施例中一种虚拟图像合成方法流程示意图。
如图1所示,虚拟图像合成方法可以包括:
S110,获取不同视点位置中每个视点位置对应的图像以及图像对应的图像参数。
在一些实施例中,视点位置可以包括获取图像的设备所在的视点位置。在图像设备获取图像之后可以将图像基于图像设备所在的视点位置对图像进行标记。
在一些实施例中,图像对应的图像参数可以包括获取图像的设备所提供的图像参数。
示例性的,获取图像的图像设备可以包括相机,本公开实施例中对图像设备的种类不作具体限定。可以基于相机在不同视点进行拍摄获取不同视点分别对应的图像。
示例性的,图像参数可以包括相机参数。
S120,基于图像参数确定每个视点对应的场景深度范围数据。
在一些实施例中,视点对应的场景深度范围数据可以包括视点对应的深度近包络。
为了对场景深度范围数据进行说明,图2示出了本公开实施例中一种深度范围示意图。
如图2所示,虚线对应的即为场景深度范围。而场景深度范围对应的位置数据即为场景深度范围数据。
S130,基于视点位置以及多个像素中目标像素的像素位置在场景深度范围数据中确定目标像素对应的采样点。
在一些实施例中,在确定视点位置之后,对于视点位置对应的图像,图像中的每一个像素可以在深度场景范围中对应多个离散采样点。
在一些实施例中,目标像素为多个像素中的任意一个像素。
S140,基于采样点以及训练完成的图像预测模型确定目标像素对应的颜色以及深度数据。
在一些实施例中,可以将采样点对应的数据输入训练完成的图像预测模型中,得到目标像素对应的颜色以及深度数据。
本公开的实施例所提供的虚拟图像合成方法,获取不同视点位置中每个视点位置对应的图像以及图像对应的图像参数,基于图像参数确定每个视点对应的场景深度范围数据,基于视点位置以及多个像素中目标像素的像素位置在场景深度范围数据中确定目标像素对应的采样点,基于采样点 以及训练完成的图像预测模型确定目标像素对应的颜色以及深度数据。提高了渲染的准确度,使得合成的图像真实度较高。
图3示出了本公开实施例中另一种虚拟图像合成方法流程示意图。
如图3所示,虚拟图像合成方法可以包括:
S310,获取不同视点位置中每个视点位置对应的图像。
S320,基于运动恢复结构(Structure from Motion,SfM)算法对图像进行处理,得到每个图像对应的图像参数。
在一些实施例中,运动恢复结构算法可以对图像进行处理,得到图像对应的图像参数。
S330,基于图像参数确定每个视点对应的场景深度范围数据。
S340,基于视点位置以及多个像素中目标像素的像素位置在场景深度范围数据中确定目标像素对应的采样点。
S350,基于采样点以及训练完成的图像预测模型确定目标像素对应的颜色以及深度数据。
本公开的实施例所提供的虚拟图像合成方法,获取不同视点位置中每个视点位置对应的图像以及图像对应的图像参数,基于图像参数确定每个视点对应的场景深度范围数据,基于视点位置以及多个像素中目标像素的像素位置在场景深度范围数据中确定目标像素对应的采样点,基于采样点 以及训练完成的图像预测模型确定目标像素对应的颜色以及深度数据。提高了渲染的准确度,使得合成的图像真实度较高。
图4示出了本公开实施例中再一种虚拟图像合成方法流程示意图。
如图4所示,虚拟图像合成方法可以包括:
S410,获取不同视点位置中每个视点位置对应的图像以及图像对应的图像参数。
S420,基于图像参数确定每个视点对应的场景深度范围数据。
S430,基于视点位置以及多个像素中目标像素的像素位置在场景深度范围数据中确定目标像素对应的采样点。
S440,基于采样点对神经网络进行训练,得到训练完成的图像预测模型。
在一些实施例中,基于采样点对神经网络进行训练可以包括将采样点的位置坐标以及观察方向输入神经网络,其中观察方向为以视点以及目标像素延伸方向确定的观察方向。
在一些实施例中,基于采样点对神经网络进行训练,得到训练完成的图像预测模型,包括:
基于每张图像的图像参数确定每张图像中每个像素对应的深度值下界数据;
基于采样点对神经网络进行训练,得到训练完成的图像预测模型,深度值下界数据用于构建图像预测模型对应的损失函数。
基于深度值下界数据构建损失函数可以使得得到的深度值下界数据在图像预测模型的训练过程中,对图像预测模型的训练进行约束。
S450,基于采样点以及训练完成的图像预测模型确定目标像素对应的颜色以及深度数据。
本公开的实施例所提供的虚拟图像合成方法,获取不同视点位置中每个视点位置对应的图像以及图像对应的图像参数,基于图像参数确定每个视点对应的场景深度范围数据,基于视点位置以及多个像素中目标像素的像素位置在场景深度范围数据中确定目标像素对应的采样点,基于采样点 以及训练完成的图像预测模型确定目标像素对应的颜色以及深度数据。提高了渲染的准确度,使得合成的图像真实度较高。
图5示出了本公开实施例中又一种虚拟图像合成方法流程示意图。
如图5所示,虚拟图像合成方法可以包括:
S510,基于平面扫描多视图立体匹配算法确定每个像素对应的多个深度值。
在一些实施例中,可以基于像素深度的倒数线性地对空间进行平行于带估计像素深度视点成像平面的扫描平面划分,构建一个多层的匹配代价体结构,即图像的每个像素点均有多个可以选择的像素深度值。
S520,基于第一预设公式在多个深度值中确定最优深度值。
在一些实施例中,第一预设公式可以为:
其中,/>,/>为像素位置数据,/>为多个深度值中的任意一个深度值,/>、/>为权重系数,/>为/>对应的像素的颜色数据,/>为、/>对应的像素的颜色数据,/>为/>对应的像素的深度值,/>为/>对应的像素的深度值,/>、/>、/>、/>、/>均为常数,/>为视点,/>对应的像素根据深度值/>投影至视点/>对应的图像/>中的像素点/>产生的匹配误差数据,/>和/>分别表示像素/>和像素/>处的图像梯度,/>和/>为常数。
在一些实施例中,可以将多个深度值代入以上公式,当最小时,将对应以上最小值的深度值确定为中最优深度值。
S530,基于每个像素对应的最优深度值确定图像对应的深度图像。
在一些实施例中,在得到图像中每个像素对应的最优深度值之后,可以将图像中的每个像素的深度值确定为最优深度值,然后得到对应的深度图像。
S540,基于几何一致性检验算法对图像对应的深度图像进行过滤,得到过滤后图像的像素点对应的目标深度值。
在一些实施例中,深度图像中的像素的深度值为第一深度值,位置为第一位置。可以将深度图像中每个像素基于图像参数以及其对应的第一深度值投影到第一视点对应的第二位置,得到当前像素在第一视点中的第二深度值,然后基于上述第二位置以及第二深度值以及图像参数将像素重投影至原视点位置得到第三位置,以及第三深度值,在第三位置与像素点的第一位置的差值满足第三预设阈值,第三深度值与第一深度值的差值满足第四预设阈值的情况下可以确定当前像素在第一视点与原视点的深度值具有一致性,在存在至少三个视点与原视点存在一致性的情况下,确定原像素点的第一位置以及第一深度值是可靠的。第一深度值即为目标深度值,在第一深度值不满足以上条件的情况下,将第一深度值筛除。
S550,基于图像的颜色数据将图像划分为目标区域。
S560,将目标区域内像素点对应的目标深度值的数量大于第一预设阈值的目标区域确定为可靠目标区域,小于第一预设阈值的目标区域确定为不可靠目标区域。
在一些实施例中,可以存在多个目标区域,不同目标区域内的像素点可以不同。
S570,将可靠目标区域内大于并且与第一预设阈值最接近的目标深度值与预设偏移量的差值确定为可靠目标区域内全部像素的深度值下界数据。
在一些实施例中,可以将可靠目标区域内目标深度值大于第一预设阈值的像素按照目标深度值进行排序,然后得到最小的目标深度值,将最小的目标深度值确定为深度值下界数据。
S580,基于不可靠目标区域相似的多个可靠目标区域中最低的深度值下界数据确定为不可靠目标区域的深度值下界数据。
在一些实施例中,可以获取与不可靠目标区域相似的多个可靠目标区域,可以将多个可靠目标区域进行排序,得到多个可靠目标区域内目标深度最低的可靠目标区域,然后将最低的可靠目标区域与预设偏移量的差值确定为不可靠目标区域内全部像素的深度值下界数据。
本公开的实施例所提供的虚拟图像合成方法,获取不同视点位置中每个视点位置对应的图像以及图像对应的图像参数,基于图像参数确定每个视点对应的场景深度范围数据,基于视点位置以及多个像素中目标像素的像素位置在场景深度范围数据中确定目标像素对应的采样点,基于采样点 以及训练完成的图像预测模型确定目标像素对应的颜色以及深度数据。提高了渲染的准确度,使得合成的图像真实度较高。
图6示出了本公开实施例中又一种虚拟图像合成方法流程示意图。
如图6所示,虚拟图像合成方法可以包括:
S610,确定不可靠目标区域与可靠目标区域之间的路径,路径包括连线,连线为以相邻的目标区域为节点构建的连线。
在一些实施例中,上述路径可以为任意的不可靠目标区域与可靠目标区域之间的总连线,总连线可以为多个连线的总和,每个连线为任意两个相邻目标区域之间的连线。
图7示出了本公开实施例中一种路径示意图。
其中,每个点为目标区域的中心,虚线为目标区域之间的连线,路径为连续的虚线。以实线分割的每个区域均为目标区域。
S620,基于不可靠目标区域相邻的可靠目标区域的颜色直方图的横坐标数据确定连线的权重值。
在一些实施例中,可以分别确定每个目标区域的颜色直方图,然后将颜色直方图的X方向的平方值作为该连线的权重值。
S630,基于相邻目标区域分别对应的颜色直方图的横坐标数据确定相邻目标区域之间连线的权重值。
S640,基于路径上每段连线的权重值确定路径的权重值。
在一些实施例中,任意不相邻的两个目标区域之间可以存在多条路径,在确定多条路径之后,可以在多条路径中确定最短路径,然后将最短路径的权重值定义路径两端的目标区域的相似性。
S650,将权重值大于第二预设阈值的路径一端的可靠目标区域确定为路径另一端的不可靠目标区域的相似可靠目标区域。
在一些实施例中,可以确定不可靠目标区域与每个可靠目标区域的相似值,然后基于上述多个相似值按照从大到小进行排序,将排序位于第四位的相似值确定为第二预设阈值。
本公开的实施例所提供的虚拟图像合成方法,获取不同视点位置中每个视点位置对应的图像以及图像对应的图像参数,基于图像参数确定每个视点对应的场景深度范围数据,基于视点位置以及多个像素中目标像素的像素位置在场景深度范围数据中确定目标像素对应的采样点,基于采样点 以及训练完成的图像预测模型确定目标像素对应的颜色以及深度数据。提高了渲染的准确度,使得合成的图像真实度较高。
图8示出了本公开实施例中又一种虚拟图像合成方法流程示意图。
如图8所示,虚拟图像合成方法可以包括:
S810,获取不同视点位置中每个视点位置对应的图像以及图像对应的图像参数;
S820,基于图像参数确定每个视点对应的场景深度范围数据;
S830,基于视点位置与多个像素中目标像素的像素位置确定目标像素对应的成像光线。
在一些实施例中,目标像素为多个像素中的任意一个像素。
在一些实施例中,可以以视点位置为起点,以目标像素为射线上的另一点确定成像光线。
S840,基于成像光线以及场景深度范围数据确定目标像素对应的采样点。
在一些实施例中,可以将成像光线在场景深度范围数据内进行采样得到多个采样点。
在一些实施例中,采样点可以为离散采样点。
S850,基于采样点以及训练完成的图像预测模型确定目标像素对应的颜色以及深度数据。
本公开的实施例所提供的虚拟图像合成方法,获取不同视点位置中每个视点位置对应的图像以及图像对应的图像参数,基于图像参数确定每个视点对应的场景深度范围数据,基于视点位置以及多个像素中目标像素的像素位置在场景深度范围数据中确定目标像素对应的采样点,基于采样点 以及训练完成的图像预测模型确定目标像素对应的颜色以及深度数据。提高了渲染的准确度,使得合成的图像真实度较高。
图9示出了本公开实施例中又一种虚拟图像合成方法流程示意图。
如图9所示,虚拟图像合成方法可以包括:
S910,获取不同视点位置中每个视点位置对应的图像以及图像对应的图像参数。
S920,基于图像参数确定每个视点对应的场景深度范围数据。
S930,基于视点位置以及多个像素中目标像素的像素位置在场景深度范围数据中确定目标像素对应的采样点。
S940,基于训练完成的图像预测模型确定采样点的体密度数据以及颜色数据。
S950,基于第二预设公式、采样点的体密度数据以及颜色数据确定目标像素对应的颜色以及深度数据。
在一些实施例中,第二预设公式包括:
/>其中,/>为目标像素的颜色数据,/>为第/>个采样点,为第/>个采样点,/>为相邻采样点之间的距离,/>为第/>个采样点的体密度,/>为第/>个采样点的颜色数据,/>为第/>个采样点,/>为第/>个采样点,为为第/>个采样点的体密度,D为目标像素的深度数据。
在一些实施例中,图像预测模型可以为8层的模型,每层包括256个感知节点。
本公开的实施例所提供的虚拟图像合成方法,获取不同视点位置中每个视点位置对应的图像以及图像对应的图像参数,基于图像参数确定每个视点对应的场景深度范围数据,基于视点位置以及多个像素中目标像素的像素位置在场景深度范围数据中确定目标像素对应的采样点,基于采样点 以及训练完成的图像预测模型确定目标像素对应的颜色以及深度数据。提高了渲染的准确度,使得合成的图像真实度较高。
基于同一发明构思,本公开实施例中还提供了一种虚拟图像合成装置,如下面的实施例。由于该装置实施例解决问题的原理与上述方法实施例相似,因此该装置实施例的实施可以参见上述方法实施例的实施,重复之处不再赘述。
图10示出了本公开实施例中一种虚拟图像合成装置示意图。
如图10所示,虚拟图像合成装置1000可以包括:
获取模块1010,用于获取不同视点位置中每个视点位置对应的图像以及图像对应的图像参数;
第一确定模块1020,用于基于图像参数确定每个视点对应的场景深度范围数据;
第二确定模块1030,用于基于视点位置以及多个像素中目标像素的像素位置在场景深度范围数据中确定目标像素对应的采样点;
第三确定模块1040,用于基于采样点以及训练完成的图像预测模型确定目标像素对应的颜色以及深度数据。
本公开的实施例所提供的虚拟图像合成装置,获取不同视点位置中每个视点位置对应的图像以及图像对应的图像参数,基于图像参数确定每个视点对应的场景深度范围数据,基于视点位置以及多个像素中目标像素的像素位置在场景深度范围数据中确定目标像素对应的采样点,基于采样点 以及训练完成的图像预测模型确定目标像素对应的颜色以及深度数据。提高了渲染的准确度,使得合成的图像真实度较高。
在本公开的一个实施例中,获取模块,包括:
获取单元,用于获取不同视点位置中每个视点位置对应的图像。
处理单元,用于基于运动恢复结构算法对图像进行处理,得到每个图像对应的图像参数。
在本公开的一个实施例中,装置还包括:
训练模块,在基于采样点以及训练完成的图像预测模型对目标像素的颜色以及深度数据进行预测,得到目标像素对应的颜色以及深度数据之前,用于基于采样点对神经网络进行训练,得到训练完成的图像预测模型。
在本公开的一个实施例中,训练模块还包括:
第一确定单元,用于基于每张图像的图像参数确定每张图像中每个像素对应的深度值下界数据;
训练单元,用于基于采样点对神经网络进行训练,得到训练完成的图像预测模型,深度值下界数据用于构建图像预测模型对应的损失函数。
在本公开的一个实施例中,第一确定单元,包括:
第一确定子单元,用于基于平面扫描多视图立体匹配算法确定每个像素对应的多个深度值;
第二确定子单元,基于第一预设公式在多个深度值中确定最优深度值;
第三确定子单元,基于每个像素对应的最优深度值确定图像对应的深度图像;
过滤子单元,用于基于几何一致性检验算法对图像对应的深度图像进行过滤,得到过滤后图像的像素点对应的目标深度值;
划分子单元,用于基于图像的颜色数据将图像划分为目标区域;
第四确定子单元,用于将目标区域内像素点对应的目标深度值的数量大于第一预设阈值的目标区域确定为可靠目标区域,小于第一预设阈值的目标区域确定为不可靠目标区域;
第五确定子单元,将可靠目标区域内大于并且与第一预设阈值最接近的目标深度值与预设偏移量的差值确定为可靠目标区域内全部像素的深度值下界数据;
第六确定子单元,基于不可靠目标区域相似的多个可靠目标区域中最低的深度值下界数据确定为不可靠目标区域的深度值下界数据。
在本公开的一个实施例中,第一预设公式为:
其中,/>,/>为像素位置数据,/>为多个深度值中的任意一个深度值,/>、/>为权重系数,/>为/>对应的像素的颜色数据,/>为、/>对应的像素的颜色数据,/>为/>对应的像素的深度值,/>为/>对应的像素的深度值,/>、/>、/>、/>、/>均为常数,/>为视点,/>对应的像素根据深度值/>投影至视点/>对应的图像/>中的像素点/>产生的匹配误差数据,/>和/>分别表示像素/>和像素/>处的图像梯度,/>和/>为常数。
在本公开的一个实施例中,训练模块,还包括:
第二确定单元,用于确定不可靠目标区域与可靠目标区域之间的路径,路径包括连线,连线为以相邻的目标区域为节点构建的连线;
第三确定单元,用于基于不可靠目标区域相邻的可靠目标区域的颜色直方图的横坐标数据确定连线的权重值;
第四确定单元,用于基于相邻目标区域分别对应的颜色直方图的横坐标数据确定相邻目标区域之间连线的权重值;
第五确定单元,用于基于路径上每段连线的权重值确定路径的权重值;
第六确定单元,用于将权重值大于第二预设阈值的路径一端的可靠目标区域确定为路径另一端的不可靠目标区域的相似可靠目标区域。
在本公开的一个实施例中,第二确定模块,包括:
第七确定单元,用于基于视点位置与多个像素中目标像素的像素位置确定目标像素对应的成像光线;
第八确定单元,用于基于成像光线以及场景深度范围数据确定目标像素对应的采样点。
在本公开的一个实施例中,第三确定模块,包括:
第九确定单元,用于基于训练完成的图像预测模型确定采样点的体密度数据以及颜色数据;
第十确定单元,用于基于第二预设公式、采样点的体密度数据以及颜色数据确定目标像素对应的颜色以及深度数据。
在本公开的一个实施例中,第二预设公式包括:
其中,/>为目标像素的颜色数据,/>为第/>个采样点,为第/>个采样点,/>为相邻采样点之间的距离,/>为第/>个采样点的体密度,/>为第/>个采样点的颜色数据,/>为第/>个采样点,/>为第/>个采样点,为为第/>个采样点的体密度,D为目标像素的深度数据。
本公开的实施例所提供的虚拟图像合成装置,获取不同视点位置中每个视点位置对应的图像以及图像对应的图像参数,基于图像参数确定每个视点对应的场景深度范围数据,基于视点位置以及多个像素中目标像素的像素位置在场景深度范围数据中确定目标像素对应的采样点,基于采样点 以及训练完成的图像预测模型确定目标像素对应的颜色以及深度数据。提高了渲染的准确度,使得合成的图像真实度较高。
所属技术领域的技术人员能够理解,本公开的各个方面可以实现为系统、方法或程序产品。因此,本公开的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
下面参照图11来描述根据本公开的这种实施方式的电子设备1100。图11显示的电子设备1100仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图11所示,电子设备1100以通用计算设备的形式表现。电子设备1100的组件可以包括但不限于:上述至少一个处理单元1110、上述至少一个存储单元1120、连接不同系统组件(包括存储单元1120和处理单元1110)的总线1130。
其中,存储单元存储有程序代码,程序代码可以被处理单元1110执行,使得处理单元1110执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。例如,处理单元1110可以执行上述方法实施例的如下步骤:
获取不同视点位置中每个视点位置对应的图像以及图像对应的图像参数;
基于图像参数确定每个视点对应的场景深度范围数据;
基于视点位置以及多个像素中目标像素的像素位置在场景深度范围数据中确定目标像素对应的采样点;
基于采样点以及训练完成的图像预测模型确定目标像素对应的颜色以及深度数据。
存储单元1120可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)11201和/或高速缓存存储单元11202,还可以进一步包括只读存储单元(ROM)11203。
存储单元1120还可以包括具有一组(至少一个)程序模块11205的程序/实用工具11204,这样的程序模块11205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线1130可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备1100也可以与一个或多个外部设备1140(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备1100交互的设备通信,和/或与使得该电子设备1100能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口1150进行。并且,电子设备1100还可以通过网络适配器1160与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器1160通过总线1130与电子设备1100的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备1100使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
在本公开的示例性实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质可以是可读信号介质或者可读存储介质。其上存储有能够实现本公开上述方法的程序产品。在一些可能的实施方式中,本公开的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当程序产品在终端设备上运行时,程序代码用于使终端设备执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。
本公开中的计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
在本公开中,计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可选地,计算机可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
在具体实施时,可以以一种或多种程序设计语言的任意组合来编写用于执行本公开操作的程序代码,程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
此外,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
通过以上实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、移动终端、或者网络设备等)执行根据本公开实施方式的方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本公开旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由所附的权利要求指出。

Claims (13)

1.一种虚拟图像合成方法,其特征在于,包括:
获取不同视点位置中每个视点位置对应的图像以及图像对应的图像参数;
基于所述图像参数确定每个视点对应的场景深度范围数据;
基于视点位置以及多个像素中目标像素的像素位置在所述场景深度范围数据中确定所述目标像素对应的采样点;
基于所述采样点以及训练完成的图像预测模型确定目标像素对应的颜色以及深度数据,所述图像预测模型对应的损失函数为深度值下界数据构建的,其中,确定深度值下界数据的方法包括:基于图像的颜色数据将图像划分为目标区域;
将目标区域内像素点对应的目标深度值的数量大于第一预设阈值的目标区域确定为可靠目标区域,小于第一预设阈值的目标区域确定为不可靠目标区域;
将可靠目标区域内大于并且与第一预设阈值最接近的目标深度值与预设偏移量的差值确定为可靠目标区域内全部像素的深度值下界数据;
基于不可靠目标区域相似的多个可靠目标区域中最低的深度值下界数据确定为不可靠目标区域的深度值下界数据。
2.根据权利要求1所述的虚拟图像合成方法,其特征在于,所述获取不同视点位置中每个视点位置对应的图像以及图像对应的图像参数,包括:
获取不同视点位置中每个视点位置对应的图像;
基于运动恢复结构算法对所述图像进行处理,得到每个图像对应的图像参数。
3.根据权利要求1所述的虚拟图像合成方法,其特征在于,在基于所述采样点以及训练完成的图像预测模型对目标像素的颜色以及深度数据进行预测,得到目标像素对应的颜色以及深度数据之前,所述方法还包括:
基于所述采样点对神经网络进行训练,得到训练完成的图像预测模型。
4.根据权利要求3所述的虚拟图像合成方法,其特征在于,基于所述采样点对神经网络进行训练,得到训练完成的图像预测模型,包括:
基于每张图像的图像参数确定每张图像中每个像素对应的深度值下界数据;
基于采样点对所述神经网络进行训练,得到训练完成的图像预测模型。
5.根据权利要求4所述的虚拟图像合成方法,其特征在于,所述方法还包括:
基于平面扫描多视图立体匹配算法确定每个像素对应的多个深度值;
基于第一预设公式在多个深度值中确定最优深度值;
基于每个像素对应的最优深度值确定图像对应的深度图像;
基于几何一致性检验算法对图像对应的深度图像进行过滤,得到过滤后图像的像素点对应的目标深度值。
6.根据权利要求5所述的虚拟图像合成方法,其特征在于,所述第一预设公式为:
其中,/>,/>为像素位置数据,/>为多个深度值中的任意一个深度值,/>、/>为权重系数,/>为/>对应的像素的颜色数据,/>为/>对应的像素的颜色数据,/>为/>对应的像素的深度值,为/>对应的像素的深度值,/>、/>、/>、/>、/>均为常数,/>为视点,/>为/>对应的像素根据深度值/>投影至视点/>对应的图像/>中的像素点/>产生的匹配误差数据,和/>分别表示像素/>和像素/>处的图像梯度,/>和/>为常数。
7.根据权利要求5所述的虚拟图像合成方法,其特征在于,在所述基于与不可靠目标区域相似的多个可靠目标区域中最低的深度值下界数据确定为不可靠目标区域的深度值下界数据之前,所述方法还包括:
确定不可靠目标区域与可靠目标区域之间的路径,所述路径包括连线,所述连线为以相邻的目标区域为节点构建的连线;
基于不可靠目标区域相邻的可靠目标区域的颜色直方图的横坐标数据确定所述连线的权重值;
基于相邻目标区域分别对应的颜色直方图的横坐标数据确定相邻目标区域之间连线的权重值;
基于所述路径上每段连线的权重值确定所述路径的权重值;
将权重值大于第二预设阈值的路径一端的可靠目标区域确定为路径另一端的不可靠目标区域的相似可靠目标区域。
8.根据权利要求1所述的虚拟图像合成方法,其特征在于,所述基于视点位置以及多个像素中目标像素的像素位置在所述场景深度范围数据中确定所述目标像素对应的采样点,包括:
基于视点位置与多个像素中目标像素的像素位置确定目标像素对应的成像光线;
基于所述成像光线以及所述场景深度范围数据确定所述目标像素对应的采样点。
9.根据权利要求1所述的虚拟图像合成方法,其特征在于,所述基于所述采样点以及训练完成的图像预测模型确定目标像素对应的颜色以及深度数据,包括:
基于所述训练完成的图像预测模型确定所述采样点的体密度数据以及颜色数据;
基于第二预设公式、所述采样点的体密度数据以及颜色数据确定目标像素对应的颜色以及深度数据。
10.根据权利要求9所述的虚拟图像合成方法,其特征在于,所述第二预设公式包括:
其中,/>为目标像素的颜色数据,/>为第/>个采样点,为第/>个采样点,/>为相邻采样点之间的距离,/>为第/>个采样点的体密度,/>为第/>个采样点的颜色数据,/>为第/>个采样点,/>为第/>个采样点,为为/>第个采样点的体密度,D为目标像素的深度数据。
11.一种虚拟图像合成装置,其特征在于,包括:
获取模块,用于获取不同视点位置中每个视点位置对应的图像以及图像对应的图像参数;
第一确定模块,用于基于所述图像参数确定每个视点对应的场景深度范围数据;
第二确定模块,用于基于视点位置以及多个像素中目标像素的像素位置在所述场景深度范围数据中确定所述目标像素对应的采样点;
第三确定模块,用于基于所述采样点以及训练完成的图像预测模型确定目标像素对应的颜色以及深度数据,所述图像预测模型对应的损失函数为深度值下界数据构建的,其中,确定深度值下界数据的方法包括:基于图像的颜色数据将图像划分为目标区域;
将目标区域内像素点对应的目标深度值的数量大于第一预设阈值的目标区域确定为可靠目标区域,小于第一预设阈值的目标区域确定为不可靠目标区域;
将可靠目标区域内大于并且与第一预设阈值最接近的目标深度值与预设偏移量的差值确定为可靠目标区域内全部像素的深度值下界数据;
基于不可靠目标区域相似的多个可靠目标区域中最低的深度值下界数据确定为不可靠目标区域的深度值下界数据。
12. 一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求 1~10中任意一项所述虚拟图像合成方法。
13. 一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求 1~10中任意一项所述虚拟图像合成方法。
CN202310792410.3A 2023-06-30 2023-06-30 虚拟图像合成方法、装置、设备及存储介质 Active CN116567194B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310792410.3A CN116567194B (zh) 2023-06-30 2023-06-30 虚拟图像合成方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310792410.3A CN116567194B (zh) 2023-06-30 2023-06-30 虚拟图像合成方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN116567194A CN116567194A (zh) 2023-08-08
CN116567194B true CN116567194B (zh) 2023-12-12

Family

ID=87486419

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310792410.3A Active CN116567194B (zh) 2023-06-30 2023-06-30 虚拟图像合成方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN116567194B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110009720A (zh) * 2019-04-02 2019-07-12 百度在线网络技术(北京)有限公司 Ar场景中的图像处理方法、装置、电子设备及存储介质
CN112001422A (zh) * 2020-07-28 2020-11-27 南京航空航天大学 一种基于深度贝叶斯学习的图像标记估计方法
CN115375884A (zh) * 2022-08-03 2022-11-22 北京微视威信息科技有限公司 自由视点合成的模型生成方法、图像绘制方法及电子设备
CN115690382A (zh) * 2022-12-27 2023-02-03 北京百度网讯科技有限公司 深度学习模型的训练方法、生成全景图的方法和装置
CN115880435A (zh) * 2022-12-21 2023-03-31 北京百度网讯科技有限公司 图像重建方法、模型训练方法、装置、电子设备和介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4191538A1 (en) * 2021-12-03 2023-06-07 Casser, Vincent Michael Large scene neural view synthesis

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110009720A (zh) * 2019-04-02 2019-07-12 百度在线网络技术(北京)有限公司 Ar场景中的图像处理方法、装置、电子设备及存储介质
CN112001422A (zh) * 2020-07-28 2020-11-27 南京航空航天大学 一种基于深度贝叶斯学习的图像标记估计方法
CN115375884A (zh) * 2022-08-03 2022-11-22 北京微视威信息科技有限公司 自由视点合成的模型生成方法、图像绘制方法及电子设备
CN115880435A (zh) * 2022-12-21 2023-03-31 北京百度网讯科技有限公司 图像重建方法、模型训练方法、装置、电子设备和介质
CN115690382A (zh) * 2022-12-27 2023-02-03 北京百度网讯科技有限公司 深度学习模型的训练方法、生成全景图的方法和装置

Also Published As

Publication number Publication date
CN116567194A (zh) 2023-08-08

Similar Documents

Publication Publication Date Title
US20200349682A1 (en) Video enhancement using a generator with filters of generative adversarial network
WO2019001006A1 (zh) 一种图像数据的编码、解码方法及装置
WO2020228405A1 (zh) 图像处理方法、装置及电子设备
US11210769B2 (en) Video enhancement using a recurrent image date of a neural network
CN113870104A (zh) 超分辨率图像重建
US11741582B1 (en) Video enhancement using a neural network
US20220261961A1 (en) Method and device, electronic equipment, and storage medium
US11122332B2 (en) Selective video watching by analyzing user behavior and video content
EP4120181A2 (en) Method and apparatus of fusing image, and method of training image fusion model
CN111325792A (zh) 用于确定相机位姿的方法、装置、设备和介质
CN110211017B (zh) 图像处理方法、装置及电子设备
CN112463391B (zh) 内存控制方法、内存控制装置、存储介质与电子设备
CN114071190A (zh) 云应用视频流处理方法、相关装置及计算机程序产品
CN116567194B (zh) 虚拟图像合成方法、装置、设备及存储介质
US10616559B1 (en) Virtual stereo device redirection for virtual desktops
WO2023138468A1 (zh) 虚拟物体的生成方法、装置、设备及存储介质
US20220303530A1 (en) Geometric cross-component filtering
CN112052863B (zh) 一种图像检测方法及装置、计算机存储介质、电子设备
CN112164066B (zh) 一种遥感图像分层分割方法、装置、终端及存储介质
CN111652831B (zh) 对象融合方法、装置、计算机可读存储介质及电子设备
CN113537194A (zh) 光照估计方法、光照估计装置、存储介质与电子设备
CN111626919B (zh) 图像合成方法、装置、电子设备及计算机可读存储介质
JP7423130B2 (ja) ビデオデータをノイズ除去するためのシステム、コーディング方法、およびコンピュータプログラム
CN112911186B (zh) 图像存储方法及装置、电子设备、存储介质
CN114727132B (zh) 清晰度地址的获取方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant