CN116245995A - 一种图像渲染方法、装置及设备 - Google Patents
一种图像渲染方法、装置及设备 Download PDFInfo
- Publication number
- CN116245995A CN116245995A CN202310233699.5A CN202310233699A CN116245995A CN 116245995 A CN116245995 A CN 116245995A CN 202310233699 A CN202310233699 A CN 202310233699A CN 116245995 A CN116245995 A CN 116245995A
- Authority
- CN
- China
- Prior art keywords
- image
- information
- model
- image data
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000009877 rendering Methods 0.000 title claims abstract description 67
- 238000000034 method Methods 0.000 title claims abstract description 56
- 238000012549 training Methods 0.000 claims abstract description 29
- 238000005286 illumination Methods 0.000 claims description 66
- 230000000007 visual effect Effects 0.000 claims description 24
- 238000013528 artificial neural network Methods 0.000 description 19
- 238000004891 communication Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 238000004590 computer program Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000013079 data visualisation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Computer Graphics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Generation (AREA)
Abstract
本公开提供了一种图像渲染方法、装置及设备,所述方法包括:确定第一视角信息,根据第一视角信息和第一模型确定第一图像数据,显示第一图像数据对应的第一图像,根据第一视角信息和第二模型确定第二图像数据,显示第二图像数据对应的第二图像。其中,第一模型通过训练数据对初始模型进行训练得到,第二模型通过网格数据记录三维图像信息。
Description
技术领域
本公开涉及图像处理技术领域,尤其涉及一种图像渲染方法、装置及设备。
背景技术
3D图像渲染技术是游戏和自动驾驶等多个领域均需要使用的技术。然而,通过单一模型对3D图像进行渲染,在一些特定场景下,渲染效率低。
发明内容
本公开提供了一种图像渲染方法、装置及设备,以至少解决现有技术中存在的以上技术问题。
根据本公开的第一方面,提供了一种图像渲染方法,所述方法包括:
确定第一视角信息;
根据所述第一视角信息和第一模型确定第一图像数据,所述第一模型通过训练数据对初始模型进行训练得到,所述训练数据包括多个二维图像以及每个所述二维图像对应的视角信息;
显示所述第一图像数据对应的第一图像;
根据所述第一视角信息和第二模型确定第二图像数据,所述第二模型通过网格数据记录三维图像信息;
显示所述第二图像数据对应的第二图像。
在一可实施方式中,所述方法还包括:
将所述第一模型对应的第一坐标系与所述第二模型对应的第二坐标系进行对齐,所述第一坐标系用于确定所述第一图像的显示位置,所述第二坐标系用于确定所述第二图像的显示位置,所述第一图像的显示范围与所述第二图像的显示范围至少部分重叠。
在一可实施方式中,所述将所述第一模型对应的第一坐标系与所述第二模型对应的第二坐标系进行对齐,包括:
根据所述第一模型的输出数据获得尺度信息;
根据所述尺度信息将所述第一坐标系和所述第二坐标系进行对齐。
在一可实施方式中,所述方法还包括:
获取所述第一模型基于所述第一视角信息输出的深度图,所述深度图中记录有所述第一图像数据对应的深度信息,所述深度图用于确定所述第一图像数据和所述第二图像数据的显示遮挡关系。
在一可实施方式中,所述方法还包括:
在所述第一图像数据和所述第二图像数据对应的显示重叠区域,根据所述深度图中的深度信息和所述第二模型中记录的三维图像信息,确定所述重叠区域中的显示内容,所述显示内容为所述第一图像数据中的内容或第二图像数据中的内容。
在一可实施方式中,所述第一模型中记录有多个第一像素点的第一光照信息,所述方法还包括:
根据所述第一光照信息确定所述第二图像数据中各第二像素点对应的第二光照信息,所述第一光照信息用于所述第一图像的显示,所述第二光照信息用于所述第二图像的显示。
在一可实施方式中,所述第二图像数据中包括所述第二像素点对应的第一颜色信息,所述显示所述第二图像数据对应的第二图像,包括:
根据所述第一颜色信息和所述第二光照信息显示所述第二图像。
在一可实施方式中,所述第二光照信息中包括光照方向信息和光照强度信息,所述根据所述第一颜色信息和所述第二光照信息显示所述第二图像,包括:
获取所述第二像素点相对于所述网格数据的法线信息;
根据所述法线信息、所述光照方向信息、所述光照强度信息和所述第一颜色信息显示所述第二图像。
根据本公开的第二方面,提供了一种图像渲染装置,所述装置包括:
视角信息确定模块,用于确定第一视角信息;
第一数据确定模块,用于根据所述第一视角信息和第一模型确定第一图像数据,所述第一模型通过训练数据对初始模型进行训练得到,所述训练数据包括多个二维图像以及每个所述二维图像对应的视角信息;
第一图像显示模块,用于显示所述第一图像数据对应的第一图像;
第二数据确定模块,用于根据所述第一视角信息和第二模型确定第二图像数据,所述第二模型通过网格数据记录三维图像信息;
第二图像显示模块,用于显示所述第二图像数据对应的第二图像。
根据本公开的第三方面,提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本公开所述的方法。
根据本公开的第四方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行本公开所述的方法。
本公开的图像渲染方法、装置、设备及介质,通过确定第一视角信息,根据第一视角信息和第一模型确定第一图像数据,显示第一图像数据对应的第一图像,根据第一视角信息和第二模型确定第二图像数据,显示第二图像数据对应的第二图像。其中,第一模型通过训练数据对初始模型进行训练得到,第二模型通过网格数据记录三维图像信息,即本公开在对图像进行渲染时结合了基于神经网络的第一模型和基于网格数据的第二模型,使得在进行图像渲染时能够利用第一模型和第二模型更快速精准地确定出渲染区域,提高了渲染效率,同时,由于结合了基于神经网络的第一模型和基于网格数据的第二模型,第一模型在不搭建新的渲染管线的情况下无法渲染的部分可以通过第二模型进行渲染,因此,本公开不需要为基于神经网络的第一模型搭建新的渲染管线,相比仅采用NERF渲染方法本公开在提升图像渲染效率的同时也降低了渲染资源消耗。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
通过参考附图阅读下文的详细描述,本公开示例性实施方式的上述以及其他目的、特征和优点将变得易于理解。在附图中,以示例性而非限制性的方式示出了本公开的若干实施方式,其中:
在附图中,相同或对应的标号表示相同或对应的部分。
图1示出了本公开实施例提供的图像渲染方法的一种流程示意图;
图2示出了本公开实施例提供的一种坐标对齐流程示意图;
图3示出了本公开实施例提供的一种图像数据可视化示意图;
图4示出了本公开实施例提供的一种显示折叠示意图;
图5示出了本公开实施例提供的图像渲染装置的一种结构示意图;
图6示出了本公开实施例一种电子设备的组成结构示意图。
具体实施方式
为使本公开的目的、特征、优点能够更加的明显和易懂,下面将结合本公开实施例中的附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本公开一部分实施例,而非全部实施例。基于本公开中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本公开保护的范围。
由于通过单一模型对3D图像进行渲染,在一些特定场景下,渲染效率低,这增加了实现图像渲染所消耗的渲染资源。因此,为了在提升图像渲染效率的同时降低渲染资源消耗,本公开提供了一种图像渲染方法、装置及设备。本公开提供的图像渲染方法可以应用于任何可以进行图像处理的电子设备,包括不限于电脑、手机和ipad等。
下面将结合本公开实施例中的附图,对本公开实施例的技术方案进行描述。
图1示出了本公开实施例提供的图像渲染方法的一种流程示意图,如图1所示,所述方法包括:
S101,确定第一视角信息。
第一视角信息是指针对已构建的待渲染3D图像的观测角度。本公开中,可以将针对已构建的待渲染3D图像的任意观测角度确定为第一视角信息。
S102,根据所述第一视角信息和第一模型确定第一图像数据。
所述第一模型通过训练数据对初始模型进行训练得到,所述训练数据包括多个二维图像以及每个所述二维图像对应的视角信息。
在一可实施方式中,二维图像是以二维图像对应的视角信息对样本对象所采集的图像。样本对象可以为人物、动物或包含桌子等物体的场景等,则第一模型的训练流程包括步骤A1-A4:
步骤A1,将样本对象对应的3D图像和该3D图像对应的各个视角下光束信息输入待训练神经网络,得到该3D图像对应的各个视角下的预测渲染图像。
其中,每个视角下光束信息包括:该视角下3D图像映射出的二维图像中各个像素点的分辨率、光束起点、光束方向和像素坐标。
本步骤可以根据每个视角下3D图像中各个像素点的分辨率、光束起点、光束方向和像素坐标,预测出该视角下3D图像映射出的二维图像中各个像素点颜色信息,得到各个视角下的预测渲染图像。
步骤A2,根据样本对象对应的二维图像以及每个所述二维图像对应的视角信息,和各个视角下的预测渲染图像,确定待训练神经网络的损失函数。
具体的,可以根据同一视角下预测渲染图像和二维图像之间的颜色差异,计算对数损失函数或交叉熵损失函数,作为待训练神经网络的损失函数。
步骤A3,如果损失函数收敛,将当前的待训练神经网络确定为所述第一模型。
步骤A4,如果损失函数未收敛,调整待训练神经网络的参数,并返回步骤A1。
本公开中,待训练神经网络可以为NERF(神经网络辐射场)网络,如果待训练神经网络为NERF网络,则训练得到的第一模型为可以进行图像渲染的NERF模型。
在训练得到第一模型后,可以采用第一模型确定出待渲染3D图像在第一视角信息下对应的第一图像数据,例如,待渲染3D图像在第一视角信息下对应的颜色信息和光照信息。
S103,显示所述第一图像数据对应的第一图像。
显示的第一图像即为待渲染3D图像在第一视角信息下对应的完成了渲染的二维图像。
S104,根据所述第一视角信息和第二模型确定第二图像数据。
所述第二模型通过网格数据记录三维图像信息。
本公开中,第二模型可以采用Mesh渲染模型。Mesh模型可以预先对待渲染3D图像进行三角网格划分,待渲染三维图像划分为多个三角网格,并确定出每个三角网格的顶点坐标、法线和纹理信息。然后,针对待渲染3D图像在每个观测视角下投影的图像,根据该图像中每个三角形网格对应的顶点坐标、法线和纹理信息,确定出每个三角形网格中各个像素点的渲染信息。
本步骤中,可以根据第二模型确定的待渲染3D图像在各个视角下图像的渲染信息,确定出第一视角信息下的图像渲染信息,作为第二图像数据。渲染信息可以包括颜色信息和光照信息。
S105,显示所述第二图像数据对应的第二图像。
显示的第二图像即为待渲染3D图像在第一视角信息下对应的完成了渲染的二维图像。
本公开中,确定第一图像数据的步骤和确定第二图像数据的步骤之间不存在必然的执行先后顺序,即S102可以在S104之前执行,S104可以在S102之前执行,S102和S104也可以同时执行。
本公开中,显示第一图像数据对应的第一图像的步骤和显示第二图像数据对应的第二图像的步骤之间不存在必然的执行先后顺序,即若第二图像数据在显示第一图像数据对应的第一图像之前被确定出,则S105可以在S103之前执行或与S103同时执行,若第二图像数据在显示第一图像数据对应的第一图像之后被确定出,则S105可以在S103之后执行。
采用本公开实施例提供的图像渲染方法,通过确定第一视角信息,根据第一视角信息和第一模型确定第一图像数据,显示第一图像数据对应的第一图像,根据第一视角信息和第二模型确定第二图像数据,显示第二图像数据对应的第二图像。其中,第一模型通过训练数据对初始模型进行训练得到,第二模型通过网格数据记录三维图像信息,即本公开在对图像进行渲染时结合了基于神经网络的第一模型和基于网格数据的第二模型,使得在进行图像渲染时能够利用第一模型和第二模型更快速精准地确定出渲染区域,提高了渲染效率,同时,由于结合了基于神经网络的第一模型和基于网格数据的第二模型,第一模型在不搭建新的渲染管线的情况下无法渲染的部分可以通过第二模型进行渲染,因此,本公开不需要为基于神经网络的第一模型搭建新的渲染管线,相比仅采用NERF渲染方法本公开在提升图像渲染效率的同时也降低了渲染资源消耗。
在一可实施方式中,所述图像渲染方法还包括步骤B1:
步骤B1,将所述第一模型对应的第一坐标系与所述第二模型对应的第二坐标系进行对齐。
所述第一坐标系用于确定所述第一图像的显示位置,所述第二坐标系用于确定所述第二图像的显示位置,所述第一图像的显示范围与所述第二图像的显示范围至少部分重叠。
本公开中,为了使得第一图像和第二图像可以显示在同一坐标系中,需要将所述第一模型对应的第一坐标系与所述第二模型对应的第二坐标系进行对齐,实现第一坐标系和第二坐标系的统一。
在一种可能的实现方式中,图2示出了本公开实施例提供的一种坐标对齐流程示意图,如图2所示,所述将所述第一模型对应的第一坐标系与所述第二模型对应的第二坐标系进行对齐,包括:
S201,根据所述第一模型的输出数据获得尺度信息。
S202,根据所述尺度信息将所述第一坐标系和所述第二坐标系进行对齐。
第一模型的输出数据中包括待渲染3D图像对应的各个二维图像的真实尺度,本公开可以显示第二图像之前,根据第一模型输出的真实尺度,将第二模型对应第二坐标系的尺度调整为与该真实尺度一致的尺度,使第一坐标系和第二坐标系实现尺度统一。
在另一种可能的实现方式中,本公开可以针对同一标定图像,分别利用第一模型和第二模型对该标定图像进行渲染,利用第一模型确定出的该标定图像对应的第一渲染后图像和第二模型确定出的该标定图像对应的第二渲染后图像,对第一渲染后图像和第二渲染后图像之间的像素点坐标转换参数,然后根据像素点坐标转换参数将所述第一模型对应的第一坐标系与所述第二模型对应的第二坐标系进行对齐。
在一可实施方式中,所述图像渲染方法还包括步骤C1:
步骤C1,获取所述第一模型基于所述第一视角信息输出的深度图。
所述深度图中记录有所述第一图像数据对应的深度信息,所述深度图用于确定所述第一图像数据和所述第二图像数据的显示遮挡关系。
例如,若第一模型为NERF渲染模型,NERF渲染模型在确定待渲染3D图像每个视角下对应的图像数据时,可以确定出每个视角下的待渲染3D图像的各个像素点相对该视角下的指定位置之间的距离,作为该第一视角对应的深度图。因此,本公开中可以根据第一模型,确定出第一视角信息对应的待渲染3D图像的各个像素点相对第一视角信息下的指定位置之间的距离,作为所述第一模型基于所述第一视角信息输出的深度图。其中,第一视角信息下的指定位置可以为以第一视角信息采集待渲染3D图像的二维图像的相机所处的位置。
本公开中,在确定出所述第一模型基于所述第一视角信息输出的深度图后,且第一坐标系和第二坐标系已对齐的情况下,可以在所述第一图像数据和所述第二图像数据对应的显示重叠区域,根据所述深度图中的深度信息和所述第二模型中记录的三维图像信息,确定所述重叠区域中的显示内容。所述显示内容为所述第一图像数据中的内容或第二图像数据中的内容。
具体的,本公开中,第二模型中记录了待渲染3D图像在各个视角下对应的三角形网格的各个像素点的坐标信息,因此,针对同一视角下所述第一图像数据和所述第二图像数据对应的显示重叠区域中的每个像素点,可以根据深度图中各个像素点相对第一视角信息下的指定位置之间的距离,确定显示重叠区域中的像素点中未被遮挡的像素点,将未被遮挡的像素点确定为显示重叠区域中的显示内容。
图3示出了本公开实施例提供的一种图像数据可视化示意图,如图3所述,NERF模型为第一模型,MESH模型为第二模型,图像301为将第一视角信息下第一模型输出的第一图像数据进行显示后得到的图像,图像302为将第一视角信息下第二模型输出的第二图像数据进行显示后得到的图像,图像301和图像302存在重叠部分。第一模型可以基于第一视角信息输出图像301中各个像素点对应的深度图。第二模型中记录了第一视角信息下的图像302对应的三角形网格的各个像素点的坐标信息,因此,可以将图像301和图像302显示在同一个坐标系下,然后针对图像301和图像302中显示重叠区域,可以根据深度图确定显示重叠区域中的像素点中未被遮挡的像素点,将未被遮挡的像素点确定为显示重叠区域中的显示内容。图4示出了本公开实施例提供的一种显示折叠示意图,如图4所示,图像301和图像302显示在同一坐标系中时,根据第一模型输出的深度度,可以确定出图像301和图像302中显示重叠区域中,图像302中的像素点被遮挡了而图像301中的像素点未被遮挡,因此,可以在重叠区域只显示未被遮挡的图像301中的像素点构成的图像。
在一可实施方式中,所述第一模型中记录有多个第一像素点的第一光照信息,所述图像渲染方法还包括步骤D1:
步骤D1,根据所述第一光照信息确定所述第二图像数据中各第二像素点对应的第二光照信息。
所述第一光照信息用于所述第一图像的显示,所述第二光照信息用于所述第二图像的显示。
第一像素点是第一模型确定的各个视角下待渲染3D图像对应的二维图像的像素点,第二像素点是第二模型确定的各个视角下待渲染3D图像对应的二维图像的像素点。
本步骤中,可以确定出第一像素点与第二像素点中,像素点坐标相同的第一像素点和第二像素点。针对每个第二像素点,如果存在与该第二像素点的像素坐标相同的第一像素点,可以获取该第二像素点所在三角形网格的法线,将与该第二像素点的像素坐标相同的第一像素点的光照信息在该法线方向的投影,确定为该第二像素点对应的第二光照信息;如果不存在与该第二像素点的像素坐标相同的第一像素点,可以获取从第二模型中直接获取该第二像素点对应的第二光照信息。
在一可实施方式中,在所述第一模型中记录有多个第一像素点的第一光照信息的基础上,所述第二图像数据中包括所述第二像素点对应的第一颜色信息,所述显示所述第二图像数据对应的第二图像,包括步骤E1:
步骤E1,根据所述第一颜色信息和所述第二光照信息显示所述第二图像。
本步骤中,可以将第二图像数据中每个第二像素点的第二光照信息作为该第二像素点对应的亮度信息,然后根据亮度信息调整第二像素点对应的第一颜色信息中各个颜色通道的像素值,得到各个第二像素点对应的新像素值,然后按照新像素值显示各个第二像素点构成的第二图像。
本公开中,所述第二光照信息中可以包括光照方向信息和光照强度信息,则所述根据所述第一颜色信息和所述第二光照信息显示所述第二图像的步骤,可以包括步骤F1-F2:
步骤F1,获取所述第二像素点相对于所述网格数据的法线信息。
本公开中,可以将第二像素点所在三角形网格的法线确定为该第二像素点的法线信息。第二模型中记录有每个三角形网格的法线信息。
步骤F2,根据所述法线信息、所述光照方向信息、所述光照强度信息和所述第一颜色信息显示所述第二图像。
本步骤中,可以根据法线信息、光照方向信息和光照强度信息确定出每个第二像素点对应的亮度值。具体的,针对每个第二像素点,可以根据光照方向信息确定出光照强度信息的方向,然后计算光照强度信息在法线信息确定的法线方向的投影大小,得到投影后的光照强度作为该第二像素点的亮度值,例如,可以计算光照强度信息对应的光照强度与法线方向和光照方向构成的夹角的余弦值的乘积,将乘积作为该第二像素点的亮度值。然后根据亮度值调整第二像素点对应的第一颜色信息中各个颜色通道的像素值,得到各个第二像素点对应的新像素值,然后按照新像素值显示各个第二像素点构成的第二图像,显示的第二图像即完成了渲染的图像。
采用本公开实施例提供的图像渲染方法,在进行图像渲染时不仅在提高渲染效率的同时降低了渲染资源消耗,还可以将第二模型在基于神经网络的第一模型场景中进行3D呈现,确定显示的第一图像和第二图像的遮挡关系,实现带有遮挡效果的视角融合。并且第二模型也可以真实反应第一模型场景中的光照效果,无需人工设置虚拟光源,进一步降低了渲染资源消耗。
基于同一发明构思,根据本公开上述实施例提供的图像渲染方法,相应地,本公开另一实施例还提供了一种图像渲染装置,其结构示意图如图5所示,具体包括:
视角信息确定模块501,用于确定第一视角信息;
第一数据确定模块502,用于根据所述第一视角信息和第一模型确定第一图像数据,所述第一模型通过训练数据对初始模型进行训练得到,所述训练数据包括多个二维图像以及每个所述二维图像对应的视角信息;
第一图像显示模块503,用于显示所述第一图像数据对应的第一图像;
第二数据确定模块504,用于根据所述第一视角信息和第二模型确定第二图像数据,所述第二模型通过网格数据记录三维图像信息;
第二图像显示模块505,用于显示所述第二图像数据对应的第二图像。
采用本公开实施例提供的图像渲染装置,通过确定第一视角信息,根据第一视角信息和第一模型确定第一图像数据,显示第一图像数据对应的第一图像,根据第一视角信息和第二模型确定第二图像数据,显示第二图像数据对应的第二图像。其中,第一模型通过训练数据对初始模型进行训练得到,第二模型通过网格数据记录三维图像信息,即本公开在对图像进行渲染时结合了基于神经网络的第一模型和基于网格数据的第二模型,使得在进行图像渲染时能够利用第一模型和第二模型更快速精准地确定出渲染区域,提高了渲染效率,同时,由于结合了基于神经网络的第一模型和基于网格数据的第二模型,第一模型在不搭建新的渲染管线的情况下无法渲染的部分可以通过第二模型进行渲染,因此,本公开不需要为基于神经网络的第一模型搭建新的渲染管线,相比仅采用NERF渲染方法本公开在提升图像渲染效率的同时也降低了渲染资源消耗。
在一可实施方式中,所述装置还包括:
坐标对齐模块(图中未示出),用于将所述第一模型对应的第一坐标系与所述第二模型对应的第二坐标系进行对齐,所述第一坐标系用于确定所述第一图像的显示位置,所述第二坐标系用于确定所述第二图像的显示位置,所述第一图像的显示范围与所述第二图像的显示范围至少部分重叠。
在一可实施方式中,所述坐标对齐模块,具体用于根据所述第一模型的输出数据获得尺度信息;根据所述尺度信息将所述第一坐标系和所述第二坐标系进行对齐。
在一可实施方式中,所述装置还包括:
深度图获取模块(图中未示出),用于获取所述第一模型基于所述第一视角信息输出的深度图,所述深度图中记录有所述第一图像数据对应的深度信息,所述深度图用于确定所述第一图像数据和所述第二图像数据的显示遮挡关系。
在一可实施方式中,所述装置还包括:
重叠区域确定模块(图中未示出),用于在所述第一图像数据和所述第二图像数据对应的显示重叠区域,根据所述深度图中的深度信息和所述第二模型中记录的三维图像信息,确定所述重叠区域中的显示内容,所述显示内容为所述第一图像数据中的内容或第二图像数据中的内容。
在一可实施方式中,所述第一模型中记录有多个第一像素点的第一光照信息,所述装置还包括:
光照信息确定模块(图中未示出),用于根据所述第一光照信息确定所述第二图像数据中各第二像素点对应的第二光照信息,所述第一光照信息用于所述第一图像的显示,所述第二光照信息用于所述第二图像的显示。
在一可实施方式中,所述第二图像数据中包括所述第二像素点对应的第一颜色信息,所述第二图像显示模块505,具体用于根据所述第一颜色信息和所述第二光照信息显示所述第二图像。
在一可实施方式中,所述第二光照信息中包括光照方向信息和光照强度信息,所述第二图像显示模块505,具体用于获取所述第二像素点相对于所述网格数据的法线信息;根据所述法线信息、所述光照方向信息、所述光照强度信息和所述第一颜色信息显示所述第二图像。
采用本公开实施例提供的图像渲染装置,在进行图像渲染时不仅在提高渲染效率的同时降低了渲染资源消耗,还可以将第二模型在基于神经网络的第一模型场景中进行3D呈现,确定显示的第一图像和第二图像的遮挡关系,实现带有遮挡效果的视角融合。并且第二模型也可以真实反应第一模型场景中的光照效果,无需人工设置虚拟光源,进一步降低了渲染资源消耗。
根据本公开的实施例,本公开还提供了一种电子设备和一种可读存储介质。
图6示出了可以用来实施本公开的实施例的示例电子设备600的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图6所示,设备600包括计算单元601,其可以根据存储在只读存储器(ROM)602中的计算机程序或者从存储单元608加载到随机访问存储器(RAM)603中的计算机程序,来执行各种适当的动作和处理。在RAM 603中,还可存储设备600操作所需的各种程序和数据。计算单元601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
设备600中的多个部件连接至I/O接口605,包括:输入单元606,例如键盘、鼠标等;输出单元607,例如各种类型的显示器、扬声器等;存储单元608,例如磁盘、光盘等;以及通信单元609,例如网卡、调制解调器、无线通信收发机等。通信单元609允许设备600通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元601可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元601的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元601执行上文所描述的各个方法和处理,例如图像渲染方法。例如,在一些实施例中,图像渲染方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元608。在一些实施例中,计算机程序的部分或者全部可以经由ROM 602和/或通信单元609而被载入和/或安装到设备600上。当计算机程序加载到RAM 603并由计算单元601执行时,可以执行上文描述的图像渲染方法的一个或多个步骤。备选地,在其他实施例中,计算单元601可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行图像渲染方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或隐含地包括至少一个该特征。在本公开的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
以上所述,仅为本公开的具体实施方式,但本公开的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本公开揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本公开的保护范围之内。因此,本公开的保护范围应以所述权利要求的保护范围为准。
Claims (10)
1.一种图像渲染方法,所述方法包括:
确定第一视角信息;
根据所述第一视角信息和第一模型确定第一图像数据,所述第一模型通过训练数据对初始模型进行训练得到,所述训练数据包括多个二维图像以及每个所述二维图像对应的视角信息;
显示所述第一图像数据对应的第一图像;
根据所述第一视角信息和第二模型确定第二图像数据,所述第二模型通过网格数据记录三维图像信息;
显示所述第二图像数据对应的第二图像。
2.根据权利要求1所述的方法,所述方法还包括:
将所述第一模型对应的第一坐标系与所述第二模型对应的第二坐标系进行对齐,所述第一坐标系用于确定所述第一图像的显示位置,所述第二坐标系用于确定所述第二图像的显示位置,所述第一图像的显示范围与所述第二图像的显示范围至少部分重叠。
3.根据权利要求2所述的方法,所述将所述第一模型对应的第一坐标系与所述第二模型对应的第二坐标系进行对齐,包括:
根据所述第一模型的输出数据获得尺度信息;
根据所述尺度信息将所述第一坐标系和所述第二坐标系进行对齐。
4.根据权利要求1所述的方法,所述方法还包括:
获取所述第一模型基于所述第一视角信息输出的深度图,所述深度图中记录有所述第一图像数据对应的深度信息,所述深度图用于确定所述第一图像数据和所述第二图像数据的显示遮挡关系。
5.根据权利要求4所述的方法,所述方法还包括:
在所述第一图像数据和所述第二图像数据对应的显示重叠区域,根据所述深度图中的深度信息和所述第二模型中记录的三维图像信息,确定所述重叠区域中的显示内容,所述显示内容为所述第一图像数据中的内容或第二图像数据中的内容。
6.根据权利要求1所述的方法,所述第一模型中记录有多个第一像素点的第一光照信息,所述方法还包括:
根据所述第一光照信息确定所述第二图像数据中各第二像素点对应的第二光照信息,所述第一光照信息用于所述第一图像的显示,所述第二光照信息用于所述第二图像的显示。
7.根据权利要求6所述的方法,所述第二图像数据中包括所述第二像素点对应的第一颜色信息,所述显示所述第二图像数据对应的第二图像,包括:
根据所述第一颜色信息和所述第二光照信息显示所述第二图像。
8.根据权利要求7所述的方法,所述第二光照信息中包括光照方向信息和光照强度信息,所述根据所述第一颜色信息和所述第二光照信息显示所述第二图像,包括:
获取所述第二像素点相对于所述网格数据的法线信息;
根据所述法线信息、所述光照方向信息、所述光照强度信息和所述第一颜色信息显示所述第二图像。
9.一种图像渲染装置,所述装置包括:
视角信息确定模块,用于确定第一视角信息;
第一数据确定模块,用于根据所述第一视角信息和第一模型确定第一图像数据,所述第一模型通过训练数据对初始模型进行训练得到,所述训练数据包括多个二维图像以及每个所述二维图像对应的视角信息;
第一图像显示模块,用于显示所述第一图像数据对应的第一图像;
第二数据确定模块,用于根据所述第一视角信息和第二模型确定第二图像数据,所述第二模型通过网格数据记录三维图像信息;
第二图像显示模块,用于显示所述第二图像数据对应的第二图像。
10.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-8中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310233699.5A CN116245995A (zh) | 2023-03-03 | 2023-03-03 | 一种图像渲染方法、装置及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310233699.5A CN116245995A (zh) | 2023-03-03 | 2023-03-03 | 一种图像渲染方法、装置及设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116245995A true CN116245995A (zh) | 2023-06-09 |
Family
ID=86627649
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310233699.5A Pending CN116245995A (zh) | 2023-03-03 | 2023-03-03 | 一种图像渲染方法、装置及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116245995A (zh) |
-
2023
- 2023-03-03 CN CN202310233699.5A patent/CN116245995A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114820906B (zh) | 图像渲染方法、装置、电子设备及存储介质 | |
US11908039B2 (en) | Graphics rendering method and apparatus, and computer-readable storage medium | |
JP2015076096A (ja) | 選択的ラスタライゼーション | |
CN113077548B (zh) | 针对物体的碰撞检测方法、装置、设备和存储介质 | |
CN112529097B (zh) | 样本图像生成方法、装置以及电子设备 | |
CN112734896A (zh) | 环境遮蔽渲染方法、装置、存储介质及电子设备 | |
JP7262530B2 (ja) | 位置情報の生成方法、関連装置及びコンピュータプログラム製品 | |
CN114549303B (zh) | 图像显示、处理方法、装置、设备和存储介质 | |
CN115131507B (zh) | 图像处理方法、图像处理设备和元宇宙三维重建方法 | |
CN112465692A (zh) | 图像处理方法、装置、设备及存储介质 | |
CN114723894B (zh) | 一种三维坐标获取方法、装置及电子设备 | |
CN113190150B (zh) | 覆盖物的展示方法、设备和存储介质 | |
EP4086853A2 (en) | Method and apparatus for generating object model, electronic device and storage medium | |
CN115908687A (zh) | 渲染网络的训练、渲染方法、装置及电子设备 | |
CN115311414A (zh) | 基于数字孪生的实景渲染方法、装置及相关设备 | |
CN113436247B (zh) | 一种图像处理方法、装置、电子设备及存储介质 | |
US20240153128A1 (en) | Method of detecting collision of objects, device, and storage medium | |
CN116245995A (zh) | 一种图像渲染方法、装置及设备 | |
CN114564268A (zh) | 一种设备管理方法、装置、电子设备和存储介质 | |
CN109710122B (zh) | 用于展示信息的方法和装置 | |
CN115761123B (zh) | 三维模型处理方法、装置、电子设备以及存储介质 | |
US20230078041A1 (en) | Method of displaying animation, electronic device and storage medium | |
CN114820908B (zh) | 虚拟形象生成方法、装置、电子设备和存储介质 | |
CN113436325B (zh) | 一种图像处理方法、装置、电子设备及存储介质 | |
CN116309160B (zh) | 图像分辨率修复方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |