CN116528065B - 一种高效虚拟场景内容光场获取与生成方法 - Google Patents
一种高效虚拟场景内容光场获取与生成方法 Download PDFInfo
- Publication number
- CN116528065B CN116528065B CN202310787597.8A CN202310787597A CN116528065B CN 116528065 B CN116528065 B CN 116528065B CN 202310787597 A CN202310787597 A CN 202310787597A CN 116528065 B CN116528065 B CN 116528065B
- Authority
- CN
- China
- Prior art keywords
- depth
- light field
- light
- video stream
- viewpoint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 230000005540 biological transmission Effects 0.000 claims abstract description 31
- 238000009877 rendering Methods 0.000 claims abstract description 29
- 230000004927 fusion Effects 0.000 claims description 15
- 230000000007 visual effect Effects 0.000 claims description 11
- 238000013507 mapping Methods 0.000 claims description 6
- 238000001514 detection method Methods 0.000 claims description 5
- 239000003086 colorant Substances 0.000 claims description 3
- 238000001914 filtration Methods 0.000 claims description 3
- 238000009432 framing Methods 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 2
- 238000012545 processing Methods 0.000 abstract description 9
- 230000007812 deficiency Effects 0.000 abstract description 2
- 238000005516 engineering process Methods 0.000 description 11
- 239000011159 matrix material Substances 0.000 description 5
- 239000013598 vector Substances 0.000 description 4
- HPTJABJPZMULFH-UHFFFAOYSA-N 12-[(Cyclohexylcarbamoyl)amino]dodecanoic acid Chemical compound OC(=O)CCCCCCCCCCCNC(=O)NC1CCCCC1 HPTJABJPZMULFH-UHFFFAOYSA-N 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/95—Computational photography systems, e.g. light-field imaging systems
- H04N23/957—Light-field or plenoptic cameras or camera modules
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
- H04N13/117—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/15—Processing image signals for colour aspects of image signals
Abstract
本发明涉及光场显示技术领域,为了解决现有数据处理算法不足导致的实时性和保真性低的技术问题,本发明公开了一种高效虚拟场景内容光场获取与生成方法,根据光场视角以及所需视点数,设定虚拟相机位置,通过指定虚拟相机获取彩色视频流和深度视频流,通过光场编码模块对视频流编码,压缩上传云端传输;通过在预定位置的虚拟相机,实时获取虚拟场景的彩色视频流和深度视频流,并从云端实现远端到本地端传输,获取单帧对应的彩色图与深度图,经过光场编码后进行具有高保真和实时性的远程渲染,能够极大地降低传输成本,解决了通过模型传输代价高、无法实时的问题,同时保证了光场下的渲染精度,满足了高保真和实时的传输和生成需求。
Description
技术领域
本发明涉及光场显示技术领域,尤其涉及一种高效虚拟场景内容光场获取与生成方法。
背景技术
随着计算机和显示技术的飞速发展,高保真虚拟场景内容光场生成技术已经成为备受瞩目的前沿技术,该技术利用先进的算法和计算机图形技术,可以完整地捕捉现实世界中的光场数据,并实时传输到其他地方进行渲染和展示,实现场景和光照的真实再现,为用户带来身临其境的视觉体验。
虚拟场景内容光场生成技术的发展已经取得了一定的进展。然而,在当前市场和公开的文献中,实时传输和渲染仍然基于模型,面临着传输成本高和无法实时处理的问题,这些技术面临的挑战主要包括以下几个方面:
数据传输和处理的实时性方面,虚拟场景内容光场生成技术需要大量的数据传输和处理,尤其是对于高保真度的场景。在实时传输和渲染过程中,需要解决数据传输的时延和处理速度的问题,以确保光场的实时性和流畅性。
传输带宽的限制方面,虚拟场景内容光场生成技术产生的数据量庞大,需要高带宽的网络传输才能实现实时传输和渲染。然而,当前的网络基础设施可能无法满足高带宽要求,这限制了技术的应用范围和用户体验。
另外,设备的复杂性也使其无法普及到更广泛的领域和用户群体。
可见,高保真虚拟场景内容光场生成技术需要处理大量的光场数据并进行实时渲染,数据处理的实时性和算法优化是关键问题,需要一种高效的数据处理和渲染算法,以减少计算复杂度、提高算法效率、节省带宽和优化图像质量。
发明内容
本发明的目的在于提供一种高效虚拟场景内容光场获取与生成方法,解决现有数据处理算法不足导致的实时性和保真性低的技术问题。
为实现上述目的,本发明的一种高效虚拟场景内容光场获取与生成方法的具体技术方案如下:
一种高效虚拟场景内容光场获取与生成方法,包括如下步骤:
步骤S10,根据光场视角以及所需视点数,设定虚拟相机位置,虚拟相机用于提供远程渲染算法所需要的彩色信息和深度信息,以及提供光场编码所需的视点位置信息;
步骤S20,通过指定虚拟相机获取彩色视频流和深度视频流;
步骤S30,通过光场编码模块对视频流编码,压缩上传云端传输;
步骤S40,在光场编码下,生成光场显示器上每个像素的光线,利用稀疏深度图去框定光线步进范围;
步骤S50,利用稀疏深度图像,通过多视点融合模块进行多视点融合,根据深度差值检测光线碰撞;
步骤S60,利用彩色信息,基于阴影贴图的思想,通过光场渲染模块为光线相交处计算颜色。
通过在预定位置的虚拟相机,实时获取虚拟场景的彩色视频流和深度视频流,并从云端实现远端到本地端传输,获取单帧对应的彩色图与深度图,经过光场编码后进行具有高保真和实时性的远程渲染,能够极大地降低传输成本,解决了以往通过模型传输代价高、无法实时的问题,并同时保证了光场下的渲染精度,满足了高保真和实时的虚拟内容远程光场传输与生成。
进一步地,包括如下虚拟相机设置方法:
设置三台提供彩色信息与深度信息的虚拟相机,分别均匀地设定在距离虚拟场景内容观看距离的左、中、右位置,并以视频流的方式实时传输;
还设置有提供视点位置信息的虚拟相机,均匀地设定在视点错切平面上,并提供固定的相机位置参数。
进一步地,光场编码模块包括:
光线生成模块,使用光场编码算法获取对应视点编号,之后利用视点位置信息,生成光场显示器上每像素的光线;
光场光线范围模块,利用稀疏深度图像去框定光线投射的步进范围。
进一步地,光场光线范围模块将稀疏视点下的深度图信息,以像素为单位形成体素,投射到生成视点的观察空间,以低分辨率的方式光栅化这些体素,使得这些体素分布在生成视点低分辨率的平面上,并通过最大最小值滤波,保留每个像素上体素在观察空间内深度最大与深度最小的体素,并以此得到的最大最小深度值,作为对应像素上光线步进的范围,之后根据步进范围以及光场编码后求得的对应视点位置信息以及像素坐标进而投射光线。
进一步地,多视点融合模块包括用于光线碰撞检测的碰撞检测模块和减少表面噪声的融合模块。
进一步地,碰撞检测模块根据三个稀疏视点下的深度图,动态获得光线与虚拟场景的截断深度差值并进行融合,用于计算光线的步进,检测光场中光线与虚拟场景中的物体是否碰撞。
进一步地,融合模块将稀疏视点下的深度图做方差预处理,实时计算时,将对应深度的方差提取,对于高方差区域,降低对应视点深度图得到的深度差值权重,计算出各个视点深度图得到深度差值并计算权重进行融合。
进一步地,光场渲染模块将光线交点处作为体素单位,投射到彩色图视点的观察空间中,基于阴影贴图的思想,比较视点观察空间中深度的大小,定义体素的深度值为A,虚拟场景的深度值为B,若|A-B|<0.05cm,则确定视点的彩色图可参与光线交点处颜色的计算。
本发明提供的一种高效虚拟场景内容光场获取与生成方法具有以下优点:
本发明实施例提供的一种高效虚拟场景内容光场获取与生成方法,通过特定位置下的虚拟相机实时获取虚拟场景的彩色视频流和深度视频流,并从云端传输到本地设备,获取单帧对应的彩色图与深度图,经过光场编码后进行具有高保真和实时性的远程渲染,相较于现有的技术方法,该方法能够极大地降低传输成本,解决了以往通过模型传输代价高、无法实时的问题,并同时保证了光场下的渲染精度,满足了高保真和实时的虚拟内容远程光场传输与生成。
附图说明
图1为本发明提供的高效虚拟场景内容光场获取与生成方法的流程图;
图2为本发明提供的采集彩色信息和深度信息的虚拟相机布置示意图;
图3为本发明提供的采集视点位置信息的虚拟相机布置示意图;
图4为本发明提供的具体实施流程图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
参阅图1,本发明提供的一种高效虚拟场景内容光场获取与生成方法,包括如下步骤:
步骤S10,根据光场视角以及所需视点数,设定虚拟相机位置,虚拟相机用于提供远程渲染算法所需要的彩色信息和深度信息,以及提供光场编码所需的视点位置信息;
步骤S20,通过指定虚拟相机获取彩色视频流和深度视频流;
步骤S30,通过光场编码模块对视频流编码,压缩上传云端传输;
步骤S40,在光场编码下,生成光场显示器上每个像素的光线,利用稀疏深度图去框定光线步进范围;
步骤S50,利用稀疏深度图像,通过多视点融合模块进行多视点融合,根据深度差值检测光线碰撞;
步骤S60,利用彩色信息,基于阴影贴图的思想,通过光场渲染模块为光线相交处计算颜色。
下面将上述方法应用于光场数字人的即时通讯场景对各个步骤展开详细描述:
第一,在步骤S10和步骤S20中所涉的虚拟相机一共分为两类,一类用于提供远程渲染算法所需要的彩色信息和深度信息,一类提供光场编码所需的视点位置信息:
远程渲染算法所需要的彩色信息和深度信息分别指虚拟相机拍摄到的彩色图与深度图,并以视频流的方式实时传输,视频流由多帧的彩色图以及深度图组成。
如图2所示, 用于提供远程渲染算法所需要的彩色信息和深度信息的虚拟相机,其数量共三台,分别均匀地设定在距离数字人模型观看距离的左、中、右位置。设定位置的选取,其最终目的是尽可能的采集到光场显示视场角内设定视点位置上的全部信息。若规定了光场显示视场角以及观看距离,用于提供彩色信息和深度信息的虚拟相机应设置在图中左、中、右位置上。
光场编码所需的视点位置指的是光场显示视场角内所需要的虚拟视点位置。
用于提供光场编码所需的视点位置信息的虚拟相机,数量为规定视点数,其中错切平面以正对于数字人模型的中间视点展开,以错切的方式拍摄数字人模型,具体设置位置如图3所示,规定视点数为n,均匀地设置在错切平面内,并且中间虚拟相机正对于数字人模型。错切平面距离数字人模型的垂直距离为观看距离。
最终,将设定好的所有虚拟相机的视点位置,以观察矩阵和透视矩阵的方式,在初始化阶段告知远端设备。
第二,在步骤S30中,GPU对多路视频流的编码解码操作压缩视频流以及云端传输:
GPU对多路视频流的编码解码操作压缩视频流指的是,通过使用图形处理器进行视频编码和解码。GPU视频编码和解码基于硬件加速和并行计算的原理。当进行视频编码时,GPU可以同时对多个像素进行处理,将它们转换为数字信号,并将其压缩为更小的文件。解码是将压缩的数字信号解码为像素数据。GPU可以在非常短的时间内解码大量的数据,并将其转换为可视化的图像。GPU编码解码技术通常使用现代编码标准,如H.264、H.265和VP9等。这些标准具有高压缩率和高质量,能够使视频数据更小并保持清晰度。
第三,在步骤S40中,使用光场编码算法获取对应视点编号,之后利用视点位置信息生成光场显示器上每像素的光线:
光场编码指的是,一种用于捕捉和呈现3D场景的技术,其基本原理是在3D场景中放置一个多通道相机阵列,从而获取多个视点的光场信息。在这个过程中,每个像素都包含了多个视点的信息,因此需要一种算法来将像素中的多个视点信息进行解码,以便于呈现所需的视点。
使用光场编码算法获取对应视点编号指的是,通过对光场数据进行处理,从而找到最佳的视点,以使得视点上的图像与目标图像尽可能的匹配。一种常用的方法是使用基于优化的算法,例如逆向投影算法、光场视差算法、多视点光场编码算法等,来寻找最佳的视点。
利用视点位置信息生成光场显示器上每像素的光线指的是,利用获得生成视点的位置信息,通过其透视矩阵和对应像素坐标求得光线方向的单位向量d,光线起点为生成视点下观察空间坐标系的原点O,t代表光线随时间以光线方向前进t个单位向量,之后将所有深度图信息,以像素为单位形成体素,投射到生成视点的观察空间,以低分辨率的方式光栅化这些体素,使得这些体素分布在生成视点低分辨率的平面上,并通过最大最小值滤波,保留每个像素上体素在观察空间内深度最大与深度最小的体素,并以此得到的最大深度值depth_max与最小深度值depth_min,作为对应像素上光线步进的范围。所以整体光线公式如下:;
第四,在步骤S50中,通过不同视点下的深度图,动态获得截断深度差值并进行融合,用于计算光线的步进,检测光场中的光线与数字人模型是否碰撞。
动态获得截断深度差值指的是,首先将光线位置从生成视点观察空间坐标系转换到提供深度图视点的观察空间坐标系,并进行光栅化操作找到深度图上对应的像素坐标与深度值,将光线位置在深度图视点的观察空间的深度depth_ray与深度图的深度值depth做差值求得深度差值depth_diff:,
通过截断函数求得截断深度差值depth_T,其中T是人为设定的截断值,其目的就是保证在深度融合中防止光线过度的步进:;
融合截断深度差值是指,融合截断深度差值作为光线的步进。获得的三个截断深度差值,分别对应三台提供深度信息的虚拟相机。融合方法是,首先按照n*n像素范围大小,获得每个对应深度图中该像素上深度值的方差,对于高方差区域,降低其深度差值的权重,设该像素n*n范围内方差为σi,权重值为w,其中Ni表示n*n范围内的像素:
;
光线的步进可以表示为s:
;
最终,当光线步进s达到某一个阈值之后,判定光线此时与数字人模型碰撞。
第五,在步骤S60中,通过彩色图颜色信息,并利用阴影贴图算法的思想,求解光线碰撞处的颜色。
阴影贴图算法指的是用于实时渲染的阴影技术,它通过生成一个深度图来模拟光线在场景中的传播和遮挡关系,从而实现在场景中显示动态阴影的效果。该算法的基本思想是在光源的视角下渲染场景,将渲染结果保存到深度贴图中,然后在场景渲染时利用深度贴图来计算物体表面上每个点是否在阴影中,从而实现阴影的渲染。
利用阴影贴图算法的思想,求解光线碰撞处的颜色指的是,参考阴影贴图算法的思路去计算颜色。首先将光线位置从生成视点观察空间下的坐标转换到彩色图视点观察空间下的坐标系。此时通过光栅化找到对应像素坐标,先比较该像素坐标下深度值与光线位置在此视点观察空间下的深度,若两者深度差在设定阈值范围内,则判定彩色图在该像素下应该提供颜色,并将颜色乘上该视点相机方向向量与光线来源视点相机方向向量的余弦值,加权到最终颜色值。
参阅图4,在一实施方式中,将上述方法应用于光场数字人即时通讯场景具体展开描述:
(1)光场显示的视点数设定为70个视点,视场角设定为70°,观看距离1m,分辨率为7680*4320,每个虚拟视点分辨率为800*600。
(2)虚拟相机模块包含3台用于提供彩色信息与深度信息的虚拟相机,以及70台提供光场编码所需视点位置信息。其中70台为设定光场显示所需的视点数。根据光场显示要求的视点数、视场角以及观看距离,摆放虚拟相机,并将所有73台虚拟相机的观察矩阵以及透视矩阵在初始化阶段告知远端设备,此后不会改变相机位置。
(3)在实时运行阶段,3台用于提供彩色信息与深度信息的虚拟相机,实时提供彩色视频流和深度视频流。配置FFmpeg启用GPU对视频流进行编码,利用CUDA加速并使用NVIDIA GPU上的H.264_nvenc编码器对视频进行编码,设置视频的目标比特率为2 Mbps。其中对于深度视频流编码,通常需要进行两次编码:首先对深度数据进行压缩,然后将压缩后的数据与彩色视频流进行合并编码。这个过程通常被称为“视觉+深度”编码。这将读取彩色视频流(input_color.mp4)和深度视频流(input_depth.mp4),使用zscale滤镜将深度视频流调整为与彩色视频流相同的分辨率和颜色空间,然后使用vstack滤镜将两个视频流合并。最后,使用hwupload滤镜将数据上传到GPU进行编码,并使用H.264_nvenc编码器对视频进行压缩,输出为output.mp4文件。
(4)对编码压缩后的视频流output.mp4,进行云端传输。首先选择传输协议,根据实时性以及低延时的要求,这里选择RTMP协议。通过点对点传输,将视频流上传到远程设备。
(5)远程设备接收视频并进行处理,首先使用UDP协议接受视频流,并用AAC编码并将其转换为RTMP协议,以实时传输到远程设备上。
(6)在远程设备上使用FFmpeg打开并解析视频流,之后使用解码器解码视频,并从中获取解码后的视频帧数据,对于合并后的视频帧,使用FFmpeg中crop和split滤镜。将彩色视频流和深度视频流分开,并获取同一帧的三张彩色图和三张深度图。
(7)之后将数据从CPU内存放置到GPU纹理内存内,以Texture2D的格式存储。
(8)使用光场编码算法获取对应视点编号,这里使用多视点光场编码算法,获得具体视点编号,从而获取对应视点位置信息,生成光场显示器上每像素的光线,这里使用CUDA加速。
(9)从GPU中的纹理内存中读取三张深度图纹理,通过稀疏深度图的多视点融合,获取光线的步进长度,这里获取截断深度差值时的截断值位置为1.5cm,其次融合时,求取方差的像素范围设定为7*7。
(10)判断光线与数字人模型碰撞后,从GPU中的纹理内存中读取三张彩色图纹理,利用阴影贴图算法的思想,求取该像素上最终的颜色值,这里使用DirectX 12渲染。
(11)最终画面渲染在光场显示器上,完成了数字人远程传输及渲染的任务,其中由于本方法的高效性,保证了整体系统的实时性,并极大地减少了传输的带宽。经测试,在光场分辨率为7680*4320下,光场内容的实时生成帧率满足30FPS以上。
综上所述,本发明提供的一种高效虚拟场景内容光场获取与生成方法,
通过特定位置的虚拟相机实时获取虚拟场景对应的彩色视频流和深度视频流,并从云端传输到本地设备,获取单帧对应的彩色图和深度图,经过光场编码算法后进行了具有高保真和实时性的远程渲染,相较于现有的技术方法,具有较高的压缩率节省带宽,该方法能够极大地降低传输成本,解决了以往通过模型传输代价高、无法实时同步的问题,并同时保证了光场下的渲染精度,满足了高保真和实时的虚拟场景远程光场传输与渲染,本方法适用于各种虚拟应用场景,包括但不限于光场数字人的即时通讯、虚拟仿真的远程传输和虚拟展示的远程教学等。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (7)
1.一种高效虚拟场景内容光场获取与生成方法,包括如下步骤:
步骤S10,根据光场视角以及所需视点数,设定虚拟相机位置,所述虚拟相机用于提供远程渲染算法所需要的彩色信息和深度信息,以及提供光场编码所需的视点位置信息;
步骤S20,通过指定虚拟相机获取彩色视频流和深度视频流;
步骤S30,通过光场编码模块对视频流编码,压缩上传云端传输;
步骤S40,在光场编码下,生成光场显示器上每个像素的光线,利用稀疏深度图去框定光线步进范围;
步骤S50,利用稀疏深度图像,通过多视点融合模块进行多视点融合,根据深度差值检测光线碰撞;
深度差值获取方法如下:
将光线位置从生成视点观察空间坐标系转换到提供深度图视点的观察空间坐标系,并进行光栅化操作找到深度图上对应的像素坐标与深度值;
将光线位置在深度图视点的观察空间的深度值与深度图的深度值做差值求得所述深度差值,定义观察空间的深度值为depth_ray、深度图的深度值为depth、深度差值为depth_diff,则depth_diff = depth - depth_ray;
步骤S60,利用彩色信息,基于阴影贴图的思想,通过光场渲染模块为光线相交处计算颜色。
2.根据权利要求1所述的一种高效虚拟场景内容光场获取与生成方法,其特征在于,包括如下虚拟相机设置方法:
设置三台提供彩色信息与深度信息的虚拟相机,分别均匀地设定在距离虚拟场景内容观看距离的左、中、右位置,并以视频流的方式实时传输;
还设置有提供视点位置信息的虚拟相机,均匀地设定在视点错切平面上,并提供固定的相机位置参数。
3.根据权利要求2所述的一种高效虚拟场景内容光场获取与生成方法,其特征在于,所述光场编码模块包括:
光线生成模块,使用光场编码算法获取对应视点编号,之后利用视点位置信息,生成光场显示器上每像素的光线;
光场光线范围模块,利用稀疏深度图像去框定光线投射的步进范围。
4.根据权利要求3所述的一种高效虚拟场景内容光场获取与生成方法,其特征在于,光场光线范围模块将稀疏视点下的深度图信息,以像素为单位形成体素,投射到生成视点的观察空间,以低分辨率的方式光栅化这些体素,使得这些体素分布在生成视点低分辨率的平面上,并通过最大最小值滤波,保留每个像素上体素在观察空间内深度最大与深度最小的体素,并以此得到的最大最小深度值,作为对应像素上光线步进的范围,之后根据步进范围以及光场编码后求得的对应视点位置信息以及像素坐标进而投射光线。
5.根据权利要求1所述的一种高效虚拟场景内容光场获取与生成方法,其特征在于,所述多视点融合模块包括用于光线碰撞检测的碰撞检测模块和减少表面噪声的融合模块。
6.根据权利要求5所述的一种高效虚拟场景内容光场获取与生成方法,其特征在于,所述碰撞检测模块根据三个稀疏视点下的深度图,动态获得光线与虚拟场景的截断深度差值并进行融合,用于计算光线的步进,检测光场中光线与虚拟场景中的物体是否碰撞。
7.根据权利要求1至6任一项所述的一种高效虚拟场景内容光场获取与生成方法,其特征在于,所述光场渲染模块将光线交点处作为体素单位,投射到彩色图视点的观察空间中,基于阴影贴图的思想,比较视点观察空间中深度的大小,定义体素的深度值为A,虚拟场景的深度值为B,若|A-B|<0.05cm,则确定该视点的彩色图可参与光线交点处颜色的计算。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310787597.8A CN116528065B (zh) | 2023-06-30 | 2023-06-30 | 一种高效虚拟场景内容光场获取与生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310787597.8A CN116528065B (zh) | 2023-06-30 | 2023-06-30 | 一种高效虚拟场景内容光场获取与生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116528065A CN116528065A (zh) | 2023-08-01 |
CN116528065B true CN116528065B (zh) | 2023-09-26 |
Family
ID=87394412
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310787597.8A Active CN116528065B (zh) | 2023-06-30 | 2023-06-30 | 一种高效虚拟场景内容光场获取与生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116528065B (zh) |
Citations (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101127075A (zh) * | 2007-09-30 | 2008-02-20 | 西北工业大学 | 多视角三维人脸扫描数据自动配准方法 |
WO2008041061A1 (en) * | 2006-10-05 | 2008-04-10 | Vestel Elektronik Sanayi Ve Ticaret A.S. | Watermark detection method for broadcasting |
CN101262606A (zh) * | 2008-01-16 | 2008-09-10 | 宁波大学 | 一种多视点视频的处理方法 |
CN101500508A (zh) * | 2006-06-09 | 2009-08-05 | 加利福尼亚大学董事会 | 生物分子连接的仿生支架 |
WO2010151279A1 (en) * | 2009-06-25 | 2010-12-29 | Thomson Licensing | Depth map coding |
CN102413353A (zh) * | 2011-12-28 | 2012-04-11 | 清华大学 | 立体视频编码过程的多视点视频和深度图的码率分配方法 |
CN102626849A (zh) * | 2012-04-17 | 2012-08-08 | 常熟市旋力轴承钢管有限公司 | 圆钢穿孔用轧辊的制备方法 |
CN102750701A (zh) * | 2012-06-15 | 2012-10-24 | 西安电子科技大学 | 针对Landsat TM和ETM图像的厚云及其阴影检测方法 |
DE102013004110A1 (de) * | 2012-03-13 | 2013-09-19 | Siemens Medical Solutions Usa, Inc. | Druck-Volumen-Analyse bei bildgebenden Verfahren in der medizinischen Ultraschalldiagnostik |
CN103747227A (zh) * | 2013-12-24 | 2014-04-23 | 北京邮电大学 | 一种3d显示屏和一种视差图像的填充方法 |
CN104853175A (zh) * | 2015-04-24 | 2015-08-19 | 张艳 | 一种新的合成虚拟视点客观质量评价方法 |
CN105022268A (zh) * | 2015-07-09 | 2015-11-04 | 哈尔滨工程大学 | 一种线性约束虚拟天线波束形成方法 |
CN107133927A (zh) * | 2017-04-21 | 2017-09-05 | 汪云飞 | 超像素框架下基于均值‑均方差暗通道的单幅图像去雾方法 |
CN107292965A (zh) * | 2017-08-03 | 2017-10-24 | 北京航空航天大学青岛研究院 | 一种基于深度图像数据流的虚实遮挡处理方法 |
CA2971337A1 (en) * | 2016-06-22 | 2017-12-22 | Thomson Licensing | A method and a device for encoding a signal representative of a light-field content |
WO2018175625A1 (en) * | 2017-03-22 | 2018-09-27 | Magic Leap, Inc. | Depth based foveated rendering for display systems |
CA2970699A1 (en) * | 2017-06-14 | 2018-12-14 | Elizabeth E. Ignowski | Compositions for increasing resilience to traumatic brain injury |
CN111246194A (zh) * | 2020-03-24 | 2020-06-05 | 深圳臻像科技有限公司 | 3d显示设备的投影仪阵列布局 |
AU2020100710A4 (en) * | 2020-05-05 | 2020-06-11 | Chen, Dadu Mr | A method for sentiment analysis of film reviews based on deep learning and natural language processing |
CN111627054A (zh) * | 2019-06-24 | 2020-09-04 | 长城汽车股份有限公司 | 用于预测高置信度密集点云的深度补全误差地图的方法和装置 |
CN114429531A (zh) * | 2021-12-09 | 2022-05-03 | 北京邮电大学 | 虚拟视点图像的生成方法及装置 |
CN115531883A (zh) * | 2022-10-26 | 2022-12-30 | 珠海金山数字网络科技有限公司 | 一种虚拟场景生成方法及装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10237763B4 (de) * | 2002-08-17 | 2006-01-12 | Schott Ag | Verfahren zur Herstellung unlösbarer stoffschlüssiger Verbindungen von Bauteilen aus oxid-dispergierten-(ODS)-metallischen Werkstoffen durch Verschweißen und durch das Verfahren hergestellte Bauteile |
EP2901671A4 (en) * | 2012-09-28 | 2016-08-24 | Pelican Imaging Corp | CREATING IMAGES FROM LIGHT FIELDS USING VIRTUAL POINTS OF VIEW |
US10636201B2 (en) * | 2017-05-05 | 2020-04-28 | Disney Enterprises, Inc. | Real-time rendering with compressed animated light fields |
CN111444811B (zh) * | 2020-03-23 | 2023-04-28 | 复旦大学 | 一种三维点云目标检测的方法 |
-
2023
- 2023-06-30 CN CN202310787597.8A patent/CN116528065B/zh active Active
Patent Citations (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101500508A (zh) * | 2006-06-09 | 2009-08-05 | 加利福尼亚大学董事会 | 生物分子连接的仿生支架 |
WO2008041061A1 (en) * | 2006-10-05 | 2008-04-10 | Vestel Elektronik Sanayi Ve Ticaret A.S. | Watermark detection method for broadcasting |
CN101127075A (zh) * | 2007-09-30 | 2008-02-20 | 西北工业大学 | 多视角三维人脸扫描数据自动配准方法 |
CN101262606A (zh) * | 2008-01-16 | 2008-09-10 | 宁波大学 | 一种多视点视频的处理方法 |
WO2010151279A1 (en) * | 2009-06-25 | 2010-12-29 | Thomson Licensing | Depth map coding |
CN102413353A (zh) * | 2011-12-28 | 2012-04-11 | 清华大学 | 立体视频编码过程的多视点视频和深度图的码率分配方法 |
DE102013004110A1 (de) * | 2012-03-13 | 2013-09-19 | Siemens Medical Solutions Usa, Inc. | Druck-Volumen-Analyse bei bildgebenden Verfahren in der medizinischen Ultraschalldiagnostik |
CN102626849A (zh) * | 2012-04-17 | 2012-08-08 | 常熟市旋力轴承钢管有限公司 | 圆钢穿孔用轧辊的制备方法 |
CN102750701A (zh) * | 2012-06-15 | 2012-10-24 | 西安电子科技大学 | 针对Landsat TM和ETM图像的厚云及其阴影检测方法 |
CN103747227A (zh) * | 2013-12-24 | 2014-04-23 | 北京邮电大学 | 一种3d显示屏和一种视差图像的填充方法 |
CN104853175A (zh) * | 2015-04-24 | 2015-08-19 | 张艳 | 一种新的合成虚拟视点客观质量评价方法 |
CN105022268A (zh) * | 2015-07-09 | 2015-11-04 | 哈尔滨工程大学 | 一种线性约束虚拟天线波束形成方法 |
CA2971337A1 (en) * | 2016-06-22 | 2017-12-22 | Thomson Licensing | A method and a device for encoding a signal representative of a light-field content |
WO2018175625A1 (en) * | 2017-03-22 | 2018-09-27 | Magic Leap, Inc. | Depth based foveated rendering for display systems |
CN107133927A (zh) * | 2017-04-21 | 2017-09-05 | 汪云飞 | 超像素框架下基于均值‑均方差暗通道的单幅图像去雾方法 |
CA2970699A1 (en) * | 2017-06-14 | 2018-12-14 | Elizabeth E. Ignowski | Compositions for increasing resilience to traumatic brain injury |
CN107292965A (zh) * | 2017-08-03 | 2017-10-24 | 北京航空航天大学青岛研究院 | 一种基于深度图像数据流的虚实遮挡处理方法 |
CN111627054A (zh) * | 2019-06-24 | 2020-09-04 | 长城汽车股份有限公司 | 用于预测高置信度密集点云的深度补全误差地图的方法和装置 |
CN111246194A (zh) * | 2020-03-24 | 2020-06-05 | 深圳臻像科技有限公司 | 3d显示设备的投影仪阵列布局 |
AU2020100710A4 (en) * | 2020-05-05 | 2020-06-11 | Chen, Dadu Mr | A method for sentiment analysis of film reviews based on deep learning and natural language processing |
CN114429531A (zh) * | 2021-12-09 | 2022-05-03 | 北京邮电大学 | 虚拟视点图像的生成方法及装置 |
CN115531883A (zh) * | 2022-10-26 | 2022-12-30 | 珠海金山数字网络科技有限公司 | 一种虚拟场景生成方法及装置 |
Non-Patent Citations (18)
Title |
---|
Real-time dense-view imaging for three-dimensional light-field display based on image color calibration and self-supervised view synthesis;XIAO GUO , etal;Optics Express;第30卷(第12期);全文 * |
XIAO GUO ,etal.Real-time dense-view imaging for three-dimensional light-field display based on image color calibration and self-supervised view synthesis.Optics Express.2022,第30卷(第12期),全文. * |
一种用于视点图像绘制的光线空间插值方法;符冉迪;范良忠;郁梅;;中国图象图形学报(第05期);全文 * |
一种裸眼3D 显示中的多视点校正方案;李宁驰;液晶与显示;第37卷(第5期);全文 * |
一种视点均匀分布的桌面式光场显示系统;徐斌;液晶与显示;第37卷(第5期);全文 * |
三坐标激光测量技术规范中参量确定的方法;柳静;李明;詹高伟;肖武华;韦庆;;激光技术(第01期);全文 * |
光探测器芯片小信号等效电路模型的建立(英文);苗昂;李轶群;吴强;崔海林;黄永清;黄辉;任晓敏;;半导体学报(第12期);全文 * |
基于UE4的建筑可视化漫游应用研究;沈忠忠;硕士电子期刊出版信息;全文 * |
基于光场成像的多线索融合深度估计方法;韩磊;计算机学报;第43卷(第1期);全文 * |
基于光场渲染的多视点视频编解码方法研究;程龙;郭立;陈晓琳;袁红星;;中国科学技术大学学报(第08期);全文 * |
基于数字图像处理的锅炉火焰燃烧诊断仿真研究;张玉杰;齐忆南;田亚萍;;陕西科技大学学报(第06期);全文 * |
基于稀疏字典学习的立体图像质量评价;李素梅;常永莉;韩旭;胡佳洁;;天津大学学报(自然科学与工程技术版)(第01期);全文 * |
基于阻尼LSQR-LMBC 的火焰三维温度场重建*;单良 等;物理学报;第71卷(第4期);全文 * |
张玉杰;齐忆南;田亚萍.基于数字图像处理的锅炉火焰燃烧诊断仿真研究.陕西科技大学学报.2006,(第06期),全文. * |
柳静;李明;詹高伟;肖武华;韦庆.三坐标激光测量技术规范中参量确定的方法.激光技术.2015,(第01期),全文. * |
苗昂;李轶群;吴强;崔海林;黄永清;黄辉;任晓敏.光探测器芯片小信号等效电路模型的建立(英文).半导体学报.2007,(第12期),全文. * |
高分辨率、密集视点三维显示关键技术;于迅博;信息科技;全文 * |
高速长波长谐振腔增强型光探测器的瞬态性能研究;黄永清;王琦;黄辉;任晓敏;;半导体光电(第02期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN116528065A (zh) | 2023-08-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10540818B2 (en) | Stereo image generation and interactive playback | |
JP5654138B2 (ja) | 3dヒューマンマシンインターフェースのためのハイブリッドリアリティ | |
US10499033B2 (en) | Apparatus, a method and a computer program for coding and rendering volumetric video | |
US6573912B1 (en) | Internet system for virtual telepresence | |
US11232625B2 (en) | Image processing | |
US10444931B2 (en) | Vantage generation and interactive playback | |
EP3396635A2 (en) | A method and technical equipment for encoding media content | |
CN113989432A (zh) | 3d影像的重构方法、装置、电子设备及存储介质 | |
CN111612878B (zh) | 将静态照片制作成三维效果视频的方法及装置 | |
WO2022022348A1 (zh) | 视频压缩方法、解压方法、装置、电子设备及存储介质 | |
JP2019046077A (ja) | オブジェクト情報の複数面への投影によって視点映像を合成する映像合成装置、プログラム及び方法 | |
WO2019162567A1 (en) | Encoding and decoding of volumetric video | |
JP7344988B2 (ja) | ボリュメトリック映像の符号化および復号化のための方法、装置、およびコンピュータプログラム製品 | |
US20220353486A1 (en) | Method and System for Encoding a 3D Scene | |
US20220114784A1 (en) | Device and method for generating a model of an object with superposition image data in a virtual environment | |
WO2019122504A1 (en) | Method for encoding and decoding volumetric video data | |
WO2021245326A1 (en) | A method, an apparatus and a computer program product for video encoding and video decoding | |
CN116528065B (zh) | 一种高效虚拟场景内容光场获取与生成方法 | |
EP3540696A1 (en) | A method and an apparatus for volumetric video rendering | |
US9866813B2 (en) | Autostereo tapestry representation | |
Rajan et al. | A realistic video avatar system for networked virtual environments | |
Eisert et al. | Volumetric video–acquisition, interaction, streaming and rendering | |
WO2022191010A1 (ja) | 情報処理装置および情報処理方法 | |
US20230008125A1 (en) | Augmenting a view of a real-world environment with a view of a volumetric video object | |
WO2024053371A1 (ja) | 情報処理システム、および情報処理システムの作動方法、並びにプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |