CN113706680B - 视觉显著性驱动的vr电影画面渲染像素抗失真处理方法 - Google Patents

视觉显著性驱动的vr电影画面渲染像素抗失真处理方法 Download PDF

Info

Publication number
CN113706680B
CN113706680B CN202111023412.3A CN202111023412A CN113706680B CN 113706680 B CN113706680 B CN 113706680B CN 202111023412 A CN202111023412 A CN 202111023412A CN 113706680 B CN113706680 B CN 113706680B
Authority
CN
China
Prior art keywords
panoramic image
columnar projection
pixels
equidistant columnar
jth column
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111023412.3A
Other languages
English (en)
Other versions
CN113706680A (zh
Inventor
陈纯毅
于海洋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changchun University of Science and Technology
Original Assignee
Changchun University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changchun University of Science and Technology filed Critical Changchun University of Science and Technology
Priority to CN202111023412.3A priority Critical patent/CN113706680B/zh
Publication of CN113706680A publication Critical patent/CN113706680A/zh
Application granted granted Critical
Publication of CN113706680B publication Critical patent/CN113706680B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/06Ray-tracing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开一种视觉显著性驱动的VR电影画面渲染像素抗失真处理方法。本方法首先使用单条光线采样方式渲染全景画面,然后计算出全景画面的显著性图,接着根据显著性图的像素的值是否小于显著性阈值来自适应地控制是否需要使用超采样来对等距柱状投影全景图像的像素进行抗失真处理。由于对那些显著性值小于显著性阈值的等距柱状投影全景图像像素不进行超采样,因此减小了像素抗失真处理的计算开销。本方法根据视觉显著性来自适应地控制是否进行像素超采样,可实现在减小计算开销的同时保证全景图像的视觉感知效果。

Description

视觉显著性驱动的VR电影画面渲染像素抗失真处理方法
技术领域
本发明涉及一种视觉显著性驱动的VR电影画面渲染像素抗失真处理方法,属于虚拟三维场景绘制技术领域。
背景技术
近年来,随着虚拟现实(VR)技术在影视领域中的不断推广应用,VR电影逐渐成为一个人们关注的热点。在实际中,大量VR影视画面素材都是使用虚拟三维场景绘制技术根据三维模型生成的。如何绘制出高品质的VR影视画面是VR影视制作行业所关注的一个重要问题。在渲染生成三维场景画面时,通常需要对画面进行像素抗失真(Anti-aliasing)处理(也常被称为抗锯齿处理)。例如,Matthias等人于2013年发表在《Journal ofComputer Graphics Techniques》的第2卷第1期上的论文“Adaptive Supersampling forDeferred Anti-Aliasing”就讨论了使用超采样实现像素抗失真处理的方法。VR电影制作对画面品质的追求比普通可视化应用更高,因此如何在渲染生成VR电影画面时进行高效的像素抗失真处理是一个非常重要的问题。像素抗失真处理的基本方法是像素超采样,即针对每个像素,计算像素矩形区域内的多个样本点的颜色,并把这些样本点的颜色合并在一起得到像素的颜色。由于超采样需要针对每个像素计算多个样本点的颜色,其计算开销也相应地大大增加。
最近,人们对VR全景画面的视觉显著性进行了大量研究,提出了各种全景画面显著性检测方法。例如,丁颖等人于2019年发表在《电子学报》第47卷第7期的论文“虚拟现实全景图像显著性检测研究进展综述”就对全景画面显著性检测进行了详细介绍。对于全景画面,不同区域具有不同的视觉显著性。对于显著性低的画面区域,在进行像素抗失真处理时,可以不使用超采样技术,而直接通过利用相邻像素颜色值做平滑滤波来实现像素抗失真,以降低渲染计算开销。现有多种全景画面存储表示方式,等距柱状投影全景图像就是其中的一种。等距柱状投影全景图像如图1所示。裴麒凯等人于2019年发表在《计算机辅助设计与图形学学报》第31卷第8期的论文“360视频的连续保形投影算法”对基于不同投影方式的全景图像进行过介绍。使用全景图像显著性检测技术可以计算等距柱状投影全景图像的显著性图。显著性图是一张灰度图,显著性图的像素与等距柱状投影全景图像的像素一一对应;显著性图的每个像素的值取[0,1]之间的数;显著性图的像素的值越大,表明等距柱状投影全景图像的对应像素越显著。
光线跟踪是一种被广泛使用的用于渲染三维场景画面的技术。在三维场景渲染中,用红、绿、蓝三元组来表示各种颜色(即在RGB颜色空间中描述颜色),因此光照值实际上也包含红色、绿色、蓝色三个分量。尽管RGB颜色空间在计算机图形学中得到广泛使用,但是RGB颜色空间中的两种颜色的欧氏距离并不能用于描述这两种颜色的视觉感知差异大小。J.F.Hughes等撰写的由Addison-Wesley公司于2014年出版的《Computer Graphics:Principles and Practice,3rd Edition》的28.9节介绍了CIE Lab颜色空间,在CIE Lab颜色空间中的两种颜色的欧氏距离可以表征这两种颜色的视觉感知差异大小。RGB颜色空间中的颜色可以转换到CIE Lab颜色空间中。
发明内容
本发明的目的在于,提供一种视觉显著性驱动的VR电影画面渲染像素抗失真处理方法,以便利用视觉感知特性来减小渲染VR电影画面时的像素抗失真处理计算开销。
本方法的技术方案是这样实现的:使用等距柱状投影全景图像来表示VR全景图像画面;首先利用光线跟踪技术绘制虚拟三维场景的VR全景图像画面,生成一张等距柱状投影全景图像,然后对等距柱状投影全景图像进行显著性检测,获得等距柱状投影全景图像的显著性图,最后根据等距柱状投影全景图像的显著性图来实现自适应像素抗失真处理。本方法的具体步骤如下:
步骤Step101:令NRow表示等距柱状投影全景图像的像素行数,令NCol表示等距柱状投影全景图像的像素列数;在计算机的存储器中创建一个包含NRow行、NCol列的二维数组ARR1,二维数组ARR1的每个元素存储一个可视场景点的坐标;在计算机的存储器中创建一个包含NRow行、NCol列的二维数组ARR2,二维数组ARR2的每个元素存储一个可视场景点的法向量;等距柱状投影全景图像的像素与可视场景点一一对应;等距柱状投影全景图像的像素与二维数组ARR1的元素一一对应,等距柱状投影全景图像的像素与二维数组ARR2的元素一一对应;具体地,二维数组ARR1的第i行、第j列元素用于存储等距柱状投影全景图像的第i行、第j列像素对应的可视场景点的坐标,二维数组ARR2的第i行、第j列元素用于存储等距柱状投影全景图像的第i行、第j列像素对应的可视场景点的法向量,其中i=1,2,…,NRow,j=1,2,…,NCol
步骤Step102:对于i=1,2,…,NRow,j=1,2,…,NCol,针对等距柱状投影全景图像的第i行、第j列像素A001,做如下操作:
步骤Step102-1:计算像素A001在虚拟全景相机的虚拟成像球面上的成像位置PIX的坐标(xp,yp,zp);具体地,x0=sin(θ)cos(φ),y0=sin(θ)sin(φ),z0=cos(θ),φ=2π(j-1+0.5)/NCol,θ=π(i-1+0.5)/NRow,矩阵M为:其中wx、wy、wz表示虚拟全景相机的单位向上方向向量w的x、y、z分量,向量w的值在执行本方法前事先指定;ux、uy、uz表示向量u的x、y、z分量;Px、Py、Pz表示虚拟全景相机的视点坐标的x、y、z分量;vx、vy、vz表示向量v的x、y、z分量;令向量/>如果/>则令向量/>否则令向量v=[0,0,1]T;令向量/>虚拟全景相机如图2所示;
步骤Step102-2:从虚拟全景相机的视点位置发射穿过成像位置PIX的光线A002,利用光线跟踪技术跟踪光线A002在三维场景中的传输,计算最终沿光线A002反向方向到达成像位置PIX的光亮度值IL,在此过程中计算像素A001对应的可视场景点的坐标COR1,并把该坐标COR1赋值给二维数组ARR1的第i行、第j列元素,计算像素A001对应的可视场景点的法向量NORM,并把该法向量NORM赋值给二维数组ARR2的第i行、第j列元素;像素A001对应的可视场景点就是光线A002在三维场景中传输时与遇到的第一个几何对象的交点,即沿光线A002的传输方向从虚拟全景相机的视点位置可以直接看见的光线A002与三维场景的几何对象的交点;把光亮度值IL与等距柱状投影全景图像的第i行、第j列像素A001相关联;
步骤Step102-3:把光亮度值IL转换成颜色值Color;把像素A001的颜色设置为颜色值Color;
步骤Step102-4:针对等距柱状投影全景图像的第i行、第j列像素A001的操作结束;
步骤Step103:利用全景图像显著性检测技术计算等距柱状投影全景图像的显著性图SMap;
步骤Step104:在计算机的存储器中创建一个包含NRow行、NCol列的二维数组PANOIMG,二维数组PANOIMG的每个元素用于保存经像素抗失真处理后的等距柱状投影全景图像的像素的颜色值,二维数组PANOIMG的元素与等距柱状投影全景图像的像素一一对应;对于i=1,2,…,NRow,j=1,2,…,NCol,针对等距柱状投影全景图像的第i行、第j列像素A001,做如下操作:
步骤Step104-1:把二维数组PANOIMG的第i行、第j列元素赋值为等距柱状投影全景图像的第i行、第j列像素A001的颜色值;根据等距柱状投影全景图像的像素与可视场景点的对应关系、等距柱状投影全景图像的像素与二维数组ARR1的元素的对应关系以及二维数组ARR1存储的值,计算等距柱状投影全景图像的第i行、第j列像素A001对应的可视场景点的坐标COR1;根据等距柱状投影全景图像的像素与可视场景点的对应关系、等距柱状投影全景图像的像素与二维数组ARR1的元素的对应关系以及二维数组ARR1存储的值,计算在等距柱状投影全景图像中与第i行、第j列像素A001直接相邻的所有像素对应的可视场景点的坐标COR1,并把它们存放在坐标列表LISTCOR1中;计算第i行、第j列像素A001对应的可视场景点的坐标COR1与坐标列表LISTCOR1中的各个坐标COR1之间的距离的最大值DISM;
步骤Step104-2:根据等距柱状投影全景图像的像素与可视场景点的对应关系、等距柱状投影全景图像的像素与二维数组ARR2的元素的对应关系以及二维数组ARR2存储的值,计算等距柱状投影全景图像的第i行、第j列像素A001对应的可视场景点的法向量NORM;根据等距柱状投影全景图像的像素与可视场景点的对应关系、等距柱状投影全景图像的像素与二维数组ARR2的元素的对应关系以及二维数组ARR2存储的值,计算在等距柱状投影全景图像中与第i行、第j列像素A001直接相邻的所有像素对应的可视场景点的法向量NORM,并把它们存放在法向量列表LISTNORM中;计算第i行、第j列像素A001对应的可视场景点的法向量NORM与法向量列表LISTNORM中的各个法向量NORM之间的夹角的最大值ANGM;
步骤Step104-3:把在等距柱状投影全景图像中与第i行、第j列像素A001直接相邻的所有像素的颜色值存放在颜色列表LISTCORLOR中;计算等距柱状投影全景图像的第i行、第j列像素A001的颜色值在CIE Lab颜色空间中对应的值CVLab;计算颜色列表LISTCORLOR中的所有颜色值在CIE Lab颜色空间中对应的值,并把它们存放在颜色列表LISTCORLORLAB中;计算CIE Lab颜色空间中的值CVLab与颜色列表LISTCORLORLAB中的各个颜色值的欧氏距离的最大值COLORM;
步骤Step104-4:如果最大值DISM小于距离阈值DIST,并且最大值ANGM小于角度阈值ANGT,并且最大值COLORM小于颜色阈值COLORT,则转步骤Step104-8,否则进一步判断显著性图SMap的第i行、第j列像素的值是否小于显著性阈值SALTH,如果是,则转步骤Step104-7,否则产生Nar个[0,1]之间均匀分布的随机数{rφ,m|m=1,2,…,Nar},产生Nar个[0,1]之间均匀分布的随机数{rθ,m|m=1,2,…,Nar};在计算机的存储器中创建一个集合SETIL1,集合SETIL1的每个元素存储一个光亮度值,设置集合SETIL1为空集;分别针对m=1,2,…,Nar,做如下操作:
步骤Step104-4-1:计算
步骤Step104-4-2:计算
步骤Step104-4-3:从虚拟全景相机的视点位置发射穿过坐标为(x′m,y′m,z′m)的成像位置PIX1的光线B002,利用光线跟踪技术跟踪光线B002在三维场景中的传输,计算最终沿光线B002反向方向到达成像位置PIX1的光亮度值IL1;
步骤Step104-4-4:把光亮度值IL1添加到集合SETIL1中;
步骤Step104-4-5:针对m的操作结束;
步骤Step104-5:把与等距柱状投影全景图像的第i行、第j列像素A001相关联的光亮度值IL添加到集合SETIL1中;
步骤Step104-6:计算集合SETIL1中的所有元素存储的光亮度值的平均值AVG1,把平均值AVG1转换成颜色值Color并赋值给二维数组PANOIMG的第i行、第j列元素;转步骤Step104-8;
步骤Step104-7:在计算机的存储器中创建一个集合SETIL2,集合SETIL2的每个元素存储一个光亮度值,设置集合SETIL2为空集;把与等距柱状投影全景图像的第i行、第j列像素A001相关联的光亮度值IL添加到集合SETIL2中;把在等距柱状投影全景图像中与第i行、第j列像素A001直接相邻的所有像素关联的光亮度值IL添加到集合SETIL2中;计算集合SETIL2中的所有元素存储的光亮度值的平均值AVG2,把平均值AVG2转换成颜色值Color并赋值给二维数组PANOIMG的第i行、第j列元素;
步骤Step104-8:针对等距柱状投影全景图像的第i行、第j列像素A001的操作结束;
步骤Step105:更新等距柱状投影全景图像,得到经像素抗失真处理后的等距柱状投影全景图像,具体地,对于i=1,2,…,NRow,j=1,2,…,NCol,把等距柱状投影全景图像的第i行、第j列像素A001的颜色设置为二维数组PANOIMG的第i行、第j列元素的值;
步骤Step106:把等距柱状投影全景图像以文件形式保存到计算机硬盘上。
本发明的积极效果是:本方法通过步骤Step103计算出全景图像的显著性图SMap;在步骤Step104中,根据显著性图SMap的像素的值是否小于显著性阈值SALTH来自适应地控制是否需要使用超采样来对等距柱状投影全景图像的像素进行抗失真处理。由于对那些显著性值小于显著性阈值SALTH的等距柱状投影全景图像像素不进行超采样,因此减小了像素抗失真处理的计算开销。本方法根据视觉显著性来自适应地控制是否进行像素超采样,可实现在减小计算开销的同时保证全景图像的视觉感知效果。
附图说明
图1为等距柱状投影全景图像的像素平面示意图。
图2为虚拟全景相机的示意图。
图3为像素P的直接相邻像素示意图。
具体实施方式
为了使本方法的特征和优点更加清楚明白,下面结合具体实施例对本方法作进一步的描述。本实施例考虑一个虚拟房间三维场景,三维场景包含房间四周的墙、天花板、地板、门、窗、窗帘、桌子、椅子等几何对象。桌子和椅子都放在地板上,门关着,窗用窗帘遮挡着。在房间的天花板上有一个圆形的光源,向下照射房间。房间四周的墙、天花板、地板、门、窗帘、桌子、椅子等几何对象都是漫反射材质。
本方法的技术方案是这样实现的:使用等距柱状投影全景图像来表示VR全景图像画面;首先利用光线跟踪技术绘制虚拟三维场景的VR全景图像画面,生成一张等距柱状投影全景图像,然后对等距柱状投影全景图像进行显著性检测,获得等距柱状投影全景图像的显著性图,最后根据等距柱状投影全景图像的显著性图来实现自适应像素抗失真处理。本方法的具体步骤如下:
步骤Step101:令NRow表示等距柱状投影全景图像的像素行数,令NCol表示等距柱状投影全景图像的像素列数;在计算机的存储器中创建一个包含NRow行、NCol列的二维数组ARR1,二维数组ARR1的每个元素存储一个可视场景点的坐标;在计算机的存储器中创建一个包含NRow行、NCol列的二维数组ARR2,二维数组ARR2的每个元素存储一个可视场景点的法向量;等距柱状投影全景图像的像素与可视场景点一一对应;等距柱状投影全景图像的像素与二维数组ARR1的元素一一对应,等距柱状投影全景图像的像素与二维数组ARR2的元素一一对应;具体地,二维数组ARR1的第i行、第j列元素用于存储等距柱状投影全景图像的第i行、第j列像素对应的可视场景点的坐标,二维数组ARR2的第i行、第j列元素用于存储等距柱状投影全景图像的第i行、第j列像素对应的可视场景点的法向量,其中i=1,2,…,NRow,j=1,2,…,NCol
步骤Step102:对于i=1,2,…,NRow,j=1,2,…,NCol,针对等距柱状投影全景图像的第i行、第j列像素A001,做如下操作:
步骤Step102-1:计算像素A001在虚拟全景相机的虚拟成像球面上的成像位置PIX的坐标(xp,yp,zp);具体地,x0=sin(θ)cos(φ),y0=sin(θ)sin(φ),z0=cos(θ),φ=2π(j-1+0.5)/NCol,θ=π(i-1+0.5)/NRow,矩阵M为:其中wx、wy、wz表示虚拟全景相机的单位向上方向向量w的x、y、z分量,向量w的值在执行本方法前事先指定;ux、uy、uz表示向量u的x、y、z分量;Px、Py、Pz表示虚拟全景相机的视点坐标的x、y、z分量;vx、vy、vz表示向量v的x、y、z分量;令向量/>如果/>则令向量/>否则令向量v=[0,0,1]T;令向量/>虚拟全景相机如图2所示;
步骤Step102-2:从虚拟全景相机的视点位置发射穿过成像位置PIX的光线A002,利用光线跟踪技术跟踪光线A002在三维场景中的传输,计算最终沿光线A002反向方向到达成像位置PIX的光亮度值IL,在此过程中计算像素A001对应的可视场景点的坐标COR1,并把该坐标COR1赋值给二维数组ARR1的第i行、第j列元素,计算像素A001对应的可视场景点的法向量NORM,并把该法向量NORM赋值给二维数组ARR2的第i行、第j列元素;像素A001对应的可视场景点就是光线A002在三维场景中传输时与遇到的第一个几何对象的交点,即沿光线A002的传输方向从虚拟全景相机的视点位置可以直接看见的光线A002与三维场景的几何对象的交点;把光亮度值IL与等距柱状投影全景图像的第i行、第j列像素A001相关联;
步骤Step102-3:把光亮度值IL转换成颜色值Color;把像素A001的颜色设置为颜色值Color;
步骤Step102-4:针对等距柱状投影全景图像的第i行、第j列像素A001的操作结束;
步骤Step103:利用全景图像显著性检测技术计算等距柱状投影全景图像的显著性图SMap;
步骤Step104:在计算机的存储器中创建一个包含NRow行、NCol列的二维数组PANOIMG,二维数组PANOIMG的每个元素用于保存经像素抗失真处理后的等距柱状投影全景图像的像素的颜色值,二维数组PANOIMG的元素与等距柱状投影全景图像的像素一一对应;对于i=1,2,…,NRow,j=1,2,…,NCol,针对等距柱状投影全景图像的第i行、第j列像素A001,做如下操作:
步骤Step104-1:把二维数组PANOIMG的第i行、第j列元素赋值为等距柱状投影全景图像的第i行、第j列像素A001的颜色值;根据等距柱状投影全景图像的像素与可视场景点的对应关系、等距柱状投影全景图像的像素与二维数组ARR1的元素的对应关系以及二维数组ARR1存储的值,计算等距柱状投影全景图像的第i行、第j列像素A001对应的可视场景点的坐标COR1;根据等距柱状投影全景图像的像素与可视场景点的对应关系、等距柱状投影全景图像的像素与二维数组ARR1的元素的对应关系以及二维数组ARR1存储的值,计算在等距柱状投影全景图像中与第i行、第j列像素A001直接相邻的所有像素对应的可视场景点的坐标COR1,并把它们存放在坐标列表LISTCOR1中;计算第i行、第j列像素A001对应的可视场景点的坐标COR1与坐标列表LISTCOR1中的各个坐标COR1之间的距离的最大值DISM;
步骤Step104-2:根据等距柱状投影全景图像的像素与可视场景点的对应关系、等距柱状投影全景图像的像素与二维数组ARR2的元素的对应关系以及二维数组ARR2存储的值,计算等距柱状投影全景图像的第i行、第j列像素A001对应的可视场景点的法向量NORM;根据等距柱状投影全景图像的像素与可视场景点的对应关系、等距柱状投影全景图像的像素与二维数组ARR2的元素的对应关系以及二维数组ARR2存储的值,计算在等距柱状投影全景图像中与第i行、第j列像素A001直接相邻的所有像素对应的可视场景点的法向量NORM,并把它们存放在法向量列表LISTNORM中;计算第i行、第j列像素A001对应的可视场景点的法向量NORM与法向量列表LISTNORM中的各个法向量NORM之间的夹角的最大值ANGM;
步骤Step104-3:把在等距柱状投影全景图像中与第i行、第j列像素A001直接相邻的所有像素的颜色值存放在颜色列表LISTCORLOR中;计算等距柱状投影全景图像的第i行、第j列像素A001的颜色值在CIE Lab颜色空间中对应的值CVLab;计算颜色列表LISTCORLOR中的所有颜色值在CIE Lab颜色空间中对应的值,并把它们存放在颜色列表LISTCORLORLAB中;计算CIE Lab颜色空间中的值CVLab与颜色列表LISTCORLORLAB中的各个颜色值的欧氏距离的最大值COLORM;
步骤Step104-4:如果最大值DISM小于距离阈值DIST,并且最大值ANGM小于角度阈值ANGT,并且最大值COLORM小于颜色阈值COLORT,则转步骤Step104-8,否则进一步判断显著性图SMap的第i行、第j列像素的值是否小于显著性阈值SALTH,如果是,则转步骤Step104-7,否则产生Nar个[0,1]之间均匀分布的随机数{rφ,m|m=1,2,…,Nar},产生Nar个[0,1]之间均匀分布的随机数{rθ,m|m=1,2,…,Nar};在计算机的存储器中创建一个集合SETIL1,集合SETIL1的每个元素存储一个光亮度值,设置集合SETIL1为空集;分别针对m=1,2,…,Nar,做如下操作:
步骤Step104-4-1:计算
步骤Step104-4-2:计算
步骤Step104-4-3:从虚拟全景相机的视点位置发射穿过坐标为(x′m,y′m,z′m)的成像位置PIX1的光线B002,利用光线跟踪技术跟踪光线B002在三维场景中的传输,计算最终沿光线B002反向方向到达成像位置PIX1的光亮度值IL1;
步骤Step104-4-4:把光亮度值IL1添加到集合SETIL1中;
步骤Step104-4-5:针对m的操作结束;
步骤Step104-5:把与等距柱状投影全景图像的第i行、第j列像素A001相关联的光亮度值IL添加到集合SETIL1中;
步骤Step104-6:计算集合SETIL1中的所有元素存储的光亮度值的平均值AVG1,把平均值AVG1转换成颜色值Color并赋值给二维数组PANOIMG的第i行、第j列元素;转步骤Step104-8;
步骤Step104-7:在计算机的存储器中创建一个集合SETIL2,集合SETIL2的每个元素存储一个光亮度值,设置集合SETIL2为空集;把与等距柱状投影全景图像的第i行、第j列像素A001相关联的光亮度值IL添加到集合SETIL2中;把在等距柱状投影全景图像中与第i行、第j列像素A001直接相邻的所有像素关联的光亮度值IL添加到集合SETIL2中;计算集合SETIL2中的所有元素存储的光亮度值的平均值AVG2,把平均值AVG2转换成颜色值Color并赋值给二维数组PANOIMG的第i行、第j列元素;
步骤Step104-8:针对等距柱状投影全景图像的第i行、第j列像素A001的操作结束;
步骤Step105:更新等距柱状投影全景图像,得到经像素抗失真处理后的等距柱状投影全景图像,具体地,对于i=1,2,…,NRow,j=1,2,…,NCol,把等距柱状投影全景图像的第i行、第j列像素A001的颜色设置为二维数组PANOIMG的第i行、第j列元素的值;
步骤Step106:把等距柱状投影全景图像以文件形式保存到计算机硬盘上。
在本实施例中,NRow=1024,NCol=2048,w=[0,0,1]T;距离阈值DIST为墙高的1/200;角度阈值ANGT为π/180rad;颜色阈值COLORT为1;显著性阈值SALTH为0.5;Nar=3;步骤Step104-7实际上就是通过利用相邻像素颜色值做平滑滤波来实现像素抗失真。步骤Step102用于实现等距柱状投影全景图像的渲染生成。在本实施例中,像素的直接相邻像素如图3所示,对于像素P来说,与其直接相邻的像素包括像素A、像素B、像素C、像素D、像素E、像素F、像素G、像素H。

Claims (1)

1.一种视觉显著性驱动的VR电影画面渲染像素抗失真处理方法,其特征在于:使用等距柱状投影全景图像来表示VR全景图像画面;首先利用光线跟踪技术绘制虚拟三维场景的VR全景图像画面,生成一张等距柱状投影全景图像,然后对等距柱状投影全景图像进行显著性检测,获得等距柱状投影全景图像的显著性图,最后根据等距柱状投影全景图像的显著性图来实现自适应像素抗失真处理;本方法的具体步骤如下:
步骤Step101:令NRow表示等距柱状投影全景图像的像素行数,令NCol表示等距柱状投影全景图像的像素列数;在计算机的存储器中创建一个包含NRow行、NCol列的二维数组ARR1,二维数组ARR1的每个元素存储一个可视场景点的坐标;在计算机的存储器中创建一个包含NRow行、NCol列的二维数组ARR2,二维数组ARR2的每个元素存储一个可视场景点的法向量;等距柱状投影全景图像的像素与可视场景点一一对应;等距柱状投影全景图像的像素与二维数组ARR1的元素一一对应,等距柱状投影全景图像的像素与二维数组ARR2的元素一一对应;具体地,二维数组ARR1的第i行、第j列元素用于存储等距柱状投影全景图像的第i行、第j列像素对应的可视场景点的坐标,二维数组ARR2的第i行、第j列元素用于存储等距柱状投影全景图像的第i行、第j列像素对应的可视场景点的法向量,其中i=1,2,…,NRow,j=1,2,…,NCol
步骤Step102:对于i=1,2,…,NRow,j=1,2,…,NCol,针对等距柱状投影全景图像的第i行、第j列像素A001,做如下操作:
步骤Step102-1:计算像素A001在虚拟全景相机的虚拟成像球面上的成像位置PIX的坐标(xp,yp,zp);具体地,x0=sin(θ)cos(φ),y0=sin(θ)sin(φ),z0=cos(θ),φ=2π(j-1+0.5)/NCol,θ=π(i-1+0.5)/NRow,矩阵M为:
其中wx、wy、wz表示虚拟全景相机的单位向上方向向量w的x、y、z分量,向量w的值在执行本方法前事先指定;ux、uy、uz表示向量u的x、y、z分量;Px、Py、Pz表示虚拟全景相机的视点坐标的x、y、z分量;vx、vy、vz表示向量v的x、y、z分量;令向量/>如果/>则令向量/>否则令向量v=[0,0,1]T;令向量/>
步骤Step102-2:从虚拟全景相机的视点位置发射穿过成像位置PIX的光线A002,利用光线跟踪技术跟踪光线A002在三维场景中的传输,计算最终沿光线A002反向方向到达成像位置PIX的光亮度值IL,在此过程中计算像素A001对应的可视场景点的坐标COR1,并把该坐标COR1赋值给二维数组ARR1的第i行、第j列元素,计算像素A001对应的可视场景点的法向量NORM,并把该法向量NORM赋值给二维数组ARR2的第i行、第j列元素;像素A001对应的可视场景点就是光线A002在三维场景中传输时与遇到的第一个几何对象的交点,即沿光线A002的传输方向从虚拟全景相机的视点位置可以直接看见的光线A002与三维场景的几何对象的交点;把光亮度值IL与等距柱状投影全景图像的第i行、第j列像素A001相关联;
步骤Step102-3:把光亮度值IL转换成颜色值Color;把像素A001的颜色设置为颜色值Color;
步骤Step102-4:针对等距柱状投影全景图像的第i行、第j列像素A001的操作结束;
步骤Step103:利用全景图像显著性检测技术计算等距柱状投影全景图像的显著性图SMap;
步骤Step104:在计算机的存储器中创建一个包含NRow行、NCol列的二维数组PANOIMG,二维数组PANOIMG的每个元素用于保存经像素抗失真处理后的等距柱状投影全景图像的像素的颜色值,二维数组PANOIMG的元素与等距柱状投影全景图像的像素一一对应;对于i=1,2,…,NRow,j=1,2,…,NCol,针对等距柱状投影全景图像的第i行、第j列像素A001,做如下操作:
步骤Step104-1:把二维数组PANOIMG的第i行、第j列元素赋值为等距柱状投影全景图像的第i行、第j列像素A001的颜色值;根据等距柱状投影全景图像的像素与可视场景点的对应关系、等距柱状投影全景图像的像素与二维数组ARR1的元素的对应关系以及二维数组ARR1存储的值,计算等距柱状投影全景图像的第i行、第j列像素A001对应的可视场景点的坐标COR1;根据等距柱状投影全景图像的像素与可视场景点的对应关系、等距柱状投影全景图像的像素与二维数组ARR1的元素的对应关系以及二维数组ARR1存储的值,计算在等距柱状投影全景图像中与第i行、第j列像素A001直接相邻的所有像素对应的可视场景点的坐标COR1,并把它们存放在坐标列表LISTCOR1中;计算第i行、第j列像素A001对应的可视场景点的坐标COR1与坐标列表LISTCOR1中的各个坐标COR1之间的距离的最大值DISM;
步骤Step104-2:根据等距柱状投影全景图像的像素与可视场景点的对应关系、等距柱状投影全景图像的像素与二维数组ARR2的元素的对应关系以及二维数组ARR2存储的值,计算等距柱状投影全景图像的第i行、第j列像素A001对应的可视场景点的法向量NORM;根据等距柱状投影全景图像的像素与可视场景点的对应关系、等距柱状投影全景图像的像素与二维数组ARR2的元素的对应关系以及二维数组ARR2存储的值,计算在等距柱状投影全景图像中与第i行、第j列像素A001直接相邻的所有像素对应的可视场景点的法向量NORM,并把它们存放在法向量列表LISTNORM中;计算第i行、第j列像素A001对应的可视场景点的法向量NORM与法向量列表LISTNORM中的各个法向量NORM之间的夹角的最大值ANGM;
步骤Step104-3:把在等距柱状投影全景图像中与第i行、第j列像素A001直接相邻的所有像素的颜色值存放在颜色列表LISTCORLOR中;计算等距柱状投影全景图像的第i行、第j列像素A001的颜色值在CIE Lab颜色空间中对应的值CVLab;计算颜色列表LISTCORLOR中的所有颜色值在CIE Lab颜色空间中对应的值,并把它们存放在颜色列表LISTCORLORLAB中;计算CIE Lab颜色空间中的值CVLab与颜色列表LISTCORLORLAB中的各个颜色值的欧氏距离的最大值COLORM;
步骤Step104-4:如果最大值DISM小于距离阈值DIST,并且最大值ANGM小于角度阈值ANGT,并且最大值COLORM小于颜色阈值COLORT,则转步骤Step104-8,否则进一步判断显著性图SMap的第i行、第j列像素的值是否小于显著性阈值SALTH,如果是,则转步骤Step104-7,否则产生Nar个[0,1]之间均匀分布的随机数{rφ,m|m=1,2,…,Nar},产生Nar个[0,1]之间均匀分布的随机数{rθ,m|m=1,2,…,Nar};在计算机的存储器中创建一个集合SETIL1,集合SETIL1的每个元素存储一个光亮度值,设置集合SETIL1为空集;分别针对m=1,2,…,Nar,做如下操作:
步骤Step104-4-1:计算
步骤Step104-4-2:计算
步骤Step104-4-3:从虚拟全景相机的视点位置发射穿过坐标为(x′m,y′m,z′m)的成像位置PIX1的光线B002,利用光线跟踪技术跟踪光线B002在三维场景中的传输,计算最终沿光线B002反向方向到达成像位置PIX1的光亮度值IL1;
步骤Step104-4-4:把光亮度值IL1添加到集合SETIL1中;
步骤Step104-4-5:针对m的操作结束;
步骤Step104-5:把与等距柱状投影全景图像的第i行、第j列像素A001相关联的光亮度值IL添加到集合SETIL1中;
步骤Step104-6:计算集合SETIL1中的所有元素存储的光亮度值的平均值AVG1,把平均值AVG1转换成颜色值Color并赋值给二维数组PANOIMG的第i行、第j列元素;转步骤Step104-8;
步骤Step104-7:在计算机的存储器中创建一个集合SETIL2,集合SETIL2的每个元素存储一个光亮度值,设置集合SETIL2为空集;把与等距柱状投影全景图像的第i行、第j列像素A001相关联的光亮度值IL添加到集合SETIL2中;把在等距柱状投影全景图像中与第i行、第j列像素A001直接相邻的所有像素关联的光亮度值IL添加到集合SETIL2中;计算集合SETIL2中的所有元素存储的光亮度值的平均值AVG2,把平均值AVG2转换成颜色值Color并赋值给二维数组PANOIMG的第i行、第j列元素;
步骤Step104-8:针对等距柱状投影全景图像的第i行、第j列像素A001的操作结束;
步骤Step105:更新等距柱状投影全景图像,得到经像素抗失真处理后的等距柱状投影全景图像,具体地,对于i=1,2,…,NRow,j=1,2,…,NCol,把等距柱状投影全景图像的第i行、第j列像素A001的颜色设置为二维数组PANOIMG的第i行、第j列元素的值;
步骤Step106:把等距柱状投影全景图像以文件形式保存到计算机硬盘上。
CN202111023412.3A 2021-09-02 2021-09-02 视觉显著性驱动的vr电影画面渲染像素抗失真处理方法 Active CN113706680B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111023412.3A CN113706680B (zh) 2021-09-02 2021-09-02 视觉显著性驱动的vr电影画面渲染像素抗失真处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111023412.3A CN113706680B (zh) 2021-09-02 2021-09-02 视觉显著性驱动的vr电影画面渲染像素抗失真处理方法

Publications (2)

Publication Number Publication Date
CN113706680A CN113706680A (zh) 2021-11-26
CN113706680B true CN113706680B (zh) 2023-09-19

Family

ID=78657110

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111023412.3A Active CN113706680B (zh) 2021-09-02 2021-09-02 视觉显著性驱动的vr电影画面渲染像素抗失真处理方法

Country Status (1)

Country Link
CN (1) CN113706680B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115908684A (zh) * 2022-11-30 2023-04-04 长春理工大学 视觉感知驱动的自适应三维场景渲染方法、系统及设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107431803A (zh) * 2015-05-27 2017-12-01 谷歌公司 全景虚拟现实内容的捕捉和渲染
CN107422844A (zh) * 2017-03-27 2017-12-01 联想(北京)有限公司 一种信息处理方法及电子设备
CN110675482A (zh) * 2019-08-28 2020-01-10 长春理工大学 虚拟三维场景的球面斐波那契像素点阵全景画面渲染与显示方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10038887B2 (en) * 2015-05-27 2018-07-31 Google Llc Capture and render of panoramic virtual reality content

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107431803A (zh) * 2015-05-27 2017-12-01 谷歌公司 全景虚拟现实内容的捕捉和渲染
CN107422844A (zh) * 2017-03-27 2017-12-01 联想(北京)有限公司 一种信息处理方法及电子设备
CN110675482A (zh) * 2019-08-28 2020-01-10 长春理工大学 虚拟三维场景的球面斐波那契像素点阵全景画面渲染与显示方法

Also Published As

Publication number Publication date
CN113706680A (zh) 2021-11-26

Similar Documents

Publication Publication Date Title
US10694146B2 (en) Video capture systems and methods
US11210838B2 (en) Fusing, texturing, and rendering views of dynamic three-dimensional models
US20210090608A1 (en) Video processing method, device and electronic equipment
KR101994121B1 (ko) 중간 뷰로부터의 효율적인 캔버스 뷰 생성
US8189035B2 (en) Method and apparatus for rendering virtual see-through scenes on single or tiled displays
US5805782A (en) Method and apparatus for projective texture mapping rendered from arbitrarily positioned and oriented light source
US7854518B2 (en) Mesh for rendering an image frame
JP3996933B2 (ja) シーンの2レイヤ3d表現を生成するシステムおよび処理
US7800628B2 (en) System and method for generating scale maps
US9137504B2 (en) System and method for projecting multiple image streams
US20070291184A1 (en) System and method for displaying images
US10460505B2 (en) Systems and methods for lightfield reconstruction utilizing contribution regions
TWI786157B (zh) 用於產生場景之舖磚式三維影像表示之設備及方法
CN101140661A (zh) 一种以动态投影为背景的实时目标识别方法
CN113706680B (zh) 视觉显著性驱动的vr电影画面渲染像素抗失真处理方法
WO2023004559A1 (en) Editable free-viewpoint video using a layered neural representation
JP6851089B2 (ja) 適応的三次元空間生成方法及びそのシステム
CN112419492B (zh) 视觉感知驱动蒙卡渲染像素路径采样数自适应控制方法
US11562679B2 (en) Systems and methods for mask-based temporal dithering
CA2709092A1 (en) Smooth shading and texture mapping using linear gradients
US10902669B2 (en) Method for estimating light for augmented reality and electronic device thereof
US20210304352A1 (en) Multi-view consistency regularization for semantic interpretation of equal-rectangular panoramas
JPH02242387A (ja) 空間分割型並列画像生成装置
CN116997925A (zh) 用以最小化伪像的摄像头定位

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant