CN107220925B - 一种实时虚拟现实加速方法及装置 - Google Patents

一种实时虚拟现实加速方法及装置 Download PDF

Info

Publication number
CN107220925B
CN107220925B CN201710310655.2A CN201710310655A CN107220925B CN 107220925 B CN107220925 B CN 107220925B CN 201710310655 A CN201710310655 A CN 201710310655A CN 107220925 B CN107220925 B CN 107220925B
Authority
CN
China
Prior art keywords
coordinate
image
output image
input picture
vegetarian refreshments
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710310655.2A
Other languages
English (en)
Other versions
CN107220925A (zh
Inventor
唐禹谱
张俊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Allwinner Technology Co Ltd
Original Assignee
Allwinner Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Allwinner Technology Co Ltd filed Critical Allwinner Technology Co Ltd
Priority to CN201710310655.2A priority Critical patent/CN107220925B/zh
Priority to PCT/CN2017/101248 priority patent/WO2018201652A1/zh
Priority to US16/346,125 priority patent/US10777014B2/en
Priority to EP17908404.1A priority patent/EP3522104A4/en
Publication of CN107220925A publication Critical patent/CN107220925A/zh
Application granted granted Critical
Publication of CN107220925B publication Critical patent/CN107220925B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • G06T3/18
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4007Interpolation-based scaling, e.g. bilinear interpolation
    • G06T5/77
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/28Indexing scheme for image data processing or generation, in general involving image processing hardware

Abstract

本发明涉及一种实时虚拟现实加速方法,包括获取输入图像;将输出图像缓存划分成M行、N列的矩形网格块;根据反畸变、反色散及异步时间扭曲融合算法计算输出图像缓存网格块对应输入图像网格块的顶点坐标;计算输出图像缓存和输入图像中每对网格块的二维映射系数;根据二维映射系数计算输出图像像素点对应在输入图像像素点坐标;选取与输入图像像素点的坐标临近的至少四个像素点计算输出图像像素点的值;输出反畸变、反色散及异步时间扭曲后的图像。通过对输入图像及输出图像缓存进行网格划分,对输入输出图像块的顶点坐标采用二维映射方式插值实现反畸变、反色散及异步时间扭曲功能,达到降低GPU负载、减少带宽消耗、降低延迟、不眩晕的VR体验效果。

Description

一种实时虚拟现实加速方法及装置
技术领域
本发明涉及虚拟现实领域,具体涉及一种实时虚拟现实加速方法及装置。
背景技术
VR头显镜片畸变能最大化覆盖人的视觉范围的扭曲,呈现更大的视场角,增强体验的沉浸感。显示屏上的图像在透过透镜放大时,图像会被畸变。为了抵消这个畸变,需要对图像进行拉伸扭曲,这样投影到视网膜上的就是没有变形的图像,该技术被称为反畸变。
白光通过三棱镜时射出的是一道彩虹,那是因为不同的颜色光线折射率不同,对于VR的透镜边缘也会有同样场景发生,为解决该问题,采用类似反畸变的做法,利用光路可逆原理,先在图像进入透镜前做一次反色散,这样经过透镜出来后的图像就正常了,这种技术就叫反色散。
异步时间扭曲是一种生成中间帧的技术,当游戏或视频图像不能保持足够帧率的时候,异步时间扭曲能产生中间帧,从而有效减少图像画面的抖动。在使用VR设备时,由于头部运动过快,而造成场景渲染的延迟,时间扭曲通过基于方向扭曲一副被送往显示器之前的图像,来解决这个延迟问题。异步时间扭曲技术被广泛用于VR等产品中,有效解决图像抖动、延迟,从而减少视频图像眩晕感。
现有实现方式大多是基于GPU加速的反畸变、反色散及异步时移,典型的有GearVR、oclulus的VR头显及cardbord的头显产品,这些产品都对GPU性能、DDR速度、显示时延及整机功耗提出了挑战。现有的技术主要存在以下缺点:反畸变、反色散、异步时间扭曲是分步通过GPU或软件运算进行的,计算反畸变、反色散、异步时间扭曲需要耗费GPU负载及系统负载;异步时间扭曲需要GPU硬件支持合理的抢占粒度,同时需要操作系统和驱动程序支持GPU抢占;实现时GPU是存储器-存储器方式,带宽消耗很大,从而导致功耗增加;且GPU采用的是离线方式,额外增加了处理延时,VR体验变差。
发明内容
本发明解决其技术问题所采用的技术方案是:提供一种实时虚拟现实加速方法,包括:步骤1,获取输入图像;步骤2,将输出图像缓存划分成M行、N列的矩形网格块,并输出所述矩形网格块的顶点坐标;步骤3,根据反畸变、反色散及时间扭曲融合的算法模型计算出所述输出图像缓存网格块的顶点坐标对应的输入图像网格块的顶点坐标;步骤4,根据所述输出图像缓存网格块的顶点坐标和所述输入图像网格块中对应的顶点坐标计算所述输出图像缓存和所述输入图像中每对网格块的二维映射系数;步骤5,根据所述二维映射系数计算输出图像像素点对应在输入图像像素点的坐标;步骤6,选取与所述输出图像像素点对应在所述输入图像像素点的坐标临近的至少四个像素点的像素值,以计算所述输出图像像素点的像素值;步骤7,输出反畸变、反色散及异步时间扭曲后的图像。
所述步骤1中的输入图像是经过球形变换的视频图像。
所述步骤2中的M和N的取值为2的幂次。
所述步骤4具体为:根据所述输出图像缓存网格块的顶点坐标和所述输入图像网格块中对应的顶点坐标计算所述输出图像缓存和所述输入图像中每对网格块的R、G、B分量的二维映射系数。
所述步骤5具体为:根据所述R、G、B分量的二维映射系数分别计算输出图像缓存中的像素点的R、G、B分量对应在输入图像中像素点的R、G、B分量的坐标。
所述步骤5根据所述二维映射系数计算输出图像缓存中的像素点对应在输入图像中像素点的坐标由硬件电路完成。
所述步骤6选取与所述输出图像像素点对应在所述输入图像像素点的坐标临近的至少四个像素点的像素值,以计算所述输出图像像素点的像素值由硬件电路完成。
所述步骤6具体为:选取与所述输出图像像素点对应在所述输入图像像素点的坐标临近的至少四个像素点的像素值,采用双线性插值算法或双三次插值算法进行插值计算,以计算所述输出图像像素点的像素值。
所述步骤7输出反畸变、反色散及异步时间扭曲后的图像经过图像合成之后直接显示。
本发明还提供一种实时虚拟现实加速装置,包括输入图像缓存模块、输出图像缓存分块模块、映射系数计算模块、图像计算模块;输入图像缓存模块接收并保存输入图像;输出图像缓存分块模块将输出图像缓存划分成M行、N列的矩形网格块,并输出所有网格块的顶点坐标;映射系数计算模块根据反畸变、反色散及时间扭曲融合的算法模型计算所述输出图像缓存网格块的顶点坐标对应的输入图像中的顶点坐标,并根据所述输出图像缓存网格块的顶点坐标和所述输入图像网格块中对应的顶点坐标计算所述输出图像缓存和所述输入图像缓存中每对网格块的二维映射系数;图像计算模块根据所述二维映射系数计算所述输出图像像素点对应在所述输入图像像素点的坐标,选取与所述输出图像像素点对应在所述输入图像像素点的坐标临近的至少四个像素点的像素值,以计算所述输出图像像素点的像素值,以输出反畸变、反色散及异步时间扭曲后的图像。
所述输入图像是经过球形变换的视频图像。
所述M和N的取值为2的幂次。
所述映射系数计算模块包括顶点坐标计算单元和映射系数计算单元,顶点坐标计算单元根据反畸变、反色散及异步时间扭曲融合的算法模型计算所述输出图像缓存网格块的顶点坐标对应的所述输入图像中的顶点坐标;映射系数计算单元根据所述输出图像缓存网格块的顶点坐标和所述输入图像网格块中对应的顶点坐标计算所述输出图像缓存和所述输入图像中每对网格块的二维映射系数。
所述映射系数计算单元包括R分量映射系数计算单元、G分量映射系数计算单元和B分量映射系数计算单元。
所述图像计算模块根据所述二维映射系数计算所述输出图像像素点对应在所述输入图像像素点的坐标,并选取与所述输出图像像素点对应在所述输入图像像素点的坐标临近的至少四个像素点的像素值,以计算所述输出图像像素点的像素值由硬件电路完成。
所述图像计算模块包括坐标运算器、坐标判断器、取数器和图像插值生成器:坐标运算器根据所述二维映射系数计算所述输出图像像素点对应在所述输入图像像素点的坐标;坐标判断器判断所述坐标运算器得出的坐标是否有效,当所述坐标运算器计算出的坐标超过所述输入图像的坐标范围时,所述坐标判断器判断所述输出图像像素点对应在所述输入图像像素点的坐标无效,则所述输出图像像素点的像素值为0;取数器在输入图像中选取与所述坐标判断器判断的有效坐标临近的至少四个像素点的像素值;图像插值生成器根据所述取数器选取的像素值进行插值计算,以计算所述输出图像像素点的像素值,生成反畸变、反色散及异步时间扭曲后的图像。
所述坐标运算器包括R分量坐标运算单元、G分量坐标运算单元和B分量坐标运算单元。
当所述坐标运算器得出的R、G、B分量对应到输入图像的坐标超过所述输入图像的坐标范围时,所述坐标判断器判断所述坐标运算器得出的R、G、B分量对应到输入图像的坐标无效,则所述输出图像像素点的像素值为0。
所述图像插值生成器包括双线性插值计算器或双三次插值计算器,用于根据所述取数器选取的像素值进行插值计算,以计算所述输出图像像素点的像素值,以生成反畸变、反色散及异步时间扭曲后的图像。
所述图像计算模块输出的反畸变、反色散及异步时间扭曲后的图像经过图像合成后直接显示。
本发明的实时虚拟现实加速方法通过对输出图像缓存进行网格划分得到的顶点,再融合反畸变、反色散和异步时间扭曲三种功能由软件顶点渲染的方式得出对应输入图像网格顶点坐标,然后对输入输出图像对应每个网格块的顶点坐标采用二维映射方式计算出把反畸变、反色散和异步时间扭曲功能融合在一起的一套系数。最后再由输入图像插值的方式实现输出图像。该方法有效利用GPU顶点渲染优势,同时降低GPU插值大量运算,进而有效的解决了GPU负载,资源抢占的问题,并且插值算法可自适应调整,提高图像清晰度并优于GPU渲染。
本发明还提供实时虚拟现实加速装置,把输入图像及输出图像通过块映射系数(Mx N)的方式进行二维映射,硬件以查找表方式完成目标图像在原图像的映射,最终以插值方式生产最终图像,提高了渲染速度,降低显示延迟,解放GPU并降低系统负载,同时灵活的把算法模型通过软件方式融入到顶点坐标中,能自适应多类反畸变、ATW等模型,不需要硬件做任何改动。在线的图像加速处理,只需数据读取不需要数据写出,减少带宽消耗降低功耗,减少GPU及系统负载达到降低功耗,同时进一步降低时延,提升体验,无眩晕。
附图说明
下面将结合附图及实施例对本发明作进一步说明,附图中:
图1是本发明一实施例的实时虚拟现实加速方法100的流程框图;
图2是本发明一实施例的输出图像缓存网格块与输入图像网格块的二维映射原理示意图;
图3是本发明一实施例的实时虚拟现实加速装置300的框图;
图4是本发明一实施例的映射系数计算模块400的框图;
图5是本发明一实施例的图像计算模块500的电路框图;
图6是本发明一实施例的实时虚拟现实加速装置600的框图;
图7是本发明一实施例的左右eye buffer计算流程示意图。
图8是本发明一实施例的输入图像分块取数示意图。
具体实施方式
现结合附图,对本发明的较佳实施例作详细说明。
如图1所示,是本发明的一实施例的实时虚拟现实加速方法100的流程框图。步骤101首先获取输入图像,所述输入图像可为解码后的视频图像经过球形变换之后生成的图像,并保存在相应的缓存中;在具体实施方式中,可保存在eye buffer中。步骤103将输出图像缓存划分成M行、N列的矩形网格块,并输出所述矩形网格块的顶点坐标。步骤105根据反畸变、反色散及异步时间扭曲融合的算法模型计算出输出图像缓存网格块的顶点坐标对应的输入图像网格块的顶点坐标;在具体实施方式中,现有技术中的多种反畸变、反色散及异步时间扭曲融合的算法模型都可以用于完成上述顶点坐标的计算。步骤107根据输出图像缓存网格块的顶点坐标和输入图像网格块中对应的顶点坐标计算输出图像缓存和输入图像中每对网格块的二维映射系数。在具体实施方式中,可分别计算每对网格块的R、G、B分量的映射系数。步骤109根据二维映射系数计算出输出图像像素点对应在输入图像中像素点的坐标;步骤111选取与输出图像像素点对应在输入图像像素点的坐标临近的至少四个像素点的像素值,以计算所述输出图像像素点的像素值。在具体实施方式中,可根据二维映射系数,对输出图像缓存中的网格块按照行扫描的方式计算输出图像缓存中的像素点对应在输入图像中像素点的坐标,并可按照行扫描的方式计算输出图像像素值。步骤113输出反畸变、反色散及异步时间扭曲后的图像。
通过对输出图像缓存进行网格划分,然后通过软件计算的方式,对输入输出图像块的顶点坐标采用二维映射方式插值实现反畸变、反色散和异步时间扭曲功能,并且把这三种功能通过一套系数融合在一起,一次性完成,实现VR加速,并有效的解决了GPU负载,资源抢占的问题,同时,灵活的把算法模型通过软件方式融入到顶点坐标中,能自适应多类反畸变、反色散和异步时间扭曲模型。
在一实施方式中,输入图像可以是经过球形变换的视频图像。
在一实施方式中,输出图像缓存划分的矩形网格块的边长M和N可取值为2的幂次,可节省计算量和计算时间。
在具体实施方式中,假设输出图像缓存网格块的顶点坐标为{x',y'},对应在输入图像中的坐标是{x,y},则满足以下公式:
A(x,y)=1+k1*(x*x)+k2*(y*y);
x=x'*A(x,y);
y=y'*A(x,y);
其中,A(x,y)表示(x,y)处坐标增益,k1、K2表示图像水平、垂直的畸变因子。当计算出输入图像中的坐标(x,y)后,设p={x,y}是反畸变反色散网格中的二维点,姿态补偿矩阵可以是4x4矩阵mat,即三维空间的旋转矩阵。按照矩阵乘法要求p也应为四维向量,可扩展p为P={x,y,-1,1},P在z=-1平面;Q=P*mat,Q是施加姿态补偿矩阵后的三维空间点。设Q={x',y',z',1},显然经过旋转得到的Q已经不在z=-1平面,需要将Q映射回z=-1平面,这相当于计算直线(过Q和原点)和平面(z=-1)的交点q,计算方法如下:
过空间点Q的直线方程为:t=x/x'=y/y'=z/z';代入z=-1即可求出:
t=-1/z';
x=x'*t;
y=y'*t;
q={x'*t,y'*t,-1,1}
其中,坐标(x'*t,y'*t)即为输出图像缓存网格块的顶点坐标对应的输入图像网格块的顶点坐标。
在一实施方式中,可根据输出图像缓存网格块的顶点坐标和输入图像网格块中对应的顶点坐标计算输出图像缓存和输入图像中每对网格块的R、G、B分量的二维映射系数。当只计算反畸变和异步时间扭曲算法时,可直接计算输出图像缓存和输入图像中每对网格块的二维映射系数。在具体实施方式中,为实现方便,二维映射系数的存放方式按照行扫描的方式,每块按像素分量存放其系数a(a(R)、a(G)、a(B)),b(b(R)、b(G)、b(B)),c(c(R)、c(G)、c(B)),d(d(R)、d(G)、d(B)),e(e(R)、e(G)、e(B)),f(f(R)、f(G)、f(B)),g(g(R)、g(G)、g(B)),h(h(R)、h(G)、h(B))、β(β(R)、β(G)、β(B)),,存放顺序为先存R分量8x32bits,接着为G的8x32bits,B的8x32bits,及常数项β分量8x32bits,然后下一个block数据。其中8x32bits是指8个(a,b,c,d,e,f,g,h)32bits数据,而β分量则只有R,G,B的3个32bits,设置成8x32bits是为了硬件设计对齐。
在一实施方式中,可根据R、G、B分量的二维映射系数分别计算输出图像缓存中的像素点的R、G、B分量对应在输入图像中像素点的R、G、B分量的坐标。
在一实施方式中,步骤109根据二维映射系数计算输出图像像素点对应在输入图像像素点的坐标可由硬件电路完成。步骤111选取与所述输出图像像素点对应在所述输入图像像素点的坐标临近的至少四个像素点的像素值,以计算所述输出图像像素点的像素值也可由硬件电路完成。通过将反畸变、ATW及反色散算法模型融入到输入输出缓存网格坐标中,并通过硬件查表方式实现图像插值效果,在线实现反畸变、ATW及反色散等过程,减少数据读写,降低带宽及功耗,降低时延及眩晕。
在一实施方式中,可采用双线性插值算法或双三次插值算法,选取与输出图像像素点对应在输入图像像素点的坐标临近的至少四个像素点的像素值,插值计算出输出图像对应像素点的像素值。通过划分网格顶点,采用二维映射方式进行插值计算,实现VR加速,插值算法可自适应调整,提高图像清晰度并优于GPU渲染。
在具体实施方式中,可根据不同的插值算法在输入图像中选取不同个数的像素点的值进行插值计算以得到输出图像像素点的像素值。当采用双线性插值算法时,可选取与输出图像像素点对应在输入图像像素点的坐标临近的四个像素点的像素值进行插值计算。当采用双三次插值算法时,可选取与输出图像像素点对应在输入图像像素点的坐标临近的十六个像素点的像素值进行插值计算。
在一实施方式中,输出的反畸变、反色散及时间扭曲后的图像在经过图像合成之后,可直接在显示设备显示。
图2是本发明的一实施例的输出图像缓存网格块与输入图像网格块的二维映射原理示意图。下面将结合图2详细说明图1所示的实时虚拟现实加速方法100的执行流程。
首先,步骤101接收经过球形变换的视频图像,并保存在输入缓存中,例如eyebuffer中。
第二步:步骤103将输出缓存切分成M*N块,并输出每个网格块的顶点坐标。例如,图2中右图,输出缓存中的网格块Vd的四个顶点坐标分别为(i0,j0)、(i1,j1)、(i2,j2)、(i3,j3)。
第三步:步骤105根据反畸变、反色散及异步时间扭曲融合的算法模型,计算出输出图像缓存网格块的顶点坐标对应的输入图像网格块的顶点坐标,例如,图2中左图的Vd对应的在输入图像中的网格块Vs的四个顶点坐标分别为(x0,y0)、(x1,y1)、(x2,y2)、(x3,y3)。
第四步:步骤107根据输出缓存中网格块的顶点坐标和对应的输入图像的网格块的顶点坐标计算输出缓存和输入图像中每对网格块的二维映射系数a,b,c,d,e,f,g,h。在具体实施方式中,为计算输出缓存中网格块Vd和输入图像网格块Vs的二维映射系数,可采用如下计算公式:
第五步:步骤109根据二维映射系数a,b,c,d,e,f,g,h,计算输出图像缓存中的每个像素点对应在输入图像中像素点的坐标。在具体实施方式中,为计算图2右图网格块Vd中的像素点(i,j)对应的在输入图像网格块Vs中的像素点(x,y),可采用如下计算公式:
χ=(a*i+b*j+c)/q
y=(d*i+e*j+f)/q
q=g*i+h*j+β
其中,β是归一化的常数。
第六步:步骤111根据步骤109选取与输入图像网格块Vs中的像素点(x,y)临近的至少四个像素点的像素值,进行插值计算,得到输出缓存中像素点(i,j)的像素值。在具体实施方式中,可采用双线性插值算法,则在输入图像中选择与像素点(x,y)相邻的四个像素点,例如,像素点(x,y+1)、(x+1,y+1)、(x+1,y),(x-1,y-1)的像素值做双线性插值计算,得到输出buffer中像素点(i,j)的像素值。也可选择与像素点(x,y)相邻的十六个像素点的像素值做双三次插值计算,得到输出缓存中像素点(i,j)的像素值。
第七步:步骤111计算出输出缓存中所有像素点的像素值后,步骤113即输出反畸变、反色散及异步时间扭曲后的图像,再与其他图层进行合成叠加,最后通过显示通道直接送入屏端显示。本发明通过软件计算对出输入输出图像缓存进行网格划分,得出输入输出图像块的顶点坐标,然后采用二维映射方式得出对应网格映射系数,最后通过硬件插值实现反畸变、ATW及反色散功能,并且把这三种功能通过一套系数融合在一起,一次性完成,实现VR加速。该方法有效地解决了GPU负载,资源抢占的问题,同时也可以灵活的把算法模型通过软件方式融入到顶点坐标中,能自适应各种反畸变、反色散和异步时间扭曲模型。
图3是本发明一实施例的实时虚拟现实加速装置300的框图,包括输入图像缓存模块301、输出图像缓存分块模块303、映射系数计算模块305、图像计算模块307。
输入图像缓存模块301接收并保存输入图像;在具体实施方式中,输入图像可以是经过球形变换后的视频图像,并可保存在eye buffer中。输出图像缓存分块模块303将输出图像缓存划分成M行、N列的矩形网格块,并输出所有网格块的顶点坐标。映射系数计算模块305根据反畸变、反色散及异步时间扭曲融合的算法模型计算输出图像缓存网格块的顶点坐标对应的输入图像中的顶点坐标,并根据输出图像缓存网格块的顶点坐标和输入图像网格块中对应的顶点坐标,计算输出图像缓存和输入图像中每对网格块的二维映射系数;在具体实施方式中,反畸变、反色散及异步时间扭曲融合的算法模型可为现有技术中的各类算法模型。图像计算模块307根据二维映射系数计算输出图像像素点对应在输入图像像素点的坐标,并选取与输出图像像素点对应在输入图像像素点的坐标临近的至少四个像素点的像素值,以计算输出图像像素点的像素值。在具体实施方式中,可根据二维映射系数对输出图像按照行扫描的方式计算出该输出图像的像素点对应在输入图像缓存中的像素点坐标,并利用得到的输入图像像素用插值方式计算出输出图像的像素值。输出图像中所有像素点值计算完成,即输出反畸变、反色散及异步时间扭曲后的图像。
实时虚拟现实加速装置300通过对输入图像及输出图像缓存进行网格划分,然后对输入输出图像块的顶点坐标采用二维映射方式插值实现反畸变、反色散及异步时间扭曲功能,并且把这三种功能通过一套系数融合在一起,一次性完成。有效的解决了GPU负载消耗大、资源抢占的问题,可将图像计算模块通过硬件化实现在显示通路上,并通过硬件查表方式实现图像插值效果,减少数据读写,进一步减少了带宽,达到降低功耗及延迟,不眩晕的VR体验需求。
在一实施方式中,输入图像是经过球形变换的视频图像。
在一实施方式中,为硬件计算方便,输出图像缓存切分的网格块的M行和N列可取值为2的幂次,可节省计算量及计算时间。
在一实施方式中,如图4所示,映射系数计算模块400可包括顶点坐标计算单元401和映射系数计算单元403。顶点坐标计算单元401根据反畸变、反色散及异步时间扭曲融合的算法模型计算输出图像缓存网格块的顶点坐标对应的输入图像中的顶点坐标;映射系数计算单元403根据所述输出图像缓存网格块的顶点坐标和所述输入图像网格块中对应的顶点坐标计算所述输出图像缓存和所述输入图像中每对网格块的二维映射系数。通过划分网格顶点,采用二维映射方式进行插值实现VR加速。
在一实施方式中,映射系数计算单元可包括R分量映射系数计算单元、G分量映射系数计算单元和B分量映射系数计算单元。由输入输出网格坐标计算出R、G、B分量的二维映射系数。当只计算反畸变和异步时间扭曲算法时,可直接计算输出图像缓存和输入图像中每对网格块的二维映射系数。在具体实施方式中,为实现方便,映射系数计算模块307计算出的二维映射系数的存放方式按照行扫描的方式,每个网格块按像素分量存放其系数a(a(R)、a(G)、a(B)),b(b(R)、b(G)、b(B)),c(c(R)、c(G)、c(B)),d(d(R)、d(G)、d(B)),e(e(R)、e(G)、e(B)),f(f(R)、f(G)、f(B)),g(g(R)、g(G)、g(B)),h(h(R)、h(G)、h(B))、β(β(R)、β(G)、β(B)),存放顺序为先存R分量8x32bits,接着为G的8x32bits,B的8x32bits,及常数项β分量8x32bits,然后是下一个网格块的数据。其中,8x32bits是指8个(a,b,c,d,e,f,g,h)32bit数据,而β分量则只有R,G,B的3个32bits,设置成8x32bits是为了硬件设计对齐。
在一实施方式中,图像计算模块根据二维映射系数计算输出图像像素点对应在输入图像像素点的坐标,并选取与输出图像像素点对应在输入图像像素点的坐标临近的至少四个像素点的像素值,以计算输出图像像素点的像素值可由硬件电路完成。通过在线实现反畸变、反色散及异步时间扭曲的过程,只需数据读取不需要数据写入,降低带宽及功耗,降低时延及眩晕。
在一实施方式中,如图5所示,图像计算模块可包括坐标运算器501、坐标判断器503、取数器505和图像插值生成器507。坐标运算器501根据二维映射系数计算输出图像像素点对应在所述输入图像像素点的坐标;坐标判断器503判断坐标运算器501得出的输出图像像素点对应在所述输入图像像素点的坐标是否合理有效;当坐标运算器计算出的坐标超过输入图像的坐标范围时,坐标判断器判断输出图像像素点对应在输入图像像素点的坐标无效,此时,输出图像像素点的像素值为0。取数器505在输入图像中选取与坐标判断器503判断的有效坐标临近的至少四个像素点的像素值;图像插值生成器507根据取数器505提取的像素值进行插值计算,以计算输出图像像素点的像素值,生成反畸变、反色散及异步时间扭曲后的图像。
在一实施方式中,坐标运算器可包括R分量坐标运算单元、G分量坐标运算单元和B分量坐标运算单元,根据映射系数计算模块计算的R、G、B分量的二维映射系数分别计算输出图像缓存中的像素点的R、G、B分量对应在输入图像中像素点的R、G、B分量的坐标。
在一实施方式中,当坐标运算器得出的R、G、B分量对应到输入图像的坐标超过输入图像的坐标范围时,坐标判断器判断所述坐标运算器得出的R、G、B分量对应到输入图像的坐标无效,此时,输出图像像素点的像素值为0。
在一实施方式中,图像插值生成器可包括双线性插值计算器或双三次插值计算器,双线性插值计算器或双三次插值计算器根据取数器选取的像素值进行插值计算,以计算输出图像像素点的像素值,最终生成反畸变、反色散及异步时间扭曲后的图像。通过划分网格顶点,采用二维映射方式进行插值计算,实现VR加速,插值算法可自适应调整,提高图像清晰度并优于GPU渲染。
在具体实施方式中,可根据不同的插值计算器的算法在输入图像中选取不同个数的像素点的值进行插值计算以得到输出图像像素点的像素值。当采用双线性插值计算器时,可选取与输出图像像素点对应在输入图像像素点的坐标临近的四个像素点的像素值进行插值计算。当采用双三次插值计算器时,可选取与输出图像像素点对应在输入图像像素点的坐标临近的十六个像素点的像素值进行插值计算。
在一实施方式中,图像计算模块输出的反畸变、反色散及异步时间扭曲后的图像可在经过图像合成之后,直接在显示屏上显示。通过在线实现反畸变、反色散及时间扭曲的过程,减少数据读写,降低带宽及功耗,降低时延及眩晕。
图6是本发明一实施例的实时虚拟现实加速装置600的框图,包括输出图像缓存划分模块601、映射系数计算模块603和图像计算模块605。
输出图像缓存划分模块601将输出图像缓存划分成M行、N列的矩形网格块,并输出所有网格块的顶点坐标。
映射系数计算模块603包括了R分量映射系数计算单元、G分量映射系数计算单元和B分量映射系数计算单元,分别根据反畸变、反色散及异步时间扭曲融合的算法模型计算输出图像缓存网格块R、G、B的顶点坐标对应的输入图像中的R、G、B顶点坐标,并根据输出图像缓存网格块R、G、B的顶点坐标和输入图像网格块中对应的R、G、B顶点坐标,计算输出图像缓存和输入图像中每对网格块的二维映射系数。
图像计算模块605包括了取数器、坐标运算器、坐标判断器和图像插值生成器;坐标运算器包括R分量坐标运算单元、G分量坐标运算单元和B分量坐标运算单元,分别根据映射系数计算模块计算的R、G、B分量的二维映射系数分别计算输出图像缓存中的像素点的R、G、B分量对应在输入图像中像素点的R、G、B分量的坐标;当坐标运算器得出的R、G、B分量对应到输入图像的坐标超过输入图像的坐标范围时,坐标判断器判断所述坐标运算器得出的R、G、B分量对应到输入图像的坐标无效,此时,输出图像像素点的像素值为0;取数器根据坐标判断器判断有效的坐标在输入图像中提取用于插值计算的像素值;图像插值生成器根据取数器提取的数据进行插值计算,以生成输出图像像素值,最终生成反畸变、反色散及异步时间扭曲后的图像。在具体实施方式中,输出图像缓存划分模块601和映射系数计算模块603可由软件实现,图像计算模块605可由硬件电路直接完成,通过在线实现反畸变、反色散及异步时间扭曲的过程,只需数据读取不需要数据写入,降低带宽及功耗,降低时延及眩晕。
在一实施方式中,计算输出图像缓存的网格块与输入图像的网格块的二维映射系数时,对于单屏方案,可以采用图7中的方式,分左右eye buffer,对于右侧eye buffer的二维映射系数的计算,可不晚于7/16的帧时间完成即可,这样可以适当减轻计算系数的负担,同时不会产生图像延迟。
如图8右图所示,屏幕是按照逐行扫描显示输出,每输出一行数据对应到输入是图8左图的曲线对应的像素点,硬件在取数时为了存取数据,需要开辟line buffer进行存储,则需要至少开辟如图8左图最顶端横线至曲线最底端的长方形区域的line buffer,假设输入图像宽为200,曲线深度为40,那line buffer的大小为200*40才能装载下曲线。
在一实施方式中,考虑到对于输出缓存是逐行扫描的方式,且需要在线输出,为减少line buffer数量、降低面积,输入图像可依据图8所示分块方式进行取数。对输入曲线进行切块覆盖,则将减少开辟的line buffer。假设图4中左图中每块大小为γ个像素,分块的高度可依据各类反畸变、反色散和异步时间扭曲的算法模型与γ值运算统计确定,其中,γ只是参考值,分块越小越能节省line buffer的行数,这样就降低了line buffer的行数成本,line buffer总宽度则由输入图像分辨率的宽度与输出图像宽度的最大值决定,例如,要支持双屏1080P,则设置为1280pixel宽即可。
在具体实施方式中,假设图8左图中小块宽为32,则line buffer总高度可能只需要16就够了,即只需要开辟line buffer为200*16。如果块切的越细,如小块宽变成16,那line buffer总高度可能变成8,从而开辟的line buffer就变成200*8,这样就大大减少了硬件设计的line buffer成本,节省设计面积。
应当理解的是,以上实施例仅用以说明本发明的技术方案,而非对其限制,对本领域技术人员来说,可以对上述实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而所有这些修改和替换,都应属于本发明所附权利要求的保护范围。

Claims (20)

1.一种实时虚拟现实加速方法,其特征在于,包括以下步骤:
步骤1:获取输入图像;
步骤2:将输出图像缓存划分成M行、N列的矩形网格块,并输出所述矩形网格块的顶点坐标;
步骤3:根据反畸变、反色散及异步时间扭曲融合的算法模型计算出所述输出图像缓存网格块的顶点坐标对应的输入图像网格块的顶点坐标;
步骤4:根据所述输出图像缓存网格块的顶点坐标和所述输入图像网格块中对应的顶点坐标计算所述输出图像缓存和所述输入图像中每对网格块的二维映射系数;
步骤5:根据所述二维映射系数计算所述输出图像像素点对应在所述输入图像像素点的坐标;
步骤6:选取与所述输出图像像素点对应在所述输入图像像素点的坐标临近的至少四个像素点的像素值,以计算所述输出图像像素点的像素值;
步骤7:输出反畸变、反色散及异步时间扭曲后的图像。
2.如权利要求1所述的实时虚拟现实加速方法,其特征在于,所述步骤1中的输入图像是经过球形变换的视频图像。
3.如权利要求1所述的实时虚拟现实加速方法,其特征在于,所述步骤2中的M和N的取值为2的幂次。
4.如权利要求1所述的实时虚拟现实加速方法,其特征在于,所述步骤4具体为:根据所述输出图像缓存网格块的顶点坐标和所述输入图像网格块中对应的顶点坐标计算所述输出图像缓存和所述输入图像中每对网格块的R、G、B分量的二维映射系数。
5.如权利要求4所述的实时虚拟现实加速方法,其特征在于,所述步骤5具体为:根据所述R、G、B分量的二维映射系数分别计算所述输出图像像素点的R、G、B分量对应在输入图像像素点的R、G、B分量的坐标。
6.如权利要求1所述的实时虚拟现实加速方法,其特征在于,所述步骤5根据所述二维映射系数计算所述输出图像像素点对应在所述输入图像像素点的坐标由硬件电路完成。
7.如权利要求1所述的实时虚拟现实加速方法,其特征在于,所述步骤6选取与所述输出图像像素点对应在所述输入图像像素点的坐标临近的至少四个像素点的像素值,以计算所述输出图像像素点的像素值由硬件电路完成。
8.如权利要求1所述的实时虚拟现实加速方法,其特征在于,所述步骤6具体为:选取与所述输出图像像素点对应在所述输入图像像素点的坐标临近的至少四个像素点的像素值,采用双线性插值算法或双三次插值算法进行插值计算,以计算所述输出图像像素点的像素值。
9.如权利要求1至8任一项所述的实时虚拟现实加速方法,其特征在于,所述步骤7输出反畸变、反色散及异步时间扭曲后的图像经过图像合成之后直接显示。
10.一种实时虚拟现实加速装置,其特征在于,包括:
输入图像缓存模块,用于接收并保存输入图像;
输出图像缓存分块模块,用于将输出图像缓存划分成M行、N列的矩形网格块,并输出所有网格块的顶点坐标;
映射系数计算模块,用于根据反畸变、反色散及异步时间扭曲融合的算法模型计算所述输出图像缓存网格块的顶点坐标对应的所述输入图像中的顶点坐标,并根据所述输出图像缓存网格块的顶点坐标和所述输入图像网格块中对应的顶点坐标计算所述输出图像缓存和所述输入图像中每对网格块的二维映射系数;
图像计算模块,用于根据所述二维映射系数计算所述输出图像像素点对应在所述输入图像像素点的坐标,并选取与所述输出图像像素点对应在所述输入图像像素点的坐标临近的至少四个像素点的像素值,以计算所述输出图像像素点的像素值,最终输出反畸变、反色散及异步时间扭曲后的图像。
11.如权利要求10所述的实时虚拟现实加速装置,其特征在于,所述输入图像是经过球形变换的视频图像。
12.如权利要求10所述的实时虚拟现实加速装置,其特征在于,所述M和N的取值为2的幂次。
13.如权利要求10所述的实时虚拟现实加速装置,其特征在于,所述映射系数计算模块包括:
顶点坐标计算单元,用于根据反畸变、反色散及异步时间扭曲融合的算法模型计算所述输出图像缓存网格块的顶点坐标对应的所述输入图像中的顶点坐标;
映射系数计算单元,用于根据所述输出图像缓存网格块的顶点坐标和所述输入图像网格块中对应的顶点坐标计算所述输出图像缓存和所述输入图像中每对网格块的二维映射系数。
14.如权利要求13所述的实时虚拟现实加速装置,其特征在于,所述映射系数计算单元包括R分量映射系数计算单元、G分量映射系数计算单元和B分量映射系数计算单元。
15.如权利要求10所述的实时虚拟现实加速装置,其特征在于,所述图像计算模块根据所述二维映射系数计算所述输出图像像素点对应在所述输入图像像素点的坐标,并选取与所述输出图像像素点对应在所述输入图像像素点的坐标临近的至少四个像素点的像素值,以计算所述输出图像像素点的像素值由硬件电路完成。
16.如权利要求15所述的实时虚拟现实加速装置,其特征在于,所述图像计算模块包括:
坐标运算器,用于根据所述二维映射系数计算所述输出图像像素点对应在所述输入图像像素点的坐标;
坐标判断器,用于判断所述坐标运算器得出的坐标是否有效:当所述坐标运算器计算出的坐标超过所述输入图像的坐标范围时,所述坐标判断器判断所述输出图像像素点对应在所述输入图像像素点的坐标无效,则所述输出图像像素点的像素值为0;
取数器,用于在输入图像中选取与所述坐标判断器判断的有效坐标临近的至少四个像素点的像素值;
图像插值生成器,用于根据所述取数器选取的像素值进行插值计算,以计算所述输出图像像素点的像素值,最终生成反畸变、反色散及异步时间扭曲后的图像。
17.如权利要求16所述的实时虚拟现实加速装置,其特征在于,所述坐标运算器包括R分量坐标运算单元、G分量坐标运算单元和B分量坐标运算单元。
18.如权利要求17所述的实时虚拟现实加速装置,其特征在于,当所述坐标运算器得出的R、G、B分量对应到输入图像的坐标超过所述输入图像的坐标范围时,所述坐标判断器判断所述坐标运算器得出的R、G、B分量对应到输入图像的坐标无效,则所述输出图像像素点的像素值为0。
19.如权利要求16所述的实时虚拟现实加速装置,其特征在于,所述图像插值生成器包括双线性插值计算器或双三次插值计算器,用于根据所述取数器选取的像素值进行插值计算,以计算所述输出图像像素点的像素值,最终生成反畸变、反色散及异步时间扭曲后的图像。
20.如权利要求10至19任一项所述的实时虚拟现实加速装置,其特征在于,所述图像计算模块输出的反畸变、反色散及异步时间扭曲后的图像经过图像合成后直接显示。
CN201710310655.2A 2017-05-05 2017-05-05 一种实时虚拟现实加速方法及装置 Active CN107220925B (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201710310655.2A CN107220925B (zh) 2017-05-05 2017-05-05 一种实时虚拟现实加速方法及装置
PCT/CN2017/101248 WO2018201652A1 (zh) 2017-05-05 2017-09-11 一种实时虚拟现实加速方法及装置
US16/346,125 US10777014B2 (en) 2017-05-05 2017-09-11 Method and apparatus for real-time virtual reality acceleration
EP17908404.1A EP3522104A4 (en) 2017-05-05 2017-09-11 METHOD AND DEVICE FOR ACCELERATING VIRTUAL REALITY IN REAL TIME

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710310655.2A CN107220925B (zh) 2017-05-05 2017-05-05 一种实时虚拟现实加速方法及装置

Publications (2)

Publication Number Publication Date
CN107220925A CN107220925A (zh) 2017-09-29
CN107220925B true CN107220925B (zh) 2018-10-30

Family

ID=59943828

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710310655.2A Active CN107220925B (zh) 2017-05-05 2017-05-05 一种实时虚拟现实加速方法及装置

Country Status (4)

Country Link
US (1) US10777014B2 (zh)
EP (1) EP3522104A4 (zh)
CN (1) CN107220925B (zh)
WO (1) WO2018201652A1 (zh)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108171662B (zh) * 2017-12-18 2020-08-07 珠海全志科技股份有限公司 读取图像压缩数据的方法及包含该方法的反畸变方法
CN108109181B (zh) * 2017-12-18 2021-06-01 珠海全志科技股份有限公司 读取图像压缩数据的电路及包含该电路的反畸变电路
CN109961402A (zh) * 2017-12-22 2019-07-02 中科创达软件股份有限公司 一种显示设备目镜反畸变方法及装置
CN108282648B (zh) * 2018-02-05 2020-11-03 北京搜狐新媒体信息技术有限公司 一种vr渲染方法、装置、穿戴式设备及可读存储介质
CN108287678B (zh) * 2018-03-06 2020-12-29 京东方科技集团股份有限公司 一种基于虚拟现实的图像处理方法、装置、设备和介质
US10768879B2 (en) 2018-03-06 2020-09-08 Beijing Boe Optoelectronics Technology Co., Ltd. Image processing method and apparatus, virtual reality apparatus, and computer-program product
CN110335200A (zh) * 2018-03-29 2019-10-15 腾讯科技(深圳)有限公司 一种虚拟现实反畸变方法、装置以及相关设备
CN108648254B (zh) * 2018-04-27 2022-05-17 中科创达软件股份有限公司 一种图像渲染方法及装置
CN111199518B (zh) * 2018-11-16 2024-03-26 深圳市中兴微电子技术有限公司 Vr设备的图像呈现方法、装置、设备和计算机存储介质
CN109754380B (zh) * 2019-01-02 2021-02-02 京东方科技集团股份有限公司 一种图像处理方法及图像处理装置、显示装置
CN109819232B (zh) 2019-02-19 2021-03-26 京东方科技集团股份有限公司 一种图像处理方法及图像处理装置、显示装置
US11513346B2 (en) * 2019-05-24 2022-11-29 Beijing Boe Optoelectronics Technology Co., Ltd. Method and apparatus for controlling virtual reality display device
KR20220093985A (ko) 2020-12-28 2022-07-05 삼성전자주식회사 이미지 지연 보정 방법 및 이를 이용한 장치
CN113115018A (zh) * 2021-03-09 2021-07-13 聚好看科技股份有限公司 一种图像的自适应显示方法及显示设备
CN112905831B (zh) * 2021-04-02 2023-03-24 上海国际汽车城(集团)有限公司 物体在虚拟场景中的坐标获取方法、系统及电子设备
CN113256484B (zh) * 2021-05-17 2023-12-05 百果园技术(新加坡)有限公司 一种对图像进行风格化处理的方法及装置
CN113740035A (zh) * 2021-08-26 2021-12-03 歌尔光学科技有限公司 投影质量检测方法、装置、设备及可读存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006063888A1 (en) * 2004-12-16 2006-06-22 Agfa Inc. System and method for image transformation
CN102236790A (zh) * 2011-05-23 2011-11-09 杭州华三通信技术有限公司 一种图像处理方法和设备
CN104822059A (zh) * 2015-04-23 2015-08-05 东南大学 一种基于gpu加速的虚拟视点合成方法
CN106572342A (zh) * 2016-11-10 2017-04-19 北京奇艺世纪科技有限公司 一种影像的反畸变反色散处理方法、装置和虚拟现实设备

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001333303A (ja) * 2000-05-23 2001-11-30 Sharp Corp 全方位視覚システム
RU2215326C2 (ru) * 2001-06-29 2003-10-27 Самсунг Электроникс Ко., Лтд. Иерархическое основанное на изображениях представление неподвижного и анимированного трехмерного объекта, способ и устройство для использования этого представления для визуализации объекта
JP2004234379A (ja) * 2003-01-30 2004-08-19 Sony Corp 画像処理方法、画像処理装置及び画像処理方法を適用した撮像装置、表示装置
DE102006002602A1 (de) * 2006-01-13 2007-07-19 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Kalibrierungsverfahren und Kalibrierungssystem
JP4013989B2 (ja) * 2006-02-20 2007-11-28 松下電工株式会社 映像信号処理装置、仮想現実感生成システム
CN102986210B (zh) * 2010-07-14 2014-05-14 三菱电机株式会社 图像合成装置
US8928730B2 (en) * 2012-07-03 2015-01-06 DigitalOptics Corporation Europe Limited Method and system for correcting a distorted input image
US9280810B2 (en) * 2012-07-03 2016-03-08 Fotonation Limited Method and system for correcting a distorted input image
JP2015103873A (ja) * 2013-11-21 2015-06-04 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
US9824498B2 (en) * 2014-12-30 2017-11-21 Sony Interactive Entertainment Inc. Scanning display system in head-mounted display for virtual reality
US20160189350A1 (en) * 2014-12-30 2016-06-30 Texas Instruments Incorporated System and method for remapping of image to correct optical distortions
CA3109670A1 (en) * 2015-04-22 2016-10-27 Esight Corp. Methods and devices for optical aberration correction
CN104902139B (zh) * 2015-04-30 2018-10-26 北京小鸟看看科技有限公司 一种头戴显示器和头戴显示器的视频数据处理方法
KR102465969B1 (ko) * 2015-06-23 2022-11-10 삼성전자주식회사 그래픽스 파이프라인을 수행하는 방법 및 장치
CN105892643A (zh) * 2015-12-31 2016-08-24 乐视致新电子科技(天津)有限公司 基于虚拟现实的多界面统一显示系统及方法
CN105869110B (zh) * 2016-03-28 2018-09-28 腾讯科技(深圳)有限公司 图像显示方法和装置、异形曲面幕布的定制方法和装置
US9965899B2 (en) * 2016-04-28 2018-05-08 Verizon Patent And Licensing Inc. Methods and systems for minimizing pixel data transmission in a network-based virtual reality media delivery configuration
US10095461B2 (en) * 2016-09-23 2018-10-09 Intel IP Corporation Outside-facing display for head-mounted displays
US20190289327A1 (en) * 2018-03-13 2019-09-19 Mediatek Inc. Method and Apparatus of Loop Filtering for VR360 Videos

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006063888A1 (en) * 2004-12-16 2006-06-22 Agfa Inc. System and method for image transformation
CN102236790A (zh) * 2011-05-23 2011-11-09 杭州华三通信技术有限公司 一种图像处理方法和设备
CN104822059A (zh) * 2015-04-23 2015-08-05 东南大学 一种基于gpu加速的虚拟视点合成方法
CN106572342A (zh) * 2016-11-10 2017-04-19 北京奇艺世纪科技有限公司 一种影像的反畸变反色散处理方法、装置和虚拟现实设备

Also Published As

Publication number Publication date
US20190279427A1 (en) 2019-09-12
EP3522104A1 (en) 2019-08-07
WO2018201652A1 (zh) 2018-11-08
CN107220925A (zh) 2017-09-29
US10777014B2 (en) 2020-09-15
EP3522104A4 (en) 2020-01-22

Similar Documents

Publication Publication Date Title
CN107220925B (zh) 一种实时虚拟现实加速方法及装置
Wang et al. Real-time high-quality stereo vision system in FPGA
Regan et al. Priority rendering with a virtual reality address recalculation pipeline
JP6636163B2 (ja) 画像表示方法、成形そり幕を生成する方法、および頭部装着ディスプレイデバイス
Didyk et al. Adaptive Image-space Stereo View Synthesis.
WO2021169325A1 (zh) 眼神调节方法、装置及存储介质
US10553014B2 (en) Image generating method, device and computer executable non-volatile storage medium
JP2022543729A (ja) フォービエイテッドレンダリングのためのシステムおよび方法
CN109739356A (zh) Vr系统中图像显示的控制方法、装置及vr头戴设备
CN110324601A (zh) 渲染方法、计算机产品及显示装置
JP4593513B2 (ja) 3次元表示方法、3次元表示装置、およびプログラム
US7289131B2 (en) Method of rendering a graphics image
KR100381817B1 (ko) 제트버퍼를 이용한 입체영상 생성방법 및 기록매체
JP3989396B2 (ja) 画像生成システム、プログラム及び情報記憶媒体
JP3502796B2 (ja) ビデオゲームにおける立体モデル表示方法及び装置、ゲーム装置並びにビデオゲーム用立体モデル表示プログラムを格納したコンピュータ読み取り可能な記録媒体
JP4409719B2 (ja) ゲーム装置および情報記憶媒体
WO2017174006A1 (zh) 图片处理的方法和装置
JP3231029B2 (ja) レンダリング方法及び装置、ゲーム装置、並びに立体モデルをレンダリングするためのプログラムを格納したコンピュータ読み取り可能な記録媒体
JP5766540B2 (ja) プログラム及びゲームシステム
US20210225049A1 (en) Perceptual Rasterization for Image Rendering
JP3587105B2 (ja) 図形データ処理装置
CN110335335A (zh) 用于球面投影的均匀密度立方体贴图渲染
Ritschel et al. Perceptual Rasterization for Head-mounted Display Image Synthesis
JP2009163362A (ja) プログラム、情報記憶媒体及び画像生成装置
WO2022244131A1 (ja) 画像データ生成装置、表示装置、画像表示システム、画像データ生成方法、画像表示方法、および、画像データのデータ構造

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant