CN107452031A - 虚拟光线跟踪方法及光场动态重聚焦显示系统 - Google Patents
虚拟光线跟踪方法及光场动态重聚焦显示系统 Download PDFInfo
- Publication number
- CN107452031A CN107452031A CN201710137526.8A CN201710137526A CN107452031A CN 107452031 A CN107452031 A CN 107452031A CN 201710137526 A CN201710137526 A CN 201710137526A CN 107452031 A CN107452031 A CN 107452031A
- Authority
- CN
- China
- Prior art keywords
- light
- light field
- virtual reality
- pixel
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
- G02B30/20—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
- G02B30/34—Stereoscopes providing a stereoscopic pair of separated images corresponding to parallactically displaced views of the same object, e.g. 3D slide viewers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/06—Ray-tracing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10052—Images from lightfield camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Abstract
本发明涉及虚拟光线跟踪方法及光场动态重聚焦显示系统,光线信息采集,即随机检索全焦图片上的像素点,以此来减少光线采样的数量;并/或假设物体表面为光滑而简化交点检索;包括虚拟现实显示内容处理器、虚拟现实显示器、眼球跟踪器、眼球追踪信息处理器以及光场重聚焦处理器。本发明减小了计算复杂度,能够自行替换错误采样,得到真实准确的重新对焦;可以根据人眼注视方向而动态聚焦,能够让使用者聚焦在远近不同的物体上,符合人体肉眼的观察特征。
Description
技术领域
本发明涉及图像绘制技术领域,具体地说是虚拟光线跟踪方法及光场动态重聚焦显示系统。
背景技术
光线跟踪算法是一种提出于1980的真实感图形生成方法,能够生成高质量的真实感图形,目前是三维真实感图形的常用算法之一;光线跟踪算法实际上是光照明物理过程的近似逆过程,可以跟踪物体间的镜面反射光线和规则透射,模拟了理想表面的光的传播。
参见图1a,图1a显示了小孔图像和深度图的光线跟踪方法,假设场景的深度范围是[z0,z1](z1>z0>0),其中z1可以无穷大,感光片到针孔的距离为s。参见图1b,在渲染渲染景深效果时,假设在针孔的位置放置一个虚拟的薄透镜,虚拟的薄透镜焦距为f,f满足也就是说最远的平面z1对焦在感光片上。进一步地,假设透镜的直径为R。在这样的一个虚拟成像系统中,平面z∈[z0,z1]内的点将在感光片上成模糊的像,其弥散圆大小为:
根据式(2)可见,平面z0上的点在感光片上成的弥散圆半径最大为同时弥散圆半径大小也取决于光线圆锥(如图1b中的大圆锥)与z0平面的圆形交盘。参见图1b,根据相似三角形变换关系,交盘半径可以为或者基于上述系统设置,我们可以动态的调整感光片的位置sf渲染出对焦到平面zf上的图片,其中zf满足1/s_f+1/zf=1/f。如图1c,使用像素索引原始图片,计算得到中央光线的光锥指数。这样可以保证渲染后的图像和原始图像具有同样的分辨率,并且保证同一像素位置对应空间中同样的位置。
在最终的成像结果中,每一个像素点p的最终颜色是由光锥内所有光线的积分得到。在传统的光线跟踪算法中,需要跟踪每一条光线到场景中去。然而在图像空间中的光线跟踪算法,跟踪一条光线到场景中,根据场景中的三维坐标反跟踪到原图像。基于朗勃逊假设可以直接使用像素点颜色作为反跟踪回来的光线颜色。
为了确定该光线的颜色,对光线和空间中的物体的交点的定位是必不可少的。在基于光场的算法中,光线跟踪主要依据前向弯曲获得:对于中央视图,使用其深度图扭曲周围光场视图。该方法能够应用的前提是,光线必须密集采样。另个一个方面,每渲染一张图片需要创建大量的虚拟视角,因此算法复杂度非常的高。因此,需要减小光线跟踪重对焦的计算复杂度。
此外,作为光线跟踪计算方法的具体应用,现有的虚拟现实装置只能显示全聚焦图像或者全聚焦虚拟现实场景,仅及体验者的头部所在方向内容,而不能提供符合人眼成像原理的体验内容以及人眼感兴趣区域的内容——因此无法完全按照人眼注视方向进行内容显示以及实现重聚焦。参见图13,人眼310中睫状肌可以舒张和收缩,从而使人眼310可以聚焦在远近不同的物体上,人眼310可以选择聚焦在不同半径的球面上,聚焦在远处(即半径较大的球面320上)时睫状肌舒张,聚焦在近处(即半径较小的球面340、330上)时睫状肌紧绷。但是现有的虚拟现实装置因为缺少有效的数据处理方法,从而导致人眼310只能看到全聚焦或者说固定焦平面的图像,参见图12所示的固定聚焦图像,而不能重新聚焦,这不符合人眼310观看三维世界的视觉特性,降低了人眼310观看虚拟现实内容的视觉体验。因此,除了需要简化计算复杂度之外,还迫切需要发明一款可以根据人眼注视方向而动态聚焦从而看见多固定聚焦面的虚拟现实显示系统。
发明内容
本发明为解决现有的问题,旨在提供一种虚拟光线跟踪方法及光场动态重聚焦显示系统。
本发明采用的技术方案包含如下步骤:
获取全焦图片及其深度信息;
光线信息采集,即随机检索全焦图片上的像素点,以此来减少光线采样的数量;并/或假设物体表面为光滑而简化交点检索;
基于上述光线信息进行颜色融合,得到最终显示结果。
其中,光线采集为震动采样,即将光圈分为若干等分区域,随后在所述每个等分区域内采集一个像素点。
其中,所述简化交点检索,即根据和固定的dq直接计算lpq,对半径r内的光线进行采样,并初始化一个作为lpq0像素的偏移;如果像素点的位移等于则可确定交点位置;否则设置刚才像素点的位移为继续往下迭代,直到结果满足式停止,并将迭代结束时的像素点颜色返回。
本发明采用的技术方案还提供一种虚拟现实光场动态重聚焦显示系统,包括虚拟现实显示内容处理器、虚拟现实显示器、能够获取眼球转动方向的眼球跟踪器、眼球追踪信息处理器以及具有光场动态重聚焦处理功能的光场重聚焦处理器,其中,虚拟现实显示内容处理器获取显示内容,并且和虚拟现实显示器、眼球跟踪器、眼球追踪信息处理器和光场重聚焦处理器依次通过数据线连接。其中,虚拟现实显示器包括对应于左、右眼的成像显示屏、具有放大功能的光学镜片以及等定位传感器组成,用于显示虚拟现实显示内容处理器处理得到的双目立体图像。
其中,所述虚拟现实显示器中,光学镜片的边缘上设有微型LED灯,在光学镜片的上方设有采集人眼图像的摄像头。
和现有技术相比,本发明通过随机检索减少对光线信息的采样和简化交点检索过程,减小了计算复杂度,并且能够自行替换错误采样,得到真实准确的重新对焦;虚拟现实光场动态重聚焦显示系统可以根据人眼注视方向而动态聚焦,能够让使用者聚焦在远近不同的物体上,符合人体肉眼的观察特征。
附图说明
图1a为小孔成像原理的示意图;
图1b为加入虚拟薄透镜的成像方法的示意图;
图1c为图像空间光像跟踪的示意图;
图1d为本发明方法的示意图;
图2为光线震动采样的示意图;
图3a、图3b为光线错误采样分析的示意图;
图4a为gamma2.2曲线和梯度图;
图4b为色调映射矫正图像亮度的示意图;
图5为本发明实施例中不同颜色融合方法的效果示意图;
图6为渲染效果比较示意图
图7为单反相机和Lytro相机景深效果图比较图;
图8为本发明实施例渲染的特别对焦效果图;
图9为虚拟现实光场动态重聚焦显示系统的结构示意图;
图10为虚拟现实头盔的结构示意图;
图11为虚拟现实显示器的结构示意图;
图12为单固定聚焦面的示意图;
图13为多固定聚焦面的示意图;
参见附图,虚拟现实显示内容处理器100、虚拟现实显示器200、眼球跟踪器110、眼球方向信息处理器120、光场重聚焦处理器130、摄像头1101、微型LED灯1102、光学镜片2201、人眼310、成像显示屏2101、人眼区域图像2202、左眼的图像5101,右眼的图像5102。
具体实施方式
现结合附图对本发明作进一步地说明。
本实施例不同于传统的光线跟踪算法,仅需一张全焦照片与其对应深度图即可完成同样的效果,在计算上大为简化;下文中将通过展示统计先验概率的随机检索算法,最终完整地描述能够生成和单反相机效果媲美的虚拟光线跟踪方法。
在真实世界中,人眼310在观看三维世界时,上、下直肌,内、外直肌和上、下斜肌可以控制眼球的转动,从而使人眼310能够看到不同方向的场景或者目标。但是现有的虚拟现实头盔因为无法定位到人眼的转动方向,因此只能通过内置或者外部感应器确定人头部转动方向来判断人眼310的注视方向,但由于人眼310的灵活性导致人眼310注视方向与头部方向并不是完全一致的,这也就导致无法准确的获取人眼注视方向的信息,进而导致无法显示正确的画面。参见图9至图11,为了解决上述问题,本发明实施中所用的虚拟现实光场动态重聚焦显示系统主要包括五个模块,包括具有虚拟现实显示内容处理器100、虚拟现实显示器200(为虚拟现实头盔,诸如HTC VIVE此类VR头显)、能够获取眼球转动方向的眼球跟踪器110、眼球追踪信息处理器120以及具有光场动态重聚焦处理功能的光场重聚焦处理器130。
其中,虚拟现实显示内容处理器100主要是指将显示内容中的场景依据计算机视觉中的相机成像原理投影变换得到相对于左、右双眼的两张不同图像,图像之间具有视差,从而在显示的图像中保存场景立体信息。
参见图11、图10,虚拟现实显示器200主要包括对应于人眼左、右眼的成像显示屏2101、具有放大功能的光学镜片2201以及陀螺仪等定位功能的传感器组成,用于显示虚拟现实显示内容处理器处理得到的双目立体图像。光学镜片2201的边缘上环绕有微型LED灯1102,在光学镜片1102的上方设有采集人眼图像的摄像头1101。
检测眼球转动方向的眼球跟踪器110主要是依靠虚拟现实设备中的摄像头1101对人眼310转动情况进行监控,实时采集眼部的图像,并传输给眼球方向信息处理器120。
眼球方向信息处理器120主要是根据人眼区域图像2202通过眼动跟踪技术获取眼球的转动方向信息,记为Oeye,也就是当前体验者所感兴趣的方向。
在获取了人眼310的观看方向信息后,根据方向信息可确定人眼视线与显示系统内部展示内容(即展示的图像)的交点位置P;进而通过P的位置,可以得知它所在场景的深度信息,也就是聚焦平面位置。然后利用虚拟光线跟踪算法来计算人眼关注区域或者说关注平面的重聚焦成像结果,而在非关注区域进行模糊处理,从而达到真实世界中人眼视觉效果——这部分工作主要在最后的光场重聚焦处理器130中完成。
在获取经过光场重聚焦处理器130处理后的显示内容后,将显示内容传输到虚拟现实显示内容处理器100进行处理,获取场景的双目立体图像,从而实现最终的虚拟现实光场动态重聚焦显示。
本实施例的装置部分可以检测人眼310的转动方向信息,从而可以根据人眼310的关注区域对显示内容进行光场动态重聚焦处理,使显示的内容可以适应于人眼的观看原理,使体验者在体验时能够获取更为优秀的体验。
本实施例基于上述装置,方法部分主要包含如下步骤:
获取全焦图片及其深度信息;
光线信息采集,即随机检索全焦图片上的像素点,以此来减少光线采样的数量;并/或假设物体表面为光滑而简化交点检索;
基于上述光线信息进行颜色融合,得到最终显示结果。
一般在上述操作中,可以沿光线方向离散的确定交点,目的是为了确定光线方向每一个离散深度z是否对应空间中的点,如果存在点存在,可以将该点反向投影到图像中,并确定该像素深度为z。假设光线在距离薄透镜中心r的地方“停止”,该光线方向上存在深度为zQ∈(z0,z1)的一点Q,基于相似三角形,Q距离薄透镜中轴线的距离为因此,假设图像的中心像素点为p,Q在图像中的投影点为q,p,q的距离
场景的深度范围是[z0,z1],参见图1d,不同深度的光线段会被投影到线[q0,q1]上,q0,q1分别为Q0,Q1在图像上的投影点,其深度分别为z0,z1。在图像的光线跟踪算法中,我们需要在图像中找出光线与空间中的物体最近的交点所对应的像素q∈[q0,q1]。假设最近的交点的投影点为q,则q满足:
其中zq的大小可以从深度图中提取。
上面所有的分析都是基于深度信息的基础上进行的,接下来将深度信息转换为图像像素点的偏移量。由相似三角形关系将偏移量归一化到[0,1],即偏移0代表∞的深度,1代表最近的深度。假设使用一个大小为K(=sR)的掩膜,我们可以简化(3)式为:
其中(4)式左右两边都可以根据深度信息计算得到,图像空间的光线跟踪避免了去重建场景三维模型。
事实上,这样的计算方法的计算复杂度为O(NMK),N是输入图片的像素点数目,M是掩膜的像素点个数(M与光圈的大小保持一致,也就是说正比于K2),K涉及到最近交点检测。不像三维模型的光线跟踪算法,图像的光线跟踪算法存在两个主要的问题:
本实施例假设将颜色图像和深度图像是离散到二维平面空间,因此,即便满足(3)式的制约条件,并不能确保光线与空间中的物体相交。为了减缓这一问题,本实施例将制约条件放宽到:
也就是所说,小于一个像素点。由于本发明输入只有单独一张彩色图片,因此并不能检测到场景遮挡区域的内容(颜色和几何)。本实施例的解决方法是假设表面(几何和纹理)是关于薄膜透镜中心对称的,假设lpq被遮挡了,本实施例使用-lpq的像素。
本发明的图片域的光线跟踪和传统的几何空间的光线跟踪相似,其计算复杂度都很高,尤其是在重对焦的应用中。上文提到M正比于K2,因此计算复杂度随着半径的扩大指数增加(O(NMK)=O(NK3)。对于大光圈,会导致计算复杂度非常高,很难达到实时渲染的效果。
光线信息采集中,通过随机采样的方式减少对光线信息采样,可以大幅度减小M。参见图2,本实施例采用震动采样的方式:
第一步,将光圈均分成几个网格;
第二步,在每个个网格中随机采样一个像素点;
假设网格的尺寸是原光圈尺寸的倍,则计算复杂度减小为
然而,虽然震动随机采样能够保证每个采样点的正确性,采样的稀疏和随机性在场景对比度较高和颜色丰富的情况下会产生比较好的视觉效果。然而也存在一些问题,首先每个网格不应该只用一根光线来表征;其次,随机采样并不能保证采样光线的质量。这两个原因会导致相邻两个像素点的模糊程度不一致,并且会产生随机噪声。
本发明还提出简化交点检索的过程,即减小K,通过假设空间物体表面是光滑的去加速交点检索。当在检测交点的时候并不q∈[q0,q1]逐个像素检测q是否满足制约式(4),而是根据(4)式和固定的dq直接计算lpq。参见图1d,对半径r内的光线采样初始化一个(t为迭代次数)作为lpq0像素的偏移。给定一个可以计算如果像素点的位移等于则可确定交点位置;否则设置刚才像素点的位移为继续往下迭代,直到结果满足(5)式停止,并将迭代结束时的像素点颜色返回。
由于在现实场景中,物体表面通常是光滑并且连续的,相邻像素有非常大的概率是具有相同的深度值。也就是说很大可能在这种情况下我们能在迭代次数较少就能找到交点。
参见图3a、图3b,进一步的,本发明还可以通过随机检索的方法进行加速,最燃随机检索一根光线并不能保证每次的到完全正确的交点,但是错误的概率是非常低的——因为返回错误的像素点可能是另外一个光线的正确采样,也就是说,一个错误的采样没有必要将其视为异常值:它依然非常可能是交点,对最后的重对焦渲染依然有效。
为了更好的处理对焦到前景物体的情况,假设返回的像素点q是一个错误的交点,同时q点深度相对表p点更远,也就是说dp>dq,我们将p的颜色值替换掉q。因此虽然随机交点检索会返回错误的交点值,在所有采样光线融合后依然会得到比较正真实、准确的重对焦效果,同时计算复杂度降为O(NM)。
参见图3a、图3b,为本实施例的方法采样光线的结果,本实施例通过不同的颜色底纹来区分正确和错误的采样。如前所述,错误的采样点可能是在模糊卷积核的外部,错误采样相对比全部光线采样而言是非常少的。
在实际的摄影中,线性场景辐射J转化到数字图像强度I是高度非线性的,因为高动态范围压缩。在单反数码相机中这样的非线性压缩过程可以用函数f:I=f(J)。最理想的深度合成J=f-1(I),最后的图像I′可以通过积分p,q代表的图像中的坐标,Ωp代表中心点在p的卷积核gp(I)代表对图像所有的变换。
然而直接计算gp(I)存在两个问题:首先,输入图像的响应函数未知,通常用gamma色调曲线参数等于2.2来近似,但是相机的响应函数和gamma 2.2差距。其次,单一响应函数不足以表示颜色处理模型。参见图5,以gamma 2.2近似的结果,可以看出来结果存在色差。为了减少色差和非线性效果,我们根据图像内容对像素点颜色直接加权积分得到。
本实施例中首先分析用gamma 2.2函数曲线近似gp(I)响应的性能,参见图4a,曲线在高亮度区域的梯度相对比低亮度区域陡峭,这说明高亮部分会被更多地压缩,相对比直接对强度积分。参见图4b,gamma 2.2曲线在对高亮和低亮融合的时候,会赋予高亮部分更高的权重。本实施例使用下式进行颜色融合:
其中I(q)max=max{Ir(q),Ig(q),Ib(q)},是该积分像素点颜色通道最大值。和σ的值可以控制色彩表现。图5显示了不同的颜色融合的方法,线性融合是直接对积分域取平均,gamma 2.2可以使颜色偏蓝,本实施例优选高斯权重颜色融合,其融合效果相对比较真实。
参见图7、图6,通过对比可见本实施例能够生成质量非常高的景深效果;尤其与单反、Lytro相机比较而言效果相同,但是本实施例只需要普通移动相机皆可以完成上述效果(即使是附图中灰度效果,也能展现本发明技术优势对比的情况;以下同)。参见图8,进一步地本发明还能够在Tilt-shift摄影中应用,Tilt-shift摄影是一个需要特殊聚焦在一个小场景技术。图8中四组对比图可见,不需要如现有技术一般使用特殊的镜片来获取Tilt-shift效果只需要用户简单的修改一下深度图,本发明即能够非常简单的模拟Tilt-shift效果。其过程与上述雷同,故不赘述。
综上,本实施例通过随机检索减少对光线信息的采样和简化交点检索过程,减小了计算复杂度,并且能够自行替换错误采样,得到真实准确的重新对焦;虚拟现实光场动态重聚焦显示系统可以根据人眼注视方向而动态聚焦,能够让使用者聚焦在远近不同的物体上,符合人体肉眼的观察特征。
上面结合附图及实施例描述了本发明的实施方式,实施例给出的结构并不构成对本发明的限制,本领域内熟练的技术人员可依据需要做出调整,在所附权利要求的范围内做出各种变形或修改均在保护范围内。
Claims (6)
1.一种虚拟光线跟踪方法,其特征在于包含如下步骤:
获取全焦图片及其深度信息;
光线信息采集,即随机检索全焦图片上的像素点,以此来减少光线采样的数量;
并/或假设物体表面为光滑而简化交点检索;
基于上述光线信息进行颜色融合,得到最终显示结果。
2.根据权利要求1所述的一种虚拟光线跟踪方法,其特征在于:光线采集为震动采样,即将光圈分为若干等分区域,随后在所述每个等分区域内采集一个像素点。
3.根据权利要求1所述的一种虚拟光线跟踪方法,其特征在于:所述简化交点检索,即根据和固定的dq直接计算lpq,对半径r内的光线进行采样,并初始化一个作为像素的偏移;如果像素点的位移等于则可确定交点位置;否则设置刚才像素点的位移为继续往下迭代,直到结果满足停止,并将迭代结束时的像素点颜色返回。
4.一种基于权利要求1、2或3所述内容的虚拟现实光场动态重聚焦显示系统,其特征在于:包括虚拟现实显示内容处理器、虚拟现实显示器、能够获取眼球转动方向的眼球跟踪器、眼球追踪信息处理器以及具有光场动态重聚焦处理功能的光场重聚焦处理器,其中,虚拟现实显示内容处理器获取显示内容,并且和虚拟现实显示器、眼球跟踪器、眼球追踪信息处理器和光场重聚焦处理器依次通过数据线连接。
5.一种根据权利要求4所述的虚拟现实光场动态重聚焦显示系统,其特征在于:虚拟现实显示器包括对应于左、右眼的成像显示屏、具有放大功能的光学镜片以及等定位传感器组成,用于显示虚拟现实显示内容处理器处理得到的双目立体图像。
6.一种根据权利要求4所述的虚拟现实光场动态重聚焦显示系统,其特征在于:所述虚拟现实显示器中,光学镜片的边缘上设有微型LED灯,在光学镜片的上方设有采集人眼图像的摄像头。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710137526.8A CN107452031B (zh) | 2017-03-09 | 2017-03-09 | 虚拟光线跟踪方法及光场动态重聚焦显示系统 |
KR1020197009180A KR102219624B1 (ko) | 2017-03-09 | 2018-03-06 | 가상 광선 추적 방법 및 라이트 필드 동적 리포커싱 디스플레이 시스템 |
JP2019544763A JP6862569B2 (ja) | 2017-03-09 | 2018-03-06 | 仮想光線追跡方法および光照射野の動的リフォーカス表示システム |
US16/346,942 US10852821B2 (en) | 2017-03-09 | 2018-03-06 | Virtual ray tracing method and dynamic light field refocusing display system |
PCT/CN2018/078098 WO2018161883A1 (zh) | 2017-03-09 | 2018-03-06 | 虚拟光线跟踪方法及光场动态重聚焦显示系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710137526.8A CN107452031B (zh) | 2017-03-09 | 2017-03-09 | 虚拟光线跟踪方法及光场动态重聚焦显示系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107452031A true CN107452031A (zh) | 2017-12-08 |
CN107452031B CN107452031B (zh) | 2020-06-26 |
Family
ID=60486245
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710137526.8A Active CN107452031B (zh) | 2017-03-09 | 2017-03-09 | 虚拟光线跟踪方法及光场动态重聚焦显示系统 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10852821B2 (zh) |
JP (1) | JP6862569B2 (zh) |
KR (1) | KR102219624B1 (zh) |
CN (1) | CN107452031B (zh) |
WO (1) | WO2018161883A1 (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018161883A1 (zh) * | 2017-03-09 | 2018-09-13 | 叠境数字科技(上海)有限公司 | 虚拟光线跟踪方法及光场动态重聚焦显示系统 |
CN109242900A (zh) * | 2018-08-01 | 2019-01-18 | 曜科智能科技(上海)有限公司 | 焦平面定位方法、处理装置、焦平面定位系统及存储介质 |
CN109360235A (zh) * | 2018-09-29 | 2019-02-19 | 中国航空工业集团公司上海航空测控技术研究所 | 一种基于光场数据的混合深度估计方法 |
CN110365965A (zh) * | 2019-06-26 | 2019-10-22 | 北京邮电大学 | 三维光场图像生成方法及装置 |
CN110689498A (zh) * | 2019-09-27 | 2020-01-14 | 西北大学 | 一种基于对非关注点部分分级模糊的高清视频优化方法 |
CN111650754A (zh) * | 2020-07-17 | 2020-09-11 | 北京耐德佳显示技术有限公司 | 一种平视显示设备 |
CN112967370A (zh) * | 2021-03-03 | 2021-06-15 | 北京邮电大学 | 三维光场重建方法、装置及存储介质 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220067950A (ko) * | 2020-11-18 | 2022-05-25 | 삼성전자주식회사 | 디스플레이 장치 및 그의 제어 방법 |
CN113256783A (zh) * | 2021-03-29 | 2021-08-13 | 北京航空航天大学 | 基于眼动跟踪的立即辐射度渲染方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1438615A (zh) * | 2002-02-13 | 2003-08-27 | 恩益禧电子股份有限公司 | 图像处理方法 |
US20110316968A1 (en) * | 2010-06-29 | 2011-12-29 | Yuichi Taguchi | Digital Refocusing for Wide-Angle Images Using Axial-Cone Cameras |
CN103578132A (zh) * | 2012-07-19 | 2014-02-12 | 辉达公司 | 图形显示系统内的光传输一致的场景简化 |
CN105144245A (zh) * | 2013-04-24 | 2015-12-09 | 高通股份有限公司 | 用于扩增现实的辐射转移取样的设备和方法 |
CN105812778A (zh) * | 2015-01-21 | 2016-07-27 | 成都理想境界科技有限公司 | 双目ar头戴显示设备及其信息显示方法 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020013573A1 (en) * | 1995-10-27 | 2002-01-31 | William B. Telfair | Apparatus and method for tracking and compensating for eye movements |
US6028606A (en) * | 1996-08-02 | 2000-02-22 | The Board Of Trustees Of The Leland Stanford Junior University | Camera simulation system |
US20100110069A1 (en) * | 2008-10-31 | 2010-05-06 | Sharp Laboratories Of America, Inc. | System for rendering virtual see-through scenes |
US8493383B1 (en) * | 2009-12-10 | 2013-07-23 | Pixar | Adaptive depth of field sampling |
US9720232B2 (en) * | 2012-01-24 | 2017-08-01 | The Arizona Board Of Regents On Behalf Of The University Of Arizona | Compact eye-tracked head-mounted display |
KR102493498B1 (ko) * | 2013-11-27 | 2023-01-27 | 매직 립, 인코포레이티드 | 가상 및 증강 현실 시스템들 및 방법들 |
US9905041B2 (en) * | 2014-11-24 | 2018-02-27 | Adobe Systems Incorporated | Depth of field synthesis using ray tracing approximation |
CN106408643A (zh) * | 2016-08-31 | 2017-02-15 | 上海交通大学 | 一种基于图像空间的图像景深模拟方法 |
CN107452031B (zh) * | 2017-03-09 | 2020-06-26 | 叠境数字科技(上海)有限公司 | 虚拟光线跟踪方法及光场动态重聚焦显示系统 |
-
2017
- 2017-03-09 CN CN201710137526.8A patent/CN107452031B/zh active Active
-
2018
- 2018-03-06 US US16/346,942 patent/US10852821B2/en active Active
- 2018-03-06 WO PCT/CN2018/078098 patent/WO2018161883A1/zh active Application Filing
- 2018-03-06 JP JP2019544763A patent/JP6862569B2/ja active Active
- 2018-03-06 KR KR1020197009180A patent/KR102219624B1/ko active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1438615A (zh) * | 2002-02-13 | 2003-08-27 | 恩益禧电子股份有限公司 | 图像处理方法 |
US20110316968A1 (en) * | 2010-06-29 | 2011-12-29 | Yuichi Taguchi | Digital Refocusing for Wide-Angle Images Using Axial-Cone Cameras |
CN103578132A (zh) * | 2012-07-19 | 2014-02-12 | 辉达公司 | 图形显示系统内的光传输一致的场景简化 |
CN105144245A (zh) * | 2013-04-24 | 2015-12-09 | 高通股份有限公司 | 用于扩增现实的辐射转移取样的设备和方法 |
CN105812778A (zh) * | 2015-01-21 | 2016-07-27 | 成都理想境界科技有限公司 | 双目ar头戴显示设备及其信息显示方法 |
Non-Patent Citations (4)
Title |
---|
ARTUR LIRA DOS SANTOS 等: "Real time ray tracing for augmented reality", 《CONFERENCE: VIRTUAL AND AUGMENTED REALITY (SVR)》 * |
刘琦: "基于离散点的真实感图形绘制技术的研究", 《中国优秀博硕士学位论文全文数据库 (硕士) 信息科技辑》 * |
王彦成 等: "虚拟现实光线跟踪加速方法研究", 《科技与创新》 * |
田利敏: "基于光线跟踪的高真实感红外场景生成", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10852821B2 (en) | 2017-03-09 | 2020-12-01 | Plex-Vr Digital Technology (Shanghai) Co., Ltd. | Virtual ray tracing method and dynamic light field refocusing display system |
WO2018161883A1 (zh) * | 2017-03-09 | 2018-09-13 | 叠境数字科技(上海)有限公司 | 虚拟光线跟踪方法及光场动态重聚焦显示系统 |
CN109242900A (zh) * | 2018-08-01 | 2019-01-18 | 曜科智能科技(上海)有限公司 | 焦平面定位方法、处理装置、焦平面定位系统及存储介质 |
CN109242900B (zh) * | 2018-08-01 | 2021-09-21 | 曜科智能科技(上海)有限公司 | 焦平面定位方法、处理装置、焦平面定位系统及存储介质 |
CN109360235A (zh) * | 2018-09-29 | 2019-02-19 | 中国航空工业集团公司上海航空测控技术研究所 | 一种基于光场数据的混合深度估计方法 |
CN110365965A (zh) * | 2019-06-26 | 2019-10-22 | 北京邮电大学 | 三维光场图像生成方法及装置 |
CN110365965B (zh) * | 2019-06-26 | 2020-11-06 | 北京邮电大学 | 三维光场图像生成方法及装置 |
CN110689498A (zh) * | 2019-09-27 | 2020-01-14 | 西北大学 | 一种基于对非关注点部分分级模糊的高清视频优化方法 |
CN110689498B (zh) * | 2019-09-27 | 2024-03-12 | 西北大学 | 一种基于对非关注点部分分级模糊的高清视频优化方法 |
CN111650754A (zh) * | 2020-07-17 | 2020-09-11 | 北京耐德佳显示技术有限公司 | 一种平视显示设备 |
CN111650754B (zh) * | 2020-07-17 | 2022-08-12 | 北京耐德佳显示技术有限公司 | 一种平视显示设备 |
CN112967370A (zh) * | 2021-03-03 | 2021-06-15 | 北京邮电大学 | 三维光场重建方法、装置及存储介质 |
CN112967370B (zh) * | 2021-03-03 | 2022-06-21 | 北京邮电大学 | 三维光场重建方法、装置及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
KR20190043590A (ko) | 2019-04-26 |
JP6862569B2 (ja) | 2021-04-21 |
US10852821B2 (en) | 2020-12-01 |
KR102219624B1 (ko) | 2021-02-23 |
US20200057492A1 (en) | 2020-02-20 |
CN107452031B (zh) | 2020-06-26 |
JP2020504984A (ja) | 2020-02-13 |
WO2018161883A1 (zh) | 2018-09-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107452031A (zh) | 虚拟光线跟踪方法及光场动态重聚焦显示系统 | |
US11632537B2 (en) | Method and apparatus for obtaining binocular panoramic image, and storage medium | |
Held et al. | Using blur to affect perceived distance and size | |
US6618054B2 (en) | Dynamic depth-of-field emulation based on eye-tracking | |
JP2016018213A (ja) | 直接幾何学的モデル化によるhmdのキャリブレーション | |
CN107291246A (zh) | 基于图像刻度的虚拟现实头盔景深测量的方法及装置 | |
WO2021197370A1 (zh) | 一种光场显示方法及系统、存储介质和显示面板 | |
US11461907B2 (en) | Glasses-free determination of absolute motion | |
TWI752905B (zh) | 畫像處理裝置及畫像處理方法 | |
WO2014008320A1 (en) | Systems and methods for capture and display of flex-focus panoramas | |
WO2023226370A1 (zh) | 一种目标对象的三维重现方法及系统 | |
US20230328400A1 (en) | Auxiliary focusing method, apparatus, and system | |
KR20200024946A (ko) | 전방향의 구형 라이트 필드 렌더링 방법 | |
CN111164542A (zh) | 修改计算设备上的图像的方法 | |
US10771774B1 (en) | Display apparatus and method of producing images having spatially-variable angular resolutions | |
Wartell | Stereoscopic head-tracked displays: Analysis and development of display algorithms | |
JP2016532147A (ja) | 眼科レンズの視覚的効果を特定する方法 | |
KR20190026014A (ko) | 픽셀 빔을 나타내는 데이터를 생성하기 위한 장치 및 방법 | |
CN109309827A (zh) | 用于360°悬浮光场三维显示系统的多人实时跟踪装置和方法 | |
Zhang et al. | [Poster] an accurate calibration method for optical see-through head-mounted displays based on actual eye-observation model | |
CN111489384A (zh) | 基于互视角的遮挡评估方法及装置、设备、系统和介质 | |
US20230244307A1 (en) | Visual assistance | |
TW202338749A (zh) | 用於判定雙眼凝視點的方法和主機 | |
Corke et al. | Image Formation | |
Du et al. | Location Estimation from an Indoor Selfie |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |