CN107657654B - 一种虚拟现实场景渲染方法、装置和头戴显示设备 - Google Patents

一种虚拟现实场景渲染方法、装置和头戴显示设备 Download PDF

Info

Publication number
CN107657654B
CN107657654B CN201710861854.2A CN201710861854A CN107657654B CN 107657654 B CN107657654 B CN 107657654B CN 201710861854 A CN201710861854 A CN 201710861854A CN 107657654 B CN107657654 B CN 107657654B
Authority
CN
China
Prior art keywords
dimensional object
position information
pixel points
lens
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710861854.2A
Other languages
English (en)
Other versions
CN107657654A (zh
Inventor
尚爱丽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Pico Technology Co Ltd
Original Assignee
Beijing Pico Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Pico Technology Co Ltd filed Critical Beijing Pico Technology Co Ltd
Priority to CN201710861854.2A priority Critical patent/CN107657654B/zh
Publication of CN107657654A publication Critical patent/CN107657654A/zh
Application granted granted Critical
Publication of CN107657654B publication Critical patent/CN107657654B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种虚拟现实场景渲染方法、装置和头戴显示设备,方法包括:获取头戴显示设备待渲染的三维物体的图像;根据图像确定三维物体所有像素点在图像上的位置信息以及确定三维物体所有像素点的颜色信息与位置信息的映射表;根据头戴显示设备左右透镜间的距离、程序开发引擎相机的视场角以及所述位置信息,确定三维物体所有像素点相对于左右透镜的位置信息;根据映射表分别为三维物体所有像素点相对于左右透镜的位置信息加载颜色信息,完成三维物体的渲染,生成三维物体相对于左右眼的二维图像,实现通过一次渲染即可将三维场景渲染成二维图像,减少了资源消耗,缩短了延迟时间,提升了帧率,提升用户体验。

Description

一种虚拟现实场景渲染方法、装置和头戴显示设备
技术领域
本发明涉及计算机技术领域,具体涉及一种虚拟现实场景渲染方法、装置和头戴显示设备。
背景技术
随着虚拟现实(Virtual Reality,VR)技术的快速发展,用户对VR设备的沉浸感提出了更高的要求。VR设备在为用户呈现VR场景时,三维场景的渲染至关重要,只有低延迟、高画质的渲染才能保证用户体验。现有技术中必须对三维场景进行两次渲染才能为用户呈现三维场景的二维图像,导致资源消耗严重,而且在复杂场景下帧率很低,尤其在保证高画质渲染的前提下两次渲染很难保证低延迟,降低了用户体验。
发明内容
本发明提供了一种虚拟现实场景渲染方法、装置和头戴显示设备,以解决现有技术中需要对虚拟现实场景进行两次渲染获取二维图像导致资源消耗严重以及复杂场景下帧率低、延迟较长和用户体验低问题。
根据本发明的一个方面,提供了一种虚拟现实场景渲染方法,所述方法包括:
获取头戴显示设备待渲染的三维物体的图像;
根据所述图像确定所述三维物体所有像素点在所述图像上的位置信息,,以及根据所述图像确定所述三维物体所有像素点的颜色信息与所述位置信息的映射表;
根据所述头戴显示设备左右透镜间的距离、所述程序开发引擎相机的视场角以及所述位置信息,确定所述三维物体所有像素点相对于所述左右透镜的位置信息;
根据所述映射表分别为所述三维物体所有像素点相对于所述左右透镜的位置信息加载颜色信息,完成所述三维物体的渲染,生成所述三维物体相对于左右眼的二维图像。
根据本发明的另一个方面,提供了一种虚拟现实场景渲染装置,所述装置包括:
图像获取单元,用于获取头戴显示设备待渲染的三维物体的图像;
距离信息获取单元,用于根据所述图像确定所述三维物体所有像素点在所述图像上的位置信息;
映射表获取单元,用于根据所述图像确定所述三维物体所有像素点的颜色信息与所述位置信息的映射表;
像素点位置信息获取单元,用于根据所述头戴显示设备左右透镜间的距离、所述程序开发引擎相机的视场角以及所述位置信息,确定所述三维物体所有像素点相对于所述左右透镜的位置信息;
渲染单元,用于根据所述映射表分别为所述三维物体所有像素点相对于所述左右透镜的位置信息加载颜色信息,完成所述三维物体的渲染,生成所述三维物体相对于左右眼的二维图像。
根据本发明的另一个方面,提供了另一种虚拟现实场景渲染装置,所述装置包括存储器和处理器,所述存储器存储有能够被所述处理器执行的计算机程序,所述计算机程序被所述处理器执行时能够实现上述的方法步骤。
根据本发明的再一个方面,提供了一种头戴显示设备,所述头戴显示设备包括上述的虚拟现实场景渲染装置。
本发明的有益效果是:本发明的技术方案通过获取头戴显示设备待渲染的三维物体的图像;根据图像确定三维物体所有像素点在图像上的位置信息,以及根据图像确定三维物体所有像素点的颜色信息与位置信息的映射表;根据头戴显示设备左右透镜间的距离、程序开发引擎相机的视场角以及三维物体所有像素点在图像上的位置信息,确定三维物体所有像素点相对于左右透镜的位置信息;根据映射表分别为三维物体所有像素点相对于左右透镜的位置信息加载颜色信息,完成三维物体的渲染,生成三维物体相对于左右眼的二维图像,实现通过一次渲染即可将三维场景渲染成二维图像,从而与现有技术中需要对虚拟现实场景进行两次渲染获取二维图像相比,简化了虚拟现实场景的渲染过程,实现对复杂的虚拟现实场景进行渲染时,在保证高画质的前提下,减少了资源消耗,缩短了延迟时间,提升了帧率,进而提升了用户体验。
附图说明
图1是本发明一个实施例的一种虚拟现实场景渲染方法的流程图;
图2是本发明一个实施例的一种虚拟现实场景渲染的原理示意图;
图3是本发明一个实施例的一种虚拟现实场景渲染装置的结构示意图;
图4是本发明一个实施例的另一种虚拟现实场景渲染装置的结构示意图;
图5是本发明一个实施例的一种头戴显示设备的示意图。
具体实施方式
本发明的设计构思是:针对现有技术中需要对虚拟现实场景进行两次渲染获取二维图像导致资源消耗严重以及复杂场景下帧率低、延迟较长和用户体验低问题,发明人想到,获取头戴显示设备待渲染的三维物体的图像;根据图像确定三维物体所有像素点在图像上的位置信息以及三维物体所有像素点的颜色信息与位置信息的映射表;根据头戴显示设备左右透镜间的距离、程序开发引擎相机的视场角以及三维物体所有像素点在图像上的位置信息,确定三维物体所有像素点相对于左右透镜的位置信息;根据映射表分别为三维物体所有像素点相对于左右透镜的位置信息加载颜色信息,完成三维物体的渲染,生成三维物体相对于左右眼的二维图像,简化了虚拟现实场景的渲染过程,实现对复杂的虚拟现实场景进行渲染时,在保证高画质的前提下,减少了资源消耗,缩短了延迟时间,提升了帧率,进而提升了用户体验。
实施例一
图1是本发明一个实施例的一种虚拟现实场景渲染方法的流程图,如图1所示,
在步骤S110中,获取头戴显示设备待渲染的三维物体的图像;
在步骤S120中,根据所述图像确定所述三维物体所有像素点在所述图像上的位置信息,以及根据所述图像确定所述三维物体所有像素点的颜色信息与所述位置信息的映射表;
在步骤S130中,根据所述头戴显示设备左右透镜间的距离、所述程序开发引擎相机的视场角以及所述位置信息,确定所述三维物体所有像素点相对于所述左右透镜的位置信息;
在步骤S140中,根据所述映射表分别为所述三维物体所有像素点相对于所述左右透镜的位置信息加载颜色信息,完成所述三维物体的渲染,生成所述三维物体相对于左右眼的二维图像。
通过图1所示的方法,可知,本发明的技术方案通过获取头戴显示设备待渲染的三维物体的图像;根据图像确定三维物体所有像素点在图像上的位置信息,以及根据图像确定三维物体所有像素点的颜色信息与位置信息的映射表;根据头戴显示设备左右透镜间的距离、程序开发引擎相机的视场角以及三维物体所有像素点在图像上的位置信息,确定三维物体所有像素点相对于左右透镜的位置信息;根据映射表分别为三维物体所有像素点相对于左右透镜的位置信息加载颜色信息,完成三维物体的渲染,生成三维物体相对于左右眼的二维图像,实现通过一次渲染即可将三维场景渲染成二维图像,从而与现有技术中需要对虚拟现实场景进行两次渲染获取二维图像相比,简化了虚拟现实场景的渲染过程,实现对复杂的虚拟现实场景进行渲染时,在保证高画质的前提下,减少了资源消耗,缩短了延迟时间,提升了帧率,进而提升了用户体验。
在本发明的一个实施例中,所述头戴显示设备左右透镜间的距离由用户瞳距确定。需要说明的是,由于每个人的瞳距不同,在佩戴头戴显示设备时,用户需要根据自己的瞳距对头戴显示设备的透镜距离进行调整,在调整的过程中,头戴显示设备会记录当前用户的瞳距(即左右透镜间的距离)。
图2是本发明一个实施例的一种虚拟现实场景渲染的原理示意图,如图2所示,∠ACB为程序开发引擎相机的视场角θ,A为左透镜(相当于左相机),B为右透镜(相当于右相机),AB为用户瞳距dx,M为虚拟现实场景中的三维物体所在的位置,C为程序开发引擎相机(例如,unity3D相机)所在的位置,程序开发引擎相机(例如,unity3D相机)拍摄三维物体,获取到包含三维物体的图像后,根据该三维物体的图像确定出该三维物体所有像素点在图像上的位置信息即MC(例如,(xmc,ymc)),MA为三维物体所有像素点相对于左透镜的位置信息(例如,(xma,yma)),MB为三维物体所有像素点相对于右透镜的位置信息(例如,(xmb,ymb))。
根据公式
Figure BDA0001415248440000051
计算三维物体所有像素点相对于所述左透镜的位置信息,其中,
Figure BDA0001415248440000052
为左透镜到右透镜的矢量距离;
根据公式
Figure BDA0001415248440000053
计算所述三维物体所有像素点相对于所述右透镜的位置信息,其中,
Figure BDA0001415248440000054
为右透镜到左透镜的矢量距离;
也就是说,根据MA=f(θ,-dx/2,X)计算三维物体所有像素点相对于所有左透镜的位置信息;
根据公式MB=f(θ,dx/2,X)计算三维物体所有像素点相对于所述右透镜的位置信息;
其中,θ为∠ACB,即已知的视场角fov,dx为左右眼瞳距的位置参数,例如,假设瞳距为0.062,对于左眼dx=-0.031,对于右眼dx=0.031,X为该三维物体所有像素点在图像上的位置信息,即MC(例如,(xmc,ymc))。
需要说明的是,左透镜(相当于是左相机)、右透镜(相当于是右相机)和程序开发引擎相机的视场角、近切面和远切面相同,在视场角fov、瞳距AB和三维物体所有像素点在图像上的位置信息MC已知的情况下,即可计算三维物体所有像素点相对于左透镜的位置信息MA和三维物体所有像素点相对于右透镜的位置信息MB。
实施例二
图3是本发明一个实施例的一种虚拟现实场景渲染装置的结构示意图,如图3所示,虚拟现实场景渲染装置300包括:
图像获取单元310,用于获取头戴显示设备待渲染的三维物体的图像;
距离信息获取单元320,用于根据所述图像确定所述三维物体所有像素点在所述图像上的位置信息;
映射表获取单元330,用于根据所述图像确定所述三维物体所有像素点的颜色信息与所述位置信息的映射表;
像素点位置信息获取单元340,用于根据所述头戴显示设备左右透镜间的距离、所述程序开发引擎相机的视场角以及所述位置信息,确定所述三维物体所有像素点相对于所述左右透镜的位置信息;
渲染单元350,用于根据所述映射表分别为所述三维物体所有像素点相对于所述左右透镜的位置信息加载颜色信息,完成所述三维物体的渲染,生成所述三维物体相对于左右眼的二维图像。
在本发明的一个实施例中,装置300还包括透镜距离获取单元360,用于所述头戴显示设备左右透镜间的距离由用户瞳距确定。
在本发明的一个实施例中,所述像素点位置信息获取单元340,具体用于根据所述头戴显示设备左右透镜间的距离确定所述左右透镜的矢量距离;根据所述程序开发引擎相机的视场角、所述左右透镜的矢量距离的一半以及所述三维物体所有像素点在所述图像上的位置信息,确定所述三维物体所有像素点相对于所述左右透镜的位置信息。
在本发明的一个实施例中,根据公式MA=f(θ,-dx/2,X)计算三维物体所有像素点相对于所述左透镜的位置信息;
根据公式MB=f(θ,dx/2,X)计算三维物体所有像素点相对于所述右透镜的位置信息;
其中,θ为所述程序开发引擎相机的视场角,dx为头戴显示设备左右透镜间的距离,X为所述三维物体所有像素点在所述图像上的位置信息。
需要说明的是,图3所示的虚拟现实场景渲染装置的工作过程与图1所示的虚拟现实场景渲染方法的各实施例的实现步骤对应相同,相同的部分不再赘述。
实施例三
图4是本发明一个实施例的另一种虚拟现实场景渲染装置的结构示意图,如图4所示,所述装置400包括存储器420和处理器410,所述存储器420存储有能够被所述处理器410执行的计算机程序,所述计算机程序被所述处理器410执行时能够实现如图1所示的方法步骤。其中,存储器420和处理器410之间通过内部总线430通讯连接。
在不同的实施例中,存储器420可以是内存或者非易失性存储器。其中非易失性存储器可以是:存储驱动器(如硬盘驱动器)、固态硬盘、任何类型的存储盘(如光盘、DVD等),或者类似的存储介质,或者它们的组合。内存可以是:RAM(Radom Access Memory,随机存取存储器)、易失存储器、非易失性存储器、闪存。进一步,非易失性存储器和内存作为机器可读存储介质,其上可存储由处理器410执行的虚拟现实场景渲染的计算机程序。
需要说明的是,本实施例中请求保护的虚拟现实场景渲染装置400的工作过程与图1所示的方法的各实施例的实现步骤对应相同,相同的部分不再赘述。
实施例四
图5是本发明一个实施例的一种头戴显示设备的示意图,如图5所示,所述头戴显示设备500包括如图3所示的的虚拟现实场景渲染装置300或者如图4所示的的虚拟现实场景渲染装置400。
综上所述,本发明的技术方案通过获取头戴显示设备待渲染的三维物体的图像;根据图像确定三维物体所有像素点在图像上的位置信息,以及根据图像确定三维物体所有像素点的颜色信息与位置信息的映射表;根据头戴显示设备左右透镜间的距离、程序开发引擎相机的视场角以及三维物体所有像素点在图像上的位置信息,确定三维物体所有像素点相对于左右透镜的位置信息;根据映射表分别为三维物体所有像素点相对于左右透镜的位置信息加载颜色信息,完成三维物体的渲染,生成三维物体相对于左右眼的二维图像,实现通过一次渲染即可将三维场景渲染成二维图像,从而与现有技术中需要对虚拟现实场景进行两次渲染获取二维图像相比,简化了虚拟现实场景的渲染过程,实现对复杂的虚拟现实场景进行渲染时,在保证高画质的前提下,减少了资源消耗,缩短了延迟时间,提升了帧率,进而提升了用户体验。
以上所述,仅为本发明的具体实施方式,在本发明的上述教导下,本领域技术人员可以在上述实施例的基础上进行其他的改进或变形。本领域技术人员应该明白,上述的具体描述只是更好的解释本发明的目的,本发明的保护范围以权利要求的保护范围为准。

Claims (6)

1.一种虚拟现实场景渲染方法,其特征在于,所述方法包括:
获取头戴显示设备待渲染的三维物体的图像;
根据所述图像确定所述三维物体所有像素点在所述图像上的位置信息,以及根据所述图像确定所述三维物体所有像素点的颜色信息与所述位置信息的映射表;
根据所述头戴显示设备左右透镜间的距离、程序开发引擎相机的视场角以及所述位置信息,确定所述三维物体所有像素点相对于所述左右透镜的位置信息;
根据所述映射表分别为所述三维物体所有像素点相对于所述左右透镜的位置信息加载颜色信息,完成所述三维物体的渲染,生成所述三维物体相对于左右眼的二维图像;
所述根据所述头戴显示设备左右透镜间的距离、所述程序开发引擎相机的视场角以及所述位置信息,确定所述三维物体所有像素点相对于所述左右透镜的位置信息包括:
根据所述头戴显示设备左右透镜间的距离确定所述左右透镜的矢量距离;
根据所述程序开发引擎相机的视场角、所述左右透镜的矢量距离的一半以及所述三维物体所有像素点在所述图像上的位置信息,确定所述三维物体所有像素点相对于所述左右透镜的位置信息;
根据公式MA=f(θ,-dx/2,X)计算三维物体所有像素点相对于所述左透镜的位置信息;
根据公式MB =f(θ,dx/2,X)计算三维物体所有像素点相对于所述右透镜的位置信息;
其中,MA为三维物体所有像素点相对于所述左透镜的位置信息,MB为三维物体所有像素点相对于所述右透镜的位置信息,θ为所述程序开发引擎相机的视场角,dx为头戴显示设备左右透镜间的距离,X为所述三维物体所有像素点在所述图像上的位置信息。
2.如权利要求1所述的方法,其特征在于,所述方法还包括:
所述头戴显示设备左右透镜间的距离由用户瞳距确定。
3.一种虚拟现实场景渲染装置,其特征在于,所述装置包括:
图像获取单元,用于获取头戴显示设备待渲染的三维物体的图像;
距离信息获取单元,用于根据所述图像确定所述三维物体所有像素点在所述图像上的位置信息;
映射表获取单元,用于根据所述图像确定所述三维物体所有像素点的颜色信息与所述位置信息的映射表;
像素点位置信息获取单元,用于根据所述头戴显示设备左右透镜间的距离、程序开发引擎相机的视场角以及所述位置信息,确定所述三维物体所有像素点相对于所述左右透镜的位置信息;
渲染单元,用于根据所述映射表分别为所述三维物体所有像素点相对于所述左右透镜的位置信息加载颜色信息,完成所述三维物体的渲染,生成所述三维物体相对于左右眼的二维图像;
所述像素点位置信息获取单元,具体用于根据所述头戴显示设备左右透镜间的距离确定所述左右透镜的矢量距离;根据所述程序开发引擎相机的视场角、所述左右透镜的矢量距离以及所述三维物体所有像素点在所述图像上的位置信息,确定所述三维物体所有像素点相对于所述左右透镜的位置信息;
所述像素点位置信息获取单元,具体用于根据公式MA=f(θ,-dx/2,X)计算三维物体所有像素点相对于所述左透镜的位置信息;
根据公式MB=f(θ,dx/2,X)计算三维物体所有像素点相对于所述右透镜的位置信息;
其中,MA为三维物体所有像素点相对于所述左透镜的位置信息,MB为三维物体所有像素点相对于所述右透镜的位置信息,θ为所述程序开发引擎相机的视场角,dx为头戴显示设备左右透镜间的距离,X为所述三维物体所有像素点在所述图像上的位置信息。
4.如权利要求3所述的装置,其特征在于,所述装置还包括透镜距离获取单元,用于所述头戴显示设备左右透镜间的距离由用户瞳距确定。
5.一种虚拟现实场景渲染装置,其特征在于,所述装置包括存储器和处理器,所述存储器存储有能够被所述处理器执行的计算机程序,所述计算机程序被所述处理器执行时能够实现权利要求1-2任意一项所述的方法步骤。
6.一种头戴显示设备,其特征在于,所述头戴显示设备包括如权利要求3-4任意一项所述的虚拟现实场景渲染装置或者如权利要求5所述的虚拟现实场景渲染装置。
CN201710861854.2A 2017-09-21 2017-09-21 一种虚拟现实场景渲染方法、装置和头戴显示设备 Active CN107657654B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710861854.2A CN107657654B (zh) 2017-09-21 2017-09-21 一种虚拟现实场景渲染方法、装置和头戴显示设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710861854.2A CN107657654B (zh) 2017-09-21 2017-09-21 一种虚拟现实场景渲染方法、装置和头戴显示设备

Publications (2)

Publication Number Publication Date
CN107657654A CN107657654A (zh) 2018-02-02
CN107657654B true CN107657654B (zh) 2021-11-23

Family

ID=61129846

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710861854.2A Active CN107657654B (zh) 2017-09-21 2017-09-21 一种虚拟现实场景渲染方法、装置和头戴显示设备

Country Status (1)

Country Link
CN (1) CN107657654B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109002164B (zh) * 2018-07-10 2021-08-24 歌尔光学科技有限公司 头戴显示设备的显示方法、装置及头戴显示设备
CN109375370B (zh) * 2018-10-10 2021-03-23 京东方科技集团股份有限公司 一种近眼显示设备的调节方法、装置、设备和存储介质
CN112015264B (zh) * 2019-05-30 2023-10-20 深圳市冠旭电子股份有限公司 虚拟现实显示方法、虚拟现实显示装置及虚拟现实设备
CN115268073A (zh) * 2022-08-03 2022-11-01 展视网(北京)科技有限公司 一种虚拟现实显示设备及显示方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030179198A1 (en) * 1999-07-08 2003-09-25 Shinji Uchiyama Stereoscopic image processing apparatus and method, stereoscopic vision parameter setting apparatus and method, and computer program storage medium information processing method and apparatus
CN1853200A (zh) * 2003-09-17 2006-10-25 皇家飞利浦电子股份有限公司 用于在3-d图像显示屏上显示3-d图像的系统和方法
US20100110069A1 (en) * 2008-10-31 2010-05-06 Sharp Laboratories Of America, Inc. System for rendering virtual see-through scenes
CN106325521A (zh) * 2016-08-31 2017-01-11 北京小米移动软件有限公司 测试虚拟现实头显设备软件的方法及装置
CN106462370A (zh) * 2014-04-29 2017-02-22 微软技术许可有限责任公司 基于注视位置的稳定性平面确定
CN106504188A (zh) * 2016-11-23 2017-03-15 北京视觉智能科技有限公司 用于立体视觉呈现的人眼观察图像的生成方法和装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030179198A1 (en) * 1999-07-08 2003-09-25 Shinji Uchiyama Stereoscopic image processing apparatus and method, stereoscopic vision parameter setting apparatus and method, and computer program storage medium information processing method and apparatus
CN1853200A (zh) * 2003-09-17 2006-10-25 皇家飞利浦电子股份有限公司 用于在3-d图像显示屏上显示3-d图像的系统和方法
US20100110069A1 (en) * 2008-10-31 2010-05-06 Sharp Laboratories Of America, Inc. System for rendering virtual see-through scenes
CN106462370A (zh) * 2014-04-29 2017-02-22 微软技术许可有限责任公司 基于注视位置的稳定性平面确定
CN106325521A (zh) * 2016-08-31 2017-01-11 北京小米移动软件有限公司 测试虚拟现实头显设备软件的方法及装置
CN106504188A (zh) * 2016-11-23 2017-03-15 北京视觉智能科技有限公司 用于立体视觉呈现的人眼观察图像的生成方法和装置

Also Published As

Publication number Publication date
CN107657654A (zh) 2018-02-02

Similar Documents

Publication Publication Date Title
CN107657654B (zh) 一种虚拟现实场景渲染方法、装置和头戴显示设备
TWI712918B (zh) 擴增實境的影像展示方法、裝置及設備
US9916517B2 (en) Image processing method and apparatus
KR102316061B1 (ko) 화상 처리장치, 방법 및 컴퓨터 프로그램
WO2017163720A1 (ja) 情報処理装置、情報処理システム、および情報処理方法
WO2018019282A1 (zh) 双目全景图像获取方法,装置及存储介质
JP6090786B2 (ja) 背景差分抽出装置及び背景差分抽出方法
US10109076B2 (en) Depth-aware stereo image editing method apparatus and computer-readable medium
JP6720341B2 (ja) バーチャルリアリティデバイス及びそのコンテンツの調整方法
WO2018210318A1 (zh) 图像虚化处理方法、装置、存储介质及电子设备
CN105282532A (zh) 3d显示方法和装置
CN109522866A (zh) 裸眼3d图像处理方法、装置以及设备
CN104580922A (zh) 一种拍摄补光的控制方法和装置
JP2018110295A5 (zh)
US20190266802A1 (en) Display of Visual Data with a Virtual Reality Headset
US20140204083A1 (en) Systems and methods for real-time distortion processing
WO2020123357A1 (en) Dynamic convergence adjustment in virtual reality headsets
JP2015213299A (ja) 画像処理装置および画像処理方法
WO2021031210A1 (zh) 视频处理方法和装置、存储介质和电子设备
RU2768013C2 (ru) Способ и устройство для предоставления информации пользователю, наблюдающему мультивидовое содержание
CN107749955B (zh) 全景相机姿态自适应测光调整方法、系统及便携式终端
US9918015B2 (en) Exposure control using depth information
CN108027646B (zh) 一种终端显示防抖方法及装置
TW202225783A (zh) 裸視立體顯示器及其控制方法
CN108307090A (zh) 一种摄像头模组、移动终端及其拍摄图像的方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant