CN107277485B - 基于虚拟现实的图像显示方法和装置 - Google Patents

基于虚拟现实的图像显示方法和装置 Download PDF

Info

Publication number
CN107277485B
CN107277485B CN201710587489.0A CN201710587489A CN107277485B CN 107277485 B CN107277485 B CN 107277485B CN 201710587489 A CN201710587489 A CN 201710587489A CN 107277485 B CN107277485 B CN 107277485B
Authority
CN
China
Prior art keywords
image
view angle
field
virtual
direction width
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710587489.0A
Other languages
English (en)
Other versions
CN107277485A (zh
Inventor
夏钦展
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Goertek Techology Co Ltd
Original Assignee
Goertek Techology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Goertek Techology Co Ltd filed Critical Goertek Techology Co Ltd
Priority to CN201710587489.0A priority Critical patent/CN107277485B/zh
Publication of CN107277485A publication Critical patent/CN107277485A/zh
Priority to PCT/CN2017/117556 priority patent/WO2019015249A1/zh
Application granted granted Critical
Publication of CN107277485B publication Critical patent/CN107277485B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

本发明公开了基于虚拟现实的图像显示方法和装置,当两个摄像机针对同一物体拍摄时,分别记录两个图像的水平视场角和垂直视场角并保存到对应图像的元数据中,从而可以基于两个图像的水平视场角和垂直视场角,计算该两个图像显示在虚拟显示屏上的水平方向宽度和垂直方向宽度,当显示在虚拟显示屏上的两个图像投射到人眼中,人眼获取该两个图像后在脑中产生立体感。由于在虚拟显示屏上显示图像时考虑到了实际针对左右眼成像时的水平视场角和垂直视场角,从而使得在虚拟显示屏上的显示图像与真实场景中的物体比例是一致的,这样使得用户对于虚拟场景的视觉感知与真实场景中的视觉感知是一致的,可以提高用户的真实沉浸感。

Description

基于虚拟现实的图像显示方法和装置
技术领域
本发明涉及人机交互技术领域,尤其涉及一种基于虚拟现实的图像显示方法和装置。
背景技术
虚拟现实技术是结合计算机图形学系统以及各种控制接口设备,在计算机上生成可交互的三维环境中提供沉浸式虚拟场景的技术。
对于用户而言,对于虚拟场景的视觉感知是提供真实沉浸感的基础。为了实现虚拟场景的立体显示,可以结合计算机图像学系统将虚拟场景转换为虚拟立体场景,从而将虚拟立体场景呈现在真实场景中。
但是在现有技术中,通过是利用固定的转换参数将虚拟场景线性的转换为虚拟立体场景,可能会导致虚拟立体场景不能与真实场景中具有较好的适配,也就是说,用户对于虚拟场景的视觉感知与真实场景中的视觉感知是不一致的,从而无法达到较佳的立体显示效果,降低了用户的真实沉浸感。
发明内容
为了解决上述问题,本发明提供一种基于虚拟现实的图像显示方法和装置,可以实现虚拟场景的视觉感知与真实场景中的视觉感知的一致性,提高虚拟立体场景与真实场景的适配性。
本发明提供一种基于虚拟现实的图像显示方法,包括:
分别获取左眼图像的水平视场角和垂直视场角以及右眼图像的水平视场角和垂直视场角,其中,左眼图像和右眼图像分别为第一摄像机和第二摄像机针对同一物体各自拍摄的图像;
根据所述两个图像的水平视场角和垂直视场角,分别计算两个图像在虚拟显示屏上的水平方向宽度和垂直方向宽度;
根据所述两个图像在虚拟显示屏上的水平方向宽度和垂直方向宽度,对所述两个图像在虚拟显示屏上进行显示。
可选地,分别获取两个图像的水平视场角和垂直视场角之前,包括:
在拍摄所述左眼图像和所述右眼图像时,分别记录所述第一摄像机和所述第二摄像机针对同一物体各自拍摄图像时的水平视场角和垂直视场角;
将拍摄图像时的水平视场角和垂直视场角保存到对应图像的元数据中,以便从图像的元数据中获取拍摄该图像时的水平视场角和垂直视场角。
可选地,根据所述两个图像的水平视场角和垂直视场角,分别计算两个图像在虚拟显示屏上的水平方向宽度和垂直方向宽度,包括:
根据图像的水平视场角,以及预设的虚拟显示屏距离对应的虚拟成像设备之间的距离,计算得到图像在虚拟显示屏上的水平方向宽度;
根据图像的垂直视场角,以及预设的虚拟显示屏距离对应的虚拟成像设备之间的距离,计算得到图像在虚拟显示屏上的垂直方向宽度。
可选地,所述的方法包括:
根据计算公式B=2A*tgα,计算图像在虚拟显示屏上的水平方向宽度和垂直方向宽度,其中,A为预设的虚拟显示屏距离对应的虚拟成像设备之间的距离,当α为图像的水平视场角时,则B为图像在虚拟显示屏上的水平方向宽度,或当α为图像的垂直视场角时,则B为图像在虚拟显示屏上的垂直方向宽度。
可选地,对应左右眼设置两个光学成像设备包括对应左右眼设置的两个透镜,第一透镜和第二透镜,且两个透镜对称安装在虚拟现实设备上,两个透镜的硬件参数相同,且两个透镜之间的瞳距为6.5cm。
本发明还提供一种基于虚拟现实的立体图像显示装置,包括:
获取模块,用于分别获取左眼图像的水平视场角和垂直视场角以及右眼图像的水平视场角和垂直视场角,其中,左眼图像和右眼图像分别为第一摄像机和第二摄像机针对同一物体各自拍摄的图像;
计算模块,用于根据所述两个图像的水平视场角和垂直视场角,分别计算两个图像在虚拟显示屏上的水平方向宽度和垂直方向宽度;
显示模块,用于根据所述两个图像在虚拟显示屏上的水平方向宽度和垂直方向宽度,对所述两个图像在虚拟显示屏上进行显示。
可选地,所述的装置还包括:
记录模块,用于在拍摄所述左眼图像和所述右眼图像时,分别记录所述第一摄像机和所述第二摄像机针对同一物体各自拍摄图像时的水平视场角和垂直视场角;
保存模块,用于将拍摄图像时的水平视场角和垂直视场角保存到对应图像的元数据中,以便从图像的元数据中获取拍摄该图像时的水平视场角和垂直视场角。
可选地,所述计算模块具体用于:
根据图像的水平视场角,以及预设的虚拟显示屏距离对应的虚拟成像设备之间的距离,计算得到图像在虚拟显示屏上的水平方向宽度;
根据图像的垂直视场角,以及预设的虚拟显示屏距离对应的虚拟成像设备之间的距离,计算得到图像在虚拟显示屏上的垂直方向宽度。
可选地,所述计算模块具体用于:
根据计算公式B=2A*tgα,计算图像在虚拟显示屏上的水平方向宽度和垂直方向宽度,其中,A为预设的虚拟显示屏距离对应的虚拟成像设备之间的距离,当α为图像的水平视场角时,则B为图像在虚拟显示屏上的水平方向宽度,或当α为图像的垂直视场角时,则B为图像在虚拟显示屏上的垂直方向宽度。
可选地,对应左右眼设置两个光学成像设备包括对应左右眼设置的两个透镜,第一透镜和第二透镜,且两个透镜对称安装在虚拟现实设备上,两个透镜的硬件参数相同,且两个透镜之间的瞳距为6.5cm。
本发明实施例通过将两个光学成像设备对应左右眼设置在虚拟现实设备上,当两个摄像机针对同一物体拍摄时,针对左右眼生成两个不同的图像,分别记录两个图像的水平视场角和垂直视场角并保存到对应图像的元数据中,从而可以基于两个图像的水平视场角和垂直视场角,计算该两个图像显示在虚拟显示屏上的水平方向宽度和垂直方向宽度,当显示在虚拟显示屏上的两个图像投射到人眼中,人眼获取该两个图像后在脑中产生立体感。由于在虚拟显示屏上显示图像时考虑到了实际针对左右眼成像时的水平视场角和垂直视场角,从而使得在虚拟显示屏上的显示图像与真实场景中的物体比例是一致的,这样使得用户对于虚拟场景的视觉感知与真实场景中的视觉感知是一致的,可以提高用户的真实沉浸感。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一实施例提供的基于虚拟现实的图像显示方法流程示意图;
图2为本发明实施例提供的虚拟场景布置的示意图;
图3为本发明实施例提供的一种透镜布置示意图;
图4为本发明一实施例提供的基于虚拟现实的图像显示装置结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本发明实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本发明。在本发明实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义,“多种”一般包含至少两种,但是不排除包含至少一种的情况。
应当理解,本文中使用的术语“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的商品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种商品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的商品或者系统中还存在另外的相同要素。
发明人在实现本发明的过程中发现:现有的立体图像基本由具有双摄像头的设备拍摄,采用标准的图片保存格式和元数据,该种图片的元数据缺乏对拍摄时镜头的水平视场角和垂直视场角等数据的支持,所以在显示的时候只能看到立体的影像,但是无法自动调整图像的大小来与拍摄者拍摄时感受到的物体大小保持一致,也就是说,显示的虚拟场景不能与真实场景具有较好的适配,从而导致用户对于虚拟场景的视觉感知与真实场景中的视觉感知是不一致的,无法达到较佳的显示效果,降低了用户的真实沉浸感。
为了解决上述问题,本发明的发明思想:当两个摄像机针对同一物体拍摄时,针对左右眼生成两个不同的图像,分别记录两个图像的水平视场角和垂直视场角并保存到对应图像的元数据中,从而可以基于两个图像的水平视场角和垂直视场角,计算该两个图像显示在虚拟显示屏上的水平方向宽度和垂直方向宽度,当显示在虚拟显示屏上的两个图像投射到人眼中,人眼获取该两个图像后在脑中产生立体感。由于在虚拟显示屏上显示图像时考虑到了实际针对左右眼成像时的水平视场角和垂直视场角,从而使得在虚拟显示屏上的显示图像与真实场景中的物体比例是一致的,这样使得用户对于虚拟场景的视觉感知与真实场景中的视觉感知是一致的,可以提高用户的真实沉浸感。
图1为本发明一实施例提供的基于虚拟现实的图像显示方法流程示意图,如图1所示,包括:
101、分别获取左眼图像的水平视场角和垂直视场角以及右眼图像的水平视场角和垂直视场角。
其中,左眼图像和右眼图像分别为第一摄像机和第二摄像机针对同一物体各自拍摄的图像;
当第一摄像机和第二摄像机针对同一物体各自拍摄图像时,可以针对左右眼生成两个不同的图像,例如,一个图像是针对右眼的第一摄像机拍摄的图像(简称右眼图像),另一个图像是针对左眼的第二摄像机拍摄的图像(简称左眼图像)。
为了能够实现虚拟显示屏上的显示图像与真实场景中的物体比例是一致的,从而使得用户对于虚拟场景的视觉感知与真实场景中的视觉感知保持一致,本发明实施例中,当第一摄像机和第二摄像机对同一物体各自生成对应左右眼的图像(左眼图像和右眼图像)时,分别记录两个图像的水平视场角和垂直视场角,即第一摄像机对同一物体拍摄图像时的水平视场角和垂直视场角,和第二摄像机对同一物体拍摄图像时的水平视场角和垂直视场角,之后,为了节约虚拟现实设备的内存资源,可以将两个图像的水平视场角和垂直视场角分别保存到对应图像的元数据中,以便虚拟现实设备在虚拟显示之前从图像的元数据中获取拍摄该图像时的水平视场角和垂直视场角;其中,保存到元数据中的水平视场角和垂直视场角可以为一串字符串。
102、根据两个图像的水平视场角和垂直视场角,分别计算两个图像在虚拟显示屏上的水平方向宽度和垂直方向宽度;
图2为本发明实施例提供的虚拟场景布置的示意图,如图2所示,在虚拟场景里布置两个虚拟摄像头,左边的虚拟摄像头对应左眼,右边的虚拟摄像头对应右眼,在两个虚拟摄像头前面的一定距离(该距离是可以变化的)放置两个虚拟显示屏,其中,一个虚拟显示屏用来显示针对右眼的虚拟图像,另一个虚拟显示屏用来显示针对左眼的虚拟图像。
步骤102具体实现时,例如根据上述步骤101中获取的右眼图像的水平视场角,以及根据图3所示预设的虚拟显示屏距离对应的虚拟成像设备之间的距离,可以计算得到右眼图像在虚拟显示屏上的水平方向宽度;根据上述步骤101中获取的右眼图像的垂直视场角,以及根据图3所示预设的虚拟显示屏距离对应的虚拟成像设备之间的距离,可以计算得到右眼图像在虚拟显示屏上的垂直方向宽度。同理,可以得到左眼图像在虚拟显示屏上的水平方向宽度和垂直方向宽度。
在本发明一种可选的实施方式中,可以根据计算公式B=2A*tgα,计算图像在虚拟显示屏上的水平方向宽度和垂直方向宽度;其中,A为虚拟显示屏距离对应的虚拟成像设备(或虚拟摄像头)之间的距离,当α为图像的水平视场角时,则B为图像在虚拟显示屏上的水平方向宽度,或当α为图像的垂直视场角时,则B为图像在虚拟显示屏上的垂直方向宽度。
当虚拟显示屏距离对应的虚拟成成像设备(或虚拟摄像头)之间的距离A为i1时,对应的图像在虚拟显示屏上的水平方向宽度或者垂直方向宽度B1;虚拟显示屏距离对应的虚拟成成像设备(或虚拟摄像头)之间的距离A为i2时,对应的图像在虚拟显示屏上的水平方向宽度或者垂直方向宽度B2。
103、根据两个图像在虚拟显示屏上的水平方向宽度和垂直方向宽度,对两个图像在虚拟显示屏上进行显示。
当显示在虚拟显示屏上的两个图像投射到人眼中,人眼获取该两个图像后在脑中产生立体感。
需要说明的是,本发明实施例中,为了减少左右眼的视觉误差和提高用户对虚拟场景的真实沉浸感,图3为本发明实施例提供的一种透镜布置示意图,如图3所示,第一透镜(透镜1)和第二透镜(透镜2)分别对应左右眼而设置,如透镜1针对左眼,透镜2针对右眼布置,两个透镜对称安装在虚拟现实设备(如虚拟现实的头戴设备)上,两个透镜的硬件参数相同,且两个透镜之间的瞳距为6.5cm。
由此可知,本发明实施例中,当虚拟显示屏距离虚拟成像设备(或虚拟摄像头)比较近的时候,对应的图像在虚拟显示屏上的水平方向宽度或者垂直方向宽度也成比例的变小;当虚拟显示屏距离虚拟成像设备(或虚拟摄像头)比较远的时候,对应的图像在虚拟显示屏上的水平方向宽度或者垂直方向宽度也成比例的变大。也就是说,无论虚拟显示屏与虚拟成像设备(或虚拟摄像头)之间的距离远近,用户对于虚拟场景中的视觉感知是该物体大小比例没有变化,即用户对于虚拟场景中的视觉感知与真实场景中的视觉感知是一致的。因此,本发明实施例的图像显示可以达到较佳的显示效果,大大提高了用户的真实沉浸感。
而现有技术中,由于不考虑拍摄图像时的水平视场角和垂直视场角,虚拟显示屏与虚拟成像设备(或虚拟摄像头)之间的距离无论是远或近,图像在虚拟显示屏上的大小不变,因此,当虚拟显示屏距离虚拟成像设备(或虚拟摄像头)比较近的时候,用户对于虚拟场景中的视觉感知是该物体感觉很大;当虚拟显示屏距离虚拟成像设备(或虚拟摄像头)比较远的时候,用户对于虚拟场景中的视觉感知是该物体感觉很小,因此,现有技术的图像显示无法达到较佳的显示效果,大大降低了用户的真实沉浸感。
图4为本发明一实施例提供的基于虚拟现实的图像显示装置结构示意图,如图4所示,包括:
获取模块,用于分别获取左眼图像的水平视场角和垂直视场角以及右眼图像的水平视场角和垂直视场角,其中,左眼图像和右眼图像分别为第一摄像机和第二摄像机针对同一物体各自拍摄的图像;
计算模块,用于根据所述两个图像的水平视场角和垂直视场角,分别计算两个图像在虚拟显示屏上的水平方向宽度和垂直方向宽度;
显示模块,用于根据所述两个图像在虚拟显示屏上的水平方向宽度和垂直方向宽度,对所述两个图像在虚拟显示屏上进行显示。
可选地,所述的装置还包括:
记录模块,用于在拍摄所述左眼图像和所述右眼图像时,分别记录所述第一摄像机和所述第二摄像机针对同一物体各自拍摄图像时的水平视场角和垂直视场角;
保存模块,用于将拍摄图像时的水平视场角和垂直视场角保存到对应图像的元数据中,以便从图像的元数据中获取拍摄该图像时的水平视场角和垂直视场角。
可选地,所述计算模块具体用于:
根据图像的水平视场角,以及预设的虚拟显示屏距离对应的虚拟成像设备之间的距离,计算得到图像在虚拟显示屏上的水平方向宽度;
根据图像的垂直视场角,以及预设的虚拟显示屏距离对应的虚拟成像设备之间的距离,计算得到图像在虚拟显示屏上的垂直方向宽度。
可选地,所述计算模块具体用于:
根据计算公式B=2A*tgα,计算图像在虚拟显示屏上的水平方向宽度和垂直方向宽度,其中,A为预设的虚拟显示屏距离对应的虚拟成像设备之间的距离,当α为图像的水平视场角时,则B为图像在虚拟显示屏上的水平方向宽度,或当α为图像的垂直视场角时,则B为图像在虚拟显示屏上的垂直方向宽度。
本发明实施例所述的装置可以执行图1所示的方法,其实现原理和技术效果不再赘述。
本发明实施例中,上述装置的结构中包括处理器和存储器,所述存储器用于存储支持基于虚拟现实的图像显示装置执行上述图1所示实施例中基于虚拟现实的图像显示方法的程序,所述处理器被配置为用于执行所述存储器中存储的程序。
所述程序包括一条或多条计算机指令,其中,所述一条或多条计算机指令供所述处理器调用执行。
本发明实施例还提供了一种计算机存储介质,用于储存基于虚拟现实的图像显示装置所用的计算机软件指令,所述计算机软件指令包含了用于执行上述基于虚拟现实的图像显示方法为基于虚拟现实的图像显示装置所涉及的程序。
需要说明的是,本发明实施例的方法并不限于基于虚拟现实的图像显示方法,还可以实现基于虚拟现实的视频显示,因为视频是时间帧连续的图像集合,当两个摄像机针对人眼左右眼的视场方向拍摄每个时间帧的右眼图像和左眼图像时,均可以记录每个时间帧的右眼图像和左眼图像的水平视场角和垂直视场角,并保存到对应时间帧的右眼图像和左眼图像的元数据中,因此可以基于每个时间帧的右眼图像和左眼图像的水平视场角和垂直视场角,计算每个时间帧的右眼图像和左眼图像显示在虚拟显示屏上的水平方向宽度和垂直方向宽度,当显示在虚拟显示屏上的每个时间帧的右眼图像和左眼图像投射到人眼中,人眼获取该段视频在脑中产生立体感。且用户对于虚拟视频场景中的视觉感知与真实视频场景中的视觉感知是一致的。因此,本发明实施例的视频图像显示可以达到较佳的显示效果,大大提高了用户的真实沉浸感。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (8)

1.一种基于虚拟现实的图像显示方法,其特征在于,包括:
分别获取左眼图像的水平视场角和垂直视场角以及右眼图像的水平视场角和垂直视场角,其中,左眼图像和右眼图像分别为第一摄像机和第二摄像机针对同一物体各自拍摄的图像,且在拍摄所述左眼图像和所述右眼图像时,分别记录所述第一摄像机和所述第二摄像机针对同一物体各自拍摄图像时的水平视场角和垂直视场角;
根据两个图像的水平视场角和垂直视场角,分别计算两个图像在虚拟显示屏上的水平方向宽度和垂直方向宽度;
根据所述两个图像在虚拟显示屏上的水平方向宽度和垂直方向宽度,对所述两个图像在虚拟显示屏上进行显示;
所述两个图像为所述左眼图像和所述右眼图像;
所述根据两个图像的水平视场角和垂直视场角,分别计算两个图像在虚拟显示屏上的水平方向宽度和垂直方向宽度,包括:
根据图像的水平视场角,以及预设的虚拟显示屏距离对应的虚拟成像设备之间的距离,计算得到图像在虚拟显示屏上的水平方向宽度;
根据图像的垂直视场角,以及预设的虚拟显示屏距离对应的虚拟成像设备之间的距离,计算得到图像在虚拟显示屏上的垂直方向宽度。
2.根据权利要求1所述的方法,其特征在于,分别获取两个图像的水平视场角和垂直视场角之前,包括:
将拍摄图像时的水平视场角和垂直视场角保存到对应图像的元数据中,以便从图像的元数据中获取拍摄该图像时的水平视场角和垂直视场角。
3.根据权利要求1所述的方法,其特征在于:
根据计算公式B=2A*tgα,计算图像在虚拟显示屏上的水平方向宽度和垂直方向宽度,其中,A为预设的虚拟显示屏距离对应的虚拟成像设备之间的距离,当α为图像的水平视场角时,则B为图像在虚拟显示屏上的水平方向宽度,或当α为图像的垂直视场角时,则B为图像在虚拟显示屏上的垂直方向宽度。
4.根据权利要求1所述的方法,其特征在于,对应左右眼设置两个光学成像设备包括对应左右眼设置的两个透镜,第一透镜和第二透镜,且两个透镜对称安装在虚拟现实设备上,两个透镜的硬件参数相同,且两个透镜之间的瞳距为6.5cm。
5.一种基于虚拟现实的立体图像显示装置,其特征在于,包括:
记录模块,用于在拍摄左眼图像和右眼图像时,分别记录第一摄像机和第二摄像机针对同一物体各自拍摄图像时的水平视场角和垂直视场角;
获取模块,用于分别获取左眼图像的水平视场角和垂直视场角以及右眼图像的水平视场角和垂直视场角,其中,左眼图像和右眼图像分别为第一摄像机和第二摄像机针对同一物体各自拍摄的图像;
计算模块,用于根据两个图像的水平视场角和垂直视场角,分别计算两个图像在虚拟显示屏上的水平方向宽度和垂直方向宽度;
显示模块,用于根据所述两个图像在虚拟显示屏上的水平方向宽度和垂直方向宽度,对所述两个图像在虚拟显示屏上进行显示;
所述两个图像为所述左眼图像和所述右眼图像;
所述计算模块,具体用于:
根据图像的水平视场角,以及预设的虚拟显示屏距离对应的虚拟成像设备之间的距离,计算得到图像在虚拟显示屏上的水平方向宽度;
根据图像的垂直视场角,以及预设的虚拟显示屏距离对应的虚拟成像设备之间的距离,计算得到图像在虚拟显示屏上的垂直方向宽度。
6.根据权利要求5所述的装置,其特征在于,还包括:
保存模块,用于将拍摄图像时的水平视场角和垂直视场角保存到对应图像的元数据中,以便从图像的元数据中获取拍摄该图像时的水平视场角和垂直视场角。
7.根据权利要求6所述的装置,其特征在于,所述计算模块具体用于:
根据计算公式B=2A*tgα,计算图像在虚拟显示屏上的水平方向宽度和垂直方向宽度,其中,A为预设的虚拟显示屏距离对应的虚拟成像设备之间的距离,当α为图像的水平视场角时,则B为图像在虚拟显示屏上的水平方向宽度,或当α为图像的垂直视场角时,则B为图像在虚拟显示屏上的垂直方向宽度。
8.根据权利要求5所述的装置,其特征在于,对应左右眼设置两个光学成像设备包括对应左右眼设置的两个透镜,第一透镜和第二透镜,且两个透镜对称安装在虚拟现实设备上,两个透镜的硬件参数相同,且两个透镜之间的瞳距为6.5cm。
CN201710587489.0A 2017-07-18 2017-07-18 基于虚拟现实的图像显示方法和装置 Active CN107277485B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201710587489.0A CN107277485B (zh) 2017-07-18 2017-07-18 基于虚拟现实的图像显示方法和装置
PCT/CN2017/117556 WO2019015249A1 (zh) 2017-07-18 2017-12-20 基于虚拟现实的图像显示方法和装置、虚拟现实头盔设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710587489.0A CN107277485B (zh) 2017-07-18 2017-07-18 基于虚拟现实的图像显示方法和装置

Publications (2)

Publication Number Publication Date
CN107277485A CN107277485A (zh) 2017-10-20
CN107277485B true CN107277485B (zh) 2019-06-18

Family

ID=60079268

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710587489.0A Active CN107277485B (zh) 2017-07-18 2017-07-18 基于虚拟现实的图像显示方法和装置

Country Status (2)

Country Link
CN (1) CN107277485B (zh)
WO (1) WO2019015249A1 (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107277485B (zh) * 2017-07-18 2019-06-18 歌尔科技有限公司 基于虚拟现实的图像显示方法和装置
CN108124150B (zh) * 2017-12-26 2019-11-05 歌尔科技有限公司 虚拟现实头戴显示设备及通过其观察真实场景的方法
CN108665525B (zh) * 2018-05-15 2022-04-01 福建天晴数码有限公司 基于引擎的虚拟摄像机视场角的计算方法、存储介质
CN114342367A (zh) * 2019-09-13 2022-04-12 索尼集团公司 再现装置、再现方法和记录介质
CN112985770B (zh) * 2019-12-17 2024-04-16 宁波舜宇光电信息有限公司 模组检测设备
CN117632318A (zh) * 2022-08-11 2024-03-01 北京字跳网络技术有限公司 扩展现实空间中的虚拟显示界面的显示方法及装置
CN115774335B (zh) * 2022-11-11 2024-07-16 Oppo广东移动通信有限公司 虚拟图像显示设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102326395A (zh) * 2009-02-18 2012-01-18 皇家飞利浦电子股份有限公司 3d观看者元数据的传送
CN106228530A (zh) * 2016-06-12 2016-12-14 深圳超多维光电子有限公司 一种立体摄影方法、装置及立体摄影设备
CN107844190A (zh) * 2016-09-20 2018-03-27 腾讯科技(深圳)有限公司 基于虚拟现实vr设备的图像展示方法及装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7820967B2 (en) * 2007-09-11 2010-10-26 Electrophysics Corp. Infrared camera for locating a target using at least one shaped light source
CN101950550B (zh) * 2010-09-28 2013-05-29 冠捷显示科技(厦门)有限公司 基于观看者视角显示不同角度画面的显示装置
CN102521876B (zh) * 2011-11-29 2016-09-28 康佳集团股份有限公司 一种实现3d用户界面立体效果的方法及系统
CN102980517A (zh) * 2012-11-15 2013-03-20 天津市亚安科技股份有限公司 一种监控测量方法
CN105204618B (zh) * 2015-07-22 2018-03-13 深圳多新哆技术有限责任公司 虚拟空间中虚拟物件的投影显示方法及装置
US10078218B2 (en) * 2016-01-01 2018-09-18 Oculus Vr, Llc Non-overlapped stereo imaging for virtual reality headset tracking
CN106358034A (zh) * 2016-10-19 2017-01-25 深圳市麦极客图像技术有限公司 录制、观看vr视频的装置、设备及vr视频录放系统
CN107277485B (zh) * 2017-07-18 2019-06-18 歌尔科技有限公司 基于虚拟现实的图像显示方法和装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102326395A (zh) * 2009-02-18 2012-01-18 皇家飞利浦电子股份有限公司 3d观看者元数据的传送
CN106228530A (zh) * 2016-06-12 2016-12-14 深圳超多维光电子有限公司 一种立体摄影方法、装置及立体摄影设备
CN107844190A (zh) * 2016-09-20 2018-03-27 腾讯科技(深圳)有限公司 基于虚拟现实vr设备的图像展示方法及装置

Also Published As

Publication number Publication date
CN107277485A (zh) 2017-10-20
WO2019015249A1 (zh) 2019-01-24

Similar Documents

Publication Publication Date Title
CN107277485B (zh) 基于虚拟现实的图像显示方法和装置
US10855909B2 (en) Method and apparatus for obtaining binocular panoramic image, and storage medium
JP6522708B2 (ja) プレビュー画像表示方法及び装置、並びに端末
KR102448284B1 (ko) 헤드 마운트 디스플레이 추적 시스템
US10460521B2 (en) Transition between binocular and monocular views
TWI712918B (zh) 擴增實境的影像展示方法、裝置及設備
KR102214827B1 (ko) 증강 현실 제공 장치 및 방법
US9916517B2 (en) Image processing method and apparatus
US9554126B2 (en) Non-linear navigation of a three dimensional stereoscopic display
US20180192034A1 (en) Stereoscopic 3d camera for virtual reality experience
US20170126988A1 (en) Generating stereoscopic pairs of images from a single lens camera
JP2019092170A (ja) 3dプレノプティックビデオ画像を作成するためのシステムおよび方法
CN108292489A (zh) 信息处理装置和图像生成方法
CN105894567B (zh) 放缩三维场景中的用户控制的虚拟对象的像素深度值
TWI547901B (zh) 模擬立體圖像顯示方法及顯示設備
US20140240354A1 (en) Augmented reality apparatus and method
US20150304645A1 (en) Enhancing the Coupled Zone of a Stereoscopic Display
US20230334617A1 (en) Camera-based Transparent Display
US10885651B2 (en) Information processing method, wearable electronic device, and processing apparatus and system
CN107368192A (zh) Vr眼镜的实景观测方法及vr眼镜
TWI584050B (zh) 全景立體圖像的合成方法、裝置及其移動終端
US11212502B2 (en) Method of modifying an image on a computational device
JP2010226390A (ja) 撮像装置および撮像方法
CN113382222B (zh) 一种在用户移动过程中基于全息沙盘的展示方法
CN113485547A (zh) 一种应用于全息沙盘的交互方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20201015

Address after: 261031 north of Yuqing street, east of Dongming Road, high tech Zone, Weifang City, Shandong Province (Room 502, Geer electronic office building)

Patentee after: GoerTek Optical Technology Co.,Ltd.

Address before: 266104 Laoshan Qingdao District North House Street investment service center room, Room 308, Shandong

Patentee before: GOERTEK TECHNOLOGY Co.,Ltd.

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20221118

Address after: 266104 No. 500, Songling Road, Laoshan District, Qingdao, Shandong

Patentee after: GOERTEK TECHNOLOGY Co.,Ltd.

Address before: 261031 north of Yuqing street, east of Dongming Road, high tech Zone, Weifang City, Shandong Province (Room 502, Geer electronics office building)

Patentee before: GoerTek Optical Technology Co.,Ltd.

TR01 Transfer of patent right