CN109660783A - 虚拟现实视差校正 - Google Patents
虚拟现实视差校正 Download PDFInfo
- Publication number
- CN109660783A CN109660783A CN201810896974.0A CN201810896974A CN109660783A CN 109660783 A CN109660783 A CN 109660783A CN 201810896974 A CN201810896974 A CN 201810896974A CN 109660783 A CN109660783 A CN 109660783A
- Authority
- CN
- China
- Prior art keywords
- parallax
- module
- triangle gridding
- visual angle
- corrected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
- H04N13/117—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
- H04N13/279—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/08—Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Optics & Photonics (AREA)
- Computer Hardware Design (AREA)
- Human Computer Interaction (AREA)
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
描述了被配置为对从单个原点捕获的VR数字内容的视差进行校正的虚拟现实视差校正技术和系统。在一个示例中,采用视差校正模块来对在从与VR数字内容相对应的原点到相对于VR数字内容的输出的新视点的变化中引起的伪像进行校正。如以下部分中进一步描述的,视差校正模块可以采用各种技术来校正视差。这些技术的示例包括深度过滤、边界标识、拖尾检测、网格切割、置信度估计、模糊和误差扩散。
Description
技术领域
本公开涉及计算机技术领域,更具体地,涉及在数字媒体环境中用以校正视差以解决关于虚拟现实(VR)数字内容的视角变化的系统和方法。
背景技术
虚拟现实(VR)数字内容(诸如VR数字视频或VR数字图像)采用相机系统(例如,数字相机阵列)来捕获物理环境的图像场景。因此,当查看该内容时,相机系统在物理环境中的位置作为与VR数字内容相关的原点。例如,为了渲染VR数字内容,左眼和右眼全景数字图像由VR设备显示为立体图像以支持深度的出现。因此,通过与VR设备的交互(例如通过用户头部的旋转运动),用户可以在原点处相对于该显示器以不同的取向“环顾”。
然而,该技术引入了挑战,因为相机系统被局限于从原点捕获物理环境,并且因此该内容的显示被局限于传统VR设备的原点。虽然用户的旋转头部移动可以用于正确地查看图像场景的不同部分,但是例如,用户头部的重新定位(例如,平移)(例如,左右、上下)不被支持或者导致无法通过传统VR设备正确地更新VR数字内容的输出。这是因为传统的VR设备没有正确地更新依赖于深度的视差,其中图像场景中原点(例如,相机)附近的对象比图像场景中更远离原点的对象表现出更大的移动量。视差效应是一种强烈的深度线索,人类可以使用这个强烈的深度线索来正确地解释真实场景。因此,传统的VR设备无法正确地再现视差深度线索会损害图像场景的真实感,并且甚至可能导致用户不适,因为用户头部在不同位置之间的移动并没有跟随有用户正在查看的内容。
用于解决该挑战的传统的技术和系统涉及显著地更加费力地捕获图像场景和/或显著地更昂贵的设备。在一个传统示例中,相机系统用于从不同位置捕获静态场景的多个图像。因此,该传统技术限于静态场景,并且因此不适用于其他类型的VR数字内容,诸如VR数字视频。在另一传统示例中,使用光场相机来在多个不同位置捕获图像场景的入射光。然而,与用于从单个原点捕获图像场景的相机系统相比,光场相机的成本是要比其贵若干数量级并且具有有限的可用性。
发明内容
描述了虚拟显示视差校正技术和系统,其被配置为对从单个原点捕获的VR数字内容的视差(例如,对于视频或静态数字图像的每个帧)进行校正以支持相对于该单个原点的位置变化(例如,平移)。以这种方式,这些技术适用于可以使用普通设备捕获的各种VR数字内容。此外,这些技术改善了用户与VR数字内容的交互以使其看起来很自然,并且模仿与由VR数字内容捕获的图像场景的真实世界交互,并且可以实时地这样执行,这在使用传统技术的情况下是不可能的。
在一个示例中,采用视差校正模块来对在相对于VR数字内容的输出的视点变化(例如,用户的头部左右、上下等的平移重新定位)中引起的伪像进行校正。视差校正模块可以采用各种技术来校正这些伪像并且解决视差。如以下部分中进一步描述的,这些技术的示例包括深度过滤、边界标识、拖尾检测、网格切割、置信度估计、模糊和误差扩散。
本“发明内容”以简化的形式介绍了一些概念,这些概念将在下面的“具体实施方式”中进一步描述。因此,本“发明内容”不旨在标识所要求保护的主题的必要特征,也不旨在用于帮助确定所要求保护的主题的范围。
附图说明
参考附图描述详细描述。图中表示的实体可以指示一个或多个实体,并且因此在讨论中可以可互换地对单个或多个形式的实体的引用。
图1是可操作以于采用本文中描述的虚拟现实视差校正技术的示例实现中的环境的图示;
图2描述了从用于查看VR数字内容的原点到不同视点的位置变化(例如,平移运动)的示例;
图3描绘了更详细地示出图1的内容管理器模块和视差校正模块的操作以及内容渲染模块的示例实现中的系统;
图4描绘了示出相对于VR数字内容的输出的取向变化的示例实现;
图5描绘了示出相对于VR数字内容的输出的位置变化的示例实现;
图6描绘了更详细地示出视差校正模块的深度过滤模块的操作的示例实现;
图7描绘了更详细地示出视差校正模块的边界标识模块的操作的示例实现;
图8描绘了更详细地示出视差校正模块的拖尾检测模块的操作的示例实现;
图9和10描绘了更详细地示出视差校正模块的置信度估计模块的操作的示例实现;
图11描绘了更详细地示出视差校正模块的网格切割模块的操作的示例实现;
图12描绘了更详细地示出图3的内容渲染模块的模糊模块的操作的示例实现;
图13描绘了更详细地示出内容渲染模块的误差扩散模块的操作的示例实现;
图14是描绘其中对虚拟现实数字内容进行视差校正以支持视角变化的示例实现中的过程的流程图;以及
图15示出了包括示例设备的各种组件的示例系统,这个示例设备可以被实施为如参考图1至14所描述的和/或利用以实施本文中描述的技术的实施例的任何类型的计算设备。
具体实施方式
概述
描述了虚拟现实视差校正技术和系统,其被配置为对具有单个原点的VR数字内容的视差(例如,对于视频或静态数字图像的每个帧)进行校正以支持相对于该单个原点的位置变化(例如,平移)。这可以包括从单个原点(例如,相机系统)捕获计算机图形的离线渲染等。这样,这些技术适用于可以使用常见设备从单个原点捕获的各种VR数字内容,并且可以实时地这样执行。此外,这些技术改善了用户与VR数字内容的交互以使其看起来很自然,并且模仿与由VR数字内容捕获的图像场景的真实世界交互,这在使用传统技术的情况下是不可能的。
在一个示例中,VR数字内容由VR设备接收,例如,用于查看VR数字视频的VR护目镜。VR数字内容与深度图相关联,深度图可以由相机系统与VR数字内容一起捕获,根据被包括作为VR数字内容的一部分的立体数字图像(例如,基于视差)来计算,等等。这个示例中的VR数字内容是从单个原点捕获的,例如,VR数字视频的各个帧的单个原点。为了渲染VR数字内容,VR设备生成原始三角网格,其包括像素和这些像素的三维位置。
这个示例中的VR设备然后使用一个或多个传感器来检测用户的位置变化,例如,使用加速度计、雷达设备等来检测在左右、上下等平移时的位置变化。因此,用户的这种位置变化不同于用户取向的变化(例如,用于“环顾”VR数字内容的显示),尽管在这个示例中,也可以由VR设备来检测和解决取向的变化。
作为响应,VR设备的VR内容管理器模块生成视角三角网格以解决相对于如上所述用于在原点处渲染VR数字内容的原始三角网格的这种位置变化。例如,视角三角网格定义了基于这种位置变化而查看到的原始三角网格的三维拓扑。然而,这种视角三角网格可能通过视角三角网格中的视差的不正确模拟而引入由于这种变化的伪像。
因此,采用视差校正模块来校正这些伪像,使得能够生成经校正视差三角网格以将VR数字内容渲染为在用户查看时看起来很自然。视差校正模块可以采用各种技术来校正视差,其示例在以下部分中描述,并且包括深度过滤(图6)、边界标识(图7)、拖尾检测(图8)、置信度估计(图9和10)、网格切割(图11)、模糊(图12)和误差扩散(图13)。这些技术可以由VR设备的视差校正模块实时地单独使用或组合使用,并且因此在计算上是高效的并且改善了VR设备的操作。此外,这些技术适用于在单个原点捕获的VR数字内容,并且因此可以被各种不同的现有VR数字内容使用,这在使用传统VR设备的情况下是不可能的。
在以下讨论中,首先描述可以采用本文中描述的技术的示例环境。然后描述采用该环境的视差校正技术的示例。还描述了可以在示例环境以及其他环境中执行的示例过程。因此,示例过程的执行不限于示例环境,并且示例环境不限于示例过程的执行。
示例环境
图1是可操作以采用本文中描述的虚拟现实视差校正技术的示例实现中的数字媒体环境100的图示。图示的环境100包括VR设备102和用户104,用户104被示出为通过VR设备102与VR数字内容106的渲染输出108(例如,客厅)交互。如从相机系统112接收的VR数字内容106还被示出为存储在存储设备110中,例如,如参考图15进一步描述的计算机可读存储介质。
VR设备102可以以各种方式配置,诸如如图所示由用户104的头部佩戴的眼镜或护目镜、移动电话或平板电脑、可穿戴设备、独立设备(例如,标志)等。这个示例中的VR设备102包括显示设备114、传感器116、VR内容管理器模块118和视差校正模块120。
相机系统112被配置为捕获数字图像122以作为VR数字内容106的一部分。这可以被执行作为单个立体红色、绿色、蓝色(RGB)视频并且与深度图124相关联,深度图124可以或者可以不被单独捕获以作为VR数字内容106的一部分。例如,VR设备102可以包括传感器116(诸如结构化网格阵列、飞行时间相机等)以检测被包括在数字图像122中的像素126的3D坐标128。在另一实例中,像素126的深度图124和相关联的3D坐标128是从数字图像122本身确定,例如,基于立体数字图像122中的相应像素126所呈现的视差。还预期了各种其他示例,包括使用作为机器学习的一部分的神经网络,这些神经网络用于推断数字图像122中的各个像素126的深度并且因此推断其3D坐标。
VR数字内容106还被配置为由VR设备102渲染。这个渲染可以通过使用VR设备102的各种输出设备来完成。其示例被示出为显示设备114,显示设备114被配置为使用立体数字图像122来支持VR数字内容106到用户104(例如,到用户104的左眼和右眼)的视觉输出。可以作为VR设备102的一部分被包括的输出设备的其他示例包括音频输出(例如,经由扬声器)、触觉输出(例如,经由触觉设备)等。以这种方式,VR数字内容106的输出可以被配置为支持用户“感觉到好像他们就在那里”的沉浸式体验。
在这个示例中,VR数字内容106被配置为使得能够从单个视点(即,位置)捕获每个数字图像122(例如,单个图像或一系列帧的一部分),这个单个视点在下面被称为数字图像122的原点。例如,数字图像122可以被配置为全景图像,该全景图像通过用户104的头部的旋转运动(例如,以在所示示例中环顾客厅的不同部分)以支持图像的不同部分的视图。
如前所述,VR数字内容106的这种限制给传统VR设备带来了支持位置变化(即从原点的左右、上下等平移运动)这一挑战。例如,VR设备102可以使用传感器116相对于VR数字内容的渲染输出108从一个位置到另一位置检测用户104的位置变化,例如,使用加速度计、雷达设备等。因此,用户104的位置的这种变化不同于其中用户104保持在原点时的用户104相对于渲染输出108的取向变化。
作为响应,VR内容管理器模块118模拟视差以解决这种位置变化。然而,这可能导致用户104容易注意到的伪像,例如沿着墙壁的锯齿状边缘、在现实生活中未连接的连接对象等。因此,VR设备102采用视差校正模块120,使得VR数字内容106在被渲染时解决了这种位置变化并且看起来很真实和自然。
例如,图2描绘了从用于查看VR数字内容106的原点202到不同视点204的位置变化(例如,平移运动)的示例200。因此,如这个示例中所示,通过从一个位置到另一位置(例如,与原点不同)的平移移动而进行的用户104的视角关于VR数字内容106的输出而改变。这不同于以下取向变化,在该取向变化中VR数字内容106的不同部分通过旋转但不是平移运动来被查看(例如,在房间中“环顾”)。因此,这些技术适用于在单个原始捕获的VR数字内容106,并且因此可以被广泛的现有VR数字内容106使用,这在使用需要专用设备的传统VR设备的情况下是不可能的。这些专用设备还需要复杂的存储机制,这些机制消耗更多的计算和存储资源,与作为本文中描述的技术可以采用的等角矩形投影(即,球形全景)的紧凑3D视频表示相比更不易理解。此外,以下技术可以由VR设备102实时地执行,并且因此在启动输出之前不需要预处理VR数字内容106。
通常,可以在本部分中描述的示例过程的上下文中采用关于以上和以下示例描述的功能、特征和概念。此外,关于本文档中的不同附图和示例描述的功能、特征和概念可以彼此互换,并且不限于在特定附图或过程的上下文中的实现。此外,与本文中的不同的代表性过程和相应附图相关联的框可以一起应用和/或以不同方式进行组合。因此,关于本文中的不同示例环境、设备、组件、附图和过程描述的各个功能、特征和概念可以以任何合适的组合来使用,并且不限于本说明书中列举的示例所表示的特定组合。
图3描绘了更详细地示出VR内容管理器模块118和视差校正模块120的操作的示例实现中的系统300。首先,VR数字内容106由VR内容管理器模块118接收。例如,VR数字内容106可以由图1的相机系统112捕获。
VR数字内容106包括数字图像122和深度图124。深度图124可以以各种方式被生成。在第一示例中,深度图124使用深度传感器(诸如结构化光栅设备、飞行时间相机、雷达技术(例如,通过Wi-Fi信号的广播)等)来被生成。在另一示例中,深度图124基于数字图像122本身来被生成,以便使用标准计算机视觉技术来匹配图像之间的共同点以计算它们的视差,并且因此计算它们的深度。无论深度图是由硬件捕获的还是使用计算机视觉技术计算的,深度图124可以将像素的视差编码为强度。
在这个示例中,在原点处开始VR设备102对VR数字内容106的渲染,使得VR数字内容106按由相应的相机系统最初捕获来被渲染。为此,VR数字内容106由三角网格生成模块302处理以生成原始三角网格304。原始三角网格304被生成以将相应的3D坐标处的像素126彼此连接,例如,以处理RGBD数字视频,其中每个像素126具有“X”和“Y”坐标以及深度“Z”值、以及顶点RGB颜色值。还预期其他技术来描述三维坐标和颜色值。然后,由内容渲染模块306呈现原始三角网格304以生成渲染的VR数字内容308,从而用于由显示设备114输出作为用于由用户104查看的地形,例如,作为支持深度的形貌的立体数字图像122。
VR内容管理器模块118还包括视角检测模块310,视角检测模块310包括位置确定模块312以及取向确定模块314。在这种情况下,位置确定模块312被配置为检测何时经历由于相对于VR数字内容106的输出的远离原点的移动而导致的用户104的视角变化。例如,视角检测模块310可以从传感器116接收数据(例如,经由API)或信号,并且由此确定位置的变化(例如,作为平移运动),这与取向的变化形成对比。
如图4的示例实现400中所示,例如,传感器116被配置为生成取向数据402,取向确定模块314可使用取向数据402来跟踪用户104的头部的可能取向(例如,在三维空间中)。在这个示出的示例中,执行该操作以支持三个自由度(3DoF)作为围绕横向轴线404(即,俯仰)、垂直轴线406(即,偏航)和纵向轴线408(即,滚动)的旋转。因此,取向数据402可用于描述用户104相对于VR数字内容106的捕获和输出在原点处的旋转头部移动。
取向数据402可以由各种类型的传感器116单独地或组合地生成。例如,传感器116可以被配置为陀螺仪、加速度计、磁力计、惯性传感器等,以确定与VR设备102相关联的移动。这可以包括VR设备102本身作为整体的移动(例如,头部移动)和/或通信地耦合到VR设备102的控制器(例如通过使用一个或多个手持控制器)的移动。在耳机的另一示例中,发光二极管(LED)围绕耳机的外围设置,以通过使用检测从这些二极管发射的光的外部相机来支持360度的头部跟踪。
其他示例包括使用传感器116作为相机(例如,红外相机)来检测VR设备102(例如,图1的所示表格的角落)设置在其中的物理环境中的界标,并且通过捕获连续数字图像122来检测与这些界标相关的运动。还预期了各种其他示例,包括眼睛跟踪,其中相机(例如,作为红外传感器)指向用户104的眼睛以相对于显示设备114的部分来确定“用户正在看哪里”。
无论取向数据402的格式如何,取向确定模块314被配置为将取向数据402抽象为描述以下取向的形式,该取向要由VR内容渲染模块306使用以渲染VR数字内容106的各个部分。例如,取向数据402可以指示取向变化,其可用于在原点处在VR数字内容106的帧的各个部分之间导航。以这种方式,取向数据402可用于控制VR数字内容106的哪些部分(例如,数字图像122的部分)由显示设备114相对于VR数字内容106在原点处渲染和不渲染。
在图5的示例实现500中,传感器116被配置为输出位置数据502,其由位置确定模块312可使用以确定位置的变化(例如,通过平移运动)使得能够相对于VR数字内容106的渲染输出108来实现不同视角。例如,在所示的示例中,用户104从相对于如何捕获VR数字内容106的原点504通过平移运动移动到不是原点506的不同位置506。这种位置变化可以由传感器116以各种不同的方式来检测,诸如通过使用陀螺仪、加速度计、磁力计、惯性传感器、手持式控制器、使用相机的界标检测等来确定与VR设备102相关联的运动。因此,这种关于VR数字内容106的位置变化和相应的视角变化不同于用户保持在原点(VR数字内容106在该点处被捕获)处的图4的取向变化。
再次返回图3,视角数据316由视角检测模块310生成,视角数据316描述由远离原点(例如,查看者相对于VR数字内容106的三维位置)的移动引起的视角变化。取向数据402也可以被生成以描述取向变化。然后,视角数据316作为输入被视角改变模块318接收,并且用于使用原始三角网格304生成视角三角网格320。
例如,视角改变模块318可以生成视角三角网格320,以解决查看者的视角如何相对于原始三角网格304而改变。这是基于原点到由视角数据316描述的位置的三维坐标变化以及该位置如何对应于像素126的3D坐标128来被执行的。
然而,如前所述,这可能导致在被渲染时对于用户可见的伪像作为视角三角网格320的一部分的引入。这些伪像已经导致传统技术和系统放弃这样的处理,而是依赖于昂贵的相机或从不同视角繁琐地捕获图像(这不支持视频)。因此,在这个示例中,视差校正模块120被配置为生成已校正视差三角网格322,以移除或减少视角三角网格320中伪像的可见性。
视差校正模块120可以采用各种功能来校正视差。这个功能的示例由相应的模块表示,并且在以下描述中更详细地讨论,包括深度过滤模块324(图6)、边界标识模块326(图7)、拖尾检测模块328(图8)、置信度估计模块330(图9和10)和网格切割模块332(图11)。这还包括由内容渲染模块306作为渲染VR数字内容106的一部分而采用的校正技术,其示例包括模糊模块334(图12)和误差扩散模块336(图13)。由相应模块表示的这个功能可以单独地或组合地实施,以校正视角三角网格320中的视差,从而减少在查看网格的形貌(topography)时由位置变化引起的伪像的可见性。
图6描绘了更详细地示出视差校正模块120的深度过滤模块324的操作的示例实现600。实际上,视角三角网格320的深度误差可以很小并且可以涉及三角形的边缘的彼此渗色(bleeding)。因此,在这种情况下,深度过滤模块324采用双边过滤器602和边缘感知平滑模块604来生成深度过滤数据606,从而对区域进行平滑并且强调在视角三角网格320中涉及深度的不连续性。
例如,双边过滤器602可以被深度过滤模块324用作用于视角三角网格320的形貌的非线性和降噪平滑过滤器。为此,网格的每个像素的强度被替换为附近像素的强度值的加权平均值。例如,权重可以基于高斯分布,并且还作为六维函数的一部分而解决了辐射度差异,诸如范围差异、颜色强度、深度距离等。这可以用于对相同对象或类似深度上的像素608进行平滑,但是不用于对不同对象或显著不同深度的像素610、612进行平滑。以这种方式,深度过滤模块324可以减少作为视角三角网格320的生成的一部分而引起的伪像。
图7描绘了更详细地示出视差校正模块120的边界标识模块326的操作的示例实现700。在这个示例中,边界标识模块326被配置为通过使用实现神经网络706的机器学习模块704来生成边界数据702。神经网络706包括模型708,其使用关于训练数字图像的机器学习来标识数字图像中的深度不连续性(例如,由视角三角网格320形成的)而被训练。可以采用各种神经网络706,诸如深度卷积神经网络、卷积神经网络、监督神经网络等。
然后,视差校正模块120可以以各种方式使用标识这些边界的边界数据702。在一个示例中,边界数据702用于分割深度图并且通过添加更强的边缘约束来改善如上所述的平滑结果,以实现边缘的更好锐化并且减少渗色。在另一示例中,边界数据702由网格切割模块332用来切割网格,这将结合图11更详细地描述。还预期了其他示例,包括使用经由用户界面可用的工具来手动地调节边界数据702。
图8描绘了更详细地示出视差校正模块120的拖尾检测模块328的操作的示例实现800。作为生成视角三角网格320的一部分,网格拓扑被创建,其中每个像素连接到每个相邻像素,即使这些像素位于深度不连续的相对侧(例如,在背景前面的人的轮廓),它产生了错误的“涂抹”三角形。因此,拖尾检测模块328被配置为标识视角三角网格320中的模糊三角形802,其然后可以例如通过过滤、如关于图11描述地切割网格等来被校正。
拖尾检测模块328可以以各种方式标识模糊三角形802。在一个示例中,法向矢量分析模块804用于将模糊三角形标识为具有与视图方向接近垂直(例如,在阈值量内)的表面法线。在另一示例中,采用三角形边缘长度分析模块806来将模糊三角形标识为具有至少一个超过阈值长度的边缘。在另一示例中,三角形面积分析模块808用于将模糊三角形802标识为具有超过阈值量的表面面积。因此,模糊三角形802在视角三角网格320中限定深度不连续810,其然后可以通过过滤和/或网格切割来被校正。
图9和10描绘了更详细地示出视差校正模块120的置信度估计模块330的操作的示例实现900、1000。伴随作为VR数字内容106的一部分的数字图像122的深度图124被呈现为每个像素126的单个深度值(例如,3D坐标128),而没有任何附加信息。然而,这些深度值是估计值,一些估计值比其他估计值具有更高的准确度。因此,在这个示例中,置信度估计模块330被配置为生成置信度值902,其指示像素深度估计的可能准确度,即,估计是正确的置信度的量。
在这个示例中,置信度值902由视差确定模块904基于立体数字图像906中的像素对之间的匹配有多么不同来被生成。即,对于具有相关联的深度“d”的用户104的左眼的立体图像的像素908“p”,找到用户104的右眼的立体图像的对应像素910。在“p”周围检查邻域“N”以计算在像素“q”周围具有对应邻域“M”的对应平方差和(SSD)。
如图10所示,邻域1002、1004通过改变左或右像素数目来被移位,例如“M1”、“M-1”、“M2”、“M-2”等。视差1006与错误1008的这些置信度值902的示例曲线被示出。良好的匹配并且因此高的置信度在“M”1010处具有低的SSD,并且在周围像素1012处具有高的SSD,例如,“M1”、“M-1”、“M2”、“M-2”等。另一方面,低匹配在每个位置处具有更接近的SSD,并且因此置信度较低。“M”、“M-1”、“M2”、“M-2”等处的值之间的差异被量化为作为置信度值902的像素“p”的深度“d”的置信度,而不管最初如何计算深度。然后,如下面进一步描述的可以使用这些置信度值902来支持各种功能,包括模糊和网格切割。
图11描绘了更详细地示出视差校正模块120的网格切割模块336的操作的示例实现1100。这个示例实现1100使用第一阶段1102、第二阶段1104和第三阶段1106来被示出。由边界标识模块326标识作为边界数据702的一部分或在这个示例中标识为深度不连续810的边界边缘被切割。这是通过将出现在“跨越”边界边缘和深度不连续的单个网格三角形替换为两个网格三角形来完成,一个网格三角形用于前景并且一个网格三角形用于背景,其中顶点位于相同的“X/Y”位置和不同的“Z”深度处。这可以以各种方式来被执行,诸如通过由图形处理单元实现的像素着色器以支持实时输出。这用于减少了由跨越边界边缘出现的模糊三角形引起的视觉伪像。
为此,网格切割模块332首先标识像素1108、1110出现在深度不连续的不同侧(例如,涉及不同的对象)并且通过跨越该不连续的网格三角形的边缘1112来连接。因此,当用户从不是原点的新视点1114查看时,如第一阶段1102所示,这个边缘1112表现为视觉伪像。
在第二阶段1104,网格切割模块332切割网格的边缘1112。然后,添加具有与像素1110相同的X/Y坐标但是具有与像素1108相匹配的深度的像素1116,并且像素1116经由边缘1118被连接。同样地,添加具有与像素1108相同的X/Y坐标但是具有与像素1110相匹配的深度的像素1120,并且像素1120经由边缘1122被连接。以这种方式,通过切割网格并且从而当从视点1114查看时移除视觉伪像,由引起视觉伪像的单个三角形形成两个三角形。
图12描绘了更详细地示出内容渲染模块306的模糊模块334的操作的示例实现1200。在生成视角三角网格320以支持与VR数字内容106的输出相关的新视点时所引起的视觉伪像在显著或可感知时对用户104的体验具有更大的影响。例如,某些类型的视觉伪像比其他类型的视觉伪像更显著,例如,高的对比度边缘和时间抖动。另一方面,模糊性是不太突出的视觉伪像,即,对于用户104而言不太明显。
因此,在这个示例中,模糊模块334用于标识可能包含伪像的区域1202和不包含伪像的区域1204。这可以以各种方式来执行,诸如基于模糊三角形802或如前所述计算的置信度值902。例如,模糊模块334可以将过滤器应用于包含伪像的区域1202,但是不应用于不包含伪像的区域1204。这可以通过使用每像素高斯模糊来完成,其中半径是像素的置信度值902的倒数的函数。以这种方式,模糊模块334减少了伪像的可见性,并且可以实时地这样做。
图13描绘了更详细地示出内容渲染模块306的误差扩散模块336的操作的示例实现1300。在先前的示例中,置信度值902被生成以估计匹配的质量。在这个示例中,误差扩散模块336用于生成像素深度分布1302以估计可接受的匹配质量的范围,其中对于每个视差邻域,SSD低于阈值。对于良好匹配,这个范围是单一差异。然而,在缺乏纹理的区域(例如,对于壁1304),这个范围可能很大。在这种情况下,深度是模糊的,并且因此通过使用像素深度分布1302来被表示为那些像素的值范围。
因此,如果置信度值高,则视角三角网格320中的像素由内容渲染模块306在精确深度处渲染,或者基于其可以占据的如由像素深度分布1302指定的深度范围沿着线模糊。这产生了自然拖尾,自然拖尾示出了立体声结果中的正确模糊度,并且因此用于校正作为渲染的VR数字内容308的一部分的视差。
示例过程
以下讨论描述了可以利用先前描述的系统和设备来实现的技术。该过程的各方面可以用硬件、固件、软件或其组合来实现。该过程被示出为一组框,这些框指定由一个或多个设备执行的操作并且不必限于被示出用于由各个框执行操作的顺序。在以下讨论的部分中,将参考图1至11。
图14描绘了其中对虚拟现实数字内容进行视差校正以支持视角变化的示例实现中的过程1400。由三角网格生成模块302基于像素126和相对于VR数字内容106的原始视角的相关联三维坐标128来生成原始三角网格304(框1402)。
生成描述相对于VR数字内容的从原始视角到已改变视角的变化的视角数据316(框1404)。例如,视角检测模块310可以经由应用程序编程接口从传感器116获取数据,传感器116可用于检测远离原点的位置变化,并且因此检测相对于VR数字内容106的视角变化。
基于原始三角网格304和视角数据316来生成视角三角网格320(框1406)以解决这个位置和视角变化。然后由视差校正模块120生成对视角三角网格中的至少一个伪像进行校正的已校正视差三角网格322(框1408)。这个功能的示例由相应的模块表示,包括深度过滤模块324(图6)、边界标识模块326(图7)、拖尾检测模块328(图8)、置信度估计模块330(图9和10)和网格切割模块332(图11)。由内容渲染模块306基于已校正视差三角网格322来渲染VR数字内容308(框1410)用于由显示设备114显示,例如,作为用于由用户104的各个眼睛查看的立体数字图像。这可以包括采用模糊模块334(图12)和误差扩散模块336(图13)的渲染。
示例系统和设备
图15示出了包括示例计算设备1502的总体上在1500处的示例系统,示例计算设备1502表示可以实现本文中描述的各种技术的一个或多个计算系统和/或设备。这通过包括视差校正模块120来被说明。计算设备1502例如可以是服务提供商的服务器、与客户端(例如,客户端设备)相关联的设备、片上系统和/或任何其他合适的计算设备或计算系统。
如图所示的示例计算设备1502包括处理系统1504、一个或多个计算机可读介质1506、以及彼此通信地耦合的一个或多个I/O接口1508。虽然未被示出,但是计算设备1502还可以包括将各种组件彼此耦合的系统总线或者其他数据和命令传输系统。系统总线可以包括不同总线结构中的任何一个或组合,诸如存储器总线或存储器控制器、外围总线、通用串行总线、和/或利用各种总线架构中的任何总线架构的处理器或本地总线。还预期各种其他示例,诸如控制和数据线。
处理系统1504表示使用硬件来执行一个或多个操作的功能。因此,处理系统1504被示出为包括可以被配置为处理器、功能块等的硬件元件1510。这可以包括以硬件作为专用集成电路的实现或者使用一个或多个半导体而形成的其他逻辑器件。硬件元件1510不受形成它们的材料或者其中采用的处理机构的限制。例如,处理器可以包括半导体和/或晶体管(例如,电子集成电路(IC))。在这样的上下文中,处理器可执行指令可以是电子可执行指令。
计算机可读存储介质1506被示出为包括存储器/存储装置1512。存储器/存储装置1512表示与一个或多个计算机可读介质相关联的存储器/存储容量。存储器/存储组件1512可以包括易失性介质(诸如随机存取存储器(RAM))和/或非易失性介质(诸如只读存储器(ROM)、闪存、光盘、磁盘等)。存储器/存储组件1512可以包括固定介质(例如,RAM、ROM、固定硬盘驱动器等)以及可移除介质(例如,闪存、可移除硬盘驱动器、光盘等)。如下面进一步描述的,计算机可读介质1506可以以各种其他方式来配置。
输入/输出接口1508表示允许用户向计算设备1502输入命令和信息并且还允许使用各种输入/输出设备向用户和/或其他组件或设备呈现信息的功能。输入设备的示例包括键盘、光标控制设备(例如,鼠标)、麦克风、扫描仪、触摸功能(例如,被配置为检测物理触摸的电容或其他传感器)、相机(例如,其可以采用可见或不可见波长(诸如红外频率)以将运动标识为不涉及触摸的手势)等。输出设备的示例包括显示设备(例如,显示器或投影仪)、扬声器、打印机、网卡、触觉响应设备等。因此,计算设备1502可以以下面进一步描述的各种方式被配置为支持用户交互。
各种技术在本文中可以在软件、硬件元件或程序模块的一般上下文中描述。通常,这样的模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、元素、组件、数据结构等。本文中使用的术语“模块”、“功能”和“组件”通常表示软件、固件、硬件或其组合。本文中描述的技术的特征是与平台无关的,这表示这些技术可以在具有各种处理器的各种商业计算平台上实现。
所描述的模块和技术的实现可以存储在某种形式的计算机可读介质上或通过其来传输。计算机可读介质可以包括可以由计算设备1502访问的各种介质。作为示例而非限制,计算机可读介质可以包括“计算机可读存储介质”和“计算机可读信号介质”。
“计算机可读存储介质”可以指代与单纯的信号传输、载波或信号本身相比能够实现信息的持久和/或非暂态存储的介质和/或设备。因此,计算机可读存储介质指代非信号承载介质。计算机可读存储介质包括诸如以适于存储诸如计算机可读指令、数据结构、程序模块、逻辑元件/电路或其他数据等信息的方法或技术实现的易失性和非易失性可移除和不可移除介质和/或存储设备等硬件。计算机可读存储介质的示例可以包括但不限于RAM、ROM、EEPROM、闪存或其他存储器技术、CD-ROM、数字通用盘(DVD)或其他光学存储器、硬盘、磁带盒、磁带、磁盘存储或其他磁存储设备、或者适合于存储期望的信息并且可以由计算机访问的其他存储设备、有形介质或制品。
“计算机可读信号介质”可以指代被配置为诸如经由网络向计算设备1502的硬件传输指令的信号承载介质。信号介质通常可以实施计算机可读指令、数据结构、程序模块或调制数据信号(诸如载波、数据信号或其他传输机制)中的其他数据。信号介质还包括任何信息传递介质。术语“调制数据信号”表示以能够在信号中对信息进行编码的方式设置或改变其一个或多个特征的信号。作为示例而非限制,通信介质包括有线介质(诸如有线网络或直接有线连接等)和无线介质(诸如声学、RF、红外和其他无线介质等)。
如前所述,硬件元件1510和计算机可读介质1506表示以硬件形式实现的模块、可编程设备逻辑和/或固定设备逻辑,其可以在一些实施例中用于实现本文中描述的技术的至少一些方面,诸如执行一个或多个指令。硬件可以包括集成电路或片上系统、专用集成电路(ASIC)、现场可编程门阵列(FPGA)、复杂可编程逻辑器件(CPLD)以及硅或其他硬件的其他实现的组件。在这个上下文中,硬件可以作为处理设备来操作,该处理设备执行由指令定义的程序任务和/或由硬件实施的逻辑以及用于存储用于执行的指令的硬件,例如,先前描述的计算机可读存储介质。
还可以采用前述的组合来实现本文中描述的各种技术。因此,软件、硬件或可执行模块可以实现为在某种形式的计算机可读存储介质上和/或由一个或多个硬件元件1510实施的一个或多个指令和/或逻辑。计算设备1502可以被配置为实现与软件和/或硬件模块相对应的特定指令和/或功能。因此,可以由计算设备1502作为软件来执行的模块的实现可以至少部分以硬件来实现,例如,通过使用处理系统1504的计算机可读存储介质和/或硬件元件1510。指令/或功能可以由一个或多个制品(例如,一个或多个计算设备1502和/或处理系统1504)可执行/操作以实现本文中描述的技术、模块和示例。
本文中描述的技术可以由计算设备1502的各种配置支持,并且不限于本文中描述的技术的特定示例。这个功能还可以全部或部分地通过使用分布式系统来实现,诸如如下所述通过经由平台1516的“云”1514。
云1514包括和/或表示用于资源1518的平台1516。平台1516抽象云1514的硬件(例如,服务器)和软件资源的基础功能。资源1518可以包括当在远离计算设备1502的服务器上执行计算机处理时可以使用的应用和/或数据。资源1518还可以包括通过因特网和/或通过订户网络(诸如蜂窝或Wi-Fi网络)提供的服务。
平台1516可以抽象资源和功能以将计算设备1502与其他计算设备连接。平台1516还可以用于抽象资源的缩放以提供相应的缩放级别,从而满足经由平台1516实现的对资源1518的需求。因此,在互连的设备实施例中,本文中描述的功能的实现可以分布在整个系统1500上。例如,功能可以部分地在计算设备1502上以及经由抽象云1514的功能的平台1516来实现。
结论
尽管已经用特定于结构特征和/或方法动作的语言描述了本发明,但是应当理解,所附权利要求中限定的本发明不必限于所描述的具体特征或动作。而是,具体特征和动作被公开作为实现所要求保护的发明的示例形式。
Claims (20)
1.一种在数字媒体环境中用以校正视差以解决关于虚拟现实(VR)数字内容的视角变化的系统,包括:
三角网格生成模块,所述三角网格生成模块至少部分地在VR系统的硬件中被实施,以基于像素和相对于所述VR数字内容的原始视角的相关联三维坐标来生成原始三角网格;
视角检测模块,所述视角检测模块至少部分地在所述VR系统的硬件中被实施以生成视角数据,所述视角数据描述相对于所述VR数字内容从原始视角到已改变视角的变化;
视角改变模块,所述视角改变模块至少部分地在所述VR系统的硬件中被实施,以基于所述原始三角网格和所述视角数据来生成视角三角网格;
视差校正模块,所述视差校正模块至少部分地在所述VR系统的硬件中被实施,以生成已校正视差三角网格,所述已校正视差三角网格对所述视角三角网格中的至少一个伪像进行校正;以及
内容渲染模块,所述内容渲染模块至少部分地在所述VR系统的硬件中被实施,以基于所述已校正视差三角网格来渲染所述VR数字内容。
2.根据权利要求1所述的系统,其中所述视差校正模块还包括深度过滤模块,所述深度过滤模块用以至少部分基于深度过滤来生成所述已校正视差三角网格。
3.根据权利要求1所述的系统,其中所述视差校正模块还包括边界标识模块,所述边界标识模块用以基于作为通过使用神经网络的机器学习的一部分的深度边界的标识来生成所述已校正视差三角网格。
4.根据权利要求1所述的系统,其中所述视差校正模块还包括拖尾检测模块,所述拖尾检测模块用以基于对作为所述视角三角网格的一部分而被包括的三角形的检查来生成所述已校正视差三角网格。
5.根据权利要求4所述的系统,其中由所述拖尾检测模块的所述检查基于近似于相应的所述三角形的视图方向的表面法线、相应的所述三角形的边缘长度、或者相应的所述三角形的面积。
6.根据权利要求1所述的系统,其中所述视差校正模块还包括置信度估计模块,所述置信度估计模块用以生成与所述视角三角网格的像素的深度相关联的置信度值。
7.根据权利要求6所述的系统,其中所述置信度值至少部分基于作为所述VR数字内容的一部分的相应立体图像中的所述像素的差异。
8.根据权利要求6所述的系统,还包括模糊模块,所述模糊模块被配置为基于针对VR数字内容的部分中像素的相应的所述置信度值来对相应部分进行模糊。
9.根据权利要求8所述的系统,其中所述部分的所述模糊的量针对具有低置信度值的部分增加,并且针对具有高置信度值的部分减少。
10.根据权利要求1所述的系统,其中所述视差校正模块还包括误差扩散模块,所述误差扩散模块用以生成所述已校正视差三角网格,所述已校正视差三角网格中的至少一个像素的深度被描述为深度值范围的分布。
11.根据权利要求1所述的系统,其中所述视差校正模块还包括网格切割模块,所述网格切割模块用以基于所标识的边界边缘或深度不连续性来对所述视角三角网格进行切割。
12.一种由虚拟现实(VR)设备实施的、在数字媒体环境中用以校正视差以解决关于虚拟现实(VR)数字内容的视角变化的方法,所述方法包括:
由所述虚拟现实设备基于像素和相对于所述VR数字内容的原始视角的相关联三维坐标来生成原始三角网格;
由所述虚拟现实设备生成视角数据,所述视角数据描述相对于所述VR数字内容从原始视角到已改变视角的变化;
由所述虚拟现实设备基于所述原始三角网格和所述视角数据来生成视角三角网格;
由所述虚拟现实设备生成已校正视差三角网格,所述已校正视差三角网格对所述视角三角网格中的至少一个伪像进行校正;以及
由所述虚拟现实设备基于所述已校正视差三角网格来渲染所述VR数字内容。
13.根据权利要求12所述的方法,其中所述已校正视差三角网格的所述生成至少部分基于深度过滤。
14.根据权利要求12所述的方法,其中所述已校正视差三角网格的所述生成至少部分基于作为通过使用神经网络的机器学习的一部分的深度边界的标识。
15.根据权利要求12所述的方法,其中所述已校正视差三角网格的所述生成至少部分基于对被包括作为所述视角三角网格的一部分的三角形进行检查。
16.根据权利要求15所述的方法,其中所述检查基于近似于相应的所述三角形的视图方向的表面法线、相应的所述三角形的边缘长度、或相应的所述三角形的面积。
17.根据权利要求12所述的方法,其中所述已校正视差三角网格的所述生成至少部分基于生成与所述视角三角网格的像素的深度相关联的置信度值。
18.根据权利要求17所述的方法,还包括:基于针对VR数字内容的部分中像素的相应的所述置信度值来对相应部分进行模糊。
19.根据权利要求12所述的方法,其中所述已校正视差三角网格的所述生成至少部分基于生成所述已校正视差三角网格,所述已校正视差三角网格中的至少一个像素的深度被描述为深度值范围的分布。
20.一种在数字媒体环境中用以校正视差以解决关于虚拟现实(VR)数字内容的视角变化的系统,包括:
用于基于像素和相对于所述VR数字内容的原始视角的相关联三维坐标来生成原始三角网格的装置;
用于生成描述相对于所述VR数字内容从原始视角到已改变视角的变化的视角数据的装置;
用于基于所述原始三角网格和所述视角数据来生成视角三角网格的装置;
用于生成对所述视角三角网格中的至少一个伪像进行校正的已校正视差三角网格的装置;以及
用于基于所述已校正视差三角网格来渲染所述VR数字内容的装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210503333.0A CN114785996B (zh) | 2017-10-11 | 2018-08-08 | 虚拟现实视差校正 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/730,478 US10701334B2 (en) | 2017-10-11 | 2017-10-11 | Virtual reality parallax correction |
US15/730,478 | 2017-10-11 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210503333.0A Division CN114785996B (zh) | 2017-10-11 | 2018-08-08 | 虚拟现实视差校正 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109660783A true CN109660783A (zh) | 2019-04-19 |
CN109660783B CN109660783B (zh) | 2022-05-27 |
Family
ID=63667061
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810896974.0A Active CN109660783B (zh) | 2017-10-11 | 2018-08-08 | 虚拟现实视差校正 |
CN202210503333.0A Active CN114785996B (zh) | 2017-10-11 | 2018-08-08 | 虚拟现实视差校正 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210503333.0A Active CN114785996B (zh) | 2017-10-11 | 2018-08-08 | 虚拟现实视差校正 |
Country Status (5)
Country | Link |
---|---|
US (2) | US10701334B2 (zh) |
CN (2) | CN109660783B (zh) |
AU (1) | AU2018211217B2 (zh) |
DE (1) | DE102018006050A1 (zh) |
GB (1) | GB2567530B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111726602A (zh) * | 2019-03-22 | 2020-09-29 | 舜宇光学(浙江)研究院有限公司 | 异视场角摄像-显像系统的匹配方法及其系统和计算系统 |
CN115079881A (zh) * | 2022-06-16 | 2022-09-20 | 广州国威文化科技有限公司 | 基于虚拟现实的画面校正方法及系统 |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10701334B2 (en) | 2017-10-11 | 2020-06-30 | Adobe Inc. | Virtual reality parallax correction |
WO2020060749A1 (en) | 2018-09-17 | 2020-03-26 | Snap Inc. | Creating shockwaves in three-dimensional depth videos and images |
TWI757658B (zh) * | 2018-11-14 | 2022-03-11 | 宏達國際電子股份有限公司 | 影像處理系統及影像處理方法 |
US11995854B2 (en) * | 2018-12-19 | 2024-05-28 | Nvidia Corporation | Mesh reconstruction using data-driven priors |
CN110223257B (zh) * | 2019-06-11 | 2021-07-09 | 北京迈格威科技有限公司 | 获取视差图的方法、装置、计算机设备和存储介质 |
US11178375B1 (en) * | 2019-10-21 | 2021-11-16 | Snap Inc. | Input parameter based image waves |
EP3840389A1 (en) * | 2019-12-18 | 2021-06-23 | Koninklijke Philips N.V. | Coding scheme for video data using down-sampling/up-sampling and non-linear filter for depth map |
US20210327121A1 (en) * | 2020-04-15 | 2021-10-21 | Sirisilp Kongsilp | Display based mixed-reality device |
US11212503B1 (en) * | 2020-07-14 | 2021-12-28 | Microsoft Technology Licensing, Llc | Dual camera HMD with remote camera alignment |
US11206364B1 (en) * | 2020-12-08 | 2021-12-21 | Microsoft Technology Licensing, Llc | System configuration for peripheral vision with reduced size, weight, and cost |
US11615582B2 (en) * | 2021-06-08 | 2023-03-28 | Fyusion, Inc. | Enclosed multi-view visual media representation |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4185052B2 (ja) * | 2002-10-15 | 2008-11-19 | ユニバーシティ オブ サザン カリフォルニア | 拡張仮想環境 |
CN103617647A (zh) * | 2013-11-28 | 2014-03-05 | 中国人民解放军国防科学技术大学 | 一种用于夜视的车辆周围环境三维重构方法 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6590573B1 (en) * | 1983-05-09 | 2003-07-08 | David Michael Geshwind | Interactive computer system for creating three-dimensional image information and for converting two-dimensional image information for three-dimensional display systems |
US8369607B2 (en) * | 2002-03-27 | 2013-02-05 | Sanyo Electric Co., Ltd. | Method and apparatus for processing three-dimensional images |
DE60310226T2 (de) * | 2002-06-12 | 2007-10-04 | Spatial Integrated Systems, Inc. | Verfahren zur linearen raumabtastung und vorrichtung zur erzeugung eines numerischen 3d modells |
US20160267720A1 (en) * | 2004-01-30 | 2016-09-15 | Electronic Scripting Products, Inc. | Pleasant and Realistic Virtual/Augmented/Mixed Reality Experience |
US8199186B2 (en) | 2009-03-05 | 2012-06-12 | Microsoft Corporation | Three-dimensional (3D) imaging based on motionparallax |
CN102695070B (zh) * | 2012-06-12 | 2014-06-04 | 浙江大学 | 一种立体图像的深度一致性融合处理方法 |
CN102868891B (zh) * | 2012-09-18 | 2015-02-18 | 哈尔滨商业大学 | 基于支持向量回归多视角视频色差校正方法 |
JP2014067372A (ja) | 2012-09-27 | 2014-04-17 | Kddi Corp | 運動視差再現プログラムおよび装置ならびにその三次元モデル生成プログラムおよび装置 |
US20150235408A1 (en) | 2014-02-14 | 2015-08-20 | Apple Inc. | Parallax Depth Rendering |
JP2015219634A (ja) * | 2014-05-15 | 2015-12-07 | 株式会社リコー | 画像処理プログラム、画像処理方法および画像処理装置 |
CN110869980B (zh) | 2017-05-18 | 2024-01-09 | 交互数字Vc控股公司 | 将内容分发和呈现为球形视频和3d资产组合 |
US10701334B2 (en) | 2017-10-11 | 2020-06-30 | Adobe Inc. | Virtual reality parallax correction |
-
2017
- 2017-10-11 US US15/730,478 patent/US10701334B2/en active Active
-
2018
- 2018-07-31 AU AU2018211217A patent/AU2018211217B2/en active Active
- 2018-07-31 DE DE102018006050.1A patent/DE102018006050A1/de active Pending
- 2018-08-08 CN CN201810896974.0A patent/CN109660783B/zh active Active
- 2018-08-08 CN CN202210503333.0A patent/CN114785996B/zh active Active
- 2018-08-10 GB GB1813076.5A patent/GB2567530B/en active Active
-
2020
- 2020-06-03 US US16/891,977 patent/US11050994B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4185052B2 (ja) * | 2002-10-15 | 2008-11-19 | ユニバーシティ オブ サザン カリフォルニア | 拡張仮想環境 |
CN103617647A (zh) * | 2013-11-28 | 2014-03-05 | 中国人民解放军国防科学技术大学 | 一种用于夜视的车辆周围环境三维重构方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111726602A (zh) * | 2019-03-22 | 2020-09-29 | 舜宇光学(浙江)研究院有限公司 | 异视场角摄像-显像系统的匹配方法及其系统和计算系统 |
CN115079881A (zh) * | 2022-06-16 | 2022-09-20 | 广州国威文化科技有限公司 | 基于虚拟现实的画面校正方法及系统 |
CN115079881B (zh) * | 2022-06-16 | 2024-07-09 | 广州国威文化科技有限公司 | 基于虚拟现实的画面校正方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
US11050994B2 (en) | 2021-06-29 |
US10701334B2 (en) | 2020-06-30 |
AU2018211217A1 (en) | 2019-05-02 |
CN114785996B (zh) | 2024-08-09 |
US20190110038A1 (en) | 2019-04-11 |
US20200296348A1 (en) | 2020-09-17 |
CN109660783B (zh) | 2022-05-27 |
CN114785996A (zh) | 2022-07-22 |
GB2567530B (en) | 2021-09-15 |
DE102018006050A1 (de) | 2019-04-11 |
GB2567530A (en) | 2019-04-17 |
GB201813076D0 (en) | 2018-09-26 |
AU2018211217B2 (en) | 2021-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109660783A (zh) | 虚拟现实视差校正 | |
CN109003325B (zh) | 一种三维重建的方法、介质、装置和计算设备 | |
US9843776B2 (en) | Multi-perspective stereoscopy from light fields | |
Zollmann et al. | Image-based ghostings for single layer occlusions in augmented reality | |
US20210241495A1 (en) | Method and system for reconstructing colour and depth information of a scene | |
WO2021030002A1 (en) | Depth-aware photo editing | |
US9865032B2 (en) | Focal length warping | |
JP2018536915A (ja) | 3次元再構成において構造特徴を検出し、組み合わせるための方法およびシステム | |
CN109816766A (zh) | 图像处理装置、图像处理方法及存储介质 | |
EP3533218B1 (en) | Simulating depth of field | |
CN104395931A (zh) | 图像的深度图的生成 | |
CN107660338A (zh) | 对象的立体显示 | |
KR101969082B1 (ko) | 다수의 카메라를 이용한 최적의 구형 영상 획득 방법 | |
CN106797458A (zh) | 真实对象的虚拟改变 | |
CN105611267B (zh) | 现实世界和虚拟世界图像基于深度和色度信息的合并 | |
US20180025540A1 (en) | Methods and systems for 3d contour recognition and 3d mesh generation | |
CN109644280B (zh) | 生成场景的分层深度数据的方法 | |
CN116057577A (zh) | 用于增强现实的地图 | |
US20180213215A1 (en) | Method and device for displaying a three-dimensional scene on display surface having an arbitrary non-planar shape | |
CN112749611A (zh) | 人脸点云模型生成方法及装置、存储介质、电子设备 | |
Angot et al. | A 2D to 3D video and image conversion technique based on a bilateral filter | |
CN114494582A (zh) | 一种基于视觉感知的三维模型动态更新方法 | |
Liu et al. | Fog effect for photography using stereo vision | |
JP7387029B2 (ja) | ソフトレイヤ化および深度認識インペインティングを用いた単画像3d写真技術 | |
KR101539038B1 (ko) | 복수의 깊이 카메라로부터 취득한 깊이 맵의 홀 필링 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |