CN114615486B - 用于生成合成流的方法、系统和计算机可读存储介质 - Google Patents
用于生成合成流的方法、系统和计算机可读存储介质 Download PDFInfo
- Publication number
- CN114615486B CN114615486B CN202210229650.8A CN202210229650A CN114615486B CN 114615486 B CN114615486 B CN 114615486B CN 202210229650 A CN202210229650 A CN 202210229650A CN 114615486 B CN114615486 B CN 114615486B
- Authority
- CN
- China
- Prior art keywords
- stream
- cgr
- user experience
- content
- data stream
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 239000002131 composite material Substances 0.000 title claims abstract description 90
- 238000000034 method Methods 0.000 title claims description 54
- 238000001514 detection method Methods 0.000 claims description 4
- 238000009877 rendering Methods 0.000 abstract description 24
- 238000010586 diagram Methods 0.000 description 14
- 230000001953 sensory effect Effects 0.000 description 9
- 230000033001 locomotion Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- 230000004044 response Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 210000003128 head Anatomy 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000003190 augmentative effect Effects 0.000 description 4
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 239000000203 mixture Substances 0.000 description 4
- 238000012805 post-processing Methods 0.000 description 4
- -1 802.3x Chemical compound 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 241000238876 Acari Species 0.000 description 2
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 239000008280 blood Substances 0.000 description 2
- 210000004369 blood Anatomy 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000005055 memory storage Effects 0.000 description 2
- 238000010422 painting Methods 0.000 description 2
- 229910052710 silicon Inorganic materials 0.000 description 2
- 239000010703 silicon Substances 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- WQZGKKKJIJFFOK-GASJEMHNSA-N Glucose Natural products OC[C@H]1OC(O)[C@H](O)[C@@H](O)[C@@H]1O WQZGKKKJIJFFOK-GASJEMHNSA-N 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 241000377209 Unicorn Species 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- QVGXLLKOCUKJST-UHFFFAOYSA-N atomic oxygen Chemical compound [O] QVGXLLKOCUKJST-UHFFFAOYSA-N 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000001143 conditioned effect Effects 0.000 description 1
- 239000002772 conduction electron Substances 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000005669 field effect Effects 0.000 description 1
- 239000008103 glucose Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 229910052760 oxygen Inorganic materials 0.000 description 1
- 239000001301 oxygen Substances 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000005293 physical law Methods 0.000 description 1
- APTZNLHMIGJTEW-UHFFFAOYSA-N pyraflufen-ethyl Chemical compound C1=C(Cl)C(OCC(=O)OCC)=CC(C=2C(=C(OC(F)F)N(C)N=2)Cl)=C1F APTZNLHMIGJTEW-UHFFFAOYSA-N 0.000 description 1
- 239000002096 quantum dot Substances 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000004270 retinal projection Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
- H04N13/178—Metadata, e.g. disparity information
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/1066—Session management
- H04L65/1083—In-session procedures
- H04L65/1089—In-session procedures by adding media; by removing media
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/60—Network streaming of media packets
- H04L65/61—Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/60—Network streaming of media packets
- H04L65/61—Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
- H04L65/612—Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio for unicast
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/60—Network streaming of media packets
- H04L65/70—Media network packetisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/60—Network streaming of media packets
- H04L65/75—Media network packet handling
- H04L65/764—Media network packet handling at the destination
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/189—Recording image signals; Reproducing recorded image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/194—Transmission of image signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/04—Architectural design, interior design
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Architecture (AREA)
- Library & Information Science (AREA)
- Business, Economics & Management (AREA)
- General Business, Economics & Management (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
一种具体实施使用与计算机生成的现实(CGR)体验相关的多个数据流来形成CGR内容的合成流以有利于记录或流式传输。媒体合成器获取渲染帧的第一数据流和附加数据的第二数据流。渲染帧内容(例如,3D模型)表示在多个时间点处的CGR体验期间呈现的真实内容和虚拟内容。第二数据流的附加数据涉及CGR体验,例如,与音频、音频源、识别CGR体验的检测到的属性的元数据、图像数据、来自涉及CGR体验的其他设备的数据等有关。媒体合成器形成合成流,该合成流使所述渲染帧内容与多个时间点的附加数据对齐,例如,通过形成对应于单个时间点的时间戳n维数据集(例如,图像)。
Description
本申请是申请日为2019年7月30日、申请号为201910694857.0、发明名称为“用于计算机生成现实的媒体合成器”的中国发明专利申请的分案申请。
相关申请的交叉引用
本申请要求2018年8月6日提交的美国临时申请序列号62/714,869的权益,该申请全文以引用方式并入本文。
技术领域
本公开整体涉及三维(3D)内容,并且具体地涉及用于记录或流式传输计算机生成现实(CGR)内容的系统、方法和设备。
背景技术
现有计算系统和应用程序不能充分促进CGR内容的记录或流式化。
发明内容
本文所公开的各种具体实施包括将与CGR体验相关联的多个数据流合成以形成合成流以有利于CGR内容的记录或流式传输的设备、系统和方法。合成流可被存储用于稍后回放或实时流式传输以在一个或多个其他设备上进行实时回放。合成流表示CGR内容,其本身可以是真实内容,自身渲染的内容(例如,仅VR内容),内容的3D表示(例如,未渲染的模型),或它们的组合。
一些具体实施涉及在具有一个或多个处理器和计算机可读存储介质的设备处执行操作。该设备获得包括渲染帧的第一数据流和包括附加数据的一个或多个附加数据流。渲染帧内容(例如,2D图像或3D模型)表示在多个时间点的CGR体验中呈现的真实内容或虚拟内容。一个或多个附加数据流的附加数据与多个时间点处的CGR体验相关。在一个示例中,附加数据是来自作为CGR体验一部分的真实或虚拟音频源的音频。在另一个示例中,附加数据是识别CGR体验的检测到的属性的元数据,诸如实际物理特性(例如,照明,温度等),涉及CGR体验或在CGR体验中检测到的人等。在另一个示例中,附加数据为来自作为相同共享CGR体验一部分的第二设备的渲染帧内容,这可能来自不同的查看透视图。
设备使用数据流(例如,使用来自第一数据流和第二数据流的数据)形成合成流。合成流使渲染帧内容与多个时间点的附加数据对齐。例如,音频片段可与在相同时间点处或周围呈现的对应渲染帧相关联。又如,关于人的身份的元数据与该人在其中出现的渲染帧相关联。在一些具体实施中,合成流具有合成帧,每个合成帧提供对应于单个时间点或时间片段的时间戳n维数据集(例如,图像)。此类n维数据集/图像的尺寸可对应于所述渲染帧以及附加数据(例如,音频,元数据,捕获的图像等)的两个或三个维度。合成流可存储为CGR体验的记录或实时流式传输以允许其他人经由其他设备体验CGR内容。
一些具体实施提供了合成流,其包括关于CGR体验的比传统视频记录技术的屏幕和音频捕获信息更丰富的信息。合成流可包括关于CGR体验中的真实对象或虚拟对象的3D几何形状的信息。在合成流中包括真实对象或虚拟对象的3D模型能够增强记录或实时流式传输的观看者的体验,例如允许观看者从不同于创作者的视点的视点体验场景,从而允许观看者移动或旋转对象。又如,在合成流中包括音频源信息同样能够增强体验,例如,允许观看者基于其自身的头部取向,相对于音频源的相对定位等来体验声音。
根据一些具体实施,一种设备包括一个或多个处理器、非暂态存储器以及一个或多个程序;这一个或多个程序被存储在非暂态存储器中并且被配置为由一个或多个处理器执行,并且这一个或多个程序包括用于执行或导致执行本文所述方法中的任一种的指令。根据一些具体实施,一种非暂态计算机可读存储介质中存储有指令,当由设备的一个或多个处理器执行时,这些指令使得该设备执行或导致执行本文所述方法中的任一种。根据一些具体实施,一种设备包括:一个或多个处理器、非暂态存储器,以及用于执行或导致执行本文所述方法中的任一种的装置。
附图说明
因此,本公开可被本领域的普通技术人员理解,更详细的描述可参考一些例示性具体实施的方面,其中一些具体实施在附图中示出。
图1为根据一些具体实施的示例性操作环境的框图,其中提供CGR环境的设备创建第一时间点的CGR体验的合成体。
图2为根据一些具体实施的创建第二时间点的CGR体验的合成体的图1的设备的框图。
图3为根据一些具体实施的创建第三时间点的CGR体验的合成体的图1的设备的框图。
图4为根据一些具体实施的创建第四时间点的CGR体验的合成体的图1的设备的框图。
图5A为根据一些具体实施的基于图1至图4的合成体的合成流以及使用合成流来重放CGR体验的框图。
图5B为合成流以及在另一个设备上使用合成流来重放CGR体验的框图。
图6为示出了根据一些具体实施的示例性设备的设备部件的框图。
图7为示出了根据一些具体实施的示例性媒体合成器的框图。
图8为表示用于使用与CGR体验相关联的多个数据流来创建合成流的方法的流程图。
根据通常的做法,附图中示出的各种特征部可能未按比例绘制。因此,为了清楚起见,可以任意地扩展或减小各种特征部的尺寸。另外,一些附图可能未描绘给定的系统、方法或设备的所有部件。最后,在整个说明书和附图中,类似的附图标号可用于表示类似的特征部。
具体实施方式
描述了许多细节以便提供对附图中所示的示例具体实施的透彻理解。然而,附图仅示出了本公开的一些示例方面,因此不应被视为限制。本领域的普通技术人员将会知道,其他有效方面或变体不包括本文所述的所有具体细节。此外,没有详尽地描述众所周知的系统、方法、部件、设备和电路,以免模糊本文所述的示例性具体实施的更多相关方面。
参见图1,其示出了一些具体实施的示例性操作环境。通常,操作环境包括呈现CGR内容20的设备10,所述CGR内容描绘基于真实世界场景5的一个或多个图像的CGR环境。CGR环境是指人们经由电子系统感测和/或交互的完全或部分模拟的环境。在CGR中,跟踪人的物理运动的一个子组或其表示,并且作为响应,以符合至少一个物理定律的方式调节在CGR环境中模拟的一个或多个虚拟对象的一个或多个特征。例如,CGR系统可以检测人的头部转动,并且作为响应,以与此类视图和声音在物理环境中变化的方式类似的方式调节呈现给人的图形内容和声场。在一些情况下(例如,出于可达性原因),对CGR环境中虚拟对象的特征的调节可以响应于物理运动的表示(例如,声音命令)来进行。
人可以利用其感官中的任一者来感测CGR对象和/或与CGR对象交互,包括视觉、听觉、触觉、味觉和嗅觉。例如,人可以感测音频对象和/或与音频对象交互,所述音频对象创建3D或空间音频环境,所述3D或空间音频环境提供3D空间中点音频源的感知。又如,音频对象可以使能音频透明度,该音频透明度在有或者没有计算机生成的音频的情况下选择性地引入来自物理环境的环境声音。在某些CGR环境中,人可以感测和/或只与音频对象交互。
CGR的示例包括虚拟现实和混合现实。虚拟现实(VR)环境是指被设计成对于一个或多个感官完全基于计算机生成的感官输入的模拟环境。VR环境包括人可以感测和/或与之交互的虚拟对象。例如,树木、建筑物和代表人的化身的计算机生成的图像为虚拟对象的示例。人可以通过在计算机生成的环境内人的存在的模拟、和/或通过在计算机生成的环境内人的物理运动的一个子组的模拟来感测和/或与VR环境中的虚拟对象交互。
与被设计成完全基于计算机生成的感官输入的VR环境相比,混合现实(MR)环境是指被设计成除了包括计算机生成的感官输入(例如,虚拟对象)之外还引入来自物理环境的感官输入或其表示的模拟环境。在虚拟连续体上,混合现实环境为完全物理环境作为一端和虚拟现实环境作为另一端之间的任何状况,但不包括这两端。
在一些MR环境中,计算机生成的感官输入可以对来自物理环境的感官输入的变化进行响应。另外,用于呈现MR环境的一些电子系统可以跟踪相对于物理环境的位置和/或取向,以使虚拟对象能够与真实对象(即,来自物理环境的物理物品或其表示)交互。例如,系统可以导致运动使得虚拟树木相对于物理地面看起来是静止的。
混合现实的示例包括增强现实和增强虚拟。增强现实(AR)环境是指其中一个或多个虚拟对象叠加在物理环境或其表示之上的模拟环境。例如,用于呈现AR环境的电子系统可具有透明或半透明显示器,人可以透过他直接查看物理环境。该系统可以被配置为在透明或半透明显示器上呈现虚拟对象,使得人利用该系统感知叠加在物理环境之上的虚拟对象。如本文所用,其中物理环境的至少一些光可穿过透明或半透明显示器的HMD称为“光学透视”HMD。
另选地,系统可以具有不透明显示器和一个或多个成像传感器,成像传感器捕获物理环境的图像或视频,这些图像或视频是物理环境的表示。系统将图像或视频与虚拟对象组合,并在不透明显示器上呈现组合物。人利用系统经由物理环境的图像或视频而间接地查看物理环境,并且感知叠加在物理环境之上的虚拟对象。如本文所用,在不透明显示器上显示的物理环境的视频被称为“透传视频”,意味着系统使用一个或多个图像传感器捕获物理环境的图像,并且在不透明显示器上呈现AR环境时使用那些图像。
进一步另选地,系统可以具有投影系统,该投影系统将虚拟对象投射到物理环境中,例如作为全息图或者在物理表面上,使得人利用该系统感知叠加在物理环境之上的虚拟对象。
增强现实环境也是指其中物理环境的表示被计算机生成的感官信息进行转换的模拟环境。例如,在提供透传视频中,系统可以对一个或多个传感器图像进行转换以施加与成像传感器所捕获的视角不同的选择视角(例如,视点)。又如,物理环境的表示可以通过图形地修改(例如,放大)其部分而进行转换,使得修改后的部分可以是原始捕获图像的代表性的但不是真实的版本。再如,物理环境的表示可以通过以图形方式消除或模糊其部分而进行转换。
增强虚拟(AV)环境是指其中虚拟或计算机生成的环境结合来自物理环境的一个或多个感官输入的模拟环境。感官输入可以是物理环境的一个或多个特征的表示。例如,AV公园可以具有虚拟树木和虚拟建筑物,但人的脸部是从对物理人拍摄的图像逼真再现的。又如,虚拟对象可以采用一个或多个成像传感器所成像的物理物品的形状或颜色。再如,虚拟对象可以采用符合太阳在物理环境中的位置的阴影。
有许多不同类型的电子系统使人能够感测和/或与各种CGR环境交互。示例包括头戴式系统、基于投影的系统、平视显示器(HUD)、集成有显示能力的车辆挡风玻璃、集成有显示能力的窗户、被形成为被设计用于放置在人眼睛上的透镜的显示器(例如,类似于隐形眼镜)、耳机/听筒、扬声器阵列、输入系统(例如,具有或没有触觉反馈的可穿戴或手持控制器)、智能电话、平板电脑、和台式/膝上型计算机。头戴式系统可以具有一个或多个扬声器和集成的不透明显示器。另选地,头戴式系统可以被配置为接受外部不透明显示器(例如,智能电话)。头戴式系统可以结合用于捕获物理环境的图像或视频的一个或多个成像传感器、和/或用于捕获物理环境的音频的一个或多个麦克风。
头戴式系统可以具有透明或半透明显示器,而不是不透明显示器。透明或半透明显示器可以具有媒介,代表图像的光通过所述媒介被引导到人的眼睛。显示器可以利用数字光投影、OLED、LED、uLED、硅基液晶、激光扫描光源或这些技术的任意组合。媒介可以是光学波导、全息图媒介、光学组合器、光学反射器、或他们的任意组合。在一个具体实施中,透明或半透明显示器可被配置为选择性地变得不透明。基于投影的系统可以采用将图形图像投影到人的视网膜上的视网膜投影技术。投影系统也可以被配置为将虚拟对象投影到物理环境中,例如作为全息图或在物理表面上。
在一些具体实施中,设备10是被配置为向用户呈现CGR内容20的手持式电子设备(例如,智能电话或平板电脑)。在一些具体实施中,设备10是一种由用户佩戴的头戴式设备(HMD)。此类HMD可包围用户的视场。在一些具体实施中,佩戴HMD是一个或多个屏幕被定位成在用户的视野中显示CGR内容的方式。在一些具体实施中,两个设备(例如,HMD和与HMD无线通信的控制器设备)彼此通信以提供CGR内容(例如,使用相机和传感器来编译关于真实世界场景5的信息并且具有用于显示CGR内容的一个或多个显示器的HMD,以及处理该相机/传感器数据和其他数据以向HMD提供CGR内容的控制器设备)。在一些具体实施中,设备10是被配置为呈现CGR内容的舱室、壳体或房间,在该CGR内容中,用户不穿戴或手持设备10。
设备10被配置为使用基于设备10上的相机或其他传感器检测到的图像或其他真实世界信息。在一些具体实施中,为了提供CGR内容,设备10使用由相机捕获的一个或多个相机图像的至少一部分。在图1的示例中,在第一时间点21处的CGR内容20包括对由设备10的相机捕获的项目的描述。在图1的示例中,真实世界场景5包括办公桌13上的第二设备12,壁挂图14和沙发15。在第一时间点21处的CGR内容20包括第二设备12的第二设备描述22,办公桌13的办公桌描述23,壁挂图14的壁挂图描述24,和沙发15的沙发描述25。
在图1中,通过合成渲染帧110和附加数据111(例如元数据112和2D视图113)来记录第一时间点21处的CGR内容20来创建合成体115。渲染帧110包括在第一时间点21处的CGR内容20中所示的真实(如果有)和虚拟(如果有)对象的2D图像或3D模型。元数据112包括描述CGR内容中所示的真实(如果有)或虚拟(如果有)对象的数据。元数据112可基于相机/传感器数据,算法或机器学习解释(例如,语音识别,对象检测等),用户输入,或在第一时间点21处的CGR内容20处的CGR体验期间检测,记录或识别的任何其他信息。2D视图113是表示在设备10上显示的实际2D图像的图像,其描绘了在第一时间点21处的CGR内容20。又如,设备10呈现两个同时图像(例如,一个用于左眼,一个用于右眼),并且2D视图113是组合这两个图像的裁切图像(例如,提供图像的公共内容的单个裁切图像)。例如,在希望减少合成体115中的数据量(例如,以解决带宽考虑)的具体实施中,单个裁切图像可能是期望的。
本文所述的一些具体实施使得能够记录CGR内容以用于存储和稍后重新播放或实时流式传输。例如,用户可使用设备10具有五分钟CGR体验,其中用户围绕真实世界场景5移动以查看来自不同视点的CGR内容,添加,改变或移除CGR内容中的真实或虚拟对象,或者以其他方式与CGR内容交互。在五分钟CGR体验期间的CGR内容通过将与CGR内容20相关联的数据流合成合成流(例如,合成体125)和其他时间点的其他合成体来记录。在一些具体实施中,将第一数据流(例如,渲染帧内容诸如真实或虚拟对象的3D模型)和附加数据流(例如,音频内容,元数据,2D裁切帧等)组合在一起以形成合成帧流,所述帧流在5分钟的体验期间使渲染帧内容与所述多个时间点的附加数据(例如,帧)对齐。
用户可记录CGR体验,上载或流式传输所合成的CGR内容流,并且其他用户可访问并体验他们自己的设备上的CGR内容记录。例如,用户可将CGR内容记录作为媒体上载/发布在CGR内容共享网站上,并且其他用户可使用该网站来访问和体验(例如,使用适当的查看器或浏览器插件)CGR内容记录。合成的CGR内容流包括关于CGR内容的丰富数据,例如,包括有关真实世界场景5的特性(例如,温度,照明,识别的面部,检测到的对象,检测到的模式等),基本或高级音频信息(例如,音频源信息,16信道音频等)的元数据。
合成的CGR内容流可包括渲染帧内容,其包括用于提供CGR体验的3D几何信息(例如,3D模型)以及2D视图(例如,创建CGR内容记录的用户体验的2D视图113或组合用户或多个用户的视图的组合/裁切视图)。在一个示例中,CGR内容的合成流包括用于生成长沙发描述25的长沙发15的3D模型。在合成CGR内容流中包括此3D模型允许其他用户从不同于创建CGR内容记录时用户所做的不同视点查看沙发。
图2至图4为创建第二、第三和第四时间点处的CGR体验的合成体的图1的设备10的框图。
图2表示在图1的第一时间点20之后的第二时间点30。用户已将相对于真实世界场景5的位置从第一时间点21改变为第二时间点30,并且在图2中更靠近桌13和第二设备12。因此,桌23的描述和第二设备22的描述在第二时间点30(图2)处比在第一时间点21(图1)处相对更大。在图2中,通过合成渲染帧120和附加数据121(例如元数据122和2D视图123)来记录第二时间点30处的CGR内容20以创建合成体125。渲染帧120包括在第二时间点30处的CGR内容20中所示的对象的2D图像或3D模型。元数据122包括描述在第二时间点30处的CGR内容20中所描绘的对象的数据。2D视图123是表示在设备10上显示的实际2D图像的图像,其描绘了在第二时间点30处的CGR内容20。
图3表示在图2的第二时间点之后的第三时间点。用户从第二时间点到第三时间点期间相对于在真实世界场景5中的位置保持在相同位置。然而,用户已添加若干虚拟对象:虚拟盆花34和虚拟祖父时钟35。在图3中,通过合成渲染帧130和附加数据131(例如元数据132,2D视图133和音频样本134)来记录第三时间点40处的CGR内容20以创建合成体135。渲染帧130包括在第三时间点40处的CGR内容20中所示的对象的2D图像或3D模型。元数据132包括描述在第三时间点40处的CGR内容20中所描绘的对象的数据。2D视图133是表示在设备10上显示的实际2D图像的图像,其描绘了在第三时间点40处的CGR内容20。
音频样本134包括来自两个不同源的音频流:用户语音的第一音频片段(例如,“我正在添加我喜欢的时钟和花以增加一些快乐”)和与虚拟祖父时钟35相关联的第二音频片段(例如,“滴答、滴答、滴答”)。需注意,虽然每个音频片段持续一段时间,但其相关联并包括在合成体135中,在该具体实施中,该合成体针对单个时间点/合成帧。在一些具体实施中,在合成体中包括音频片段,该音频片段与音频片段开始的时间点、音频片段的中点、音频片段的结尾或片段期间的任何其他预先确定的点相关联。音频片段可分为子部分(例如,对于较小的时间间隔,离散的声音,暂停之间的声音等),组合成与多个合成体相关联的更长的片段,或以其他方式组织在合成流内,以允许与其他CGR内容精确关联,平滑回放以及CGR内容的有效表示(例如,最小化或减少不必要的重复等)。
图4表示在图3的第二时间点之后的第四时间点。用户从第三时间点到第四时间点期间相对于真实世界场景5中的位置保持在相同位置。然而,用户已添加另一个虚拟对象:虚拟时钟无线电部件36。在图4中,通过合成渲染帧140和附加数据141(例如元数据142,2D视图143和具有源ID的音频样本144)来记录第四时间点50处的CGR内容以创建合成体145。渲染帧140包括在第四时间点50处的CGR内容中所示的对象的2D图像或3D模型。元数据142包括描述在第四时间点50处的CGR内容中所描绘的对象的数据。2D视图143是表示在设备10上显示的实际2D图像的图像,其描绘了在第四时间点50处的CGR内容。
具有源ID的音频样本144包括与两个不同源相关联的音频流:虚拟时钟无线电部件36的第一音频片段(例如,音乐)和与虚拟祖父时钟35相关联的第二音频片段(例如,“滴答、滴答、滴答”)。这些不同音频片段的源彼此区分并且在具有源ID的音频样本144中被识别。源可识别或可用于识别例如相对于3D坐标系的3D模型内的声音产生对象的位置。当其他用户后来体验CGR内容记录时,相对于用户的头部位置和取向的这些源位置可用于改善他们的体验。例如,体验CGR内容记录的另一用户可单独控制音频源,例如,以关闭来自虚拟时钟无线电部件36的音乐。
CGR内容诸如图1至图4的示例中所记录的CGR内容可包括任何类型的2D或3D对象,包括真实或虚拟内容。2D和3D内容的示例包括但不限于桌子,地板,墙壁,课桌,书,水体,山,田,车,计数器,人脸,人手,人的毛发,另一个人体部分,整个人体,动物或其他活体,衣服,一张纸,杂志,书籍,车辆,机器或其他人造对象,以及可识别和表示的任何其他项目或项目组。2D或3D对象可附加地或另选地包括可或可能不对应于真实世界内容的已创建内容,包括但不限于外星人,向导,飞船,独角兽,以及计算机生成的图形和模型。
图5A是基于图1至图4的合成体115,125,135,145的合成流210和使用另一设备200上的合成流210重放CGR体验的框图。在该示例中,每个合成体115,125,135,145包括与在序列中依次体验的相应时间点相关联的CGR内容。因此,在重放期间,用户依次体验来自第一时间点21的CGR内容20,来自第二时间点30的CGR内容20,来自第三时间点40的CGR内容20,然后是来自第四时间点50的CGR内容20。在一些具体实施中,合成体115,125,135,145中的每一个对应于CGR内容的帧,并且这些帧以设定的时间间隔依次播放,例如,第一CGR帧被播放1/24秒,然后被第二CGR帧替换,该第二CGR帧被播放1/24秒,然后被替换等。
在图5A中,在重放期间CGR内容的视图与在创建CGR内容的合成流210的用户查看的第一至第四时间点20,30,40,50处的CGR内容的视图相同。然而,在其他具体实施中,在重放期间CGR内容的视图与合成流210创建期间的视图不同。在一些具体实施中,用于流接收/重放用户的CGR内容的视觉外观取决于该用户自身的视点(例如,3D空间中的位置,移动或取向),该视点可不同于创建CGR内容的合成流210的用户的视点。在一些具体实施中,合成流210中的3D几何信息和查看器位置信息用于创建3D内容的视图,该视图不同于由用户查看的创建CGR内容记录的3D内容的视图。在一些具体实施中,合成流包括真实对象的3D几何信息,该信息还基于除了关于当前时间点信息之外的信息来确定。例如,3D几何信息可基于多个捕获的图像来确定(例如,对于在CGR体验期间的多个时间点的多个渲染帧),该多个捕获图像可用于调整任何时间点的CGR内容的视图。图5B提供以这种方式使用3D几何信息的示例。
图5B是合成流210以及使用另一设备300上的合成流210来重放CGR体验的框图。在重放期间,用户体验来自第一时间点21的CGR内容20,来自第二时间点30的CGR内容20,来自第三时间点40的CGR内容,然后是来自第四时间点40的CGR内容。在该示例中,在CGR体验期间,从在图1所示的第一时间点21的真实世界场景5捕获的图像以及在其他(之前或之后)时间点的长沙发25的附加图像确定长沙发25的3D几何形状。在该示例中,在第三时间点处的重放期间,用户已向右旋转他的头部以改变他在CGR重放体验中的视图。因此,设备300在第三和第四时间点40,50处呈现CGR内容的视图,包括长沙发15和壁挂画14的描述25,24的视图。尽管在第三和第四时间点(例如,图3和图4)期间向创建合成流的用户显示的视图中示出了长沙发15和壁挂画44,但是这些视图是针对第三和第四时间点处的CGR内容呈现的。在该示例中,长沙发15和壁挂画14未被相机在第三和第四时间点处捕获,然而仍可作为第三和第四时间点40,50的CGR内容的一部分被查看。
在一些具体实施中,使用合成流重放CGR体验涉及移除或模糊对象(例如,真实世界对象)。例如,真实的绘画24可被移除或覆盖有覆盖其后面的整个壁的虚拟绘画或墙纸。在一些具体实施中,使用合成流重播CGR体验涉及对象的移动而不是或与观察者的移动相组合。例如,如果真实的狗从左到右地穿过场景,或者如果虚拟猫从右到左地穿过场景,则两者都将被合成在记录中并且可在重放期间被体验到。
图6是示出了根据一些具体实施的设备10的设备部件的框图。尽管示出了一些具体特征,但本领域的技术人员将从本公开中认识到,为简洁起见并且为了不模糊本文所公开的具体实施的更多相关方面,未示出各种其他特征。为此,作为非限制性示例,在一些具体实施中,设备10包括一个或多个处理单元602(例如,微处理器、ASIC、FPGA、GPU、CPU、处理内核等)、一个或多个输入/输出(I/O)设备和传感器606、一个或多个通信接口608(例如,USB、FIREWIRE、THUNDERBOLT、IEEE 802.3x、IEEE 802.11x、IEEE 802.16x、GSM、CDMA、TDMA、GPS、IR、BLUETOOTH、ZIGBEE、SPI、I2C或类似类型的接口)、一个或多个编程(例如,I/O)接口610、一个或多个显示器612、存储器620以及用于互连这些部件和各种其他部件的一条或多条通信总线604。
在一些具体实施中,一条或多条通信总线604包括互连和控制系统部件之间的通信的电路。在一些具体实施中,一个或多个I/O设备和传感器606包括触摸屏、软键、键盘、虚拟键盘、按钮、旋钮、操纵杆、开关、拨号盘、惯性测量单元(IMU)、加速度计、磁力仪、陀螺仪、温度计、一个或多个生理传感器(例如,血压监测器、心率监测器、血氧传感器、血糖传感器等)、一个或多个麦克风、一个或多个扬声器、触觉引擎或者一个或多个深度传感器(例如,结构化光、飞行时间等)等的至少其中之一。在一些具体实施中,由一个或多个I/O设备和传感器606检测到的设备10的移动、旋转或位置向设备10提供输入。
在一些具体实施中,I/O设备和传感器606被配置为获得对应于设备10的本地场景的至少一部分的图像数据。I/O设备和传感器606可以包括一个或多个RGB相机(例如,具有互补金属氧化物半导体(CMOS)图像传感器或电荷耦合器件(CCD)图像传感器)、单色相机、IR相机或者基于事件的相机等。在各种具体实施中,一I/O设备和传感器606还包括发射光的照明源,诸如闪光灯。
在一些具体实施中,一个或多个显示器612被配置为呈现CGR内容。在一些具体实施中,一个或多个显示器612对应于全息、数字光处理(DLP)、液晶显示器(LCD)、硅上液晶(LCoS)、有机发光场效应晶体管(OLET)、有机发光二极管(OLED)、表面传导电子发射器显示器(SED)、场发射显示器(FED)、量子点发光二极管(QD-LED)、微机电系统(MEMS)或者类似显示器类型。在一些具体实施中,一个或多个显示器612对应于衍射、反射、偏振、全息等波导显示器。例如,设备10包括单个显示器。又如,设备10包括针对每只眼睛的显示器。
存储器620包括高速随机存取存储器,诸如DRAM、SRAM、DDR RAM或其他随机存取固态存储器设备。在一些具体实施中,存储器620包括非易失性存储器,诸如一个或多个磁盘存储设备、光盘存储设备、闪存存储器设备或其他非易失性固态存储设备。存储器620任选地包括远离一个或多个处理单元602定位的一个或多个存储设备。存储器620包括非暂态计算机可读存储介质。在一些具体实施中,存储器620或存储器620的非暂态计算机可读存储介质存储以下程序、模块和数据结构,或它们的子集,包括可选的操作系统630以及一个或多个应用程序640。
操作系统630包括用于处理各种基础系统服务和用于执行硬件相关的任务的过程。在一些具体实施中,操作系统630包括被配置为提供或记录CGR体验的媒体合成器632。在该示例中,媒体合成器632包括被配置为创建或显示2D图像或3D模型的帧的帧渲染单元633。帧渲染单元633可以接收来自I/O设备和传感器606的图像和其他传感器信息,创建真实世界对象的3D模型,将真实世界内容(例如,3D模型)与虚拟内容组合,以及确定3D内容的视图,例如用于在显示器612上显示。
媒体合成器632还包括音频单元634,该音频单元被配置为捕获音频样本,在格式之间转换音频样本或确定音频源信息。媒体合成器632还包括元数据单元635,该元数据单元被配置为在CGR体验期间例如从来自I/O设备和传感器606的数据导出元数据。
媒体合成器632还包括2D帧单元636以在CGR体验的记录期间捕获或转换在显示器612上显示的图像。在一些具体实施中,2D帧单元636提供用于右眼视图的图像帧和用于左眼视图的图像帧。在一些具体实施中,2D帧单元通过在用于右眼视图的图像帧和用于左眼视图的图像帧两者中找到中心区来创建单个裁切帧(例如,具有90度视场)。该组合/裁切可实现为优化以节省带宽,并且可基于带宽条件或用户偏好选择性地实施。
媒体合成器632还包括被配置为存储例如在计算机可读介质上的CGR内容的合成体的合成流的记录单元637。媒体合成器632还包括实时流单元638,其被配置为以实时流式传输格式编码CGR内容的合成体的合成流,例如用于通过网络分配给其他用户。媒体合成器632还包括应用程序接口单元639,该应用程序接口单元被配置为包括CGR内容中的应用程序内容和交互和/或允许应用程序提供,控制,使用,记录或流式传输CGR内容。
在一些具体实施中,一个或多个应用程序640例如应用程序642a-n中的每一个提供包括在CGR体验中的虚拟内容。例如,祖父时钟应用程序可提供虚拟内容,例如,祖父时钟35的描述(图4)及其相关联的功能和交互性,例如,摇摆臂,节拍铃声,用户控制的时间设置等。这些应用程序642a-n提供可包括在提供CGR体验的共享虚拟平台中的独立内容源。媒体合成器632被配置为接收,显示和记录关于由应用程序642a-n提供的用于包括在CGR内容的合成流中的虚拟对象的信息。
在一些具体实施中,设备10是一种头戴式设备(HMD)。此类HMD可包括容纳HMD的各种部件的外壳(或壳体)。外壳可包括(或联接到)设置在外壳的近侧(至用户)端的眼垫。在一些具体实施中,眼垫是将HMD舒适且紧密地保持在用户面部上的适当位置(例如,围绕用户的眼睛)的塑料或橡皮片。外壳可容纳显示器,该显示器显示图像,向用户的一个或两个眼睛发射光。
图6更多地用作存在于特定具体实施中的各种特征部的功能描述,与本文所述的具体实施的结构示意图不同。如本领域的普通技术人员将认识到的,单独显示的项目可以组合,并且一些项目可以分开。例如,图6中单独示出的一些功能模块可以在单个模块中实现,并且单个功能块的各种功能可在各种具体实施中通过一个或多个功能块来实现。模块/单元的实际数量和特定功能的划分以及如何在其中分配特征部将根据具体实施而变化,并且在一些具体实施中,部分地取决于为特定具体实施选择的硬件、软件或固件的特定组合。
图7是示出了系统700的框图,该系统包括将渲染帧,音频,元数据和2D图像组合以提供CGR内容的n维合成流的示例性媒体合成器702。在该示例中,CGR体验的一些CGR内容元素从应用程序(例如,图6的应用程序642a-n)接收。两种类型的应用程序(独占应用程序和非排他性应用程序)可提供包含在CGR内容中的虚拟内容。诸如CGR应用程序706的独占应用程序可在CGR共享空间框架内执行,并且在执行时使用框架的所有资源,例如,使用所显示的CGR内容的整个视图。相比之下,诸如CGR应用程序708的非排他性应用程序可在执行时共享框架的资源,例如,应用程序可提供祖父时钟虚拟对象,而另一个应用程序在CGR共享空间框架上提供时钟无线电虚拟对象。
CGR界面/访问渲染帧单元704从现实引擎或其他统一渲染单元访问关于CGR内容的渲染帧的信息。渲染帧110,120,130,140的示例在图1至图4中示出。现实引擎(未示出)或其他统一渲染单元(未示出)创建CGR内容的渲染帧。在一些情况下,通过将虚拟对象(来自应用程序或其他源)与真实世界对象组合以创建一个或多个3D模型或通过将虚拟对象叠加在真实世界场景的2D图像上来创建渲染帧。在一些具体实施中,CGR界面/访问渲染帧单元704可接收来自多个源的渲染帧,例如,来自现实引擎和来自独立的统一渲染单元。在一些具体实施中,多个源中的每一个的输出是具有一个对象的帧,其可以是该对象的3D几何形状,与该对象相关联的元数据或其他信息。例如,现实引擎可渲染夹心框并且统一渲染引擎可渲染瓶子,并且两者均可被CGR界面/访问渲染帧单元704访问以包括在合成流728中。关于这两个对象的信息被馈入(或由其检索)媒体合成器702中,并作为渲染帧704存储在存储器存储中。因此,存储器存储中的渲染帧704中的每一者可包括比仅2D图像更多的信息。在一些具体实施中,信息具有与单个时间点(例如基于CGR内容记录过程的开始的时间戳)相关联的n维图像的形式。
媒体合成器702还接收具有附加数据的附加数据流。音频样本114,124,134,144的示例在图1至图4中示出。音频引擎接口712提供音频样本714。音频样本714可为空间化音频样本。在一些具体实施中,将空间化音频样本直接用作合成合成流728的输入。因此,如果5个人在CGR内容内说话,则音频空间化器可基于源的位置来混合所有声音样本,使得如果用户转动她的头部,她将根据空间来更好地听到某些声音。在其他具体实施中,如图7所示,例如,通过应用变换以识别与特定音频片段相关联的音频源,媒体合成器702内的重分类音频样本单元722将空间化音频样本非空间化到它们的单个源。用户然后可基于它们的源来单独控制声音,例如,在关闭祖父时钟的节拍声音的同时打开时钟无线电的音量等。
媒体合成器702还从聚合元数据单元716接收元数据718。元数据112,122,132,142的示例在图1至图4中示出。元数据718通过元数据跟踪单元724与特定轨道相关联。媒体合成器702还接收2D图像(例如,裁切的帧)。2D视图113,123,133,143的示例在图1至图4中示出。渲染帧710,音频样本714,元数据718和2D图像726被输入以形成合成流728。
在输入渲染帧710之前,可对其进行处理以创建合成流728。在该示例中,媒体合成器702包括可被配置为执行各种类型的后处理的打开(un-warp)和后处理单元720。例如,打开和后加工单元720可在所渲染的帧中打开中间凹(foveated)内容,使得合成流将不受中间凹的限制。这可能涉及通过应用反向变换并应用缺陷去除过程来重建内容的原始中间凹版本。又如,打开和后处理单元720将内容从球形坐标空间转换为矩形坐标空间。
合成流728组合渲染帧710,音频样本714,元数据718和2D图像726。合成流可对CGR内容进行索引以进行检索,并且包括用于组合CGR内容的逻辑。媒体合成器702可以指定的格式编写合成流728(例如,用于存储在非暂态计算机可读介质上),或者编码用于实时流式传输的合成流728,如图730所示。在实时流式传输的情况下,媒体合成器702可识别与一个或多个时间点相关联的CGR内容块(例如,帧,切片等)并以指定的间隔发送CGR内容块。
图8是表示用于使用与CGR体验相关联的多个数据流来创建合成流的方法的流程图。在一些具体实施中,方法800由设备(例如,图1至图6的设备10)执行。方法800可在移动设备,HMD,控制器设备,桌面,膝上型计算机,服务器设备上或在一个或多个此类设备的组合上执行。方法800可以在具有用于显示2D图像的屏幕或用于观看立体图像的屏幕的HMD上执行。在一些具体实施中,方法800由处理逻辑部件(包括硬件、固件、软件或其组合)执行。在一些具体实施中,方法800由执行存储在非暂态计算机可读介质(例如,存储器)中的代码的处理器执行。
在框810处,方法800获取在CGR体验期间渲染的渲染帧内容的渲染帧的第一数据流。渲染帧内容表示在CGR体验期间在多个时间点处呈现的真实内容或虚拟内容。示例性渲染帧包括图1至图4中所示的示例性渲染帧110,120,130,140。在一些具体实施中,虚拟内容由独占使用CGR框架的CGR资源而执行的应用程序、与其他应用程序共享使用CGR框架的CGR资源而执行的应用程序、或此类应用程序的组合来提供。
在框820处,方法800获取与CGR体验相关的附加数据的第二数据流。附加数据涉及CGR体验期间的时间点,例如,当音频开始时,在针对其确定元数据的对象被引入时,等等。在一些具体实施中,第二数据流是音频数据流,例如,图1至图4的音频样本114,124,134,144。方法800可识别在CGR体验期间产生音频的真实或虚拟音频源。在一些具体实施中,第二数据流是一个元数据流,该元数据流提供与多个时间点中的各个时间点相关联的元数据,例如,在时间点的阈值时间内检测到面部的人的名字、在时间点处的CGR体验中检测到的真实对象(例如,身体部位,桌子,绘画等)的身份、包括在时间点处的CGR体验中的虚拟对象的身份、在时间点处由温度传感器或照明传感器检测到的温度或照明,等等。例如,第二数据流可包括图1至图4中所示的元数据112,122,132,142。
在一些具体实施中,第二流包括与多个时间点的特定用户视点相关联的CGR体验的2D视图的帧流,例如,显示创建CGR内容记录的用户在其自己的设备上实际查看的内容。例如,第二流可包括图1至图4中所示并在设备10上在那些时间点21,30,40,50处显示的2D视图113,123,133,143(例如,截屏/图像捕获)。帧流可包括裁切的帧,每个裁切的帧均通过识别CGR体验的左眼视图和右眼视图的公共部分来形成。
在一些具体实施中,第二流包括来自与设备分开的第二设备的CGR体验的渲染内容。例如,两个用户可体验来自场景内不同位置的共享CGR体验。可将来自其相应设备的渲染帧组合成用于CGR体验的单个合成流。
在框830处,方法800基于第一数据流和第二数据流来形成合成流。合成流使渲染的帧内容与附加数据对齐以记录多个时间点的CGR内容。方法800可通过在非暂态计算机可读介质上记录合成流来记录CGR体验。图5A和图5B示出了形成合成流的示例。方法800可通过根据预先确定的实时流式传输格式对合成流进行编码来实时流式传输CGR体验。合成流可包括表示虚拟内容的3D几何形状或CGR体验的真实内容的三维(3D)模型。合成流可包括合成帧,其各自具有对应于单个时间点的时间戳n维图像。
方法800提供了许多有益效果。例如,通过由两个或更多个其他流形成合成流,该方法产生可容易地由其他用户或在稍后时间提供,存储或访问的内容。例如,集成在网页内的播放器应用程序可被配置为具有插件或其他功能以从合成流播放或重放CGR体验。合成流可提供具有已知格式的单个源,其从所记录/流式传输的CGR体验捕获丰富的信息。
本文阐述了许多具体细节以提供对要求保护的主题的全面理解。然而,本领域的技术人员将理解,可以在没有这些具体细节的情况下实践要求保护的主题。在其他实例中,没有详细地介绍普通技术人员已知的方法、装置或系统,以便不使要求保护的主题晦涩难懂。
除非另外特别说明,否则应当理解,在整个说明书中,利用诸如“处理”、“计算”、“计算出”、“确定”和“识别”等术语的论述是指计算设备的动作或过程,诸如一个或多个计算机或类似的电子计算设备,其操纵或转换表示为计算平台的存储器、寄存器或其他信息存储设备、传输设备或显示设备内的物理电子量或磁量的数据。
本文论述的一个或多个系统不限于任何特定的硬件架构或配置。计算设备可以包括部件的提供以一个或多个输入为条件的结果的任何合适的布置。合适的计算设备包括基于多用途微处理器的计算机系统,其访问存储的软件,该软件将计算系统从通用计算设备编程或配置为实现本发明主题的一种或多种具体实施的专用计算设备。可以使用任何合适的编程、脚本或其他类型的语言或语言的组合来在用于编程或配置计算设备的软件中实现本文包含的教导内容。
本文所公开的方法的具体实施可以在这样的计算设备的操作中执行。上述示例中呈现的框的顺序可以变化,例如,可以将框重新排序、组合或者分成子框。某些框或过程可以并行执行。
本文中“适用于”或“被配置为”的使用意味着开放和包容性的语言,其不排除适用于或被配置为执行额外任务或步骤的设备。另外,“基于”的使用意味着开放和包容性,因为“基于”一个或多个所述条件或值的过程、步骤、计算或其他动作在实践中可以基于额外条件或超出所述的值。本文包括的标题、列表和编号仅是为了便于解释而并非旨在为限制性的。
还将理解的是,虽然术语“第一”、“第二”等可能在本文中用于描述各种元素,但是这些元素不应当被这些术语限定。这些术语只是用于将一个元件与另一元件区分开。例如,第一节点可以被称为第二节点,并且类似地,第二节点可以被称为第一节点,其改变描述的含义,只要所有出现的“第一节点”被一致地重命名并且所有出现的“第二节点”被一致地重命名。第一节点和第二节点都是节点,但它们不是同一个节点。
本文中所使用的术语仅仅是为了描述特定具体实施并非旨在对权利要求进行限制。如在本具体实施的描述和所附权利要求中所使用的那样,单数形式的“一个”(“a”“an”)和“该”旨在也涵盖复数形式,除非上下文清楚地另有指示。还将理解的是,本文中所使用的术语“和/或”是指并且涵盖相关联的所列出的项目中的一个或多个项目的任何和全部可能的组合。还将理解的是,术语“包括”(“comprises”或“comprising”)本说明书中使用时是指定存在所陈述的特征、整数、步骤、操作、元件或部件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、部件或其分组。
如本文所使用的,术语“如果”可以被解释为表示“当所述先决条件为真时”或“在所述先决条件为真时”或“响应于确定”或“根据确定”或“响应于检测到”所述先决条件为真,具体取决于上下文。类似地,短语“如果确定[所述先决条件为真]”或“如果[所述先决条件为真]”或“当[所述先决条件为真]时”被解释为表示“在确定所述先决条件为真时”或“响应于确定”或“根据确定”所述先决条件为真或“当检测到所述先决条件为真时”或“响应于检测到”所述先决条件为真,具体取决于上下文。
本发明的前述描述和概述应被理解为在每个方面都是例示性和示例性的,而非限制性的,并且本文所公开的本发明的范围不仅由例示性具体实施的详细描述来确定,而是根据专利法允许的全部广度。应当理解,本文所示和所述的具体实施仅是对本发明原理的说明,并且本领域的技术人员可以在不脱离本发明的范围和实质的情况下实现各种修改。
Claims (20)
1.一种用于生成合成流的方法,包括:
在具有处理器的设备处:
获得包括渲染帧的第一数据流,所述渲染帧表示针对至少两个不同视点而在用户体验期间渲染的真实内容和虚拟内容;
获得第二数据流,所述第二数据流包括与所述用户体验相关的附加数据;
基于所述至少两个不同视点和与所述用户体验相关的所述附加数据来确定另一视点,所述另一视点是与在所述用户体验期间渲染的所述至少两个不同视点不同的视点;
通过基于确定的所述另一视点关联所述附加数据,来更新所述第二数据流的所述附加数据;以及
针对确定的所述另一视点和渲染的所述至少两个不同视点,
基于使所述第一数据流和所述第二数据流对齐,来生成所述用户体验的合成流,其中所述合成流包括针对确定的所述另一视点的所述第二数据流的更新的所述附加数据。
2.根据权利要求1所述的方法,其中所述第二数据流包括裁切的帧以及与用户视点相关联的所述用户体验的二维(2D)视图的帧流,所述裁切的帧各自通过识别所述用户体验的左眼视图和右眼视图的公共部分来形成。
3.根据权利要求1所述的方法,其中所述合成流包括合成帧,所述合成帧各自包括对应于单个时间点的时间戳n维图像。
4.根据权利要求1所述的方法,其中所述合成流使所述渲染帧内容与所述附加数据对齐,以记录多个时间点的内容。
5.根据权利要求1所述的方法,其中所述第二数据流是基于所述至少两个不同视点而获得的。
6.根据权利要求1所述的方法,还包括通过在非暂态计算机可读介质上记录所述合成流来记录所述用户体验。
7.根据权利要求1所述的方法,还包括通过根据预先确定的实时流式传输格式对所述合成流进行编码来实时流式传输所述用户体验。
8.根据权利要求1所述的方法,其中所述合成流包括表示所述虚拟内容或所述真实内容的三维(3D)几何形状的3D模型。
9.根据权利要求1所述的方法,还包括识别在所述用户体验期间产生音频的真实或虚拟音频源,其中所述合成流识别所述真实或虚拟音频源。
10.根据权利要求1所述的方法,其中所述附加数据包括与多个时间点中的单个时间点相关联的元数据。
11.根据权利要求10所述的方法,其中所述元数据识别所述用户体验的真实物理特性。
12.根据权利要求10所述的方法,其中所述元数据识别经由计算机实现的对象检测而检测到的人。
13.根据权利要求10所述的方法,其中所述元数据识别经由计算机实现的对象检测而检测到的用户的身体部位。
14.根据权利要求1所述的方法,其中所述附加数据包括来自与所述设备分开的第二设备的所述用户体验的第二渲染内容。
15.根据权利要求1所述的方法,其中所述虚拟内容由在提供所述用户体验的框架内执行的应用程序提供,其中所述应用程序具有所述框架的资源的独占使用。
16.根据权利要求1所述的方法,其中所述虚拟内容由在提供所述用户体验的框架内执行的应用程序提供,其中所述应用程序将所述框架的资源的使用与其他应用程序共享。
17.根据权利要求1所述的方法,还包括对所述渲染帧中的展开的中间凹图像施加逆变换以产生非中间凹图像,其中所述合成流包括所述非中间凹图像。
18.根据权利要求1所述的方法,其中所述设备为头戴式设备HMD、在与所述HMD相同的物理环境中通信地耦接到所述HMD的控制器、或在与所述HMD分开的物理环境中通信地耦接到所述HMD的服务器。
19.一种用于生成合成流的系统,包括:
非暂态计算机可读存储介质;以及
一个或多个处理器,所述一个或多个处理器耦接到所述非暂态计算机可读存储介质,其中所述非暂态计算机可读存储介质包括程序指令,所述程序指令在所述一个或多个处理器上执行时,使所述系统执行包括以下操作的操作:
获得包括渲染帧的第一数据流,所述渲染帧表示针对至少两个不同视点而在用户体验期间渲染的真实内容和虚拟内容;
获得第二数据流,所述第二数据流包括与所述用户体验相关的附加数据;
基于所述至少两个不同视点和与所述用户体验相关的所述附加数据来确定另一视点,所述另一视点是与在所述用户体验期间渲染的所述至少两个不同视点不同的视点;
通过基于确定的所述另一视点关联所述附加数据,来更新所述第二数据流的所述附加数据;以及
针对确定的所述另一视点和渲染的所述至少两个不同视点,基于使所述第一数据流和所述第二数据流对齐,来生成所述用户体验的合成流,其中所述合成流包括针对确定的所述另一视点的所述第二数据流的更新的所述附加数据。
20.一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储能够在计算机上执行以执行操作的程序指令,所述操作包括:
获得包括渲染帧的第一数据流,所述渲染帧表示针对至少两个不同视点而在用户体验期间渲染的真实内容和虚拟内容;
获得第二数据流,所述第二数据流包括与所述用户体验相关的附加数据;
基于所述至少两个不同视点和与所述用户体验相关的所述附加数据来确定另一视点,所述另一视点是与在所述用户体验期间渲染的所述至少两个不同视点不同的视点;
通过基于确定的所述另一视点关联所述附加数据,来更新所述第二数据流的所述附加数据;以及
针对确定的所述另一视点和渲染的所述至少两个不同视点,基于使所述第一数据流和所述第二数据流对齐,来生成所述用户体验的合成流,其中所述合成流包括针对确定的所述另一视点的所述第二数据流的更新的所述附加数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210229650.8A CN114615486B (zh) | 2018-08-06 | 2019-07-30 | 用于生成合成流的方法、系统和计算机可读存储介质 |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862714869P | 2018-08-06 | 2018-08-06 | |
US62/714,869 | 2018-08-06 | ||
CN202210229650.8A CN114615486B (zh) | 2018-08-06 | 2019-07-30 | 用于生成合成流的方法、系统和计算机可读存储介质 |
CN201910694857.0A CN110809149B (zh) | 2018-08-06 | 2019-07-30 | 用于计算机生成现实的媒体合成器 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910694857.0A Division CN110809149B (zh) | 2018-08-06 | 2019-07-30 | 用于计算机生成现实的媒体合成器 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114615486A CN114615486A (zh) | 2022-06-10 |
CN114615486B true CN114615486B (zh) | 2024-05-07 |
Family
ID=69228820
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910694857.0A Active CN110809149B (zh) | 2018-08-06 | 2019-07-30 | 用于计算机生成现实的媒体合成器 |
CN202210229650.8A Active CN114615486B (zh) | 2018-08-06 | 2019-07-30 | 用于生成合成流的方法、系统和计算机可读存储介质 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910694857.0A Active CN110809149B (zh) | 2018-08-06 | 2019-07-30 | 用于计算机生成现实的媒体合成器 |
Country Status (2)
Country | Link |
---|---|
US (2) | US11308696B2 (zh) |
CN (2) | CN110809149B (zh) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11449189B1 (en) * | 2019-10-02 | 2022-09-20 | Facebook Technologies, Llc | Virtual reality-based augmented reality development system |
US11347371B2 (en) * | 2019-11-25 | 2022-05-31 | Unity Technologies ApS | Automatic translation of user interface elements from wireframe tools to production augmented reality framework |
US11521359B2 (en) * | 2020-04-17 | 2022-12-06 | Apple Inc. | Extended reality recorder |
WO2022055650A1 (en) * | 2020-09-14 | 2022-03-17 | Sterling Labs Llc | Content playback and modifications in a 3d environment |
US11533351B2 (en) * | 2020-09-24 | 2022-12-20 | Apple Inc. | Efficient delivery of multi-camera interactive content |
US11798235B1 (en) | 2020-10-16 | 2023-10-24 | Splunk Inc. | Interactions in networked remote collaboration environments |
US11546437B1 (en) | 2020-10-16 | 2023-01-03 | Splunk Inc. | Playback of a stored networked remote collaboration session |
US11776218B1 (en) * | 2020-10-16 | 2023-10-03 | Splunk Inc. | Networked remote collaboration system |
US11727643B1 (en) | 2020-10-16 | 2023-08-15 | Splunk Inc. | Multi-environment networked remote collaboration system |
CN113094019A (zh) * | 2021-04-30 | 2021-07-09 | 咪咕文化科技有限公司 | 交互方法、装置、电子设备及存储介质 |
US20230217201A1 (en) * | 2022-01-03 | 2023-07-06 | Meta Platforms Technologies, Llc | Audio filter effects via spatial transformations |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102450010A (zh) * | 2009-04-20 | 2012-05-09 | 杜比实验室特许公司 | 定向内插和数据后处理 |
CN105611267A (zh) * | 2014-11-21 | 2016-05-25 | 罗克韦尔柯林斯公司 | 现实世界和虚拟世界图像基于深度和色度信息的合并 |
CN105981076A (zh) * | 2013-11-05 | 2016-09-28 | 微软技术许可有限责任公司 | 合成增强现实环境的构造 |
CN106575158A (zh) * | 2014-09-08 | 2017-04-19 | 英特尔公司 | 环境映射虚拟化机构 |
CN107305435A (zh) * | 2016-04-18 | 2017-10-31 | 迪斯尼企业公司 | 在增强现实和虚拟现实环境之间链接和交互的系统和方法 |
CN107333122A (zh) * | 2017-06-27 | 2017-11-07 | 山东大学 | 一种投影式多画立体显示播放系统及方法 |
US9871994B1 (en) * | 2016-01-19 | 2018-01-16 | Gopro, Inc. | Apparatus and methods for providing content context using session metadata |
CN107667331A (zh) * | 2015-05-28 | 2018-02-06 | 微软技术许可有限责任公司 | 共享空间多人沉浸式虚拟现实中的共享触觉交互和用户安全 |
WO2018076038A1 (en) * | 2016-10-31 | 2018-05-03 | Victoria Link Limited | A rendering process and system |
CN108021229A (zh) * | 2016-10-31 | 2018-05-11 | 迪斯尼企业公司 | 通过脱机计算记录高保真度数字沉浸式体验 |
CN108369457A (zh) * | 2016-02-16 | 2018-08-03 | 微软技术许可有限责任公司 | 用于混合现实的现实混合器 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080002878A1 (en) * | 2006-06-28 | 2008-01-03 | Somasundaram Meiyappan | Method For Fast Stereo Matching Of Images |
JP5073065B2 (ja) | 2009-01-15 | 2012-11-14 | 三菱電機株式会社 | 衝突判定装置および衝突判定プログラム |
US10136165B2 (en) * | 2011-09-14 | 2018-11-20 | Mobitv, Inc. | Distributed scalable encoder resources for live streams |
US9030583B2 (en) * | 2011-09-21 | 2015-05-12 | Semiconductor Components Industries, Llc | Imaging system with foveated imaging capabilites |
CN103258339A (zh) | 2012-02-16 | 2013-08-21 | 克利特股份有限公司 | 基于实况记录和基于计算机图形的媒体流的实时合成 |
US10137361B2 (en) * | 2013-06-07 | 2018-11-27 | Sony Interactive Entertainment America Llc | Systems and methods for using reduced hops to generate an augmented virtual reality scene within a head mounted system |
WO2015123775A1 (en) | 2014-02-18 | 2015-08-27 | Sulon Technologies Inc. | Systems and methods for incorporating a real image stream in a virtual image stream |
US9947139B2 (en) * | 2014-06-20 | 2018-04-17 | Sony Interactive Entertainment America Llc | Method and apparatus for providing hybrid reality environment |
WO2016004240A1 (en) * | 2014-07-03 | 2016-01-07 | Mobiledirect, Inc. | Interactive distributed multimedia system |
US9530426B1 (en) * | 2015-06-24 | 2016-12-27 | Microsoft Technology Licensing, Llc | Filtering sounds for conferencing applications |
US10127725B2 (en) * | 2015-09-02 | 2018-11-13 | Microsoft Technology Licensing, Llc | Augmented-reality imaging |
US10332317B2 (en) * | 2016-10-25 | 2019-06-25 | Microsoft Technology Licensing, Llc | Virtual reality and cross-device experiences |
US11451689B2 (en) * | 2017-04-09 | 2022-09-20 | Insoundz Ltd. | System and method for matching audio content to virtual reality visual content |
US10541005B2 (en) * | 2017-05-17 | 2020-01-21 | Cypress Semiconductor Corporation | Distributed and synchronized control system for environmental signals in multimedia playback |
CN110770796B (zh) * | 2017-06-05 | 2024-03-15 | 谷歌有限责任公司 | 平稳变化的中央凹型渲染 |
CN107424262A (zh) * | 2017-07-05 | 2017-12-01 | 泽优物联(天津)科技发展有限公司 | 一种基于增强现实技术的访客识别系统 |
-
2019
- 2019-07-30 CN CN201910694857.0A patent/CN110809149B/zh active Active
- 2019-07-30 CN CN202210229650.8A patent/CN114615486B/zh active Active
- 2019-08-06 US US16/533,053 patent/US11308696B2/en active Active
-
2022
- 2022-03-14 US US17/693,881 patent/US11804019B2/en active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102450010A (zh) * | 2009-04-20 | 2012-05-09 | 杜比实验室特许公司 | 定向内插和数据后处理 |
CN105981076A (zh) * | 2013-11-05 | 2016-09-28 | 微软技术许可有限责任公司 | 合成增强现实环境的构造 |
CN106575158A (zh) * | 2014-09-08 | 2017-04-19 | 英特尔公司 | 环境映射虚拟化机构 |
CN105611267A (zh) * | 2014-11-21 | 2016-05-25 | 罗克韦尔柯林斯公司 | 现实世界和虚拟世界图像基于深度和色度信息的合并 |
CN107667331A (zh) * | 2015-05-28 | 2018-02-06 | 微软技术许可有限责任公司 | 共享空间多人沉浸式虚拟现实中的共享触觉交互和用户安全 |
US9871994B1 (en) * | 2016-01-19 | 2018-01-16 | Gopro, Inc. | Apparatus and methods for providing content context using session metadata |
CN108369457A (zh) * | 2016-02-16 | 2018-08-03 | 微软技术许可有限责任公司 | 用于混合现实的现实混合器 |
CN107305435A (zh) * | 2016-04-18 | 2017-10-31 | 迪斯尼企业公司 | 在增强现实和虚拟现实环境之间链接和交互的系统和方法 |
WO2018076038A1 (en) * | 2016-10-31 | 2018-05-03 | Victoria Link Limited | A rendering process and system |
CN108021229A (zh) * | 2016-10-31 | 2018-05-11 | 迪斯尼企业公司 | 通过脱机计算记录高保真度数字沉浸式体验 |
CN107333122A (zh) * | 2017-06-27 | 2017-11-07 | 山东大学 | 一种投影式多画立体显示播放系统及方法 |
Non-Patent Citations (1)
Title |
---|
增强现实技术综述;侯颖;计算机测量与控制;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN110809149A (zh) | 2020-02-18 |
US20200043237A1 (en) | 2020-02-06 |
US11804019B2 (en) | 2023-10-31 |
CN114615486A (zh) | 2022-06-10 |
US20220207842A1 (en) | 2022-06-30 |
CN110809149B (zh) | 2022-02-25 |
US11308696B2 (en) | 2022-04-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114615486B (zh) | 用于生成合成流的方法、系统和计算机可读存储介质 | |
JP6967043B2 (ja) | 3次元コンテンツ内の場所に基づく仮想要素モダリティ | |
US10127725B2 (en) | Augmented-reality imaging | |
CN111880644A (zh) | 多用户即时定位与地图构建(slam) | |
CN108292444A (zh) | 更新混合现实缩略图 | |
US11580652B2 (en) | Object detection using multiple three dimensional scans | |
US20190371072A1 (en) | Static occluder | |
CN112116716A (zh) | 基于检测到的对象来定位的虚拟内容 | |
CN117115399A (zh) | 用于与所识别的对象相关联地呈现合成现实内容的方法和设备 | |
US20200082576A1 (en) | Method, Device, and System for Delivering Recommendations | |
CN111602391B (zh) | 用于根据物理环境定制合成现实体验的方法和设备 | |
CN112106020B (zh) | 用于合成现实布景的声音处理的方法和设备 | |
CN113678173A (zh) | 用于虚拟对象的基于图绘的放置的方法和设备 | |
US11468611B1 (en) | Method and device for supplementing a virtual environment | |
CN112654951A (zh) | 基于现实世界数据移动头像 | |
US11308716B1 (en) | Tailoring a computer-generated reality experience based on a recognized object | |
US20230281933A1 (en) | Spatial video capture and replay | |
US10964056B1 (en) | Dense-based object tracking using multiple reference images | |
US11593995B1 (en) | Populating a graphical environment | |
US20240013487A1 (en) | Method and device for generating a synthesized reality reconstruction of flat video content | |
US20200387712A1 (en) | Method and device for generating a synthesized reality reconstruction of flat video content | |
JP2022532864A (ja) | 環境に基づく通信データの提示 | |
CN113994386A (zh) | 生成物理布景的空间特征的自适应虚拟内容 | |
CN115769271A (zh) | 3d照片 | |
CN112465988A (zh) | 具有实例检测的对象检测以及一般场景理解 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |