CN110313187B - 处理媒体内容以供第一装置再现的方法、系统和装置 - Google Patents

处理媒体内容以供第一装置再现的方法、系统和装置 Download PDF

Info

Publication number
CN110313187B
CN110313187B CN201880011958.7A CN201880011958A CN110313187B CN 110313187 B CN110313187 B CN 110313187B CN 201880011958 A CN201880011958 A CN 201880011958A CN 110313187 B CN110313187 B CN 110313187B
Authority
CN
China
Prior art keywords
media content
rendered
content
audio content
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201880011958.7A
Other languages
English (en)
Other versions
CN110313187A (zh
Inventor
C·费尔施
N·R·廷哥斯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dolby International AB
Dolby Laboratories Licensing Corp
Original Assignee
Dolby International AB
Dolby Laboratories Licensing Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dolby International AB, Dolby Laboratories Licensing Corp filed Critical Dolby International AB
Priority to CN202210529511.7A priority Critical patent/CN114895785A/zh
Priority to CN202210529499.XA priority patent/CN115097930A/zh
Priority claimed from PCT/US2018/037887 external-priority patent/WO2018232327A1/en
Publication of CN110313187A publication Critical patent/CN110313187A/zh
Application granted granted Critical
Publication of CN110313187B publication Critical patent/CN110313187B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • A63F13/355Performing operations on behalf of clients with restricted processing capabilities, e.g. servers transform changing game scene into an encoded video stream for transmitting to a mobile phone or a thin client
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/54Controlling the output signals based on the game progress involving acoustic signals, e.g. for simulating revolutions per minute [RPM] dependent engine sounds in a driving game or reverberation against a virtual wall
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/131Protocols for games, networked simulations or virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/01Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/11Application of ambisonics in stereophonic audio systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Stereophonic System (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Cardiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)

Abstract

本发明涉及用于处理媒体内容以供第一装置再现的系统、方法和装置。所述方法包括获得指示用户的位置和/或取向的姿势信息。将所述姿势信息传输到提供所述媒体内容的第二装置。基于所述姿势信息来渲染所述媒体内容以获得经渲染的媒体内容。将所述经渲染的媒体内容传输到所述第一装置以进行再现。本发明可以包括用于再现媒体内容的第一装置和存储所述媒体内容的第二装置。所述第一装置被配置为获得姿势信息指示并将所述姿势信息传输到所述第二装置;并且所述第二装置适用于:基于所述姿势信息来渲染所述媒体内容以获得经渲染的媒体内容;将所述经渲染的媒体内容传输到所述第一装置以进行再现。

Description

处理媒体内容以供第一装置再现的方法、系统和装置
相关申请的交叉引用
本申请要求2018年6月5日提交的美国临时申请号62/680,678、均于2017年6月15日提交的美国临时申请号62/519,952和欧洲专利申请号17176248.7的优先权,所有这些申请都通过引用以其全文并入本文。
技术领域
本公开涉及计算机介导的现实应用,例如虚拟现实(VR)应用、增强现实(AR)应用和混合现实(MR)应用。这些应用可以包括但不限于客户端/接收方双耳化和非双耳化的音频应用和视频应用。
背景技术
计算机介导的现实空间(例如,VR、AR和MR空间)中的应用和产品正在快速发展而包括声源和场景的越来越精细的声学模型。并非刻意进行限制,将在本文档的其余部分中提及VR、AR和MR。为了优化计算机介导的现实体验,优选的是使用户移动(例如,头部移动)与对适应于该移动的声音(经渲染的声音)的感知之间的延迟最小化。这种延迟也被称为运动到声音时延或运动到耳朵迟延。另外,还希望最小化对公共接收方设备(如智能电话)的声音进行解码和渲染所需的指令的数量,其中,重要的是优化计算复杂性和功耗。例如对于非通信情况,当传输整个音频场景时,重点在于接收方的渲染时延。例如,线性应用(例如,电影)不会动态地对用户的动作作出反应。然而,对于交互式内容,将必须解决所有累积的往返时延(例如,如果用户触发需要发送回服务器进行渲染的事件)。在消耗内容之前,应该以足够的前置时间对动态变化的内容进行编码,使得用户不会识别到运动与运动产生的效果之间的时延,并且内容的音频与视频之间不存在未校准。在线性应用的情况下,对于运动到声音时延,不考虑编码和解码时延,因为用户移动(位置和/或取向)不影响内容本身。相反,这些移动仅影响观看内容时的视角。因此,对于线性内容,用户移动仅影响渲染,而不影响对输出声音的编码和/或解码。通信情况却不同,因为系统只能在内容(例如,语音)发生时才开始编码、传输和解码媒体。这同样适用于交互式内容(例如,来自游戏引擎)由云中的远程服务器实时渲染和编码的情况。另外,视频和音频系统的整体时延是相同的是非常重要的,因为差异可能导致晕动病。因此,取决于视频系统的时延,需要实现相似水平的音频系统的时延。
发明内容
本文档解决了常见AR、VR和MR系统需要太高时延和太高计算复杂性要求来提供引人注目的体验的技术问题。为了解决该问题,本文档提出了一种处理媒体内容的方法、一种用于处理媒体内容的系统以及相应的装置,所述方法、系统和装置具有相应的独立权利要求的特征。
本公开的一方面涉及一种处理媒体内容以供第一装置再现的方法。例如,第一装置可以是接收方、接收方装置或重放装置中的一种。例如,所述第一装置可以对应于、包括AR/VR/MR设备(例如,AR/VR/MR头戴式设备)或结合AR/VR/MR设备进行操作。如此,第一装置可以包括用于再现媒体内容的再现设备(例如,扬声器、头戴式耳机)和耦接到再现设备的处理器。媒体内容可以是或包括音频内容和/或视频内容。处理可以涉及或对应于渲染。再现可以涉及或对应于重放。所述方法可以包括获得指示用户的位置和/或取向的姿势信息。获得姿势信息可以在第一装置处执行。用户可以是第一装置的用户。例如,姿势信息可以与用户的头部有关。所述姿势信息可以通过可被布置成与用户配准的传感器(例如,姿势传感器)获得。因此,姿势信息可以被称为传感器数据。姿势信息可以进一步包括姿势的一个或多个一阶导数和/或姿势的一个或多个二阶导数。例如,用户可以佩戴AR/VR/MR设备。所述方法可以进一步包括将姿势信息传输到提供(例如,存储、中继)媒体内容的第二装置。例如,第二装置可以是发送方装置、服务器装置或内容传递装置中的一种。第二装置可以是用于向第一装置提供媒体内容的装置。第一装置和第二装置可以在空间上彼此分开。所述方法可以进一步包括基于姿势信息来渲染媒体内容以获得经渲染的媒体内容。渲染可以在第二装置处执行。经渲染的媒体内容可以称为预渲染的媒体内容。例如,在音频内容的情况下,渲染可以是渲染到两个或更多个声道。所述方法可以进一步包括将经渲染的媒体内容传输到第一装置以进行再现。传输经渲染的媒体内容可以由第二装置执行。所述方法还可以进一步包括(通过第一装置)再现(例如,重放)经渲染的媒体内容。
如果仅需要传输经渲染的媒体内容,则用于无损数据传输的传输比特率可以与完整媒体内容的压缩版本的比特率类似或相当。因此,在所提出的方法的上下文中可能不需要压缩。传输未压缩或无损媒体流将消除或减少因编码和解码而导致的时延。例如,由编码/解码产生的时延可以减少到零,这将导致运动到耳朵时延和/或运动到眼睛时延的整体减少。此外,当不对预渲染的媒体内容进行压缩时,第一装置(接收方)可以输出音频/视频而无需进行解码或渲染。这将导致接收方处的计算复杂性降低,因为不需要执行解码和/或在发送方侧已经完成了渲染。因此,所提出的方法允许减少运动到耳朵时延和/或运动到眼睛时延,并且进一步允许降低接收方侧的计算复杂性。
在一些实施例中,媒体内容可以包括音频内容,并且经渲染的媒体内容可以包括经渲染的音频内容。可替代地或另外地,媒体内容可以包括视频内容,并且经渲染的媒体内容可以包括经渲染的视频内容。
在一些实施例中,媒体内容可以包括音频内容,并且经渲染的媒体内容可以包括经渲染的音频内容。然后,所述方法可以进一步包括生成经渲染的音频内容的听觉(例如,声学)表示。生成听觉表示可以在第一装置处执行。例如,在音频内容的情况下,可以经由第一装置的两个或更多个扬声器来执行所述生成。
在一些实施例中,音频内容可以是基于一阶高保真度立体声响复制(FOA)的音频内容、基于更高阶高保真度立体声响复制(HOA)的音频内容、基于对象的音频内容、或基于声道的音频内容中的一种,或者是基于FOA的音频内容、基于HOA的音频内容、基于对象的音频内容、或基于声道的音频内容中的两种或更多种的组合。
在一些实施例中,经渲染的音频内容可以是双耳音频内容、FOA音频内容、HOA音频内容、或基于声道的音频内容中的一种,或者是双耳音频内容、FOA音频内容、HOA音频内容、或基于声道的音频内容中的两种或更多种的组合。
在一些实施例中,渲染可以涉及基于姿势信息并且进一步基于先前姿势信息和/或一个或多个一阶导数和/或二阶导数来获得预测的姿势信息。预测的姿势信息可以是未来定时的姿势信息。先前姿势信息可以是在先前定时已经在第一装置处获得或从第一装置接收的姿势信息。预测可以在第二装置处执行。可替代地,预测可以在第一装置处执行。在后一种情况下,第一装置可以将预测的姿势信息传输到第二装置。渲染可以进一步涉及基于预测的姿势信息来渲染媒体内容以获得经渲染的媒体内容。
通过考虑预测的姿势信息,可以解决可能由对经渲染的媒体内容进行编码/解码和/或将经渲染的媒体内容传输到第一装置而导致的延迟。换言之,对于适当预测的姿势信息,可以隐藏所述延迟,使得用户不会意识到该延迟并且可能不会察觉到音频、视频与移动之间的任何不匹配。
在一些实施例中,所述方法可以进一步包括将预测的姿势信息与经渲染的媒体内容一起传输到第一装置。
这使得第一装置能够检查预测的姿势信息(即,在这种情况下是已经用于渲染媒体内容的姿势信息)是否与实际/当前姿势信息(即,当前在第一装置处获得的姿势信息)相同(或基本相同),并且如果在预测的姿势信息与实际/当前姿势信息之间存在不匹配,则适当地适配经渲染的媒体内容。
在一些实施例中,所述方法可以进一步包括将预测的姿势信息与实际姿势信息进行比较。所述方法还可以进一步包括基于比较的结果更新经渲染的媒体内容。所述比较和所述更新可以在第一装置处执行。例如,实际姿势信息可以是在第一装置再现经渲染的媒体内容的定时(例如,在所述定时获得)的姿势信息。更新可以例如基于预测的姿势信息与实际姿势信息之间的差异来执行。所述更新可以涉及例如通过旋转、级别改变和/或盲上混(blind upmixing)对经渲染的媒体内容进行外推。
在一些实施例中,预测的姿势信息可以被预测来对预期要由第一装置处理经渲染的媒体内容以进行再现的定时进行估计。第一装置对经渲染的媒体内容的处理可以涉及再现(例如,重放)经渲染的媒体内容。实际姿势信息(例如,当前姿势信息)可以是在第一装置实际处理经渲染的媒体内容以进行再现的定时获得的姿势信息。实际姿势信息可以在第一装置实际处理经渲染的媒体内容的定时获得。
因此,可以解决预测的姿势信息与实际姿势信息之间的任何不匹配,从而更好地使经渲染的媒体内容适应用户的姿势(例如,用户头部的姿势)并且避免对于用户而言所感知的音频/视频场景与预期的音频/视频场景之间的任何差异。由于预期预测的姿势信息与实际姿势信息之间的不匹配将很小,因此可以以可管理的计算复杂性将这种适配安全地委托给第一装置。
在一些实施例中,可以以未压缩的形式将经渲染的媒体内容传输到第一装置。
这使得能够降低第一装置(接收方)处的计算复杂性,并且还减少了姿势的变化与已经根据变化的姿势渲染的媒体内容的再现之间的往返延迟。
在一些实施例中,所述方法可以进一步包括在传输到第一装置之前对经渲染的媒体内容进行编码(例如,压缩)。所述方法还可以进一步包括在第一装置处接收之后对经编码的经渲染媒体内容进行解码(例如,解压缩)。编码/解码可以涉及或对应于对经渲染的媒体内容进行压缩/解压缩。编码/解码可以是低延迟编码/解码。
在一些实施例中,对预期要由第一装置处理经渲染的媒体内容以进行再现的定时的估计可以包括:对编码和解码经渲染的音频内容所需的时间的估计和/或对将经渲染的媒体内容传输到第一装置所需的时间的估计。
在一些实施例中,预测的姿势信息可以进一步基于对编码和解码经渲染的媒体内容所需的时间的估计和/或对将经渲染的媒体内容传输到第一装置所需的时间的估计来获得。
因此,可以在用户不会意识到由编码/解码和/或传输导致的延迟的意义上隐藏这些延迟。
在一些实施例中,所述方法可以进一步包括将已经用于渲染媒体内容的姿势信息与当前姿势信息进行比较。例如,当前姿势信息可以是在再现经渲染的媒体内容时获得的姿势信息。所述方法还可以进一步包括基于比较的结果更新经渲染的媒体内容。更新可以基于已经用于渲染媒体内容的姿势信息与当前姿势信息之间的差异来执行。所述更新可以涉及例如通过旋转、级别改变和/或盲上混对经渲染的媒体内容进行外推。
在一些实施例中,所述方法可以进一步包括在第二装置处确定指示经渲染的媒体内容如何响应于姿势信息的变化(例如,姿势的变化)而变化的梯度信息。梯度信息可以指示(对于音频内容)响应于用户(例如,用户的头部)的平移和/或旋转而引起的(例如,每个声道的)子带能级的变化。所述方法可以进一步包括将梯度信息与经渲染的媒体内容一起传输到第一装置。所述方法可以进一步包括在第一装置处将已经用于渲染媒体内容的姿势信息与当前姿势信息进行比较。已经(由第二装置)用于渲染媒体内容的姿势信息可以与经渲染的媒体内容一起传输到第一装置。在该姿势信息没有与经渲染的媒体内容一起被发送到第一装置的情况下,第一装置可以参考它已经发送到第二装置的姿势信息。例如,当前姿势信息可以是在再现经渲染的媒体内容时获得的姿势信息。所述方法还可以进一步包括基于梯度信息和比较的结果更新经渲染的媒体内容。更新经渲染的媒体内容可以基于已经用于渲染媒体内容的姿势信息与当前姿势信息之间的差异来执行。所述更新可以涉及例如通过旋转、级别改变和/或盲上混对经渲染的媒体内容进行外推。
因此,可以校正姿势信息的预测中的小缺陷,并且可以避免姿势与再现的媒体内容之间的任何不匹配。
在一些实施例中,媒体内容可以包括音频内容,并且经渲染的媒体内容可以包括经渲染的音频内容。然后,所述方法可以进一步包括将指示第一装置所处的环境的声学特性的环境信息传输到第二装置。在这种情况下,渲染媒体内容可以进一步基于环境信息。环境信息可以包括房间特性和/或双耳房间脉冲响应(BRIR)函数。
这使得能够使再现的媒体内容专门适应用户所处的特定环境,从而增强用户对计算机介导的现实的体验。
在一些实施例中,媒体内容可以包括音频内容,并且经渲染的媒体内容可以包括经渲染的音频内容。然后,所述方法可以进一步包括将指示用户或用户的一部分的形貌的形貌信息传输到第二装置。在这种情况下,渲染媒体内容可以进一步基于形貌信息。形貌可以包括或对应于形状或大小,例如,用户头部的形状或大小。形貌信息可以包括头部相关传递函数(HRTF)。渲染可以是双耳渲染。
这使得能够使再现的媒体内容专门适应用户或用户的一部分的特定形貌,从而增强用户对计算机介导的现实的体验。
本公开的进一步方面涉及根据(例如,实施)上述方面及其实施例的第一装置、第二装置、以及第一装置和第二装置的系统。
因此,本公开的另一方面涉及一种系统,所述系统包括用于再现媒体内容的第一装置和存储媒体内容的第二装置。第一装置可以适用于(被配置为)获得指示用户的位置和/或取向的姿势信息。第一装置可以进一步适用于(被配置为)将姿势信息传输到第二装置。第二装置可以适用于(被配置为)基于姿势信息来渲染媒体内容以获得经渲染的媒体内容。第二装置可以进一步适用于(被配置为)将经渲染的媒体内容传输到第一装置以进行再现。例如,第一装置和第二装置可以包括相应的处理器(或相应的处理器组)和耦接到相应处理器(或相应的处理器组)的存储器。处理器可以适用于(被配置为)执行上述操作。
本公开的另一方面涉及用于提供媒体内容以供第一装置再现的第二装置。第二装置可以适用于(被配置为)接收指示第一装置的用户的位置和/或取向的姿势信息。第二装置可以进一步适用于(被配置为)基于姿势信息来渲染媒体内容以获得经渲染的媒体内容。第二装置还可以进一步适用于(被配置为)将经渲染的媒体内容传输到第一装置以进行再现。例如,第二装置可以包括处理器(或处理器组)和耦接到处理器(或处理器组)的存储器。处理器(或处理器组)可以适用于(被配置为)执行上述操作。
本公开的另一方面涉及用于再现由第二装置提供的媒体内容的第一装置。第一装置可以适用于(被配置为)获得指示第一装置的用户的位置和/或取向的姿势信息。第一装置可以进一步适用于(被配置为)将姿势信息传输到第二装置。第一装置可以进一步适用于(被配置为)从第二装置接收经渲染的媒体内容。可以通过基于姿势信息渲染媒体内容来获得经渲染的媒体内容。第一装置可以进一步适用于(被配置为)再现经渲染的媒体内容。例如,第一装置可以包括处理器(或处理器组)和耦接到处理器(或处理器组)的存储器。处理器(或处理器组)可以适用于(被配置为)执行上述操作。
应当注意,关于方法做出的任何陈述同样适用于在这些方法/系统中使用的相应系统和装置,并且反之亦然。
本公开的又进一步方面涉及被配置为执行用于渲染音频内容的方法的系统、装置、方法和计算机可读存储介质,所述用于渲染音频内容的方法包括由发送方(S)装置接收用户位置和/或取向数据并发送通常由基于对象或FOA/HOA表示得到的相应的预渲染内容。由发送方生成的预渲染信号可以是双耳、FOA、HOA或任何类型的基于声道的渲染。所述方法可以进一步包括传输未压缩的预渲染内容。所述方法可以进一步包括对预渲染的内容进行编码并传输经编码的预渲染内容。所述方法可以进一步包括由接收方接收预渲染的内容。所述方法可以进一步包括由接收方对预渲染的、预编码的双耳化内容进行解码。用户位置和/或取向数据可以包括指示用户在世界空间中的位置和取向的本地姿势。用户位置数据可以从接收方传输到发送方。所述方法可以进一步包括将用于预渲染的双耳化内容的用户位置数据传输回接收方。所述方法可以进一步包括基于所接收的用户位置数据和本地位置数据来外推预渲染的内容以确定更新的内容。所述方法可以进一步包括传输关于用户的形貌数据(例如,头部大小)以用于个性化双耳处理。所述方法可以进一步包括传输关于BRIR和房间表征的数据。所述方法可以进一步包括:基于确定内容以收听者不可知的方式(例如,不包括HRTF)传输而在接收方侧执行双耳渲染和个性化。所述方法可以进一步包括在时间点t1提供用户位置和/或取向数据P(t0)。未压缩的预渲染内容可以是双耳化的、未压缩的预渲染内容。
附图说明
下文参考附图解释本公开的示例性实施例,在附图中:
图1图示了接收方的第一示例;
图2图示了接收方的第二示例;
图3图示了接收方和服务器系统的第一示例;
图4图示了发送方和接收方系统的第二示例;
图5图示了发送方和接收方系统的第三示例;
图6图示了发送方和接收方系统的第四示例;
图7图示了处理媒体内容的方法的第一示例;
图8图示了处理媒体内容的方法的第二示例;
图9图示了处理媒体内容的方法的第三示例;并且
图10图示了处理媒体内容的方法的第四示例。
具体实施方式
如本领域技术人员将理解的,完全沉浸在虚拟世界中“欺骗”一个人的大脑相信所感知的内容。当视线受到视野的限制时,声音增加了不可见的维度(例如,从后面冲过来的公牛、在右边的响尾蛇、甚至是从左耳、头部后面移动到右耳的耳语(whisper))。因此,内容创作者可以利用声音来引导用户的注视,并且因此有效地讲述故事。通过基于对象或基于一阶/高阶高保真度立体声响复制(ambisonic)(FOA/HOA)的声音创作、封装和内容回放,如今正在电影院和家庭影院中提供沉浸式音频体验。VR声音需要声音精度才能完全沉浸在虚拟世界中。VR内容的创作者需要在三维空间中创作基于对象和/或基于HOA的声音的能力。此外,需要以允许用户享受内容的精度和效率对这样的内容进行编码、传递、解码和双耳地渲染(在头戴式耳机上或通过扬声器)。
接收方可以基于各种参数(例如,带宽和媒体比特率)来选择内容的媒体格式表示,诸如经由MPEG-DASH或MPEG-MMT格式传递的过顶(OTT)内容。接收方还可以接收关于媒体消耗的信息。媒体格式表示的选择可以基于这种媒体消耗。例如,可以基于头戴式耳机或立体声扬声器(例如,具有串扰消除)输出的指示来选择预渲染的双耳化数据。
本文描述的示例性实施例描述了适用于处理媒体内容(例如,渲染音频内容)的方法、装置和过程。尽管示例性实施例总体上涉及处理媒体内容(例如,包括音频内容和/或视频内容),但是本文档的其余部分中参考了音频内容,而非刻意进行限制。
图1图示了用于进行双耳渲染的接收方/客户端系统100的示例。系统100可以接收音频输入101。音频输入101可以包括包含在来自发送方的编码比特流中的全部场景。接收方系统100可以接收或检测与用户移动和/或用户头部取向有关的传感器数据(姿势信息)110。传感器数据110可以包括关于取向和位置的信息,如例如偏航、俯仰、滚动和/或(x,y,z)坐标。接收方系统100可以进一步包括解码器102,所述解码器可以将音频输入101解码为未压缩的音频和/或元数据120。接收方系统100可以进一步包括渲染器103,所述渲染器可以将未压缩的音频和/或元数据120渲染到双耳输出150。接收方系统100可以将双耳输出150输出到例如头戴式耳机输出。
图1中图示的接收方/客户端系统100可能存在与本文档开头部分描述的时延和/或计算复杂性有关的问题。
为了解决这些问题,本公开在用于处理媒体内容(例如,包括音频和/或视频内容)的系统中提出在接收方处获得用户的姿势信息、将姿势信息传输到发送方、基于姿势信息来渲染媒体内容、并将经渲染的媒体内容传输到接收方。因此,可以显著降低要在接收方侧执行的操作的计算复杂性。进一步地,经渲染的媒体内容可以以未压缩的形式传输,这可以减少姿势的变化(例如,头部移动)与对适应于这种姿势变化的再现媒体内容的感知(例如,声音的感知)之间的延迟。
图7是示意性地图示了根据上述考虑因素的处理媒体内容的方法700的示例的流程图。媒体内容可以包括音频内容和/或视频内容。音频内容可以例如是基于FOA的音频内容、基于HOA的音频内容、基于对象的音频内容、基于声道的音频内容、或其组合。对媒体内容的处理可以涉及渲染媒体内容。所述方法可以在包括用于再现媒体内容的第一装置和用于提供媒体内容的第二装置的系统中执行。再现媒体内容可以涉及重放媒体内容。例如,第一装置可以被称为接收方、接收方装置、客户端、客户端装置、或重放装置。例如,第一装置可以包括、对应于计算机介导的现实(例如,VR、AR、MR)设备(如VR/AR/MR头戴式设备(例如,护目镜))或结合计算机介导的现实设备进行操作,并且可以与用户相关联。用户可以佩戴计算机介导的现实设备。第一装置可以包括或(通信地)耦接到用于检测用户或用户的一部分(例如,用户的头部)的姿势(例如,位置和/或取向)的传感器(例如,姿势传感器)。传感器可以进一步检测姿势的变化率((多个)一阶导数,例如速度、角速度/多个角速度、(多个)偏航/滚动/俯仰速率)。传感器还可以进一步检测变化率的变化率((多个)二阶导数,例如,加速度、(多个)角加速度)。由传感器输出的传感器数据可以被称为姿势信息。应当理解,姿势信息通常指示用户或用户的一部分(例如,用户的头部)的位置和/或取向(姿势)。进一步地,姿势信息可以指示姿势的一个或多个变化率(一阶导数)。又进一步地,姿势信息可以指示变化率的一个或多个变化率(二阶导数),例如,姿势的一个或多个变化率的变化率。传感器可以被布置成与用户或用户的相关部分(例如,头部)配准,例如作为计算机介导的现实设备的一部分(例如,VR/AR/MR头戴式设备/护目镜)、或作为由用户携带的移动(计算)设备(例如,智能电话、游戏控制器)的一部分。在这种情况下,传感器可以被称为嵌入式传感器。可替代地,传感器可以设置有保持跟踪用户(或用户的一部分)的姿势的位置服务器(例如,在OptiTrack系统或OptiTrack型系统中)或由所述位置服务器实施。通常,传感器可以是保持跟踪用户(或用户的一部分)的姿势的跟踪系统的一部分或由所述跟踪系统实施。这种位置服务器还可以保持跟踪多于一个用户的姿势。例如,第二装置可以被称为发送方、发送方装置、服务器、服务器装置或内容传递装置。第一装置和第二装置中的每一个都可以包括耦接到相应的存储器并且适用于(被配置为)执行下文阐述的相应操作的处理器(或处理器组)。例如,所述处理器(或处理器组)可以适用于(被配置为)执行下文描述的方法700的相应步骤。可替代地或另外地,所述处理器(或处理器组)可以适用于(被配置为)执行以下进一步描述的方法800、方法900和方法1000中的任何一个方法的相应步骤。
步骤S710处,获得(例如,确定)指示用户(或用户的一部分,例如用户的头部)的位置和/或取向的姿势信息。该操作可以例如借助于传感器(例如,姿势传感器)来执行。在步骤S720处,将姿势信息传输到第二装置。在步骤S730处,基于姿势信息来渲染媒体内容以获得经渲染的媒体内容。即,基于用户或用户的一部分的位置和/或取向来渲染媒体内容。经渲染的媒体内容可以被称为预渲染的媒体内容(例如,预渲染的音频内容和/或预渲染的视频内容)。如果媒体内容包括音频内容,则音频内容可以例如被渲染为双耳音频内容、B格式音频内容、HOA音频内容、基于声道的音频内容、或其组合。通常,音频内容可以被渲染至两个或更多个声道和/或组件。如果媒体内容包括视频内容,则视频内容可以被图块化,并且整个视频场景的感兴趣区域可以被输出为例如经渲染的视频内容。在步骤S740处,将经渲染的媒体内容传输到第一装置以进行再现。步骤S710和S720可以在第一装置处执行/由第一装置执行,例如,分别通过传感器(例如,姿势传感器)和(第一)传输单元来执行。步骤S730和S740可以在第二装置处执行/由第二装置执行,例如,在渲染器和(第二)传输单元处执行。
对于音频内容,方法700可以进一步包括例如经由作为第一装置的一部分或耦接到第一装置的两个或更多个扬声器生成经渲染的音频内容的听觉(例如,声学)表示的步骤。例如,所述两个或更多个扬声器可以是计算机介导的现实设备的一部分。对于视频内容,方法700可以进一步包括例如经由作为第一装置的一部分或耦接到第一装置的显示设备生成经渲染的视频内容的视觉表示的步骤。例如,所述显示设备可以是计算机介导的现实设备的一部分。通常,生成这样的表示可以在第一装置处执行/由第一装置执行。
在图2中示意性地图示了根据上述方法的用于双耳渲染的接收方/客户端系统200的示例。所述系统可以实施方法700中的第一装置。作为经渲染的媒体内容(经渲染的音频内容)的示例,系统200可以接收音频输入201。例如,音频输入201可以采用双耳化的、未压缩的音频的形式。接收方系统200可以输出与用户移动和/或用户头部取向有关的传感器数据(作为姿势信息的示例)。例如,头部姿势(HeadPose)/传感器数据220可以包括关于偏航、俯仰、滚动和/或(x,y,z)坐标的信息。接收方系统200可以将传感器数据输出到发送方/服务器。发送方/服务器可以实施方法700中的第二装置。接收方系统200可以进一步生成音频输入201的听觉表示。例如,接收方系统可以将未压缩的音频输入201输出到头戴式耳机输出。
如稍后将更详细描述的,图3、图4、图5和图6中图示的系统中的任何一个都可以实施方法700。
为了进一步减少姿势变化与被呈现给用户的媒体内容表示的相应适配之间的延迟,第二装置可以预测姿势信息以预测可能由于传输到第一装置和/或编码/解码而导致的延迟(如下所述)。例如,在方法700中在步骤S730处渲染媒体内容可以涉及获得(例如,确定、计算)预测的姿势信息并基于预测的姿势信息(而不是基于从第一装置接收的姿势信息)来渲染媒体内容。
图8是示意性地图示应用姿势信息的预测来处理媒体内容的方法800的示例的流程图。除非另有说明,否则与上述方法700相关的陈述也适用于此。
步骤S810步骤S820分别对应于方法700中的步骤S710和S720。在步骤S830a处,基于在步骤S820处接收的姿势信息和先前姿势信息来获得(例如,确定、计算)预测的姿势信息。如果姿势信息包括姿势的一阶导数和/或二阶导数,则预测可以基于所述一阶导数和/或二阶导数,作为先前姿势信息的补充或替代。预测的姿势信息可以是用于未来定时的姿势信息,例如,指示在未来定时用户或用户的一部分(例如,头部)的位置和/或取向的姿势信息。在某些实施方式中,预测的姿势信息可以被预测来对预期要由第一装置处理经渲染的媒体内容以进行再现的定时进行估计。对预期第一装置处理经渲染的媒体内容以进行再现的定时的估计可以包括对将经渲染的媒体内容传输到第一装置所需的时间(时延)的估计。可替代地或另外地,如果应用了编码/解码(例如,压缩/解压缩)(下文描述),则对所述定时的估计可以包括对编码/解码经渲染的媒体内容所需的时间(时延)的估计。即,可以进一步基于对传输经渲染的媒体内容所需的时间和/或对编码/解码经渲染的媒体内容所需的时间的估计来获得预测的姿势信息。先前姿势信息可以是在先前定时已经从第一装置接收的姿势信息。可以使用一个或多个先前姿势信息项(例如,经由外推或基于模型的预测技术)来获得预测的姿势信息。为此,可以存储先前姿势信息项(例如,预定数量的先前姿势信息项)。在步骤S830b处,基于预测的姿势信息来渲染媒体内容以获得经渲染的媒体内容。该操作可以与方法700中的步骤S730不同之处在于使用了预测的姿势信息而不是(在步骤S720或步骤S820接收的)所述姿势信息,但是在其他方面可以以与步骤S730相同的方式执行。在步骤S840处,将经渲染的媒体内容传输到第一装置以进行再现。步骤S810和S820可以在第一装置处/由第一装置执行。步骤S830a、S830b和S840可以在第二装置处/由第二装置执行。例如,步骤S830a可以由姿势预测器执行。
对于音频内容,方法800可以进一步包括例如经由作为第一装置的一部分或耦接到第一装置的两个或更多个扬声器生成经渲染的音频内容的听觉(例如,声学)表示的步骤。例如,所述两个或更多个扬声器可以是计算机介导的现实设备的一部分。对于视频内容,方法800可以进一步包括例如经由作为第一装置的一部分或耦接到第一装置的显示设备生成经渲染的视频内容的视觉表示的步骤。例如,所述显示设备可以是计算机介导的现实设备的一部分。通常,生成这样的表示可以在第一装置处/由第一装置执行。
在方法800的修改版中,预测的姿势信息可以在第一装置处被预测。即,第一装置可以执行如上文参考步骤S830a描述的处理,并且随后将预测的姿势信息发送到第二装置。应当理解,在这种情况下可以省略步骤S820。在从第一装置接收到预测的姿势信息之后,第二装置可以以上述方式继续其步骤S830b和后续步骤的处理。
如稍后将更详细描述的,图3、图4、图5和图6中图示的系统中的任何一个都可以实施方法800或方法800的修改版。
对用于渲染媒体内容的姿势信息的上述预测允许“隐藏”由传输和/或编码/解码引起的延迟,使得可以实现用户移动与经渲染的媒体内容的呈现之间的良好校准。因此,可以降低或完全避免用户受晕动病影响的风险,并且可以改善用户沉浸在计算机介导的现实的体验。在方法800的情况下,通过在服务器/发送方侧执行的过程(即,通过预测姿势信息并使用预测的姿势信息而不是从接收方/重放侧接收的姿势信息来渲染媒体内容)来实现对移动与经渲染的媒体内容的呈现之间的校准的改进。然而,在某些条件下,可能希望通过在接收方或重放侧执行的措施来实现对移动与经渲染的媒体内容的呈现之间的校准的这种改进。
图9是示意性地图示根据上述考虑因素(即,通过在接收方/重放侧执行的措施来改进移动与经渲染的媒体内容的呈现之间的校准)处理媒体内容的方法900的示例的流程图。
步骤S910步骤S920步骤S930步骤S940分别对应于方法700中的步骤S710至S740。在步骤S950处,将已经用于渲染媒体内容的姿势信息(例如,已经从第一装置接收的姿势信息)传输到第一装置。所述姿势信息可以与经渲染的媒体内容一起(例如,与经渲染的媒体内容相关联地)传输。在步骤S960处,将已经用于渲染媒体内容的姿势信息与当前姿势信息进行比较。当前姿势信息可以是在再现(例如,重放)经渲染的媒体内容时获得的姿势信息。但当前姿势信息可以在不同(稍后)的定时以上文参考步骤S710描述的方式获得。在步骤S970处,基于比较的结果更新经渲染的媒体内容。例如,经渲染的媒体内容可以基于已经用于渲染媒体内容的姿势信息与当前姿势信息之间的差异来更新。所述更新可以涉及对经渲染的媒体内容的外推。下文将参考图3描述这种更新的非限制性示例。步骤S910、S920、S960和S970可以在第一装置处/由第一装置执行。步骤S930、S940和S950可以在第二装置处/由第二装置执行。
在某些实施方式中,可以省略步骤S950,即,可以不将已经用于渲染媒体内容的姿势信息传输到第一装置。在这种情况下,在步骤S960处,可以将已经在步骤S920处发送到第二装置的姿势信息称为已经用于渲染媒体内容的姿势信息。
进一步地,在某些实施方式中,方法900可以包括确定经渲染的媒体内容如何响应于姿势信息的变化(例如,响应于用户的姿势或用户的头部的姿势的变化)而变化的梯度信息。然后,方法900还可以进一步包括将梯度信息传输到第一装置。例如,梯度信息可以与经渲染的媒体内容以及可选地已经用于渲染媒体内容的姿势信息一起(例如,相关联地)传输到第一装置。这些附加步骤可以在第二装置处执行。对于音频内容,梯度信息可以指示响应于用户或用户的一部分的平移和/或旋转而引起的(例如,每个声道或每个分量的)子带能级的变化。然后可以在步骤S970处使用梯度信息来更新/调整经渲染的媒体内容。例如,可以基于梯度信息、以及已经用于渲染媒体内容的姿势信息与当前姿势信息之间的差异来调整经渲染的音频内容的子带能级。一般而言,可以基于姿势差异和指示响应于姿势的变化而引起的经渲染的媒体内容的变化的梯度来更新/调整经渲染的媒体内容。
对于音频内容,方法900可以进一步包括例如经由作为第一装置的一部分或耦接到第一装置的两个或更多个扬声器生成经渲染的音频内容的听觉(例如,声学)表示的步骤。例如,所述两个或更多个扬声器可以是计算机介导的现实设备的一部分。对于视频内容,方法900可以进一步包括例如经由作为第一装置的一部分或耦接到第一装置的显示设备生成经渲染的视频内容的视觉表示的步骤。例如,所述显示设备可以是计算机介导的现实设备的一部分。通常,生成这样的表示可以在第一装置处/由第一装置执行。
如稍后将更详细描述的,图3、图4、图5和图6中图示的系统中的任何一个都可以实施方法900。
为了进一步改善用户移动与经渲染的媒体内容的呈现之间的校准,可以将在服务器/发送方侧对姿势信息的预测与在接收方/重放侧对经渲染的媒体内容的更新进行组合。
图10是示意性地图示根据上述考虑因素(即,通过在服务器/发送方侧执行的措施以及在接收方/重放侧执行的措施来改进移动与经渲染的媒体内容的呈现之间的校准)处理媒体内容的方法1000的示例的流程图。
步骤S1010步骤S1020步骤S1040分别对应于方法700中的步骤S710、S720和S740。步骤S1030a步骤S1030b分别对应于方法800中的步骤S830和S830b。在步骤S1050处,将预测的姿势信息(即,已经用于渲染媒体内容的姿势信息)传输到第一装置。预测的姿势信息可以与经渲染的媒体内容一起(例如,与经渲染的媒体内容相关联地)传输。在步骤 S1060处,将预测的姿势信息与实际/当前姿势信息进行比较。实际姿势信息可以是在再现(例如,重放)经渲染的媒体内容时获得的姿势信息。但实际姿势信息可以在不同(稍后)的定时以上文参考步骤S710描述的方式获得。在步骤S1070处,基于比较的结果更新经渲染的媒体内容。例如,经渲染的媒体内容可以基于预测的姿势信息与实际姿势信息之间的差异来更新。通常,可以以与方法900中的步骤S970相同的方式执行更新。步骤S1010、S1020、S1060和S1070可以在第一装置处/由第一装置执行。步骤S1030a、S1030b和、S1040和S1050可以在第二装置处/由第二装置执行。
在某些实施方式中,方法1000可以包括确定经渲染的媒体内容如何响应于姿势信息的变化(例如,响应于用户的姿势或用户的头部的姿势的变化)而变化的梯度信息。然后,方法1000还可以进一步包括将梯度信息传输到第一装置。例如,梯度信息可以与经渲染的媒体内容以及可选地已经用于渲染媒体内容的姿势信息一起(例如,相关联地)传输到第一装置。这些附加步骤可以在第二装置处执行。对于音频内容,梯度信息可以指示响应于用户或用户的一部分的平移和/或旋转而引起的(例如,每个声道或每个分量的)子带能级的变化。然后可以在步骤S1070处使用梯度信息来更新/调整经渲染的媒体内容。例如,可以基于梯度信息、以及已经用于渲染媒体内容的姿势信息与当前姿势信息之间的差异来调整经渲染的音频内容的子带能级。一般而言,可以基于姿势差异和指示响应于姿势的变化而引起的经渲染的媒体内容的变化的梯度来更新/调整经渲染的媒体内容。
对于音频内容,方法1000可以进一步包括生成经渲染的音频内容的听觉(例如,声学)表示(例如,经由作为第一装置的一部分或耦接到第一装置的两个或更多个扬声器)的步骤。例如,所述两个或更多个扬声器可以是计算机介导的现实设备的一部分。对于视频内容,方法1000可以进一步包括生成经渲染的视频内容的视觉表示(例如,经由作为第一装置的一部分或耦接到第一装置的显示设备)的步骤。例如,所述显示设备可以是计算机介导的现实设备的一部分。通常,生成这样的表示可以在第一装置处/由第一装置执行。
在方法1000的修改版中,预测的姿势信息可以在第一装置处预测。即,第一装置可以执行如上文参考步骤S1030a描述的处理,并且随后将预测的姿势信息发送到第二装置。应当理解,在这种情况下可以省略步骤S1020。在从第一装置接收到预测的姿势信息之后,第二装置可以使用预测的姿势信息以上文参考步骤S1030b描述的方式渲染媒体内容,并且以上文参考步骤S1040描述的方式将经渲染的媒体内容传输到第一装置。在这种情况下可以省略步骤S1050。在接收到经渲染的媒体内容之后,第一装置可以以上述方式执行步骤S1060和S1070。值得注意的是,由于在这种情况下对姿势信息的预测是在第一装置处执行的,因此第一装置不需要从第二装置接收预测的姿势信息。
如稍后将更详细描述的,图3、图4、图5和图6中图示的系统中的任何一个都可以实施方法1000或方法1000的修改版。
在任何上述方法中,经渲染的媒体内容都可以以未压缩的形式传输到第一装置。这通过第二装置处的预渲染来实现,从而使得不需要传输全部媒体内容(例如,音频/视频场景的完整表示)。以未压缩形式传输经渲染的媒体内容有助于减少往返延迟,因为可以节省通常用于压缩/解压缩的时间。另一方面,如果带宽限制需要的话,可以在向第一装置传输之前对经渲染的媒体内容进行编码(压缩)。在这种情况下,如上所述,在获得预测的姿势信息时可以将进行编码/解码(例如,压缩/解压缩)所需的时间考虑在内。
进一步地,对于音频内容,任何上述方法可以进一步包括:将指示第一装置所处的环境的声学特性的环境信息传输到第二装置。环境信息可以包括房间(room)特性和/或双耳房间脉冲响应(Binaural Room Impulse Response)(BRIR)函数。该步骤可以在第一装置处/由第一装置执行(例如,在设置时)。然后,可以进一步基于环境信息来渲染音频内容。可替代地或另外地,任何上述方法可以进一步包括:将指示用户或用户的一部分的形貌的形貌信息传输到第二装置。形貌可以包括或对应于形状或大小,例如,用户头部的形状或大小。形貌信息可以包括头部相关传递函数(HRTF)。渲染可以是双耳渲染。该步骤可以在第一装置处/由第一装置例如在设置时执行。然后,可以进一步基于形貌信息来渲染音频内容。
图3图示了包括服务器/发送方300和客户端/接收方350的示例性系统的进一步细节。如上所述,该系统可以实施方法700、800、900和1000中的任何一个。例如实施第二装置的服务器/发送方300可以包括渲染器320(例如,音频渲染器)和编码器330。例如实施第一装置的客户端/接收方350可以在时间点t0将当前姿势(例如,头部姿势)P(t0)发送到服务器/发送方300。当前姿势P(t0)还可以包括指定当前姿势P(t0)被创建的时间的时间戳t0本身。姿势P(t0)可以由姿势350框确定并发送。
例如实施第二装置的服务器/发送方300可以进一步包括位置预测器310。服务器/发送方300可以在时间点t1接收用户位置和当前姿势P(t0)(对应于头部取向),其中,t1>t0。位置预测器310可以使用所接收的当前姿势P(t0)和t0本身来预测位置P(t1)。位置预测器310可以考虑先前接收的姿势P(tn)和tn来预测位置P(t1),其中,n可以是0到负无穷大(来自较早时间点的姿势和时间戳值)。位置P(t1)可以类似于姿势P(t0)。位置P(t1)可以由音频渲染器320用来在时间点t1渲染音频场景,并且因此确定经渲染的音频数据R(t1)340。可以使用音频编码器330对经渲染的音频数据R(t1)340进行编码以确定音频数据A(t1)。服务器/发送方300可以将音频数据A(t1)和位置P(t1)发送到客户端/接收方350。位置P(t1)可以被编码为音频比特流的一部分。客户端/接收方350可以在时间点t2从服务器/发送方300接收音频数据A(t1)和位置P(t1)(例如,以元数据的形式),其中,t2>t1。客户端/接收方350可以在音频解码器351处接收音频数据A(t1)和位置P(t1),所述音频解码器可以确定未压缩的音频U(t1)。头部姿势/传感器数据352框可以在时间点t2确定姿势P(t2)。音频外推器353可以在时间点t2使用所接收的P(t1)通过从姿势P(t2)中减去姿势P(t1)来计算姿势差DeltaP。音频外推器353可以使用DeltaP来在输出390之前适配/外推未压缩音频U(t1)。在音频内容是FOA并且运动被限制为偏航、俯仰和/或滚动移动的情况下,客户端/接收方350可以应用局部旋转作为外推的一部分。在音频内容是预渲染的双耳内容或预渲染的基于声道的内容的情况下,客户端/接收方350可以进一步应用盲上混(blind upmixing)作为外推的一部分。
代替预测位置P(t1),可以针对预期客户端/接收方350要接收或处理音频数据的时间点t2’来预测位置P(t2’)。考虑到传输和/或编码/解码音频数据所需的时间(时延),可以从时间点t1开始估计时间点t2’。然后,上文中的P(t1)、R(t1)、A(t1)和U(t1)将必须被分别替换为P(t2’)、R(t2’)、A(t2’)和U(t2’)。上述元件中的任何一个都可以由相应装置的处理器(或处理器组)实施。
可以使用MPEG-H 3D音频(ISO/IEC 23008-3)和/或MPEG标准的未来版本中的以下语法来传输P(t)3自由度(P(t)3Degrees of Freedom)(3DoF)数据:
Figure GDA0003086512300000171
表1
可以根据MPEG-H 3D音频(ISO/IEC 23008-3)和/或MPEG标准的未来版本来定义语义。
用于传输6DoF数据和时间戳的完整语法可以如下所示:
Figure GDA0003086512300000181
表2
可以根据MPEG-H 3D音频(ISO/IEC 23008-3)和/或MPEG标准的未来版本来定义语义。
图4图示了包括发送方400和接收方450的示例性系统。图4中描述的系统可以包括图1至图3中描述的系统的全部或部分方面。具体地,所述系统可以实施上述方法700、800、900和1000中的任何一个或全部。例如实施第二装置的发送方/服务器400可以接收完整音频场景(例如,基于FOA/HOA或基于对象的场景)401和完整视频场景(例如,360°视频)402(作为媒体内容的示例)。完整音频场景401可以由音频编码器410处理以确定完整的音频场景传递441。完整音频场景401可以由整个音频场景和/或伴随元数据(如音频对象位置、方向等)构成。完整视频402可以由内容传递选择420处理。完整视频420可以被分割成不同的部分(诸如,感兴趣区域),并且通过内容选择420相应地“被图块化”(360°视频可以被分割成图块)以确定图块402a。内容传递和选择420可以使用如被描述为来自图3中的位置预测器310的输出的预测位置P(t1)(或预测的位置P(t2’)),或者所述内容传递和选择420可以使用未改变的头部姿势/传感器数据454。例如,可以基于从接收方450接收的传感器数据454在内容传递选择420中选择完整360°视频402中的图块402a。该选择可以被称为对视频内容的渲染。视频编码器430对图块402a进行编码以输出可被传输到(例如,实施第一装置的)客户端/接收方450的感兴趣区域视频442。接收方450可以包括可以接收感兴趣区域视频442的视频解码器452。视频解码器452可以使用感兴趣区域442来对视频进行解码并将其输出到视频输出492。完整音频场景401可以由音频解码器451接收,所述音频解码器可以对内容进行解码并将经解码的音频场景提供给音频渲染器453。音频解码器451可以向音频渲染器453提供未压缩的音频和元数据455(它们可以对应于经解码的音频场景)。音频渲染器453可以基于传感器数据454来渲染经解码的音频,并且可以输出音频输出491。可以从能够检测用户的移动和/或用户的头部取向的传感器(例如,基于陀螺仪的传感器)接收传感器数据454。然后可以进一步将所述传感器数据454提供给音频渲染器453以使完整音频场景401适应用户的当前头部取向和/或位置,并且将所述传感器数据454提供给内容传递选择420以使完整视频场景402适应用户的当前头部取向和/或位置。值得注意的是,在图4的示例性系统中,在服务器/发送方侧渲染视频内容(即,在服务器/发送方侧生成准备好在接收方/重放侧重放的视频内容),而在接收方/重放侧渲染音频内容。上述元件中的任何一个都可以由相应装置的处理器(或处理器组)实施。
图5图示了包括发送方500和接收方550的示例性系统。所述系统可以实施上述方法700、800、900和1000中的任何一个或全部。例如实施第二装置的发送方/服务器500可以接收完整音频场景(例如,基于HOA或基于对象的场景)501和完整视频场景(例如,360°视频)502(作为媒体内容的示例)。完整音频场景501可以由音频渲染器510处理以确定双耳音频数据541。音频渲染器510可以考虑传感器数据545来确定双耳音频数据541。传感器数据545可以包括偏航、俯仰、滚动、x、y、z信息。双耳音频数据541可以是未压缩的、无损压缩的、或有损低时延压缩的。例如,双耳音频数据551可以是未压缩音频580,所述未压缩音频可以由(例如,实施第一装置的)接收方550接收并提供给双耳音频输出591。完整视频502可以由内容传递选择520处理。完整视频502可以被分割成诸如感兴趣区域等不同的部分,并且在内容传递选择520中相应地“被图块化”(360°视频可以被分割成图块)以确定图块502a。可以基于从接收方550接收的传感器数据545在内容传递选择520中选择完整360°视频502中的图块502a。该选择可以被称为对视频内容的渲染。视频编码器530对图块502a进行编码以输出可以被传输到客户端/接收方550的感兴趣区域视频542。接收方550可以包括可以接收感兴趣区域视频542的视频解码器552。视频解码器552可以使用感兴趣区域542来对视频进行解码并将其输出到视频输出592。传感器数据545可以从能够检测用户的移动和/或用户的头部取向的传感器(例如,基于陀螺仪的传感器)接收。然后可以进一步将所述传感器数据545提供给内容传递选择520,以使完整视频场景502适应用户的当前头部取向和/或位置。然后可以进一步将所述传感器数据545提供给内容音频渲染器510,以使完整音频场景501适应用户的当前头部取向和/或位置。上述元件中的任何一个都可以由相应装置的处理器(或处理器组)实施。
图6图示了包括发送方600和接收方650的示例性系统。所述系统可以实施上述方法700、800、900和1000中的任何一个或全部。例如,实施第二装置的发送方/服务器600可以接收完整音频场景(例如,基于HOA或基于对象的场景)601和完整视频场景(例如,360°视频)602(作为媒体内容的示例)。完整音频场景601可以由音频渲染器610处理,并且音频渲染器610的输出然后可以由低延迟(LowDelay)音频编码器660处理。音频渲染器610可以考虑传感器数据645。低延迟音频编码器660可以输出双耳音频数据641,然后可以将所述双耳音频数据645发送到例如实施第一装置的接收方650。双声道音频数据641可以在接收方650处由低延迟音频解码器670接收,所述低延迟音频解码器670将双耳音频数据641转换为未压缩音频680。然后可以将未压缩音频680提供给双耳音频输出691。完整视频602可以由内容传递选择620处理。完整视频602可以被分割成诸如感兴趣区域等不同的部分,并且在内容传递选择620中相应地“被图块化”(360°视频可以被分割成图块)以确定可以基于从接收方650接收的传感器数据645而在内容传递选择620中被选择的图块。该选择可以被称为对视频内容的渲染。视频编码器630对图块和/或视频进行编码以输出可以被传输到客户端/接收方650的感兴趣区域视频642。接收方650可以包括可以接收感兴趣区域视频642的视频解码器652。视频解码器652可以使用感兴趣区域642来对视频进行解码并将其输出到视频输出692。传感器数据645可以从能够检测用户的移动和/或用户的头部取向的传感器(例如,基于陀螺仪的传感器)接收。然后可以进一步将所述传感器数据645提供给内容传递选择620,以使完整视频场景602适应用户的当前头部取向和/或位置。然后可以进一步将所述传感器数据645提供给内容音频渲染器610,以使完整音频场景601适应用户的当前头部取向和/或位置。上述元件中的任何一个都可以由相应装置的处理器(或处理器组)实施。
传统上,如图1和图4所示,从发送方(S)传输到接收方(R)的音频(作为媒体内容的非限制性示例)在接收方处被渲染。为了最大化接收方侧的灵活性,可以发送音频场景的复杂表示(如可以在接收侧自适应地渲染的对象或HOA),例如以匹配本地收听者的视点/姿势。然而,编码这样的表示可能需要大的时延,这将阻止这些方法用于通信或交互式应用。
本公开提供了用于减少所提到的时延和/或用于降低接收方中的计算复杂性的方法、系统和装置。从接收方传输到发送方的用户位置和取向允许服务器/发送方计算出与接收方的当前姿势/视点紧密匹配的内容的更紧凑、预渲染的版本。然而,从发送方到接收方的传输时延将在本地接收姿势与已在服务器上计算渲染的姿势之间引入可能的不匹配。本公开提出:发送方用信号通知已执行渲染的位置,从而允许接收方将经渲染的信号外推到其当前的本地姿势。另外,发送方可以发送音频场景的预渲染、未压缩或有损压缩表示,以便消除系统中的编码和解码时延。发送方执行例如针对双耳立体声、FOA或HOA表示的渲染算法。渲染算法可以将诸如音频对象等音频数据渲染至两个声道(例如,预渲染的双耳化内容)以输出声道。然后可以对声道进行编码,特别是如果需要压缩(例如,取决于系统的带宽)以输出经编码的音频数据比特流的话。可以将信号传输到客户端或接收方,并且可以经由头戴式耳机或立体声扬声器系统来输出信号。
当双耳化回放需要适应于用户头部的物理现象时,接收方可以传输与用户头部的属性相对应的头部相关传递函数(HRTF)。接收方可以进一步传输与旨在用于再现的房间相对应的双耳房间脉冲响应(BRIR)函数。可以在传输设置期间传输该信息。
本公开的实施例可以提供至少以下优点:
·如果仅传输双耳化(立体声)数据,则用于无损音频数据传输的传输比特率可以与完整压缩音频场景的比特率相似或相当。
·传输未压缩或无损音频流将消除或减少因编码和解码而导致的时延。例如,由编码/解码所产生的时延可以减少到零,这将导致运动到耳朵时延的整体减少。
·当不对音频数据进行压缩时,接收方将仅输出音频而不进行解码或渲染。这将导致接收方处的计算复杂性降低,因为不需要执行解码和/或在发送方侧已经完成了渲染。
·可以在以较高比特率的最小时延和最小接收方计算复杂性与以较高时延和较高接收方计算复杂性的最小比特率之间进行不同的折衷,例如:
ο传输未压缩数据以实现最小时延和计算复杂性,但需要足够的带宽来传输未压缩数据,
ο如果带宽不足以传输未压缩数据,则传输无损压缩数据以实现最小时延和稍高的计算复杂性,
ο如果带宽受限,则传输有损但低延迟的压缩数据,以实现低时延和较高的计算复杂性。
当R和S同时作为接收方和发送方时,上述内容也适用于R与S之间的双向通信。
表3示出了说明这种折衷的系统比较的示例。
Figure GDA0003086512300000221
表3
在某些上下文中,本公开的实施例可以涉及基于内容外推来隐藏传输时延。当总时延(例如,传输时延)太高(通常高于20毫秒)时,期望编码格式和/或回放系统在等待传递下一个更新的内容帧的同时提供用于对内容进行外推以匹配接收方的本地姿势(位置和取向)的均值。可以基于音频数据的往返中的所有时延的总和来确定总时延。例如,总时延可以基于往返时延、编码时延、解码时延和渲染时延。
隐藏该时延可以通过以下方式来实现:将本地姿势从接收方传输到发送方/服务器以进行渲染(例如,如上文参考步骤S920和S1020所描述的),并且使发送方/服务器发送回哪个姿势已被用于每个经渲染的内容帧(例如,如上文参考步骤S950和S1050所描述的)。发送方/发送方可以预测用户的移动,以便补偿在发送方渲染内容之时与在接收方接收到内容之时之间引入的附加时延,包括将先前接收的位置考虑在内。
然后,在给定了用于在发送方侧渲染内容的姿势与接收方R的本地姿势(例如,当前姿势或实际姿势)之间的增量的情况下,接收方可以对从服务器接收的预渲染音频进行外推(例如,如上文参考步骤S970和S1070所描述的)。
可以基于经渲染的内容的灵活性以多种方式实施这种外推。在一个示例中,当内容是预渲染的高保真度立体声响复制B格式并且运动是三自由度运动时,外推可以基于在回放之前FOA或B格式内容的客户端侧局部旋转。在另一示例中,对于预渲染的双耳内容,可以通过盲上混(参见附录A)或通过向双耳流添加元数据(参见附录B)来实现外推。在另一示例中,对于预渲染的基于声道的内容,可以在接收端应用低时延盲上混音器(upmixer)。
如果渲染和编码紧密集成在发送方侧,则可以通过添加元数据编码(例如不同子带的方向/距离或基于当前渲染位置P的能量梯度
Figure GDA0003086512300000231
)来增加预渲染内容的灵活性。
如果要渲染的原始内容是基于对象的,则可以围绕期望位置计算多个渲染并对水平梯度进行编码。该水平梯度G通常由3D向量(三个轴x、y、z中的每一个都有一个值)构成。接收方然后可以基于预渲染位置P与当前接收方位置P’之间的差异简单地调整接收信号中的子带能量E(P),如
Figure GDA0003086512300000232
接收方可以使用该额外信息来进一步外推预渲染的流(即,预渲染的媒体内容),例如(使用距离信息)解决视差效应或(使用水平梯度信息)调整渲染的级别。
在一个示例中,如果接收方在计算能力方面受到约束,则可以在发送方侧的编码期间执行上混。例如,可以将B格式或声道转换为对象。这可能增加编码路径时延,但是得到的内容可以更灵活并且可以在接收方端进行外推。
对于游戏用途,其中,用户动作(例如,按钮触发)可以影响游戏可玩性,整体系统时延仍然需要小于20毫秒,这可能会阻止运行复杂的上混操作。因此,诸如B格式等灵活格式可能是使用低时延无损或有损编解码器进行渲染/传输的最佳候选项,因为这种格式也可以在接收端以低时延进行渲染和旋转。
各种音频编解码器可以包含上述数据传输模式。可以针对以下内容来适配编解码器:(i)传输无损编码(零时延编码)的立体声音频数据或低时延有损数据的可能性;(ii)在需要关闭“常规”渲染(例如,设备中的双耳化)的情况下,用于发信号通知该内容已经被预渲染的手段(例如,比特流语法字段,Dolby AC-4和MPEG-H第3部分(3D音频)都已经包括这种比特字段,如Dolby AC-4中的b_pre_virtualized);以及(iii)用于在必要时传输HRTF和BRIR的手段。
因此,在本公开的上下文中,发送方还可以向接收方提供发送方提供了预渲染音频内容的指示(例如,标志、比特字段、语法字段/元素、参数)。如果接收方接收到这样的指示,则接收方可以放弃对音频内容进行任何(接收方侧)渲染。例如,对于双耳预渲染音频内容,接收方可以直接将如从发送方接收的预渲染音频内容路由到头戴式耳机(的扬声器)以进行再现,而无需任何进一步的渲染。这种指示可以是参数directHeadphone的形式,所述参数在比特流中用信号通知给接收方。如果双耳输出被渲染,则directHeadphone参数可以定义(类型)声道的相应信号组直接进入头戴式耳机输出。所述信号可以被路由到左右头戴式耳机声道。
表4中再现了该参数的语法的可能示例。
Figure GDA0003086512300000241
表4
可以根据MPEG-H 3D音频(ISO/IEC 23008-3)和/或MPEG标准的未来版本来定义语义。
在下文列出的枚举示例性实施例(EEE)中概述了本公开的其他示例性实施例。
第一EEE涉及一种处理媒体内容以供第一装置再现的方法,所述方法包括:获得指示用户的位置和/或取向的姿势信息;将所述姿势信息传输到提供所述媒体内容的第二装置;基于所述姿势信息来渲染所述媒体内容以获得经渲染的媒体内容;以及将所述经渲染的媒体内容传输到所述第一装置以进行再现。
第二EEE涉及根据第一EEE所述的方法,其中,所述媒体内容包括音频内容,并且所述经渲染的媒体内容包括经渲染的音频内容;和/或所述媒体内容包括视频内容,并且所述经渲染的媒体内容包括经渲染的视频内容。
第三EEE涉及根据第一EEE所述的方法,其中,所述媒体内容包括音频内容,并且所述经渲染的媒体内容包括经渲染的音频内容,并且所述方法进一步包括生成所述经渲染的音频内容的听觉表示。
第四EEE涉及根据第二EEE所述的方法,其中,所述音频内容是基于一阶高保真度立体声响复制FOA的音频内容、基于更高阶高保真度立体声响复制HOA的音频内容、基于对象的音频内容、或基于声道的音频内容中的一种,或者是基于FOA的音频内容、基于HOA的音频内容、基于对象的音频内容、或基于声道的音频内容中的两种或更多种的组合。
第五EEE涉及根据第二或第三EEE所述的方法,其中,所述经渲染的音频内容是双耳音频内容、FOA音频内容、HOA音频内容、或基于声道的音频内容中的一种,或者是双耳音频内容、FOA音频内容、HOA音频内容、或基于声道的音频内容中的两种或更多种的组合。
第六EEE涉及根据第一至第五EEE中任一项所述的方法,其中,所述渲染涉及:基于所述姿势信息和先前姿势信息获得预测的姿势信息,并基于所述预测的姿势信息来渲染所述媒体内容以获得所述经渲染的媒体内容。
第七EEE涉及根据第六EEE所述的方法,进一步包括:将所述预测的姿势信息与所述经渲染的媒体内容一起传输到所述第一装置。
第八EEE涉及根据第七EEE所述的方法,进一步包括:将所述预测的姿势信息与实际姿势信息进行比较,并基于所述比较的结果更新所述经渲染的媒体内容。
第九EEE涉及根据第八EEE所述的方法,其中,所述预测的姿势信息被预测来对预期要由所述第一装置处理所述经渲染的媒体内容以进行再现的定时进行估计,并且所述实际姿势信息是在所述第一装置实际处理所述经渲染的媒体内容以进行再现的定时获得的姿势信息。
第十EEE涉及根据第一至第九EEE中任一项所述的方法,其中,所述经渲染的媒体内容以未压缩的形式传输到所述第一装置。
第十一EEE涉及根据第一至第十EEE中任一项所述的方法,进一步包括:
在向所述第一装置传输之前对所述经渲染的媒体内容进行编码;以及在所述第一装置处接收到经编码的所述经渲染的媒体内容之后,对经编码的所述经渲染的媒体内容进行解码。
第十二EEE涉及根据第九EEE或包括第九EEE的特征的任何EEE所述的方法,其中,对预期要由所述第一装置处理所述经渲染的媒体内容以进行再现的定时的所述估计包括:对编码和解码所述经渲染的音频内容所需的时间的估计和/或对将所述经渲染的媒体内容传输到所述第一装置所需的时间的估计。
第十三EEE涉及根据第六EEE或包括第六EEE的特征的任何EEE所述的方法,其中,所述预测的姿势信息是进一步基于对编码和解码所述经渲染的媒体内容所需的时间的估计和/或对将所述经渲染的媒体内容传输到所述第一装置所需的时间的估计来获得的。
第十四项涉及根据第一至第十三EEE中任一项所述的方法,进一步包括:将已经用于渲染所述媒体内容的所述姿势信息与当前姿势信息进行比较,并基于所述比较结果更新所述经渲染的媒体内容。
第十五EEE涉及根据第一至第十四EEE中任一项所述的方法,进一步包括:在所述第二装置处确定指示所述经渲染的媒体内容如何响应于所述姿势信息的变化而变化的梯度信息;将所述梯度信息与所述经渲染的媒体内容一起传输到所述第一装置;在所述第一装置处将已经用于渲染所述媒体内容的所述姿势信息与当前姿势信息进行比较;以及基于所述梯度信息和所述比较的结果更新所述经渲染的媒体内容。
第十六EEE涉及根据第一至第十五EEE中任一项所述的方法,其中,所述媒体内容包括音频内容,并且所述经渲染的媒体内容包括经渲染的音频内容,所述方法进一步包括将指示所述第一装置所处的环境的声学特性的环境信息传输到所述第二装置,并且所述渲染所述媒体内容进一步基于所述环境信息。
第十七EEE涉及根据第一至第十六EEE中任一项所述的方法,其中,所述媒体内容包括音频内容,并且所述经渲染的媒体内容包括经渲染的音频内容,所述方法进一步包括将指示所述用户或所述用户的一部分的形貌的形貌信息传输到所述第二装置,并且所述渲染所述媒体内容进一步基于所述形貌信息。
第十八EEE涉及一种系统,所述系统包括用于再现媒体内容的第一装置和存储媒体内容的第二装置,其中,所述第一装置适用于:获得指示用户的位置和/或取向的姿势信息,并将所述姿势信息传输到所述第二装置,并且所述第二装置适用于:基于所述姿势信息来渲染所述媒体内容以获得经渲染的媒体内容,并将所述经渲染的媒体内容传输到所述第一装置以进行再现。
第十九EEE涉及根据第十八EEE所述的系统,其中,所述媒体内容包括音频内容并且所述经渲染的媒体内容包括经渲染的音频内容,和/或所述媒体内容包括视频内容并且所述经渲染的媒体内容包括经渲染的视频内容。
第二十EEE涉及根据第十八EEE所述的系统,其中,所述媒体内容包括音频内容并且所述经渲染的媒体内容包括经渲染的音频内容,并且所述第一装置进一步适用于生成所述经渲染的音频内容的听觉表示。
第二十一EEE涉及根据第十九EEE所述的系统,其中,所述音频内容是基于一阶高保真度立体声响复制FOA的音频内容、基于更高阶高保真度立体声响复制HOA的音频内容、基于对象的音频内容、或基于声道的音频内容中的一种,或者是基于FOA的音频内容、基于HOA的音频内容、基于对象的音频内容、或基于声道的音频内容中的两种或更多种的组合。
第二十二EEE涉及根据第十九至第二十一EEE中任一项所述的系统,其中,所述经渲染的音频内容是双耳音频内容、FOA音频内容、HOA音频内容、或基于声道的音频内容中的一种,或者是双耳音频内容、FOA音频内容、HOA音频内容、或基于声道的音频内容中的两种或更多种的组合。
第二十三EEE涉及根据第十八至第二十二EEE中任一项所述的系统,其中,所述第二装置进一步适用于:基于所述姿势信息和先前姿势信息获得预测的姿势信息,并基于所述预测的姿势信息来渲染所述媒体内容以获得所述经渲染的媒体内容。
第二十四EEE涉及根据第二十三EEE所述的系统,其中,所述第二装置进一步适用于:将所述预测的姿势信息与所述经渲染的媒体内容一起传输到所述第一装置。
第二十五EEE涉及根据第二十四EEE所述的系统,其中,所述第一装置进一步适用于:将所述预测的姿势信息与实际姿势信息进行比较,并基于所述比较的结果更新所述经渲染的媒体内容。
第二十六EEE涉及根据第二十五EEE所述的系统,其中,所述预测的姿势信息被预测来对预期要由所述第一装置处理所述经渲染的媒体内容以进行再现的定时进行估计,并且所述实际姿势信息是在所述第一装置实际处理所述经渲染的媒体内容以进行再现的定时获得的姿势信息。
第二十七EEE涉及根据第十八至第二十六EEE中任一项所述的系统,其中,所述经渲染的媒体内容以未压缩的形式传输到所述第一装置。
第二十八EEE涉及根据第十八至第二十七EEE中任一项所述的系统,其中,所述第二装置进一步适用于在向所述第一装置传输之前对所述经渲染的媒体内容进行编码,并且所述第一装置进一步适用于在所述第一装置处接收到经编码的所述经渲染的媒体内容之后,对经编码的所述经渲染媒体内容进行解码。
第二十九EEE涉及根据第二十六EEE或包括第二十六EEE的特征的任何EEE所述的系统,其中,对预期要由所述第一装置处理所述经渲染的媒体内容以进行再现的定时的所述估计包括:对编码和解码所述经渲染的音频内容所需的时间的估计和/或对将所述经渲染的媒体内容传输到所述第一装置所需的时间的估计。
第三十EEE涉及根据第二十三EEE或包括第二十三EEE的特征的任何EEE所述的系统,其中,所述预测的姿势信息是进一步基于对编码和解码所述经渲染的媒体内容所需的时间的估计和/或对将所述经渲染的媒体内容传输到所述第一装置所需的时间的估计来获得的。
第三十一EEE涉及根据第十八至第三十EEE中任一项所述的系统,其中,所述第一装置进一步适用于:将已经用于渲染所述媒体内容的所述姿势信息与当前姿势信息进行比较,并基于所述比较结果更新所述经渲染的媒体内容。
第三十二EEE涉及根据第十八至第三十一EEE中任一项所述的系统,其中,所述第二装置进一步适用于:确定指示所述经渲染的媒体内容如何响应于所述姿势信息的变化而变化的梯度信息;以及将所述梯度信息与所述经渲染的媒体内容一起传输到所述第一装置,并且所述第一装置进一步适用于:将已经用于渲染所述媒体内容的所述姿势信息与当前姿势信息进行比较,并基于所述梯度信息和所述比较结果更新所述经渲染的媒体内容。
第三十三EEE涉及根据第十八至第三十二EEE中任一项所述的系统,其中,所述媒体内容包括音频内容,并且所述经渲染的媒体内容包括经渲染的音频内容,所述第一装置进一步适用于将指示所述第一装置所处的环境的声学特性的环境信息传输到所述第二装置,并且所述渲染所述媒体内容进一步基于所述环境信息。
第三十四EEE涉及根据第十八至第三十三EEE中任一项所述的系统,其中,所述媒体内容包括音频内容,并且所述经渲染的媒体内容包括经渲染的音频内容,所述第一装置进一步适用于将指示所述用户或所述用户的一部分的形貌的形貌信息传输到所述第二装置,并且所述渲染所述媒体内容进一步基于所述形貌信息。
第三十五EEE涉及一种用于提供媒体内容以供第一装置再现的第二装置,所述第二装置适用于:接收指示所述第一装置的用户的位置和/或取向的姿势信息;基于所述姿势信息来渲染所述媒体内容以获得经渲染的媒体内容;以及将所述经渲染的媒体内容传输到所述第一装置以进行再现。
第三十六EEE涉及根据第三十五EEE所述的第二装置,其中,所述媒体内容包括音频内容并且所述经渲染的媒体内容包括经渲染的音频内容,和/或所述媒体内容包括视频内容并且所述经渲染的媒体内容包括经渲染的视频内容。
第三十七EEE涉及根据第三十六EEE所述的第二装置,其中,所述音频内容是基于一阶高保真度立体声响复制FOA的音频内容、基于更高阶高保真度立体声响复制HOA的音频内容、基于对象的音频内容、或基于声道的音频内容中的一种,或者是基于FOA的音频内容、基于HOA的音频内容、基于对象的音频内容、或基于声道的音频内容中的两种或更多种的组合。
第三十八EEE涉及根据第三十六EEE所述的第二装置,其中,所述经渲染的音频内容是双耳音频内容、FOA音频内容、HOA音频内容、或基于声道的音频内容中的一种,或者是双耳音频内容、FOA音频内容、HOA音频内容、或基于声道的音频内容中的两种或更多种的组合。
第三十九EEE涉及根据第三十五至第三十八EEE中任一项所述的第二装置,进一步适用于:基于所述姿势信息和先前姿势信息获得预测的姿势信息,并基于所述预测的姿势信息来渲染所述媒体内容以获得所述经渲染的媒体内容。
第四十EEE涉及根据第三十九EEE所述的第二装置,进一步适用于:将所述预测的姿势信息与所述经渲染的媒体内容一起传输到所述第一装置。
第四十一EEE涉及根据第三十九或第四十EEE所述的第二装置,其中,所述预测的姿势信息被预测来对预期要由所述第一装置处理所述经渲染的媒体内容以进行再现的定时进行估计。
第四十二EEE涉及根据第三十五至第四十一EEE中任一项所述的第二装置,其中,所述经渲染的媒体内容以未压缩的形式传输到所述第一装置。
第四十三EEE涉及根据第三十五至第四十二EEE中任一项所述的第二装置,进一步适用于在向所述第一装置传输之前对所述经渲染的媒体内容进行编码。
第四十四EEE涉及根据第四十一EEE或包括第四十一EEE的特征的任何EEE所述的第二装置,其中,对预期要由所述第一装置处理所述经渲染的媒体内容以进行再现的定时的所述估计包括:对编码和解码所述经渲染的音频内容所需的时间的估计和/或对将所述经渲染的媒体内容传输到所述第一装置所需的时间的估计。
第四十五EEE涉及根据第三十九EEE或包括第三十九EEE的特征的任何EEE所述的第二装置,其中,所述预测的姿势信息是进一步基于对编码和解码所述经渲染的媒体内容所需的时间的估计和/或对将所述经渲染的媒体内容传输到所述第一装置所需的时间的估计来获得的。
第四十六EEE涉及根据第三十五至第四十五EEE中任一项所述的第二装置,进一步适用于:确定指示所述经渲染的媒体内容如何响应于所述姿势信息的变化而变化的梯度信息;以及将所述梯度信息与所述经渲染的媒体内容一起传输到所述第一装置。
第四十七EEE涉及根据第三十五至第四十六EEE中任一项所述的第二装置,其中,所述媒体内容包括音频内容,并且所述经渲染的媒体内容包括经渲染的音频内容,所述第二装置进一步适用于从所述第一装置接收指示所述第一装置所处的环境的声学特性的环境信息,并且所述渲染所述媒体内容进一步基于所述环境信息。
第四十八EEE涉及根据第三十五至第四十七EEE中任一项所述的第二装置,其中,所述媒体内容包括音频内容,并且所述经渲染的媒体内容包括经渲染的音频内容,所述第二装置进一步适用于从所述第一装置接收指示所述用户或所述用户的一部分的形貌的形貌信息,并且所述渲染所述媒体内容进一步基于所述形貌信息。
第四十九EEE涉及一种用于再现由第二装置提供的媒体内容的第一装置,所述第一装置适用于:获得指示所述第一装置的用户的位置和/或取向的姿势信息;将所述姿势信息传输到所述第二装置;从所述第二装置接收经渲染的媒体内容,其中,所述经渲染的媒体内容已经通过基于所述姿势信息来渲染所述媒体内容而获得;以及再现所述经渲染的媒体内容。
第五十EEE涉及根据第四十九EEE所述的第一装置,其中,所述媒体内容包括音频内容并且所述经渲染的媒体内容包括经渲染的音频内容,和/或所述媒体内容包括视频内容并且所述经渲染的媒体内容包括经渲染的视频内容。
第五十一EEE涉及根据第四十九EEE所述的第一装置,其中,所述媒体内容包括音频内容并且所述经渲染的媒体内容包括经渲染的音频内容,并且所述第一装置进一步适用于生成所述经渲染的音频内容的听觉表示。
第五十二EEE涉及根据第五十或第五十一EEE所述的第一装置,其中,所述音频内容是基于一阶高保真度立体声响复制FOA的音频内容、基于更高阶高保真度立体声响复制HOA的音频内容、基于对象的音频内容、或基于声道的音频内容中的一种,或者是基于FOA的音频内容、基于HOA的音频内容、基于对象的音频内容、或基于声道的音频内容中的两种或更多种的组合。
第五十三EEE涉及根据第五十至第五十二EEE中任一项所述的第一装置,其中,所述经渲染的音频内容是双耳音频内容、FOA音频内容、HOA音频内容、或基于声道的音频内容中的一种,或者是双耳音频内容、FOA音频内容、HOA音频内容、或基于声道的音频内容中的两种或更多种的组合。
第五十四EEE涉及根据第四十九至第五十三EEE中任一项所述的第一装置,进一步适用于:接收已经用于渲染所述媒体内容的姿势信息以及来自所述第二装置的所述经渲染的媒体内容;将已经用于渲染所述媒体的所述姿势信息与实际姿势信息进行比较;以及基于所述比较的结果更新所述经渲染的媒体内容。
第五十五EEE涉及根据第五十四EEE所述的第一装置,其中,所述实际姿势信息是在所述第一装置处理所述经渲染的媒体内容以进行再现的定时获得的姿势信息。
第五十六EEE涉及根据第四十九至第五十五EEE中任一项所述的第一装置,进一步适用于基于所述姿势信息和先前姿势信息获得预测的姿势信息,并将所述预测的姿势信息传输到所述第二装置。
第五十七EEE涉及根据第五十六EEE所述的第一装置,其中,所述预测的姿势信息被预测来对预期要由所述第一装置处理所述经渲染的媒体内容以进行再现的定时进行估计。
第五十八EEE涉及根据第四十九至第五十七EEE中任一项所述的第一装置,其中,所述经渲染的媒体内容是以未压缩的形式从所述第二装置接收的。
第五十九EEE涉及根据第四十九至第五十八EEE中任一项所述的第一装置,其中,所述第一装置进一步适用于对经编码的经渲染媒体内容进行解码。
第六十EEE涉及根据第五十七EEE或包括第五十七EEE的特征的任何EEE所述的第一装置,其中,对预期要由所述第一装置处理所述经渲染的媒体内容以进行再现的定时的所述估计包括:对编码和解码所述经渲染的音频内容所需的时间的估计和/或对将所述经渲染的媒体内容传输到所述第一装置所需的时间的估计。
第六十一EEE涉及根据第四十九至第六十EEE中任一项所述的第一装置,进一步适用于:将已经用于渲染所述媒体内容的所述姿势信息与当前姿势信息进行比较,并基于所述比较结果更新所述经渲染的媒体内容。
第六十二EEE涉及根据第四十九至第六十一EEE中任一项所述的第一装置,进一步适用于:接收指示所述经渲染的媒体内容如何响应于所述姿势信息的变化而变化的梯度信息、以及来自所述第二装置的所述经渲染的媒体内容;将已经用于渲染所述媒体内容的所述姿势信息与当前姿势信息进行比较;以及基于所述梯度信息和所述比较结果更新所述经渲染的媒体内容。
第六十三EEE涉及根据第四十九至第六十二EEE中任一项所述的第一装置,其中,所述媒体内容包括音频内容,并且所述经渲染的媒体内容包括经渲染的音频内容,所述第一装置进一步适用于将指示所述第一装置所处的环境的声学特性的环境信息传输到所述第二装置,并且所述渲染所述媒体内容进一步基于所述环境信息。
第六十四EEE涉及根据第四十九至第六十三EEE中任一项所述的第一装置,其中,所述媒体内容包括音频内容,并且所述经渲染的媒体内容包括经渲染的音频内容,所述第一装置进一步适用于将指示所述用户或所述用户的一部分的形貌的形貌信息传输到所述第二装置,并且所述渲染所述媒体内容进一步基于所述形貌信息。
第六十五EEE涉及一种用于渲染音频内容的方法。所述方法包括:由发送方(S)装置接收用户位置和/或取向数据,并发送通常由基于对象-5或HOA表示得到的相应的预渲染内容。
第六十六EEE涉及根据第六十五EEE所述的方法,其中,由所述发送方生成的所述预渲染信号可以是双耳、FOA/B格式、HOA、或任何类型的基于声道的渲染。
第六十七EEE涉及根据第六十五或第六十六EEE所述的方法,进一步包括传输未压缩的预渲染内容。
第六十八EEE涉及根据第六十五或第六十六EEE所述的方法,进一步包括对所述预渲染的内容进行编码并传输经编码的预渲染内容。
第六十九EEE涉及根据第六十五至第六十八EEE中任一项所述的方法,进一步包括由接收方接收所述预渲染内容。
第七十EEE涉及根据第六十五至第六十九EEE中任一项所述的方法,进一步包括由接收方对预渲染的、预编码的双耳化内容进行解码。
第七十一EEE涉及根据第六十五至第七十EEE中任一项所述的方法,其中,所述用户位置和/或取向数据包括指示所述用户在世界空间中的位置和取向的本地姿势。
第七十二EEE涉及根据第六十五至第七十一EEE中任一项所述的方法,其中,所述用户位置数据从接收方传输到所述发送方。
第七十三EEE涉及根据第六十五到第七十二EEE中任一项所述的方法,进一步包括将用于预渲染的双耳化内容的所述用户位置数据传输回所述接收方。
第七十四EEE涉及根据第六十五至第七十三EEE中任一项所述的方法,进一步包括基于所接收的用户位置数据和所述本地位置数据来外推所述预渲染的内容以确定更新的内容。
第七十五EEE涉及根据第六十五至第七十四EEE中任一项所述的方法,进一步包括传输关于所述用户的形貌数据(例如,头部大小、头部形状)以用于个性化双耳处理。
第七十六EEE涉及根据第六十五至第七十五EEE中任一项所述的方法,进一步包括传输关于BRIR函数和/或房间表征的数据。
第七十七EEE涉及根据第六十五至第七十六EEE中任一项所述的方法,进一步包括基于确定所述内容以收听者不可知的方式(例如,不包括HRTF)传输,然后在所述接收方侧执行双耳渲染和个性化。
第七十八EEE涉及根据第六十五至第七十七EEE中任一项所述的方法,进一步包括在时间点t1提供用户位置和/或取向数据P(t0)。
第七十九EEE涉及根据第六十七EEE所述的方法,其中,所述未压缩的预渲染内容是双耳化的未压缩的预渲染内容。

Claims (57)

1.一种处理媒体内容以供第一装置再现的方法,所述方法包括:
获得指示用户的位置和/或取向的姿势信息;
将所述姿势信息传输到提供所述媒体内容的第二装置;
基于所述姿势信息和先前姿势信息获得预测的姿势信息;
基于所述预测的姿势信息来渲染所述媒体内容以获得经渲染的媒体内容;以及
将所述经渲染的媒体内容传输到所述第一装置以进行再现;
其中,所述预测的姿势信息是进一步基于对编码和解码所述经渲染的媒体内容所需的时间的估计和/或对将所述经渲染的媒体内容传输到所述第一装置所需的时间的估计来获得的。
2.根据权利要求1所述的方法,其中,所述媒体内容包括音频内容,并且所述经渲染的媒体内容包括经渲染的音频内容;和/或
所述媒体内容包括视频内容,并且所述经渲染的媒体内容包括经渲染的视频内容。
3.根据权利要求1所述的方法,其中,所述媒体内容包括音频内容,并且所述经渲染的媒体内容包括经渲染的音频内容;并且
所述方法进一步包括生成所述经渲染的音频内容的听觉表示。
4.根据权利要求2所述的方法,其中,所述音频内容是基于一阶高保真度立体声响复制FOA的音频内容、基于更高阶高保真度立体声响复制HOA的音频内容、基于对象的音频内容、或基于声道的音频内容中的一种,或者是基于FOA的音频内容、基于HOA的音频内容、基于对象的音频内容、或基于声道的音频内容中的两种或更多种的组合。
5.根据权利要求2所述的方法,其中,所述经渲染的音频内容是双耳音频内容、FOA音频内容、HOA音频内容、或基于声道的音频内容中的一种,或者是双耳音频内容、FOA音频内容、HOA音频内容、或基于声道的音频内容中的两种或更多种的组合。
6.根据权利要求1所述的方法,进一步包括:
将所述预测的姿势信息与所述经渲染的媒体内容一起传输到所述第一装置。
7.根据权利要求6所述的方法,进一步包括:
将所述预测的姿势信息与实际姿势信息进行比较;以及
基于比较的结果更新所述经渲染的媒体内容。
8.根据权利要求7所述的方法,其中,所述预测的姿势信息被预测用于对预期要由所述第一装置处理所述经渲染的媒体内容以进行再现的定时的估计;并且
所述实际姿势信息是在所述第一装置实际处理所述经渲染的媒体内容以进行再现的定时获得的姿势信息。
9.根据权利要求1所述的方法,其中,以未压缩的形式将所述经渲染的媒体内容传输到所述第一装置。
10.根据权利要求1所述的方法,进一步包括:
在向所述第一装置传输之前对所述经渲染的媒体内容进行编码;以及在所述第一装置处接收到经编码的所述经渲染的媒体内容之后,对经编码的所述经渲染的媒体内容进行解码。
11.根据权利要求8所述的方法,其中,对预期要由所述第一装置处理所述经渲染的媒体内容以进行再现的定时的所述估计包括:对编码和解码所述经渲染的音频内容所需的时间的估计和/或对将所述经渲染的媒体内容传输到所述第一装置所需的时间的估计。
12.根据权利要求1所述的方法,进一步包括:
将已经用于渲染所述媒体内容的所述姿势信息与当前姿势信息进行比较;以及
基于比较的结果更新所述经渲染的媒体内容。
13.根据权利要求1所述的方法,进一步包括:
在所述第二装置处确定指示所述经渲染的媒体内容如何响应于所述姿势信息的变化而变化的梯度信息;
将所述梯度信息与所述经渲染的媒体内容一起传输到所述第一装置;
在所述第一装置处将已经用于渲染所述媒体内容的所述姿势信息与当前姿势信息进行比较;以及
基于所述梯度信息和比较的结果更新所述经渲染的媒体内容。
14.根据权利要求1所述的方法,其中,所述媒体内容包括音频内容,并且所述经渲染的媒体内容包括经渲染的音频内容;
所述方法进一步包括:将指示所述第一装置所处的环境的声学特性的环境信息传输到所述第二装置;并且
渲染所述媒体内容进一步基于所述环境信息。
15.根据权利要求1所述的方法,其中,所述媒体内容包括音频内容,并且所述经渲染的媒体内容包括经渲染的音频内容;
所述方法进一步包括:将指示所述用户或所述用户的一部分的形貌的形貌信息传输到所述第二装置;并且
渲染所述媒体内容进一步基于所述形貌信息。
16.一种处理媒体内容以供再现的系统,所述系统包括用于再现所述媒体内容的第一装置和存储所述媒体内容的第二装置,
其中,所述第一装置适用于:
-获得指示用户的位置和/或取向的姿势信息;以及
-将所述姿势信息传输到所述第二装置;并且
所述第二装置适用于:
-基于所述姿势信息和先前姿势信息获得预测的姿势信息;
-基于所述预测的姿势信息来渲染所述媒体内容以获得经渲染的媒体内容;以及
-将所述经渲染的媒体内容传输到所述第一装置以进行再现;
其中,所述预测的姿势信息是进一步基于对编码和解码所述经渲染的媒体内容所需的时间的估计和/或对将所述经渲染的媒体内容传输到所述第一装置所需的时间的估计来获得的。
17.根据权利要求16所述的系统,其中,所述媒体内容包括音频内容,并且所述经渲染的媒体内容包括经渲染的音频内容;和/或
所述媒体内容包括视频内容,并且所述经渲染的媒体内容包括经渲染的视频内容。
18.根据权利要求16所述的系统,其中,所述媒体内容包括音频内容,并且所述经渲染的媒体内容包括经渲染的音频内容;并且
所述第一装置进一步适用于生成所述经渲染的音频内容的听觉表示。
19.根据权利要求17所述的系统,其中,所述音频内容是基于一阶高保真度立体声响复制FOA的音频内容、基于更高阶高保真度立体声响复制HOA的音频内容、基于对象的音频内容、或基于声道的音频内容中的一种,或者是基于FOA的音频内容、基于HOA的音频内容、基于对象的音频内容、或基于声道的音频内容中的两种或更多种的组合。
20.根据权利要求17所述的系统,其中,所述经渲染的音频内容是双耳音频内容、FOA音频内容、HOA音频内容、或基于声道的音频内容中的一种,或者是双耳音频内容、FOA音频内容、HOA音频内容、或基于声道的音频内容中的两种或更多种的组合。
21.根据权利要求16所述的系统,其中,所述第二装置进一步适用于:
将所述预测的姿势信息与所述经渲染的媒体内容一起传输到所述第一装置。
22.根据权利要求21所述的系统,其中,所述第一装置进一步适用于:
将所述预测的姿势信息与实际姿势信息进行比较;以及
基于比较的结果更新所述经渲染的媒体内容。
23.根据权利要求22所述的系统,其中,所述预测的姿势信息被预测用于对预期要由所述第一装置处理所述经渲染的媒体内容以进行再现的定时的估计;并且
所述实际姿势信息是在所述第一装置实际处理所述经渲染的媒体内容以进行再现的定时获得的姿势信息。
24.根据权利要求16所述的系统,其中,以未压缩的形式将所述经渲染的媒体内容传输到所述第一装置。
25.根据权利要求16所述的系统,其中,所述第二装置进一步适用于在向所述第一装置传输之前对所述经渲染的媒体内容进行编码;并且
所述第一装置进一步适用于在所述第一装置处接收到经编码的所述经渲染的媒体内容之后,对经编码的所述经渲染的媒体内容进行解码。
26.根据权利要求23所述的系统,其中,对预期要由所述第一装置处理所述经渲染的媒体内容以进行再现的定时的所述估计包括:对编码和解码所述经渲染的音频内容所需的时间的估计和/或对将所述经渲染的媒体内容传输到所述第一装置所需的时间的估计。
27.根据权利要求16所述的系统,其中,所述第一装置进一步适用于:
将已经用于渲染所述媒体内容的所述姿势信息与当前姿势信息进行比较;以及
基于比较的结果更新所述经渲染的媒体内容。
28.根据权利要求16所述的系统,其中,所述第二装置进一步适用于:
确定指示所述经渲染的媒体内容如何响应于所述姿势信息的变化而变化的梯度信息;以及
将所述梯度信息与所述经渲染的媒体内容一起传输到所述第一装置;并且
所述第一装置进一步适用于:
将已经用于渲染所述媒体内容的所述姿势信息与当前姿势信息进行比较;以及
基于所述梯度信息和比较的结果更新所述经渲染的媒体内容。
29.根据权利要求16所述的系统,其中,所述媒体内容包括音频内容,并且所述经渲染的媒体内容包括经渲染的音频内容;
所述第一装置进一步适用于将指示所述第一装置所处的环境的声学特性的环境信息传输到所述第二装置;并且
渲染所述媒体内容进一步基于所述环境信息。
30.根据权利要求16所述的系统,其中,所述媒体内容包括音频内容,并且所述经渲染的媒体内容包括经渲染的音频内容;
所述第一装置进一步适用于将指示所述用户或所述用户的一部分的形貌的形貌信息传输到所述第二装置;并且
渲染所述媒体内容进一步基于所述形貌信息。
31.一种用于提供媒体内容以供第一装置再现的第二装置,所述第二装置包括处理器和耦接到所述处理器的存储器,所述处理器适用于:
接收指示所述第一装置的用户的位置和/或取向的姿势信息;
基于所述姿势信息和先前姿势信息获得预测的姿势信息;
基于所述预测的姿势信息来渲染所述媒体内容以获得经渲染的媒体内容;以及
将所述经渲染的媒体内容传输到所述第一装置以进行再现;
其中,所述预测的姿势信息是进一步基于对编码和解码所述经渲染的媒体内容所需的时间的估计和/或对将所述经渲染的媒体内容传输到所述第一装置所需的时间的估计来获得的。
32.根据权利要求31所述的第二装置,其中,所述媒体内容包括音频内容,并且所述经渲染的媒体内容包括经渲染的音频内容;和/或
所述媒体内容包括视频内容,并且所述经渲染的媒体内容包括经渲染的视频内容。
33.根据权利要求32所述的第二装置,其中,所述音频内容是基于一阶高保真度立体声响复制FOA的音频内容、基于更高阶高保真度立体声响复制HOA的音频内容、基于对象的音频内容、或基于声道的音频内容中的一种,或者是基于FOA的音频内容、基于HOA的音频内容、基于对象的音频内容、或基于声道的音频内容中的两种或更多种的组合。
34.根据权利要求32所述的第二装置,其中,所述经渲染的音频内容是双耳音频内容、FOA音频内容、HOA音频内容、或基于声道的音频内容中的一种,或者是双耳音频内容、FOA音频内容、HOA音频内容、或基于声道的音频内容中的两种或更多种的组合。
35.根据权利要求31所述的第二装置,其中,所述处理器进一步适用于:
将所述预测的姿势信息与所述经渲染的媒体内容一起传输到所述第一装置。
36.根据权利要求31所述的第二装置,其中,所述预测的姿势信息被预测用于对预期要由所述第一装置处理所述经渲染的媒体内容以进行再现的定时的估计。
37.根据权利要求31所述的第二装置,其中,以未压缩的形式将所述经渲染的媒体内容传输到所述第一装置。
38.根据权利要求31所述的第二装置,其中,所述处理器进一步适用于在向所述第一装置传输之前对所述经渲染的媒体内容进行编码。
39.根据权利要求36所述的第二装置,其中,对预期要由所述第一装置处理所述经渲染的媒体内容以进行再现的定时的所述估计包括:对编码和解码所述经渲染的音频内容所需的时间的估计和/或对将所述经渲染的媒体内容传输到所述第一装置所需的时间的估计。
40.根据权利要求31所述的第二装置,其中,所述处理器进一步适用于:
确定指示所述经渲染的媒体内容如何响应于所述姿势信息的变化而变化的梯度信息;以及
将所述梯度信息与所述经渲染的媒体内容一起传输到所述第一装置。
41.根据权利要求31所述的第二装置,其中,所述媒体内容包括音频内容,并且所述经渲染的媒体内容包括经渲染的音频内容;
所述处理器进一步适用于从所述第一装置接收指示所述第一装置所处的环境的声学特性的环境信息;并且
渲染所述媒体内容进一步基于所述环境信息。
42.根据权利要求31所述的第二装置,其中,所述媒体内容包括音频内容,并且所述经渲染的媒体内容包括经渲染的音频内容;
所述处理器进一步适用于从所述第一装置接收指示所述用户或所述用户的一部分的形貌的形貌信息;并且
渲染所述媒体内容进一步基于所述形貌信息。
43.一种用于再现由第二装置提供的媒体内容的第一装置,所述第一装置包括处理器和耦接到所述处理器的存储器,所述处理器适用于:
获得指示所述第一装置的用户的位置和/或取向的姿势信息;
将所述姿势信息传输到所述第二装置;
从所述第二装置接收经渲染的媒体内容以及基于所述姿势信息和先前姿势信息的预测的姿势信息;以及
再现所述经渲染的媒体内容;
其中,所述预测的姿势信息是进一步基于对编码和解码所述经渲染的媒体内容所需的时间的估计和/或对将所述经渲染的媒体内容传输到所述第一装置所需的时间的估计来获得的。
44.根据权利要求43所述的第一装置,其中,所述媒体内容包括音频内容,并且所述经渲染的媒体内容包括经渲染的音频内容;和/或
所述媒体内容包括视频内容,并且所述经渲染的媒体内容包括经渲染的视频内容。
45.根据权利要求43所述的第一装置,其中,所述媒体内容包括音频内容,并且所述经渲染的媒体内容包括经渲染的音频内容;并且
所述处理器进一步适用于生成所述经渲染的音频内容的听觉表示。
46.根据权利要求44所述的第一装置,其中,所述音频内容是基于一阶高保真度立体声响复制FOA的音频内容、基于更高阶高保真度立体声响复制HOA的音频内容、基于对象的音频内容、或基于声道的音频内容中的一种,或者是基于FOA的音频内容、基于HOA的音频内容、基于对象的音频内容、或基于声道的音频内容中的两种或更多种的组合。
47.根据权利要求44所述的第一装置,其中,所述经渲染的音频内容是双耳音频内容、FOA音频内容、HOA音频内容、或基于声道的音频内容中的一种,或者是双耳音频内容、FOA音频内容、HOA音频内容、或基于声道的音频内容中的两种或更多种的组合。
48.根据权利要求43所述的第一装置,其中,所述处理器进一步适用于:
将已经用于渲染所述媒体的所述预测的姿势信息与实际姿势信息进行比较;以及
基于比较的结果更新所述经渲染的媒体内容。
49.根据权利要求48所述的第一装置,其中,所述实际姿势信息是在所述第一装置处理所述经渲染的媒体内容以进行再现的定时获得的姿势信息。
50.根据权利要求43所述的第一装置,其中,所述预测的姿势信息被预测用于对预期要由所述第一装置处理所述经渲染的媒体内容以进行再现的定时的估计。
51.根据权利要求43所述的第一装置,其中,以未压缩的形式从所述第二装置接收所述经渲染的媒体内容。
52.根据权利要求43所述的第一装置,其中,所述处理器进一步适用于对经编码的经渲染的媒体内容进行解码。
53.根据权利要求50所述的第一装置,其中,对预期要由所述第一装置处理所述经渲染的媒体内容以进行再现的定时的所述估计包括:对编码和解码所述经渲染的音频内容所需的时间的估计和/或对将所述经渲染的媒体内容传输到所述第一装置所需的时间的估计。
54.根据权利要求43所述的第一装置,其中,所述处理器进一步适用于:
将已经用于渲染所述媒体内容的所述姿势信息与当前姿势信息进行比较;以及
基于比较的结果更新所述经渲染的媒体内容。
55.根据权利要求43所述的第一装置,其中,所述处理器进一步适用于:
从所述第二装置接收指示所述经渲染的媒体内容如何响应于所述姿势信息的变化而变化的梯度信息以及所述经渲染的媒体内容;
将已经用于渲染所述媒体内容的所述姿势信息与当前姿势信息进行比较;以及
基于所述梯度信息和比较的结果更新所述经渲染的媒体内容。
56.根据权利要求43所述的第一装置,其中,所述媒体内容包括音频内容,并且所述经渲染的媒体内容包括经渲染的音频内容;
所述处理器进一步适用于将指示所述第一装置所处的环境的声学特性的环境信息传输到所述第二装置;并且
渲染所述媒体内容进一步基于所述环境信息。
57.根据权利要求43所述的第一装置,其中,所述媒体内容包括音频内容,并且所述经渲染的媒体内容包括经渲染的音频内容;
所述处理器进一步适用于将指示所述用户或所述用户的一部分的形貌的形貌信息传输到所述第二装置;并且
渲染所述媒体内容进一步基于所述形貌信息。
CN201880011958.7A 2017-06-15 2018-06-15 处理媒体内容以供第一装置再现的方法、系统和装置 Active CN110313187B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202210529511.7A CN114895785A (zh) 2017-06-15 2018-06-15 一种包括再现和存储媒体内容的装置的系统及其相关装置
CN202210529499.XA CN115097930A (zh) 2017-06-15 2018-06-15 一种包括再现和存储媒体内容的装置的系统及其相关装置

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201762519952P 2017-06-15 2017-06-15
EP17176248.7 2017-06-15
US62/519,952 2017-06-15
EP17176248 2017-06-15
US201862680678P 2018-06-05 2018-06-05
US62/680,678 2018-06-05
PCT/US2018/037887 WO2018232327A1 (en) 2017-06-15 2018-06-15 Methods, apparatus and systems for optimizing communication between sender(s) and receiver(s) in computer-mediated reality applications

Related Child Applications (2)

Application Number Title Priority Date Filing Date
CN202210529511.7A Division CN114895785A (zh) 2017-06-15 2018-06-15 一种包括再现和存储媒体内容的装置的系统及其相关装置
CN202210529499.XA Division CN115097930A (zh) 2017-06-15 2018-06-15 一种包括再现和存储媒体内容的装置的系统及其相关装置

Publications (2)

Publication Number Publication Date
CN110313187A CN110313187A (zh) 2019-10-08
CN110313187B true CN110313187B (zh) 2022-06-07

Family

ID=62713124

Family Applications (3)

Application Number Title Priority Date Filing Date
CN202210529499.XA Pending CN115097930A (zh) 2017-06-15 2018-06-15 一种包括再现和存储媒体内容的装置的系统及其相关装置
CN201880011958.7A Active CN110313187B (zh) 2017-06-15 2018-06-15 处理媒体内容以供第一装置再现的方法、系统和装置
CN202210529511.7A Pending CN114895785A (zh) 2017-06-15 2018-06-15 一种包括再现和存储媒体内容的装置的系统及其相关装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN202210529499.XA Pending CN115097930A (zh) 2017-06-15 2018-06-15 一种包括再现和存储媒体内容的装置的系统及其相关装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN202210529511.7A Pending CN114895785A (zh) 2017-06-15 2018-06-15 一种包括再现和存储媒体内容的装置的系统及其相关装置

Country Status (6)

Country Link
US (2) US10953327B2 (zh)
EP (1) EP3571855A1 (zh)
JP (2) JP7212622B2 (zh)
KR (2) KR102517906B1 (zh)
CN (3) CN115097930A (zh)
BR (1) BR112019016833A2 (zh)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10962780B2 (en) * 2015-10-26 2021-03-30 Microsoft Technology Licensing, Llc Remote rendering for virtual images
WO2019004524A1 (ko) * 2017-06-27 2019-01-03 엘지전자 주식회사 6자유도 환경에서 오디오 재생 방법 및 오디오 재생 장치
CN116193213A (zh) * 2017-10-12 2023-05-30 弗劳恩霍夫应用研究促进协会 用于虚拟现实应用的音频传递优化
US11019449B2 (en) 2018-10-06 2021-05-25 Qualcomm Incorporated Six degrees of freedom and three degrees of freedom backward compatibility
US11625806B2 (en) * 2019-01-23 2023-04-11 Qualcomm Incorporated Methods and apparatus for standardized APIs for split rendering
US11961178B2 (en) * 2019-05-10 2024-04-16 Roderick V. Kennedy Reduction of the effects of latency for extended reality experiences by split rendering of imagery types
US20210409888A1 (en) * 2020-06-29 2021-12-30 Qualcomm Incorporated Sound field adjustment
GB2601805A (en) * 2020-12-11 2022-06-15 Nokia Technologies Oy Apparatus, Methods and Computer Programs for Providing Spatial Audio
KR20230157331A (ko) 2021-03-16 2023-11-16 파나소닉 인텔렉츄얼 프로퍼티 코포레이션 오브 아메리카 정보 처리 방법, 정보 처리 장치, 및, 프로그램
JP2023013768A (ja) * 2021-07-16 2023-01-26 株式会社ソニー・インタラクティブエンタテインメント 音声生成装置、音声生成方法およびそのプログラム
CN115714947A (zh) * 2021-08-10 2023-02-24 华为技术有限公司 一种音频数据的处理方法、装置、移动设备以及音频系统
US20230130524A1 (en) * 2021-10-25 2023-04-27 Samsung Electronics Co., Ltd. Personalized vertigo rehabilitation
CN114598984B (zh) * 2022-01-11 2023-06-02 华为技术有限公司 立体声合成方法和系统
US12003949B2 (en) * 2022-01-19 2024-06-04 Meta Platforms Technologies, Llc Modifying audio data transmitted to a receiving device to account for acoustic parameters of a user of the receiving device

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AUPO099696A0 (en) * 1996-07-12 1996-08-08 Lake Dsp Pty Limited Methods and apparatus for processing spatialised audio
JP2003521202A (ja) 2000-01-28 2003-07-08 レイク テクノロジー リミティド 地理的な環境で使用される空間オーディオシステム。
US7743340B2 (en) * 2000-03-16 2010-06-22 Microsoft Corporation Positioning and rendering notification heralds based on user's focus of attention and activity
US8559646B2 (en) 2006-12-14 2013-10-15 William G. Gardner Spatial audio teleconferencing
JP5676487B2 (ja) 2009-02-13 2015-02-25 コーニンクレッカ フィリップス エヌ ヴェ モバイル用途のための頭部追跡
US9400695B2 (en) * 2010-02-26 2016-07-26 Microsoft Technology Licensing, Llc Low latency rendering of objects
EP2450880A1 (en) * 2010-11-05 2012-05-09 Thomson Licensing Data structure for Higher Order Ambisonics audio data
US9554229B2 (en) 2011-10-31 2017-01-24 Sony Corporation Amplifying audio-visual data based on user's head orientation
KR102184766B1 (ko) * 2013-10-17 2020-11-30 삼성전자주식회사 3차원 모델 복원 시스템 및 방법
US9584980B2 (en) * 2014-05-27 2017-02-28 Qualcomm Incorporated Methods and apparatus for position estimation
JP6292040B2 (ja) 2014-06-10 2018-03-14 富士通株式会社 音声処理装置、音源位置制御方法及び音源位置制御プログラム
CN107735152B (zh) * 2015-06-14 2021-02-02 索尼互动娱乐股份有限公司 用于虚拟现实(vr)观看的扩展视野重新渲染
US10089790B2 (en) * 2015-06-30 2018-10-02 Ariadne's Thread (Usa), Inc. Predictive virtual reality display system with post rendering correction
US10979843B2 (en) 2016-04-08 2021-04-13 Qualcomm Incorporated Spatialized audio output based on predicted position data
US11457325B2 (en) * 2020-07-20 2022-09-27 Meta Platforms Technologies, Llc Dynamic time and level difference rendering for audio spatialization

Also Published As

Publication number Publication date
US20210275915A1 (en) 2021-09-09
CN110313187A (zh) 2019-10-08
BR112019016833A2 (pt) 2020-04-07
JP2023040239A (ja) 2023-03-22
JP2020524420A (ja) 2020-08-13
KR102517906B1 (ko) 2023-04-05
US20200094141A1 (en) 2020-03-26
RU2019125632A3 (zh) 2021-11-17
JP7212622B2 (ja) 2023-01-25
CN115097930A (zh) 2022-09-23
CN114895785A (zh) 2022-08-12
RU2019125632A (ru) 2021-02-15
EP3571855A1 (en) 2019-11-27
KR20230048463A (ko) 2023-04-11
US10953327B2 (en) 2021-03-23
KR20200018773A (ko) 2020-02-20

Similar Documents

Publication Publication Date Title
CN110313187B (zh) 处理媒体内容以供第一装置再现的方法、系统和装置
US11743672B2 (en) Method and system for handling local transitions between listening positions in a virtual reality environment
JP6622388B2 (ja) ビデオ画像に関連付けられているオーディオ信号を処理する方法および装置
WO2018132677A1 (en) Audio parallax for virtual reality, augmented reality, and mixed reality
US11750999B2 (en) Method and system for handling global transitions between listening positions in a virtual reality environment
CN111466124A (zh) 增强的视听多用户通信
JP2023517709A (ja) エンコードされた6dofオーディオビットストリームのレンダリング及び遅延型更新
CN114600188A (zh) 用于音频编码的装置和方法
CN112673649A (zh) 空间音频增强
CN111183658A (zh) 用于计算机介导现实系统的渲染
KR20210072736A (ko) 인코딩 및 디코딩 동작을 단순화하기 위해 상이한 포맷으로 캡처된 오디오 신호들을 축소된 수의 포맷으로 변환하는 것
CN113519023A (zh) 具有压缩环境的音频编码
JP2022126849A (ja) メタデータを利用するオーディオ信号処理方法及び装置
WO2018232327A1 (en) Methods, apparatus and systems for optimizing communication between sender(s) and receiver(s) in computer-mediated reality applications
RU2774212C2 (ru) Способ и система для обработки аудиоконтента, способ и система для обработки мультимедийного контента для воспроизведения
KR20230088428A (ko) 시청각 렌더링 장치 및 그 동작 방법
KR20220097888A (ko) 비트스트림에서 오디오 효과 메타데이터의 시그널링
WO2020191164A1 (en) Rendering metadata to control user movement based audio rendering
GB2568726A (en) Object prioritisation of virtual content
CN117768832A (zh) 用于高效编码场景位置的方法和系统
GB2611800A (en) A method and apparatus for efficient delivery of edge based rendering of 6DOF MPEG-I immersive audio
KR20140128562A (ko) 사용자의 재생 채널의 위치에 따른 객체 신호 복호화 방법
KR20140128563A (ko) 복호화 객체 리스트 갱신 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant