CN105431900A - 空间上的弥漫性或大音频对象的处理 - Google Patents

空间上的弥漫性或大音频对象的处理 Download PDF

Info

Publication number
CN105431900A
CN105431900A CN201480043090.0A CN201480043090A CN105431900A CN 105431900 A CN105431900 A CN 105431900A CN 201480043090 A CN201480043090 A CN 201480043090A CN 105431900 A CN105431900 A CN 105431900A
Authority
CN
China
Prior art keywords
audio object
decorrelation
metadata
sound signal
large audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201480043090.0A
Other languages
English (en)
Other versions
CN105431900B (zh
Inventor
D·J·布瑞巴特
芦烈
N·R·清格斯
A·玛蒂奥斯索尔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dolby International AB
Dolby Laboratories Licensing Corp
Original Assignee
Dolby International AB
Dolby Laboratories Licensing Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dolby International AB, Dolby Laboratories Licensing Corp filed Critical Dolby International AB
Priority to CN201911130633.3A priority Critical patent/CN110797037A/zh
Priority to CN201911130634.8A priority patent/CN110808055B/zh
Publication of CN105431900A publication Critical patent/CN105431900A/zh
Application granted granted Critical
Publication of CN105431900B publication Critical patent/CN105431900B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/308Electronic adaptation dependent on speaker or headphone connection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/018Audio watermarking, i.e. embedding inaudible data in the audio signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/20Vocoders using multiple modes using sound class specific coding, hybrid encoders or object based coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/002Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/13Aspects of volume control, not necessarily automatic, in stereophonic sound systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/15Aspects of sound capture and related signal processing for recording or reproduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/03Application of parametric coding in stereophonic audio systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/07Synergistic effects of band splitting and sub-band processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Stereophonic System (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

弥漫性或空间上的大音频对象可被识别以进行特殊处理。去相关过程可以对对应于大音频对象的音频信号执行,以产生去相关的大音频对象音频信号。这些去相关的大音频对象音频信号可以与对象位置关联,对象位置可以是固定的或随时间变化的位置。例如,去相关的大音频对象音频信号可以被渲染到虚拟或实际扬声器位置。这种渲染过程的输出可以被输入到场景简化过程。去相关、关联和/或场景简化过程可以在编码音频数据的过程之前执行。

Description

空间上的弥漫性或大音频对象的处理
对相关申请的交叉引用
本申请要求于2013年7月31日提交的西班牙专利申请No.P201331193和2013年10月2日提交的美国临时申请No.61/885,805的优先权,每个申请的全部内容都通过引用被结合于此。
技术领域
本公开内容涉及处理音频数据。更具体而言,本公开内容涉及处理对应于弥漫性(diffuse)或空间上的大音频对象的音频数据。
背景技术
自1927年在电影中引入声音开始,用来捕获运动画面声轨的艺术意图并且再现这种内容的技术一直稳步发展。在20世纪70年代,杜比(Dolby)推出了利用3个屏幕通道和一个单环绕声道编码和分布混合的成本有效手段。在20世纪90年代,杜比利用5.1通道格式将数字声音带到电影院,该5.1通道格式提供分立的左、中、右屏幕通道,左和右环绕声阵列以及用于低频效果的低音炮通道。在2010年推出的杜比环绕7.1通过将现有的左和右环绕通道分为四个“区”,增加了环绕通道的数量。
电影院和家庭影院音频重放系统正变得越来越多功能和复杂。家庭影院音频重放系统包括越来越多数量的扬声器。随着通道数量增加并且喇叭布局从平面二维(2D)阵列变迁到包括仰角(elevation)的三维(3D)阵列,在重放环境中再现声音正成为更加复杂的过程。改进的音频处理方法将是期望的。
发明内容
提供了用于处理弥漫性或空间上的大音频对象的改进方法。如本文所使用的,术语“音频对象”指音频信号(本文也称为“音频对象信号”)和无需参照任何特定的重放环境就可被创建或“创作”的关联的元数据。关联的元数据可以包括音频对象位置数据、音频对象增益数据、音频对象尺寸数据、音频对象轨迹数据,等等。如本文所使用的,术语“渲染”指将音频对象变换成用于特定重放环境的扬声器馈送信号的过程。渲染过程可以至少部分地根据关联的元数据并根据重放环境数据来执行。重放环境数据可以包括重放环境中扬声器数量的指示和重放环境内每个扬声器的位置的指示。
空间上的大音频对象不是要被感知为点声源,而是应当被感知为覆盖大的空间区域。在一些情况下,大音频对象应当被感知为围绕听者。这种音频效果可能无法仅仅通过平移(panning)来实现,而是可能需要另外的处理。为了创建令人信服的空间对象尺寸,或空间弥漫性,重放环境中显著比例的扬声器信号应当相互独立,或至少不相关(例如,就一阶交叉相关或协方差而言是独立的)。足够复杂的渲染系统,诸如用于剧院的渲染系统,可以能够提供这种去相关。但是,不太复杂的渲染系统,诸如要用于家庭影院系统的那些,可能不能够提供足够的去相关。
本文所描述的一些实施方式可以涉及识别弥漫性或空间上的大音频对象以进行特殊处理。去相关过程可以对对应于大音频对象的音频信号执行,以产生去相关的大音频对象音频信号。这些去相关的大音频对象音频信号可以与对象位置关联,对象位置可以是静止的或随时间变化的位置。关联过程可以独立于实际重放扬声器配置。例如,去相关的大音频对象音频信号可以被渲染到虚拟扬声器位置。在一些实施方式中,这种渲染过程的输出可以被输入到场景简化过程。
因此,本公开内容的至少一些方面可以在可以涉及接收包括音频对象的音频数据的方法中实现。音频对象可以包括音频对象信号和关联的元数据。元数据可以至少包括音频对象尺寸数据。
该方法可以涉及,基于音频对象尺寸数据,确定音频对象尺寸大于阈值尺寸的大音频对象并且对大音频对象的音频信号执行去相关过程,以产生去相关的大音频对象音频信号。该方法可以涉及将去相关的大音频对象音频信号与对象位置关联。关联过程可以独立于实际重放扬声器配置。实际重放扬声器配置可以最终被用来向重放环境的扬声器渲染去相关的大音频对象音频信号。
该方法可以涉及接收用于大音频对象的去相关元数据。去相关过程可以至少部分地根据该去相关元数据来执行。该方法可以涉及编码从关联过程输出的音频数据。在一些实施方式中,编码过程可以不涉及编码用于大音频对象的去相关元数据。
对象位置可以包括对应于接收的音频对象的至少一些音频对象位置数据的位置。至少一些对象位置可以是固定的。但是,在一些实施方式中,至少一些对象位置可以随时间变化。
关联过程可以涉及根据虚拟扬声器位置渲染去相关的大音频对象音频信号。在一些例子中,接收过程可以涉及接收对应于扬声器位置的一个或多个音频床(bed)信号。该方法可以涉及混合接收的音频床信号或接收的音频对象信号当中至少一些与去相关的大音频对象音频信号。该方法可以涉及输出去相关的大音频对象音频信号,作为另外的音频床信号或音频对象信号。
该方法可以涉及向去相关的大音频对象音频信号应用电平调节过程。在一些实施方式中,大音频对象元数据可以包括音频对象位置元数据并且电平调节过程可以至少部分地依赖于大音频对象的音频对象尺寸元数据和音频对象位置元数据。
该方法可以涉及在执行去相关过程之后衰减或删除大音频对象的音频信号。但是,在一些实施方式中,该方法可以涉及在执行去相关过程之后保留对应于大音频对象的点源贡献的音频信号。
大音频对象元数据可以包括音频对象位置元数据。在一些这样的实施方式中,该方法可以涉及计算来自由大音频对象位置数据和大音频对象尺寸数据定义的音频对象面积或体积内的虚拟源的贡献。该方法还可以涉及至少部分地基于计算的贡献为多个输出通道当中每一个确定音频对象增益值的集合。该方法可以涉及混合去相关的大音频对象音频信号与用于在空间上与该大音频对象分开的距离为阈值量的音频对象的音频信号。
在一些实施方式中,该方法可以涉及在去相关过程之后执行音频对象群集过程。在一些这样的实施方式中,音频对象群集过程可以在关联过程之后执行。
该方法可以涉及评估音频数据,以确定内容类型。在一些这样的实施方式中,去相关过程可以根据内容类型被有选择地执行。例如,要执行的去相关的量可以依赖于内容类型。去相关过程可以涉及延迟、全通滤波器、伪随机滤波器和/或混响(reverberation)算法。
在本文中公开的方法可以经由硬件、固件、存储在一个或多个非暂态介质中的软件和/或其组合来实现。例如,本公开内容的至少一些方面可以在包括接口系统和逻辑系统的装置中实现。接口系统可以包括用户接口和/或网络接口。在一些实施方式中,该装置可以包括存储器系统。接口系统可以包括逻辑系统与存储器系统之间的至少一个接口。
逻辑系统可以包括至少一个处理器,诸如通用单芯片或多芯片处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或其它可编程逻辑器件、分立的门或晶体管逻辑、分立的硬件组件,和/或其组合。
在一些实施方式中,逻辑系统可以能够经由接口系统接收包括音频对象的音频数据。音频对象可以包括音频对象信号和关联的元数据。在一些实施方式中,元数据至少包括音频对象尺寸数据。逻辑系统可以能够基于音频对象尺寸数据确定音频对象尺寸大于阈值尺寸的大音频对象并且对大音频对象的音频信号执行去相关过程,以产生去相关的大音频对象音频信号。逻辑系统可以能够将去相关的大音频对象音频信号与对象位置关联。
关联过程可以独立于实际重放扬声器配置。例如,关联过程可以涉及根据虚拟扬声器位置渲染去相关的大音频对象音频信号。实际重放扬声器配置可以最终被用来向重放环境的扬声器渲染去相关的大音频对象音频信号。
逻辑系统可以能够经由接口系统接收用于大音频对象的去相关元数据。去相关过程可以至少部分地根据该去相关元数据来执行。
逻辑系统可以能够编码从关联过程输出的音频数据。在一些实施方式中,编码过程可以不涉及编码用于大音频对象的去相关元数据。
至少一些对象位置可以是固定的。但是,至少一些对象位置可以随时间变化。大音频对象元数据可以包括音频对象位置元数据。对象位置可以包括对应于接收的音频对象的至少一些音频对象位置元数据的位置。
接收过程可以涉及接收对应于扬声器位置的一个或多个音频床信号。逻辑系统可以能够混合接收的音频床信号或接收的音频对象信号当中至少一些与去相关的大音频对象音频信号。逻辑系统可以能够输出去相关的大音频对象音频信号,作为另外的音频床信号或音频对象信号。
逻辑系统可以能够对去相关的大音频对象音频信号应用电平调节过程。电平调节过程可以至少部分地依赖于大音频对象的音频对象尺寸元数据和音频对象位置元数据。
逻辑系统可以能够在执行去相关过程之后衰减或删除大音频对象的音频信号。但是,该装置可以能够在执行去相关过程之后保留对应于大音频对象的点源贡献的音频信号。
逻辑系统可以能够计算来自由大音频对象位置数据和大音频对象尺寸数据定义的音频对象面积或体积内的虚拟源的贡献。逻辑系统可以能够至少部分地基于计算出的贡献为多个输出通道当中每一个确定音频对象增益值的集合。逻辑系统可以能够混合去相关的大音频对象音频信号与用于在空间上与大音频对象分开的距离为阈值量的音频对象的音频信号。
逻辑系统可以能够在去相关过程之后执行音频对象群集过程。在一些实施方式中,音频对象群集过程可以在关联过程之后执行。
逻辑系统可以能够评估音频数据,以确定内容类型。去相关过程可以根据内容类型被有选择地执行。例如,要执行的去相关的量依赖于内容类型。去相关过程可以涉及延迟、全通滤波器、伪随机滤波器和/或混响算法。
本说明书中所描述的主题的一个或多个实施方式的细节在附图和以下描述中阐述。其它特征、方面和优点将从描述、附图和权利要求变得明了。应当注意的是,以下附图的相对尺寸可能不是按比例绘制的。
附图说明
图1示出了具有杜比环绕5.1配置的重放环境的例子。
图2示出了具有杜比环绕7.1配置的重放环境的例子。
图3A和3B示出了包括高度扬声器配置的家庭影院重放环境的两个例子。
图4A示出了描绘虚拟重放环境中的仰角变化的扬声器区的图形用户界面(GUI)的例子。
图4B示出了另一重放环境的例子。
图5是提供用于空间上的大音频对象的音频处理的例子的流程图。
图6A-6F是示出能够处理大音频对象的音频处理装置的组件的例子的框图。
图7是示出能够执行群集过程的系统的例子的框图。
图8是示出能够在自适应音频处理系统中群集对象和/或床的系统的例子的框图。
图9是提供在用于大音频对象的去相关过程之后进行群集过程的例子的框图。
图10A示出了相对于重放环境的虚拟源位置的例子。
图10B示出了相对于重放环境的虚拟源位置的替代性例子。
图11是提供音频处理装置的组件的例子的框图。
相同的附图标记和符号在各个附图中指示相同的要素。
具体实施方式
下面的描述针对用于描述本公开内容的一些创新方面的目的的某些实施方式,以及可以实现这些创新方面的情境的例子。但是,本文的教导可以按各种不同的方式应用。例如,虽然各种实施方式是就特定的重放环境进行描述的,但本文的教导广泛适用于其它已知的重放环境,以及可能将来被推出的重放环境。而且,所描述的实施方式可以至少部分地在各种设备和系统中被实现为硬件、软件、固件、基于云的系统,等等。因此,本公开内容的教导并不旨在限于附图中示出和/或在本文描述的实施方式,而是具有广泛的适用性。
图1示出了具有杜比环绕5.1配置的重放环境的例子。在这个例子中,重放环境是电影院重放环境。杜比环绕5.1是在20世纪90年代开发的,但这种配置仍然在家庭和电影院重放环境中被广泛部署。在电影院重放环境中,投影仪105可以被配置为将视频图像,例如电影的视频图像,投影到屏幕150上。音频数据可以与视频图像同步并且由声音处理器110处理。功率放大器115可以将扬声器馈送信号提供到重放环境100的扬声器。
杜比环绕5.1配置包括用于左环绕阵列122的左环绕通道120和用于右环绕阵列127的右环绕通道125。杜比环绕5.1配置还包括用于左扬声器阵列132的左通道130、用于中央扬声器阵列137的中央通道135、以及用于右扬声器阵列142的右通道140。在电影院环境中,这些通道可以分别被称为左屏幕通道、中央屏幕通道和右屏幕通道。独立的低频效果(LFE)通道144为低音炮145提供。
在2010年,杜比通过推出杜比环绕7.1提供了对数字影院声音的增强。图2示出了具有杜比环绕7.1配置的重放环境的例子。数字投影仪205可以被配置为接收数字视频数据并在屏幕150上投影视频图像。音频数据可以由声音处理器210处理。功率放大器215可以向重放环境200的扬声器提供扬声器馈送信号。
就像杜比环绕5.1,杜比环绕7.1配置包括用于左扬声器阵列132的左通道130、用于中央扬声器阵列137的中央通道135、用于右扬声器阵列142的右通道140以及用于低音炮145的LFE通道144。杜比环绕7.1配置包括左侧环绕(Lss)阵列220和右侧环绕(Rss)阵列225,其每一个可以由单个通道来驱动。
但是,杜比环绕7.1通过将杜比环绕5.1的左和右环绕通道分割为四个区来增加环绕通道的数量:除左侧环绕阵列220和右侧环绕阵列225之外,还包括用于左后环绕(Lrs)扬声器224和右后环绕(Rrs)扬声器226的单独通道。增加重放环境200中环绕区的数量可以显著改善声音的定位。
在努力创造更加身临其境的环境的过程当中,一些重放环境可以被配置为具有由数量增加的通道驱动的数量增加的扬声器。而且,一些重放环境可以包括以各种仰角部署的扬声器,其中一些可以是被配置为从重放环境的就座区域上方的区域产生声音的“高度扬声器”。
图3A和3B示出了包括高度扬声器配置的家庭影院重放环境的两个例子。在这些例子中,重放环境300a和300b包括杜比环绕5.1配置的主要特征,包括左环绕扬声器322、右环绕扬声器327、左扬声器332、右扬声器342、中央扬声器337和低音炮145。但是,重放环境300包括杜比环绕5.1配置对高度扬声器的扩展,其可以被称为杜比环绕5.1.2配置。
图3A示出了家庭影院重放环境的具有安装在天花板360上的高度扬声器的重放环境的例子。在这个例子中,重放环境300a包括位于左顶部中间(Ltm)位置的高度扬声器352和位于右顶部中间(Rtm)位置的高度扬声器357。在图3B所示的例子中,左扬声器332和右扬声器342是被配置为反射来自天花板360的声音的杜比仰角扬声器。如果被正确地配置,则所反射的声音可以被听者365察觉到,就好像声源是源自天花板360的。但是,扬声器的数量和配置仅仅是作为例子提供的。一些目前的家庭影院实施方式提供了多达34个扬声器位置,并且预期的家庭影院实施方式可以允许更多的扬声器位置。
因此,现代趋势是不仅包括更多扬声器和更多通道,而且还包括处于不同高度的扬声器。随着通道数量增加以及扬声器布局从2D变迁到3D,定位和渲染声音的任务变得越来越困难。
因此,杜比已经为3D音频声音系统开发出增加功能性和/或降低创作复杂性的各种工具,包括但不限于用户接口。一些这样的工具可以被用来创建音频对象和/或用于音频对象的元数据。
图4A示出了描绘虚拟重放环境中的仰角变化的扬声器区的图形用户界面(GUI)的例子。GUI400可以,例如,根据来自逻辑系统的指令、根据从用户输入设备接收的信号等显示在显示设备上。一些这样的设备将在下面参照图11来描述。
如本文参照诸如虚拟重放环境404的虚拟重放环境所使用的,术语“扬声器区”一般是指可以或可以不与实际重放环境的扬声器具有一一对应关系的逻辑构造。例如,“扬声器区位置”可以或可以不对应于电影院重放环境的特定扬声器位置。反而,术语“扬声器区位置”一般可以指虚拟重放环境的区。在一些实施方式中,虚拟重放环境的扬声器区可以对应于虚拟扬声器,例如,经由虚拟化技术的使用,诸如利用双通道立体声耳机的集合实时地创建虚拟环绕声环境的DolbyHeadphoneTM(有时被称为MobileSurroundTM)。在GUI400中,在第一仰角有七个扬声器区402a并且在第二仰角有两个扬声器区402b,使得在虚拟重放环境404中共有九个扬声器区。在这个例子中,扬声器区1-3在虚拟重放环境404的前部区域405中。前部区域405可以,例如,对应于电影院重放环境中屏幕150所在的区域,对应于家里电视屏幕所在的区域,等等。
这里,扬声器区4一般对应于虚拟重放环境404的左区域410中的扬声器并且扬声器区5对应于右区域415中的扬声器。扬声器区6对应于虚拟重放环境404的左后方区域412并且扬声器区7对应于右后方区域414。扬声器区8对应于上部区域420a中的扬声器并且扬声器区9对应于上部区域420b(其可以是虚拟的天花板区域)中的扬声器。因此,在图4A中示出的扬声器区1-9的位置可以或可以不对应于实际重放环境的扬声器位置。而且,其它实施方式可以包括更多或更少的扬声器区和/或仰角。
在本文描述的各种实施方式中,诸如GUI400的用户接口可以被用作创作工具和/或渲染工具的一部分。在一些实施方式中,创作工具和/或渲染工具可以经由存储在一个或多个非暂态介质上的软件来实现。创作工具和/或渲染工具可以(至少部分地)由硬件,固件(诸如以下参照图11描述的逻辑系统和其它设备)等实现。在一些创作实施方式中,关联的创作工具可以被用来创建用于关联的音频数据的元数据。元数据可以,例如,包括指示三维空间中音频对象的位置和/或轨迹的数据、扬声器区约束数据,等等。元数据可以关于虚拟重放环境404的扬声器区402,而不是关于实际重放环境的特定扬声器布局,来创建。渲染工具可以接收音频数据和关联的元数据,并且可以计算用于重放环境的音频增益和扬声器馈送信号。这种音频增益和扬声器馈送信号可以根据振幅平移过程来计算,这会产生声音来自重放环境中的位置P的感觉。例如,扬声器馈送信号可以根据下式被提供给重放环境的扬声器1至N:
xi(t)=gix(t),i=1,...N(式1)。
在式1中,xi(t)代表要被施加到扬声器i的扬声器馈送信号,gi代表对应通道的增益因子,x(t)代表音频信号,t代表时间。增益因子可以,例如,根据通过引用并入本文的“V.Pulkki,CompensatingDisplacementofAmplitude-PannedVirtualSources(AudioEngineeringSociety(AES)InternationalConferenceonVirtual,SyntheticandEntertainmentAudio)”的第2部分第3-4页中所描述的振幅平移方法来确定。在一些实施方式中,增益可以是依赖频率的。在一些实施方式中,时间延迟可以通过用x(t-Δt)替换x(t)来引入。
在一些渲染实施方式中,参照扬声器区402创建的音频再现数据可以被映射到大范围的重放环境的扬声器位置,所述重放环境可以是杜比环绕5.1配置、杜比环绕7.1配置、Hamasaki22.2配置或其它配置。例如,参照图2,渲染工具可以将用于扬声器区4和5的音频再现数据映射到具有杜比环绕7.1配置的重放环境的左侧环绕阵列220和右侧环绕阵列225。用于扬声器区1、2和3的音频再现数据可以分别被映射到左屏幕通道230、右屏幕通道240和中央屏幕通道235。用于扬声器区6和7的音频再现数据可以被映射到左后方环绕扬声器224和右后方环绕扬声器226。
图4B示出了另一重放环境的例子。在一些实施方式中,渲染工具可以将用于扬声器区域1、2和3的音频再现数据映射到重放环境450的对应屏幕扬声器455。渲染工具可以将用于扬声器区4和5的音频再现数据映射到左侧环绕阵列460和右侧环绕阵列465并且可以将用于扬声器区8和9的音频再现数据映射到左顶置(overhead)扬声器470a和右顶置扬声器470b。用于扬声器区6和7的音频再现数据可以被映射到左后方环绕扬声器480a和右后方环绕扬声器480b。
在一些创作实施方式中,创作工具可以被用来创建用于音频对象的元数据。元数据可以指示对象的3D位置、渲染约束、内容类型(例如,对话、效果,等等)和/或其它信息。依赖于实施方式,元数据可以包括其它类型的数据,诸如宽度数据、增益数据、轨迹数据,等等。一些音频对象可以是静态的,而另一些可以移动。
音频对象根据其关联的元数据被渲染,元数据一般包括指示在给定的时间点在三维空间中音频对象的位置的位置元数据。当音频对象在重放环境中被监视或重放时,音频对象利用重放环境中存在的扬声器根据位置元数据被渲染,而不是像对于传统的基于通道的系统(诸如杜比5.1和杜比7.1)那样被输出到预定的物理通道。
除了位置元数据,其它类型的元数据也可能是产生预期的音频效果所需的。例如,在一些实施方式中,与音频对象关联的元数据可以指示音频对象尺寸,其也可以被称为“宽度”。尺寸元数据可以被用来指示被音频对象占用的空间面积或体积。空间上的大音频对象应当被感知为覆盖大的空间区域,而不仅仅是作为具有仅由音频对象位置元数据定义的位置的点声源。在一些情况下,例如,大音频对象应当被感知为占用重放环境的显著部分,有可能甚至围绕听者。
人类听觉系统对于到达两耳的信号的相关性或相干性的变化是非常敏感的,并且,如果规格化(normalize)后的相关性小于值+1,就将这种相关性映射成感知到的对象尺寸属性。因此,为了创建令人信服的空间对象尺寸,或空间弥漫性,在重放环境中显著比例的扬声器信号应当相互独立,或者至少是不相关的(例如,就一阶交叉相关或协方差而言是独立的)。令人满意的去相关过程通常相当复杂,通常涉及时变滤波器。
电影院声轨可以包括数百个对象,每个对象都具有其关联的位置元数据/尺寸元数据和其它可能的空间元数据。而且,电影院声音系统可以包括可被单独控制的数百个喇叭,以提供音频对象位置和尺寸的令人满意的感知。因此,在电影院中,数百个对象可以由数百个喇叭再现,并且对象到扬声器信号的映射由非常大的平移系数的矩阵组成。当对象的数量由M给出并且喇叭的数量由N给出时,这个矩阵具有多达M*N个元素。这暗含了用于弥漫性或大尺寸对象的再现的含义。为了创建令人信服的空间对象尺寸,或空间弥漫性,N个喇叭信号中的相当比例的喇叭信号应当是相互独立的,或者至少是不相关的。这一般涉及使用许多(至多N个)独立的去相关过程,从而对渲染过程造成显著的处理负荷。而且,去相关的量可以对每个对象不同,这进一步使渲染过程复杂化。足够复杂的渲染系统,例如用于商业剧院的渲染系统,可以能够提供这种去相关。
但是,不太复杂的渲染系统,诸如用于家庭影院系统的那些,可能不能够提供足够的去相关。一些这样的渲染系统根本不能提供去相关。简单到足以在家庭影院系统上被执行的去相关程序会引入假象(artifact)。例如,如果低复杂度的去相关过程之后是下混过程,则可能引入梳状滤波器(comb-filter)假象。
另一个潜在的问题是,在一些应用中,基于对象的音频以向后兼容的混合的形式(诸如DolbyDigital或DolbyDigitalPlus)被发送,利用用于从向后兼容的混合检索一个或多个对象的另外的信息进行增强。向后兼容的混合通常不包括去相关的效果。在一些这样的系统中,对象的重构可以仅在向后兼容的混合利用简单的平移过程创建的时候可靠地工作。在这种过程中使用去相关器会伤害音频对象重构过程,有时会很严重。在过去,这意味着可以选择不在向后兼容的混合中应用去相关,由此使该混合的艺术意图劣化,或者接受对象重构过程中的劣化。
为了解决这些潜在的问题,本文描述的一些实施方式涉及识别弥漫性或空间上的大音频对象以进行特殊处理。这种方法和设备可以特别适于要在家庭影院中渲染的音频数据。但是,这些方法和设备并不限于家庭影院的用途,而是具有广泛的适用性。
由于它们空间上弥漫性的本质,具有大尺寸的对象不被感知为具有紧凑而简洁的位置的点源。因此,多个扬声器被用来再现这种空间上弥漫性对象。但是,重放环境中被用来再现大音频对象的扬声器的确切位置没有被用来再现紧凑、小尺寸音频对象的扬声器的位置那么关键。因此,没有关于被用来最终向重放环境的实际扬声器渲染去相关的大音频对象信号的实际重放扬声器配置的先验知识,大音频对象的高品质再现也是可能的。因此,用于大音频对象的去相关过程可以在渲染音频数据用于为听者在重放环境(例如,家庭影院系统)中再现的过程之前、在“上游”执行。在一些例子中,用于大音频对象的去相关过程在编码用于发送到这种重放环境的音频数据之前执行。
这种实施方式不要求重放环境的渲染器能够进行高复杂性的去相关,由此允许渲染过程可以相对更简单、更高效和更便宜。可向后兼容的下混可以包括去相关的效果,以维持最佳可能的艺术意图,而无需为了渲染侧的去相关而重构对象。高质量的去相关器可以在最终渲染过程的上游应用于大音频对象,例如,在录音室中的创作或后期制作过程中。这种去相关器关于下混和/或其它下游音频处理可以是健壮的。
图5是提供用于空间上的大音频对象的音频处理的例子的流程图。就像对于本文所述的其它方法那样,方法500的操作不必按所指示的顺序执行。而且,这些方法可以包括比所示和/或描述的更多或更少的方框。这些方法可以至少部分地由逻辑系统,诸如在图11中示出并在下文描述的逻辑系统1110执行。这种逻辑系统可以是音频处理系统的组件。作为替代,或者另外地,这种方法可以经由其上存储有软件的非暂态介质来实现。软件可以包括用于控制一个或多个设备至少部分地执行本文所述的方法的指令。
在这个例子中,方法500始于方框505,该方框涉及接收包括音频对象的音频数据。音频数据可以由音频处理系统接收。在这个例子中,音频对象包括音频对象信号和关联的元数据。在这里,关联的元数据包括音频对象尺寸数据。关联的元数据还可以包括指示三维空间中音频对象的位置的音频对象位置数据、去相关元数据、音频对象增益信息,等等。音频数据还可以包括对应于扬声器位置的一个或多个音频床信号。
在这种实施方式中,方框510涉及,基于音频对象尺寸数据,确定音频对象尺寸大于阈值尺寸的大音频对象。例如,方框510可以涉及确定数值音频对象尺寸值是否超过预定的水平。数值音频对象尺寸值可以,例如,对应于由音频对象占用的重放环境的部分。作为替代,或者另外地,方框510可以涉及确定是否另一种类型的指示,诸如标记、去相关元数据等,指示音频对象具有大于阈值尺寸的音频对象尺寸。虽然方法500的很多讨论涉及处理单个大音频对象,但是应当认识到,相同(或类似)的过程可以应用到多个大音频对象。
在这个例子中,方框515涉及对大音频对象的音频信号执行去相关过程,从而产生去相关的大音频对象音频信号。在一些实施方式中,去相关过程可以至少部分地根据接收的去相关元数据来执行。去相关过程可以涉及延迟、全通滤波器、伪随机滤波器和/或混响算法。
在这里,在方框520中,去相关的大音频对象音频信号与对象位置关联。在这个例子中,关联过程独立于可被用来最终向重放环境的实际重放扬声器渲染去相关的大音频对象音频信号的实际重放扬声器配置。但是,在一些替代的实施方式中,对象位置可以与实际重放扬声器位置对应。例如,根据一些这样的替代的实施方式,对象位置可以与常用重放扬声器配置的重放扬声器位置对应。如果音频床信号在方框505中被接收,则对象位置可以与对应于至少一些音频床信号的重放扬声器位置对应。作为替代,或者另外地,对象位置可以是对应于接收的音频对象的至少一些音频对象位置数据的位置。因此,至少一些对象位置可以是静止的,而至少一些对象位置可以随时间变化。在一些实施方式中,方框520可以涉及混合去相关的大音频对象音频信号与用于在空间上与该大音频对象分开阈值距离的音频对象的音频信号。
在一些实施方式中,方框520可以涉及根据虚拟扬声器位置渲染去相关的大音频对象音频信号。一些这样的实施方式可以涉及计算来自由大音频对象位置数据和大音频对象尺寸数据定义的音频对象面积或体积内的虚拟源的贡献。这种实施方式可以涉及至少部分地基于计算出的贡献为多个输出通道当中每一个确定音频对象增益值的集合。一些例子在下面描述。
一些实施方式可以涉及编码从关联过程输出的音频数据。根据一些这样的实施方式,编码过程涉及编码音频对象信号和关联的元数据。在一些实施方式中,编码过程包括数据压缩过程。数据压缩过程可以是无损或有损的。在一些实施方式中,数据压缩过程涉及量化过程。根据一些例子,编码过程不涉及编码用于大音频对象的去相关元数据。
一些实施方式涉及执行音频对象群集过程,在本文也被称为“场景简化”过程。例如,音频对象群集过程可以是方框520的一部分。对于涉及编码的实施方式,编码过程可以涉及编码从音频对象群集过程输出的音频数据。在一些这样的实施方式中,音频对象群集过程可以在去相关过程之后执行。对应于方法500的方框的过程的更多例子,包括场景简化过程,在下面提供。
图6A-6F是示出如本文所述的能够处理大音频对象的音频处理系统的组件的例子的框图。这些组件可以,例如,对应于音频处理系统的逻辑系统的模块,其可以经由硬件、固件、存储在一个或多个非暂态介质中的软件或者其组合来实现。逻辑系统可以包括一个或多个处理器,诸如通用单芯片或多芯片处理器。逻辑系统可以包括数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或其它可编程逻辑器件、分立的门或晶体管逻辑、分立的硬件组件和/或其组合。
在图6A中,音频处理系统600能够检测大音频对象,诸如大音频对象605。检测过程可以基本上类似于参照图5的方框510描述的过程之一。在这个例子中,大音频对象605的音频信号由去相关系统610去相关,以产生去相关的大音频对象信号611。去相关系统610可以至少部分地根据接收的用于大音频对象605的去相关元数据执行去相关过程。去相关过程可以涉及延迟、全通滤波器、伪随机滤波器或混响算法当中一个或多个。
音频处理系统600还能够接收其它音频信号,在这个例子中是其它音频对象和/或床615。在这里,其它音频对象是具有低于用于将音频对象特征化为大音频对象的阈值尺寸的尺寸的音频对象。
在这个例子中,音频处理系统600能够关联去相关的大音频对象音频信号611与其它对象位置。对象位置可以是固定的或者可以随时间变化。关联过程可以类似于以上参照图5的方框520描述的过程当中一个或多个。
关联过程可以涉及混合过程。混合过程可以至少部分地基于大音频对象位置与另一对象位置之间的距离。在图6A中所示的实施方式中,音频处理系统600能够混合对应于音频对象和/或床615的至少一些音频信号与去相关的大音频对象信号611。例如,音频处理系统600可以能够混合去相关的大音频对象音频信号611与用于在空间上与该大音频对象分开阈值量的距离的其它音频对象的音频信号。
在一些实施方式中,关联过程可以涉及渲染过程。例如,关联过程可以涉及根据虚拟扬声器位置渲染去相关的大音频对象音频信号。一些例子在下面描述。在渲染过程之后,可能不需要保留对应于由去相关系统610接收的大音频对象的音频信号。因此,音频处理系统600可以被配置为在由去相关系统610执行去相关过程之后衰减或删除大音频对象605的音频信号。作为替代,音频处理系统600可以被配置为在执行去相关过程之后保留大音频对象605的音频信号的至少一部分(例如,对应于大音频对象605的点源贡献的音频信号)。
在这个例子中,音频处理系统600包括能够编码音频数据的编码器620。在这里,编码器620被配置为用于在关联过程之后编码音频数据。在这种实施方式中,编码器620能够对音频数据应用数据压缩过程。编码的音频数据622可以被存储和/或发送到其它音频处理系统,用于下游处理、重放,等等。
在图6B所示的实施方式中,音频处理系统600能够进行电平调节。在这个例子中,电平调节系统612被配置为调节去相关系统610的输出的电平。电平调节过程可以依赖于原始内容中的音频对象的元数据。在这个例子中,电平调节过程至少部分地依赖于大音频对象605的音频对象尺寸元数据和音频对象位置元数据。这种电平调节可以被用来优化去相关器输出对于其它音频对象(诸如音频对象和/或床615)的分配。可以选择将去相关器输出混合到空间上远离的其它对象信号,以便提高所产生的渲染的空间弥漫性。
作为替代,或者另外地,可以使用电平调节过程来确保对应于去相关的大音频对象605的声音只由来自某个方向的喇叭再现。这可以通过仅将去相关器输出添加到期望的方向或位置附近的对象来实现。在这种实施方式中,大音频对象605的位置元数据被含入电平调节过程中,以便保存关于所感知的声音所来自的方向的信息。这种实施方式可能对于中等尺寸的对象,例如对于被认为大、但是没有大到其尺寸包括整个再现/重放环境的音频对象,是适当的。
在图6C所示的实施方式中,音频处理系统600能够在去相关过程期间创建另外的对象或床通道。这种功能可能是期望的,例如,如果其它的音频对象和/或床615不是合适的或最佳的话。例如,在一些实施方式中,去相关的大音频对象信号611可以对应于虚拟扬声器位置。如果其它音频对象和/或床615不对应于足够靠近期望的虚拟扬声器位置的位置,则去相关的大音频对象信号611可以对应于新的虚拟扬声器位置。
在这个例子中,大音频对象605首先由去相关系统610处理。随后,对应于去相关的大音频对象信号611的另外对象或床通道被提供给编码器620。在这个例子中,去相关的大音频对象信号611在被发送到编码器620之前进行电平调节。去相关的大音频对象信号611可以是床通道信号和/或音频对象信号,后者可以对应于静止或移动对象。
在一些实施方式中,输出到编码器620的音频信号还可以包括原始大音频对象信号当中至少一些。如以上所指出的,音频处理系统600可以能够在执行去相关处理之后保留对应于大音频对象的点源贡献的音频信号。这可能是有益的,例如,因为不同的信号可以以不同的程度彼此相关。因此,通过对应于大音频对象605的原始音频信号的至少一部分(例如,点源贡献)并且分开渲染其会是有帮助的。在这种实施方式中,使对应于大音频对象605的去相关的信号与原始信号拉平(level)会是有利的。
一个这样的例子在图6D中示出。在这个例子中,原始大音频对象信号613当中至少一些进行由电平调节系统612a进行的第一拉平过程并且去相关的大音频对象信号611进行由电平调节系统612b进行的拉平过程。在这里,电平调节系统612a和电平调节系统612b将输出音频信号提供给编码器620。在这个例子中,电平调节系统612b的输出还与其它音频对象和/或床615混合。
在一些实施方式中,音频处理系统600可以能够评估输入音频数据,以确定(或至少估计)内容类型。去相关过程可以至少部分地基于内容类型。在一些实施方式中,去相关过程可以根据内容类型被有选择地执行。例如,要对输入音频数据执行的去相关的量可以至少部分地依赖于内容类型来执行。例如,一般将希望减少用于话音的去相关的量。
一个例子在图6E中示出。在这个例子中,媒体智能系统625能够评估音频信号并估计内容类型。例如,媒体智能系统625可以能够评估对应于大音频对象605的音频信号并估计内容类型是话音、音乐、声音效果,等等,在图6E所示的例子中,媒体智能系统625能够发送控制信号627,以便根据内容类型的估计来控制去相关的量或对象的尺寸处理。
例如,如果媒体智能系统625估计大音频对象605的音频信号对应于话音,则媒体智能系统625可以发送指示用于这些信号的去相关的量应当减少或者这些信号不应该被去相关的控制信号627。可以使用自动确定信号是话音信号的似然性的各种方法。根据一种实施例,媒体智能系统625可以包括能够至少部分地基于在中央通道中的音频信息生成话音似然性值的话音似然性估计器。一些例子由Robinson和Vinton在“AutomatedSpeech/OtherDiscriminationforLoudnessMonitoring”(AudioEngineeringSociety,Preprintnumber6437ofConvention118,May2005)中描述。
在一些实施方式中,控制信号627可以指示电平调节的量和/或可以指示用于混合去相关的大音频对象信号611与用于音频对象和/或床615的音频信号的参数。
作为替代,或者另外地,用于大音频对象的去相关的量可以基于“词干(stems)”,“标志”或内容类型的其它明确指示。内容类型的这种明确指示可以,例如,由内容创建者创建(例如,在后期制作过程期间)并且作为元数据与对应的音频信号一起被发送。在一些实施方式中,这种元数据可以是人类可读的。例如,实际上,人类可读的词干或标志可以明确地指示“这是对话”、“这是特殊效果”、“这是音乐”,等等。
一些实施方式可以涉及组合在某个方面,例如就空间位置、空间尺寸或内容类型而言,相似的对象的群集过程。群集的一些例子在下面参照图7和8来描述。在图6F所示的例子中,对象和/或床615a被输入到群集过程630。更少量的对象和/或床615b从群集过程630输出。对应于对象和/或床615b的音频数据与拉平的去相关的大音频对象信号611混合。在一些替代的实施方式中,群集过程可以跟在去相关过程之后。一个例子在下面参照图9来描述。这种实施方式可以,例如,防止对话被混入具有不期望的元数据的群集,诸如不在中央扬声器附近的位置,或者大群集尺寸。
通过对象群集的场景简化
为了便于下面的描述,术语“群集”和“分组”或“组合”可互换使用,以描述对象和/或床(通道)的组合,以减少要在自适应音频重放系统中传输和渲染的自适应音频内容的单元中数据的量;并且术语“减少”可以被用来指通过对象和床的这种群集执行自适应音频的场景简化的动作。术语“群集”、“分组”或“组合”贯穿本描述都不限于对象或床通道到单个群集的严格唯一分配,相反,对象或床通道可以利用权重或增益向量在多于一个输出床或群集上分布,其中权重或增益向量确定对象或床信号对输出群集或输出床信号的相对贡献。
在一个实施例中,自适应音频系统包括至少一个被配置为通过由通道床和对象的组合创建的空间场景的对象群集和感官透明简化来减少面向对象的音频内容的带宽的组件。由(一个或多个)组件执行的对象群集过程使用关于对象的某个信息,可以包括空间位置、对象内容类型、时间属性、对象尺寸等,以通过将类似的对象分组到代替原始对象的对象群集中来减小空间场景的复杂性。
用于标准音频编码以基于原始复杂床和音轨来分布和渲染引人注目的用户体验的另外音频处理一般被称为场景简化和/或对象群集。这种处理的主要目的是通过群集或分组技术来减小空间场景,其中群集或分组技术减少要被递送到再现设备的个别音频元素(床和对象)的数量,但是仍然保留足够多的空间信息,使得在原始创作的与渲染后的输出之间感觉到的差异被最小化。
场景简化过程可以利用关于对象的信息,诸如空间位置、时间属性、内容类型,尺寸和/或其它适当的特性,促进在减少的带宽通道或编码系统中对象加床内容的渲染,以便将对象动态群集到减少的数量。这个过程可以通过执行以下群集操作当中一个或多个来减少对象的数量:(1)将对象群集到对象;(2)群集对象与床;及(3)将对象和/或床群集到对象。此外,对象可以在两个或更多个群集上分布。该过程可以使用关于对象的时间信息来控制对象的群集和去群集。
在一些实施方式中,对象群集用单个等效的波形和元数据集合代替组分对象的各个波形和元数据元素,使得用于N个对象的数据被用于单个对象的数据代替,因此基本上将对象数据从N压缩至1。作为替代,或者另外地,对象或床通道可以在多于一个群集上分布(例如,利用振幅平移技术),从而将对象数据从N减少至M,其中M<N。群集过程可以使用基于由于被群集对象的位置、响度或其它特性变化造成的失真的误差度量,以确定群集压缩与被群集对象的声音降级之间的权衡。在一些实施例中,群集过程可以同步执行。作为替代地,或者另外地,群集过程可以是事件驱动的,诸如通过使用听觉场景分析(ASA)和/或事件边界检测,以通过群集控制对象简化。
在一些实施例中,该过程可以利用端点渲染算法和/或设备的知识来控制群集。以这种方式,重放设备的某些特性或属性可以被用来通知群集过程。例如,不同的群集方案可以被用于扬声器相对耳机或其它音频驱动器,或者不同的群集方案可以被用于无损相对有损编码,等等。
图7是示出能够执行群集过程的系统的例子的框图。如图7中所示,系统700包括处理输入音频信号以产生处于减小的带宽的输出音频信号的编码器704和解码器706阶段。在一些实施方式中,部分720和部分730可以处于不同的位置。例如,部分720可以对应于后期制作创作系统并且部分730可以对应于重放环境,诸如家庭影院系统。在图7所示的例子中,输入信号的部分709通过已知的压缩技术被处理,以产生压缩的音频位流705。压缩的音频位流705可以被解码器阶段706解码,以产生输出707的至少一部分。这种已知的压缩技术可以涉及分析输入音频内容709、量化音频数据,然后对音频数据本身执行压缩技术,诸如掩蔽等。压缩技术可以是有损的或无损的,并且可以在可以允许用户选择压缩的带宽,诸如192kbps、256kbps、512kbps等,的系统中实现。
在自适应音频系统中,输入音频的至少一部分包括包含音频对象的输入信号701,音频对象又包括音频对象信号和关联的元数据。元数据定义关联的音频内容的某些特性,诸如对象空间位置、对象尺寸、内容类型、响度等。任何实际数量的音频对象(例如,数百个对象)可以通过该系统被处理,以供重放。为了促进众多对象在各种重放系统和传输介质中的准确重放,系统700包括通过将原始对象组合成较少量的对象组将对象数量减少至更小更好管理的对象数量的群集过程或组件702。
因此,群集过程从各个输入对象701的原始集合构建对象的组,以产生较小数量的输出组703。群集过程702基本上处理对象的元数据以及音频数据本身,以产生减少数量的对象组。元数据可以被分析,以确定在任何时间点哪些对象最适于与其它对象组合,并且用于组合对象的对应音频波形可以被一起求和,以产生替代或组合对象。在这个例子中,组合对象组随后被输入到编码器704,编码器704被配置为生成包含音频和元数据的位流705,用于发送到解码器706。
一般而言,结合对象群集过程702的自适应音频系统包括从原始空间音频格式生成元数据的组件。系统700包括被配置为处理既包含常规基于通道的音频元素又包含音频对象编码元素的一个或多个位流的音频处理系统的一部分。包含音频对象编码元素的扩展层可以被添加到基于通道的音频编解码器位流或添加到音频对象位流。因此,在这个例子中,位流705包括要由渲染器处理的扩展层,供现有的扬声器和驱动器设计或者利用可个别寻址驱动器和驱动器定义的下一代扬声器使用。
来自空间音频处理器的空间音频内容可以包括音频对象、通道和位置元数据。当对象被渲染时,它可以根据位置元数据和重放扬声器的位置被分配给一个或多个扬声器。另外元数据,诸如尺寸元数据,可以与对象关联,以更改重放位置或以其它方式限制要被用于重放的扬声器。元数据可以响应于工程师的混合输入而在音频工作站中生成,以提供控制空间参数(例如,位置、尺寸、速度、强度、音色,等等)的渲染线索并指定收听环境中哪些(一个或多个)驱动器或(一个或多个)扬声器在展示期间播放各自的声音。元数据可以与工作站中相应的音频数据关联,用于由空间音频处理器包装和运输。
图8是示出能够在自适应音频处理系统中群集对象和/或床的系统的例子的框图。在图8所示的例子中,能够执行场景简化任务的对象处理组件806读入任意数量的输入音频文件和元数据。输入音频文件包括输入对象802和关联的对象元数据,并且可以包括床804和关联的床元数据。因此,这种输入文件/元数据对应于“床”或“对象”轨道。
在这个例子中,对象处理组件806能够组合媒体智能/内容分类、空间失真分析和对象选择/群集信息,以创建更小数量的输出对象和床轨道。特别地,对象可以被群集在一起,以创建新的等效对象或对象群集808,具有关联的对象/群集元数据。对象也可以被选择用于下混到床中。这在图8中示为下混对象810的输出被输入渲染器816,用于与床812组合,以形成输出床对象和关联的元数据820。输出床配置820(例如,杜比5.1配置)不一定需要匹配输入床配置,例如其可能是用于Atmos电影院的9.1。在这个例子中,通过组合来自输入轨道的元数据,生成用于输出轨道的新元数据,并且通过组合来自输入轨道的音频,生成用于输出轨道的新音频数据。
在这种实施方式中,对象处理组件806能够使用某些处理配置信息822。这种处理配置信息822可以包括输出对象的数量、帧大小和某些媒体智能设置。媒体智能可以涉及确定对象的(或与之关联的)参数或特性,诸如内容类型(即,对话/音乐/效果/等等)、区域(段/类别)、预处理结果、听觉场景分析结果,以及其它类似的信息。例如,对象处理组件806可以能够确定哪些音频信号对应于话音、音乐和/或特殊效果声音。在一些实施方式中,对象处理组件806能够通过分析音频信号来确定至少一些这种特性。作为替代,或者另外地,对象处理组件806可以能够根据关联的元数据,诸如标志、标签等,确定至少一些这种特性。
在备选实施例中,音频生成可以通过保持对所有原始轨道以及简化元数据(例如,哪些对象属于哪个群集、哪些对象要被渲染到床,等等)的参引用而被推迟。这种信息可以,例如,对于在工作室与编码房之间分配场景简化过程的功能,或其它类似的场景,是有用的。
图9是提供在用于大音频对象的去相关过程之后进行群集过程的例子的框图。音频处理系统600的方框可以经由硬件、固件、存储在非暂态介质中的软件等的任意适当组合来实现。例如,音频处理系统600的方框可以经由逻辑系统和/或其它元素,诸如以下参照图11所描述的那些,来实现。
在这种实施方式中,音频处理系统600接收包括音频对象O1至OM的音频数据。在这里,音频对象包括音频对象信号和关联的元数据,包括至少音频对象尺寸元数据。关联的元数据还可以包括音频对象位置元数据。在这个例子中,大对象检测模块905能够至少部分地基于音频对象尺寸元数据来确定其尺寸大于阈值尺寸的大音频对象605。大对象检测模块905可以,例如,如以上参照图5的方框510所描述的那样运行。
在这种实施方式中,模块910能够对大音频对象605的音频信号执行去相关过程,以产生去相关的大音频对象音频信号611。在这个例子中,模块910还能够向虚拟扬声器位置渲染大音频对象605的音频信号。因此,在这个例子中,由模块910输出的去相关的大音频对象音频信号611与虚拟扬声器位置对应。现在将参照图10A和10B来描述渲染音频对象信号的一些例子。
图10A示出了相对于重放环境的虚拟源位置的例子。重放环境可以是实际重放环境或虚拟重放环境。虚拟源位置1005和扬声器位置1025仅仅是例子。但是,在这个例子中,重放环境是虚拟重放环境并且扬声器位置1025对应于虚拟扬声器位置。
在一些实施方式中,虚拟源位置1005可以在所有方向都被均匀地隔开。在图10A所示的例子中,虚拟源位置1005沿x、y和z轴被均匀地隔开。虚拟源位置1005可以构成为Nx乘Ny乘Nz虚拟源位置1005的矩形网格。在一些实施方式中,N的值可以在5至100的范围内。N的值可以至少部分地依赖于重放环境中的(或者预期要在重放环境中的)扬声器的数量:可以期望在每个扬声器位置之间包括两个或更多个虚拟源位置1005。
但是,在替代的实施方式中,虚拟源位置1005可以不同地隔开。例如,在一些实施方式中,虚拟源位置1005可以具有沿x和y轴的第一均匀间隔以及沿z轴的第二均匀间隔。在其它实施方式中,虚拟源位置1005可以非均匀地隔开。
在这个例子中,音频对象体积1020a对应于音频对象的尺寸。音频对象1010可以根据被音频对象体积1020a包围的虚拟源位置1005来渲染。在图10A所示的例子中,音频对象体积1020a占用重放环境1000a的部分,但不是全部。较大的音频对象会占用重放环境1000a的大部分(或全部)。在一些例子中,如果音频对象1010对应于点源,则音频对象1010可以具有尺寸零并且音频对象体积1020a可以被设置为零。
根据一些这样的实施方式,通过指示在音频对象尺寸大于或等于尺寸阈值时去相关应当开启并且如果音频对象尺寸低于尺寸阈值则去相关应当关闭,创作工具可以链接音频对象尺寸与去相关(例如,经由包括在关联的元数据中的去相关标记)。在一些实施方式中,去相关可以根据关于尺寸阈值和/或其它输入值的用户输入被控制(例如,增加、减小或禁用)。
在这个例子中,虚拟源位置1005在虚拟源体积1002中定义。在一些实施方式中,虚拟源体积可以与音频对象可在其中移动的体积对应。在图10A所示的例子中,重放环境1000a和虚拟源体积1002a共同延伸,使得每个虚拟源位置1005对应于重放环境1000a中的一个位置。但是,在替代的实施方式中,重放环境1000a和虚拟源体积1002可以不共同延伸。
例如,至少一些虚拟源位置1005可以对应于重放环境外面的位置。图10B示出了相对于重放环境的虚拟源位置的备选例子。在这个例子中,虚拟源体积1002b在重放环境1000b外面延伸。音频对象体积1020b中的一些虚拟源位置1005位于重放环境1000b中并且位于音频对象体积1020b中的其它虚拟源位置1005位于重放环境1000b外面。
在其它实施方式中,虚拟源位置1005可以具有沿x和y轴的第一均匀间隔以及沿z轴的第二均匀间隔。虚拟源位置1005可以构成为Nx乘Ny乘Mz虚拟源位置1005的矩形网格。例如,在一些实施方式中,沿z轴可以比沿x或y轴有更少的虚拟源位置1005。在一些这样的实施方式中,N的值可以在10至100的范围内,而M的值可以在5至10的范围内。
一些实施方式涉及为音频对象体积1020中的每个虚拟源位置1005计算增益值。在一些实施方式中,用于重放环境(可以是实际重放环境或虚拟重放环境)的多个输出通道当中每个通道的增益值将为音频对象体积1020中的每个虚拟源位置1005计算。在一些实施方式中,增益值可以通过应用基于向量的振幅平移(“VBAP”)算法、按对平移算法或类似的算法来计算,以便为位于音频目标体积1020中每个虚拟源位置1005的点源计算增益值。在其它实施方式中,可以应用可分离的算法,以便为位于音频目标体积1020中每个虚拟源位置1005的点源计算增益值。如本文所使用的,“可分离的”(separate)算法是给定扬声器的增益可以被表达为多个因素(例如,三个因素)的乘积的算法,其中每个因素仅依赖于虚拟源位置1005的坐标之一。例子包括在各种现有的混合控制台平移器中实现的算法,包括但不限于在由AMSNeve提供的数字电影控制台中实现的ProToolTM软件和平移器。
再次回到图9,在这个例子中,音频处理系统600还接收床通道B1至BN,以及低频效果(LFE)通道。音频对象和床通道根据场景简化或“群集”过程被处理,例如,如以上参照图7和8所描述的。但是,在这个例子中,LFE通道未被输入到群集过程,而是被传递到编码器620。
在这种实施方式中,床通道B1至BN被模块915变换为静态音频对象917。除大对象检测模块905已经确定不是大音频对象的音频对象之外,模块920还接收静态音频对象917。在这里,模块920还接收去相关的大音频对象信号611,在这个例子中,它们对应于虚拟扬声器位置。
在这种实施方式中,模块920能够将静态对象91、接收的音频对象和去相关的大音频对象信号611渲染到群集C1至CP。一般而言,模块920将输出比接收的音频对象的数量更少数量的群集。在这种实施方式中,模块920能够关联去相关的大音频对象信号611与适当的群集的位置,例如,如以上参照图5的方框520所描述的。
在这个例子中,群集C1至CP以及LFE通道的音频数据被编码器620编码并发送到重放环境925。在一些实施方式中,重放环境925可以包括家庭影院系统。音频处理系统930能够接收和解码编码的音频数据,以及根据重放环境925的实际重放扬声器的实际重放扬声器配置,例如,扬声器位置、扬声器能力(例如,低音再现能力)等,来渲染解码的音频数据。
图11是提供音频处理装置的组件的例子的框图。在这个例子中,音频处理系统1100包括接口系统1105。接口系统1105可以包括网络接口,诸如无线网络接口。作为替代,或者另外地,接口系统1105可以包括通用串行总线(USB)接口或另一个这样的接口。
音频处理系统1100包括逻辑系统1110。逻辑系统1110可以包括处理器,诸如通用单芯片或多芯片处理器。逻辑系统1110可以包括数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或其它可编程逻辑器件、分立门或晶体管逻辑,或分立硬件组件,或其组合。逻辑系统1110可以被配置为控制音频处理系统1100的其它部件。虽然在图11中没有示出音频处理系统1100的组件之间的接口,但是逻辑系统1110可以被配置为具有用于与其它组件通信的接口。其它组件适当地可以或可以不被配置为用于彼此通信。
逻辑系统1110可以被配置为执行音频处理功能,包括但不限于本文所描述类型的功能。在一些这样的实施方式中,逻辑系统1110可以被配置为(至少部分地)根据存储在一个或多个非暂态介质上的软件来操作。非暂态介质可以包括与逻辑系统1110关联的存储器,诸如随机存取存储器(RAM)和/或只读存储器(ROM)。非暂态介质可以包括存储器系统1115的存储器。存储器系统1115可以包括一个或多个合适类型的非暂态存储介质,诸如闪存存储器、硬盘驱动器,等等。
依赖于音频处理系统1100的表现形式,显示系统1130可以包括一个或多个合适类型的显示器。例如,显示系统1130可以包括液晶显示器、等离子体显示器、双稳态显示器,等等。
用户输入系统1135可以包括被配置为从用户接受输入的一个或多个设备。在一些实施方式中,用户输入系统1135可以包括覆盖显示系统1130的显示器的触摸屏。用户输入系统1135可以包括鼠标、轨迹球、姿势检测系统、操纵杆、在显示系统1130上呈现的一个或多个GUI和/或菜单、按钮、键盘、开关,等等。在一些实施方式中,用户输入系统1135可以包括麦克风1125:用户可以经由麦克风1125为音频处理系统1100提供语音命令。逻辑系统可以被配置为用于话音识别和用于根据这种语音命令控制音频处理系统1100的至少一些操作。在一些实施方式中,用户输入系统1135可以被认为是用户接口并且因此作为接口系统1105的一部分。
电源系统1140可以包括一个或多个合适的能量储存设备,诸如镍-镉电池或锂离子电池。电源系统1140可以被配置为从电源插座接收电力。
对本公开内容中所描述的实现的各种修改对本领域普通技术人员会是容易明了的。在不背离本公开内容的精神或范围的情况下,本文中定义的一般原理可以应用于其它实施方式。因此,不是要将权利要求限定到本文中所示的实施方式,而是要将权利要求解释为符合与本文中公开的本公开内容、原理和新颖特征一致的最广泛范围。

Claims (69)

1.一种方法,包括:
接收包括音频对象的音频数据,音频对象包括音频对象信号和关联的元数据,元数据至少包括音频对象尺寸数据;
基于音频对象尺寸数据,确定音频对象尺寸大于阈值尺寸的大音频对象;
对大音频对象的音频信号执行去相关过程,以产生去相关的大音频对象音频信号;以及
将去相关的大音频对象音频信号与对象位置关联,该关联过程独立于与实际重放扬声器配置。
2.如权利要求1所述的方法,还包括接收用于大音频对象的去相关元数据,其中去相关过程至少部分地根据该去相关元数据来执行。
3.如前面任何一项权利要求所述的方法,还包括编码从关联过程输出的音频数据,其中编码过程不涉及编码用于大音频对象的去相关元数据。
4.如前面任何一项权利要求所述的方法,其中对象位置中的至少一些是固定的。
5.如前面任何一项权利要求所述的方法,其中对象位置中的至少一些随时间变化。
6.如前面任何一项权利要求所述的方法,其中关联过程涉及根据虚拟扬声器位置渲染去相关的大音频对象音频信号。
7.如前面任何一项权利要求所述的方法,其中接收过程涉及接收对应于扬声器位置的一个或多个音频床信号。
8.如前面任何一项权利要求所述的方法,其中实际重放扬声器配置被用来向重放环境的扬声器渲染去相关的大音频对象音频信号。
9.如前面任何一项权利要求所述的方法,其中对象位置包括对应于接收的音频对象的至少一些音频对象位置数据的位置。
10.如前面任何一项权利要求所述的方法,还包括混合接收的音频床信号或接收的音频对象信号中的至少一些与去相关的大音频对象音频信号。
11.如前面任何一项权利要求所述的方法,还包括输出去相关的大音频对象音频信号,作为另外的音频床信号或音频对象信号。
12.如前面任何一项权利要求所述的方法,还包括向去相关的大音频对象音频信号应用电平调节过程。
13.如权利要求12所述的方法,其中大音频对象元数据包括音频对象位置元数据,并且其中电平调节过程至少部分地依赖于大音频对象的音频对象尺寸元数据和音频对象位置元数据。
14.如前面任何一项权利要求所述的方法,还包括在执行去相关过程之后衰减或删除大音频对象的音频信号。
15.如前面任何一项权利要求所述的方法,还包括在执行去相关过程之后保留对应于大音频对象的点源贡献的音频信号。
16.如前面任何一项权利要求所述的方法,其中大音频对象元数据包括音频对象位置元数据,该方法还包括:
计算来自由大音频对象位置数据和大音频对象尺寸数据定义的音频对象面积或体积内的虚拟源的贡献;以及
至少部分地基于计算的贡献为多个输出通道中的每一个确定音频对象增益值的集合。
17.如前面任何一项权利要求所述的方法,还包括在去相关过程之后执行音频对象群集过程。
18.如权利要求17所述的方法,其中音频对象群集过程是在关联过程之后执行的。
19.如前面任何一项权利要求所述的方法,还包括评估音频数据以确定内容类型,其中去相关过程根据内容类型被有选择地执行。
20.如权利要求19所述的方法,其中要执行的去相关的量依赖于内容类型。
21.如前面任何一项权利要求所述的方法,其中去相关过程涉及以下中的一个或多个:一个或多个延迟,一个或多个全通滤波器,一个或多个伪随机滤波器,或者一个或多个混响算法。
22.如前面任何一项权利要求所述的方法,其中大音频对象元数据包括音频对象位置元数据,还包括将去相关的大音频对象音频信号与用于在空间上与大音频对象分开的距离为阈值量的音频对象的音频信号混合。
23.一种装置,包括:
接口系统;以及
逻辑系统,该逻辑系统能够:
经由接口系统,接收包括音频对象的音频数据,音频对象包括音频对象信号和关联的元数据,元数据至少包括音频对象尺寸数据;
基于音频对象尺寸数据,确定音频对象尺寸大于阈值尺寸的大音频对象;
对大音频对象的音频信号执行去相关过程,以产生去相关的大音频对象音频信号;以及
将去相关的大音频对象音频信号与对象位置关联,该关联过程独立于实际重放扬声器配置。
24.如权利要求23所述的装置,其中逻辑系统包括至少一个处理器,诸如通用单芯片或多芯片处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或其它可编程逻辑器件、分立的门或晶体管逻辑、分立的硬件组件、或者它们的组合。
25.如权利要求23-24中的任何一项所述的装置,其中接口系统包括用户接口或网络接口中的至少一个。
26.如权利要求23-25中的任何一项所述的装置,还包括存储器系统,其中接口系统包括逻辑系统与存储器系统之间的至少一个接口。
27.如权利要求23-26中的任何一项所述的装置,其中逻辑系统能够经由接口系统接收用于大音频对象的去相关元数据,其中去相关过程至少部分地根据该去相关元数据来执行。
28.如权利要求23-27中的任何一项所述的装置,其中逻辑系统能够编码从关联过程输出的音频数据,其中编码过程不涉及编码用于大音频对象的去相关元数据。
29.如权利要求23-28中的任何一项所述的装置,其中对象位置中的至少一些是固定的。
30.如权利要求23-29中的任何一项所述的装置,其中对象位置中的至少一些随时间变化。
31.如权利要求23-30中的任何一项所述的装置,其中关联过程涉及根据虚拟扬声器位置渲染去相关的大音频对象音频信号。
32.如权利要求23-31中的任何一项所述的装置,其中接收过程涉及接收对应于扬声器位置的一个或多个音频床信号。
33.如权利要求23-32中的任何一项所述的装置,其中实际重放扬声器配置被用来向重放环境的扬声器渲染去相关的大音频对象音频信号。
34.如权利要求23-33中的任何一项所述的装置,其中对象位置包括对应于接收的音频对象的至少一些音频对象位置数据的位置。
35.如权利要求23-34中的任何一项所述的装置,其中逻辑系统能够混合接收的音频床信号或接收的音频对象信号中的至少一些与去相关的大音频对象音频信号。
36.如权利要求23-35中的任何一项所述的装置,其中逻辑系统能够输出去相关的大音频对象音频信号,作为另外的音频床信号或音频对象信号。
37.如权利要求23-36中的任何一项所述的装置,其中逻辑系统能够向去相关的大音频对象音频信号应用电平调节过程。
38.如权利要求37所述的装置,其中大音频对象元数据包括音频对象位置元数据并且其中电平调节过程至少部分地依赖于大音频对象的音频对象尺寸元数据和音频对象位置元数据。
39.如权利要求23-38中的任何一项所述的装置,其中逻辑系统能够在执行去相关过程之后衰减或删除大音频对象的音频信号。
40.如权利要求23-39中的任何一项所述的装置,其中该装置能够在执行去相关过程之后保留对应于大音频对象的点源贡献的音频信号。
41.如权利要求23-40中的任何一项所述的装置,其中大音频对象元数据包括音频对象位置元数据,其中逻辑系统能够:
计算来自由大音频对象位置数据和大音频对象尺寸数据定义的音频对象面积或体积内的虚拟源的贡献;以及
至少部分地基于计算的贡献为多个输出通道中的每一个确定音频对象增益值的集合。
42.如权利要求23-41中的任何一项所述的装置,其中逻辑系统能够在去相关过程之后执行音频对象群集过程。
43.如权利要求42所述的装置,其中音频对象群集过程是在关联过程之后执行的。
44.如权利要求23-43中的任何一项所述的装置,其中逻辑系统能够评估音频数据以确定内容类型,其中去相关过程根据内容类型被有选择地执行。
45.如权利要求44所述的装置,其中要执行的去相关的量依赖于内容类型。
46.如权利要求23-45中的任何一项所述的装置,其中去相关过程涉及以下中的一个或多个:延迟、全通滤波器、伪随机滤波器、或混响算法。
47.如权利要求23-46中的任何一项所述的装置,其中大音频对象元数据包括音频对象位置元数据,其中逻辑系统能够混合去相关的大音频对象音频信号与用于在空间上与该大音频对象分开的距离为阈值量的音频对象的音频信号。
48.一种在上面存储有软件的非暂态介质,该软件包括用于控制至少一个装置执行以下操作的指令:
接收包括音频对象的音频数据,音频对象包括音频对象信号和关联的元数据,元数据至少包括音频对象尺寸数据;
基于音频对象尺寸数据,确定音频对象尺寸大于阈值尺寸的大音频对象;
对大音频对象的音频信号执行去相关过程,以产生去相关的大音频对象音频信号;以及
将去相关的大音频对象音频信号与对象位置关联,该关联过程独立于实际重放扬声器配置。
49.如权利要求48所述的非暂态介质,其中软件包括用于控制至少一个装置接收用于大音频对象的去相关元数据的指令,其中去相关过程至少部分地根据该去相关元数据来执行。
50.如权利要求48-49中任何一项所述的非暂态介质,其中软件包括用于控制至少一个装置编码从关联过程输出的音频数据的指令,其中编码过程不涉及编码用于大音频对象的去相关元数据。
51.如权利要求48-50中任何一项所述的非暂态介质,其中至少一些对象位置是固定的。
52.如权利要求48-51中任何一项所述的非暂态介质,其中至少一些对象位置随时间变化。
53.如权利要求48-52中任何一项所述的非暂态介质,其中关联过程涉及根据虚拟扬声器位置渲染去相关的大音频对象音频信号。
54.如权利要求48-53中任何一项所述的非暂态介质,其中接收过程涉及接收对应于扬声器位置的一个或多个音频床信号。
55.如权利要求48-54中任何一项所述的非暂态介质,其中实际重放扬声器配置被用来向重放环境的扬声器渲染去相关的大音频对象音频信号。
56.如权利要求48-55中任何一项所述的非暂态介质,其中对象位置包括对应于接收的音频对象的至少一些音频对象位置数据的位置。
57.如权利要求48-56中任何一项所述的非暂态介质,其中软件包括用于控制至少一个装置混合接收的音频床信号或接收的音频对象信号中的至少一些与去相关的大音频对象音频信号的指令。
58.如权利要求48-57中任何一项所述的非暂态介质,其中软件包括用于控制至少一个装置输出去相关的大音频对象音频信号作为另外的音频床信号或音频对象信号的指令。
59.如权利要求48-58中任何一项所述的非暂态介质,其中软件包括用于控制至少一个装置向去相关的大音频对象音频信号应用电平调节过程的指令。
60.如权利要求59所述的非暂态介质,其中大音频对象元数据包括音频对象位置元数据并且其中电平调节过程至少部分地依赖于大音频对象的音频对象尺寸元数据和音频对象位置元数据。
61.如权利要求48-60中任何一项所述的非暂态介质,其中软件包括用于控制至少一个装置在执行去相关过程之后衰减或删除大音频对象的音频信号的指令。
62.如权利要求48-61中任何一项所述的非暂态介质,其中软件包括用于控制至少一个装置在执行去相关过程之后保留对应于大音频对象的点源贡献的音频信号的指令。
63.如权利要求48-62中任何一项所述的非暂态介质,其中大音频对象元数据包括音频对象位置元数据,其中软件包括用于控制至少一个装置执行以下操作的指令:
计算来自由大音频对象位置数据和大音频对象尺寸数据定义的音频对象面积或体积内的虚拟源的贡献;以及
至少部分地基于计算的贡献为多个输出通道中的每一个确定音频对象增益值的集合。
64.如权利要求48-63中任何一项所述的非暂态介质,其中软件包括用于控制至少一个装置在去相关过程之后执行音频对象群集过程的指令。
65.如权利要求64所述的非暂态介质,其中音频对象群集过程是在关联过程之后执行的。
66.如权利要求48-65中任何一项所述的非暂态介质,其中软件包括用于控制至少一个装置评估音频数据以确定内容类型的指令,其中去相关过程根据内容类型被有选择地执行。
67.如权利要求66所述的非暂态介质,其中要执行的去相关的量依赖于内容类型。
68.如权利要求48-67中任何一项所述的非暂态介质,其中去相关过程涉及以下中的一个或多个:一个或多个延迟,一个或多个全通滤波器,一个或多个伪随机滤波器,或者一个或多个混响算法。
69.如权利要求48-68中任何一项所述的非暂态介质,其中大音频对象元数据包括音频对象位置元数据,其中软件包括用于控制至少一个装置混合去相关的大音频对象音频信号与用于在空间上与该大音频对象分开的距离为阈值量的音频对象的音频信号的指令。
CN201480043090.0A 2013-07-31 2014-07-24 用于处理音频数据的方法和装置、介质及设备 Active CN105431900B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201911130633.3A CN110797037A (zh) 2013-07-31 2014-07-24 用于处理音频数据的方法和装置、介质及设备
CN201911130634.8A CN110808055B (zh) 2013-07-31 2014-07-24 用于处理音频数据的方法和装置、介质及设备

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
ES201331193 2013-07-31
ESP201331193 2013-07-31
US201361885805P 2013-10-02 2013-10-02
US61/885,805 2013-10-02
PCT/US2014/047966 WO2015017235A1 (en) 2013-07-31 2014-07-24 Processing spatially diffuse or large audio objects

Related Child Applications (2)

Application Number Title Priority Date Filing Date
CN201911130633.3A Division CN110797037A (zh) 2013-07-31 2014-07-24 用于处理音频数据的方法和装置、介质及设备
CN201911130634.8A Division CN110808055B (zh) 2013-07-31 2014-07-24 用于处理音频数据的方法和装置、介质及设备

Publications (2)

Publication Number Publication Date
CN105431900A true CN105431900A (zh) 2016-03-23
CN105431900B CN105431900B (zh) 2019-11-22

Family

ID=52432343

Family Applications (3)

Application Number Title Priority Date Filing Date
CN201480043090.0A Active CN105431900B (zh) 2013-07-31 2014-07-24 用于处理音频数据的方法和装置、介质及设备
CN201911130634.8A Active CN110808055B (zh) 2013-07-31 2014-07-24 用于处理音频数据的方法和装置、介质及设备
CN201911130633.3A Pending CN110797037A (zh) 2013-07-31 2014-07-24 用于处理音频数据的方法和装置、介质及设备

Family Applications After (2)

Application Number Title Priority Date Filing Date
CN201911130634.8A Active CN110808055B (zh) 2013-07-31 2014-07-24 用于处理音频数据的方法和装置、介质及设备
CN201911130633.3A Pending CN110797037A (zh) 2013-07-31 2014-07-24 用于处理音频数据的方法和装置、介质及设备

Country Status (9)

Country Link
US (6) US9654895B2 (zh)
EP (2) EP3028273B1 (zh)
JP (4) JP6388939B2 (zh)
KR (5) KR101681529B1 (zh)
CN (3) CN105431900B (zh)
BR (1) BR112016001738B1 (zh)
HK (1) HK1229945A1 (zh)
RU (2) RU2716037C2 (zh)
WO (1) WO2015017235A1 (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106375778A (zh) * 2016-08-12 2017-02-01 南京青衿信息科技有限公司 一种符合数字电影规范的三维音频节目码流传输的方法
CN109791770A (zh) * 2016-10-07 2019-05-21 微软技术许可有限责任公司 共享三维音频床
CN111903135A (zh) * 2018-03-29 2020-11-06 索尼公司 信息处理装置、信息处理方法以及程序
US11074921B2 (en) 2017-03-28 2021-07-27 Sony Corporation Information processing device and information processing method
CN113905321A (zh) * 2021-09-01 2022-01-07 赛因芯微(北京)电子科技有限公司 基于对象音频通道元数据和生成方法、设备及存储介质
CN113923584A (zh) * 2021-09-01 2022-01-11 赛因芯微(北京)电子科技有限公司 基于矩阵音频通道元数据和生成方法、设备及存储介质
CN114143695A (zh) * 2021-10-15 2022-03-04 赛因芯微(北京)电子科技有限公司 一种音频流元数据和生成方法、电子设备及存储介质

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6055576B2 (ja) 2013-07-30 2016-12-27 ドルビー・インターナショナル・アーベー 任意のスピーカー・レイアウトへのオーディオ・オブジェクトのパン
EP3028273B1 (en) * 2013-07-31 2019-09-11 Dolby Laboratories Licensing Corporation Processing spatially diffuse or large audio objects
CN112802496A (zh) 2014-12-11 2021-05-14 杜比实验室特许公司 元数据保留的音频对象聚类
WO2016141023A1 (en) * 2015-03-03 2016-09-09 Dolby Laboratories Licensing Corporation Enhancement of spatial audio signals by modulated decorrelation
WO2016171002A1 (ja) * 2015-04-24 2016-10-27 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
WO2017085562A2 (en) * 2015-11-20 2017-05-26 Dolby International Ab Improved rendering of immersive audio content
EP3174316B1 (en) * 2015-11-27 2020-02-26 Nokia Technologies Oy Intelligent audio rendering
US10278000B2 (en) 2015-12-14 2019-04-30 Dolby Laboratories Licensing Corporation Audio object clustering with single channel quality preservation
JP2017163432A (ja) * 2016-03-10 2017-09-14 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム
US10325610B2 (en) * 2016-03-30 2019-06-18 Microsoft Technology Licensing, Llc Adaptive audio rendering
US10863297B2 (en) 2016-06-01 2020-12-08 Dolby International Ab Method converting multichannel audio content into object-based audio content and a method for processing audio content having a spatial position
CN109479178B (zh) 2016-07-20 2021-02-26 杜比实验室特许公司 基于呈现器意识感知差异的音频对象聚集
US10187740B2 (en) 2016-09-23 2019-01-22 Apple Inc. Producing headphone driver signals in a digital audio signal processing binaural rendering environment
US11096004B2 (en) 2017-01-23 2021-08-17 Nokia Technologies Oy Spatial audio rendering point extension
CN110383856B (zh) 2017-01-27 2021-12-10 奥罗技术公司 用于平移音频对象的处理方法和系统
US10531219B2 (en) 2017-03-20 2020-01-07 Nokia Technologies Oy Smooth rendering of overlapping audio-object interactions
CN110603821A (zh) 2017-05-04 2019-12-20 杜比国际公司 渲染具有表观大小的音频对象
US11074036B2 (en) 2017-05-05 2021-07-27 Nokia Technologies Oy Metadata-free audio-object interactions
US10165386B2 (en) 2017-05-16 2018-12-25 Nokia Technologies Oy VR audio superzoom
US11395087B2 (en) 2017-09-29 2022-07-19 Nokia Technologies Oy Level-based audio-object interactions
US11032580B2 (en) 2017-12-18 2021-06-08 Dish Network L.L.C. Systems and methods for facilitating a personalized viewing experience
US10365885B1 (en) * 2018-02-21 2019-07-30 Sling Media Pvt. Ltd. Systems and methods for composition of audio content from multi-object audio
US10542368B2 (en) 2018-03-27 2020-01-21 Nokia Technologies Oy Audio content modification for playback audio
WO2019207959A1 (ja) * 2018-04-24 2019-10-31 ソニー株式会社 表示制御装置、表示制御方法及びプログラム
GB2577885A (en) * 2018-10-08 2020-04-15 Nokia Technologies Oy Spatial audio augmentation and reproduction
JP7470695B2 (ja) 2019-01-08 2024-04-18 テレフオンアクチーボラゲット エルエム エリクソン(パブル) 仮想現実のための効率的な空間的にヘテロジーニアスなオーディオ要素
JP2022521694A (ja) * 2019-02-13 2022-04-12 ドルビー ラボラトリーズ ライセンシング コーポレイション オーディオオブジェクトクラスタリングのための適応型音量正規化
US20230019535A1 (en) * 2019-12-19 2023-01-19 Telefonaktiebolaget Lm Ericsson (Publ) Audio rendering of audio sources
GB2595475A (en) * 2020-05-27 2021-12-01 Nokia Technologies Oy Spatial audio representation and rendering
CN115943461A (zh) * 2020-07-09 2023-04-07 索尼集团公司 信号处理装置、方法及程序
US11750745B2 (en) * 2020-11-18 2023-09-05 Kelly Properties, Llc Processing and distribution of audio signals in a multi-party conferencing environment
KR102508815B1 (ko) * 2020-11-24 2023-03-14 네이버 주식회사 오디오와 관련하여 사용자 맞춤형 현장감 실현을 위한 컴퓨터 시스템 및 그의 방법
US11930348B2 (en) 2020-11-24 2024-03-12 Naver Corporation Computer system for realizing customized being-there in association with audio and method thereof
JP2022083445A (ja) 2020-11-24 2022-06-03 ネイバー コーポレーション ユーザカスタム型臨場感を実現するためのオーディオコンテンツを製作するコンピュータシステムおよびその方法
US11521623B2 (en) 2021-01-11 2022-12-06 Bank Of America Corporation System and method for single-speaker identification in a multi-speaker environment on a low-frequency audio recording
EP4210352A1 (en) 2022-01-11 2023-07-12 Koninklijke Philips N.V. Audio apparatus and method of operation therefor
EP4210353A1 (en) * 2022-01-11 2023-07-12 Koninklijke Philips N.V. An audio apparatus and method of operation therefor

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7006636B2 (en) * 2002-05-24 2006-02-28 Agere Systems Inc. Coherence-based audio coding and synthesis
CN1973318A (zh) * 2002-10-14 2007-05-30 汤姆森许可贸易公司 用于对音频场景中声源的广度进行编码和解码的方法
CN101479785A (zh) * 2006-09-29 2009-07-08 Lg电子株式会社 用于编码和解码基于对象的音频信号的方法和装置
CN101981811A (zh) * 2008-03-31 2011-02-23 创新科技有限公司 音频信号的自适应主体-环境分解
CN102100088A (zh) * 2008-07-17 2011-06-15 弗朗霍夫应用科学研究促进协会 用于使用基于对象的元数据产生音频输出信号的装置和方法

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6175631B1 (en) * 1999-07-09 2001-01-16 Stephen A. Davis Method and apparatus for decorrelating audio signals
JP2002369152A (ja) * 2001-06-06 2002-12-20 Canon Inc 画像処理装置、画像処理方法、画像処理プログラム及び画像処理プログラムが記憶されたコンピュータにより読み取り可能な記憶媒体
US8363865B1 (en) 2004-05-24 2013-01-29 Heather Bottum Multiple channel sound system using multi-speaker arrays
EP1691348A1 (en) * 2005-02-14 2006-08-16 Ecole Polytechnique Federale De Lausanne Parametric joint-coding of audio sources
BRPI0706285A2 (pt) * 2006-01-05 2011-03-22 Ericsson Telefon Ab L M métodos para decodificar um fluxo de bits de áudio envolvente de multicanal paramétrico e para transmitir dados digitais representando som a uma unidade móvel, decodificador envolvente paramétrico para decodificar um fluxo de bits de áudio envolvente de multicanal paramétrico, e, terminal móvel
US8284713B2 (en) * 2006-02-10 2012-10-09 Cisco Technology, Inc. Wireless audio systems and related methods
EP2054875B1 (en) * 2006-10-16 2011-03-23 Dolby Sweden AB Enhanced coding and parameter representation of multichannel downmixed object coding
US8064624B2 (en) * 2007-07-19 2011-11-22 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Method and apparatus for generating a stereo signal with enhanced perceptual quality
JP5341919B2 (ja) * 2008-02-14 2013-11-13 ドルビー ラボラトリーズ ライセンシング コーポレイション ステレオ音響の拡幅
EP2144229A1 (en) 2008-07-11 2010-01-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Efficient use of phase information in audio encoding and decoding
US8532803B2 (en) * 2009-03-06 2013-09-10 Lg Electronics Inc. Apparatus for processing an audio signal and method thereof
KR101283783B1 (ko) * 2009-06-23 2013-07-08 한국전자통신연구원 고품질 다채널 오디오 부호화 및 복호화 장치
KR101805212B1 (ko) * 2009-08-14 2017-12-05 디티에스 엘엘씨 객체-지향 오디오 스트리밍 시스템
KR101844511B1 (ko) * 2010-03-19 2018-05-18 삼성전자주식회사 입체 음향 재생 방법 및 장치
KR101764175B1 (ko) * 2010-05-04 2017-08-14 삼성전자주식회사 입체 음향 재생 방법 및 장치
US8908874B2 (en) * 2010-09-08 2014-12-09 Dts, Inc. Spatial audio encoding and reproduction
US9088858B2 (en) * 2011-01-04 2015-07-21 Dts Llc Immersive audio rendering system
US9165558B2 (en) * 2011-03-09 2015-10-20 Dts Llc System for dynamically creating and rendering audio objects
CA3151342A1 (en) * 2011-07-01 2013-01-10 Dolby Laboratories Licensing Corporation System and tools for enhanced 3d audio authoring and rendering
TWI651005B (zh) * 2011-07-01 2019-02-11 杜比實驗室特許公司 用於適應性音頻信號的產生、譯碼與呈現之系統與方法
US9119011B2 (en) * 2011-07-01 2015-08-25 Dolby Laboratories Licensing Corporation Upmixing object based audio
CN103050124B (zh) * 2011-10-13 2016-03-30 华为终端有限公司 混音方法、装置及系统
KR20130093783A (ko) * 2011-12-30 2013-08-23 한국전자통신연구원 오디오 객체 전송 장치 및 방법
RU2014133903A (ru) * 2012-01-19 2016-03-20 Конинклейке Филипс Н.В. Пространственные рендеризация и кодирование аудиосигнала
US9761229B2 (en) * 2012-07-20 2017-09-12 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for audio object clustering
US9805725B2 (en) 2012-12-21 2017-10-31 Dolby Laboratories Licensing Corporation Object clustering for rendering object-based audio content based on perceptual criteria
US9338420B2 (en) * 2013-02-15 2016-05-10 Qualcomm Incorporated Video analysis assisted generation of multi-channel audio data
RS1332U (en) 2013-04-24 2013-08-30 Tomislav Stanojević FULL SOUND ENVIRONMENT SYSTEM WITH FLOOR SPEAKERS
EP3028273B1 (en) 2013-07-31 2019-09-11 Dolby Laboratories Licensing Corporation Processing spatially diffuse or large audio objects

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7006636B2 (en) * 2002-05-24 2006-02-28 Agere Systems Inc. Coherence-based audio coding and synthesis
CN1973318A (zh) * 2002-10-14 2007-05-30 汤姆森许可贸易公司 用于对音频场景中声源的广度进行编码和解码的方法
CN101479785A (zh) * 2006-09-29 2009-07-08 Lg电子株式会社 用于编码和解码基于对象的音频信号的方法和装置
CN101981811A (zh) * 2008-03-31 2011-02-23 创新科技有限公司 音频信号的自适应主体-环境分解
CN102100088A (zh) * 2008-07-17 2011-06-15 弗朗霍夫应用科学研究促进协会 用于使用基于对象的元数据产生音频输出信号的装置和方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
POTARD G ET AL: ""Decorrelation techniques for the rendering of apparent sound source width in 3D audio displays"", 《PROCEEDINGS OF THE INTERNATIONAL CONFERENCE ON DIGITAL AUDIOEFFECTS》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106375778A (zh) * 2016-08-12 2017-02-01 南京青衿信息科技有限公司 一种符合数字电影规范的三维音频节目码流传输的方法
CN109791770A (zh) * 2016-10-07 2019-05-21 微软技术许可有限责任公司 共享三维音频床
CN109791770B (zh) * 2016-10-07 2023-10-03 微软技术许可有限责任公司 共享三维音频床
US11074921B2 (en) 2017-03-28 2021-07-27 Sony Corporation Information processing device and information processing method
CN111903135A (zh) * 2018-03-29 2020-11-06 索尼公司 信息处理装置、信息处理方法以及程序
CN113905321A (zh) * 2021-09-01 2022-01-07 赛因芯微(北京)电子科技有限公司 基于对象音频通道元数据和生成方法、设备及存储介质
CN113923584A (zh) * 2021-09-01 2022-01-11 赛因芯微(北京)电子科技有限公司 基于矩阵音频通道元数据和生成方法、设备及存储介质
CN114143695A (zh) * 2021-10-15 2022-03-04 赛因芯微(北京)电子科技有限公司 一种音频流元数据和生成方法、电子设备及存储介质

Also Published As

Publication number Publication date
RU2646344C2 (ru) 2018-03-02
KR20230007563A (ko) 2023-01-12
US20180295464A1 (en) 2018-10-11
KR20220061284A (ko) 2022-05-12
US20200221249A1 (en) 2020-07-09
JP2022136263A (ja) 2022-09-15
US10003907B2 (en) 2018-06-19
JP2016530803A (ja) 2016-09-29
KR102395351B1 (ko) 2022-05-10
KR20210141766A (ko) 2021-11-23
CN105431900B (zh) 2019-11-22
BR112016001738A2 (pt) 2017-08-01
EP3564951B1 (en) 2022-08-31
CN110808055A (zh) 2020-02-18
RU2018104812A3 (zh) 2019-02-26
US9654895B2 (en) 2017-05-16
HK1229945A1 (zh) 2017-11-24
JP2021036729A (ja) 2021-03-04
CN110797037A (zh) 2020-02-14
KR20160140971A (ko) 2016-12-07
US10595152B2 (en) 2020-03-17
WO2015017235A1 (en) 2015-02-05
EP3564951A1 (en) 2019-11-06
KR102484214B1 (ko) 2023-01-04
US11736890B2 (en) 2023-08-22
BR112016001738B1 (pt) 2023-04-04
RU2716037C2 (ru) 2020-03-05
KR101681529B1 (ko) 2016-12-01
JP2018174590A (ja) 2018-11-08
RU2018104812A (ru) 2019-02-26
CN110808055B (zh) 2021-05-28
RU2016106913A (ru) 2017-09-01
US20220046378A1 (en) 2022-02-10
US20230353970A1 (en) 2023-11-02
KR102327504B1 (ko) 2021-11-17
EP3028273B1 (en) 2019-09-11
US20170223476A1 (en) 2017-08-03
US11064310B2 (en) 2021-07-13
JP7116144B2 (ja) 2022-08-09
JP6804495B2 (ja) 2020-12-23
JP7493559B2 (ja) 2024-05-31
EP3028273A1 (en) 2016-06-08
KR20160021892A (ko) 2016-02-26
US20160192105A1 (en) 2016-06-30
JP6388939B2 (ja) 2018-09-12

Similar Documents

Publication Publication Date Title
CN105431900A (zh) 空间上的弥漫性或大音频对象的处理
CN104885151B (zh) 用于基于感知准则呈现基于对象的音频内容的对象群集
CN106104680B (zh) 将音频信道插入到声场的描述中
CN105325015B (zh) 经旋转高阶立体混响的双耳化
CN106797527B (zh) Hoa内容的显示屏相关调适
CN106575506A (zh) 高阶立体混响音频数据的中间压缩
CN105432098A (zh) 针对任意扬声器布局的音频对象的平移
CN106415712B (zh) 用于渲染高阶立体混响系数的装置和方法
CN108141695A (zh) 高阶立体混响(hoa)内容的屏幕相关适应
CN106471576B (zh) 高阶立体混响系数的闭环量化
CN106465029B (zh) 用于渲染高阶立体混响系数及产生位流的装置和方法
BR122020021391B1 (pt) Método, aparelho incluindo um sistema de renderização de áudio e meio não transitório de processamento de objetos de áudio espacialmente difusos ou grandes
BR122020021378B1 (pt) Método, aparelho incluindo um sistema de renderização de áudio e meio não transitório de processamento de objetos de áudio espacialmente difusos ou grandes

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant