CN101529504B - 多通道参数转换的装置和方法 - Google Patents

多通道参数转换的装置和方法 Download PDF

Info

Publication number
CN101529504B
CN101529504B CN2007800384724A CN200780038472A CN101529504B CN 101529504 B CN101529504 B CN 101529504B CN 2007800384724 A CN2007800384724 A CN 2007800384724A CN 200780038472 A CN200780038472 A CN 200780038472A CN 101529504 B CN101529504 B CN 101529504B
Authority
CN
China
Prior art keywords
parameter
parameters
loudspeaker
audio
sound signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN2007800384724A
Other languages
English (en)
Other versions
CN101529504A (zh
Inventor
约翰内斯·希尔珀特
卡斯滕·林茨迈尔
于尔根·赫勒
拉尔夫·施佩尔施奈德
安德烈亚斯·赫尔蒂
拉斯·维尔默斯
约纳斯·恩德加德
海斯·朋哈根
克里斯托弗·薛林
耶罗恩·布里巴特
维尔纳·乌姆恩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Koninklijke Philips NV
Dolby International AB
Dolby Sweden AB
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Dolby International AB
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV, Dolby International AB, Koninklijke Philips Electronics NV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Publication of CN101529504A publication Critical patent/CN101529504A/zh
Application granted granted Critical
Publication of CN101529504B publication Critical patent/CN101529504B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/173Transcoding, i.e. converting between two coded representations avoiding cascaded coding-decoding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/20Vocoders using multiple modes using sound class specific coding, hybrid encoders or object based coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • H04S1/002Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/03Application of parametric coding in stereophonic audio systems

Abstract

一种产生电平参数的参数转换器,所述电平参数指示与多通道扬声器配置相关联的多通道音频信号的第一音频通道与第二音频通道之间的能量关系。根据与下混合通道相关联的音频对象的对象参数产生电平参数,所述下混合通道是使用与音频对象相关联的对象音频信号来产生的。对象参数包括指示对象音频信号的能量的能量参数。为得到相干性参数和电平参数,使用参数产生器,所述参数产生器将能量参数以及依赖于期望呈现配置的对象呈现参数相组合。

Description

多通道参数转换的装置和方法
技术领域
本发明涉及一种多通道参数的转换,具体涉及根据基于对象参数的空间音频场景的表示来产生相干性参数和电平(level)参数,所述相干性参数和电平参数指示两个音频信号之间的空间特性。
背景技术
存在对多通道音频信号进行参数编码的多种方法,例如“参数立体声(Parametric Stereo)(PS)”、“针对自然呈现的双耳提示编码(Binaural Cue Coding)(BCC)”以及“MPEG环绕”,这些方法的目的在于:利用下混合信号(其可以是单声道的或者包括多个通道)以及以感知空间声级(sound stage)为特性的参数侧信息(空间提示),来表示多通道音频信号。
可以将这些技术称作是基于通道的(channel-based),即,这些技术试图传输已经存在的、或以比特率高效的方式产生的多通道信号;即,在传输信号之前将空间音频场景(scene)混合至预定数目的通道,以匹配预定的扬声器设置(set-up),并且这些技术的目的在于压缩与独立扬声器相关联的音频通道。
参数编码技术依赖于下混合信号,所述下混合信号承载有音频内容以及描述原始空间音频场景的空间特性并在接收侧用于重建多通道信号或空间音频场景的参数。
紧密相关的技术组,例如“针对弹性呈现的BCC”用于对于独立的音频对象而非对相同多通道信号的通道进行编码,以便将这些独立的音频对象交互地呈现到任意的空间位置,并且独立地放大或者抑制单个对象而不需要事先对所述对象的编码器有任何的了解。相较于常见的参数多通道音频编码技术(这些技术会从编码器向解码器传送给定的通道信号集合),这样的对象编码技术允许将已解码的对象呈现到任何再现装置(setup),即,在该解码侧的用户根据他的偏好自由选择再现装置(例如,立体声、5.1环绕)。
按照对象编码构思,可以定义对音频对象在空间中的位置加以标识的参数,以允许在该接收侧进行弹性呈现。在接收侧呈现的优点在于,甚至可以使用非理想的扬声器设置或者任意的扬声器来再现具有高品质的空间音频场景。此外,例如,必须传输诸如与独立对象相关联的音频通道的下混合之类的音频信号,这是在接收侧再现的基础。
上述两种方法皆依赖于接收侧的多通道扬声器设置,以允许高品质再现原始空间音频场景的空间印象(spatial impression)。
如前述的,已经存在多种对多通道音频信号进行参数编码的现有最新技术,这些现有最新技术可以再现空间声像(sound image),所述空间声像(依赖于可用的数据速率)或多或少系与原始音频内容类似。
然而,在给定某一预编码音频材料(即,由给定个数的再现通道信号描述的空间声音)的情况下,这样的编解码器并不提供根据收听者的喜好对单个音频对象进行后验和交互式呈现的任何手段。另一方面,也存在专为后者而设计的空间音频对象编码技术,但是由于在这样的系统中所使用的参数表示系与针对多通道音频信号的参数表示不同,因此如果希望可以同时受益于两种技术,则需要单独的解码器。这种情况所造成的缺点是,虽然两种系统的后端(back end)皆可以完成相同的任务,从而在给定的扬声器装置上呈现空间音频场景,但是它们必须以冗余的方式实现,即,要提供两种功能必须用到两个独立的解码器。
现有技术的对象编码技术的另一个限制是:缺乏一种以后向相容(backwards compatible)的方式来储存和/或传输预呈现的空间音频对象场景的手段。当涉及将迅速呈现的音频场景相同地再现时,结果证明以下特征是缺点:使能对空间音频对象编码范例所提供的单个音频对象进行交互式定位。
总结上述,面临的不幸情况是:虽然可以提出实现上述方法之一的多通回放放环境,但是可能需要另一回放环境来另外实现第二种方法。值得注意的是,根据较长远的历史,基于通道的编码方案是更为普遍的,例如,储存于DVD等上的著名的5.1或7.1/7.2多通道信号。
即,即使存在多通道解码器以及关联的回放装备(放大器级以及扬声器),当用户想要回放基于对象的已编码音频数据时,用户仍需要另外的完整设置,即,至少音频解码器。通常,所述多通道音频解码器直接与所述放大器级相关联,并且用户无法直接使用用于驱动扬声器的放大器级。即,例如,在大多数一般可用的多通道音频或多媒体接收机中的情况。根据现有的消费性电子产品,期望可以收听以上述两种方法编码的音频内容的用户将甚至需要完整的另一组放大器,这当然是一种不令人满意的情况。
发明内容
因此,希望提供一种可以降低系统复杂度的方法,该方法可以对参数多通道音频流以及参数编码的空间音频对象流进行解码。
本发明的实施例是一种用以产生电平参数的多通道参数转换器,所述电平参数指示多通道空间音频信号表示的第一音频信号与第二音频信号之间的能量关系,多通道参数转换器包括:对象参数提供器,用于针对与下混合通道相关联的多个音频对象,根据与音频对象相关联的对象音频信号,提供对象参数,所述对象参数包括针对每一个音频对象的能量参数,所述能量参数指示对象音频信号的能量信息;以及参数产生器,用于通过将能量参数以及与呈现配置有关的对象呈现参数相组合来得到电平参数。
根据本发明的另一实施例,所述参数转换器产生相干性参数和电平参数,所述相干性参数和电平参数指示与多通道扬声器配置相关联的多通道音频信号的第一音频信号与第二音频信号之间的相关性或相干性以及能量关系。针对与下混合通道相关联的至少一个音频对象,根据已提供的对象参数来产生相关性参数和电平参数,所述下混合通道本身是使用与该音频对象相关联的对象音频信号来产生的,其中所述对象参数包括指示对象音频信号的能量的能量参数。为得到相干性和电平参数,使用参数产生器,该参数产生器将能量参数以及另外的对象呈现参数相结合,所述呈现参数受回放配置的影响。根据某些具体实施例,对象呈现参数包括扬声器参数,所述扬声器参数指示相对于收听地点的回放扬声器位置。根据一些实施例,对象呈现参数包括对象位置参数,对象位置参数指示相对于收听地点的对象位置。为此,参数产生器利用从两种空间音频编码范例所得到的协同效应。
根据本发明的另一实施例,多通道参数转换器用于得到符合MPEG环绕的相干性参数和电平参数(ICC与CLD),所述相干性参数和电平参数(ICC与CLD)还可以用以操纵MPEG环绕解码器。应注意的是,通道间相干性/互相关性(ICC)表示两个输入通道之间的相干性或互相关性。在不包含时间差时,相干性和相关性是相同的。换言之,当不使用通道间时间差或通道间相位差时,这两个术语代表相同的特征。
这样,多通道参数转换器与标准的MPEG环绕转换器一起可以用于再现基于对象的已编码音频信号。这具有的优点是,仅需一种另外的参数转换器,所述另外的转换器接收空间音频对象编码(spatialaudio object coded,SAOC)音频信号,并且转换对象参数,使得标准MPEG环绕解码器可以使用这些对象参数来经由现有回放装备再现多通道音频信号。因此,在没有重大修改的情况下,也可以使用一般回放设备来再现空间音频对象编码内容。
根据本发明的另一实施例,将所产生的相干性参数和电平参数与相关联的下混合通道复用成为符合MPEG环绕的比特流。然后可以将该比特流馈送至标准MPEG环绕解码器,而不需对现有的回放环境做任何其他修改。
根据本发明的另一具体实施例,将所产生的相干性和电平参数直接传输至略微修改过的MPEG环绕解码器,使得可以保持多通道参数转换器的计算复杂度很低。
根据本发明的另一实施例,所产生的多通道参数(相干性参数和电平参数)在产生之后被储存起来,使得多通道参数转换器还可以用作对场景呈现过程之中得到的空间信息加以存储的装置。例如,也可以在产生信号时在音乐空间(music studio)中执行这样的场景呈现,使得可以使用以下段落中更详细描述的多通道参数转换器在不需要任何其他努力的情况下产生多通道相容信号。因此,可使用旧式的(legacy)装备来再现预呈现的场景。
附图说明
在更详细描述本发明的多个具体实施例之前,将给出多通道音频编码和对象音频编码技术、以及空间音频对象编码技术的简要回顾。为此,也将参考附图。
图1a示出了现有技术的多通道音频编码方案;
图1b示出现有技术的对象编码方案;
图2示出了空间音频对象编码方案;
图3示出了多通道参数转换器的实施例;
图4示出了用于回放空间音频内容的多通道扬声器配置的示例;以及
图5示出了空间音频内容的可能多通道参数表示的示例;
图6a和6b示出了空间音频对象编码内容的应用情况;
图7示出了多通道参数转换器的实施例;以及
图8示出了产生相干性参数以及相关性参数的方法的示例。
具体实施方式
图1a示出了多通道音频编码和解码方案的示意图,而图1b显示传统音频对象编码方案的示意图。多通道编码方案使用多个已提供的通道,即,已经混合成符合预定数目扬声器的音频通道。多通道编码器4(SAC)产生下混合信号6,下混合信号6是使用音频通道2a至2d产生的音频信号。例如,该下混合信号6可以是单声道音频通道或两个音频通道,即,立体声信号。为了部分补偿在下混合过程中的信息损耗,多通道编码器4提取多通道参数,所述多通道参数描述音频通道2a至2d的信号的空间相互关系。将该信息作为所谓的侧信息8与下混合信号6一起传输至多通道解码器10。多通道解码器10利用侧信息8的多通道参数创建通道12a至12d,以尽可能精确地重建通道2a至2d。例如,这可以通过传输电平参数和相关性参数来达成,其中,所述电平参数和相关性参数描述原始通道2a和2d的独立通道对之间的能量关系,并提供通道2a至2d的通道对之间的相关性量度。
在解码时,该信息可以用于将包括在下混合信号中的音频通道重新分配至已重建的音频通道12a至12d。值得注意的是,将普通多通道方案实现为再现已重建的通道12a至12d,所述已重建的通道12a至12d的数目与输入至多通道音频编码器4中的原始音频通道2a至2d的数目相同。然而,也可以实现其它的解码方案,再现比原始音频通道2a至2d的数目更多或更少的通道。
这样,可以将图1a中示意性概述的多通道音频技术(例如,最近标准化的MPEG空间音频编码方案,即,MPEG环绕)理解为现有音频分配基础设施向多通道音频/环绕的比特率高效且兼容的扩展。
图1b详细说明了基于对象的音频编码的现有方法。例如,声音对象的编码以及“基于内容的可交互性”的能力是MPEG-4构思的一部分。在图1b中示意性概述的传统音频对象编码技术依据不同的方法,因为该传统音频对象编码技术并未视图传输多个已有的音频通道,而是传输在空间中分配有多个音频对象22a至22d的整个音频场景。为此,使用传统音频对象编码器20将多个音频对象22a至22d编码进基本流24a至24d,每一个音频对象具有关联的基本流。例如,可以由单声道音频通道以及关联的能量参数来表示音频对象22a至22d(音频源),所述能量参数指示音频对象相对于场景中剩余音频对象的相对电平。当然,在更复杂的实现中,音频对象不限于由单声道音频通道来表示。取而代之的是,例如,可以对立体声音频对象或多通道音频对象进行编码。
传统音频对象解码器28的目的在于再现音频对象22a至22d,以得到已重建的音频对象28a至28d。传统音频对象解码器中的场景构成器(composer)30允许对已重建的音频对象28a至28d(源)进行离散定位以及调整各种扬声器设置。场景完全由场景描述34以及关联的音频对象来定义。一些传统的场景构成器30以标准化的语言例如BIFS(针对场景描述的二进制格式)来预期场景描述。在该解码器侧,可与存在任意的扬声器设置,解码器将通道32a至32e提供给独立的扬声器,由于关于音频场景的全部信息都在解码器侧可用,所以这些独立的扬声器最适合音频场景的重建。例如,双耳呈现是可行的,这导致两个通道的产生,以在经由耳机收听时提供空间印象。
与场景构成器30的可选用户交互使能在再现侧重新定位/重新扫视(repanning)独立的音频对象。此外,可以对特别选择的音频对象的位置或电平进行修改,以便例如当在会议中环境噪音对象或与不同讲话者有关的其它音频对象受到抑制(即,电平降低)时提高讲话者的可理解性(intelligibility)。
换言之,传统的音频对象编码器将多个音频对象编码进基本流,每一个流与单个音频对象相关联。在场景描述(BIFS)的控制下并可选地根据用户交互,传统的解码器将这些流解码并且构成音频场景。就实际应用的角度而言,该方法有以下缺点:由于对每一个独立的音频(声音)对象进行单独编码,所以传输整个场景所需要的比特率明显比用于单声道/立体声传输已压缩音频的比特率高。显然,所需要的比特率近似地与所传输的音频对象的数目成比例地增长,即,与音频场景的复杂度成比例地增长。
因此,由于对每一个声音对象的单独解码,使得解码过程的计算复杂度明显超过一般单声道/立体声音频解码器的解码过程的计算复杂度。解码所需要的计算复杂度也近似地与所传输的对象的数目成比例地增长(假设低复杂度的构成过程)。当使用高级构成能力时,即,使用不同计算节点时,与相应音频节点的同步有关的复杂度以及与运行结构化音频引擎(structured audio engine)时的总体复杂度有关的复杂度将导致这些缺点的进一步增加。
此外,由于整体系统包括若干音频解码器部件以及基于BIFS的构成单元,所以所需结构的复杂度妨碍了在现实应用中的实现。高级构成能力还需要实现具有上述复杂性之结构化音频引擎。
图2示出了本发明的空间音频对象编码构思的实施例,允许进行高效率音频对象编码,避免了前述一般实现的缺点。
如根据以下图3的讨论将看出的,可以通过修改已有的MPEG环绕结构来实现该构思。然而,MPEG环绕架构的使用并非强制性的,因为还可以使用其他一般的多通道编码/解码架构来实现本发明的构思。
使用现有的多通道音频编码结构,例如MPEG环绕,本发明的构思发展成现有音频分配基础设施比特率高效且兼容的扩展,从而可以使用基于对象的表示。为了与音频对象编码(AOC)和空间音频编码(多通道音频编码)的现有方法相区别,在下文中将使用术语“空间音频对象编码”或其缩写SAOC来表示本发明的实施例。
图2所示的空间音频对象编码方案使用独立的输入音频对象50a至50d。空间音频对象编码器52得到一个或更多个下混合信号54(例如,单声道或者立体声信号)以及侧信息55,该侧信息55具有原始音频场景的特性的信息。
SAOC解码器56接收下混合信号54以及侧信息55。根据该下混合信号54以及该侧信息55,空间音频对象解码器56重建一组音频对象58a至58d。将已重建的音频对象58a至58d输入至混合器/呈现级60,混合器/呈现级60将独立的音频对象58a至58d的音频内容混合,以产生期望数目的输出通道62a至62b,通道62a至62b一般而言与要用于回放的多通道扬声器设置相对应。
可选地,混合器/呈现器60的参数可以根据用户交互或控制64而受影响,以允许交互式音频构成,从而维持音频对象编码的高灵活性。
与其他多通道重建情况相比,图2所示的空间音频对象编码构思具有多个重大的优点。
因为使用下混合信号以及伴随的对象参数,所以传输是非常比特率高效的。即,将基于对象的侧信息与下混合信号一起传输,所述下混合信号由与独立的音频对象相关联的音频信号构成。因此,与对每一个独立音频对象的信号进行单独编码和传输的方法相比,比特率需求显著降低。此外,该构思与已有的传输结构后向相容。旧式的设备仅需简单地呈现(组成)下混合信号。
可以将已重建的音频对象58a至58d直接传送至混合器/呈现器60(场景构成器)。一般而言,已重建的音频对象58a至58d可以连接至任何外部混合设备(混合器/呈现器60),使得可以很容易地将本发明的构思实现到已有的回放环境中。原则上独立的音频对象58a...d可以用作单独呈现(solo presentation),即,被再现为单个音频流,尽管它们通常并不旨在充当高品质的单独再现。
与单独的SAOC解码以及后续的混合相比,组合的SAOC解码器和混合器/呈现器是非常吸引人的,这是因为所述组合的SAOC解码器和混合器/呈现器导致了非常低的实现复杂度。与直接的方法相比,作为中间表示可以避免对象58a至58d的完全解码/重建。必要的计算主要与预期的输出呈现通道62a至62b的数目有关。如从图2中可以明显看出,与SAOC解码器相关联的混合器/呈现器60原则上可以是适于将单个音频对象组合成场景(即,适于产生与多通道扬声器设置的独立扬声器相关联的输出音频通道62a和62b)的任何算法。例如,这可以包括混合器,所述混合器执行幅度扫视(panning)(或者幅度和延迟扫视)、基于向量的幅度扫视(vector based amplitude panning,VBAP方案)、以及双耳呈现,即,意欲仅利用两个扬声器或耳机来提供空间收听体验的呈现。例如,MPEG环绕使用这样的双耳呈现方式。
一般而言,可以将传输与相应音频对象信息55相关联的下混合信号54与任意的多通道音频编码技术相结合,举例而言,例如参数立体声、双耳提示编码或MPEG环绕。
图3示出了本发明的实施例,其中将对象参数与下混合信号一起传输。在SAOC解码器结构120中,MPEG环绕解码器可以与多通道参数转换器一起使用,所述多通道参数转换器使用接收到的对象参数来产生MPEG参数。这种组合得到了具有非常低复杂度的空间音频对象解码器120。换言之,该具体示例提供一种方法,用以将与每一个音频对象相关联的(空间音频)对象参数和扫视信息转换成符合于标准的MPEG环绕比特流,从而从再现多通道音频内容向交互式呈现空间音频对象编码场景,扩展传统MPEG环绕解码器的应用。这是在不需要对MPEG环绕解码器本身进行修改的情况下实现的。
图3所示的实施例通过将多通道参数转换器与MPEG环绕解码器一起使用,避免了传统技术的缺点。MPEG环绕解码器是一种普遍可用的技术,而多通道参数转换器提供了从SAOC至MPEG环绕的代码转换(transcode)能力。这将在以下段落中详细说明,将另外参考图4和5,说明组合的技术的特定方面。
在图3中,SAOC解码器120具有MPEG环绕解码器100,MPEG环绕解码器100接收具有音频内容的下混合信号102。可以通过以逐采样的方式将每一个音频对象的音频对象信号组合(例如相加),利用编码器侧的下混合器来产生下混合信号。可选地,组合操作也可以发生在谱域或滤波器组域中。下混合通道可以与参数比特流122分离,或可以与参数比特流在相同的比特流中。
MPEG环绕解码器100还接收MPEG环绕比特流的空间提示104,如相干性参数ICC和电平参数CLD,这两个参数皆表示在MPEG环绕编码/解码方案中两个音频信号之间的信号特性,图5示出了所述MPEGG环绕编码/解码方案,并且将在下文中更详细地解释所述MPEGG环绕编码/解码方案。
多通道参数转换器106接收与音频对象相关的SAOC参数(对象参数)122,所述SAOC参数122指示包括在该下混合信号102中的关联的音频对象的特性。此外,转换器106经由对象呈现参数输入来接收对象呈现参数。这些参数可以是呈现矩阵的参数,或可以是有助于将音频对象映射至呈现情况的参数。根据示范性地由用户调整并且输入至块12的对象位置,将由块112来计算呈现矩阵。然后将块112的输出输入至块106,具体输入至用于计算空间音频参数的参数产生器108。当扬声器配置改变时,该呈现矩阵或一般而言至少一些对象呈现参数也改变。因此,呈现参数依赖于呈现配置,所述呈现配置包括扬声器配置/回放配置、或者所传输的的或用户所选择的对象位置,这两者皆可以输入至块112中。
参数产生器108根据对象参数得到MPEG环绕空间提示104,其中所述对象参数是由对象参数提供器(SAOC剖析器(parser))110提供的。参数产生器108另外使用由加权因子产生器112提供的呈现参数。所述呈现参数当中的一些或者全部是加权参数,所述加权参数描述包括在下混合信号102中的音频对象对于空间音频对象解码器120所创建的通道的贡献。例如,可以以矩阵的形式来组织加权参数,因为这些加权参数将用于将N个音频对象映射至M个通道,这M个通道与用于回放的多通道扬声器设置的独立扬声器相关联。对于多通道参数转换器(SAOC 2MPS代码转换器)而言,有两种类型的输入数据。第一输入是SAOC比特流122,所述SAOC比特流122具有与独立的音频对象相关联的对象参数,所述对象参数指示与所传输的多对象音频场景相关联的音频对象的空间特性(例如,能量信息)。第二输入是呈现参数(加权参数)124,所述呈现参数(加权参数)124用于将N个对象映射至M个通道。
如前述的,SAOC比特流122包括有关于以下音频对象的参数信息:已经将所述音频对象混合在一起以创建输入至MPEG环绕解码器100的该下混合信号102。针对与下混合通道102相关联的至少一个音频对象提供SAOC比特流122的对象参数,使用与该音频对象相关联的至少一个对象音频信号产生该下混合通道102。例如,合适的参数是能量参数,能量参数指示对象音频信号的能量,即,对象音频信号贡献于下混合102的强度。如果使用立体声下混合,则可以提供方向参数,所述方向参数指示音频对象在立体声下混合内的位置。然而,显然其他对象参数也是合适的,从而可以用于实现。
所传输的下混合并不需要一定是单声道信号。例如,所传输的下混合也可以是立体声信号。在该情况中,可以传输两个能量参数作为对象参数,每一个参数指示每一个对象对立体声信号的两个通道之一的贡献。即,例如,如果使用20个音频对象产生立体声下混合信号,则将传输40个能量参数作为对象参数。
将SAOC比特流122馈送至SAOC剖析块,即,馈送至对象参数提供器110,所述对象参数提供器110取回(regain)该参数信息,除了所处理的实际数目的音频对象之外,所述参数信息还主要包括对象电平包络(object level envelope)(OLE)参数,所述对象电平包络参数描述出现的每一个音频对象的时变谱包络(spectral envelope)。
典型地,SAOC参数强烈地时间相关(time dependent),因为这些SAOC参数运送关于以下情况的信息:例如,当特定的对象发出(emanate)或其它对象离开该场景时,多通道音频场景如何随着时间变化。反之,呈现矩阵124的加权参数并不经常具有强时间或频率相依性。当然,如果对象进入或者离开该场景,则所需要的参数的数目会突然改变,以匹配场景的音频对象的数目。此外,在采用交互式用户控制应用中,矩阵元素可以是时变的,因为矩阵元素依赖于用户的实际输入。
在本发明的另外的实施例中,导引所述加权参数或者所述对象呈现参数或者时变对象呈现参数(加权参数)的变化量之参数本身,可以以SAOC比特流来传送引导加权参数、或对象呈现参数、或时变对象呈现参数(加权参数)自身发生变化的参数,以引起呈现矩阵124的变化。如果期望频率相关(frequency dependent)的呈现特性(例如,当期望特定对象的频率选择性增益时),则加权因子或呈现矩阵元素可以是频率相关的。
在图3的实施例中,根据有关于回放配置的信息(即,场景描述),利用加权因子产生器112(呈现矩阵产生块)来产生(计算)呈现矩阵。一方面,这可以是回放配置信息,例如扬声器参数,所述扬声器参数指示用于回放的多通道扬声器配置的多个扬声器当中独立扬声器的位置或者空间定位。还根据对象呈现参数来计算呈现矩阵,例如,根据指示音频对象的位置以及指示音频对象信号的放大或者衰减的信息,来计算呈现矩阵。另一方面,如果期望逼真(realistic)再现多通道音频场景,则可以在该SAOC比特流之内提供对象呈现参数。可选地,还可以经由用户接口交互地地提供对象呈现参数(例如位置参数以及放大信息(扫视参数))。自然,也可以与对象一起传输期望的呈现矩阵,即,期望的加权参数,以便以音频场景的自然发声(sounding)再现开始,作为在解码器侧进行交互式呈现的起始点。
参数产生器(场景呈现引擎)108接收加权因子以及对象参数(例如该能量参数OLE),以计算N个音频对象至M个输出通道的一种映射,其中M可以大于、小于或者等于N,并且此外还可以随着时间而变化。当使用标准MPEG环绕解码器100时,可以通过符合标准的环绕比特流将得到的空间提示(例如,相干性和电平参数)传输至该MPEG解码器100,其中所述符合标准的环绕比特流匹配与SAOC比特流一起传输的下混合信号。
如前述的,使用多通道参数转换器106,使得允许使用标准MPEG环绕解码器来处理下混合信号以及由参数转换器106提供的转换后的参数,从而经由给定的所述扬声器来回放音频场景的重建。这是以音频对象编码方法的高灵活性实现的,即,通过允许在回放侧进行严谨的用户交互来实现的。
作为多通道扬声器设置的回放的备选方案,可以使用MPEG环绕解码器的双耳解码模式以经由耳机回放该信号。
然而,如果对MPEG环绕解码器100的微小修改是可接受的,例如,在软件实现之内,则还可以在参数域中直接执行将空间提示向MPEG环绕解码器的传输。即,可以省略将参数复用成MPEG环绕兼容的比特流的计算工作量(computational effort)。除了计算复杂度降低之外,另一个优点是避免了由于符合MPEG的参数量化而造成的品质下降,因为在这种情况下不再需要这种对所产生的空间提示的量化。如同已经在先前所提过的,该优点需要更灵活的MPEG环绕解码器实现,从而提供直接参数馈送而非纯粹比特流馈送的可能性。
在本发明的另一实施例中,通过对所产生的空间提示以及下混合信号进行复用来创建MPEG环绕兼容的比特流,从而提供经由旧式装备来进行回放的可能性。多通道参数转换器106因此也可以用于在编码器侧将音频对象编码数据转换成多通道编码数据。根据图3的多通道参数转换器,将在下文中对于特定的对象音频以及多通道实现来描述本发明的其它实施例。在图4和5中说迷宫了这些实现的重要方面。
图4示出了实现幅度扫视的方法,根据一个具体实现,使用方向(位置)参数作为对象呈现参数以及使用能量参数作为对象参数。所述对象呈现参数指示音频对象的位置。在接下来的所述段落中,角度αi150将用作对象呈现(位置)参数,其描述了音频对象152相对于收听地点154的原始方向。在接下来的示例中,将假设简化的二维情况,使得可以使用一单个参数(即,角度)将与音频对象相关联的音频信号的来源方向明确地参数化。然而,不言可喻,可以在不需要实行大幅度改变的情况下实现一般的三维情况。即,例如在三维空间中,可以使用向量来指示音频对象在空间音频场景内的位置。因为将在下文中使用MPEG环绕解码器来实现本发明的构思,因此图4还示出了5通道MPEG多通道扬声器配置的扬声器位置。如果将中央扬声器156a(C)的位置定义在0°,则右前扬声器156b位于30°、右环绕扬声器156c位于110°、左环绕扬声器156d位于-110°、以及左前扬声器156e位于-30°。
以下示例将进一步依赖于如在MPEG环绕标准中所指定的多通道音频信号的5.1通道表示,所述MPEG环绕标准定义了两种可能的参数化,可以将这两种可能的参数化形象化为图5中所描绘的所述树状结构。
在单声道下混合160的传输的情况中,MPEG环绕解码器使用树状结构的参数化。对于第一参数化,树由所谓的OTT元素(element)(盒)162a至162e构成,对于第二参数化,树由164a至164e构成。
每一个OTT元素将单声道输入上混合成两个输出音频信号。为执行该上混合,每一个OTT元素使用ICC参数和CLD参数,所述ICC参数描述输出信号之间期望的互相关性,所述CLD参数描述每一个OTT元素的两个输出信号之间的相对电平差。
虽然结构上系相似,但图5中的两个参数化从单声道下混合160分配通道内容的方式是不同的。例如,在左侧的树状结构中,第一OTT元素162a产生第一输出通道166a和第二输出通道166b。根据图5中的形象化(visualization),第一输出通道166a包括与左前、右前、中央的通道以及低频增强通道有关的信息。第二输出信号166b仅包括关于环绕通道(左环绕和右环绕通道)的信息。与第二实现方式相比时,第一OTT元素的输出在所包括的音频通道方面显著不同。
然而,可以根据这两种实现中的任一种来实现多通道参数转换器。一旦理解了本发明的构思,本发明的构思就也可以应用于除了下文中将叙述的多通道配置以外的其它多通道配置。为了简洁起见,不失一般性,在本发明接下来的实施例将重点放在图5中左边的参数化。还应注意,图5仅充当MPEG音频构思的适当形象化,并且,虽然图5的形象化可能诱使人们认为以循序的方式进行计算,但通常不以循序的方式进行计算。一般而言,可以并行地执行计算,即,可以在一单个计算步骤中得到输出通道。
在接下来的所述段落简短讨论的实施例中,SAOC比特流包括下混合信号中每一个音频对象的(相对)电平(分别对于每一个时间-频率片(tile),如同在使用例如滤波器组或时间至频率转换的频域架构中的一般惯例一样)。
此外,本发明并不限于对象的特定的电平表示,下面的叙述仅阐明了一种方法,该方法根据可以从SAOC对象参数化得到对象功率量度来计算针对MPEG环绕比特流的空间提示。
如从图3中明显看出来的,呈现矩阵W具有多个加权参数,其中,所述呈现矩阵W是由加权参数产生的,参数产生器108使用所述呈现矩阵W将对象oi映射至所需数目(例如扬声器的数目)的输出通道s,所述加权参数依赖于具体对象索引i以及通道索引s。因此,加权参数ws,i系表示对象i(1≤i≤N)至扬声器s(1≤s≤M)的混合增益。即,W将对象o=[o1...oN]T映射至扬声器,产生针对每一个扬声器(此处假设5.1设置)的输出信号y=[yLf yRf yC yLFE yLs yRs]T因此:
y=Wo
参数产生器(呈现引擎108)使用该呈现矩阵W来根据SAOC数据σi 2估计所有CLD以及ICC参数。相对于图5的形象化,显然必须针对每一个OTT元素独立地执行该过程。将主要关于第一OTT元素162a进行详细的讨论,因为在接下来的段落中的教义可以适用于其余的OTT元素而不用另外的发明技巧。
可以观察到,利用OTT元素162b、162c和162d对OTT元素162a的第一输出信号166a进行进一步处理,最后得到输出通道LF、RF、C以及LFE。利用OTT元素162e对第二输出通道166b进行进一步处理,得到输出通道LS与RS。将图5的OTT元素替换成单个呈现矩阵W是可以通过使用下列矩阵W来执行的:
W = w Lf , 1 · · · w Lf , N w Rf , 1 · · · w Rf , N w C , 1 · · · w C , N w LFE , 1 · · · w LFE , N w Ls , 1 · · · w Ls , N w Rs , 1 · · · w Rs , N
矩阵W的列数N不是固定的,因为N是音频对象的数目,所述音频对象的数目可能是变化的。
得到针对OTT元素162a的空间提示(CLD与ICC)的一种可能性是:通过对W中的相应元素求和,得到每一个对象对OTT元素0的两个输出的相应贡献。该求和给出了OTT元素0的子呈现矩阵W0
W 0 = w 1,1 · · · w 1 , N w 2,1 · · · w 2 , N = w Lf , 1 + w Rf , 1 + w C , 1 + w LFE , 1 · · · w Lf , N + w Rf , N + w C , N + w LFE , N w Ls , 1 + w Rs , 1 · · · w Ls , N + w Rs , N
现在问题被简化成了估计子呈现矩阵W0(以及以类似的方式定义的、分别与OTT元素1、2、3和4有关的子呈现矩阵W1、W2、W3和W4)的电平差和相关性。
假设完全不相干的(即,互相独立的)对象信号,OTT元素0的第一输出的估计功率p0,1 2是由以下方程给出的:
p 0,1 2 = Σ i w 1 , i 2 σ i 2
类似地,OTT元素0的第二输出的估计功率p0,2 2是由以下方程给出的:
p 0 , 2 2 = Σ i w 2 , i 2 σ i 2
互功率(cross power)R0是由以下方程给出的:
R 0 = Σ i w 1 , i w 2 , i σ i 2
那么OTT元素0的CLD参数是由以下方程给出的:
CLD 0 = 10 lo g 10 ( p 0,1 2 p 0,2 2 )
以及ICC参数是由以下方程给出的::
ICC 0 = ( R 0 p 0,1 p 0,2 )
当考虑图5的左边部分时,如上所示确定了其p0,1和P0,2的两个信号皆为虚拟信号,因为这些信号表示扬声器信号的组合且并不构成实际发生的音频信号。在这一点上强调的是,在图5的树状结构并不用以产生信号。这意味着在MPEG环绕解码器中,不存在在一转二盒(one-to-two boxes)之间的任何信号。取而代之的是,存在大的上混合矩阵,该上混合矩阵使用下混合以及不同的参数来或多或少直接产生扬声器信号。
以下将对图5中左侧配置的通道的分组和标识加以描述。
对于盒162a,第一虚拟信号是表示扬声器信号lf、rf、c、lfe的组合的信号。第二虚拟信号是表示1s与rs的组合的虚拟信号。
对于盒162b,第一音频信号是虚拟信号,表示包括左前通道和右前通道在内的组,第二音频信号是虚拟信号,表示包括中央通道和lfe通道在内的组。
对于盒162e,第一音频信号是左环绕通道的扬声器信号,第二音频信号是右环绕通道的扬声器信号。
对于盒162c,第一音频信号是左前通道的扬声器信号,第二音频信号是右前通道的扬声器信号。
对于盒162d,第一音频信号是中央通道的扬声器信号,第二音频信号是低频增强通道的扬声器信号。
在这些盒中,如同稍后将概略描述的,通过将与由第一音频信号或第二音频信号表示的通道相关联的对象呈现参数相组合,得到第一音频信号或第二音频信号的加权参数。
以下将对图5右侧配置中的通道的分组和标识加以描述。
对于盒164a,第一音频信号是虚拟信号,表示包括左前通道、左环绕通道、右前通道以及右环绕通道在内的组,第二音频信号为虚拟信号,表示包括中央通道和低频增强通道在内的组。
对于盒164b,第一音频信号是虚拟信号,表示包括左前通道和左环绕通道在内的组,第二音频信号为虚拟信号,表示包括右前通道和右环绕通道在内的组。
对于盒164e,第一音频信号是中央通道的扬声器信号,第二音频信号是低频增强通道的扬声器信号。
对于盒164c,第一音频信号是左前通道的扬声器信号,第二音频信号是左环绕通道的扬声器信号。
对于盒164d,第一音频信号是右前通道的扬声器信号,第二音频信号是右环绕通道的扬声器信号。
在这些盒中,如同稍后将概略描述的,通过将与由第一音频信号或第二音频信号表示的通道相关联的对象呈现参数相组合,得到第一音频信号或第二音频信号的加权参数。
上述虚拟信号是虚拟的,因为它们并不要出现在实施例中。这些虚拟信号用于说明功率值的产生或能量的分配,所述能量是由例如针对所有盒的CLD通过使用不同的子呈现矩阵Wi而确定的。同样,首先描述图5的左侧。
在前文中,已经示出了针对盒162a的子呈现矩阵W0
对于盒162b,将子呈现矩阵定义为:
W 1 = w 1,1 · · · w 1 , N w 2,1 · · · w 2 , N = w lf , 1 + w rf , 1 · · · w lf , N + w rf , N w c , 1 + w lfe , 1 · · · w c , N + w lfe , N
对于盒162e,将子呈现矩阵定义为:
W 2 = w 1,1 · · · w 1 , N w 2,1 · · · w 2 , N = w ls , 1 · · · w ls , N w rs , 1 · · · w rs , N
对于盒162c,将子呈现矩阵定义为:
W 3 = w 1,1 · · · w 1 , N w 2,1 · · · w 2 , N = w lf , 1 · · · w lf , N w rf , 1 · · · w rs , N
对于盒162d,将子呈现矩阵定义为:
W 4 = w 1,1 · · · w 1 , N w 2,1 · · · w 2 , N = w c , 1 · · · w c , N w lfe , 1 · · · w lfe , N
对于图5的右侧配置,情况如下:
对于盒164a,将子呈现矩阵定义为:
W 0 = w 1,1 · · · w 1 , N w 2,1 · · · w 2 , N = w lf , 1 + w ls , 1 + w rf , 1 + w rs , 1 · · · w lf , N + w ls , N + w rf , N + w rs , N w c , 1 + w lfe , 1 · · · w c , N + w lfe , N
对于盒164b,将子呈现矩阵定义为:
W 1 = w 1,1 · · · w 1 , N w 2,1 · · · w 2 , N = w lf , 1 + w ls , 1 · · · w lf , N + w ls , N w rf , 1 + w rs , 1 · · · w rf , N + w rs , N
对于盒164e,将子呈现矩阵定义为:
W 2 = w 1,1 · · · w 1 , N w 2,1 · · · w 2 , N = w c , 1 · · · w c , N w lfe , 1 · · · w lfe , N
对于盒164c,将子呈现矩阵定义为:
W 3 = w 1,1 · · · w 1 , N w 2,1 · · · w 2 , N = w lf , 1 · · · w lf , N w ls , 1 · · · w ls , N
对于盒164d,将子呈现矩阵定义为:
W 4 = w 1,1 · · · w 1 , N w 2,1 · · · w 2 , N = w rf , 1 · · · w rf , N w rs , 1 · · · w rs , N
根据实现,可以将相应的CLD和ICC参数量化以及格式化,以符合MPEG环绕比特流,可以将所述MPEG环绕比特流馈送至MPEG环绕解码器100中。可选地,可以在参数级别(parameter level)上将参数值传送至MPEG环绕解码器,即,并不量化和格式化成比特流。为了不仅实现对象的重新扫视(即,适当地分配这些信号能量,这是可以利用图5的MPEG-2结构使用上述方法来实现的)还实现衰减或者放大,可以产生所谓的任意下混合增益(arbitrary down-mix gain),以修改下混合信号能量。任意下混合增益(ADG)允许在利用所述OTT元素之一对下混合信号进行处理之前对所述下混合信号本身进行谱修改。即,就其本身而言,任意下混合增益是频率相关的。对于高效的实现,采用与CLD参数相同的频率解析度和相同的量化器步(quantizerstep)来表示任意下混合增益ADG。施行ADGs的一般性目的是对所传输的下混合进行修改,使得下混合输入信号中的能量分配类似于所呈现的系统输出的下混合的能量。使用呈现矩阵W的加权参数Wk,i以及所传输的对象功率σi 2,可以使用下列的方程计算适当的ADG:
ADG [ dB ] = 10 lo g 10 ( Σ k Σ i w k , i 2 σ i 2 Σ i σ i 2 )
并且假设输入下混合信号的功率等于对象功率之和(i=对象索引,k=通道索引)。
如同在先前所讨论的,使用加权参数来CLD和ICC参数的计算,所述加权参数指示与多通道扬声器配置的扬声器相关联的对象音频信号的能量的一部分。这些加权因子一般而言将依赖于场景数据以及回放配置数据,即,依赖于音频对象与多通道扬声器设置的扬声器的相对位置。在接下来的所述段落中将提供一种可能性:根据图4所引入的对象音频参数化,将方位角和增益量度用作与每一个音频对象相关联的对象参数,从而得到加权参数。
如同已经在之前概略叙述的,对于每一个时间/频率片存在独立的呈现矩阵;然而,为了清楚起见,在下文中仅考虑单个时间/频率片。呈现矩阵W具有M行(每一行对应一个输出通道)N列(每一列对应一个音频对象),其中,第s行且第i列的矩阵元素表示混合权重,特定的音频对象以该混合权重贡献于相应的输出通道:
Figure G2007800384724D00202
根据以下场景描述和扬声器配置参数来计算矩阵元素:
场景描述(这些参数可以随着时间改变):
●音频对象的数目:N≥1
●每一个音频对象的方位角:αi(1≤i≤N)
●每一个对象的增益值:gi(1≤i≤N)
扬声器配置(通常这些参数是非时变的):
●输出通道的数目(=扬声器):M≥2
●每一个扬声器的方位角:θs(1≤s≤M)
θ s ≤ θ s + 1 ∀ s 其中1≤s≤M-1
通过对每一个音频对象i进行下述的方案,根据这些参数得到混合矩阵的元素:
●找出索引s’(1≤s’≤M),其中θs’≤αi≤θs’+1M+1:=θ1+2π)
●在扬声器s’与s’+1之间(若s’=M,则在扬声器M与1之间),施行幅度扫视(例如,正切定理(tangent law))。在接下来的叙述中,变量v是扫视权重,即,例如在图4中所描绘的,当在两个通道之间分配信号时将施加于该信号上的缩放因子:
tan ( 1 2 ( θ s ′ + θ s ′ + 1 ) - α i ) tan ( 1 2 ( θ s ′ + 1 - θ s ′ ) ) = v 1 , i - v 2 , i v 1 , i + v 2 , i ; v 1 , i p + v 2 , i p p = 1 ; 1≤p≤2
关于上述方程,值得注意的是,在该二维情况中,将在多通道扬声器配置的两个扬声器之间分配与空间音频场景的音频对象相关联的对象音频信号,这两个扬声器系最接近所述音频对象。然而,针对上述实现而选择的对象参数并非是可以用于实现本发明其他实施例的仅有的对象参数。例如,在三维的情况中,指示扬声器或音频对象的位置的对象参数可以是三维向量。一般而言,当应该明确地定义位置时,二维的情况需要两个参数,三维的情况需要三个参数。然而,即使在该二维的情况中,也可以使用不同的参数化,例如在直角座标系内传输两个座标。可以应注意的是,在1到2的范围之内的可选扫视规则参数p是:被设置为反映再现系统/空间(room)的空间声音特性、并且根据本发明的一些具体实施例另外可应用的任意扫视规则参数。最后,在根据上述方程得到了扫视权重V1,i以及V2,i之后,可以根据以下公式得到加权参数Ws,i。矩阵元素最终由以下方程给定
Figure G2007800384724D00221
在上文中所介绍的可选地与每一个音频对象相关联的增益因子gi可以用于强调或抑制独立的对象。例如,这是可以在该接收侧执行的,即,在解码器侧执行,以提高独立选择的音频对象的可理解性。
图4的音频对象152的以下示例将再一次地用以阐明前述的方程的应用。该示例使用前述符合ITU-R BS.775-1的3/2-通道设置。目的是得到音频对象i的期望扫视方向,所述期望扫视方向的特征是具有方向角αi=60°,具有等于1(即,0dB)的任意扫视增益gi。对于该示例,回放空间应呈现由扫视规则参数p=2参数化的某回响。根据图4,显然最接近的扬声器是右前扬声器156b以及右环绕扬声器156c。因此,可以通过求解下列方程而得到扫视权重:
v 1 , i 2 + v 2 , i 2 = 1
在经过一些数学计算之后,将得到解:
V1,i≈0.8374;V2,i≈0.5466
因此,根据上列的所述指示,得到与位于方向αi的特定音频对象相关联的加权参数(矩阵元素)是:
w1=w2=w3=0;w4=0.8374;w5=0.5466
在上述段落中详细说明的本发明实施例仅使用可以由单声道信号表示的音频对象,即,点状源(point-like source)。然而,灵活的构思并不局限于采用单声道音频源的应用。反之,被视为空间上“扩散(diffuse)”的一个或更多个对象也可以很好地符合本发明的构思。当要表示非点状源或音频对象时,必须以适当的方式得到多通道参数。对一个或更多个音频对象之间的扩散(diffuseness)的量加以量化的适当量度是:关于对象的互相关参数ICC。
在目前为止所讨论的SAOC系统中,认为所有的音频对象均为点源,即,没有任何空间广度(extent)的、逐对不相关的单声道源(monosource)。然而,也有应用情况希望允许包括不止一个音频通道在内的音频对象呈现出一定程度的逐对(解)相关。其中最简单而且也可能是最重要的情况是立体声对象(即,由属于一起的两个或多或少系相关的通道所构成的对象)来表示的。作为示例,这样的对象可以表示由交响乐团所产生的空间图像(spatial image)。
如上所述,为了平滑地将立体声对象整合到基于单声道音频对象的系统中,将立体声对象的两个通道都当作独立的对象来处理。由另外的互相关参数来反映两个部分的对象之间的相互关系,其中所述另外的互相关性参数是根据与用于得到子频带功率值σi 2的时间/频率格栅(grid)相同的时间/频率格栅而计算出来的。换言之:由每时间/频率片三元参数集合(a set of parameter triplet){σi 2,σj 2,ICCi,j}来定义立体声对象,其中ICCi,j表示在一个对象的两种实现之间的逐对相关性。这两种实现是由具有逐对相关性ICCi,j的独立对象i和j表示。
为了正确地呈现立体声对象,SAOC解码器必须提供用于建立在参与立体声对象呈现的这些回放通道之间的正确相关性的手段,使所述立体声对象对于相应通道的贡献表现出如相应的ICCi,j参数所要求的相关性。可以处理多个立体声对象的SAOC至MPEG环绕代码转换器必须得到参与再现相关回放信号的OTT盒的ICC参数,使得在MPEG环绕解码器的输出通道之间的解相关的量满足这种条件。
为达成此目的,与本文献的先前章节所给出的示例相比,功率p0,1和p0,2以及互功率R0的计算必须改变。假设一起建立立体声对象的两个音频对象的所述索引是i1和i2,公式以下列方式改变:
R 0 = Σ i ( Σ j ICC i , j · w 1 , i w 2 , j σ i σ j )
p 0,1 2 = Σ i ( Σ j w 1 , i w 1 , j σ i σ j ICC i , j )
p 0 , 2 2 = Σ i ( Σ j w 2 , i w 2 , j σ i σ j ICC i , j )
可以很容易观察到,如果 ICC i 1 , i 2 = 0 ∀ i 1 ≠ i 2 , 或否则 ICC i 1 , i 2 = 1 , 则这些方程与在上一节所给的方程相同。
可以使用立体声对象具有明显的优点:当可以适当地处理除了点状源以外的音频源时,可以明显地提高空间音频场景的再现品质。此外,当可以使用广泛适用于很多音频对象的、预先混合的音频信号时,可以更高效地执行空间音频场景的产生。
以下考虑还将示出,本发明的构思允许对具有“固有(inherent)”扩散的点状源进行整合。并非如前述示例中一样以对象来表示点状源,而是还可以将一个或更多个对象视为在空间上“扩散”。扩散的量可以利用关于对象的互相关性参数ICCi,j来表征。对于ICCi,j=1,对象i表示点状源,而对于ICi,j=0,对象最大地扩散。可以通过填入正确的ICCi,j值在以上给定的方程中将对象相关的扩散加以整合。
当使用立体声对象时,必须对矩阵M的加权因子的获得加以调整。然而,可以不用本发明的技术来执行调整,例如关于操纵立体声对象,将两个方位角位置(azimuth position)(表示该立体声对象的左侧以及右侧“边缘”的方位角值)变换成为呈现矩阵元素。
如同已经提到的,无论所使用的音频对象类型是什么,通常针对不同的时间/频率片独立地定义呈现矩阵元素,并且呈现矩阵元素通常彼此不相同。例如,随时间的变化可以反映用户交互,通过所述用户交互针对每个独立对象的扫视角度和增益值可以随时间任意地改变。随频率的变化允许不同的特征影响音频场景的空间感知性,例如,均衡(equalization)。
使用多通道参数转换器实现本发明的构思允许全新的、在以前不可行的应用。由于一般情况下SAOC的功能性的特点是音频对象的高效编码和交互式呈现,因此需要交互式音频的许多应用可以受益于本发明构思,即,本发明的多通道参数转换器、或本发明的多通道参数转换方法的实现。
例如,全新的交互式电话会议情况变得可行。目前的电信基础设施(电话、电话会议等)是单声道的。即,传统的对象音频编码无法实行,因为这需要针对要传输的每一个音频对象传输一个基本流。然而,通过引入具有单个下混合通道的SAOC可以扩展这些传统传输通道的功能性。配备有SAOC扩展(主要具有多通道参数转换器或本发明的对象参数代码转换器)的电信终端可以获取(pick up)若干声源(对象)并将它们混合成单个的单声道下混合信号,其中,使用现有的编码器(例如,语音编码器)以兼容的方式传输所述单个的单声道下混合信号。可以采用隐式的(hidden)、后向兼容的方式来运送侧信息(空间音频对象参数或对象参数)。这样的先进终端产生包括若干音频对象的输出对象流,而旧式的终端将再现下混合信号。反之,旧式的终端所产生的输出(即,仅有下混合信号)将被SAOC代码转换器视为一单个音频对象。
图6a说明了原理。在第一电话会议地点200可以存在A个对象(讲话者),而在第二电话会议地点202可以存在B个对象(讲话者)。根据SAOC,可以将对象参数与关联的下混合信号204一起从第一电话会议地点200传输,而可以将下混合信号206从第二会议地点202传输至第一会议地点200,关联有针对第二会议地点202处B个对象当中每一个对象的音频对象参数。这具有极大的优点:可以仅使用一单个下混合信号来传输多个讲话者的输出,此外,由于结合下混合信号来传输与独立的讲话者相关联的另外的音频对象参数,因而可以在接收地点强调另外的讲话者。
例如,这允许用户通过应用关于对象的增益值gi来强调感兴趣的特定讲话者,从而使得几乎听不见其余的讲话者。当使用传统的多通道音频技术时这是不可能的,因为这些技术将尝试尽可能自然地再现原始空间音频场景,而不可能允许用户交互以强调所选择的音频对象。
图6b说明了更复杂的情况,其中在三个电话会议地点200、202以及208当中进行电话会议。由于每一个地点仅可以接收和发送一个音频对象,所以基础设施使用所谓的多点控制单元(multi-point control unit)MCU 210。每一个地点200、202和208连接至MCU 210。从每一个地点至MCU 210,单个上行流(upstream)包括来自于该地点的信号。每一个地点的下行流(upstream)是所有其它地点的信号的混合,可能不包括该地点本身的信号(所谓的“N-1信号”)。
根据先前所讨论的构思以及本发明的参数代码转换器,SAOC比特流格式支持以计算上高效的方式(即,不需要在先完全重构发送地点的空间音频场景的方式)将两个或者更多个对象流(即,具有下混合通道以及关联的音频对象参数的两个流)组合成单个流的能力。根据本发明,支持这样的组合,而不用将对象解码/重新编码。在使用低延迟MPEG通讯编码器(例如低延迟AAC)时,这样的空间音频对象编码情况尤其吸引人。
本发明构思的另一感兴趣的领域是针对游戏(gaming)或类似应用的交互式音频。由于其低计算复杂度并且独立于特定的呈现设置,SAOC理想地适于表示交互式音频的声音,例如游戏应用。此外,还可以根据输出终端的能力来呈现音频。作为一个实例,用户/玩家可以直接影响当前音频场景的呈现/混合。通过调整呈现参数来反映虚拟场景中的四处移动(moving around)。使用灵活的SAOC序列/比特流集合,使得可以再现由用户交互控制的非线性游戏故事(game story)。
根据本发明的另一实施例,本发明的SAOC编码应用于多人游戏中,其中用户与相同虚拟世界/场景中的其它玩家进行交互。对于每一个用户,视频和音频场景依赖于该用户在该虚拟世界中的位置和方位,并且据此在该用户的本地终端上呈现所述视频和音频场景。在使用共同的游戏服务器的不同的玩家之间交换一般游戏参数和特定用户数据(位置、独立的音频、聊天等)。利用旧式的技术,必须对游戏场景中在每一个客户游戏设备上默认不可用的每个独立音频源(具体地,用户聊天、特殊音效)进行编码并作为独立的音频流发送至游戏场景的每一个玩家。使用SAOC,可以在游戏服务器上容易地构成/组合针对每一个玩家的有关音频流,将其作为单个音频流传输至该玩家(包括所有有关的对象),并呈现在每一个音频对象(=其他游戏玩家的音频)的正确空间位置上。
根据本发明的另一实施例,SAOC用于回放对象声迹(soundtrack),其中,利用根据收听者的喜好来调整仪器(instrument)的相对电平、空间位置以及可听度(audibility)的可能性,使用与多通道混合台(mixing desk)相类似的方式来进行控制。这样,用户可以:
●抑制/衰减用于共同播放(play along)的特定仪器(卡拉OK类型的应用)
●修改原始混合,以反映用户的偏好(例如,对于舞会而言较大的鼓声和较小的弦乐,或对于放松的音乐而言较小的鼓声和较大的歌唱声)
●根据用户的偏好,在不同的歌唱声轨(vocal track)之间进行选择(女性主唱经由男性主唱)
如同已将在上述的实例中所显示的,本发明构思的应用开启了多种多样新的、原本并不适用的应用领域。当使用图7的本发明多通道参数转换器时,或当实现如图8所示产生相干性参数(指示在第一音频信号与第二音频信号之间的相关性)和电平参数时的方法时,这些应用变成可能。
第7图示出了本发明的另一实施例。多通道参数转换器300包括对象参数提供器302,所述对象参数提供器302用以提供与下混合通道相关联的至少一个音频对象的对象参数,所述下混合通道的是使用与该音频对象相关联的对象音频信号产生的。多通道参数转换器300还包括参数产生器304,所述参数产生器304用以得到相干性参数和电平参数,所述相干性参数指示与多通道扬声器配置相关联的多通道音频信号表示的第一音频信号与第二音频信号之间的相关性,所述电平参数指示音频信号之间的能量关系。使用对象参数和另外的扬声器参数来产生多通道参数,所述扬声器参数指示要用于回放的多通道扬声器配置的扬声器位置。
图8示出了本发明的方法的实现示例,本发明的方法用以产生相干性参数,所述相干性参数指示与多通道扬声器配置相关联的多通道音频信号表示的第一音频信号与第二音频信号之间的相关性;以及用以产生电平参数,所述电平参数指示音频信号之间的能量关系。在提供步骤310中,提供与下混合通道相关联的至少一个音频对象的对象参数,所述下混合通道是使用与该音频对象相关联的对象音频信号产生的,所述对象参数系包括:指示音频对象的位置的方向参数,以及指示对象音频信号的能量的能量参数。
在转换步骤312中,将方向参数和该能量参数与另外的扬声器参数相组合,得到相干性参数和电平参数,所述扬声器参数指示要用于回放的多通道扬声器配置的扬声器的位置。
其他实施例包括对象参数转换器,所述对象参数转换器用以产生相干性参数,所述相干性参数指示与多通道扬声器配置相关联的多通道音频信号表示的两个音频信号之间的相关性;以及用以产生电平参数,所述电平参数根据空间音频对象编码比特流指示两个音频信号之间的能量关系。该设备包括:比特流分解器,用以从空间音频对象编码比特流中提取下混合通道以及与关联的对象参数;以及如述的多通道参数转换器。
可选地或此外,对象参数代码转换器包括:多通道比特流产生器,用以将下混合通道、相干性参数以及电平参数相组合,以得到多通道信号的多通道表示;或输出接口,用于直接输出电平参数和相干性参数,而不进行任何量化和/或熵编码。
另一对象与该参数代码转换器具有:输出接口,还可以用于与相干性参数和电平参数相结合输出下混合通道;或者具有储存接口,连接至输出接口,用以将电平参数和相干性参数存储在储存介质上。
此外,该对象参数代码转换器具有如前述的多通道参数转换器,用于针对表示多通道扬声器配置的不同扬声器的不同音频信号对得到多个相干性参数和电平参数对。
根据本发明方法的特定实现需求,可以在硬件或软件中实现本发明的方法。可以使用数字储存介质来执行该实现,所述数字储存介质具体是指其上存储有电可读控制信号的光盘、DVD或者CD,这些电可读控制信号与可编程计算机系统协作以便执行本发明的方法。通常,本发明从而是具有存储在机器可读载体(carrier)上的程序代码的计算机程序产品;所述程序代码用于当计算机程序产品在计算机上运行时执行本发明方法。换言之,本发明方法因此是具有程序代码的计算机程序,所述程序代码用于当计算机程序在计算机上运行时执行本发明方法当中的至少一种方法。
虽然前面参考本发明的具体实施例具体示出和描述了本发明,然而本领域技术人员将理解,在不脱离本发明的精神和范围的前提下,可以进行形式和细节上的各种其他改变。应理解,在不脱离此处公开的并由以下权利要求所包含的更宽构思的前提下,可以进行各种改变以适应不同的实施例。

Claims (21)

1.一种多通道参数转换器,包括:
对象参数提供器,用于针对与下混通道相关联的多个音频对象,根据与所述音频对象相关联的对象音频信号,提供对象参数,所述对象参数包括针对每一个音频对象的能量参数,所述能量参数指示对象音频信号的能量信息,所述音频对象包括立体声对象的第一子对象和第二子对象,所述能量参数具有针对立体声对象的第一子对象的第一能量参数σi 2和针对立体声对象的第二子对象的第二能量参数σj 2,所述对象参数还包括指示立体声对象的子对象之间的相关性的立体声相关性参数ICCi,j
加权因子产生器,被配置为产生加权参数ws,i和ws,j作为与呈现配置有关的对象呈现参数,所述加权参数ws,i和ws,j分别描述了子对象i和j对多通道空间音频信号的表示的音频信号s的贡献,所述音频信号s为s=1的第一音频信号和s=2的第二音频信号;以及
参数产生器,用于通过根据以下等式计算与第一音频信号相关联的第一功率估计p0,1、与第二音频信号相关联的第二功率估计p0,2以及互功率估计R0以将能量参数和对象呈现参数相组合,来得到对第一音频信号和第二音频信号之间的能量关系加以指示的电平参数以及对第一音频信号和第二音频信号之间的相关性加以指示的相干性参数:
R 0 = Σ i ( Σ j I CC i , j · w 1 , i w 2 , j σ i σ j )
p 0,1 2 = Σ i ( Σ j w 1 , i w 1 , j σ i σ j ICC i , j )
p 0,2 2 = Σ i ( Σ j w 2 , i w 2 , j σ i σ j ICC i , j ) .
2.根据权利要求1所述的多通道参数转换器,适于另外产生相干性参数,所述相干性参数指示多通道空间音频信号表示的第一音频信号与第二音频信号之间的相关性,其中所述参数产生器适于根据对象呈现参数以及能量参数来得到相干性参数。
3.根据权利要求1所述的多通道参数转换器,其中,所述对象呈现参数系依赖于指示音频对象位置的对象位置参数。
4.根据权利要求1所述的多通道参数转换器,其中,所述呈现配置包括多通道扬声器配置,所述对象呈现参数依赖于指示多通道扬声器配置的扬声器位置的扬声器参数。
5.根据权利要求1所述的多通道参数转换器,其中,所述对象参数提供器用于提供另外包括方向参数的对象参数,所述方向参数指示相对于收听地点的对象位置;以及
所述参数产生器用于根据扬声器参数以及根据方向参数来使用对象呈现参数,所述扬声器参数指示相对于收听地点的扬声器位置。
6.根据权利要求1所述的多通道参数转换器,其中,所述对象参数提供器用于接收用户输入对象参数,所述用户输入对象参数另外包括对扬声器配置内相对于收听地点的用户所选对象位置加以指示的方向参数;以及
所述参数产生器用于根据扬声器参数以及根据方向参数来使用对象呈现参数,所述扬声器参数指示相对于收听地点的扬声器位置。
7.根据权利要求4所述的多通道参数转换器,其中,所述对象参数提供器和所述参数产生器用于使用指示参考平面内角度的方向参数,所述参考平面包括收听地点,还包括具有由扬声器参数所指示的位置的扬声器。
8.根据权利要求1所述的多通道参数转换器,其中,所述参数产生器适于使用第一加权参数和第二加权参数作为对象呈现参数,所述第一加权参数和第二加权参数指示要分配给多通道扬声器配置的第一扬声器和第二扬声器的对象音频信号的能量的一部分,所述第一加权参数和第二加权参数依赖于对多通道扬声器配置的扬声器位置加以指示的扬声器参数,使得当扬声器参数指示第一扬声器和第二扬声器在相对于音频对象位置具有最小距离的扬声器当中时,所述加权参数不等于零。
9.根据权利要求8所述的多通道参数转换器,其中,所述参数产生器适于使用加权参数,当扬声器参数指示第一扬声器与音频对象的位置之间的距离小于第二扬声器与音频对象的位置时,所述加权参数指示针对第一扬声器的音频信号的能量的一部分更大。
10.根据权利要求8所述的多通道参数转换器,其中,
加权因子产生器被配置为根据针对第一扬声器和第二扬声器的扬声器参数Θ1和Θ2,以及根据音频对象的方向参数α,来提供第一加权参数w1和第二加权参数w2,其中扬声器参数Θ1和Θ2以及方向参数α指示相对于收听地点的扬声器和音频对象的位置的方向。
11.根据权利要求10所述的多通道参数转换器,其中,所述加权因子产生器用于提供加权参数w1和w2,使得满足以下方程:
tan ( 1 2 ( Θ 1 + Θ 2 ) ) - α tan ( 1 2 ( Θ 2 - Θ 1 ) ) = w 1 - w 2 w 1 + w 2 ; 以及
w 1 P + w 2 P P = 1
其中p是可选的扫视规则参数,将p设置为反映再现系统/空间的空间声音特性,并将p定义为1≤p≤2。
12.根据权利要求10所述的多通道参数转换器,其中,所述加权因子产生器用于通过应用与音频对象相关联的共同乘法增益值来对加权参数进行另外的缩放。
13.根据权利要求1所述的多通道参数转换器,其中,所述参数产生器用于根据与第一音频信号相关联的第一功率估计pk,1,以及根据与第二音频信号相关联的第二功率估计pk,2,得到电平参数和相干性参数,所述第一音频信号供扬声器使用或者是表示一组扬声器信号的虚拟信号,所述第二音频信号供不同的扬声器使用或者是表示不同组扬声器信号的虚拟信号,其中,第一音频信号的第一功率估计pk,1依赖于与第一音频信号相关联的能量参数和加权参数,与第二音频信号相关联的第二功率估计pk,2依赖于与第二音频信号相关联的能量参数和加权参数,k是指示由不同的第一音频信号和第二音频信号组成的多对当中的一对的整数,所述加权参数依赖于对象呈现参数。
14.根据权利要求13所述的多通道参数转换器,其中,
k等于0,第一音频信号是虚拟信号,表示包括左前通道、右前通道、中央通道以及低频增强通道在内的组,第二音频信号是虚拟信号,表示包括左环绕通道和右环绕通道在内的组。
15.根据权利要求13所述的多通道参数转换器,其中,
k等于0,第一音频信号是虚拟信号,表示包括左前通道、左环绕通道、右前通道以及右环绕通道在内的组,第二通道是虚拟信号,表示包括中央通道和低频增强通道在内的组。
16.根据权利要求13所述的多通道参数转换器,其中,所述参数产生器适于根据以下方程得到电平参数CLD:
CLD 0 = 10 log 10 ( p 0,1 2 p 0,2 2 ) .
17.根据权利要求1所述的多通道参数转换器,其中,所述参数产生器用于根据以下方程得到相干性参数ICC:
ICC 0 = R 0 p 0,1 p 0,2 .
18.根据权利要求1所述的多通道参数转换器,其中,所述参数提供器用于针对每一个音频对象以及针对每一个或多个频带,提供能量参数,以及
所述参数产生器用于计算针对每一个频带的电平参数和相干性参数。
19.根据权利要求1所述的多通道参数转换器,其中,所述参数产生器用于针对对象音频信号的不同时间部分使用不同的对象呈现参数。
20.根据权利要求8所述的多通道参数转换器,其中,所述加权因子产生器用于:基于以下方程,根据对象方向参数αi和扬声器参数θs,针对每一个对象i得到第s个扬声器的加权因子ws,i
对于索引s′,其中1≤s′≤M,
采用θs′≤αi≤θs′+1,θM+1:=θ1+2π
tan ( 1 2 ( θ s ′ + θ s ′ + 1 ) - α ) tan ( 1 2 ( θ s ′ + 1 - θ s ′ ) ) = v 1 , i - v 2 , i v 1 , i + v 2 , i ; v 1 , i p + v 2 , i p p = 1 ;
Figure FDA00001635310400053
其中M是扬声器的数目,gi是与每个对象i相关联的增益因子,0s是第s个扬声器的方位角,v1,i和v2,i是扫视权重,p为可选扫视规则参数,反映再现系统/空间的空间声音特性,且1≤p≤2。
21.一种产生电平参数的方法,所述电平参数指示多通道空间音频信号表示的第一音频信号与第二音频信号之间的能量关系,该方法包括:
针对与下混通道相关联的多个音频对象,根据与所述音频对象相关联的对象音频信号,提供对象参数,所述对象参数包括针对每一个音频对象的能量参数,所述能量参数指示对象音频信号的能量信息,所述音频对象包括立体声对象的第一子对象和第二子对象,所述能量参数具有针对立体声对象的第一子对象的第一能量参数σi 2和针对立体声对象的第二子对象的第二能量参数σj 2,所述对象参数还包括指示立体声对象的子对象之间的相关性的立体声相关性参数ICCi,j
产生加权参数ws,i和ws,j作为与呈现配置有关的对象呈现参数,所述加权参数ws,i和ws,j分别描述了对象i和j对多通道空间音频信号的表示的音频信号s的贡献,所述音频信号s为s=1的第一音频信号和s=2的第二音频信号;以及
通过根据以下等式计算与第一音频信号相关联的第一功率估计p0,1、与第二音频信号相关联的第二功率估计p0,2以及互功率估计R0以将能量参数和对象呈现参数相组合,来得到对第一音频信号和第二音频信号之间的能量关系加以指示的电平参数以及对第一音频信号和第二音频信号之间的相关性加以指示的相干性参数:
R 0 = Σ i ( Σ j I CC i , j · w 1 , i w 2 , j σ i σ j )
p 0,1 2 = Σ i ( Σ j w 1 , i w 1 , j σ i σ j ICC i , j )
p 0,2 2 = Σ i ( Σ j w 2 , i w 2 , j σ i σ j ICC i , j ) .
CN2007800384724A 2006-10-16 2007-10-05 多通道参数转换的装置和方法 Active CN101529504B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US82965306P 2006-10-16 2006-10-16
US60/829,653 2006-10-16
PCT/EP2007/008682 WO2008046530A2 (en) 2006-10-16 2007-10-05 Apparatus and method for multi -channel parameter transformation

Publications (2)

Publication Number Publication Date
CN101529504A CN101529504A (zh) 2009-09-09
CN101529504B true CN101529504B (zh) 2012-08-22

Family

ID=39304842

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2007800384724A Active CN101529504B (zh) 2006-10-16 2007-10-05 多通道参数转换的装置和方法

Country Status (15)

Country Link
US (1) US8687829B2 (zh)
EP (2) EP2082397B1 (zh)
JP (2) JP5337941B2 (zh)
KR (1) KR101120909B1 (zh)
CN (1) CN101529504B (zh)
AT (1) ATE539434T1 (zh)
AU (1) AU2007312597B2 (zh)
BR (1) BRPI0715312B1 (zh)
CA (1) CA2673624C (zh)
HK (1) HK1128548A1 (zh)
MX (1) MX2009003564A (zh)
MY (1) MY144273A (zh)
RU (1) RU2431940C2 (zh)
TW (1) TWI359620B (zh)
WO (1) WO2008046530A2 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9838826B2 (en) 2011-07-01 2017-12-05 Dolby Laboratories Licensing Corporation System and tools for enhanced 3D audio authoring and rendering

Families Citing this family (154)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11294618B2 (en) 2003-07-28 2022-04-05 Sonos, Inc. Media player system
US11106425B2 (en) 2003-07-28 2021-08-31 Sonos, Inc. Synchronizing operations among a plurality of independently clocked digital data processing devices
US8234395B2 (en) 2003-07-28 2012-07-31 Sonos, Inc. System and method for synchronizing operations among a plurality of independently clocked digital data processing devices
US11650784B2 (en) 2003-07-28 2023-05-16 Sonos, Inc. Adjusting volume levels
US8290603B1 (en) 2004-06-05 2012-10-16 Sonos, Inc. User interfaces for controlling and manipulating groupings in a multi-zone media system
US11106424B2 (en) 2003-07-28 2021-08-31 Sonos, Inc. Synchronizing operations among a plurality of independently clocked digital data processing devices
US9977561B2 (en) 2004-04-01 2018-05-22 Sonos, Inc. Systems, methods, apparatus, and articles of manufacture to provide guest access
SE0400998D0 (sv) 2004-04-16 2004-04-16 Cooding Technologies Sweden Ab Method for representing multi-channel audio signals
US8868698B2 (en) 2004-06-05 2014-10-21 Sonos, Inc. Establishing a secure wireless network with minimum human intervention
US8326951B1 (en) 2004-06-05 2012-12-04 Sonos, Inc. Establishing a secure wireless network with minimum human intervention
US8577048B2 (en) * 2005-09-02 2013-11-05 Harman International Industries, Incorporated Self-calibrating loudspeaker system
AU2007207861B2 (en) * 2006-01-19 2011-06-09 Blackmagic Design Pty Ltd Three-dimensional acoustic panning device
JP4966981B2 (ja) 2006-02-03 2012-07-04 韓國電子通信研究院 空間キューを用いたマルチオブジェクト又はマルチチャネルオーディオ信号のレンダリング制御方法及びその装置
US9202509B2 (en) 2006-09-12 2015-12-01 Sonos, Inc. Controlling and grouping in a multi-zone media system
US8483853B1 (en) 2006-09-12 2013-07-09 Sonos, Inc. Controlling and manipulating groupings in a multi-zone media system
US8788080B1 (en) 2006-09-12 2014-07-22 Sonos, Inc. Multi-channel pairing in a media system
US8571875B2 (en) 2006-10-18 2013-10-29 Samsung Electronics Co., Ltd. Method, medium, and apparatus encoding and/or decoding multichannel audio signals
JP4838361B2 (ja) 2006-11-15 2011-12-14 エルジー エレクトロニクス インコーポレイティド オーディオ信号のデコーディング方法及びその装置
AU2007322488B2 (en) * 2006-11-24 2010-04-29 Lg Electronics Inc. Method for encoding and decoding object-based audio signal and apparatus thereof
WO2008069584A2 (en) 2006-12-07 2008-06-12 Lg Electronics Inc. A method and an apparatus for decoding an audio signal
WO2008069597A1 (en) 2006-12-07 2008-06-12 Lg Electronics Inc. A method and an apparatus for processing an audio signal
EP2097895A4 (en) * 2006-12-27 2013-11-13 Korea Electronics Telecomm DEVICE AND METHOD FOR ENCODING AND DECODING MULTI-OBJECT AUDIO SIGNAL WITH DIFFERENT CHANNELS WITH INFORMATION BIT RATE CONVERSION
US8200351B2 (en) * 2007-01-05 2012-06-12 STMicroelectronics Asia PTE., Ltd. Low power downmix energy equalization in parametric stereo encoders
US8553891B2 (en) * 2007-02-06 2013-10-08 Koninklijke Philips N.V. Low complexity parametric stereo decoder
JP2010506232A (ja) * 2007-02-14 2010-02-25 エルジー エレクトロニクス インコーポレイティド オブジェクトベースオーディオ信号の符号化及び復号化方法並びにその装置
CN101542595B (zh) * 2007-02-14 2016-04-13 Lg电子株式会社 用于编码和解码基于对象的音频信号的方法和装置
KR20080082917A (ko) * 2007-03-09 2008-09-12 엘지전자 주식회사 오디오 신호 처리 방법 및 이의 장치
EP2137726B1 (en) * 2007-03-09 2011-09-28 LG Electronics Inc. A method and an apparatus for processing an audio signal
EP3712888A3 (en) * 2007-03-30 2020-10-28 Electronics and Telecommunications Research Institute Apparatus and method for coding and decoding multi object audio signal with multi channel
JP5556175B2 (ja) * 2007-06-27 2014-07-23 日本電気株式会社 信号分析装置と、信号制御装置と、そのシステム、方法及びプログラム
US8385556B1 (en) * 2007-08-17 2013-02-26 Dts, Inc. Parametric stereo conversion system and method
WO2009031870A1 (en) * 2007-09-06 2009-03-12 Lg Electronics Inc. A method and an apparatus of decoding an audio signal
MX2010004220A (es) * 2007-10-17 2010-06-11 Fraunhofer Ges Forschung Codificacion de audio usando mezcla descendente.
KR101461685B1 (ko) * 2008-03-31 2014-11-19 한국전자통신연구원 다객체 오디오 신호의 부가정보 비트스트림 생성 방법 및 장치
EP2146522A1 (en) * 2008-07-17 2010-01-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for generating audio output signals using object based metadata
AU2013200578B2 (en) * 2008-07-17 2015-07-09 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for generating audio output signals using object based metadata
MX2011011399A (es) * 2008-10-17 2012-06-27 Univ Friedrich Alexander Er Aparato para suministrar uno o más parámetros ajustados para un suministro de una representación de señal de mezcla ascendente sobre la base de una representación de señal de mezcla descendete, decodificador de señal de audio, transcodificador de señal de audio, codificador de señal de audio, flujo de bits de audio, método y programa de computación que utiliza información paramétrica relacionada con el objeto.
US8670575B2 (en) 2008-12-05 2014-03-11 Lg Electronics Inc. Method and an apparatus for processing an audio signal
KR101271972B1 (ko) * 2008-12-11 2013-06-10 프라운호퍼-게젤샤프트 추르 푀르데룽 데어 안제반텐 포르슝 에 파우 다채널 오디오 신호를 생성하기 위한 장치
US8255821B2 (en) * 2009-01-28 2012-08-28 Lg Electronics Inc. Method and an apparatus for decoding an audio signal
CN102016982B (zh) * 2009-02-04 2014-08-27 松下电器产业株式会社 结合装置、远程通信系统以及结合方法
MX2011009660A (es) 2009-03-17 2011-09-30 Dolby Int Ab Codificacion estereo avanzada basada en una combinacion de codificacion izquierda/derecha o media/lateral seleccionable de manera adaptable y de codificacion estereo parametrica.
KR101805212B1 (ko) * 2009-08-14 2017-12-05 디티에스 엘엘씨 객체-지향 오디오 스트리밍 시스템
MY165328A (en) 2009-09-29 2018-03-21 Fraunhofer Ges Forschung Audio signal decoder, audio signal encoder, method for providing an upmix signal representation, method for providing a downmix signal representation, computer program and bitstream using a common inter-object-correlation parameter value
CA2938537C (en) 2009-10-16 2017-11-28 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus, method and computer program for providing one or more adjusted parameters for provision of an upmix signal representation on the basis of a downmix signal representation and a parametric side information associated with the downmix signal representation, using an average value
KR101710113B1 (ko) * 2009-10-23 2017-02-27 삼성전자주식회사 위상 정보와 잔여 신호를 이용한 부호화/복호화 장치 및 방법
EP2323130A1 (en) * 2009-11-12 2011-05-18 Koninklijke Philips Electronics N.V. Parametric encoding and decoding
BR112012012097B1 (pt) * 2009-11-20 2021-01-05 Fraunhofer - Gesellschaft Zur Foerderung Der Angewandten Ten Forschung E.V. aparelho para prover uma representação de sinal upmix com base na representação de sinal downmix, aparelho para prover um fluxo de bits que representa um sinal de áudio de multicanais, métodos e fluxo de bits representando um sinal de áudio de multicanais utilizando um parâmetro de combinação linear
EP2346028A1 (en) * 2009-12-17 2011-07-20 Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung e.V. An apparatus and a method for converting a first parametric spatial audio signal into a second parametric spatial audio signal
CN102696070B (zh) 2010-01-06 2015-05-20 Lg电子株式会社 处理音频信号的设备及其方法
CN102823273B (zh) 2010-03-23 2015-12-16 杜比实验室特许公司 用于局域化感知音频的技术
US10158958B2 (en) 2010-03-23 2018-12-18 Dolby Laboratories Licensing Corporation Techniques for localized perceptual audio
US9078077B2 (en) * 2010-10-21 2015-07-07 Bose Corporation Estimation of synthetic audio prototypes with frequency-based input signal decomposition
US8675881B2 (en) * 2010-10-21 2014-03-18 Bose Corporation Estimation of synthetic audio prototypes
US11265652B2 (en) 2011-01-25 2022-03-01 Sonos, Inc. Playback device pairing
US11429343B2 (en) 2011-01-25 2022-08-30 Sonos, Inc. Stereo playback configuration and control
US9165558B2 (en) 2011-03-09 2015-10-20 Dts Llc System for dynamically creating and rendering audio objects
CN107516532B (zh) 2011-03-18 2020-11-06 弗劳恩霍夫应用研究促进协会 音频内容的编码和解码方法以及介质
EP2523472A1 (en) * 2011-05-13 2012-11-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method and computer program for generating a stereo output signal for providing additional output channels
WO2012164444A1 (en) * 2011-06-01 2012-12-06 Koninklijke Philips Electronics N.V. An audio system and method of operating therefor
AU2012279357B2 (en) * 2011-07-01 2016-01-14 Dolby Laboratories Licensing Corporation System and method for adaptive audio signal generation, coding and rendering
US9253574B2 (en) 2011-09-13 2016-02-02 Dts, Inc. Direct-diffuse decomposition
WO2013054159A1 (en) 2011-10-14 2013-04-18 Nokia Corporation An audio scene mapping apparatus
RU2618383C2 (ru) 2011-11-01 2017-05-03 Конинклейке Филипс Н.В. Кодирование и декодирование аудиообъектов
BR112014017281A8 (pt) * 2012-01-17 2017-07-04 Koninklijke Philips Nv sistema de renderização de áudio multicanal, sistema de renderização de áudio espacial e sistema de cinema em casa
ITTO20120274A1 (it) * 2012-03-27 2013-09-28 Inst Rundfunktechnik Gmbh Dispositivo per il missaggio di almeno due segnali audio.
EP2702587B1 (en) * 2012-04-05 2015-04-01 Huawei Technologies Co., Ltd. Method for inter-channel difference estimation and spatial audio coding device
KR101945917B1 (ko) * 2012-05-03 2019-02-08 삼성전자 주식회사 오디오 신호 처리 방법 및 이를 지원하는 단말기
EP2862370B1 (en) * 2012-06-19 2017-08-30 Dolby Laboratories Licensing Corporation Rendering and playback of spatial audio using channel-based audio systems
KR101950455B1 (ko) * 2012-07-31 2019-04-25 인텔렉추얼디스커버리 주식회사 오디오 신호 처리 방법 및 장치
KR101949756B1 (ko) * 2012-07-31 2019-04-25 인텔렉추얼디스커버리 주식회사 오디오 신호 처리 방법 및 장치
JP6045696B2 (ja) * 2012-07-31 2016-12-14 インテレクチュアル ディスカバリー シーオー エルティディIntellectual Discovery Co.,Ltd. オーディオ信号処理方法および装置
KR101949755B1 (ko) * 2012-07-31 2019-04-25 인텔렉추얼디스커버리 주식회사 오디오 신호 처리 방법 및 장치
US9489954B2 (en) * 2012-08-07 2016-11-08 Dolby Laboratories Licensing Corporation Encoding and rendering of object based audio indicative of game audio content
MX350687B (es) * 2012-08-10 2017-09-13 Fraunhofer Ges Forschung Métodos y aparatos para adaptar información de audio en codificación de objeto de audio espacial.
WO2014035902A2 (en) * 2012-08-31 2014-03-06 Dolby Laboratories Licensing Corporation Reflected and direct rendering of upmixed content to individually addressable drivers
JP5917777B2 (ja) * 2012-09-12 2016-05-18 フラウンホーファーゲゼルシャフト ツール フォルデルング デル アンゲヴァンテン フォルシユング エー.フアー. 3dオーディオのための強化されガイドされるダウンミクス能力を提供するための装置および方法
US9729993B2 (en) * 2012-10-01 2017-08-08 Nokia Technologies Oy Apparatus and method for reproducing recorded audio with correct spatial directionality
KR20140046980A (ko) * 2012-10-11 2014-04-21 한국전자통신연구원 오디오 데이터 생성 장치 및 방법, 오디오 데이터 재생 장치 및 방법
MX347100B (es) 2012-12-04 2017-04-12 Samsung Electronics Co Ltd Aparato de suministro de audio y método de suministro de audio.
EP2936485B1 (en) * 2012-12-21 2017-01-04 Dolby Laboratories Licensing Corporation Object clustering for rendering object-based audio content based on perceptual criteria
US10068579B2 (en) * 2013-01-15 2018-09-04 Electronics And Telecommunications Research Institute Encoding/decoding apparatus for processing channel signal and method therefor
EP2757559A1 (en) * 2013-01-22 2014-07-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for spatial audio object coding employing hidden objects for signal mixture manipulation
KR102268933B1 (ko) 2013-03-15 2021-06-25 디티에스, 인코포레이티드 다수의 오디오 스템들로부터의 자동 다-채널 뮤직 믹스
TWI530941B (zh) 2013-04-03 2016-04-21 杜比實驗室特許公司 用於基於物件音頻之互動成像的方法與系統
CN105264600B (zh) 2013-04-05 2019-06-07 Dts有限责任公司 分层音频编码和传输
US10171926B2 (en) * 2013-04-26 2019-01-01 Sony Corporation Sound processing apparatus and sound processing system
US9905231B2 (en) 2013-04-27 2018-02-27 Intellectual Discovery Co., Ltd. Audio signal processing method
KR102148217B1 (ko) * 2013-04-27 2020-08-26 인텔렉추얼디스커버리 주식회사 위치기반 오디오 신호처리 방법
EP2804176A1 (en) * 2013-05-13 2014-11-19 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio object separation from mixture signal using object-specific time/frequency resolutions
KR101751228B1 (ko) 2013-05-24 2017-06-27 돌비 인터네셔널 에이비 오디오 오브젝트들을 포함한 오디오 장면들의 효율적 코딩
WO2014187989A2 (en) 2013-05-24 2014-11-27 Dolby International Ab Reconstruction of audio scenes from a downmix
BR112015029129B1 (pt) 2013-05-24 2022-05-31 Dolby International Ab Método para codificar objetos de áudio em um fluxo de dados, meio legível por computador, método em um decodificador para decodificar um fluxo de dados e decodificador para decodificar um fluxo de dados incluindo objetos de áudio codificados
CN109887516B (zh) 2013-05-24 2023-10-20 杜比国际公司 对音频场景进行解码的方法、音频解码器以及介质
CN104240711B (zh) 2013-06-18 2019-10-11 杜比实验室特许公司 用于生成自适应音频内容的方法、系统和装置
TWM487509U (zh) 2013-06-19 2014-10-01 杜比實驗室特許公司 音訊處理設備及電子裝置
EP2830333A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multi-channel decorrelator, multi-channel audio decoder, multi-channel audio encoder, methods and computer program using a premix of decorrelator input signals
EP2830332A3 (en) 2013-07-22 2015-03-11 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method, signal processing unit, and computer program for mapping a plurality of input channels of an input channel configuration to output channels of an output channel configuration
ES2653975T3 (es) * 2013-07-22 2018-02-09 Fraunhofer Gesellschaft zur Förderung der angewandten Forschung e.V. Decodificador de audio multicanal, codificador de audio multicanal, procedimientos, programa informático y representación de audio codificada mediante el uso de una decorrelación de señales de audio renderizadas
EP3044784B1 (en) 2013-09-12 2017-08-30 Dolby International AB Coding of multichannel audio content
EP3044783B1 (en) 2013-09-12 2017-07-19 Dolby International AB Audio coding
TWI634547B (zh) 2013-09-12 2018-09-01 瑞典商杜比國際公司 在包含至少四音訊聲道的多聲道音訊系統中之解碼方法、解碼裝置、編碼方法以及編碼裝置以及包含電腦可讀取的媒體之電腦程式產品
WO2015038475A1 (en) 2013-09-12 2015-03-19 Dolby Laboratories Licensing Corporation Dynamic range control for a wide variety of playback environments
US9071897B1 (en) * 2013-10-17 2015-06-30 Robert G. Johnston Magnetic coupling for stereo loudspeaker systems
CN105659320B (zh) * 2013-10-21 2019-07-12 杜比国际公司 音频编码器和解码器
EP2866227A1 (en) 2013-10-22 2015-04-29 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method for decoding and encoding a downmix matrix, method for presenting audio content, encoder and decoder for a downmix matrix, audio encoder and audio decoder
EP3657823A1 (en) 2013-11-28 2020-05-27 Dolby Laboratories Licensing Corporation Position-based gain adjustment of object-based audio and ring-based channel audio
US10063207B2 (en) * 2014-02-27 2018-08-28 Dts, Inc. Object-based audio loudness management
JP6863359B2 (ja) * 2014-03-24 2021-04-21 ソニーグループ株式会社 復号装置および方法、並びにプログラム
JP6439296B2 (ja) * 2014-03-24 2018-12-19 ソニー株式会社 復号装置および方法、並びにプログラム
EP2925024A1 (en) * 2014-03-26 2015-09-30 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for audio rendering employing a geometric distance definition
JP6374980B2 (ja) * 2014-03-26 2018-08-15 パナソニック株式会社 サラウンドオーディオ信号処理のための装置及び方法
US9756448B2 (en) 2014-04-01 2017-09-05 Dolby International Ab Efficient coding of audio scenes comprising audio objects
WO2015152661A1 (ko) * 2014-04-02 2015-10-08 삼성전자 주식회사 오디오 오브젝트를 렌더링하는 방법 및 장치
US10331764B2 (en) * 2014-05-05 2019-06-25 Hired, Inc. Methods and system for automatically obtaining information from a resume to update an online profile
US9959876B2 (en) * 2014-05-16 2018-05-01 Qualcomm Incorporated Closed loop quantization of higher order ambisonic coefficients
WO2016004258A1 (en) * 2014-07-03 2016-01-07 Gopro, Inc. Automatic generation of video and directional audio from spherical content
CN105320709A (zh) * 2014-08-05 2016-02-10 阿里巴巴集团控股有限公司 终端设备上的信息提示方法及装置
US9774974B2 (en) * 2014-09-24 2017-09-26 Electronics And Telecommunications Research Institute Audio metadata providing apparatus and method, and multichannel audio data playback apparatus and method to support dynamic format conversion
US9883309B2 (en) * 2014-09-25 2018-01-30 Dolby Laboratories Licensing Corporation Insertion of sound objects into a downmixed audio signal
RU2704266C2 (ru) * 2014-10-31 2019-10-25 Долби Интернешнл Аб Параметрическое кодирование и декодирование многоканальных аудиосигналов
WO2016077320A1 (en) * 2014-11-11 2016-05-19 Google Inc. 3d immersive spatial audio systems and methods
EP3254435B1 (en) 2015-02-03 2020-08-26 Dolby Laboratories Licensing Corporation Post-conference playback system having higher perceived quality than originally heard in the conference
CN107211061B (zh) 2015-02-03 2020-03-31 杜比实验室特许公司 用于空间会议回放的优化虚拟场景布局
CN104732979A (zh) * 2015-03-24 2015-06-24 无锡天脉聚源传媒科技有限公司 一种音频数据的处理方法及装置
US10248376B2 (en) 2015-06-11 2019-04-02 Sonos, Inc. Multiple groupings in a playback system
CN105070304B (zh) 2015-08-11 2018-09-04 小米科技有限责任公司 实现对象音频录音的方法及装置、电子设备
CA3219512A1 (en) 2015-08-25 2017-03-02 Dolby International Ab Audio encoding and decoding using presentation transform parameters
US9877137B2 (en) 2015-10-06 2018-01-23 Disney Enterprises, Inc. Systems and methods for playing a venue-specific object-based audio
US9949052B2 (en) 2016-03-22 2018-04-17 Dolby Laboratories Licensing Corporation Adaptive panner of audio objects
US10712997B2 (en) 2016-10-17 2020-07-14 Sonos, Inc. Room association based on name
US10861467B2 (en) 2017-03-01 2020-12-08 Dolby Laboratories Licensing Corporation Audio processing in adaptive intermediate spatial format
AU2018368589B2 (en) 2017-11-17 2021-10-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for encoding or decoding directional audio coding parameters using quantization and entropy coding
US11032580B2 (en) 2017-12-18 2021-06-08 Dish Network L.L.C. Systems and methods for facilitating a personalized viewing experience
US10365885B1 (en) * 2018-02-21 2019-07-30 Sling Media Pvt. Ltd. Systems and methods for composition of audio content from multi-object audio
GB2572650A (en) * 2018-04-06 2019-10-09 Nokia Technologies Oy Spatial audio parameters and associated spatial audio playback
GB2574239A (en) * 2018-05-31 2019-12-04 Nokia Technologies Oy Signalling of spatial audio parameters
GB2574667A (en) * 2018-06-15 2019-12-18 Nokia Technologies Oy Spatial audio capture, transmission and reproduction
JP6652990B2 (ja) * 2018-07-20 2020-02-26 パナソニック株式会社 サラウンドオーディオ信号処理のための装置及び方法
CN109257552B (zh) * 2018-10-23 2021-01-26 四川长虹电器股份有限公司 平板电视机音效参数设计方法
JP7092050B2 (ja) * 2019-01-17 2022-06-28 日本電信電話株式会社 多地点制御方法、装置及びプログラム
JP7092049B2 (ja) * 2019-01-17 2022-06-28 日本電信電話株式会社 多地点制御方法、装置及びプログラム
JP7092048B2 (ja) * 2019-01-17 2022-06-28 日本電信電話株式会社 多地点制御方法、装置及びプログラム
JP7176418B2 (ja) * 2019-01-17 2022-11-22 日本電信電話株式会社 多地点制御方法、装置及びプログラム
JP7092047B2 (ja) * 2019-01-17 2022-06-28 日本電信電話株式会社 符号化復号方法、復号方法、これらの装置及びプログラム
JP2022521694A (ja) * 2019-02-13 2022-04-12 ドルビー ラボラトリーズ ライセンシング コーポレイション オーディオオブジェクトクラスタリングのための適応型音量正規化
US11937065B2 (en) * 2019-07-03 2024-03-19 Qualcomm Incorporated Adjustment of parameter settings for extended reality experiences
JP7443870B2 (ja) * 2020-03-24 2024-03-06 ヤマハ株式会社 音信号出力方法および音信号出力装置
CN111711835B (zh) * 2020-05-18 2022-09-20 深圳市东微智能科技股份有限公司 多路音视频整合方法、系统及计算机可读存储介质
CA3190884A1 (en) * 2020-08-31 2022-03-03 Jan Frederik KIENE Multi-channel signal generator, audio encoder and related methods relying on a mixing noise signal
KR102363652B1 (ko) * 2020-10-22 2022-02-16 주식회사 이누씨 멀티 오디오 분리 재생 방법 및 장치
CN112221138B (zh) * 2020-10-27 2022-09-27 腾讯科技(深圳)有限公司 虚拟场景中的音效播放方法、装置、设备及存储介质
WO2024076829A1 (en) * 2022-10-05 2024-04-11 Dolby Laboratories Licensing Corporation A method, apparatus, and medium for encoding and decoding of audio bitstreams and associated echo-reference signals
CN115588438B (zh) * 2022-12-12 2023-03-10 成都启英泰伦科技有限公司 一种基于双线性分解的wls多通道语音去混响方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1499485A (zh) * 2002-10-29 2004-05-26 松下电器产业株式会社 音频信息变换方法、程序和设备及视/音频格式、编码器
EP1691348A1 (en) * 2005-02-14 2006-08-16 Ecole Polytechnique Federale De Lausanne Parametric joint-coding of audio sources

Family Cites Families (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0699334B1 (en) * 1994-02-17 2002-02-20 Motorola, Inc. Method and apparatus for group encoding signals
US5912976A (en) * 1996-11-07 1999-06-15 Srs Labs, Inc. Multi-channel audio enhancement system for use in recording and playback and methods for providing same
JP2005093058A (ja) 1997-11-28 2005-04-07 Victor Co Of Japan Ltd オーディオ信号のエンコード方法及びデコード方法
JP3743671B2 (ja) 1997-11-28 2006-02-08 日本ビクター株式会社 オーディオディスク及びオーディオ再生装置
US6016473A (en) 1998-04-07 2000-01-18 Dolby; Ray M. Low bit-rate spatial coding method and system
US6788880B1 (en) 1998-04-16 2004-09-07 Victor Company Of Japan, Ltd Recording medium having a first area for storing an audio title set and a second area for storing a still picture set and apparatus for processing the recorded information
MY149792A (en) 1999-04-07 2013-10-14 Dolby Lab Licensing Corp Matrix improvements to lossless encoding and decoding
KR100392384B1 (ko) * 2001-01-13 2003-07-22 한국전자통신연구원 엠펙-2 데이터에 엠펙-4 데이터를 동기화시켜 전송하는장치 및 그 방법
US7292901B2 (en) 2002-06-24 2007-11-06 Agere Systems Inc. Hybrid multi-channel/cue coding/decoding of audio signals
JP2002369152A (ja) 2001-06-06 2002-12-20 Canon Inc 画像処理装置、画像処理方法、画像処理プログラム及び画像処理プログラムが記憶されたコンピュータにより読み取り可能な記憶媒体
JP4191033B2 (ja) * 2001-09-14 2008-12-03 コラス・アルミニウム・バルツプロドウクテ・ゲーエムベーハー 金属の被覆されたスクラップ片の被覆を除去する方法
JP3994788B2 (ja) * 2002-04-30 2007-10-24 ソニー株式会社 伝達特性測定装置、伝達特性測定方法、及び伝達特性測定プログラム、並びに増幅装置
DE60317203T2 (de) * 2002-07-12 2008-08-07 Koninklijke Philips Electronics N.V. Audio-kodierung
AU2003281128A1 (en) * 2002-07-16 2004-02-02 Koninklijke Philips Electronics N.V. Audio coding
JP2004193877A (ja) 2002-12-10 2004-07-08 Sony Corp 音像定位信号処理装置および音像定位信号処理方法
US20060171542A1 (en) 2003-03-24 2006-08-03 Den Brinker Albertus C Coding of main and side signal representing a multichannel signal
US7447317B2 (en) * 2003-10-02 2008-11-04 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V Compatible multi-channel coding/decoding by weighting the downmix channel
US7555009B2 (en) * 2003-11-14 2009-06-30 Canon Kabushiki Kaisha Data processing method and apparatus, and data distribution method and information processing apparatus
JP4378157B2 (ja) * 2003-11-14 2009-12-02 キヤノン株式会社 データ処理方法および装置
US7805313B2 (en) * 2004-03-04 2010-09-28 Agere Systems Inc. Frequency-based coding of channels in parametric multi-channel coding systems
MXPA06011397A (es) 2004-04-05 2006-12-20 Koninkl Philips Electronics Nv Metodo, dispositivo, aparato codificador, aparato decodificador y sistema de audio.
SE0400998D0 (sv) * 2004-04-16 2004-04-16 Cooding Technologies Sweden Ab Method for representing multi-channel audio signals
US7391870B2 (en) * 2004-07-09 2008-06-24 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E V Apparatus and method for generating a multi-channel output signal
TWI393121B (zh) 2004-08-25 2013-04-11 Dolby Lab Licensing Corp 處理一組n個聲音信號之方法與裝置及與其相關聯之電腦程式
JP2006101248A (ja) 2004-09-30 2006-04-13 Victor Co Of Japan Ltd 音場補正装置
SE0402652D0 (sv) 2004-11-02 2004-11-02 Coding Tech Ab Methods for improved performance of prediction based multi- channel reconstruction
KR101215868B1 (ko) 2004-11-30 2012-12-31 에이저 시스템즈 엘엘시 오디오 채널들을 인코딩 및 디코딩하는 방법, 및 오디오 채널들을 인코딩 및 디코딩하는 장치
US7573912B2 (en) * 2005-02-22 2009-08-11 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschunng E.V. Near-transparent or transparent multi-channel encoder/decoder scheme
US8346564B2 (en) * 2005-03-30 2013-01-01 Koninklijke Philips Electronics N.V. Multi-channel audio coding
US7991610B2 (en) * 2005-04-13 2011-08-02 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Adaptive grouping of parameters for enhanced coding efficiency
US7961890B2 (en) * 2005-04-15 2011-06-14 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung, E.V. Multi-channel hierarchical audio coding with compact side information
US8185403B2 (en) * 2005-06-30 2012-05-22 Lg Electronics Inc. Method and apparatus for encoding and decoding an audio signal
US20070055510A1 (en) * 2005-07-19 2007-03-08 Johannes Hilpert Concept for bridging the gap between parametric multi-channel audio coding and matrixed-surround multi-channel coding
JP5113049B2 (ja) * 2005-07-29 2013-01-09 エルジー エレクトロニクス インコーポレイティド 符号化されたオーディオ信号の生成方法及びオーディオ信号の処理方法
JP5231225B2 (ja) * 2005-08-30 2013-07-10 エルジー エレクトロニクス インコーポレイティド オーディオ信号をエンコーディング及びデコーディングするための装置とその方法
US20080255857A1 (en) * 2005-09-14 2008-10-16 Lg Electronics, Inc. Method and Apparatus for Decoding an Audio Signal
KR20080087909A (ko) * 2006-01-19 2008-10-01 엘지전자 주식회사 신호 디코딩 방법 및 장치
JP4966981B2 (ja) * 2006-02-03 2012-07-04 韓國電子通信研究院 空間キューを用いたマルチオブジェクト又はマルチチャネルオーディオ信号のレンダリング制御方法及びその装置
US8560303B2 (en) * 2006-02-03 2013-10-15 Electronics And Telecommunications Research Institute Apparatus and method for visualization of multichannel audio signals
JP2009526467A (ja) * 2006-02-09 2009-07-16 エルジー エレクトロニクス インコーポレイティド オブジェクトベースオーディオ信号の符号化及び復号化方法とその装置
KR20080093422A (ko) * 2006-02-09 2008-10-21 엘지전자 주식회사 오브젝트 기반 오디오 신호의 부호화 및 복호화 방법과 그장치
JP4875142B2 (ja) * 2006-03-28 2012-02-15 テレフオンアクチーボラゲット エル エム エリクソン(パブル) マルチチャネル・サラウンドサウンドのためのデコーダのための方法及び装置
US7965848B2 (en) * 2006-03-29 2011-06-21 Dolby International Ab Reduced number of channels decoding
ATE527833T1 (de) * 2006-05-04 2011-10-15 Lg Electronics Inc Verbesserung von stereo-audiosignalen mittels neuabmischung
US8379868B2 (en) * 2006-05-17 2013-02-19 Creative Technology Ltd Spatial audio coding based on universal spatial cues
US8139775B2 (en) * 2006-07-07 2012-03-20 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Concept for combining multiple parametrically coded audio sources
US20080235006A1 (en) * 2006-08-18 2008-09-25 Lg Electronics, Inc. Method and Apparatus for Decoding an Audio Signal
KR100917843B1 (ko) * 2006-09-29 2009-09-18 한국전자통신연구원 다양한 채널로 구성된 다객체 오디오 신호의 부호화 및복호화 장치 및 방법
JP5238706B2 (ja) * 2006-09-29 2013-07-17 エルジー エレクトロニクス インコーポレイティド オブジェクトベースオーディオ信号のエンコーディング/デコーディング方法及びその装置
US9565509B2 (en) 2006-10-16 2017-02-07 Dolby International Ab Enhanced coding and parameter representation of multichannel downmixed object coding

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1499485A (zh) * 2002-10-29 2004-05-26 松下电器产业株式会社 音频信息变换方法、程序和设备及视/音频格式、编码器
EP1691348A1 (en) * 2005-02-14 2006-08-16 Ecole Polytechnique Federale De Lausanne Parametric joint-coding of audio sources

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Christof Faller.Parametric Joint-Coding of Audio Sources.《Audio Engineering Society,120th Convention》.2006,1-12. *
ISO/IEC JTC 1/SC 29/WG 11.Concepts of Object-Oriented Spatial Audio Coding.《ISO/IEC JTC 1/SC 29/WG 11 N8329》.2006,1-8. *
JP特开2004-193877A 2004.07.08
JP特开2006-101248A 2006.04.13

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9838826B2 (en) 2011-07-01 2017-12-05 Dolby Laboratories Licensing Corporation System and tools for enhanced 3D audio authoring and rendering
US10244343B2 (en) 2011-07-01 2019-03-26 Dolby Laboratories Licensing Corporation System and tools for enhanced 3D audio authoring and rendering

Also Published As

Publication number Publication date
AU2007312597B2 (en) 2011-04-14
JP5337941B2 (ja) 2013-11-06
WO2008046530A3 (en) 2008-06-26
BRPI0715312A2 (pt) 2013-07-09
TWI359620B (en) 2012-03-01
US20110013790A1 (en) 2011-01-20
US8687829B2 (en) 2014-04-01
EP2437257A1 (en) 2012-04-04
ATE539434T1 (de) 2012-01-15
AU2007312597A1 (en) 2008-04-24
BRPI0715312B1 (pt) 2021-05-04
RU2009109125A (ru) 2010-11-27
JP2013257569A (ja) 2013-12-26
WO2008046530A2 (en) 2008-04-24
EP2082397B1 (en) 2011-12-28
KR20090053958A (ko) 2009-05-28
MX2009003564A (es) 2009-05-28
JP2010507114A (ja) 2010-03-04
MY144273A (en) 2011-08-29
CA2673624A1 (en) 2008-04-24
CN101529504A (zh) 2009-09-09
TW200829066A (en) 2008-07-01
JP5646699B2 (ja) 2014-12-24
HK1128548A1 (en) 2009-10-30
EP2437257B1 (en) 2018-01-24
EP2082397A2 (en) 2009-07-29
RU2431940C2 (ru) 2011-10-20
KR101120909B1 (ko) 2012-02-27
CA2673624C (en) 2014-08-12

Similar Documents

Publication Publication Date Title
CN101529504B (zh) 多通道参数转换的装置和方法
Breebaart et al. Spatial audio object coding (SAOC)-The upcoming MPEG standard on parametric object based audio coding
CN101160618B (zh) 用于空间音频参数编码的紧凑辅助信息
JP5134623B2 (ja) 複数のパラメータ的に符号化された音源を合成するための概念
TWI396187B (zh) 用於將以物件為主之音訊信號編碼與解碼之方法與裝置
Herre et al. MPEG surround-the ISO/MPEG standard for efficient and compatible multichannel audio coding
TWI508578B (zh) 音訊編碼及解碼
CN101542597B (zh) 用于编码和解码基于对象的音频信号的方法和装置
JP2011501544A (ja) ダウンミックスを用いたオーディオコーディング
Herre et al. From SAC To SAOC—Recent Developments in Parametric Coding of Spatial Audio
CN101506875B (zh) 用于组合多个参数编码的音频源的设备和方法
CN107077861A (zh) 音频编码器和解码器
Purnhagen et al. Immersive audio delivery using joint object coding
Engdegård et al. MPEG spatial audio object coding—the ISO/MPEG standard for efficient coding of interactive audio scenes
Jot Two-Channel Matrix Surround Encoding for Flexible Interactive 3-D Audio Reproduction
Meng Virtual sound source positioning for un-fixed speaker set up
Annadana et al. New Enhancements to Immersive Sound Field Rendition (ISR) System

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C53 Correction of patent of invention or patent application
CB02 Change of applicant information

Address after: Munich, Germany

Applicant after: Fraunhofer Application and Research Promotion Association

Co-applicant after: Dolby International AB

Co-applicant after: Royal Philips Electronics Co., Ltd.

Address before: Munich, Germany

Applicant before: Fraunhofer Application and Research Promotion Association

Co-applicant before: Dolby Sweden AB

Co-applicant before: Koninklijke Philips Electronics N.V.

C14 Grant of patent or utility model
GR01 Patent grant