CN101133441A - 音源的参数联合编码 - Google Patents

音源的参数联合编码 Download PDF

Info

Publication number
CN101133441A
CN101133441A CNA2006800047285A CN200680004728A CN101133441A CN 101133441 A CN101133441 A CN 101133441A CN A2006800047285 A CNA2006800047285 A CN A2006800047285A CN 200680004728 A CN200680004728 A CN 200680004728A CN 101133441 A CN101133441 A CN 101133441A
Authority
CN
China
Prior art keywords
signal
sound source
source signal
sound
audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA2006800047285A
Other languages
English (en)
Other versions
CN101133441B (zh
Inventor
克里斯多夫·法勒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=34938725&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=CN101133441(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Publication of CN101133441A publication Critical patent/CN101133441A/zh
Application granted granted Critical
Publication of CN101133441B publication Critical patent/CN101133441B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0204Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using subband decomposition
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/233Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/03Application of parametric coding in stereophonic audio systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/13Application of wave-field synthesis in stereophonic audio systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/307Frequency adjustment, e.g. tone control

Abstract

涉及以下的编码场景:为了在将音源信号解码之后混合波场合成、多通道环绕或立体声信号而需要传输或储存的许多音源信号。与对音源信号单独进行编码相比,所提出的技术在将音源信号联合编码时提供了显著的编码增益,甚至在音源信号之间没有呈现冗余的时候。通过考虑音源信号的统计特性、混合技术特性和空间听力,这是可能的。传输音源信号之和,加上音源信号的统计特性,这些统计特性最能确定最终混合的通道的感知重要空间线索。音源信号在接收器得到恢复,以便它们的统计特色近似于原始音源信号的相应特性。主观评估表明利用所提出的方案获得了较高的声音质量。

Description

音源的参数联合编码
1.介绍
在一般的编码问题中,我们有许多(单)音源信号si(n)(1≤i≤M)和景物描述矢量S(n),其中n是时间指数。景物描述矢量包含诸如(虚拟)音源位置、音源宽度和声音参数例如(虚拟)室参数这些参数。景物描述可以是非时间变量或者随着时间而改变。将音源信号和景物描述编码并传输到解码器。所编码的音源信号_i(n)连续混合成景物描述的函数_(n),从而生成作为景物描述矢量的函数的波场合成、多通道或立体声信号。将解码器输出信号表示成
Figure A20068000472800043
(0≤i≤N)。注意,景物描述矢量S(n)可以不传输,但是可以在解码器确定。在本文中,术语“立体声信号”通常是指二通道立体声信号。
ISO/IEC MPEG-4意指所描述的编码场景。它定义景物描述并使用单独的单音频编码器(例如AAC音频编码器)用于每个(“天然”)音源信号。然而,当带有许多音源的复合景物进行混合时,比特率就变高了,即比特率随音源的数目按比例增大。高质量地编码一个音源信号需要约60-90kb/s。
以前,我们用表示灵活演奏的双声道线索编码(BCC)的方案致力于解决所描述的编码问题[1][2]的特殊情形。通过仅仅传输给定音源信号与低比特率辅助信息(side information)相加的和,而获得低比特率。然而,音源信号在解码器不能恢复,并且该方案局限于立体声和多通道环绕信号的生成。而且,根据振幅和延迟相移,只使用过分简单化的混合。由此,音源的方向得到控制,但是没有其它听觉空间图像产生。这种方案的另一个局限性是,其声音质量不高。特别是,声音质量随着音源信号数目的增大下降得更严重。
文件[1](双声道线索编码,参数立体声,MPEG环绕)涉及了对N个音频通道进行编码、解码具有类似线索的N个音频通道、随即解码原始音频通道的情况。所传输的辅助信息包括与输入通道间差异相关的通道间线索参数。
立体声和多通道音频信号的信道包含音源信号的混合,并由此在本质上不同于纯音源信号。使立体声和多通道音频信号进行混合,由此当在合适的重放系统上进行重放时听者就将感觉到听觉空间图像(“声基宽”),这正如由录音装备所捕获或者由录影师在混合过程中所设计的。以前提出了许多对立体声或多通道音频信号的信道进行联合编码的方案。
发明内容
本发明的目的是,提供一种在利用最小带宽的同时传输多个音源信号的方法。在大多数公知方法中,重放形式(例如立体声5.1)是预定的,并且对编码场景有直接影响。解码器那一侧上的音频流应该仅采用这种预定的重放形式,因此将使用者与预定的重放场景(例如立体声)结合起来。
本发明对N个音源信号进行编码,这些音源信号典型地并非立体声或多通道信号的通道,而是例如不同语音或乐器信号等的独立信号。所传输的辅助信息包括与输入的音源信号相关的统计信息。
本发明利用与原始音源信号不同的线索对M个音频通道进行解码。这些不同的线索或者通过对所接收的和信号应用混合器而被隐含地合成。所述混合器作为所接收的统计音源信息和所接收的(或本地确定的)音频格式参数和混合参数的函数而被控制。可替换地,这些不同的线索作为所接收的统计音源信息和所接收的(或本地确定的)音频格式参数和混合参数的函数被明确地计算。这些计算得到的线索被用来控制现有技术中用于在已知所接收和信号的情况下合成输出和通道的解码器(双声道线索编码,参数立体声,MPEG环绕)。
所提出的这种联合编码音源信号方案居于首位。这种方案是用于联合编码音源信号的。音源信号通常是不适合在立体声或多通道音频系统上重放的单音频信号。为简便起见,以下,音源信号经常是指源信号。
音源信号在重放之前首先需要混合成立体声、多通道或波场合成音频信号。音源信号可以是单个仪器或讲话者,或者是许多仪器和讲话者之和。另一种音源信号是用点式传声器在会议期间捕获的单音频信号。音源信号经常储存在多磁道录音机或硬盘记录系统中。
所要求保护的这种联合编码音源信号的方案,是基于仅仅传输音源信号之和,
s ( n ) = Σ i = 1 M s i ( n ) - - - ( 1 )
或者是音源信号的加权和。任选地,加权和可以用不同子带的不同加权来完成,并且加权可以按时改变。也可以应用均衡的总和,如[1]中的第3.3.2章所描述的。下面,当我们称和或和信号时,我们总是指由(1)产生的或者如所描述的那样产生的信号。除了和信号之外,还传输辅助信息。上述和与辅助信息一起代表所输出的音频流。任选地,利用常规单音频编码器来编码和信号。此音频流可储存在文件(CD、DVD、硬盘)中或者向接收器重放。辅助信息代表音源信号的统计特性,这些性质是确定混合器输出信号的感知空间线索的最重要因素。将要表明,这些特性正在暂时展开频谱包络和自相关功能。每个音源信号传输约3kb/s的辅助信息。在接收器,音源信号(_i(n)(1≤i≤M)用前面提到的近似于原始音源信号及和信号的相应特性的统计特性来恢复。
附图说明
借助于附图将更好地理解本发明,其中:
图1示出单独传输每个音源信号以便进一步处理的方案,
图2示出作为和信号加辅助信息来传输的许多音源,
图3是双声道线索编码(BCC)方案的方框图,
图4示出基于几个音源信号产生立体声信号的混合器,
图5示出ICTD、ICLD和ICC与音源信号子带功率之间的依存关系,
图6示出辅助信息生成的过程,
图7示出评算每个音源信号的LPC参数的过程,
图8示出由和信号重建音源信号的过程,
图9示出由和信号产生每个信号的替换型方案,
图10示出基于和信号生成立体声信号的混合器,
图11示出防止音源级取决于混合参数的幅值相移算法,
图12示出波场合成重放系统的扬声器阵列,
图13示出如何通过处理传输通道的下混合而在接收器恢复音源信号的估算,
图14示出如何通过处理传输通道而在接收器恢复音源信号的估算。
II.定义、标记和变量
本文采用以下标记和变量:
n时间指数;
i音频通道或音源指数;
d延迟指数;
M编码器输入音源信号的数目;
N解码器输出通道的数目;
xi(n)混合的原始音源信号;
Figure A20068000472800071
混合的解码器输出信号;
si(n)编码器输入音源信号;
_i(n)也称作伪音源信号的传输音源信号;
s(n)传输的和信号;
yi(n)L-通道音频信号;(待重新混合的音频信号);
Figure A20068000472800073
si(n)的一个子带信号(对于其它信号采用相同的定义);
Figure A20068000472800075
的短时估算(对于其它信号采用相同的定义);
ICLD信道间的级差;
ICTD信道间的时间差;
ICC信道间的相干性;
ΔL(n)估算的子带的ICLD;
τ(n)估算的子带的ICTD;
c(n)估算的子带的ICC;
Figure A20068000472800081
相对音源子带功率;
ai,bi混合器比例因子;
ci,di混合器延迟;
ΔLi,τ(n)混合器级和时间差;
Gi混合器音源增益;
III.音源信号的联合编码
首先,描述双声道线索编码(BCC)即参数多通道音频编码技术。然后表明,利用与BCC相同的原理,能够为编码场景设计出用于联合编码音源信号的算法。
A.双声道线索编码(BCC)
用于多通道音频编码的BCC方案[1][2]在下图中示出。输入的多通道音频信号下混合成单个信道。与编码和传输有关所有信道波形的信息相反,仅仅对下混合信号进行编码(利用常规单音频编码器)和传输。此外,估算原始通道之间的由感知推动的“音频通道差”,并且还将其传输到解码器。解码器产生输出音频通道,从而该音频通道差近似于原始音频信号的相应音频通道差。
本地求和意味着,扬声器信号信道对的感知相关音频通道差是信道间的时间差(ICTD)和信道间的级差(ICLD)。ICTD和ICLD可与听觉事件感知的方向有关。其它听觉空间图像属性诸如表观音源宽度和听者环境,与听觉间的相干性(IC)有关。对于听者前面或背后的扬声器对,听觉间的相干性经常与通道间的相干性(ICC)直接有关,ICC由此被认为是用BCC测定的第三音频通道差。将ICTD、ICLD和ICC作为时间的函数在子带中进行估算。所用的频谱解析和时间解析都是由感知激发的。
B.音源的参数联合编码
BCC解码器通过采集单信号并且在正规时间间隔合成每个子带和通道对的单个特殊ICTD、ICLD和ICC线索,能够用任何听觉空间图像产生多通道音频信号。大范围音频材料[参见1]的BCC方案的良好性能意味着,所感知的听觉空间图像主要是由ICTD、ICLD和ICC确定的。因此,与图1中要求“干净”音源信号si(n)作为混合器的输入相反的是,对于将真实音源信号提供给混合器的情形来说,我们只需要具有在混合器输出导致类似ICTD、ICLD和ICC的性质的伪音源信号_i(n)。为了产生_i(n)有三个目标:
●如果将_i(n)提供给混合器,混合器输出信道将具有近似相同的空间线索(ICTD、ICLD和ICC),就仿佛是si(n)提供给混合器。
●所生成的_i(n)具有尽量少的有关原始音源信号s(n)的信息(因为该目标是具有低比特辅助信息)。
●由传输的和信号s(n)产生_i(n),从而引入最少量的信号失真。
为了导出所提出的方案,我们考虑立体声混合器(M=2)。比普通情形进一步简化的是,仅应用幅值和延迟相移进行混合。如果离散的音源信号在解码器是可用的,那么立体声信号如图4所示进行混合,即
x 1 ( n ) = Σ i = 1 M a i s i ( n - c i ) x 2 ( n ) = Σ i = 1 M b i s i ( n - d i ) - - - ( 2 )
在这种情形中,景物描述矢量S(n)恰恰包含确定混合参数的音源方向,
M(n)=(a1,a2,...,aM,b1,b2,...,bM,c1,c2,...,cM,d1,d2,...,dM)T    (3)
在此处T是矢量的转置。注意,对于混合参数,我们忽略了时间指数,以便于用符号表示。
用于控制混合器的更便利的参数是与ai、bi、ci和di有关的时间差和级差Ti和ΔLi,ai、bi、ci和di用下式表示:
a i = 10 Gi / 20 1 + 10 ΔLi / 10 bi=10(Gi+ΔLi)/20ai  ci=max{-Ti,O}di=max{Ti,O}(4)
在此处Gi是以dB为单位的音源增益因子。
下面,我们将立体声混合器输出的ICTD、ICLD和ICC作为输入音源信号si(n)的函数来计算。所获得的表达式将给出这样的指示:音源信号特性确定了ICTD、ICLD和ICC(与混合参数一起)。然后产生_i(n),从而所识别的音源信号特性近似于原始音源信号的相应特性。
B.1混合器输出的ICTD、ICLD和ICC
在子带中并作为时间的函数来估算线索。下面,假设,音源信号si(n)是零平均值并且互相是独立的。将混合器输出(2)的一对子带信号表示成
Figure A20068000472800102
Figure A20068000472800103
注意,为了简化符号,对于时域和子带域信号,我们使用相同的时间指数n。而且,不使用子带指数,且将所描述的分析/处理单独应用于每个子带。两个混合器输出信号的子带功率是:
E { x ~ 1 2 ( n ) } = Σ i = 1 M a i 2 E { s ~ i 2 ( n ) ) } E { x ~ 2 2 ( n ) } = Σ i = 1 M b i 2 E { s ~ i 2 ( n ) ) } - - - ( 5 )
在此处,
Figure A20068000472800106
是音源si(n)的一个子带信号,E{}表示短时表达式,例如
E { s ~ 2 2 ( n ) } = 1 K Σ n - K / 2 n + K / 2 - 1 s ~ i 2 ( n ) - - - ( 6 )
在此处,K确定移动平均的长度。注意,子带功率值
Figure A20068000472800108
对于每个音源信号是代表作为时间函数的频谱包络。ICLD即ΔL(n)是:
ΔL ( n ) = 10 log 10 Σ i = 1 M b 1 2 E { s ~ i 2 ( n ) ) } Σ i = 1 M a i 2 E { s ~ i 2 ( n ) ) } - - - ( 7 )
为了估算ICTD和ICC,估算归一化交叉相关函数,
Φ ( n , d ) = E { x ~ 1 ( n ) x ~ 2 ( n + d ) } E { x ~ 1 2 ( n ) } E { x ~ 2 2 ( n + d ) } - - - ( 8 )
按照下式计算ICC即c(n):
c ( n ) = max d Φ ( n , d )
为了计算ICTD即T(n),计算延迟轴上的最高峰的位置:
T ( n ) = arg max d Φ ( n , d ) - - - ( 10 )
现在,问题是如何能够将归一化交叉相关函数作为混合参数的函数来计算。(8)与(2)一起被写成:
Φ ( n , d ) = Σ i = 1 M E { a i b i s ~ i ( n - c i ) s ~ i ( n - d i + d ) } E { Σ i = 1 M a i 2 s i 2 ( n - c i ) } E { Σ i = 1 M b i 2 s i 2 ( n - d i ) } - - - ( 11 )
其等于
在此处,归一化自相关函数_(n,e)是:
Φ ( n , e ) = E { s i ( n ) s i ( n + e ) } E { s i 2 ( n ) } - - - ( 13 )
并且Ti=di-ci。注意,为了计算(12)给定的(11),假设信号在所考虑的延迟范围内广义是平稳的,即
E { s ~ i 2 ( n ) } = E { s ~ i 2 ( n - c i ) }
E { s ~ i 2 ( n ) } = E { s ~ i 2 ( n - d i ) }
E { s ~ i ( n ) s ~ i ( n + c i - d i + d ) } } = E { s ~ i ( n - c i ) s ~ i ( n - d i + d ) }
两个音源信号的数值例,表示出ICTD、ICLD和ICC与音源子带功率之间的依存关系,在图5中示出。对于不同的混合参数(4)ΔL1、ΔL2、T1和T2,图5的顶部、中间和底部分别表示ΔL(n)、T(n)和c(n),这是两个音源信号子带功率之比的函数, a = E { s ~ 1 2 ( n ) } / ( E { s ~ 1 2 ( n ) } + E { s ~ 2 2 ( n ) } ) . 注意,当仅有一个音源在子带中具有功率时(a=0或a=1),那么所计算的ΔL(n)和T(n)就等于混合参数(ΔL1、ΔL2、T1和T2)。
B.2必要的辅助信息
ICLD(7)取决于混合参数(ai,bi,ci,di,)和音源的短时子带功率
Figure A20068000472800119
(6)。对于每个音源信号,ICTD(10)和ICC(9)计算所需的归一化子带交叉相关函数Φ(n,d)(12),取决于
Figure A200680004728001110
还额外取决于归一化子带自相关函数(φi(n,e))(13)。(Φ(n,d))的最大值在mini{Ti}≤d≤maxi{Ti}的范围内。对于混合参数Ti=di,-ci,的音源i,所需的音源信号子带特性Φi(n,e)的相应范围是:
min i { T i } - T i ≤ e ≤ max i { T i } - T i - - - ( 14 )
由于ICTD、ICLD和ICC线索取决于范围(14)内的音源信号子带特性
Figure A20068000472800122
和Φi(n,e),因此主要是这些音源信号子带特性需要作为辅助信息来传输。我们假设,任何种类的混合器(例如有效的混合器、波场合成混合器/卷积器等等)都具有相似特性,由此该辅助信息在用所述混合器之外的其它混合器时也是有用的。为了减少辅助信息量,在解码器中储存一组预定的自相关函数,并仅仅传输用于选择与音源信号特性最密切匹配的指数。第一版本算法假设,在范围(14)内Φi(n,e)=1,由此仅利用子带功率值(6)作为辅助信息计算(12)。假设Φi(n,e)=1计算图5所示的数据。
为了减少辅助信息量,相对动态范围的音源信息受到限制。在每一刻,为每个子带选择最强音源的功率。我们发现,将所有其它音源的相应子带功率的下限降低到比最强子带功率低24dB的值处,是充分的。由此将量化器的动态范围限制到24dB。
假设音源信号是独立的,解码器能够计算所有音源子带功率的和
Figure A20068000472800123
由此,原则上足以仅将M-1音源的子带功率值传输给解码器,而剩余音源的子带功率就地进行计算。给出这个概念,就能够通过相对于第一音源功率传输指数为2≤i≤M的音源子带功率,而稍稍减少辅助信息,
Δ p ~ i ( n ) = 10 log 10 E { s ~ i 2 ( n ) } E { s ~ i 2 ( n ) } - - - ( 15 )
注意,如前所述的动态范围限制是在(15)之前完成的。作为一种替换形式,与相对于一个音源子带功率的归一化(15)相反的是,子带功率值相对于和信号子带功率进行归一化。对于44.1kHz的取样频率,我们用20个子带并且大约每12毫秒就为每个子带传输 Δ p ~ i ( n ) ( 2 ≤ i ≤ M ) . 20个子带对应于听觉系统的半个频谱分辨率(一个子带等于两个“临界带宽”那么宽)。非正式的实验显示,通过使用多于20个的子带例如40个子带,仅仅得到轻微的改善。根据听觉系统的时间和频率分辨率,来选择子带的数目和子带带宽。低质量地实施该方案需要至少三个子带(低频、中间频率、高频)。
按照一个具体实施例,子带具有不同的带宽,低频子带具有比高频子带更小的带宽。
用类似于[2]中所述的ICLD量化器的方案来量化相对功率值,结果导致大约3(M-1)kb/s比特率的产生。图6表示出辅助信息生成过程(对应于图2中的“辅助信息生成”框)。
通过分析每个音源信号的活动并且如果音源信号是活动的就仅传输有关该音源信号的辅助信息,这样能够额外减小辅助信息率。与将子带功率值作为统计信息来传输相反的是,可传输表示音源信号频谱包络的其它信息。例如,可传输线性预测编码(LPC)参数,或者是相应的其它参数例如网格滤波器参数或线频谱对(LSP)参数。每个音源信号的LPC参数的估算过程如图7所示。
B.3计算_i(n)
图8表示出用来(在已知和信号(1)的情况下)重新创建音源信号的过程。此过程是图2中的部分“合成”框。通过用gi(n)度量和信号的每个子带以及通过施加具有脉冲响应hi(n)的去相关滤波器,而使各个音源信号得到恢复,
s ~ ^ i ( n ) = h i ( n ) * ( g i ( n ) s ~ ( n ) ) = h i ( n ) * ( E { s ~ i 2 ( n ) } E { s ~ 2 ( n ) } s ~ ( n ) ) - - - ( 16 )
在此处,*是线性卷积操作器,
Figure A20068000472800134
通过以下公式用辅助信息来计算
E { s ~ i 2 ( n ) } = 1 / 1 + Σ i = 2 M 10 Δ p ~ i ( n ) 10 i=1 10 Δ p ~ i ( n ) 10 E { s ~ 1 2 ( n ) } - - - ( 17 )
可使用互补梳形滤波器、全通滤波器、延迟或具有随机脉冲响应的滤波器作为去相关滤波器hi(n)。去相关过程的目的是减少信号之间的相关性,同时不会更改感知各个波形的方式。不同的去相关技术导致不同的失真现象。互补梳形滤波器导致相关性。所有描述的技术都按时传播瞬时能量,从而导致诸如“前回波”之类的失真现象。已知失真现象的可能性,应该尽可能地少应用去相关技术。下一部分描述需要的去相关处理比独立信号_i(n)的简单生成更少的技术和策略。
生成信号_i(n)的一种替换方案如图9所示。通过计算线性预测误差e(n),而首先将s(n)的频谱削平。然后,已知在编码器估算的LPC滤波器fi,将相应的全极点滤波器作为以下公式的反z-变换来计算:
F ‾ i ( z ) = 1 1 - z - 1 F i ( z )
所得到的全极点滤波器fi代表音源信号的频谱包络。如果传输LPC参数之外的其它辅助信息,那么LPC参数首先需要作为辅助信息的函数来计算。正如在另一方案中那样,利用去相关滤波器hi使音源信号独立。
IV.考虑实际限制的实施方式
在此节的第一部分,利用BCC合成方案作为立体声或多通道混合器,给出一个实施例。这尤其有趣,因为这样的BCC型合成方案是即将实行的ISO/IEC MPEG标准的一部分,被称作“空间音频编码”。在此情形下没有明确计算音源信号_i(n),从而导致计算的复杂性减小。而且,此方案提供了使声音质量更好的可能性,因为相比于明确计算音源信号_i(n)的情形,其需要的去相关性明显更小。
此节的第二部分探讨的是提出的方案使用任何混合器并且根本不采用去相关处理时的问题。这样的方案相比于采用去相关处理的方案,复杂性更低,但是具有其它缺陷(将在后面讨论)。
理想的是,采用去相关处理,从而认为所生成的_i(n)是独立的。然而,由于去相关处理考虑到失真现象是有问题的,因此又尽可能地少用去相关处理。此节的第三部分讨论在得到似乎所生成的_i(n)是独立的的好处的同时,如何减少有问题的去相关处理的量。
A.没有明确计算_i(n)的实施方式
将混合直接应用于所传输的和信号(1),而没有明确计算_i(n)BCC合成方案用于此目的。下面,我们考虑立体声情形,但是所有描述的原理都可用于多通道音频信号的生成。
用于处理和信号(1)的立体声BCC合成方案(或者“参数立体声”方案)在图10中示出。期望BCC合成方案产生作为如图4所示的混合器输出信号一样被同样感知的信号。当BCC合成方案输出通道之间的ICTD、ICLD和ICC在混合器输出(4)信号通道之间出现相应线索时相似的情况下,同样如此。
使用与以前所述更通用的方案相同的辅助信息,使解码器计算音源的短时子带功率值
Figure A20068000472800151
已知
Figure A20068000472800152
图10中的增益因子g1和g2是用以下公式计算的:
g 1 ( n ) = Σ i = 1 M a i 2 E { s ~ i 2 ( n ) } E { s ~ 2 ( n ) } g 2 ( n ) = Σ i = 1 M b i 2 E { s ~ i 2 ( n ) } E { s ~ 2 ( n ) } - - - ( 18 )
从而输出子带功率和ICLD(7)与图4中的混合器相同。按照(10)计算ICTD T(n),从而确定图10中的延迟D1和D2
D1(n)=max{-T(n),o}D2(n)=max{T(n),O}(19)
按照(9)计算ICCc(n),以确定图10中的去相关处理。去相关处理(ICC合成)在[1]中有所描述。将去相关处理应用于混合器输出通道相比于其用于产生独立_i(n)的优点是:
●通常,音源信号的数目M大于音频输出通道的数目N。由此,与使M个音源信号去相关相反的是,需要生成的独立音频通道的数目在使N个输出通道去相关时更小。
●经常,N个音频输出通道是相关的(ICC>0),并且比生成独立的M或N个通道所需更少的去相关处理。
由于更少地采用去相关处理,因此期望更好的声音质量。当混合器参数受到限制从而 a i 2 + b i 2 = 1 即Gi=0dB时,期望最佳的声音质量。在这种情形下,所传输的和信号(1)中的每个音源之功率与混合解码器输出信号中的相同音源之功率一样。解码器输出信号(图10)是相同的,就仿佛混合器输出信号(图4)在这种情形下由BCC编码器/解码器来编码和解码一样。由此,也期望相似的质量。
解码器不仅能够确定每个音源出现的方向,而且每个音源的增益还能够改变。通过选择 a i 2 + b i 2 > 1 (Gi>0dB)而使增益增大,通过选择 a i 2 + b i 2 < 1 (Gi<0dB)而使增益减小。
B.不采用去相关处理
前述技术的局限性是,混合是用BCC合成方案完成的。人们设想执行的不仅有ICTD、ICLD和ICC合成,而且还有BCC合成之内的额外效果处理。
然而,期望能够使用现存的混合器和效果处理器。这也包括波场合成混合器(经常称作“卷积器”)。由于使用现存混合器和效果处理器,因此_i(n)可明确计算并使用,就如同它们是原始音源信号一样。
当不采用去相关处理(16)中的hi(n)=δ(n)时,也能够获得好的声音质量。这是由于去相关处理而引入的失真现象与由于使音源信号_i(n)相关而导致的失真现象之间的折衷。当不采用非去相关处理时,所得到的听觉空间图像可遭受不稳定性[1]。但是当采用反射器或其它效果时混合器本身可引入一些去相关性,并由此对去相关处理的需要更少。
如果无需去相关处理而产生_i(n),那么音源级取决于它们相对于其它音源进行混合的方向。通过用补偿此级依存性的算法代替现存混合器中的幅值相移算法,能够抵消超过响度对混合参数依存的副作用。级补偿幅值算法在图11中示出,其有助于补充音源级对混合参数的依存性。已知常规幅值相移算法(例如图4)的增益因子ai和bi,用以下公式计算图11中的重量
Figure A20068000472800166
Figure A20068000472800167
a &OverBar; i ( n ) = &Sigma; i = 1 M a i 2 E { s ~ i 2 ( n ) } E { ( &Sigma; i = 1 M a i s ~ i ( n ) ) 2 } b &OverBar; i ( n ) = &Sigma; i = 1 M b i 2 E { s ~ i 2 ( n ) } E { ( &Sigma; i = 1 M b i s ~ i ( n ) ) 2 } - - - ( 20 )
注意,计算
Figure A200680004728001610
以便输出子带功率相同,就仿佛_i(n)在每个子带中都是独立的一样。
C.减少去相关处理的量
如前所述,独立_i(n)的生成是有问题的。在此处描述应用更少去相关处理的策略,同时有效得到相似的效果,就仿佛_i(n)是独立的一样。诸如考虑如图12所示的波场合成系统。表示出s1、s2.......s6(M=6)所需的虚拟音源位置。无需产生M个充分独立信号就能计算_i(n)(16)的策略是:
1.产生与彼此接近的音源相对应的音源指数组。例如,在图8中,这些是:{1}、{2,5}、{3}和{4,6}。
2.在每一时刻于每个子带中选择最强音源的音源指数,
i max = max i E { s &OverBar; ( n ) } - - - ( 21 )
不将去相关处理应用于含有i max 即h i (n)=δ(n)那一组的音源指数 部分
3.为了每个其它组在这一组内选择相同的hi(n)。
所述算法至少修正最强的信号分量。此外,所用的不同hi(n)的数目也减少了。这是有益的,因为去相关更容易,需要产生的独立通道更少。当立体声或多通道音频信号混合时所述技术也可应用。
V.就质量和比特率而言的可量测性
所提出的方案仅传输所有音源信号之和,该信号能够用常规单音频编码器进行编码。当不需要单后向兼容性并且容量可用于传输/储存多于一个的音频波形时,所提出的方案与多于一个的传输通道一起标度。通过用不同的给定音源信号亚组产生几个和信号来实施这一点,即对每个音源信号亚组单独应用所提出的编码方案。当传输的音频通道的数目增大时期望声音质量能够改善,因为通过去相关从每个传输通道所产生的独立通道更少(相比于一个传输通道的情形)。
VI.对现存立体声环绕音频格式的后向兼容性
考虑以下的音频传送场景。消费者得到最大质量的立体声或多通道环绕信号(例如通过音频CD、DVD或在线音乐储存等)。目的是任选地将灵活性传递给消费者,以产生所获得的音频内容的定制混合,而无需向标准的立体声/环绕放音质量妥协。
通过将一比特流的辅助信息传递给消费者(例如作为在在线音乐储存中任意的买入选择)来实施这一点,该辅助信息允许将_i(n)作为给定立体声或多通道音频信号的函数来计算。将消费者的混合算法然后应用于_i(n)。下面,描述计算给定立体声或多通道音频信号的_i(n)的两种可能性。
A.估算接收器处的音源信号之和
利用具有立体声或多通道音频传输的所提出的编码方案的最简明的方式,在图13中示出,其中yi(n)(1≤i≤L)是给定立体声或多通道音频信号的L个通道。通过将传输通道下混合到单个音频通道中来估算音源的和信号。下混合是通过计算通道yi(n)(1≤i≤L)的和来完成的,或者可应用更多的先进技术。
为了获得最佳性能,建议在
Figure A20068000472800183
估算(6)之前采用这一级的音源信号,以便音源信号之间的功率比近似于给定立体声或多通道信号中所包含的音源的功率比。在这种情形下,传输通道的下混合是音源(1)之和的相当好的估算(或者其测量版本)。
在计算辅助信息之前,可利用自动过程来调整编码器音源信号输入si(n)的能级。此过程按时适当估算给定立体声或多通道信号中所包含的每个音源信号的能级。在辅助信息计算之前,将每个音源信息的能级然后按时进行适当调整,以使其等于立体声或多通道音频信号中所包含的音源的能级。
B.单独利用传输通道
图14表示出具有立体声或多通道环绕信号传输的所提出方案的一种不同实施方式。在此处,传输通道没有进行下混合,但是单独用于生成_i(n)。最通用的是,_i(n)的此频带信号用以下公式计算:
s ~ ^ i ( n ) = h i ( n ) * ( g i ( n ) &Sigma; i = 1 L w i ( n ) y ~ i ( n ) ) - - - ( 22 )
其中,wi(n)是确定传输通道的子带的具体线性结合的权重。选择这种线性结合,以使_i(n)已经尽可能多地去相关。由此,没有或者仅有少量的去相关处理需要得到应用,如上所讨论的,这是有益的。
VII.应用
前面我们已经提到所提出的编码方案的许多应用。此处,我们总结这些应用并提出一些更多的应用。
A.用于混合的音频编码
在将音源信号混合到立体声、多通道或波场合成音频信号中之前,无论何时需要对其进行储存或传输,都可应用所提出的方案。在已有技术中,单音频编码器可单独应用于每个音源信号,从而导致用音源数目度量的比特率的产生。所提出的编码方案能够用单个单音频编码器加上相当低的比特率辅助信息来编码大量的音频信号。如在第V节中所述,通过利用多于一个的传输通道,能够改善声音质量,如果如此做的存储器/容量是有用的话。
B.与元数据的重新混合
如在第VI节中所述,现存的立体声和多通道音频信号能够借助附加辅助信息(即“元数据”)重新混合。与仅仅出售优化立体声和多通道混合音频内容相反的是,元数据能够出售,以允许用户重新混合他的立体声和多通道音乐。这诸如也可用于减弱卡拉OK歌的声乐作品,或者用于减弱弹奏音乐的具体乐器。
即使储存器不是问题,所述的方案对于音乐的定制混合是非常有吸引力的。也就是说,因为很可能音乐业从来就不愿意放弃多磁道录音。具有太多的滥用危险。所提出的方案可实现重新混合容量,而无需放弃多磁道录音。
而且,立体声或多通道信号一旦重新混合,就会出现一定程度的质量下降,从而使重新混合的非法传播吸引力更小。
C.立体声/多通道-波场合成版本
下面描述第VI节中所述方案的另一个应用。通过加入辅助信息,伴随电影画面的立体声和多通道(例如5.1环绕)音频可扩展到用于波场合成重现。例如,杜比AC-3(DVD上的音频)可扩展到用于波场合成系统的5.1后向兼容编码音频,即常规后继播放器的DVD后向5.1环绕声音以及支持辅助信息处理的新一代播放器的波场合成声音。
VII.主观评估
我们执行在第IV-A和IV-B节提出的算法的实时解码器。使用基于FFT的STFT滤波器组。使用1024点FFT和768的STFT窗口尺寸(具有零字符)。将频谱系数聚集在一起,以便每一组代表具有两倍带宽于等同矩形带宽(ERB)的信号。非正式的倾听揭示,当选择更高频率的分辨率时,音频质量并没有显著提高。更低频率的分辨率是有益的,因为它使得待传输的参数更少。
对于每个音源,幅值/延迟相移和增益可单独进行调整。算法用于对具有12-14磁道的几个多磁道音频记录进行编码。
解码器允许利用基于矢量的幅值相移(VBAP)混合器进行5.1环绕混合。可调整每个音源信号的方向和增益。软件允许在混合编码音源信号与混合原始离散音源信号之间进行快速切换。
偶然倾听通常揭示,如果对于每个音源使用0dB的增益Gi,那么混合编码音源信号或混合原始音源信号之间就没有或具有很小的差别。音源增益改变得越多,失真现象出现得就越多。音源的轻微放大或衰减(例如高达±6dB)发出的声音仍然还是好听的。临界场景是当所有音源都混合到一侧并且仅有一个音源混合到相反的另一侧时。在这种情形下,音频质量可降低,这取决于具体混合以及音源信号。
IX.结论
以上提出了音源信号(例如多磁道记录通道)的联合编码的编码方案。目的不是高质量地编码音源信号波形,在这种情形下联合编码给出极小的编码增益,因为音源通常是独立的。目的是,当编码音源信号混合时获得高质量的音频信号。通过考虑音源信号的统计特性、混合方案特性和空间听力,显示出,通过对音源信号进行联合编码可使编码增益明显提高。
编码增益的改进是由于只有一个音频波形被传输的结果。
此外也传输代表音源信号统计特性的辅助信息,所述特性是确定最终混合信号的空间感知的相关因素。
辅助信息率是每个音源信号约3kbs。任何混合器都可用于所编码的音源信号,例如立体声、多通道或波场合成混合器。
简明的是,通过传输多于一个的音频通道来度量所提出的用于更高比特率和更高质量的方案。而且,所提出的一个变型方案是,允许给定的立体声或多通道音频信号重新混合(甚至改变音频格式,例如将立体声改为多通道或波形合成)。
所提出的方案的应用是多方面的。例如,在多于一个的“天然音频对象”(音源信号)需要传输时,MPEG-4可与所提出的方案扩展到用于减小比特率。而且,所提出的方案为波场合成系统提供压缩形式的内容。如上所述,现存立体声或多通道信号可与辅助信息互补,以允许用户将信号重新混合成他喜欢的形式。
参考文献
[1]C.Faller,Parametric Coding of Spatial Audio,Ph.D.thesis,Swiss Federal Institute of Technology Lausanne(EPFL),2004,Ph.D.Thesis No.3062.
[2]C.Faller and F.Baumgarte,“Binaural Cue Coding-Part II:Schemes and applications,”IEEE Trans.On Speech and Audio Proc.,vol.11,no.6,Nov.2003.

Claims (20)

1.一种合成多个音频通道的方法,包括以下步骤:
从音频流中检索出代表音源信号之和的至少一个和信号,
从音频流中检索出有关一个或多个音源信号的音频流统计信息,
从音频流中接收或者在本地确定描述输出音频格式的参数和混合参数,
从所述和信号以及所接收的统计信息中计算伪音源信号,
使用被施加了所接收音频格式参数和混合参数的混合器,从所述伪音源信号合成多个音频通道。
2.一种合成多个音频通道的方法,包括以下步骤:
从音频流中检索出代表音源信号之和的至少一个和信号,
从音频流中检索出有关一个或多个音源信号的音频流统计信息,
从音频流中接收或者在本地确定描述输出音频格式的参数和混合参数,
从所接收的统计信息、所述音频格式参数和所述混合参数计算输出信号线索,
基于所计算的线索,从所述和信号合成多个音频通道。
3.如权利要求1或2所述的方法,其特征在于,所述统计信息代表音源信号的频谱包络。
4.如权利要求1或2所述的方法,其特征在于,所述统计信息代表作为多个音源信号的频率和时间之函数的相对功率。
5.如权利要求1所述的方法,其特征在于,所述伪音源信号是在滤波器组的子带域中计算得到的。
6.如权利要求2所述的方法,其特征在于,所述音频通道是在滤波器组的子带域中合成的。
7.如权利要求5或6所述的方法,其特征在于,所述子带数及带宽是根据人耳听觉系统的频谱和时间分辨率来确定的。
8.如权利要求5-7之一所述的方法,其特征在于,子带数包括在3和40之间。
9.如权利要求5-8之一所述的方法,其特征在于,子带具有不同的带宽,其中低频子带的带宽小于高频子带的带宽。
10.如权利要求5-9之一所述的方法,其中使用基于短时傅立叶变换(STFT)的滤波器组,并且组合频谱系数以使每组频谱系数形成一个子带。
11.如权利要求1或2所述的方法,其特征在于,所述统计信息还包括自相关函数。
12.如权利要求3所述的方法,其特征在于,将所述频谱包络表示成线性预测编码(LPC)参数。
13.如权利要求2所述的方法,其特征在于,所述和信号被分为多个子带,所述统计信息被用于针对每一伪音源信号确定每个子带的功率。
14.如权利要求2所述的方法,其特征在于,计算所述和信号的线性预测误差,随后进行全极点滤波,以便为每一伪音源信号施用通过所述统计信息确定的频谱包络。
15.如权利要求13或14所述的方法,其特征在于,利用诸如全通滤波之类的去相关技术使输出的伪音源信号独立。
16.如权利要求2所述的方法,其特征在于,所计算的线索是作为不同频率和时间常数之函数的级差、时间差或相干性。
17.如权利要求1所述的方法,其特征在于,所述混合器是补偿音源级对混合参数的依存性的幅值相移算法。
18.如权利要求1所述的方法,其特征在于,所述混合器是波场合成混合器。
19.如权利要求1所述的方法,其特征在于,所述混合器是双声道混合器。
20.如权利要求1所述的方法,其特征在于,所述混合器是3D音频混合器。
CN2006800047285A 2005-02-14 2006-02-13 音源的参数联合编码 Active CN101133441B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP05101055A EP1691348A1 (en) 2005-02-14 2005-02-14 Parametric joint-coding of audio sources
EP05101055.1 2005-02-14
PCT/EP2006/050904 WO2006084916A2 (en) 2005-02-14 2006-02-13 Parametric joint-coding of audio sources

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN2011100613628A Division CN102123341B (zh) 2005-02-14 2006-02-13 音源的参数联合编码

Publications (2)

Publication Number Publication Date
CN101133441A true CN101133441A (zh) 2008-02-27
CN101133441B CN101133441B (zh) 2011-05-25

Family

ID=34938725

Family Applications (2)

Application Number Title Priority Date Filing Date
CN2011100613628A Active CN102123341B (zh) 2005-02-14 2006-02-13 音源的参数联合编码
CN2006800047285A Active CN101133441B (zh) 2005-02-14 2006-02-13 音源的参数联合编码

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN2011100613628A Active CN102123341B (zh) 2005-02-14 2006-02-13 音源的参数联合编码

Country Status (18)

Country Link
US (12) US8355509B2 (zh)
EP (4) EP1691348A1 (zh)
JP (2) JP5179881B2 (zh)
KR (1) KR100924577B1 (zh)
CN (2) CN102123341B (zh)
AT (1) ATE531035T1 (zh)
AU (3) AU2006212191B2 (zh)
BR (5) BR122018072505B1 (zh)
CA (2) CA2707761C (zh)
ES (2) ES2374434T3 (zh)
HK (2) HK1107723A1 (zh)
IL (1) IL185192A (zh)
MX (1) MX2007009559A (zh)
NO (1) NO338701B1 (zh)
PL (1) PL1844465T3 (zh)
RU (1) RU2376654C2 (zh)
TR (1) TR201811059T4 (zh)
WO (1) WO2006084916A2 (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010045869A1 (zh) * 2008-10-20 2010-04-29 华为终端有限公司 一种3d音频信号处理的方法、系统和装置
CN102187691A (zh) * 2008-10-07 2011-09-14 弗朗霍夫应用科学研究促进协会 多声道音频信号的双耳演示
CN102349108A (zh) * 2009-01-28 2012-02-08 Lg电子株式会社 解码音频信号的方法和装置
US8355509B2 (en) 2005-02-14 2013-01-15 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Parametric joint-coding of audio sources
CN101547265B (zh) * 2008-10-20 2014-07-30 华为终端有限公司 一种3d音频会议的信号处理方法、设备以及系统
CN104995676A (zh) * 2013-02-14 2015-10-21 杜比实验室特许公司 音频处理系统中的信号去相关
CN105336333A (zh) * 2014-08-12 2016-02-17 北京天籁传音数字技术有限公司 多声道声音信号编码方法、解码方法及装置
CN105593931A (zh) * 2013-07-22 2016-05-18 弗劳恩霍夫应用研究促进协会 使用联合编码残余信号的音频编码器、音频解码器、方法及计算机程序
CN110800048A (zh) * 2017-05-09 2020-02-14 杜比实验室特许公司 多通道空间音频格式输入信号的处理
CN112151049A (zh) * 2013-11-27 2020-12-29 弗劳恩霍夫应用研究促进协会 解码器、编码器、产生音频输出信号的方法及编码方法
CN112151049B (zh) * 2013-11-27 2024-05-10 弗劳恩霍夫应用研究促进协会 解码器、编码器、产生音频输出信号的方法及编码方法

Families Citing this family (74)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101151658B (zh) * 2005-03-30 2011-07-06 皇家飞利浦电子股份有限公司 多声道音频编码和解码方法、编码器和解码器
WO2007004833A2 (en) 2005-06-30 2007-01-11 Lg Electronics Inc. Method and apparatus for encoding and decoding an audio signal
KR101218776B1 (ko) * 2006-01-11 2013-01-18 삼성전자주식회사 다운믹스된 신호로부터 멀티채널 신호 생성방법 및 그 기록매체
CN101410891A (zh) 2006-02-03 2009-04-15 韩国电子通信研究院 使用空间线索控制多目标或多声道音频信号的渲染的方法和装置
US20090177479A1 (en) * 2006-02-09 2009-07-09 Lg Electronics Inc. Method for Encoding and Decoding Object-Based Audio Signal and Apparatus Thereof
EP1853092B1 (en) * 2006-05-04 2011-10-05 LG Electronics, Inc. Enhancing stereo audio with remix capability
US8027479B2 (en) * 2006-06-02 2011-09-27 Coding Technologies Ab Binaural multi-channel decoder in the context of non-energy conserving upmix rules
ES2623226T3 (es) * 2006-07-04 2017-07-10 Dolby International Ab Unidad de filtro y procedimiento de generación de respuestas al impulso de filtro de subbanda
RU2407227C2 (ru) * 2006-07-07 2010-12-20 Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф. Концепция для объединения множества параметрически кодированных аудиоисточников
RU2407072C1 (ru) * 2006-09-29 2010-12-20 ЭлДжи ЭЛЕКТРОНИКС ИНК. Способы и устройства кодирования и декодирования объектно-ориентированных аудиосигналов
US20100040135A1 (en) * 2006-09-29 2010-02-18 Lg Electronics Inc. Apparatus for processing mix signal and method thereof
EP2071564A4 (en) 2006-09-29 2009-09-02 Lg Electronics Inc METHOD AND DEVICES FOR CODING AND DECODING OBJECT-BASED AUDIO SIGNALS
JP5232791B2 (ja) 2006-10-12 2013-07-10 エルジー エレクトロニクス インコーポレイティド ミックス信号処理装置及びその方法
KR100891665B1 (ko) 2006-10-13 2009-04-02 엘지전자 주식회사 믹스 신호의 처리 방법 및 장치
MY145497A (en) * 2006-10-16 2012-02-29 Dolby Sweden Ab Enhanced coding and parameter representation of multichannel downmixed object coding
BRPI0715312B1 (pt) 2006-10-16 2021-05-04 Koninklijke Philips Electrnics N. V. Aparelhagem e método para transformação de parâmetros multicanais
EP2092516A4 (en) * 2006-11-15 2010-01-13 Lg Electronics Inc METHOD AND APPARATUS FOR AUDIO SIGNAL DECODING
EP2095365A4 (en) * 2006-11-24 2009-11-18 Lg Electronics Inc METHOD FOR ENCODING AND DECODING AUDIO SIGNALS BASED ON OBJECTS AND APPARATUS THEREOF
JP5081250B2 (ja) * 2006-12-01 2012-11-28 エルジー エレクトロニクス インコーポレイティド 命令入力装置及び方法、メディア信号のユーザインタフェース表示方法及びその具現装置、並びにミックス信号処理装置及びその方法
CN101632117A (zh) 2006-12-07 2010-01-20 Lg电子株式会社 用于解码音频信号的方法和装置
EP2122613B1 (en) 2006-12-07 2019-01-30 LG Electronics Inc. A method and an apparatus for processing an audio signal
CN101578656A (zh) * 2007-01-05 2009-11-11 Lg电子株式会社 用于处理音频信号的装置和方法
CN101542596B (zh) * 2007-02-14 2016-05-18 Lg电子株式会社 用于编码和解码基于对象的音频信号的方法和装置
EP2115739A4 (en) 2007-02-14 2010-01-20 Lg Electronics Inc METHODS AND APPARATUSES FOR ENCODING AND DECODING AUDIO SIGNALS BASED ON OBJECTS
WO2008106680A2 (en) * 2007-03-01 2008-09-04 Jerry Mahabub Audio spatialization and environment simulation
US8463413B2 (en) 2007-03-09 2013-06-11 Lg Electronics Inc. Method and an apparatus for processing an audio signal
KR20080082917A (ko) 2007-03-09 2008-09-12 엘지전자 주식회사 오디오 신호 처리 방법 및 이의 장치
WO2008114984A1 (en) * 2007-03-16 2008-09-25 Lg Electronics Inc. A method and an apparatus for processing an audio signal
US8612237B2 (en) * 2007-04-04 2013-12-17 Apple Inc. Method and apparatus for determining audio spatial quality
AU2008243406B2 (en) 2007-04-26 2011-08-25 Dolby International Ab Apparatus and method for synthesizing an output signal
ES2593822T3 (es) * 2007-06-08 2016-12-13 Lg Electronics Inc. Método y aparato para procesar una señal de audio
US9118805B2 (en) 2007-06-27 2015-08-25 Nec Corporation Multi-point connection device, signal analysis and device, method, and program
JP5556175B2 (ja) 2007-06-27 2014-07-23 日本電気株式会社 信号分析装置と、信号制御装置と、そのシステム、方法及びプログラム
US8295494B2 (en) * 2007-08-13 2012-10-23 Lg Electronics Inc. Enhancing audio with remixing capability
AU2008295723B2 (en) 2007-09-06 2011-03-24 Lg Electronics Inc. A method and an apparatus of decoding an audio signal
GB2453117B (en) 2007-09-25 2012-05-23 Motorola Mobility Inc Apparatus and method for encoding a multi channel audio signal
KR101464977B1 (ko) * 2007-10-01 2014-11-25 삼성전자주식회사 메모리 관리 방법, 및 멀티 채널 데이터의 복호화 방법 및장치
WO2009050896A1 (ja) * 2007-10-16 2009-04-23 Panasonic Corporation ストリーム合成装置、復号装置、方法
US8527282B2 (en) 2007-11-21 2013-09-03 Lg Electronics Inc. Method and an apparatus for processing a signal
JP2009128559A (ja) * 2007-11-22 2009-06-11 Casio Comput Co Ltd 残響効果付加装置
JP5603339B2 (ja) 2008-10-29 2014-10-08 ドルビー インターナショナル アーベー 既存のオーディオゲインメタデータを使用した信号のクリッピングの保護
MX2011009660A (es) 2009-03-17 2011-09-30 Dolby Int Ab Codificacion estereo avanzada basada en una combinacion de codificacion izquierda/derecha o media/lateral seleccionable de manera adaptable y de codificacion estereo parametrica.
GB2470059A (en) * 2009-05-08 2010-11-10 Nokia Corp Multi-channel audio processing using an inter-channel prediction model to form an inter-channel parameter
CN102804808B (zh) * 2009-06-30 2015-05-27 诺基亚公司 用于呈现空间音频的方法及装置
CN102792378B (zh) * 2010-01-06 2015-04-29 Lg电子株式会社 处理音频信号的设备及其方法
EP2485213A1 (en) 2011-02-03 2012-08-08 Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung e.V. Semantic audio track mixer
TW202339510A (zh) 2011-07-01 2023-10-01 美商杜比實驗室特許公司 用於適應性音頻信號的產生、譯碼與呈現之系統與方法
CA2971002A1 (en) 2011-09-18 2013-03-21 Touchtunes Music Corporation Digital jukebox device with karaoke and/or photo booth features, and associated methods
CN103050124B (zh) 2011-10-13 2016-03-30 华为终端有限公司 混音方法、装置及系统
KR20130093783A (ko) * 2011-12-30 2013-08-23 한국전자통신연구원 오디오 객체 전송 장치 및 방법
US10844689B1 (en) 2019-12-19 2020-11-24 Saudi Arabian Oil Company Downhole ultrasonic actuator system for mitigating lost circulation
JP6174129B2 (ja) 2012-05-18 2017-08-02 ドルビー ラボラトリーズ ライセンシング コーポレイション パラメトリックオーディオコーダに関連するリバーシブルダイナミックレンジ制御情報を維持するシステム
CN102695116B (zh) * 2012-05-30 2015-06-03 蒋憧 一种声音采集、处理和再现方法
CN104782145B (zh) 2012-09-12 2017-10-13 弗劳恩霍夫应用研究促进协会 为3d音频提供增强的导引降混性能的装置及方法
EP2898506B1 (en) 2012-09-21 2018-01-17 Dolby Laboratories Licensing Corporation Layered approach to spatial audio coding
CN104956689B (zh) * 2012-11-30 2017-07-04 Dts(英属维尔京群岛)有限公司 用于个性化音频虚拟化的方法和装置
KR20230144652A (ko) 2013-03-28 2023-10-16 돌비 레버러토리즈 라이쎈싱 코오포레이션 임의적 라우드스피커 배치들로의 겉보기 크기를 갖는 오디오 오브젝트들의 렌더링
KR102332968B1 (ko) * 2013-04-26 2021-12-01 소니그룹주식회사 음성 처리 장치, 정보 처리 방법, 및 기록 매체
EP2830047A1 (en) * 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for low delay object metadata coding
KR102484214B1 (ko) * 2013-07-31 2023-01-04 돌비 레버러토리즈 라이쎈싱 코오포레이션 공간적으로 분산된 또는 큰 오디오 오브젝트들의 프로세싱
EP3127110B1 (en) 2014-04-02 2018-01-31 Dolby International AB Exploiting metadata redundancy in immersive audio metadata
RU2571921C2 (ru) * 2014-04-08 2015-12-27 Общество с ограниченной ответственностью "МедиаНадзор" Способ фильтрации бинауральных воздействий в аудиопотоках
CN104036788B (zh) * 2014-05-29 2016-10-05 北京音之邦文化科技有限公司 音频文件的音质识别方法及装置
BR112017008015B1 (pt) * 2014-10-31 2023-11-14 Dolby International Ab Métodos e sistemas de decodificação e codificação de áudio
CN112802496A (zh) 2014-12-11 2021-05-14 杜比实验室特许公司 元数据保留的音频对象聚类
CN106033671B (zh) * 2015-03-09 2020-11-06 华为技术有限公司 确定声道间时间差参数的方法和装置
EP3285257A4 (en) 2015-06-17 2018-03-07 Samsung Electronics Co., Ltd. Method and device for processing internal channels for low complexity format conversion
KR102636396B1 (ko) * 2015-09-25 2024-02-15 보이세지 코포레이션 스테레오 사운드 신호를 1차 및 2차 채널로 시간 영역 다운 믹싱하기 위해 좌측 및 우측 채널들간의 장기 상관 차이를 이용하는 방법 및 시스템
US11152014B2 (en) 2016-04-08 2021-10-19 Dolby Laboratories Licensing Corporation Audio source parameterization
US10224042B2 (en) 2016-10-31 2019-03-05 Qualcomm Incorporated Encoding of multiple audio signals
US10424307B2 (en) * 2017-01-03 2019-09-24 Nokia Technologies Oy Adapting a distributed audio recording for end user free viewpoint monitoring
JP6787183B2 (ja) * 2017-02-28 2020-11-18 ヤマハ株式会社 音制御装置及び方法
EP3949179A1 (en) 2019-04-05 2022-02-09 TLS Corp. Distributed audio mixing
CN113096672B (zh) * 2021-03-24 2022-06-14 武汉大学 一种应用于低码率下的多音频对象编解码方法

Family Cites Families (70)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4544919A (en) * 1982-01-03 1985-10-01 Motorola, Inc. Method and means of determining coefficients for linear predictive coding
JPH0650439B2 (ja) * 1986-07-17 1994-06-29 日本電気株式会社 マルチパルス駆動形音声符号化器
JP2659605B2 (ja) * 1990-04-23 1997-09-30 三菱電機株式会社 音声復号化装置及び音声符号化・復号化装置
US5764779A (en) * 1993-08-25 1998-06-09 Canon Kabushiki Kaisha Method and apparatus for determining the direction of a sound source
US5651090A (en) * 1994-05-06 1997-07-22 Nippon Telegraph And Telephone Corporation Coding method and coder for coding input signals of plural channels using vector quantization, and decoding method and decoder therefor
US5712437A (en) * 1995-02-13 1998-01-27 Yamaha Corporation Audio signal processor selectively deriving harmony part from polyphonic parts
JP2766466B2 (ja) * 1995-08-02 1998-06-18 株式会社東芝 オーディオ方式、その再生方法、並びにその記録媒体及びその記録媒体への記録方法
US5812971A (en) * 1996-03-22 1998-09-22 Lucent Technologies Inc. Enhanced joint stereo coding method using temporal envelope shaping
DE19632734A1 (de) * 1996-08-14 1998-02-19 Thomson Brandt Gmbh Verfahren und Vorrichtung zum Generieren eines Mehrton-Signals aus einem Mono-Signal
US5912976A (en) * 1996-11-07 1999-06-15 Srs Labs, Inc. Multi-channel audio enhancement system for use in recording and playback and methods for providing same
US5886276A (en) * 1997-01-16 1999-03-23 The Board Of Trustees Of The Leland Stanford Junior University System and method for multiresolution scalable audio signal encoding
US6131084A (en) 1997-03-14 2000-10-10 Digital Voice Systems, Inc. Dual subframe quantization of spectral magnitudes
US6005948A (en) * 1997-03-21 1999-12-21 Sony Corporation Audio channel mixing
JPH11109995A (ja) * 1997-10-01 1999-04-23 Victor Co Of Japan Ltd 音響信号符号化器
SE519552C2 (sv) * 1998-09-30 2003-03-11 Ericsson Telefon Ab L M Flerkanalig signalkodning och -avkodning
US6188987B1 (en) * 1998-11-17 2001-02-13 Dolby Laboratories Licensing Corporation Providing auxiliary information with frame-based encoded audio information
JP4610087B2 (ja) * 1999-04-07 2011-01-12 ドルビー・ラボラトリーズ・ライセンシング・コーポレーション 損失のない符号化・復号へのマトリックス改良
US6539357B1 (en) 1999-04-29 2003-03-25 Agere Systems Inc. Technique for parametric coding of a signal containing information
TW510143B (en) * 1999-12-03 2002-11-11 Dolby Lab Licensing Corp Method for deriving at least three audio signals from two input audio signals
US6351733B1 (en) 2000-03-02 2002-02-26 Hearing Enhancement Company, Llc Method and apparatus for accommodating primary content audio and secondary content remaining audio capability in the digital audio production process
US7212872B1 (en) * 2000-05-10 2007-05-01 Dts, Inc. Discrete multichannel audio with a backward compatible mix
SE0001926D0 (sv) * 2000-05-23 2000-05-23 Lars Liljeryd Improved spectral translation/folding in the subband domain
SE519985C2 (sv) * 2000-09-15 2003-05-06 Ericsson Telefon Ab L M Kodning och avkodning av signaler från flera kanaler
US20030035553A1 (en) * 2001-08-10 2003-02-20 Frank Baumgarte Backwards-compatible perceptual coding of spatial cues
US7116787B2 (en) 2001-05-04 2006-10-03 Agere Systems Inc. Perceptual synthesis of auditory scenes
US7006636B2 (en) * 2002-05-24 2006-02-28 Agere Systems Inc. Coherence-based audio coding and synthesis
US7292901B2 (en) * 2002-06-24 2007-11-06 Agere Systems Inc. Hybrid multi-channel/cue coding/decoding of audio signals
US7644003B2 (en) * 2001-05-04 2010-01-05 Agere Systems Inc. Cue-based audio coding/decoding
SE0202159D0 (sv) 2001-07-10 2002-07-09 Coding Technologies Sweden Ab Efficientand scalable parametric stereo coding for low bitrate applications
US6934677B2 (en) * 2001-12-14 2005-08-23 Microsoft Corporation Quantization matrices based on critical band pattern information for digital audio wherein quantization bands differ from critical bands
US20100042406A1 (en) * 2002-03-04 2010-02-18 James David Johnston Audio signal processing using improved perceptual model
EP1500084B1 (en) * 2002-04-22 2008-01-23 Koninklijke Philips Electronics N.V. Parametric representation of spatial audio
ATE354161T1 (de) * 2002-04-22 2007-03-15 Koninkl Philips Electronics Nv Signalsynthese
JP4013822B2 (ja) * 2002-06-17 2007-11-28 ヤマハ株式会社 ミキサ装置およびミキサプログラム
KR100981699B1 (ko) * 2002-07-12 2010-09-13 코닌클리케 필립스 일렉트로닉스 엔.브이. 오디오 코딩
KR20050021484A (ko) 2002-07-16 2005-03-07 코닌클리케 필립스 일렉트로닉스 엔.브이. 오디오 코딩
US7502743B2 (en) * 2002-09-04 2009-03-10 Microsoft Corporation Multi-channel audio encoding and decoding with multi-channel transform selection
WO2004028204A2 (en) * 2002-09-23 2004-04-01 Koninklijke Philips Electronics N.V. Generation of a sound signal
EP1552724A4 (en) 2002-10-15 2010-10-20 Korea Electronics Telecomm METHOD FOR GENERATING AND USING A 3D AUDIOSCENCE WITH EXTENDED EFFICIENCY OF SOUND SOURCE
US7243064B2 (en) * 2002-11-14 2007-07-10 Verizon Business Global Llc Signal processing of multi-channel data
US20040117186A1 (en) * 2002-12-13 2004-06-17 Bhiksha Ramakrishnan Multi-channel transcription-based speaker separation
US20040176950A1 (en) * 2003-03-04 2004-09-09 Docomo Communications Laboratories Usa, Inc. Methods and apparatuses for variable dimension vector quantization
WO2005031704A1 (en) * 2003-09-29 2005-04-07 Koninklijke Philips Electronics N.V. Encoding audio signals
US7447317B2 (en) * 2003-10-02 2008-11-04 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V Compatible multi-channel coding/decoding by weighting the downmix channel
US7725324B2 (en) * 2003-12-19 2010-05-25 Telefonaktiebolaget Lm Ericsson (Publ) Constrained filter encoding of polyphonic signals
US7394903B2 (en) * 2004-01-20 2008-07-01 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. Apparatus and method for constructing a multi-channel output signal or for generating a downmix signal
US7805313B2 (en) * 2004-03-04 2010-09-28 Agere Systems Inc. Frequency-based coding of channels in parametric multi-channel coding systems
SE0400997D0 (sv) * 2004-04-16 2004-04-16 Cooding Technologies Sweden Ab Efficient coding of multi-channel audio
SE0400998D0 (sv) * 2004-04-16 2004-04-16 Cooding Technologies Sweden Ab Method for representing multi-channel audio signals
CN1954362B (zh) * 2004-05-19 2011-02-02 松下电器产业株式会社 音频信号编码装置及音频信号解码装置
US8843378B2 (en) * 2004-06-30 2014-09-23 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Multi-channel synthesizer and method for generating a multi-channel output signal
US20060009274A1 (en) * 2004-07-08 2006-01-12 Richard Finocchio Method of playing a game of roulette
TWI393121B (zh) * 2004-08-25 2013-04-11 Dolby Lab Licensing Corp 處理一組n個聲音信號之方法與裝置及與其相關聯之電腦程式
JP4963962B2 (ja) * 2004-08-26 2012-06-27 パナソニック株式会社 マルチチャネル信号符号化装置およびマルチチャネル信号復号装置
US20060048226A1 (en) * 2004-08-31 2006-03-02 Rits Maarten E Dynamic security policy enforcement
DE102004043521A1 (de) * 2004-09-08 2006-03-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Erzeugen eines Multikanalsignals oder eines Parameterdatensatzes
DE102004049347A1 (de) * 2004-10-08 2006-04-20 Micronas Gmbh Schaltungsanordnung bzw. Verfahren für Sprache enthaltende Audiosignale
US7720230B2 (en) * 2004-10-20 2010-05-18 Agere Systems, Inc. Individual channel shaping for BCC schemes and the like
SE0402652D0 (sv) * 2004-11-02 2004-11-02 Coding Tech Ab Methods for improved performance of prediction based multi- channel reconstruction
SE0402650D0 (sv) * 2004-11-02 2004-11-02 Coding Tech Ab Improved parametric stereo compatible coding of spatial audio
US7787631B2 (en) * 2004-11-30 2010-08-31 Agere Systems Inc. Parametric coding of spatial audio with cues based on transmitted channels
EP1691348A1 (en) 2005-02-14 2006-08-16 Ecole Polytechnique Federale De Lausanne Parametric joint-coding of audio sources
US7573912B2 (en) * 2005-02-22 2009-08-11 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschunng E.V. Near-transparent or transparent multi-channel encoder/decoder scheme
ATE521143T1 (de) * 2005-02-23 2011-09-15 Ericsson Telefon Ab L M Adaptive bitzuweisung für die mehrkanal- audiokodierung
RU2007143418A (ru) * 2005-05-25 2009-05-27 Конинклейке Филипс Электроникс Н.В. (Nl) Кодирование с предсказанием многоканального сигнала
WO2007004833A2 (en) * 2005-06-30 2007-01-11 Lg Electronics Inc. Method and apparatus for encoding and decoding an audio signal
EP2122613B1 (en) * 2006-12-07 2019-01-30 LG Electronics Inc. A method and an apparatus for processing an audio signal
US9111525B1 (en) * 2008-02-14 2015-08-18 Foundation for Research and Technology—Hellas (FORTH) Institute of Computer Science (ICS) Apparatuses, methods and systems for audio processing and transmission
US8332229B2 (en) * 2008-12-30 2012-12-11 Stmicroelectronics Asia Pacific Pte. Ltd. Low complexity MPEG encoding for surround sound recordings
EP2875511B1 (en) * 2012-07-19 2018-02-21 Dolby International AB Audio coding for improving the rendering of multi-channel audio signals

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8355509B2 (en) 2005-02-14 2013-01-15 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Parametric joint-coding of audio sources
CN102187691A (zh) * 2008-10-07 2011-09-14 弗朗霍夫应用科学研究促进协会 多声道音频信号的双耳演示
CN102187691B (zh) * 2008-10-07 2014-04-30 弗朗霍夫应用科学研究促进协会 多声道音频信号的双耳演示
WO2010045869A1 (zh) * 2008-10-20 2010-04-29 华为终端有限公司 一种3d音频信号处理的方法、系统和装置
CN101547265B (zh) * 2008-10-20 2014-07-30 华为终端有限公司 一种3d音频会议的信号处理方法、设备以及系统
US8965015B2 (en) 2008-10-20 2015-02-24 Huawei Device Co., Ltd. Signal processing method, system, and apparatus for 3-dimensional audio conferencing
CN102349108A (zh) * 2009-01-28 2012-02-08 Lg电子株式会社 解码音频信号的方法和装置
CN102349108B (zh) * 2009-01-28 2014-08-20 Lg电子株式会社 解码音频信号的方法和装置
CN104995676A (zh) * 2013-02-14 2015-10-21 杜比实验室特许公司 音频处理系统中的信号去相关
CN104995676B (zh) * 2013-02-14 2018-03-30 杜比实验室特许公司 音频处理系统中的信号去相关
CN105593931A (zh) * 2013-07-22 2016-05-18 弗劳恩霍夫应用研究促进协会 使用联合编码残余信号的音频编码器、音频解码器、方法及计算机程序
CN105593931B (zh) * 2013-07-22 2019-12-27 弗劳恩霍夫应用研究促进协会 使用联合编码残余信号的音频编码器、音频解码器、方法及计算机可读介质
US10741188B2 (en) 2013-07-22 2020-08-11 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio encoder, audio decoder, methods and computer program using jointly encoded residual signals
US10770080B2 (en) 2013-07-22 2020-09-08 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung, E.V. Audio decoder, audio encoder, method for providing at least four audio channel signals on the basis of an encoded representation, method for providing an encoded representation on the basis of at least four audio channel signals and computer program using a bandwidth extension
US11657826B2 (en) 2013-07-22 2023-05-23 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio encoder, audio decoder, methods and computer program using jointly encoded residual signals
CN112151049A (zh) * 2013-11-27 2020-12-29 弗劳恩霍夫应用研究促进协会 解码器、编码器、产生音频输出信号的方法及编码方法
US11875804B2 (en) 2013-11-27 2024-01-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Decoder, encoder and method for informed loudness estimation employing by-pass audio object signals in object-based audio coding systems
CN112151049B (zh) * 2013-11-27 2024-05-10 弗劳恩霍夫应用研究促进协会 解码器、编码器、产生音频输出信号的方法及编码方法
CN105336333A (zh) * 2014-08-12 2016-02-17 北京天籁传音数字技术有限公司 多声道声音信号编码方法、解码方法及装置
CN105336333B (zh) * 2014-08-12 2019-07-05 北京天籁传音数字技术有限公司 多声道声音信号编码方法、解码方法及装置
CN110800048A (zh) * 2017-05-09 2020-02-14 杜比实验室特许公司 多通道空间音频格式输入信号的处理
CN110800048B (zh) * 2017-05-09 2023-07-28 杜比实验室特许公司 多通道空间音频格式输入信号的处理

Also Published As

Publication number Publication date
BR122018072501B1 (pt) 2019-07-09
BRPI0607166B1 (pt) 2019-06-25
US20120314879A1 (en) 2012-12-13
MX2007009559A (es) 2007-12-10
JP5179881B2 (ja) 2013-04-10
US10339942B2 (en) 2019-07-02
CA2597746C (en) 2016-02-16
EP2320414B1 (en) 2018-05-02
US20220392466A1 (en) 2022-12-08
CN102123341B (zh) 2013-07-03
BRPI0607166A2 (pt) 2009-08-11
US20190066703A1 (en) 2019-02-28
ATE531035T1 (de) 2011-11-15
CN102123341A (zh) 2011-07-13
RU2376654C2 (ru) 2009-12-20
AU2010236053A1 (en) 2010-11-18
BR122018072505B1 (pt) 2019-07-16
JP2012234192A (ja) 2012-11-29
HK1159392A1 (en) 2012-07-27
US10643628B2 (en) 2020-05-05
ES2682073T3 (es) 2018-09-18
CA2707761C (en) 2014-04-29
EP1844465A2 (en) 2007-10-17
BR122018072504B1 (pt) 2019-07-09
CA2597746A1 (en) 2006-08-17
TR201811059T4 (tr) 2018-08-27
US20190066704A1 (en) 2019-02-28
US11682407B2 (en) 2023-06-20
US11621005B2 (en) 2023-04-04
EP1844465B1 (en) 2011-10-26
EP2320414A1 (en) 2011-05-11
CA2707761A1 (en) 2006-08-17
JP2008530603A (ja) 2008-08-07
US10650835B2 (en) 2020-05-12
KR100924577B1 (ko) 2009-11-02
AU2009200407B2 (en) 2010-11-25
US20170103763A9 (en) 2017-04-13
US20190066705A1 (en) 2019-02-28
US8355509B2 (en) 2013-01-15
NO338701B1 (no) 2016-10-03
US20220392467A1 (en) 2022-12-08
JP5638037B2 (ja) 2014-12-10
US11621006B2 (en) 2023-04-04
PL1844465T3 (pl) 2012-03-30
US9668078B2 (en) 2017-05-30
HK1107723A1 (en) 2008-07-11
US20170055095A1 (en) 2017-02-23
WO2006084916A3 (en) 2007-03-08
US11621007B2 (en) 2023-04-04
WO2006084916A2 (en) 2006-08-17
CN101133441B (zh) 2011-05-25
US10657975B2 (en) 2020-05-19
RU2007134215A (ru) 2009-03-20
AU2009200407A1 (en) 2009-02-26
US20220392468A1 (en) 2022-12-08
BR122018072508B1 (pt) 2019-07-16
US20220392469A1 (en) 2022-12-08
US20200234721A1 (en) 2020-07-23
IL185192A (en) 2014-02-27
NO20073892L (no) 2007-11-14
US20190066706A1 (en) 2019-02-28
AU2006212191B2 (en) 2009-01-15
EP1995721A1 (en) 2008-11-26
AU2010236053B2 (en) 2012-10-18
ES2374434T3 (es) 2012-02-16
EP1691348A1 (en) 2006-08-16
US10643629B2 (en) 2020-05-05
US11495239B2 (en) 2022-11-08
AU2006212191A1 (en) 2006-08-17
IL185192A0 (en) 2008-01-06
KR20070107698A (ko) 2007-11-07
US20070291951A1 (en) 2007-12-20

Similar Documents

Publication Publication Date Title
CN101133441B (zh) 音源的参数联合编码
KR100922419B1 (ko) 바이노럴 큐 코딩 방법 등을 위한 확산음 엔벌로프 정형
KR100895609B1 (ko) 공간 오디오의 파라메트릭 코딩을 위한 조밀한 부수 정보
KR20070061872A (ko) 바이노럴 큐 코딩 방법 등을 위한 개별 채널 시간 엔벌로프정형

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant