CN103258538A - 支持后降混信号的多客体音频编解码设备 - Google Patents

支持后降混信号的多客体音频编解码设备 Download PDF

Info

Publication number
CN103258538A
CN103258538A CN201310141538XA CN201310141538A CN103258538A CN 103258538 A CN103258538 A CN 103258538A CN 201310141538X A CN201310141538X A CN 201310141538XA CN 201310141538 A CN201310141538 A CN 201310141538A CN 103258538 A CN103258538 A CN 103258538A
Authority
CN
China
Prior art keywords
downmix
downmix signal
signal
information
post
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201310141538XA
Other languages
English (en)
Other versions
CN103258538B (zh
Inventor
徐廷一
白承权
姜京玉
洪镇佑
金镇雄
安致得
金光基
汉民秀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Electronics and Telecommunications Research Institute ETRI
Original Assignee
Electronics and Telecommunications Research Institute ETRI
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Electronics and Telecommunications Research Institute ETRI filed Critical Electronics and Telecommunications Research Institute ETRI
Publication of CN103258538A publication Critical patent/CN103258538A/zh
Application granted granted Critical
Publication of CN103258538B publication Critical patent/CN103258538B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/20Vocoders using multiple modes using sound class specific coding, hybrid encoders or object based coding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/0017Lossless audio signal coding; Perfect reconstruction of coded audio signal by transmission of coding error
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/018Audio watermarking, i.e. embedding inaudible data in the audio signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/032Quantisation or dequantisation of spectral components
    • G10L19/035Scalar quantisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Stereophonic System (AREA)

Abstract

本发明提供了一种多客体音频编码和解码设备(100),其支持后降混信号(103)。所述多客体音频编码设备(100)可包括:客体信息提取及降混生成单元(101),其从输入客体信号生成客体信息和降混信号;参数决定单元(202),其使用提取出的降混信号和邮降混信号,来决定降混信息参数;和比特流生成单元(203),其结合客体信息和降混信息参数,来生成客体比特流。

Description

支持后降混信号的多客体音频编解码设备
本专利申请是下列专利申请的分案申请:
申请号:200980136257.7
申请日:2009年07月16日
发明名称:支持后降混信号的多客体音频编解码设备
技术领域
本发明涉及一种多客体音频编码和解码设备,更特别是,涉及一种可支持从外部输入的后降混信号(post downmix signal)的多客体音频编解码设备,并有效地显示与一般降混信号和后降混信号之间的关系相关的降混信息参数。
技术背景
目前,可以有效压缩音频客体信号的基于客体的音频编码技术是人们关注的焦点。用于支持现有运动图像专家组(MPEG)环绕技术的任意降混信号的参数的量化/反量化体系(scheme),可提取任意降混信号和编码器的降混信号之间的频道水平差异CLD(Channel Level Difference)参数。此外,量化/反量化体系可使用以在MPEG环绕体系中的0dB为基准设计得心对称的CLD量化表,来执行量化/反量化步聚。
当多个乐器/曲目被混合为立体声信号时,可生成领头降混信号(mastering downmix signal),其可被放大以具有光盘(CD)可显示的最大动态范围,并可被通过均衡器等转换。因此,领头降混信号可与立体声混音信号不同。
当MPEG环绕体系的任意降混处理技术被应用到多客体音频编码设备中来支持领头降混信号时,降混信号和领头降混信号之间的CLD可由于每个客体的降混增益被非对称地提取。在这里,CLD可通过将每个客体乘以降混增益而获得。因此,只可使用一个现有CLD量化表的一边,因此当进行CLD参数的量化/反量化时发生的量化误差可能是很重大的。
因此,需要一种方法来有效编码/解码音频客体。
发明内容
技术目的
本发明的一个方面,提供一种多客体音频编码和解码设备,其支持后降混信号。
本发明的一个方面,还提供一种多客体音频编码和解码设备,其可基于与每个客体相乘的降混增益使非对称地提取的降混信息参数针对0dB变得均匀对称分布,可执行量化和反量化,从而可减少量化误差。
本发明的一个方面,还提供一种多客体音频编码和解码设备,其可使用降混信息参数,将后降混信号调整为类似于编码操作中生成的降混信号,从而降低声音衰减。
技术方案
根据本发明的一个方面,提供一种多客体音频编码设备,其使用从外部输入的后降混信号来编码多客体音频。
所述多客体音频编码设备可包括:客体信息提取及降混生成单元,其从输入客体信号生成客体信息和降混信号;参数决定单元,其使用提取出的降混信号和后降混信号,来决定降混信息参数;和比特流生成单元,其结合客体信息和降混信息参数,来生成客体比特流。
所述参数决定单元可包括:功率偏置(power offset)计算单元,其将所述后降混信号定级(scale)为预设定的值,来使特定桢中的后降混信号的平均功率与降混信号的平均功率相同;和参数提取单元,其在预设定的桢中从被定级的后降混信号中提取降混信息参数。
所述参数决定单元,可决定作为补偿降混信号和后降混信号之间差异的降混参数信息的PDG,且所述比特流生成单元,可传输包含有PDG的客体比特流。
所述参数决定单元,可生成对应降混信号和后降混信号之间的差异的残差信号;且所述比特流生成单元,可传输含有残差信号的客体比特流。所述降混信号和后降混信号之间的差异,可通过应用后降混增益而被补偿。
根据本发明的一个方面,提供一种多客体音频解码设备,其使用从外部输入的后降混信号来解码多客体音频。
所述多客体音频解码设备包括:比特流处理单元,其从客体比特流中提取降混信息参数和客体信息;降混信号生成单元,其基于降混信息参数调整后降混信号,并生成降混信号;和解码单元,其使用客体信息解码降混信号并生成客体信号。
所述多客体音频解码设备可进一步包括:渲染单元,其使用用户控制信息对生成的客体信号执行渲染,并生成可重复输出信号。
所述降混信号生成单元可包括:功率偏置补偿单元,其使用从降混信息参数中提取出的功率偏置值,来定级后降混信号;降混信号调整单元,其使用降混信息参数来将定级的后降混信号转换为降混信号。
根据本发明的一个方面,提供一种多客体音频解码设备,包括:比特流处理单元,其从客体比特流中提取降混信息参数和客体信息;降混信号生成单元,其使用降混信息参数和后降混信号来生成降混信号;代码转换单元,其使用客体信息和用户控制信息对所述降混信号执行代码转换;降混信号预处理单元,其使用代码转换的结果来预处理所述降混信号;和运动图像专家组MPEG环绕解码单元,其使用代码转换的结果和处理的降混信号来执行MPEG环绕解码。
具体来讲,根据本发明一个方面,提供了一种多客体音频编码设备,其包括:客体信息提取及降混生成单元,其利用多个输入客体信号来提取显示出输入客体信号之间关系的客体信息,从而生成降混信号;参数决定单元,其利用所述生成的降混信号和从多客体音频编码设备的外部输入的post降混信号,来决定降混信息参数;和比特流生成单元,其生成包含有所述降混信息参数和所述客体信息的客体比特流。
根据本发明另一方面,提供了一种多客体音频解码设备,其包括:比特流处理单元,其从客体比特流中提取降混信息参数和客体信息;降混信号生成单元,其利用所述降混信息参数来控制从多客体音频编码设备被传达的post降混信号,从而生成降混信号;和解码单元,其利用所述生成的降混信号和客体信息来生成客体信号。
根据本发明另一方面,提供了一种多客体音频解码设备,包括:比特流处理单元,其从客体比特流中提取降混信息参数和客体信息;降混信号生成单元,其利用所述降混信息参数以及从多客体音频编码设备被传达的post降混信号,来生成降混信号;代码转换单元,其利用客体信息和用户控制信息,来执行代码转换;降混信号预处理单元,其利用所述生成的降混信号来进行预处理;和运动图像专家组MPEG环绕解码单元,其利用所述预处理的降混信号和通过所述代码转换所生成的MPEG比特流来执行MPEG环绕解码。
根据本发明另一方面,提供了一种多客体音频编码设备所执行的多客体音频编码方法,所述多客体音频编码方法包括以下步骤:利用多个输入客体信号来提取显示出输入客体信号之间关系的客体信息,从而生成降混信号;利用所述生成的降混信号和从多客体音频编码设备的外部输入的post降混信号,来决定降混信息参数;和生成包含有所述降混信息参数和所述客体信息的客体比特流。
根据本发明另一方面,提供了一种多客体音频解码设备所执行的多客体音频解码方法,所述多客体音频解码方法包括以下步骤:从客体比特流中提取降混信息参数和客体信息;利用所述降混信息参数来控制从多客体音频编码设备被传达的post降混信号,从而生成降混信号;和利用所述生成的降混信号和客体信息来生成客体信号。
根据本发明另一方面,提供了一种多客体音频解码设备所执行的多客体音频解码方法,所述多客体音频解码方法包括以下步骤:从客体比特流中提取降混信息参数和客体信息;利用所述降混信息参数以及从多客体音频编码设备被传达的post降混信号,来生成降混信号;利用客体信息和用户控制信息,来执行代码转换;利用所述生成的降混信号来进行预处理;和利用所述预处理的降混信号和通过所述代码转换所生成的MPEG比特流,来执行MPEG环绕解码。
技术效果
根据本发明的一个实施例,提供一种多客体音频编码和解码设备,其支持后降混信号。
根据本发明的一个实施例,还提供一种多客体音频编码和解码设备,其可基于与每个客体相乘的降混增益使非对称地提取的降混信息参数针对0dB变得均匀对称分布,可执行量化和反量化,从而可减少量化误差。
根据本发明的一个实施例,还提供一种多客体音频编码和解码设备,其可使用降混信息参数,将后降混信号调整为类似于编码操作中生成的降混信号,从而降低声音衰减。
附图说明
图1是示出根据本发明的一个实施例的支持后降混信号的多客体音频编码设备的框图;
图2是示出根据本发明的一个实施例的支持后降混信号的多客体音频编码设备的配置的框图;
图3是示出根据本发明的一个实施例的支持后降混信号的多客体音频解码设备的配置的框图;
图4是示出根据本发明的另一个实施例的支持后降混信号的多客体音频解码设备的配置的框图;
图5是示出在根据本发明的一个实施例的支持后降混信号的多客体音频编码设备中补偿频道水平差异CLD(Channel Level Difference)的操作的框图;
图6是示出根据本发明的一个实施例的通过相反地补偿CLD补偿值来进行后降混信号的补偿的的操作的框图;
图7是示出根据本发明的另一个实施例的支持后降混信号的多客体音频编码设备中的参数决定但单元的配置的框图;
图8是示出根据本发明的另一个实施例的支持后降混信号的多客体音频解码设备中的降混信号生成单元的配置的框图;和
图9是示出根据本发明的一个实施例的输出后降混信号空间音频客体编码SAOC(Spatial Audio Object Coding)比特流的操作的示图。
具体实施方式
现在将参照附图对本发明的实施例进行详细描述,所述实施例的示例在附图中被示出,其中相同的参考数字始终表示相同的元素。下面将参照数字描述实施例,以对本发明进行说明。
图1是示出根据本发明的一个实施例的支持后降混信号的多客体音频编码设备100的框图。
多客体音频编码设备100,可使用从外部输入的后降混信号(postdownmix signal)来编码多客体音频信号。多客体音频编码设备100可使用输入客体信号101来生成降混信号和客体信息。在这种情况下,客体信息可表示从输入客体信号101预测的空间线索参数(spatial cue parameter)。
此外,多客体音频编码设备100可分析降混信号和额外输入的后降混信号102,从而可生成降混信息参数,来将后降混信号102调整为类似于降混信号。降混信号可在执行编码时生成。多客体音频编码设备100可使用降混信息参数和客体信息来生成客体比特流104。此外,输入的后降混信号102可被直接作为后降混信号103输出而无需经过特定的重放(replay)进程。
在这种情况下,可通过提取降混信号和后降混信号102之间的CLD参数、使用频道水平差异(CLD)量化表来量化/反量化降混信息参数。所述CLD量化表可针对预定的中心被设计得对称。例如,多客体音频编码设备可基于应用到每个客体信号的降混增益,使不对称地提取的CLD参数针对某一预定中心变得对称。根据本发明,客体信号可能被称为客体。
图2是示出根据本发明的一个实施例的支持后降混信号的多客体音频编码设备100的配置的框图。
参考图2,多客体音频编码设备100可包括:客体信息提取及降混生成单元201,参数决定单元202,比特流生成单元203。多客体音频编码设备100可支持从外部输入的后降混信号(post downmix signal)102。根据本发明,后降混信号(post downmix signal)可表示领头降混信号(masteringdownmix signal)。
客体信息提取及降混生成单元201可从输入客体信号101生成客体信息和降混信号。
参数决定单元202,可分析提取出的降混信号和后降混信号102,来决定降混信息参数。参数决定单元202可计算降混信号和后降混信号102之间的信号强度差异来决定降混信息参数。此外,输入的后降混信号102可作为后降混信号103直接输出而无需特定的重放进程。
例如,参数决定单元202可将后降混增益PDG(Post Downmix Gain)决定为降混信息参数。可通过将后降混信号最大程度上调整为与降混信号类似而均匀对称地分布所述PDG。具体来说,参数决定单元202可基于降混增益将不对称提取的降混信息参数相对于0dB决定地均匀对称。在这里,降混信息参数可以是PDG,降混增益可以与每个客体相乘。随后,可以以等同于CLD的量化表来量化PDG。
当通过将后降混信号调整地类似于编码操作中生成的降混信号来解码后降混信号102时,声音质量有可能比使用降混信号。直接解码时严重衰减。因此,要有效地提取用来调整降混信号102的降混信息参数来减少声音的衰减。降混信息参数可以是如被用作运动图像专家组环绕MPEG Surround体系的任意降混增益ADG的CLD之类的参数。
CLD参数可以被量化以传输,并可针对0dB对称,从而可减少量化误差,并降低由后降混信号引起的声音衰减。
比特流生成单元203可结合客体信息和降混信息参数,来生成客体比特流。
图3是示出根据本发明的一个实施例的支持后降混信号的多客体音频解码设备300的配置的框图。
参考图3,多客体音频解码设备300可包括:降混信号生成单元301,比特流处理单元302,解码单元303和渲染单元304。多客体音频解码设备300可支持从外部输入的后降混信号305。
比特流处理单元302可从多客体音频编码设备传输来的客体比特流306中提取降混信息参数308和客体信息309。随后,降混信号生成单元301可基于降混信息参数308调整后降混信号305,并生成降混信号307。在这种情况下,降混信息参数308可补偿降混信号307和后降混信号305之间的信号强度差异。
解码单元303可使用客体信息309解码降混信号307并生成客体信号310。渲染单元304可使用用户控制信息311对生成的客体信号310执行渲染,并生成可重复输出信号312。在这种情况下,用户控制信息311可表示通过混合存储的客体信号来生成输出信号所需的渲染矩阵或信息。
图4是示出根据本发明的另一个实施例的支持后降混信号的多客体音频解码设备400的配置的框图。
参考图4,多客体音频解码设备400可包括:降混信号生成单元401,比特流处理单元402,降混信号预处理单元403,代码转换单元404,以及MPEG环绕解码单元405。
比特流处理单元402,可从客体比特流407中提取降混信息参数409和客体信息410。降混信号生成单元410,可使用降混信息参数409和后降混信号406来生成降混信号408。后降混信号406可被直接输出用于重放。
代码转换单元404,可使用客体信息410和用户控制信息412对所述降混信号408执行代码转换。随后,降混信号预处理单元403可使用代码转换的结果来预处理所述降混信号408。MPEG环绕解码单元405可使用MPEG环绕比特流413和预处理过的降混信号411来执行MPEG环绕解码。MPEG环绕比特流413可以是代码转换的结果。多客体音频解码设备400可通过MPEG环绕解码来输出输出信号414。
图5是示出在根据本发明的一个实施例的支持后降混信号的多客体音频编码设备中补偿频道水平差异CLD(Channel Level Difference)的操作的框图。
当通过将后降混信号调整为与降混信号类似而执行解码时,音质可能比直接使用编码时生成的降混信号进行解码更加严重地衰减。因此,后降混信号将被调整到最大限度类似于原始降混信号来减少声音的衰减。于此,用来调整后降混信号的降混信息参数可被有效地提取和显示。
跟据本发明的一个实施例,降混信号与后降混信号之间的信号强度差异可被用作降混信息参数。被用作MPEG环绕体系的ADG的CLD可以是降混信息参数。
所述降混信息参数可由表1所示的CLD量化表来进行量化。
[表1]CLD量化表(CLD quantization table)
Figure BDA00003084351600091
因此,当降混信息参数针对0dB对称分布时,可降低降混信息参数的量化误差,并可以减少由后降混信号带来的声音衰减。
但是,在一般多客体音频编码设备中生成的与后降混信号和降混信号有关的降混信息参数,可能会由于用于生成降混信号的混合矩阵的每个客体的降混增益而不对称分布。例如,当每个客体的原始增益为1时,小于1的降混增益可被与每个客体相乘来防止削波造成降混信号失真。因此,与后降混信号相比,生成的降混信号可具有与降混增益相同的小功率。在这种情况下,在测量降混信号和后降混信号之间的信号强度差异时,分布中心可不位于0dB。
当降混信息参数如上所述被量化时,量化误差可能会增加,因为只有如上所述CLD量化表的一侧可被使用。根据本发明的一个实施例,多客体音频编码设备可使补偿降混信息参数提取的参数的分布中心位于毗邻0分贝处并进行量化,其内容将介绍如下。
CLD,即从外部输入的后降混信号与基于频道X的混合矩阵生成的降混信号之间的降混信息参数,在特定的桢/参数带中可通过下面的公式得出:
[公式1]
CLD X ( n , k ) = 10 log 10 P X , m ( n , k ) P X , d ( n , k )
其中,n和k可分别表示桢和参数带。Pm和Pd可分别表示后降混信号的功率和降混信号的功率。当用于生成频道X的降混信号的混合矩阵的每个客体的降混增益是GX1,GX2,……,GXN时,用以将提取的CLD的分布中心补偿为0的CLD补偿值可通过下面的公式得出:
[公式2]
CLD X , c = 10 log 10 N 2 ( G X , 1 + G X , 2 + G X , 3 + · · · + G X , N ) 2
其中N可表示输入客体的总数。
用于混合矩阵的每个客体的降混增益可与所有帧/参数带相同,公式2的CLD的补偿值可以是常数。因此,补偿的CLD可通过从公式1的降混信息参数中减去公式2的CLD补偿值获得,其可通过下面的公式3得出。
[公式3]
CLDX,m(n,k)=CLDX(n,k)-CLDX,c
补偿的CLD可根据表1被量化,并被传输到多客体音频解码设备。此外,补偿的CLD的统计分布可位于比一般CLD靠近0dB处,也就是说,与高斯分布(Gaussian distribution)相对的普拉斯分布的特征(Laplaciandistribution)已被显示出。因此,与表1的量化表相对的、从-10dB至+10dB的范围被更加紧密划分的量化表可被应用于减少量化误差。
多客体音频编码设备可根据下列公式4、5、6来计算降混增益DMG和降混频道水平差异DCLD,并可将DMG和DCLD传输到多客体音频解码设备。所述DMG可表示每个客体的混合量。具体来说,单声道降混信号和立体声降混信号两者均可被使用。
[公式4]
DMGi=20log10Gi
其中i=1,2,3,……N(单声道降混)。
[公式5]
DMGi=10log10(G1i 2+G2i 2)
其中,i=1,2,3,……N(立体声降混)。
[公式6]
DCLD i = 20 log 10 G 1 i G 2 i
其中,i=1,2,3,……N
当降混信号是单声道降混信号时公式4可用于计算降混增益,当降混信号是立体声降混信号时公式5可用来计算降混增益。公式6可用于计算贡献给降混信号的左、右声道的每个客体的等级。在这里,G1i和G2i可分别表示左声道和右声道。
当根据本发明的实施例支持后降混信号时,无法使用单声道降混信号,因此可应用公式5和公式6。公式2之类的补偿值可使用公式5和公式6来计算,来使用传输的补偿的CLD和使用公式5和公式6获得的降混增益还原降混信息参数。用于针对左声道和右声道的每个客体的降混增益可使用公式5和公式6计算,可通过下面的公式得出:
[公式7]
G ^ 1 i = 10 DCLD i / 10 1 + 10 DCLD i / 10 · 10 DMG i / 20
G ^ 2 i = 1 1 + 10 DCLD i / 10 · 10 DMG i / 20
其中,i=1,2,3……,N
CLD补偿值可以与公式2同样的方式使用计算的每个客体降混增益计算,
其可通过下面的公式得出:
[公式8]
C L ^ D X , c = 10 log 10 N 2 ( G ^ X , 1 + G ^ X , 2 + G ^ X , 3 + · · · + G ^ X , N ) 2
多客体音频解码设备可使用计算的CLD补偿值和补偿的CLD的反量化值还原降混信息参数,其可通过下面的公式得出:
[公式9]
C L ^ D X , m ( n , k ) = C L ^ D X ( n , k ) + C L ^ D X , c
其与通过一般量化处理还原的参数相比,可减少还原的降混信息参数的量化误差。因此,可减少声音衰减。
当使用均衡器进行每个波带的水平控制处理时,原始的降混信号可被最明显地传输。当MPEG环绕的ADG使用CLD作为参数时,CLD值可被作为20波带或28波带处理,且所述均衡器可使用多种组合如24波带、36波带等。提取降混信息参数的参数带可被作为均衡器带设置和处理,而不是CLD参数带,由此可减少两带之间的差异和解决方案差异的误差。
降混信息参数分析带可如下所示。
[表2]降混信息参数分析波带(Downmix information parameter analysis band)
当“bsMDProcessingBand”的值大于1时,降混信息参数可被抽取出来作为由一般均衡器使用的单独定义的带。
对图5的CLD补偿操作做出描述。
为处理后降混信号,多客体音频编码设备可使用混合矩阵509根据公式2执行DMG/CLD计算步骤501。此外,多客体音频编码设备可通过DMG/CLD量化步骤502来量化DMG/CLD,并通过DMG/CLD反量化步骤503来反量化DMG/CLD,并执行混合矩阵计算步骤504。多客体音频编码设备可使用混合矩阵505来执行CLD补偿值计算,由此可减少CLD错误。
此外,多客体音频编码设备可使用后降混信号511执行CLD计算步骤506。多客体音频编码设备可使用CLD补偿值计算步骤505计算的CLD补偿值507来执行CLD量化步骤508。由此,可生成量化的补偿的CLD512。
图6是示出根据本发明的一个实施例的通过相反地补偿CLD补偿值来进行后降混信号的补偿的的操作的框图。图6的操作可以是图5的操作的逆向操作。
多客体音频解码设备可使用量化的DMG/CLD607执行DMG/CLD反量化步聚601。多客体音频解码设备可使用反量化的DMG/CLD执行混合矩阵计算步骤602,并执行CLD补偿值计算步骤603。多客体音频解码设备可使用量化的补偿的CLD608执行补偿的CLD的反量化步聚604。此外,多客体音频解码设备可使用反量化的补偿的CLD和通过CLD补偿值计算步骤603计算的CLD补偿值605来执行后降混补偿606。后降混信号可被应用于后降混补偿步骤606。由此,可生成混合降混609。
图7是示出根据本发明的另一个实施例的支持后降混信号的多客体音频编码设备中的参数决定但单元的配置的框图。
参考图7,参数决定单元700可包括:功率偏置计算单元701和参数提取单元702。参数决定700单元可对应图2的参数决定单元202。
功率偏置计算单元701,可将所述后降混信号定级(scale)为预设定的值,来使特定桢中的后降混信号703的平均功率与降混信号704的平均功率相同。在一般情况下,由于后降混信号703具有比编码操作期间生成的降混信号更大的功率,所以功率偏置计算单元701可以通过定级(scaling)来调整后降混信号703和降混信号704的功率。
参数提取单元702可在预设定的桢中从被定级的后降混信号705中提取降混信息参数706。降混信号703可用于决定降混信息参数706,或者后降混信号707可被直接输出而不经过特别的处理。
也就是说,参数决定单元700可计算降混信号704和后降混信号705之间的信号强度差异来决定降混信息参数706。具体来说,参数决定单元700可将PDG决定为降混信息参数706。所述PDG,通过将后降混信号705最大程度上调整为与降混信号704类似而被均匀对称地分布。
图8是示出根据本发明的另一个实施例的支持后降混信号的多客体音频解码设备中的降混信号生成单元800的配置的框图。
参考图8,降混信号生成单元800可包括功率偏置补偿单元801和降混信号调整单元802。
功率偏置补偿单元801可使用从降混信息参数804中提取出的功率偏置值,来定级后降混信号803。所述功率偏置可被包含在降混信息参数804中,按需要可被发送或不发送。
降混信号调整单元802可将定级的后降混信号805转换为降混信号806。
图9是示出根据本发明的一个实施例的输出后降混信号空间音频客体编码SAOC(Spatial Audio Object Coding)比特流的操作的示图。
如表3至表7所示的语法,可被添加到应用降混信息参数中,以支持后降混信号。
[表3]SAOCSpecificConfig()的语法
Figure BDA00003084351600141
Figure BDA00003084351600151
[表4]SAOCExtensionConfigData(1)的语法
[表5]SAOCFrame()的语法
Figure BDA00003084351600153
Figure BDA00003084351600161
[表6]SpatialExtensionFrameData(1)的语法
Figure BDA00003084351600162
Figure BDA00003084351600171
[表7]MasteringDownmixResidualData()的语法
Figure BDA00003084351600172
Figure BDA00003084351600181
后领头信号(post Mastering signal)可表示由音乐领域中的领头工程师(Mastering engineer)创建的音频信号,并被应用至各领域的与MPEG-DSAOC相关的一般降混频信号中,如视频会议系统、游戏等。此外,扩展的降混信号、增强的降混信号、专业的降混等,可针对后领头信号被用作领头降混信号。表3至表7中用以支持MPEG-D SAOC的领头降混信号的的语法,可为每个降混信号的名称如下所示重新定义。
[表8]SAOCSpecificConfig()的语法
Figure BDA00003084351600191
[表9]SAOCExtensionConfigData(1)的语法
Figure BDA00003084351600192
[表10]SAOCFrame()的语法
Figure BDA00003084351600201
Figure BDA00003084351600211
[表11]SpatialExtensionFrameData(1)的语法
Figure BDA00003084351600212
[表12]ExtendedDownmixResidualData()的语法
Figure BDA00003084351600213
Figure BDA00003084351600221
[表13]SAOCSpecificConfig()的语法
Figure BDA00003084351600222
[表14]SAOCExtensionConfigData(1)的语法
Figure BDA00003084351600232
Figure BDA00003084351600241
[表15]SAOCFrame()的语法
Figure BDA00003084351600242
Figure BDA00003084351600251
[表16]SpatialExtensionFrameData(1)的语法
Figure BDA00003084351600252
[表17]EnhancedDownmixResidualData()的语法
Figure BDA00003084351600253
Figure BDA00003084351600261
[表18]SAOCSpecificConfig()的语法
Figure BDA00003084351600262
Figure BDA00003084351600271
[表19]SAOCExtensionConfigData(1)的语法
Figure BDA00003084351600272
[表20]SAOCFrame()的语法
Figure BDA00003084351600282
Figure BDA00003084351600291
[表21]SpatialExtensionFrameData(1)的语法
Figure BDA00003084351600292
[表22]ProfessionalDownmixResidualData()的语法
Figure BDA00003084351600293
Figure BDA00003084351600301
Figure BDA00003084351600311
[表23]SAOCSpecificConfig()的语法
Figure BDA00003084351600312
Figure BDA00003084351600321
[表24]SAOCExtensionConfigData(1)的语法
[表25]SAOCFrame()的语法
Figure BDA00003084351600323
[表26]SpatialExtensionFrameData(1)的语法
Figure BDA00003084351600332
[表27]PostDownmixResidualData()的语法
Figure BDA00003084351600341
Figure BDA00003084351600351
用以支持扩展的降混的MPEG-D SAOC语法已在表8至表12中示出,用以支持增强的降混的MPEG-D SAOC语法已在表13至表17中示出。另外,用以支持专业的降混的MPEG-D SAOC语法已在表18至表22中示出,且用以支持后降混的MPEG-D SAOC语法已在表23至表27中示出。
参考图9,正交镜像滤波器QMF(Quadrature Mirror Filter)分析步骤901、902和903可被针对音频客体(1)907、音频客体(2)908和音频客体(3)909执行,由此可执行空间分析904。QMF分析步骤905和906可被针对输入的后降混信号(1)910和输入的后降混信号(2)911执行,从而可以执行空间分析步骤904。输入的后降混信号(1)910和输入的后降混信号(2)911可作为后降混信号(1)915和后降混信号(2)916直接输出而无需特殊处理。
当针对音频客体(1)907、音频客体(2)908、音频客体(3)909执行空间分析步骤904时,可生成标准空间参数912和后降混增益PDG(PostDownmix Gain)913。可使用生成的标准空间参数912和PDG913来生成SAOC比特流914。
根据本发明的一个实施例的多客体音频编码设备可生成PDG来处理降混信号和后降混信号910和911,如领头降混信号。所述PDG可以是用以补偿降混信号和后降混信号之间的差异的降混信息参数,并可被包含在SAOC比特流914中。在这种情况下,PDG的结构可基本与MPEG环绕体系的ADG相同。
因此,根据本发明的一个实施例的多客体解码设备可使用PDG和后降混信号补偿降混信号。在这种情况下,可使用与MPEG环绕体系的CLD相同的量化表来量化PDG。
将PDG与其他空间参数如OLD、NRG、IOC、DMG和DCLD比较的结果,如下表28所示。所述PDG可使用MPEG环绕体系的CLD量化表来反量化。
[表28]PDG和其他空间参数的尺寸和值范围比较
Figure BDA00003084351600361
后降混信号可使用反量化的PDG来补偿,将在下面详细描述。
在后降混信号补偿中,可通过将混合矩阵乘以输入的降混信号来生成补偿的降混信号。在这种情况下,当SAOCSpecificConfig()的语法中bsPostDownmix值是0时,可能无法执行后降混信号补偿。当值是1时,可执行后降混信号补偿。也就是说,当值是0时,输入的降混信号可直接随特定的处理输出。当混合矩阵是单声道降混时,混合矩阵可由以下公式10表示。当混合矩阵是立体声降混时,混合矩阵可由以下公式11表示。
[公式10]
W PDG l , m = [ 1 ]
[公式11]
W PDG l , m = 1 0 0 1
当bsPostDownmix值是1时,输入的降混信号可通过反量化的PDG进行补偿。当混合矩阵是单声道降混时,混合矩阵可以被定义为:
[公式12]
W PDG l , m = [ w 1 l , m ]
其中,
Figure BDA00003084351600365
可使用反量化的PDG来计算,并可表示为:
[公式13]
w 1 l , m = D PDG ( 0 , l , m ) , 0 &le; m < M proc , 0 &le; l < L
当混合矩阵是立体声降混时,混合矩阵可被定义为:
[公式14]
W PDG l , m = w 1 l , m 0 0 w 2 l , m
其中,
Figure BDA00003084351600371
可使用反量化的PDG来计算,并可表示为:
[公式15]
w X l , m = D PDG ( X , l , m ) , 0 &le; X < 2,0 &le; m < M proc , 0 &le; l < L
此外,用于传输比特流中的PDG的语法如表29和表30所示。表29和表30显示当残余解码没有被应用到完全还原后降混信号时的PDG,用于和表23至表27所显示的PDG做比较。
[表29]SAOCSpecificConfig()的语法
Figure BDA00003084351600373
Figure BDA00003084351600381
[表30]SAOCFrame()的语法
Figure BDA00003084351600382
Figure BDA00003084351600391
表29中的bsPostDownmix值可以是表示PDG是否存在的标旗(flag),并可表示如下。
[表31]bsPostDownmix
Figure BDA00003084351600392
使用PDG支持后降混信号的执行,可通过残余编码进行提高。也就是说,当后降混信号被补偿以使用PDG解码时,音质可能会与直接使用降混信号时相比由于原始降混信号和补偿的后降混信号之间的差异而降低。
为了克服上述缺点,可从多客体音频编码设备中提取、编码并传输残差信号。残差信号可表示降混信号和补偿的后降混信号之间的差异。多客体音频解码设备可解码所述残差信号并将残差信号添加入补偿的后降混信号来将残差信号调整为与原始降混信号相似。由此,可减少音质的下降。
此外,残差信号可是从整个频段提取。但是,由于比特率可能会明显增加,残差信号可以只在实际上影响音质的一个频段中传输。也就是说,当由于客体只具有低频成分如低音而发生声音衰减时,多客体音频编码设备可在低频段信号中提取残差信号并补偿声音衰减。
一般来说,由于在低频段的声音衰减可基于人类的认知自然进行补偿,所以,可从低频段提取并传输残差信号。当使用残差信号时,多客体音频编码设备可向根据公式9至公式14补偿的后降混信号添加相同量的由如下所示语法决定的残差信号来作为频带。
[表32]bsSAOCExtType
Figure BDA00003084351600401
[表33]SAOCExtensionConfigData(1)的语法
Figure BDA00003084351600402
[表34]PostDownmixResidualConfig()的语法
Figure BDA00003084351600411
[表35]SpatialExtensionFrameData(1)的语法
Figure BDA00003084351600412
[表36]PostDownmixResidualData()的语法
Figure BDA00003084351600413
Figure BDA00003084351600421
虽然本发明一些实施例已被展示和描述,但是本发明不仅限于所描述的实施例。相反,本技术领域的技术人员应当明白,在不脱离本发明的原则和精神范围内,可对实施例进行改变,其范围由权利要求书及其等同物定义。

Claims (16)

1.一种多客体音频编码设备,其包括:
客体信息提取及降混生成单元,其利用多个输入客体信号来提取显示出输入客体信号之间关系的客体信息,从而生成降混信号;
参数决定单元,其利用所述生成的降混信号和从多客体音频编码设备的外部输入的post降混信号,来决定降混信息参数;和
比特流生成单元,其生成包含有所述降混信息参数和所述客体信息的客体比特流。
2.如权利要求1所述的多客体音频编码设备,其中,所述多客体音频编码设备,将所述客体比特流及post降混信号传达给多客体音频解码设备。
3.如权利要1所述的多客体音频编码设备,其中,所述参数决定单元,其决定post降混增益,作为用于补偿所述降混信号与所述post降混信号之间差异的降混参数信息。
4.如权利要求1所述的多客体音频编码设备,其中,所述参数决定单元,其决定降混信息参数,用于控制post降混增益使其与降混信号相似,且
所述降混信息参数,其以0dB为基准相一致地被左右对称分布。
5.如权利要求1所述的多客体音频编码设备,其中,所述参数决定单元,计算表示所述输入客体信号各自的混合量的降混增益DMG和降混频道水平差异DCLD,来用于修正所述降混信息参数。
6.如权利要求1所述的多客体音频编码设备,其中,所述参数决定单元,生成残差信号,其表示通过所述降混信息参数被补偿的post降混信号和所述降混信号之间的差异;且
所述比特流生成单元,传输含有所述残差信号的客体比特流,
7.一种多客体音频解码设备,其包括:
比特流处理单元,其从客体比特流中提取降混信息参数和客体信息;
降混信号生成单元,其利用所述降混信息参数来控制从多客体音频编码设备被传达的post降混信号,从而生成降混信号;和
解码单元,其利用所述生成的降混信号和客体信息来生成客体信号。
8.如权利要求7所述的多客体音频解码设备,其进一步包括:
渲染单元,其通过用户控制信息对所述生成的客体信号执行渲染,从而生成可重复输出信号。
9.如权利要求7所述的多客体音频解码设备,其中,所述降混信息参数,利用降混信息参数来调节post降混信号使其与降混信号相似。
10.如权利要求7所述的多客体音频解码设备,其中,所述降混信息参数,其以0dB为基准相一致地被左右对称分布。
11.如权利要求7所述的多客体音频解码设备,其中,所述降混信号调整单元,将残余信号应用至通过post降混增益被补偿的post降混信号,从而调节所述post降混信号使其与所述降混信号相似,且
所述残余信号,是指通过应用所述post降混增益所补偿的post降混信号与降混信号之间的差异。
12.一种多客体音频解码设备,包括:
比特流处理单元,其从客体比特流中提取降混信息参数和客体信息;
降混信号生成单元,其利用所述降混信息参数以及从多客体音频编码设备被传达的post降混信号,来生成降混信号;
代码转换单元,其利用客体信息和用户控制信息,来执行代码转换;
降混信号预处理单元,其利用所述生成的降混信号来进行预处理;和
运动图像专家组MPEG环绕解码单元,其利用所述预处理的降混信号和通过所述代码转换所生成的MPEG比特流来执行MPEG环绕解码。
13.如权利要求11所述的多客体音频解码设备,其中,所述降混信号生成单元,其利用降混信息参数来调节post降混信号使其与降混信号相似。
14.一种多客体音频编码设备所执行的多客体音频编码方法,所述多客体音频编码方法包括以下步骤:
利用多个输入客体信号来提取显示出输入客体信号之间关系的客体信息,从而生成降混信号;
利用所述生成的降混信号和从多客体音频编码设备的外部输入的post降混信号,来决定降混信息参数;和
生成包含有所述降混信息参数和所述客体信息的客体比特流。
15.一种多客体音频解码设备所执行的多客体音频解码方法,所述多客体音频解码方法包括以下步骤:
从客体比特流中提取降混信息参数和客体信息;
利用所述降混信息参数来控制从多客体音频编码设备被传达的post降混信号,从而生成降混信号;和
利用所述生成的降混信号和客体信息来生成客体信号。
16.一种多客体音频解码设备所执行的多客体音频解码方法,所述多客体音频解码方法包括以下步骤:
从客体比特流中提取降混信息参数和客体信息;
利用所述降混信息参数以及从多客体音频编码设备被传达的post降混信号,来生成降混信号;
利用客体信息和用户控制信息,来执行代码转换;
利用所述生成的降混信号来进行预处理;和
利用所述预处理的降混信号和通过所述代码转换所生成的MPEG比特流,来执行MPEG环绕解码。
CN201310141538.XA 2008-07-16 2009-07-16 支持后降混信号的多对象音频编解码设备 Active CN103258538B (zh)

Applications Claiming Priority (17)

Application Number Priority Date Filing Date Title
KR10-2008-0068861 2008-07-16
KR20080068861 2008-07-16
KR20080093557 2008-09-24
KR10-2008-0093557 2008-09-24
KR20080099629 2008-10-10
KR10-2008-0099629 2008-10-10
KR10-2008-0100807 2008-10-14
KR20080100807 2008-10-14
KR20080101451 2008-10-16
KR10-2008-0101451 2008-10-16
KR20080109318 2008-11-05
KR10-2008-0109318 2008-11-05
KR10-2009-0006716 2009-01-28
KR20090006716 2009-01-28
KR10-2009-0061736 2009-07-07
KR1020090061736A KR101614160B1 (ko) 2008-07-16 2009-07-07 포스트 다운믹스 신호를 지원하는 다객체 오디오 부호화 장치 및 복호화 장치
CN2009801362577A CN102171751B (zh) 2008-07-16 2009-07-16 支持后降混信号的多对象音频编解码设备

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN2009801362577A Division CN102171751B (zh) 2008-07-16 2009-07-16 支持后降混信号的多对象音频编解码设备

Publications (2)

Publication Number Publication Date
CN103258538A true CN103258538A (zh) 2013-08-21
CN103258538B CN103258538B (zh) 2015-10-28

Family

ID=41817315

Family Applications (2)

Application Number Title Priority Date Filing Date
CN2009801362577A Active CN102171751B (zh) 2008-07-16 2009-07-16 支持后降混信号的多对象音频编解码设备
CN201310141538.XA Active CN103258538B (zh) 2008-07-16 2009-07-16 支持后降混信号的多对象音频编解码设备

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN2009801362577A Active CN102171751B (zh) 2008-07-16 2009-07-16 支持后降混信号的多对象音频编解码设备

Country Status (5)

Country Link
US (3) US9685167B2 (zh)
EP (3) EP2998958A3 (zh)
KR (5) KR101614160B1 (zh)
CN (2) CN102171751B (zh)
WO (1) WO2010008229A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110462733A (zh) * 2017-03-31 2019-11-15 华为技术有限公司 多声道信号的编解码方法和编解码器

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101614160B1 (ko) * 2008-07-16 2016-04-20 한국전자통신연구원 포스트 다운믹스 신호를 지원하는 다객체 오디오 부호화 장치 및 복호화 장치
CN102696070B (zh) * 2010-01-06 2015-05-20 Lg电子株式会社 处理音频信号的设备及其方法
KR20120071072A (ko) * 2010-12-22 2012-07-02 한국전자통신연구원 객체 기반 오디오를 제공하는 방송 송신 장치 및 방법, 그리고 방송 재생 장치 및 방법
EP2690621A1 (en) * 2012-07-26 2014-01-29 Thomson Licensing Method and Apparatus for downmixing MPEG SAOC-like encoded audio signals at receiver side in a manner different from the manner of downmixing at encoder side
EP2757559A1 (en) * 2013-01-22 2014-07-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for spatial audio object coding employing hidden objects for signal mixture manipulation
WO2014160717A1 (en) 2013-03-28 2014-10-02 Dolby Laboratories Licensing Corporation Using single bitstream to produce tailored audio device mixes
EP2830046A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for decoding an encoded audio signal to obtain modified output signals
KR102243395B1 (ko) * 2013-09-05 2021-04-22 한국전자통신연구원 오디오 부호화 장치 및 방법, 오디오 복호화 장치 및 방법, 오디오 재생 장치
CN106303897A (zh) 2015-06-01 2017-01-04 杜比实验室特许公司 处理基于对象的音频信号
WO2016204580A1 (ko) * 2015-06-17 2016-12-22 삼성전자 주식회사 저연산 포맷 변환을 위한 인터널 채널 처리 방법 및 장치
KR102335377B1 (ko) 2017-04-27 2021-12-06 현대자동차주식회사 Pcsv 진단 방법
KR20190069192A (ko) 2017-12-11 2019-06-19 한국전자통신연구원 오디오 신호의 채널 파라미터 예측 방법 및 장치
GB2593117A (en) * 2018-07-24 2021-09-22 Nokia Technologies Oy Apparatus, methods and computer programs for controlling band limited audio objects
EP3997700A1 (en) 2019-07-09 2022-05-18 Dolby Laboratories Licensing Corporation Presentation independent mastering of audio content

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1321297A (zh) * 1999-08-23 2001-11-07 松下电器产业株式会社 音频编码装置以及音频编码方法
WO2007004830A1 (en) * 2005-06-30 2007-01-11 Lg Electronics Inc. Apparatus for encoding and decoding audio signal and method thereof
WO2007091842A1 (en) * 2006-02-07 2007-08-16 Lg Electronics Inc. Apparatus and method for encoding/decoding signal

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2693893B2 (ja) * 1992-03-30 1997-12-24 松下電器産業株式会社 ステレオ音声符号化方法
US6353584B1 (en) * 1998-05-14 2002-03-05 Sony Corporation Reproducing and recording apparatus, decoding apparatus, recording apparatus, reproducing and recording method, decoding method and recording method
US6925455B2 (en) * 2000-12-12 2005-08-02 Nec Corporation Creating audio-centric, image-centric, and integrated audio-visual summaries
US6958877B2 (en) * 2001-12-28 2005-10-25 Matsushita Electric Industrial Co., Ltd. Brushless motor and disk drive apparatus
JP3915918B2 (ja) * 2003-04-14 2007-05-16 ソニー株式会社 ディスクプレーヤのチャッキング装置およびディスクプレーヤ
US7447317B2 (en) * 2003-10-02 2008-11-04 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V Compatible multi-channel coding/decoding by weighting the downmix channel
US7394903B2 (en) * 2004-01-20 2008-07-01 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. Apparatus and method for constructing a multi-channel output signal or for generating a downmix signal
KR100663729B1 (ko) * 2004-07-09 2007-01-02 한국전자통신연구원 가상 음원 위치 정보를 이용한 멀티채널 오디오 신호부호화 및 복호화 방법 및 장치
SE0402650D0 (sv) * 2004-11-02 2004-11-02 Coding Tech Ab Improved parametric stereo compatible coding of spatial audio
US7761304B2 (en) 2004-11-30 2010-07-20 Agere Systems Inc. Synchronizing parametric coding of spatial audio with externally provided downmix
JP5129117B2 (ja) * 2005-04-01 2013-01-23 クゥアルコム・インコーポレイテッド 音声信号の高帯域部分を符号化及び復号する方法及び装置
US7751572B2 (en) * 2005-04-15 2010-07-06 Dolby International Ab Adaptive residual audio coding
RU2376655C2 (ru) 2005-04-19 2009-12-20 Коудинг Текнолоджиз Аб Зависящее от энергии квантование для эффективного кодирования пространственных параметров звука
KR20070003547A (ko) 2005-06-30 2007-01-05 엘지전자 주식회사 소프트클리핑에 의한 멀티채널 오디오 코딩에서의 클리핑복원방법
WO2007046659A1 (en) 2005-10-20 2007-04-26 Lg Electronics Inc. Method for encoding and decoding multi-channel audio signal and apparatus thereof
WO2007080211A1 (en) * 2006-01-09 2007-07-19 Nokia Corporation Decoding of binaural audio signals
US20070234345A1 (en) 2006-02-22 2007-10-04 Microsoft Corporation Integrated multi-server installation
US7965848B2 (en) 2006-03-29 2011-06-21 Dolby International Ab Reduced number of channels decoding
US8027479B2 (en) * 2006-06-02 2011-09-27 Coding Technologies Ab Binaural multi-channel decoder in the context of non-energy conserving upmix rules
US9454974B2 (en) * 2006-07-31 2016-09-27 Qualcomm Incorporated Systems, methods, and apparatus for gain factor limiting
WO2008039041A1 (en) * 2006-09-29 2008-04-03 Lg Electronics Inc. Methods and apparatuses for encoding and decoding object-based audio signals
WO2008060111A1 (en) * 2006-11-15 2008-05-22 Lg Electronics Inc. A method and an apparatus for decoding an audio signal
EP2595152A3 (en) 2006-12-27 2013-11-13 Electronics and Telecommunications Research Institute Transkoding apparatus
MX2010004220A (es) * 2007-10-17 2010-06-11 Fraunhofer Ges Forschung Codificacion de audio usando mezcla descendente.
KR101614160B1 (ko) * 2008-07-16 2016-04-20 한국전자통신연구원 포스트 다운믹스 신호를 지원하는 다객체 오디오 부호화 장치 및 복호화 장치

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1321297A (zh) * 1999-08-23 2001-11-07 松下电器产业株式会社 音频编码装置以及音频编码方法
WO2007004830A1 (en) * 2005-06-30 2007-01-11 Lg Electronics Inc. Apparatus for encoding and decoding audio signal and method thereof
WO2007091842A1 (en) * 2006-02-07 2007-08-16 Lg Electronics Inc. Apparatus and method for encoding/decoding signal

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JURGEN HERRE ET AL: "NEW CONCEPTS IN PARAMETRIC CODING OF SPATIAL AUDIO: FROM SAC TO SAOC", 《2007 IEEE INTERNATINAL CONFERENCE ON MULTIMEDIA AND EXPO》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110462733A (zh) * 2017-03-31 2019-11-15 华为技术有限公司 多声道信号的编解码方法和编解码器
US11386907B2 (en) 2017-03-31 2022-07-12 Huawei Technologies Co., Ltd. Multi-channel signal encoding method, multi-channel signal decoding method, encoder, and decoder
US11894001B2 (en) 2017-03-31 2024-02-06 Huawei Technologies Co., Ltd. Multi-channel signal encoding method, multi-channel signal decoding method, encoder, and decoder

Also Published As

Publication number Publication date
CN102171751A (zh) 2011-08-31
EP2696342B1 (en) 2016-01-20
CN102171751B (zh) 2013-05-29
US20200066289A1 (en) 2020-02-27
KR20100008755A (ko) 2010-01-26
KR20190050755A (ko) 2019-05-13
US9685167B2 (en) 2017-06-20
KR101734452B1 (ko) 2017-05-12
EP2320415A1 (en) 2011-05-11
US20170337930A1 (en) 2017-11-23
KR101614160B1 (ko) 2016-04-20
WO2010008229A1 (ko) 2010-01-21
EP2998958A3 (en) 2016-04-06
KR101976757B1 (ko) 2019-05-09
US10410646B2 (en) 2019-09-10
CN103258538B (zh) 2015-10-28
EP2696342A2 (en) 2014-02-12
US20110166867A1 (en) 2011-07-07
EP2998958A2 (en) 2016-03-23
KR20170054355A (ko) 2017-05-17
US11222645B2 (en) 2022-01-11
EP2696342A3 (en) 2014-08-27
EP2320415B1 (en) 2015-09-09
KR101840041B1 (ko) 2018-03-19
KR102115358B1 (ko) 2020-05-26
KR20160043947A (ko) 2016-04-22
EP2320415A4 (en) 2012-09-05
KR20180030491A (ko) 2018-03-23

Similar Documents

Publication Publication Date Title
CN103258538B (zh) 支持后降混信号的多对象音频编解码设备
EP1934973B1 (en) Temporal and spatial shaping of multi-channel audio signals
JP4685925B2 (ja) 適応残差オーディオ符号化
US8019087B2 (en) Stereo signal generating apparatus and stereo signal generating method
EP1803117B1 (en) Individual channel temporal envelope shaping for binaural cue coding schemes and the like
JP4521032B2 (ja) 空間音声パラメータの効率的符号化のためのエネルギー対応量子化
Andersen et al. Introduction to Dolby digital plus, an enhancement to the Dolby digital coding system
US8364471B2 (en) Apparatus and method for processing a time domain audio signal with a noise filling flag
US8258849B2 (en) Method and an apparatus for processing a signal
EP1905034B1 (en) Virtual source location information based channel level difference quantization and dequantization
WO2006035810A1 (ja) スケーラブル符号化装置、スケーラブル復号装置、及びこれらの方法
US20110137661A1 (en) Quantizing device, encoding device, quantizing method, and encoding method
US20240153512A1 (en) Audio codec with adaptive gain control of downmixed signals
Koo et al. Variable subband analysis for high quality spatial audio object coding

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant