CN103503062A - 用于使用对齐的前瞻部分将音频信号编码及解码的装置与方法 - Google Patents

用于使用对齐的前瞻部分将音频信号编码及解码的装置与方法 Download PDF

Info

Publication number
CN103503062A
CN103503062A CN201280018282.7A CN201280018282A CN103503062A CN 103503062 A CN103503062 A CN 103503062A CN 201280018282 A CN201280018282 A CN 201280018282A CN 103503062 A CN103503062 A CN 103503062A
Authority
CN
China
Prior art keywords
window
data
frame
coding
predictive coding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201280018282.7A
Other languages
English (en)
Other versions
CN103503062B (zh
Inventor
埃曼努埃尔·拉维利
拉尔夫·盖尔
马库斯·施内尔
纪尧姆·福奇斯
韦莎·罗皮拉
汤姆·贝克斯特伦
伯恩哈德·格里
克里斯蒂安·赫尔姆里希
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority to CN201510490977.0A priority Critical patent/CN105304090B/zh
Publication of CN103503062A publication Critical patent/CN103503062A/zh
Application granted granted Critical
Publication of CN103503062B publication Critical patent/CN103503062B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/028Noise substitution, i.e. substituting non-tonal spectral components by noisy source
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/022Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring
    • G10L19/025Detection of transients or attacks for time/frequency resolution switching
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/10Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a multipulse excitation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/005Correction of errors induced by the transmission channel, if related to the coding algorithm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/012Comfort noise or silence coding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0212Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/022Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/03Spectral prediction for preventing pre-echo; Temporary noise shaping [TNS], e.g. in MPEG2 or MPEG4
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • G10L19/07Line spectrum pair [LSP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/10Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a multipulse excitation
    • G10L19/107Sparse pulse excitation, e.g. by using algebraic codebook
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • G10L19/13Residual excited linear prediction [RELP]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/22Mode decision, i.e. based on audio signal content versus external parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/06Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being correlation coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/26Pre-filtering or post-filtering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Quality & Reliability (AREA)
  • Mathematical Physics (AREA)
  • Algebra (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Pure & Applied Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Image Processing (AREA)

Abstract

一种用于编码具有音频样本流(100)的音频信号的装置,包括:窗口器(102),用于对音频样本流应用预测编码分析窗口(200)以获得用于预测分析的窗口化数据,以及用于对音频样本流应用转换编码分析窗口(204)以获得用于转换分析的窗口化数据,其中,转换编码分析窗口与音频样本的当前帧内的音频样本以及与作为转换编码前瞻部分(206)的音频样本的未来帧的预定部分的音频样本相关联,其中,预测编码分析窗口与当前帧的音频样本的至少一部分以及与作为预测编码前瞻部分(208)的未来帧的预定部分的音频样本相关联,其中,转换编码前瞻部分(206)和预测编码前瞻部分(208)彼此相同或者彼此不同之处小于20%的预测编码前瞻部分(208)或小于20%的转换编码前瞻部分(206);以及编码处理器(104),用于使用用于预测分析的窗口化数据来产生用于当前帧的预测编码数据,或者用于使用用于转换分析的窗口化数据来产生用于当前帧的转换编码数据。

Description

用于使用对齐的前瞻部分将音频信号编码及解码的装置与方法
技术领域
本发明涉及音频编码,且特别地,涉及依赖于切换音频编码器及相应控制音频解码器,尤其适用于低延迟应用的音频编码。
背景技术
依赖于切换编解码器的若干音频编码概念是已知的。一个众所周知的音频编码概念是所谓的延伸型调适性多位率宽带(AMR-WB+)编解码器,如3GPP TS26.290B10.0.0(2011-03)中所述。AMR-WB+音频编解码器包括所有AMR-WB语音编解码器模式1至9及AMR-WB VAD以及DTX。AMR-WB+通过增加TCX、带宽扩展及立体声来扩展AMR-WB编解码器。
AMR-WB+音频编解码器以内部采样频率FS处理等同于2048个样本的输入帧。内部采样频率被局限于12800到38400Hz的范围。2048个样本帧被分成两个临界采样的等频带。这产生对应于低频(LF)及高频(HF)带的两个1024样本的超级帧。每一超级帧被划分成四个256-样本帧。通过使用重新采样输入信号的可变采样转换方案而获得内部采样率处的采样。
LF及HF信号随后使用两种不同的方法而被编码:LF使用“核心”编码器/解码器基于切换ACELP及变换编码激励(TCX)而被编码及解码。在ACELP模式中,标准的AMR-WB编解码器被使用。HF信号是使用带宽扩展(BWE)方法以相对较少位(16位/帧)而被编码的。从编码器传送至解码器的参数是模式选择位、LF参数及HF参数。用于每一1024样本超级帧的参数被分解成相同大小的四个数据包。当输入信号为立体声时,左右信道被组合成一单个信号以供ACELP/TXC编码,而立体声编码接收这两个输入信道。在解码器端,LF及HF带被单独解码,在此之后,它们在合成滤波器组中被合成。若输出仅限于单声道,则立体声参数被忽略且解码器以单声道模式运作。当编码LF信号时,AMR-WB+编解码器对ACELP及TCX模式应用LP分析。LP系数被线性地内插于每一64-样本子帧。LP分析窗口是长度为384样本的半余弦。为了编码核心单声道信号,ACELP或TCX编码被用于每一帧。编码模式是基于闭合回路合成分析法而选择的。仅256-样本帧被考虑用于ACELP帧,而256、512或1024样本帧可能是TCX模式的。AMR-WB+中的LPC分析所使用的窗口被示出于图5b中。具有20ms前瞻的对称LPC分析窗口被使用。前瞻意指,如图5b中所示,以500示出的当前帧的LPC分析窗口不仅在图5b中以502示出的0到20ms之间所指示的当前帧内延伸,而且延伸到20到40ms之间的未来帧中。这意味着,通过使用此LPC分析窗口,另外的20ms延迟,即整个未来帧,是必需的。因此,在图5b中以504指示的前瞻部分促成与AMR-WB+编码器相关联的系统延迟。换言之,未来帧必须完全可用以便使当前帧502的LPC分析系数可被算出。
图5a示出了另一编码器,所谓的AMR-WB编码器,且具体地,是用于计算当前帧的分析系数的LPC分析窗口。当前帧再一次在0到20ms之间延伸且未来帧在20到40ms之间延伸。对照于图5b,506所指示的AMR-WB的LPC分析窗口具有仅5ms的前瞻部分508,即20ms到25ms之间的时间距离。因此,LPC分析所引入的延迟相对于图5a大幅减小。然而,另一方面,已发现用于确定LPC系数的较大的前瞻部分,即LPC分析窗口的较大的前瞻部分导致较好的LPC系数,且因此,残余信号中有较小的能量,且因此,较低的位率,这是因为LPC预测更好地符合原始信号。
虽然图5a及图5b涉及仅具有用于确定一个帧的LPC系数的单一分析窗口的编码器,图5c示出了用于G.718语音编码器的情况。G718(06-2008)规范涉及传输系统及媒体数字系统和网络,且特别是,描述数字终端设备,且特别地,用于该设备的语音及音频信号的编码。特别地,该标准涉及建议书ITU-T G718所定义的从8-32kb/s起的语音及音频的强健的窄带及宽带嵌入式可变位率编码。输入信号是使用20ms的帧来处理的。编解码器延迟视输入及输出的采样率而定。对于宽带输入及宽带输出,该编码的总算法延迟是42.875ms。其由一个20-ms帧、输入及输出重新采样滤波器的1.875ms延迟,供编码器前瞻使用的10ms、后滤波延迟的1ms及解码器处的10ms组成,以允许较高层转换编码的重迭相加操作。对于窄带输入和窄带输出,较高层并未被使用,但10ms解码器延迟被用于改善在存在帧去除的情况及对于音乐信号的编码性能。若输出被限于层2,则编解码器延迟可减少10ms。编码器的说明如下。下部的两层被应用于在12.8kHz采样的预先加强信号,且上面的三层在16kHz采样的输入信号域中运作。核心层是基于码激励线性预测(CELP)技术的,其中,语音信号通过穿过表示频谱包络的线性预测(LP)合成滤波器的激励信号而被模型化。LP滤波器使用切换预测方法及多阶向量量化在导抗频谱频率(ISF)域中被量化。开回路音高分析通过音高追踪算法来执行,以确保平滑的音高轮廓。两个共存的音高演进轮廓被比较且产生较平滑轮廓的轨道被选择,以使音高估计更强健。帧层级预处理包括高通滤波,每秒12800个样本的采样转换,预先加强,频谱分析,窄带输入的检测,语音活动检测,噪声估计,噪声降低,线性预测分析,LP至ISF转换以及内插,加权语音信号的计算,开回路音高分析,背景噪声更新,对于编码模式选择及帧去除隐藏的信号分类。使用选择的编码类型的层1编码包括清音编码模式、浊音编码模式、变换编码模式、通用编码模式以及不连续传输和舒适噪声生成(DTX/CNG)。
使用自相关法的长期预测或线性预测(LP)分析决定CELP模型的合成滤波器的系数。然而,在CELP中,长期预测通常是“适应性码簿”,且因此不同于线性预测。因此,线性预测可更多被视为短期预测。窗口化语音的自相关使用列文逊-杜宾(Levinson-Durbin)算法被转换成LP系数。接着,LPC系数被转换成导抗谱对(ISP),且因此为了量化及内插目的而转换成导抗频谱频率(ISF)。内插的量化及非量化系数被转换回LP域以构建对于每一子帧的合成及加权滤波器。若编码主动信号帧,则使用在图5c中以510及512所指示的两个LPC分析窗口,两组LP系数在每一帧中被估计。窗口512被称作“中帧LPC窗口”,且窗口510被称作“结束帧LPC窗口”。10ms的前瞻部分514被用于帧末端自相关计算。帧结构被示出于图5c中。帧被划分为四个子帧,每一子帧具有对应于采样率12.8kHz的64个样本的5ms长度。用于帧末端分析及用于中帧分析的窗口分别以第四子帧及第二子帧为中心,如图5c中所示。长度为320个样本的汉明窗口用于窗口化。该系数在G.718,6.4.1节中被定义。自相关计算被记载于6.4.2节中。列文逊-杜宾算法被记载于第6.4.3节中,LP至ISP转换被记载于6.4.4节中,且ISP至LP转换被记载于6.4.5节中。
语音编码参数,诸如适应性码簿延迟及增益,代数码簿索引及增益通过最小化感知加权域中的输入信号与合成信号之间的误差而被搜寻。感知加权是通过经由由LP滤波器系数所导出的感知加权滤波器来对信号滤波而执行。感知加权信号也用在开回路音高分析中。
G.718编码器是仅具有单一语音编码模式的纯语音编码器。因此,G.718编码器并非切换编码器,且因此,该编码器的缺点在于其仅在核心层内提供单一的语音编码模式。因此,当这一编码器被应用于语音信号以外的其他信号,即应用于CELP编码后的模型并不适当的一般音频信号时,质量问题将出现。
另外的切换编解码器是所谓的USAC编解码器,即定义于日期为2010年9月24日的ISO/IEC CD23003-3中的统一语音及音频编解码器。该切换编解码器所用的LPC分析窗口在图5d中以516来指示。再一次假定当前帧在0到20ms之间延伸,且因此,此编解码器的前瞻部分618似乎为20ms,即明显高于G.718的前瞻部分。因此,虽然USAC编码器由于其切换性质而提供良好的音频质量,但因为图5d中的LPC分析窗口前瞻部分518,延迟是相当大的。USAC的一般结构如下。首先,有一共同预/后处理,其由处理立体声或多信道处理的MPEG环绕(MPEGS)功能单元及处理输入信号中的较高音频频率的参数表示的增强SBR(eSBR)单元所组成。接着,有两个分支,一个分支由修改的进阶音频编码(AAC)工具路径组成且另一分支由以线性预测编码(LP或LPC域)为基础的路径组成,以线性预测编码(LP或LPC域)为基础的路径转而具有LPC残余的频域表示或时域表示的特征。用于AAC及LPC的所有传输频谱在量化及算术编码之后被表示在MDCT域中。时域表示使用ACELP激励编码方案。ACELP工具通过组合长期预测器(适应性码字)与脉冲型序列(创新码字)来提供一种有效地表示时域激励信号的方式。重建的激励通过LP合成滤波器来发送以形成时域信号。ACELP工具的输入包括适应性及创新码簿索引,适应性及创新码增益值,其他控制数据及去量化和内插LPC滤波器系数。ACELP工具的输出是时域重建音频信号。
MDCT基TCX解码工具被使用来将加权LP残余表示从MDCT域变回时域信号并输出包括加权LP合成滤波的加权时域信号。IMDCT可被配置成支持256、512或1024个频谱系数。向TCX工具的输入包括(去量化)MDCT谱,以及去量化和内插LPC滤波器系数。TCX工具的输出是时域重建音频信号。
图6示出了USAC中的一种情况,其中,用于当前帧的LPC分析窗口516及用于过去或最后帧的LPC分析窗口520被绘出,且除此之外,其中,TCX窗口522被示出。TCX窗口522以在0到20ms之间延伸的当前帧的中心为中心,且延伸10ms到过去帧中以及延伸10ms到在20到40ms之间延伸的未来帧中。因此,LPC分析窗口516要求LPC前瞻部分在20到40ms之间,即20ms,而TCX分析窗口另外具有在20到30ms之间延伸进入到未来帧中的前瞻部分。这意味着USAC分析窗口516所引入的延迟为20ms,而由TCX窗口引入到编码器中的延迟为10ms。因此,清楚的是,两种窗口的前瞻部分并未彼此对齐。因此,即使TCX窗口522仅引入10ms的延迟,由于LPC分析窗口516,编码器的整个延迟仍为20ms。因此,即使TCX窗口有相当小的前瞻部分,这并未减少编码器的总算法延迟,这是因为总延迟由最高贡献决定,即等于20ms,因为LPC分析窗口516有20ms延伸到未来帧中,即不仅涵盖当前帧而且还涵盖未来帧。
发明内容
本发明的目的在于提供一种用于音频编码或解码的改善的编码概念,一方面,这提供良好的音频质量,且另一方面,这使得延迟缩短。
该目的是通过一种根据权利要求1所述的用于编码音频信号的装置,根据权利要求15所述的编码音频信号的方法,根据权利要求16所述的音频解码器,根据权利要求24所述的音频解码方法或根据权利要求25所述的计算机程序来实现。
根据本发明,具有转换编码分支及预测编码分支的切换音频编解码器方案被应用。重要地是,这两种窗口,即一方面,预测编码分析窗口,以及另一方面,转换编码分析窗口关于它们的前瞻部分是对齐的,使得转换编码前瞻部分及预测编码前瞻部分彼此是完全相同的,或彼此不同之处小于20%的预测编码前瞻部分或小于20%的转换编码前瞻部分。应指出的是,预测分析窗口不仅用在预测编码分支中,而且实际上用在两个分支中。LPC分析也用于为转换域中的噪声整形。因此,换言之,前瞻部分彼此是完全相同的或彼此相当接近。这确保最佳折衷被实现且无音频质量或延迟特征被设定成次佳方式。因此,对于分析窗口中的预测编码,已发现前瞻越高,LPC分析越好,但另一方面,延迟随着较高的前瞻部分而增大。另一方面,TCX窗口同样如此。TCX窗口的前瞻部分越高,TCX位率可越好地减少,这是因为一般而言,较长的TCX窗口导致较低的位率。因此,对照于本发明,前瞻部分彼此是完全相同的或彼此相当接近,且具体地,彼此不同之处小于20%。因此,另一方面,由于延迟原因而不希望有的前瞻部分最佳地是由编码/解码分支两者使用。
鉴于此,本发明一方面提供当两个分析窗口的前瞻部分被设定为低时具有低延迟的改善的编码概念,且另一方面提供具有良好特性的编码/解码概念,该良好特性归因于因音频质量原因或位率原因而必需被引入的延迟任何情况下最佳地由两个编码分支使用而非仅由单一编码分支使用这一事实。
一种用于编码具有音频样本流的音频信号的装置包括:窗口器,用于对所述音频样本流应用预测编码分析窗口以获得用于预测分析的窗口化数据,以及用于对所述音频样本流应用转换编码分析窗口以获得用于转换分析的窗口化数据。所述转换编码分析窗口与作为转换编码前瞻部分的音频样本的未来帧的预定前瞻部分的音频样本的当前帧的音频样本相关联。
此外,所述预测编码分析窗口与所述当前帧的所述音频样本的至少一部分以及与作为预测编码前瞻部分的所述未来帧的预定部分的音频样本相关联。
所述转换编码前瞻部分和所述预测编码前瞻部分彼此相同或者彼此不同之处小于20%的所述预测编码前瞻部分或小于20%的所述转换编码前瞻部分,且因此彼此非常接近。该装置还包括编码处理器,用于使用用于所述预测分析的所述窗口化数据来产生用于所述当前帧的预测编码数据,或者用于使用用于所述转换分析的所述窗口化数据来产生用于所述当前帧的转换编码数据。
一种用于解码编码音频信号的音频解码器包括:预测参数解码器,用于执行对来自编码音频信号的用于预测编码帧的数据的解码,以及对于第二分支,所述音频解码器包括转换参数解码器,用于执行对来自编码音频信号的用于转换编码帧的数据的解码。
转换参数解码器被配置成用于执行频谱-时间转换,该频谱-时间转换优选是混迭影响转换,诸如MDCT或MDST或任一其他此类转换;以及用于对转换数据应用合成窗口以获得用于当前帧和未来帧的数据。由音频解码器所应用的合成窗口具有第一重迭部分、相邻的第二非重迭部分以及相邻的第三重迭部分,其中,第三重迭部分与用于未来帧的音频样本相关联且非重迭部分与当前帧的数据相关联。此外,为了使解码器端具有良好的音频质量,重迭相加器被应用以将与当前帧的合成窗口的第三重迭部分相关联的合成窗口化样本和与未来帧的合成窗口的第一重迭部分相关联的合成窗口化样本重迭并相加,以获得用于未来帧的第一部分的音频样本,其中,当所述当前帧和未来帧包括转换编码数据时,未来帧的其余音频样本是与未重迭相加时所获得的未来帧的合成窗口的第二非重迭部分相关联的合成窗口化样本。
本发明的优选实施方式具有以下特征:用于转换编码分支(诸如TCX分支)和预测编码分支(诸如ACELP分支)的同一前瞻彼此是完全相同的,使得在延迟限制下,两种编码模式具有最大可用前瞻。此外,优选TCX窗口重迭被限于前瞻部分,使得从一帧到下一帧由转换编码模式到预测编码模式的切换可以是容易的,而没有任何混迭处理问题。
将重迭局限于前瞻的另一原因是为了不在解码器端引入延迟。若有具有10ms前瞻以及例如20ms重迭的TCX窗口,将会在解码器中多引入10ms的延迟。当有具有10ms前瞻以及10ms重迭的TCX窗口时,在解码器端并不会有额外的延迟。其有利的结果是较容易切换。
因此,优选分析窗口的第二非重迭部分以及当然的合成窗口延伸至当前帧末端,且第三重迭部分仅起始于未来帧。此外,TCX或转换编码分析/合成窗口的非零部分与帧的起点对齐,因此再一次可得到从一种模式到另一模式的容易且低效的切换。
此外,优选由多个子帧(诸如四个子帧)组成的完整帧可在转换编码模式(诸如TCX模式)中被完全编码或在预测编码模式(诸如ACELP模式)中被完全编码。
此外,优选不是仅使用单一LPC分析窗口而是两种不同的LPC分析窗口,其中,一种LPC分析窗口与第四子帧的中心对齐且是结束帧分析窗口,而另一分析窗口与第二子帧的中心对齐且是中帧分析窗口。若编码器被切换成转换编码,然而,则优选只发送仅基于结束帧LPC分析窗口而由LPC分析所导出的单一LPC系数数据集。此外,在解码器端,优选不直接对转换编码合成使用该LPC数据,且特别是TCX系数的频谱加权。代之,优选以由来自过去帧(即,时间恰在当前帧之前的帧)的结束帧LPC分析窗口所获得的数据内插由当前帧的结束帧LPC分析窗口所获得的TCX数据。相较于发送两个LPC系数数据集供中帧分析和结束帧分析,通过在TCX模式中仅发送关于完整帧的单一LPC系数集可获得进一步的位率减少。然而,当编码器被切换成ACELP模式时,两个LPC系数集均由编码器发送至解码器。
此外,优选中帧LPC分析窗口恰在当前帧的较后帧边界上结束,且此外,还延伸到过去帧中。这并未引入任何延迟,这是因为过去帧已经可利用且可无需任何延迟地被使用。
另一方面,优选结束帧分析窗口从当前帧内的某处而非当前帧的起点开始。然而,这是没问题的,因为对于形成TCX加权,使用过去帧的结束帧LPC数据集与当前帧的结束帧LPC数据集的平均,使得从某种意义上来说,最后所有数据都被用于计算LPC系数。因此,结束帧分析窗口的开始优选在过去帧的结束帧分析窗口的前瞻部分内。
在解码器端,由一种模式切换至另一模式获得显著减小的开销。原因在于合成窗口的非重迭部分,优选在其自身内是对称的,并不与当前帧的样本相关联而是与未来帧的样本相关联,且因此仅在前瞻部分内,即仅在未来帧中延伸。因此,合成窗口是使得仅有优选起始于当前帧正开始处的第一重迭部分在当前帧内,且第二非重迭部分从第一重迭部分末端延伸至当前帧末端,且因此,第二重迭部分与前瞻部分重合。因此,当有从TCX到ACELP的转变时,由于合成窗口的重迭部分所获得的数据简单地被去除且由从ACELP分支外的未来帧刚开始处可用的预测编码数据所取代。
另一方面,当有从ACELP到TCX的切换时,特定转变窗口被应用,该窗口恰起始于当前帧(即,刚转换后的帧)的起点,具有非重迭部分,使得任何数据都不必重建以发现重迭“伙伴”。代之,合成窗口的非重迭部分提供正确数据,而无需解码器中所需要的任何重迭及重迭相加程序。仅对于重迭部分,即,用于当前帧的窗口的第三部分以及用于下一帧的窗口的第一部分,重迭相加程序是有用的且被执行以如同在直接MDCT中一样具有从一个块到另一块的连续的淡入/淡出,以便最终获得良好的音频质量,由于在本领域也已知的术语“时域混迭消除(TDAC)”下的MDCT临界采样性质而不必增加位率。
此外,解码器有用之处还在于,对于ACELP编码模式,由编码器中的中帧窗口及结束帧窗口所导出的LPC数据被发送,而对于TCX编码模式,仅由结束帧窗口所导出的单一LPC数据集被使用。然而,对于频谱加权TCX解码数据,发送的LPC数据并未以其原状态被使用,而是所述数据与来自对于过去帧所获得的结束帧LPC分析窗口的相应数据求平均。
附图说明
后续参照附图来描述本发明的优选实施方式,其中:
图1a示出了切换音频编码器的框图;
图1b示出了相应的切换解码器的框图;
图1c示出了关于图1b中所示的转换参数解码器的更多细节;
图1d示出了关于图1a的解码器的转换编码模式的更多细节;
图2a示出了关于应用在编码器中的窗口器的优选实施方式,该窗口器一方面供LPC分析使用,且另一方面供转换编码分析使用,并且是图1b的转换编码解码器中所使用的合成窗口的表示;
图2b示出了多于两帧的时间间隔内的对齐LPC分析窗口及TCX窗口的窗口序列;
图2c示出了用于从TCX转变成ACELP的情况以及用于从ACELP转变成TCX的转变窗口;
图3a示出了图1a的编码器的更多细节;
图3b示出了用于决定一帧的编码模式的合成分析程序;
图3c示出了用于决定每一帧的模式的另一实施方式;
图4a示出了通过利用两个不同的LPC分析窗口为当前帧导出的LPC数据的计算和使用;
图4b示出了通过对编码器的TCX分支使用LPC分析窗口来窗口化而获得的LPC数据的使用;
图5a示出了用于AMR-WB的LPC分析窗口;
图5d示出了为LPC分析的目的而用于AMR-WB+的对称窗口;
图5c示出了用于G.718编码器的LPC分析窗口;
图5d示出了USAC中所使用的LPC分析窗口;以及
图6示出了相对于当前帧的LPC分析窗口的当前帧的TCX窗口。
具体实施方式
图1a示出了用于编码具有音频样本流的音频信号的装置。该音频样本或音频数据在100处进入编码器。音频数据被引入窗口器102,以用于对音频样本流应用预测编码分析窗口来获得供预测分析用的窗口化数据。窗口器102还被配置成用于对音频样本流应用转换编码分析窗口以获得供转换分析用的窗口化数据。根据实施方式,LPC窗口并未被直接应用于原始信号,而是应用于“预先加强”信号(像在AMR-WB、AMR-WB+、G718和USAC中)。另一方面,TCX窗口被直接应用于原始信号(像在USAC中)。然而,这两个窗口也可被应用于相同的信号,或者TCX窗口也可被应用于从原始信号导出(诸如通过用来增强质量或压缩效率的预先加强或任何其他加权)的处理后音频信号。
转换编码分析窗口与当前音频样本帧中的音频样本相关联,且与作为转换编码前瞻部分的未来音频样本帧的预定义部分的音频样本相关联。
此外,预测编码分析窗口与当前帧的音频样本的至少一部分相关联,且与作为预测编码前瞻部分的未来帧的预定义部分的音频样本相关联。
如框102中所概述,转换编码前瞻部分与预测编码前瞻部分彼此对齐,这意味着这些部分是完全相同的或彼此相当接近,诸如彼此不同之处小于20%的预测编码前瞻部分或小于20%的转换编码前瞻部分。优选地,前瞻部分彼此是完全相同的或彼此不同之处甚至小于5%的预测编码前瞻部分或小于5%的转换编码前瞻部分。
编码器额外包括编码处理器104,以用于使用供预测分析用的窗口化数据来产生用于当前帧的预测编码数据,或者用于使用供转换分析用的窗口化数据来产生用于当前帧的转换编码数据。
此外,编码器优选包括输出接口106,该输出接口106用于通过线108b来接收当前帧,且实际上接收每一帧的LPC数据108a和转换编码数据(诸如TCX数据)或预测编码数据(ACELP数据)。编码处理器104提供这两种数据并接收110a所指示的供预测分析用的窗口化数据以及110b所指示的供转换分析用的窗口化数据作为输入。此外,该用于编码的装置还包括编码模式选择器或控制器112,其接收音频数据100作为输入,且经由控制线114a向编码处理器104提供控制数据或经由控制线114b向输出接口106提供控制数据作为输出。
图3a提供了关于编码处理器104和窗口器102的额外细节。窗口器102优选包括,作为第一模块的LPC或预测编码分析窗口器102a以及作为第二组件或模块的转换编码窗口器(诸如TCX窗口器)102b。如箭头300所指示,LPC分析窗口与TCX窗口彼此对齐,使得这两个窗口的前瞻部分彼此是完全相同的,这意味着这两个前瞻部分延伸至相同的时刻进入未来帧。图3a中从LPC窗口器102a向前到右侧的上部分支是包括LPC分析器及内插器302、感知加权滤波器或加权块304以及预测编码参数计算器306(诸如ACELP参数计算器)的预测编码分支。音频数据100被提供给LPC窗口器102a和感知加权块304。此外,音频数据被提供给TCX窗口器,且从TCX窗口器的输出向右的下部分支构成转换编码分支。该转换编码分支包括时间-频率转换块310、频谱加权块312以及处理/量化编码块314。时频转换块310优选被实施为混迭引入转换,诸如MDCT、MDST或具有大于输出值数目的输入值数目的任一其他转换。时频转换使由TCX或一般而言,转换编码窗口器102b输出的窗口化数据作为输入。
尽管图3a指出,对于预测编码分支,LPC处理利用ACELP编码算法,但本领域已知的其他预测编码器(诸如CELP或任一其他时域编码器)也可被应用,但一方面由于其质量且另一方面由于其效率,ACELP算法是优选的。
此外,对于转换编码分支,MDCT处理特别是在时间-频率转换块310中是优选的,但任何其他频谱域转换也可被执行。
此外,图3a示出了频谱加权312,以用于将块310所输出的频谱值转换到LPC域。该频谱加权312在预测编码分支中使用由块302产生的从LPC分析数据导出的加权数据来执行。然而,可选择地,从时域转换到LPC域也可在时域中执行。在该情况下,LPC分析滤波器将被置于TCX窗口器102b之前以计算预测残余时域数据。然而,已发现从时域转换到LPC域优选是在频谱域中通过使用在频谱域(诸如MDCT域)中从LPC数据转换成相应的加权因子的LPC分析数据来频谱加权转换编码数据而被执行的。
图3b示出了用于说明对于每一帧的编码模式的合成分析或“闭合回路”决定的一般概览。为此,图3c中所示的编码器包括完整的转换编码编码器和转换编码解码器,如104b所示,且另外包括完整的预测编码编码器和相应的解码器,如图3c中的104a所指示。两个块104a、104b均接收音频数据作为输入且执行完整的编码/解码操作。接着,用于两个编码分支104a、104b的编码/解码操作的结果与原始信号相比较,并确定质量测量值以找出哪一编码模式产生更好的质量。该质量测量值可以是分段SNR值或平均分段SNR,举例而言,诸如在3GPP TS26.290的5.2.3节中所记载。然而,任何其他质量测量值也可被应用,这通常依赖于编码/解码结果与原始信号的比较。
基于从每一分支104a、104b提供给确定器112的质量测量值,该确定器确定当前检验的帧是否将使用ACELP或TCX来编码。继该确定之后,有几种方式来执行编码模式选择。一种方式是确定器112控制相应的编码器/解码器块104a、104b,以简单地向输出接口106输出当前帧的编码结果,使得确保对于某一帧,仅单一的编码结果在输出编码信号107中被发送。
可选择地,两个装置104a、104b可将它们准备的编码结果转发至输出接口106,且两个结果被存储在输出接口106中,直到确定器经由线105控制输出接口以从块104b或从块104a输出该结果。
图3b示出了关于图3c的概念的更多细节。具体地,块104a包括完整的ACELP编码器和完整的ACELP解码器以及比较器112a。比较器112a向比较器112c提供质量测量值。比较器112b也是如此,其具有由于TCX编码和再次解码信号与原始音频信号的比较的质量测量值。随后,两个比较器112a、112b向最终比较器112c提供它们的质量测量值。根据哪一质量测量值较好,比较器决定CELP或TCX决策。该决策可通过将额外因素引入决策而被改进。
可选择地,用于基于对于当前帧的音频信号的信号分析来确定当前帧的编码模式的开回路模式可被执行。在该情况下,图3c的确定器112将执行当前帧的音频数据的信号分析,且接着将控制ACELP编码器或TCX编码器以实际编码当前音频帧。在该情况下,编码器将不需要完整的解码器,而是单独在编码器内实施编码步骤即足够。开回路信号分类和信号决策例如也在AMR-WB+(3GPP TS26.290)中记载。
图2a示出了窗口器102且特别是由窗口器供给的窗口的优选实施。
优选地,当前帧的预测编码分析窗口以第四子帧的中心为中心,且该窗口以200来指示。此外,优选使用另外的LPC分析窗口,即202所指示的且以当前帧的第二子帧的中心为中心的中帧LPC分析窗口。此外,转换编码窗口,举例而言,诸如MDCT窗口204相对于两个LPC分析窗口200、202而被安置,如图所示。具体地,分析窗口的前瞻部分206与预测编码分析窗口的前瞻部分208在时间长度上是相同的。两个前瞻部分延伸10ms到未来帧中。此外,优选转换编码分析窗口不仅具有重迭部分206,而且具有在10与20ms之间的非重迭部分208和第一重迭部分210。重迭部分206和210使得解码器中的重迭相加器在重迭部分中执行重迭相加处理,但重迭相加程序对非重迭部分是不需要的。
优选地,第一重迭部分210从帧起点(即,0ms)开始并延伸至帧中心(即,10ms)为止。此外,非重迭部分从帧210的第一部分末端延伸至20ms处的帧末端,使得第二重迭部分206与前瞻部分完全重合。因为从一种模式切换成另一模式,这具有优势。从TCX性能观点来看,较好的是使用具有完全重迭(20ms重迭,如在USAC中)的正弦窗口。然而,对于在TCX与ACELP之间转变,这将需要一种技术,如正向混迭消除。正向混迭消除在USAC中使用,以消除由缺失的下一TCX帧所引入的混迭(被ACELP取代)。正向混迭消除需要大量的位,且因此,并不适于恒定的位率,且特别是低位率编解码器,如所述编解码器的优选实施方式。因此,根据本发明的实施方式,不使用FAC,TCX窗口重迭被减少且窗口向未来移动,使得完全重迭部分206位于未来帧中。此外,当下一帧是ACELP时,图2a中所示的用于转换编码的窗口仍然具有最大重迭,以在当前帧中接收完美重建,且无需使用正向混迭消除。该最大重迭优选被设定成10ms,它是可用的前瞻时间(即,10ms),从图2a中可清楚地看出。
虽然图2a已针对编码器而被描述,其中,用于转换编码的窗口204是分析窗口,但应指出的是,窗口204也表示用于转换解码的合成窗口。在优选实施方式中,分析窗口等同于合成窗口,且两个窗口本身是对称的。这意味着两个窗口相对于(水平)中心线是对称的。然而,在其他应用中,非对称窗口可被使用,其中,分析窗口与合成窗口在形状上是不同的。
图2b示出了过去帧的一部分、后续紧接的当前帧、后续紧接当前帧的未来帧以及后续紧接该未来帧的下一未来帧的窗口序列。
清楚的是,250所示的通过重迭相加处理器所处理的重迭相加部分从每一帧的起点延伸至每一帧的中间,即20到30ms之间,以用于计算未来帧数据,以及40到50ms之间以用于计算下一未来帧的TCX数据,或0到10ms之间以用于计算关于当前帧的数据。然而,对于计算每一帧的第二半部中的数据,无重迭相加,且因此,正向混迭消除技术不是必需的。这是因为合成窗口在每一帧的第二半部中具有非重迭部分这一事实。
典型地,MDCT窗口的长度是帧长度的2倍。本发明中也是这种情况。然而,当图2a被再度考虑时,变得清楚的是,分析/合成窗口仅从零延伸到30ms,但窗口的完整长度是40ms。该完整长度对提供输入数据以用于MDCT计算的相应的折迭或展开操作是重要的。为了将窗口延伸到14ms的完整长度,5ms的零值被添加到-5到0ms之间,且5秒的MDCT零值也被添加到30到35ms之间的帧末端。然而,就延迟考虑而言,仅具有零的该添加部分并不起任何作用,因为对编码器或解码器已知的是窗口的最后5ms和窗口最早的5ms是零,因此该数据已经存在且无任何延迟。
图2c示出了两个可能的转变。然而,对于从TCX至ACELP的转变,无需特别关注,这是因为当参照图2a假定未来帧是ACELP帧时,则通过TCX解码前瞻部分206的最后帧所获得的数据可简单地被删除,这是因为ACELP帧恰在未来帧的起点开始,且因此,不存在数据孔。ACELP数据是自相一致的,且因此,解码器当从TCX切换成ACELP时使用从TCX对于当前帧所算出的数据,丢弃对于未来帧的由TCX处理所获得的数据,且代之以使用来自ACELP分支的未来帧数据。
然而,当从ACELP至TCX的转变被执行时,如图2c中所示的特定转变窗口被使用。该窗口由从0到1的帧的起点开始,具有非重迭部分220且末端具有222所指示的重迭部分,该重迭部分与直接MDCT窗口的重迭部分206完全一样。
此外,该窗口在窗口的起点于-12.5ms到0之间且在窗口的末端于30到35.5ms之间(即,前瞻部分222之后)用零填充。这导致增加的转换长度。长度为50ms,但直接分析/合成窗口的长度仅为40ms。然而,这并未降低效率或增加位率,且该较长的转换在发生从ACELP切换成TCX时是必要的。相应的解码器中所使用的转变窗口与图2c中所示的窗口完全相同。
随后,解码器被更加详细地讨论。图1b示出了用于解码编码音频信号的音频解码器。该音频解码器包括预测参数解码器180,其中,该预测参数解码器被配置成用于执行来自在181处接收并被输入至接口182的编码音频信号的预测编码帧的数据的解码。解码器另外包括转换参数解码器183,以用于执行来自线181上的编码音频信号的转换编码帧的数据的解码。该转换参数解码器被配置成优选用于执行混迭影响的频谱-时间转换,且用于对转换数据应用合成窗口以获得当前帧及未来帧的数据。合成窗口具有第一重迭部分、相邻的第二非重迭部分以及相邻的第三重迭部分,如图2a中所示,其中,第三重迭部分仅与未来帧的音频样本相关联,且非重迭部分仅与当前帧的数据相关联。此外,重迭相加器184被提供用于将与用于当前帧的合成窗口的第三重迭部分相关联的合成窗口样本和与用于未来帧的合成窗口的第一重迭部分相关联的样本的合成窗口重迭及相加,以获得未来帧的第一部分的音频样本。其余用于未来帧的音频样本是与未来帧的合成窗口的第二非重迭部分相关联的合成窗口化样本,在当前帧及未来帧包括转换编码数据时该合成窗口化样本是在无重迭相加下获得的。然而,当发生从一帧切换成下一帧时,组合器185是有帮助的,它必须照顾从一种编码模式到另一编码模式的良好转换,以最终在组合器185的输出处获得解码音频数据。
图1c示出了关于转换参数解码器183的结构的更多细节。
该解码器包括解码器处理级183a,其被配置成用于执行解码编码频谱数据所必需的所有处理,诸如算术解码或霍夫曼解码或一般而言,熵解码和后续的解量化、噪声填充等,以在块183的输出处获得解码频谱值。这些频谱值被输入到频谱加权器183b中。频谱加权器183b从LPC加权数据计算器183c接收频谱加权数据,LPC加权数据计算器183c被馈送从由预测分析块在编码器端所产生的且经由输入接口182在解码器处接收的LPC数据。随后,反频谱转换被执行,其优选地包括DCT-IV反转换183d作为第一级以及后续的在用于未来帧的数据例如被提供给重迭相加器184之前的去折迭和合成窗口化处理183e。当用于下一未来帧的数据可用时,该重迭相加器可执行重迭相加操作。块183d和183e一起构成频谱/时间转换,或在图1c中的实施方式中,优选MDCT反转换(MDCT-1)。
具体地,块183d接收20ms帧的数据,且在块183e的去折迭步骤中增加数据容量为40ms的数据,即之前数据量的两倍,且随后,具有40ms长度(当窗口起点及结束的零部分加在一起时)的合成窗口被应用于这些40ms的数据。接着,在块183e的输出处,用于当前块的数据和用于未来块的前瞻部分内的数据是可用的。
图1d示出了相应的编码器端处理。在图1d背景下讨论的特征在编码处理器104中被实施或通过图3a中的相应块来实施。图3a中的时间-频率转换310优选被实施为MDCT且包括窗口化、折迭级310a,其中,块310a中的窗口化操作通过TCX窗口器103d来实施。因此,图3a中的块310中的实际第一操作是折迭操作,以使40ms的输入数据恢复成20ms的帧数据。接着,利用现在具有已接收的混迭贡献的折迭数据执行DCT-IV,如块310d中所示。块302(LPC分析)向(LPC至MDCT)块302b提供使用结束帧LPC窗口从分析导出的LPC数据,且块302d通过频谱加权器312产生用于执行频谱加权的加权因子。优选地,TCX编码模式中的用于一个20ms帧的16个LPC系数优选通过使用oDFT(奇数离散傅里叶转换)被转换成16个MDCT-域加权因子。对于其他模式,诸如具有8kHz采样率的NB模式,LPC系数的数目可以较少,诸如10。对于具有较高采样率的其他模式,也可以有多于16个的LPC系数。该oDFT的结果是16个加权值,且每一加权值与由块310b获得的频谱数据的频带相关联。频谱加权通过将一个频带的所有MDCT频谱值除以与该频带相关联的同一加权值来进行,以便非常高效地在块312中执行该频谱加权操作。因此,16个频带的MDCT值各自除以相应的加权因子以输出频谱加权的频谱值,该频谱加权的频谱值接着如本领域所熟知地进一步由块314处理,即例如通过量化和熵编码进一步处理。
另一方面,在解码器端,对应于图1d中的块312的频谱加权将是由图1c中所示的频谱加权器183b执行的乘法运算。
随后,图4a和图4b被讨论,以概述图2中所示由LPC分析窗口产生或由两个LPC分析窗口产生的LPC数据如何在ACELP模式或在TCX/MDCT模式中被使用。
继应用LPC分析窗口之后,自相关计算利用LPC窗口化数据来执行。接着,列文逊-杜宾算法被应用在自相关函数上。随后,用于每一LP分析的16个LP系数,即用于中帧窗口的16个系数和用于结束帧窗口的16个系数,被转换成ISP值。因此,从自相关计算到ISP转换的步骤例如在图4a的块400中被执行。随后,该计算在编码器端通过ISP系数的量化来继续。接着,ISP系数再次被去量化并转换回LP系数域。因此,LPC数据或换句话说,16个与块400中所导出的LPC系数稍有不同(由于量化和去量化)的LPC系数被获得,它们可随后直接被用于第四子帧,如步骤401中所指示。然而,对于其他子帧,优选执行若干内插,例如,如Rec.ITU-T G.718(06/2008)的6.8.3节中所概述。用于第三子帧的LPC数据通过内插结束帧和中帧LPC数据而被算出,如块402所示。优选的内插是每一相应的数据被除以2并加在一起,即结束帧与中帧LPC数据的平均。为计算第二子帧的LPC数据,如块403中所示,内插额外被执行。具体地,最后帧的结束帧LPC数据值的10%,当前帧的中帧LPC数据的80%以及当前帧的结束帧的LPC数据值的10%被使用,以最终计算第二子帧的LPC数据。
最终,通过形成最后帧的结束帧LPC数据与当前帧的中帧LPC数据之间的平均值,第一子帧的LPC数据被算出,如块404中所指示。
为执行ACELP编码,量化的LPC参数集(即,来自中帧分析)和结束帧分析被发送至解码器。
基于通过块401至404所算出的各个子帧的结果,ACELP计算被执行,如块405中所指示,以获得要被发送至解码器的ACELP数据。
随后,图4b被描述。在块400中,中帧和结束帧LPC数据再次被算出。然而,由于有TCX编码模式,所以仅结束帧LPC数据被发送至解码器且中帧LPC数据并未被发送至解码器。具体地,并未将LPC系数本身发送至解码器,而是发送ISP转换及量化后所获得的值。因此,优选地,如LPC数据一样,由结束帧LPC数据系数所导出的量化ISP值被发送至解码器。
然而,在编码器中,步骤406至408中的程序仍然被执行,以获得用于加权当前帧的MDCT频谱数据的加权因子。为此,当前帧的结束帧LPC数据和过去帧的结束帧LPC数据被内插。然而,优选并不内插由LPC分析直接导出的LPC数据系数本身。而是优选内插由相应的LPC系数所导出的量化和再去量化的ISP值。因此,块406中所用的LPC数据以及块401至404中的其他计算所用的LPC数据始终是优选由每一LPC分析窗口的原始16个LPC系数所导出的量化和再去量化的ISP数据。
块406中的内插优选是纯平均化,即相应的值被相加并除以2。接着,在块407中,当前帧的MDCT频谱数据使用内插LPC数据来加权,且在块408中,加权频谱数据的进一步处理被执行,以最终获得要从编码器发送至解码器的编码频谱数据。因此,步骤407中所执行的程序对应于块312,且图4d中的块408中所执行的程序对应于图4d中的块314。相应的操作实际上在解码器端被执行。因此,在解码器端需要相同的内插以便一方面计算频谱加权因子或另一方面通过内插来计算各个子帧的LPC系数。因此,图4a和图4b相对于块401至404或图4b的406中的程序而言同等地适用于解码器端。
本发明对低延迟编解码器实施尤其有用。这意指此类编解码器被设计成算法或系统延迟优选低于45ms,且在某些情况下,甚至等于或低于35ms。然而,LPC分析和TCX分析的前瞻部分对获得良好的音频质量是必要的。因此,在两个矛盾要求之间的良好折衷是必要的。已发现一方面延迟与另一方面质量之间的良好折衷可通过具有20ms帧长度的切换音频编码器或解码器来获得,但也发现,15到30ms之间的帧长度值也提供了可接受的结果。另一方面,已发现当就延迟问题而论时,10ms的前瞻部分是可接受的,但视相应的应用而定,5ms到20ms之间的值也是有用的。此外,已发现当值为0.5时,前瞻部分与帧长度之间的关系是有用的,但0.4到0.6之间的其他值也是有用的。此外,尽管本发明已一方面就ACELP且另一方面就MDCT-TCX而被描述,但在时域中操作的其他算法(诸如CELP或任何其他预测或波形算法)也是有用的。至于TCX/MDCT,其他转换域编码算法(诸如MDST)或任何其他基于转换的算法也可被应用。
对LPC分析和LPC计算的特定实施也是如此。优选依赖于之前所述的程序,但用于计算/内插和分析的其他程序也可被使用,只要那些程序依赖于LPC分析窗口。
尽管已在装置背景下描述了一些方面,但明确的是,这些方面还表示对相应方法的描述,其中,块或装置对应于方法步骤或方法步骤的特征。类似地,在方法步骤背景下描述的方面还表示对相应设备的相应块或项目或者特征的描述。
根据具体实施要求,本发明的实施方式可以硬件或软件来实施。可使用其上存储有电可读控制信号且该信号与可编程计算机系统协作(或能够协作)的数字存储介质(例如,软盘、DVD、CD、ROM、PROM、EPROM、EEPROM或闪存)来执行该实施,从而执行相应方法。
根据本发明的某些实施方式包括非临时性数据载体,该数据载体具有能与可编程计算机系统协作从而执行本文所述方法中的一种的电可读控制信号。
一般地,本发明的实施方式可被实施为具有程序代码的计算机程序产品,当该计算机程序产品在计算机上运行时,该程序代码可操作地用于执行所述方法中的一种。该程序代码例如可存储在机器可读载体上。
其他实施方式包括用于执行本文所述方法之一的计算机程序,所述计算机程序存储在机器可读载体上。
因此,换句话说,本发明方法的一种实施方式是具有程序代码的计算机程序,当该计算机程序在计算机上运行时,该程序代码用于执行本文所述的方法之一。
因此,本发明方法的另一实施方式是包括记录其中的用于执行本文所述方法之一的计算机程序的数据载体(或数字存储介质,或者计算机可读介质)。
因此,本发明方法的另一实施方式是表示用于执行本文所述方法之一的计算机程序的数据流或一系列信号。该数据流或一系列信号例如可被配置为经由数据通信连接(例如,经由互联网)传送。
另一实施方式包括处理装置(例如,计算机或可编程逻辑器件),该处理装置被配置为或适用于执行本文所述方法之一。
另一实施方式包括计算机,该计算机上安装有用于执行本文所述方法之一的计算机程序。
在某些实施方式中,可编程逻辑器件(例如,现场可编程门阵列)可被用于执行本文所述的方法的某些或所有功能。在某些实施方式中,现场可编程门阵列可与微处理器协作,以执行本文所述方法之一。一般地,该方法优选由任何硬件设备执行。
上述实施方式仅说明了本发明的原理。应理解,本文所述的配置和细节的修改和变更对于本领域其他技术人员而言将是显而易见的。因此,本发明意在仅由所附专利权利要求的范围来限定,而非由本文中通过实施方式的描述和说明给出的具体细节来限定。

Claims (25)

1.一种用于编码具有音频样本流(100)的音频信号的装置,包括:
窗口器(102),用于对所述音频样本流应用预测编码分析窗口(200)以获得用于预测分析的窗口化数据,以及用于对所述音频样本流应用转换编码分析窗口(204)以获得用于转换分析的窗口化数据,
其中,所述转换编码分析窗口与音频样本的当前帧内的音频样本以及与作为转换编码前瞻部分(206)的音频样本的未来帧的预定部分的音频样本相关联,
其中,所述预测编码分析窗口与所述当前帧的所述音频样本的至少一部分以及与作为预测编码前瞻部分(208)的所述未来帧的预定部分的音频样本相关联,
其中,所述转换编码前瞻部分(206)和所述预测编码前瞻部分(208)彼此相同或者彼此不同之处小于20%的所述预测编码前瞻部分(208)或小于20%的所述转换编码前瞻部分(206);以及
编码处理器(104),用于使用用于所述预测分析的所述窗口化数据来产生用于所述当前帧的预测编码数据,或者用于使用用于所述转换分析的所述窗口化数据来产生用于所述当前帧的转换编码数据。
2.根据权利要求1所述的装置,其中,所述转换编码分析窗口(204)包括在所述转换编码前瞻部分(206)中延伸的非重迭部分。
3.根据权利要求1或2所述的装置,其中,所述转换编码分析窗口(204)包括在所述当前帧的起点开始且在所述非重迭部分(208)的起点结束的另一重迭部分(210)。
4.根据权利要求1所述的装置,其中,所述窗口器(102)被配置成仅使用起始窗口(220,222)来用于从一帧到下一帧由预测编码到转换编码的转变,其中,所述起始窗口未被用于从一帧到下一帧由转换编码到预测编码的转变。
5.根据前述权利要求中任一项所述的装置,进一步包括:
输出接口(106),用于输出用于所述当前帧的编码信号;以及
编码模式选择器(112),用于控制所述编码处理器(104)以输出用于所述当前帧的预测编码数据或转换编码数据,
其中,所述编码模式选择器(112)被配置成对于整个帧仅在预测编码或转换编码之间切换,使得用于所述整个帧的编码信号包括预测编码数据或转换编码数据。
6.根据前述权利要求中任一项所述的装置,
其中,所述窗口器(102)除了使用所述预测编码分析窗口之外,还使用与被置于所述当前帧的起点的音频样本相关联的另一预测编码分析窗口(202),且其中,所述预测编码分析窗口(200)不与被置于所述当前帧的起点的音频样本相关联。
7.根据前述权利要求中任一项所述的装置,
其中,所述帧包括多个子帧,其中,所述预测分析窗口(200)以子帧的中心为中心,且其中,所述转换编码分析窗口以两个子帧之间的边界为中心。
8.根据权利要求7所述的装置,
其中,所述预测分析窗口(200)以所述帧的最后子帧的中心为中心,其中,所述另一分析窗口(202)以所述当前帧的第二子帧的中心为中心,且其中,所述转换编码分析窗口以所述当前帧的第三子帧与第四子帧之间的边界为中心,其中,所述当前帧被细分为四个子帧。
9.根据前述权利要求中任一项所述的装置,其中,另一预测编码分析窗口(202)在所述未来帧中没有前瞻部分,且与所述当前帧的样本相关联。
10.根据前述权利要求中任一项所述的装置,其中,所述转换编码分析窗口另外包括在所述窗口的起点之前的零部分以及在所述窗口的末端之后的零部分,使得所述转换编码分析窗口的全部时间长度是所述当前帧的时间长度的两倍。
11.根据权利要求10所述的装置,其中,对于从一帧到下一帧由所述预测编码模式到所述转换编码模式的转变,转变窗口被所述窗口器(102)使用,
其中,所述转变窗口包括在所述帧的起点开始的第一非重迭部分以及在所述非重迭部分的末端开始并延伸到所述未来帧中的重迭部分,
其中,延伸到所述未来帧中的所述重迭部分具有与所述分析窗口的所述转换编码前瞻部分的长度相同的长度。
12.根据前述权利要求中任一项所述的装置,其中,所述转换编码分析窗口的时间长度大于所述预测编码分析窗口(200,202)的时间长度。
13.根据前述权利要求中任一项所述的装置,进一步包括:
输出接口(106),用于输出用于所述当前帧的编码信号;以及
编码模式选择器(112),用于控制所述编码处理器(104)以输出用于所述当前帧的预测编码数据或转换编码数据,
其中,所述窗口(102)被配置成使用位于所述当前帧中的在所述预测编码窗口之前的另一预测编码窗口,并且
其中,所述编码模式选择器(112)被配置成控制所述编码处理器(104),以便在所述转换编码数据被输出至所述输出接口时仅转发从所述预测编码窗口导出的预测编码分析数据,且不转发从所述另一预测编码窗口导出的预测编码分析数据,以及
其中,所述编码模式选择器(112)被配置成控制所述编码处理器(104)以转发从所述预测编码窗口导出的预测编码分析数据,并在所述预测编码数据被输出至所述输出接口时,转发从所述另一预测编码窗口导出的所述预测编码分析数据。
14.根据前述权利要求中任一项所述的装置,其中,所述编码处理器(104)包括:
预测编码分析器(302),用于从用于预测分析的所述窗口化数据(100a)导出用于所述当前帧的预测编码数据;
预测编码分支,包括:
滤波器级(304),用于使用所述预测编码数据从用于所述当前帧的所述音频样本计算滤波器数据;以及
预测编码器参数计算器(306),用于计算用于所述当前帧的预测编码参数;以及
转换编码分支,包括:
时间-频谱转换器(310),用于将用于转换编码算法的窗口数据转换成频谱表示;
频谱加权器(312),用于使用从所述预测编码数据导出的加权的加权数据来加权频谱数据以获得加权频谱数据;以及
频谱数据处理器(314),用于处理所述加权频谱数据以获得用于所述当前帧的转换编码数据。
15.一种编码具有音频样本流(100)的音频信号的方法,包括:
对所述音频样本流应用(102)预测编码分析窗口(200)以获得用于预测分析的窗口化数据,以及对所述音频样本流应用转换编码分析窗口(204)以获得用于转换分析的窗口化数据,
其中,所述转换编码分析窗口与音频样本的当前帧内的音频样本以及与作为转换编码前瞻部分(206)的音频样本的未来帧的预定部分的音频样本相关联,
其中,所述预测编码分析窗口与所述当前帧的所述音频样本的至少一部分以及与作为预测编码前瞻部分(208)的所述未来帧的预定部分的音频样本相关联,
其中,所述转换编码前瞻部分(206)和所述预测编码前瞻部分(208)彼此相同或者彼此不同之处小于20%的所述预测编码前瞻部分(208)或小于20%的所述转换编码前瞻部分(206);以及
使用用于所述预测分析的所述窗口化数据来产生(104)用于所述当前帧的预测编码数据,或者使用用于所述转换分析的所述窗口化数据来产生用于所述当前帧的转换编码数据。
16.一种用于解码编码音频信号的音频解码器,包括:
预测参数解码器(180),用于执行对来自所述编码音频信号的用于预测编码帧的数据的解码;
转换参数解码器(183),用于执行对来自所述编码音频信号的用于转换编码帧的数据的解码,
其中,所述转换参数解码器(183)被配置成用于执行频谱-时间转换和用于对转换数据应用合成窗口以获得用于所述当前帧和未来帧的数据,所述合成窗口具有第一重迭部分、相邻的第二重迭部分以及相邻的第三重迭部分(206),所述第三重迭部分与用于所述未来帧的音频样本相关联,且非重迭部分(208)与所述当前帧的数据相关联;以及
重迭相加器(184),用于将与用于所述当前帧的合成窗口的所述第三重迭部分相关联的合成窗口化样本和与用于所述未来帧的合成窗口的所述第一重迭部分相关联的合成窗口化样本重迭并相加,以获得用于所述未来帧的音频样本的第一部分,其中,当所述当前帧和所述未来帧包括转换编码数据时,用于所述未来帧的其余的所述音频样本是与没有重迭相加而获得的用于所述未来帧的所述合成窗口的所述第二非重迭部分相关联的合成窗口化样本。
17.根据权利要求16所述的音频解码器,其中,所述编码音频信号的所述当前帧包括转换编码数据,且所述未来帧包括预测编码数据,其中,所述转换参数解码器(183)被配置成使用用于所述当前帧的所述合成窗口来执行合成窗口化,以获得与所述合成窗口的所述非重迭部分(208)相关联的窗口化音频样本,其中,与用于所述当前帧的所述合成窗口的所述第三重迭部分相关联的合成窗口化音频样本被去除,并且
其中,用于所述未来帧的音频样本由所述预测参数解码器(180)来提供,而没有来自所述转换参数解码器(183)的数据。
18.根据权利要求16或17所述的音频解码器,
其中,所述当前帧包括预测编码数据,且所述未来帧包括转换编码数据,
其中,所述转换参数解码器(183)被配置成使用不同于所述合成窗口的转变窗口,
其中,所述转变窗口(220,222)包括在所述未来帧的起点处的第一非重迭部分(220)以及在所述未来帧的末端开始并延伸到时间上在所述未来帧之后的帧中的重迭部分(222),并且
其中,用于所述未来帧的所述音频样本在无重迭下产生,且与用于所述未来帧的窗口的所述第二重迭部分(222)相关联的音频数据由所述重迭相加器(184)使用用于在所述未来帧之后的所述帧的所述合成窗口的所述第一重迭部分来计算。
19.根据权利要求16至18中任一项所述的音频解码器,
其中,所述转换参数计算器(183)包括:
频谱加权器(183b),用于使用预测编码数据来加权用于所述当前帧的解码转换频谱数据;以及
预测编码加权数据计算器(183c),用于通过组合从过去帧导出的预测编码数据与从所述当前帧导出的预测编码数据的加权总和来计算所述预测编码数据,以获得内插预测编码数据。
20.根据权利要求19所述的音频解码器,
其中,所述预测编码加权数据计算器(183c)被配置成将所述预测编码数据转换成具有用于每一频带的加权值的频谱表示,并且
其中,所述频谱加权器(183b)被配置成通过用于频带的同一加权值加权该频带中的所有频谱值。
21.根据权利要求16至19中任一项所述的音频解码器,其中,所述合成窗口被配置成具有小于50ms且大于25ms的总时间长度,其中,所述第一重迭部分和所述第三重迭部分具有相同的长度,且其中,所述第三重迭部分具有小于15ms的长度。
22.根据权利要求16至21中任一项所述的音频解码器,
其中,所述合成窗口具有无零填充部分的30ms的长度,所述第一重迭部分和所述第三重迭部分各自具有10ms的长度,且所述非重迭部分具有10ms的长度。
23.根据权利要求16至22中任一项所述的音频解码器,
其中,所述转换参数解码器(183)被配置成对于所述频谱-时间转换,应用具有对应于帧长度的样本数目的DCT转换(183d)和用于产生是所述DCT之前的时间值数目的两倍的时间值数目的去折迭操作(183e),以及
对所述去折迭操作的结果应用(183e)所述合成窗口,其中,所述合成窗口包括,在所述第一重迭部分之前且在所述第三重迭部分之后具有所述第一重迭部分和所述第三重迭部分的长度的一半的长度的零部分。
24.一种解码编码音频信号的方法,包括:
执行(180)对来自所述编码音频信号的用于预测编码帧的数据的解码;
由所述编码音频信号,
其中,执行(183)对用于转换编码帧的数据的解码的步骤包括执行频谱-时间转换和对转换数据应用合成窗口以获得用于所述当前帧和未来帧的数据,所述合成窗口具有第一重迭部分、相邻的第二重迭部分以及相邻的第三重迭部分(206),所述第三重迭部分与用于所述未来帧的音频样本相关联,且所述非重迭部分(208)与所述当前帧的数据相关联;以及
将与用于所述当前帧的合成窗口的所述第三重迭部分相关联的合成窗口化样本和与用于所述未来帧的合成窗口的所述第一重迭部分相关联的合成窗口化样本重迭并相加(184),以获得用于所述未来帧的音频样本的第一部分,其中,当所述当前帧和所述未来帧包括转换编码数据时,用于所述未来帧的其余的所述音频样本是与没有重迭相加而获得的用于所述未来帧的所述合成窗口的所述第二非重迭部分相关联的合成窗口化样本。
25.一种具有程序代码的计算机程序,所述程序代码当在计算机上运行时,用于执行根据权利要求15所述的编码音频信号的方法或根据权利要求24所述的解码音频信号的方法。
CN201280018282.7A 2011-02-14 2012-02-14 用于使用对齐的前瞻部分将音频信号编码及解码的装置与方法 Active CN103503062B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510490977.0A CN105304090B (zh) 2011-02-14 2012-02-14 使用对齐的前瞻部分将音频信号编码及解码的装置与方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201161442632P 2011-02-14 2011-02-14
US61/442,632 2011-02-14
PCT/EP2012/052450 WO2012110473A1 (en) 2011-02-14 2012-02-14 Apparatus and method for encoding and decoding an audio signal using an aligned look-ahead portion

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN201510490977.0A Division CN105304090B (zh) 2011-02-14 2012-02-14 使用对齐的前瞻部分将音频信号编码及解码的装置与方法

Publications (2)

Publication Number Publication Date
CN103503062A true CN103503062A (zh) 2014-01-08
CN103503062B CN103503062B (zh) 2016-08-10

Family

ID=71943595

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201510490977.0A Active CN105304090B (zh) 2011-02-14 2012-02-14 使用对齐的前瞻部分将音频信号编码及解码的装置与方法
CN201280018282.7A Active CN103503062B (zh) 2011-02-14 2012-02-14 用于使用对齐的前瞻部分将音频信号编码及解码的装置与方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201510490977.0A Active CN105304090B (zh) 2011-02-14 2012-02-14 使用对齐的前瞻部分将音频信号编码及解码的装置与方法

Country Status (19)

Country Link
US (1) US9047859B2 (zh)
EP (3) EP4243017A3 (zh)
JP (1) JP6110314B2 (zh)
KR (2) KR101698905B1 (zh)
CN (2) CN105304090B (zh)
AR (3) AR085221A1 (zh)
AU (1) AU2012217153B2 (zh)
BR (1) BR112013020699B1 (zh)
CA (1) CA2827272C (zh)
ES (1) ES2725305T3 (zh)
MX (1) MX2013009306A (zh)
MY (1) MY160265A (zh)
PL (1) PL2676265T3 (zh)
PT (1) PT2676265T (zh)
SG (1) SG192721A1 (zh)
TR (1) TR201908598T4 (zh)
TW (2) TWI479478B (zh)
WO (1) WO2012110473A1 (zh)
ZA (1) ZA201306839B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107481726A (zh) * 2013-09-30 2017-12-15 皇家飞利浦有限公司 对音频信号进行重采样以用于低延迟编码/解码
CN112133315A (zh) * 2014-07-29 2020-12-25 奥兰吉公司 确定用于编码lpd/fd过渡帧的预算
CN112970063A (zh) * 2018-10-29 2021-06-15 杜比国际公司 用于利用生成模型的码率质量可分级编码的方法及设备

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9972325B2 (en) 2012-02-17 2018-05-15 Huawei Technologies Co., Ltd. System and method for mixed codebook excitation for speech coding
MX340634B (es) * 2012-09-11 2016-07-19 Ericsson Telefon Ab L M Generacion de confort acustico.
US9129600B2 (en) * 2012-09-26 2015-09-08 Google Technology Holdings LLC Method and apparatus for encoding an audio signal
SG11201509526SA (en) 2014-07-28 2017-04-27 Fraunhofer Ges Forschung Apparatus and method for selecting one of a first encoding algorithm and a second encoding algorithm using harmonics reduction
FR3024582A1 (fr) * 2014-07-29 2016-02-05 Orange Gestion de la perte de trame dans un contexte de transition fd/lpd
KR102413692B1 (ko) * 2015-07-24 2022-06-27 삼성전자주식회사 음성 인식을 위한 음향 점수 계산 장치 및 방법, 음성 인식 장치 및 방법, 전자 장치
KR102192678B1 (ko) 2015-10-16 2020-12-17 삼성전자주식회사 음향 모델 입력 데이터의 정규화 장치 및 방법과, 음성 인식 장치
CA3011915C (en) 2016-01-22 2021-07-13 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for estimating an inter-channel time difference
US10249307B2 (en) * 2016-06-27 2019-04-02 Qualcomm Incorporated Audio decoding using intermediate sampling rate
US11955138B2 (en) * 2019-03-15 2024-04-09 Advanced Micro Devices, Inc. Detecting voice regions in a non-stationary noisy environment

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101611440A (zh) * 2007-01-05 2009-12-23 法国电信 一种使用加权窗的低延时变换编码
WO2010003563A1 (en) * 2008-07-11 2010-01-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder and decoder for encoding and decoding audio samples
WO2010003663A1 (en) * 2008-07-11 2010-01-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder and decoder for encoding frames of sampled audio signals

Family Cites Families (123)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2225321T3 (es) 1991-06-11 2005-03-16 Qualcomm Incorporated Aparaato y procedimiento para el enmascaramiento de errores en tramas de datos.
US5408580A (en) 1992-09-21 1995-04-18 Aware, Inc. Audio compression system employing multi-rate signal analysis
BE1007617A3 (nl) 1993-10-11 1995-08-22 Philips Electronics Nv Transmissiesysteem met gebruik van verschillende codeerprincipes.
US5784532A (en) 1994-02-16 1998-07-21 Qualcomm Incorporated Application specific integrated circuit (ASIC) for performing rapid speech compression in a mobile telephone system
CN1090409C (zh) 1994-10-06 2002-09-04 皇家菲利浦电子有限公司 采用不同编码原理的传送系统
US5537510A (en) 1994-12-30 1996-07-16 Daewoo Electronics Co., Ltd. Adaptive digital audio encoding apparatus and a bit allocation method thereof
SE506379C3 (sv) 1995-03-22 1998-01-19 Ericsson Telefon Ab L M Lpc-talkodare med kombinerad excitation
US5848391A (en) 1996-07-11 1998-12-08 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. Method subband of coding and decoding audio signals using variable length windows
JP3259759B2 (ja) 1996-07-22 2002-02-25 日本電気株式会社 音声信号伝送方法及び音声符号復号化システム
JPH10124092A (ja) 1996-10-23 1998-05-15 Sony Corp 音声符号化方法及び装置、並びに可聴信号符号化方法及び装置
US5960389A (en) 1996-11-15 1999-09-28 Nokia Mobile Phones Limited Methods for generating comfort noise during discontinuous transmission
JPH10214100A (ja) 1997-01-31 1998-08-11 Sony Corp 音声合成方法
US6134518A (en) * 1997-03-04 2000-10-17 International Business Machines Corporation Digital audio signal coding using a CELP coder and a transform coder
JPH10276095A (ja) * 1997-03-28 1998-10-13 Toshiba Corp 符号化器及び復号化器
JP3223966B2 (ja) 1997-07-25 2001-10-29 日本電気株式会社 音声符号化/復号化装置
US6070137A (en) 1998-01-07 2000-05-30 Ericsson Inc. Integrated frequency-domain voice coding using an adaptive spectral enhancement filter
EP0932141B1 (en) * 1998-01-22 2005-08-24 Deutsche Telekom AG Method for signal controlled switching between different audio coding schemes
GB9811019D0 (en) 1998-05-21 1998-07-22 Univ Surrey Speech coders
US6317117B1 (en) 1998-09-23 2001-11-13 Eugene Goff User interface for the control of an audio spectrum filter processor
US7272556B1 (en) 1998-09-23 2007-09-18 Lucent Technologies Inc. Scalable and embedded codec for speech and audio signals
US7124079B1 (en) 1998-11-23 2006-10-17 Telefonaktiebolaget Lm Ericsson (Publ) Speech coding with comfort noise variability feature for increased fidelity
FI114833B (fi) * 1999-01-08 2004-12-31 Nokia Corp Menetelmä, puhekooderi ja matkaviestin puheenkoodauskehysten muodostamiseksi
CN1145928C (zh) 1999-06-07 2004-04-14 艾利森公司 用参数噪声模型统计量产生舒适噪声的方法及装置
JP4464484B2 (ja) 1999-06-15 2010-05-19 パナソニック株式会社 雑音信号符号化装置および音声信号符号化装置
US6236960B1 (en) 1999-08-06 2001-05-22 Motorola, Inc. Factorial packing method and apparatus for information coding
KR100711047B1 (ko) 2000-02-29 2007-04-24 퀄컴 인코포레이티드 폐루프 멀티모드 혼합영역 선형예측 (mdlp) 음성 코더
US6757654B1 (en) 2000-05-11 2004-06-29 Telefonaktiebolaget Lm Ericsson Forward error correction in speech coding
JP2002118517A (ja) 2000-07-31 2002-04-19 Sony Corp 直交変換装置及び方法、逆直交変換装置及び方法、変換符号化装置及び方法、並びに復号装置及び方法
US6847929B2 (en) 2000-10-12 2005-01-25 Texas Instruments Incorporated Algebraic codebook system and method
CA2327041A1 (en) 2000-11-22 2002-05-22 Voiceage Corporation A method for indexing pulse positions and signs in algebraic codebooks for efficient coding of wideband signals
US20040142496A1 (en) 2001-04-23 2004-07-22 Nicholson Jeremy Kirk Methods for analysis of spectral data and their applications: atherosclerosis/coronary heart disease
US20020184009A1 (en) 2001-05-31 2002-12-05 Heikkinen Ari P. Method and apparatus for improved voicing determination in speech signals containing high levels of jitter
US20030120484A1 (en) 2001-06-12 2003-06-26 David Wong Method and system for generating colored comfort noise in the absence of silence insertion description packets
US6941263B2 (en) 2001-06-29 2005-09-06 Microsoft Corporation Frequency domain postfiltering for quality enhancement of coded speech
US6879955B2 (en) 2001-06-29 2005-04-12 Microsoft Corporation Signal modification based on continuous time warping for low bit rate CELP coding
KR100438175B1 (ko) 2001-10-23 2004-07-01 엘지전자 주식회사 코드북 검색방법
CA2388439A1 (en) 2002-05-31 2003-11-30 Voiceage Corporation A method and device for efficient frame erasure concealment in linear predictive based speech codecs
KR100728428B1 (ko) 2002-09-19 2007-06-13 마츠시타 덴끼 산교 가부시키가이샤 오디오 디코딩 장치 및 오디오 디코딩 방법
US7343283B2 (en) * 2002-10-23 2008-03-11 Motorola, Inc. Method and apparatus for coding a noise-suppressed audio signal
US7363218B2 (en) 2002-10-25 2008-04-22 Dilithium Networks Pty. Ltd. Method and apparatus for fast CELP parameter mapping
KR100465316B1 (ko) 2002-11-18 2005-01-13 한국전자통신연구원 음성 부호화기 및 이를 이용한 음성 부호화 방법
JP4191503B2 (ja) * 2003-02-13 2008-12-03 日本電信電話株式会社 音声楽音信号符号化方法、復号化方法、符号化装置、復号化装置、符号化プログラム、および復号化プログラム
US7318035B2 (en) 2003-05-08 2008-01-08 Dolby Laboratories Licensing Corporation Audio coding systems and methods using spectral component coupling and spectral component regeneration
US20050091044A1 (en) 2003-10-23 2005-04-28 Nokia Corporation Method and system for pitch contour quantization in audio coding
CN1875402B (zh) 2003-10-30 2012-03-21 皇家飞利浦电子股份有限公司 音频信号编码或解码
CA2457988A1 (en) * 2004-02-18 2005-08-18 Voiceage Corporation Methods and devices for audio compression based on acelp/tcx coding and multi-rate lattice vector quantization
FI118835B (fi) 2004-02-23 2008-03-31 Nokia Corp Koodausmallin valinta
WO2005096274A1 (fr) 2004-04-01 2005-10-13 Beijing Media Works Co., Ltd Dispositif et procede de codage/decodage audio ameliores
GB0408856D0 (en) 2004-04-21 2004-05-26 Nokia Corp Signal encoding
CA2566368A1 (en) 2004-05-17 2005-11-24 Nokia Corporation Audio encoding with different coding frame lengths
US7649988B2 (en) 2004-06-15 2010-01-19 Acoustic Technologies, Inc. Comfort noise generator using modified Doblinger noise estimate
US8160274B2 (en) 2006-02-07 2012-04-17 Bongiovi Acoustics Llc. System and method for digital signal processing
TWI253057B (en) 2004-12-27 2006-04-11 Quanta Comp Inc Search system and method thereof for searching code-vector of speech signal in speech encoder
US7519535B2 (en) 2005-01-31 2009-04-14 Qualcomm Incorporated Frame erasure concealment in voice communications
KR101237546B1 (ko) 2005-01-31 2013-02-26 스카이프 통신 시스템에서 프레임들을 연결하는 방법
US20070147518A1 (en) 2005-02-18 2007-06-28 Bruno Bessette Methods and devices for low-frequency emphasis during audio compression based on ACELP/TCX
US8155965B2 (en) 2005-03-11 2012-04-10 Qualcomm Incorporated Time warping frames inside the vocoder by modifying the residual
NZ562182A (en) 2005-04-01 2010-03-26 Qualcomm Inc Method and apparatus for anti-sparseness filtering of a bandwidth extended speech prediction excitation signal
US8577686B2 (en) 2005-05-26 2013-11-05 Lg Electronics Inc. Method and apparatus for decoding an audio signal
US7707034B2 (en) 2005-05-31 2010-04-27 Microsoft Corporation Audio codec post-filter
PL1897085T3 (pl) 2005-06-18 2017-10-31 Nokia Technologies Oy System i sposób adaptacyjnej transmisji parametrów szumu łagodzącego w czasie nieciągłej transmisji mowy
KR100851970B1 (ko) 2005-07-15 2008-08-12 삼성전자주식회사 오디오 신호의 중요주파수 성분 추출방법 및 장치와 이를이용한 저비트율 오디오 신호 부호화/복호화 방법 및 장치
US7610197B2 (en) 2005-08-31 2009-10-27 Motorola, Inc. Method and apparatus for comfort noise generation in speech communication systems
US7720677B2 (en) 2005-11-03 2010-05-18 Coding Technologies Ab Time warped modified transform coding of audio signals
US7536299B2 (en) 2005-12-19 2009-05-19 Dolby Laboratories Licensing Corporation Correlating and decorrelating transforms for multiple description coding systems
US8255207B2 (en) 2005-12-28 2012-08-28 Voiceage Corporation Method and device for efficient frame erasure concealment in speech codecs
CN101371297A (zh) 2006-01-18 2009-02-18 Lg电子株式会社 用于编码和解码信号的设备和方法
JP2009524101A (ja) 2006-01-18 2009-06-25 エルジー エレクトロニクス インコーポレイティド 符号化/復号化装置及び方法
US8032369B2 (en) 2006-01-20 2011-10-04 Qualcomm Incorporated Arbitrary average data rates for variable rate coders
FR2897733A1 (fr) 2006-02-20 2007-08-24 France Telecom Procede de discrimination et d'attenuation fiabilisees des echos d'un signal numerique dans un decodeur et dispositif correspondant
US20070253577A1 (en) 2006-05-01 2007-11-01 Himax Technologies Limited Equalizer bank with interference reduction
US7873511B2 (en) * 2006-06-30 2011-01-18 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio encoder, audio decoder and audio processor having a dynamically variable warping characteristic
JP4810335B2 (ja) * 2006-07-06 2011-11-09 株式会社東芝 広帯域オーディオ信号符号化装置および広帯域オーディオ信号復号装置
US7933770B2 (en) 2006-07-14 2011-04-26 Siemens Audiologische Technik Gmbh Method and device for coding audio data based on vector quantisation
EP2044575B1 (en) 2006-07-24 2017-01-11 Sony Corporation A hair motion compositor system and optimization techniques for use in a hair/fur graphics pipeline
US7987089B2 (en) * 2006-07-31 2011-07-26 Qualcomm Incorporated Systems and methods for modifying a zero pad region of a windowed frame of an audio signal
DE102006049154B4 (de) 2006-10-18 2009-07-09 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Kodierung eines Informationssignals
CN101589623B (zh) 2006-12-12 2013-03-13 弗劳恩霍夫应用研究促进协会 对表示时域数据流的数据段进行编码和解码的编码器、解码器以及方法
KR101379263B1 (ko) 2007-01-12 2014-03-28 삼성전자주식회사 대역폭 확장 복호화 방법 및 장치
FR2911426A1 (fr) 2007-01-15 2008-07-18 France Telecom Modification d'un signal de parole
JP4708446B2 (ja) 2007-03-02 2011-06-22 パナソニック株式会社 符号化装置、復号装置およびそれらの方法
JP2008261904A (ja) 2007-04-10 2008-10-30 Matsushita Electric Ind Co Ltd 符号化装置、復号化装置、符号化方法および復号化方法
US8630863B2 (en) * 2007-04-24 2014-01-14 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding audio/speech signal
CN101388210B (zh) 2007-09-15 2012-03-07 华为技术有限公司 编解码方法及编解码器
US9653088B2 (en) * 2007-06-13 2017-05-16 Qualcomm Incorporated Systems, methods, and apparatus for signal encoding using pitch-regularizing and non-pitch-regularizing coding
KR101513028B1 (ko) * 2007-07-02 2015-04-17 엘지전자 주식회사 방송 수신기 및 방송신호 처리방법
US8185381B2 (en) 2007-07-19 2012-05-22 Qualcomm Incorporated Unified filter bank for performing signal conversions
CN101110214B (zh) 2007-08-10 2011-08-17 北京理工大学 一种基于多描述格型矢量量化技术的语音编码方法
ES2823560T3 (es) 2007-08-27 2021-05-07 Ericsson Telefon Ab L M Análisis/síntesis espectral de baja complejidad utilizando resolución temporal seleccionable
CN101842833B (zh) 2007-09-11 2012-07-18 沃伊斯亚吉公司 语音和音频编码中快速代数码本搜索的方法和设备
US8576096B2 (en) * 2007-10-11 2013-11-05 Motorola Mobility Llc Apparatus and method for low complexity combinatorial coding of signals
CN101425292B (zh) 2007-11-02 2013-01-02 华为技术有限公司 一种音频信号的解码方法及装置
DE102007055830A1 (de) 2007-12-17 2009-06-18 Zf Friedrichshafen Ag Verfahren und Vorrichtung zum Betrieb eines Hybridantriebes eines Fahrzeuges
CN101483043A (zh) 2008-01-07 2009-07-15 中兴通讯股份有限公司 基于分类和排列组合的码本索引编码方法
CN101488344B (zh) 2008-01-16 2011-09-21 华为技术有限公司 一种量化噪声泄漏控制方法及装置
US8000487B2 (en) 2008-03-06 2011-08-16 Starkey Laboratories, Inc. Frequency translation by high-frequency spectral envelope warping in hearing assistance devices
EP2107556A1 (en) 2008-04-04 2009-10-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio transform coding using pitch correction
US8423852B2 (en) 2008-04-15 2013-04-16 Qualcomm Incorporated Channel decoding-based error detection
US8768690B2 (en) 2008-06-20 2014-07-01 Qualcomm Incorporated Coding scheme selection for low-bit-rate applications
KR101250309B1 (ko) 2008-07-11 2013-04-04 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 에일리어싱 스위치 기법을 이용하여 오디오 신호를 인코딩/디코딩하는 장치 및 방법
ES2683077T3 (es) * 2008-07-11 2018-09-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Codificador y decodificador de audio para codificar y decodificar tramas de una señal de audio muestreada
EP2346029B1 (en) 2008-07-11 2013-06-05 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder, method for encoding an audio signal and corresponding computer program
MY154452A (en) 2008-07-11 2015-06-15 Fraunhofer Ges Forschung An apparatus and a method for decoding an encoded audio signal
EP2410522B1 (en) 2008-07-11 2017-10-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio signal encoder, method for encoding an audio signal and computer program
US8352279B2 (en) 2008-09-06 2013-01-08 Huawei Technologies Co., Ltd. Efficient temporal envelope coding approach by prediction between low band signal and high band signal
US8577673B2 (en) 2008-09-15 2013-11-05 Huawei Technologies Co., Ltd. CELP post-processing for music signals
US8798776B2 (en) 2008-09-30 2014-08-05 Dolby International Ab Transcoding of audio metadata
TWI419148B (zh) 2008-10-08 2013-12-11 Fraunhofer Ges Forschung 多解析度切換音訊編碼/解碼方案
CN101770775B (zh) 2008-12-31 2011-06-22 华为技术有限公司 信号处理方法及装置
US8457975B2 (en) * 2009-01-28 2013-06-04 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio decoder, audio encoder, methods for decoding and encoding an audio signal and computer program
JP2012516462A (ja) 2009-01-28 2012-07-19 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ オーディオエンコーダ、オーディオデコーダ、符号化されたオーディオ情報、オーディオ信号を符号化および復号化する方法およびコンピュータ・プログラム
EP2214165A3 (en) 2009-01-30 2010-09-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus, method and computer program for manipulating an audio signal comprising a transient event
JP5520967B2 (ja) 2009-02-16 2014-06-11 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート 適応的正弦波コーディングを用いるオーディオ信号の符号化及び復号化方法及び装置
ES2374486T3 (es) 2009-03-26 2012-02-17 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Dispositivo y método para manipular una señal de audio.
JP5699141B2 (ja) 2009-06-23 2015-04-08 ヴォイスエイジ・コーポレーション 重み付けされた信号領域またはオリジナルの信号領域で適用される順方向時間領域エイリアシング取り消し
CN101958119B (zh) 2009-07-16 2012-02-29 中兴通讯股份有限公司 一种改进的离散余弦变换域音频丢帧补偿器和补偿方法
BR122020024243B1 (pt) * 2009-10-20 2022-02-01 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E. V. Codificador de sinal de áudio, decodificador de sinal de áudio, método para prover uma representação codificada de um conteúdo de áudio e método para prover uma representação decodificada de um conteúdo de áudio.
PL2491555T3 (pl) 2009-10-20 2014-08-29 Fraunhofer Ges Forschung Wielotrybowy kodek audio
CN102081927B (zh) 2009-11-27 2012-07-18 中兴通讯股份有限公司 一种可分层音频编码、解码方法及系统
US8423355B2 (en) * 2010-03-05 2013-04-16 Motorola Mobility Llc Encoder for audio signal including generic audio and speech frames
US8428936B2 (en) * 2010-03-05 2013-04-23 Motorola Mobility Llc Decoder for audio signal including generic audio and speech frames
TW201214415A (en) 2010-05-28 2012-04-01 Fraunhofer Ges Forschung Low-delay unified speech and audio codec
ES2968927T3 (es) * 2010-07-08 2024-05-14 Fraunhofer Ges Forschung Decodificador que utiliza cancelación del efecto de solapamiento hacia delante

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101611440A (zh) * 2007-01-05 2009-12-23 法国电信 一种使用加权窗的低延时变换编码
WO2010003563A1 (en) * 2008-07-11 2010-01-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder and decoder for encoding and decoding audio samples
WO2010003663A1 (en) * 2008-07-11 2010-01-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder and decoder for encoding frames of sampled audio signals

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
BRUNO BESSETTE等: "UNIVERSAL SPEECH/AUDIO CODING USING HYBRID ACELP/TCX TECHNIQUES", 《IEEE ICASSP 2005》 *
ETSI: "Digital Cellular telecommunications system(Phase 2+);Universal Mobile Telecommunications System(UMTS);LTE;Speech codec speech processing functions;Adaptive Multi-Rate-wideband(AMR-WB) speech codec;Transcoding functions(3GPP TS 26.190 version 9.0.0 Release", 《ETSI TS 126 171 V9.0.0》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107481726A (zh) * 2013-09-30 2017-12-15 皇家飞利浦有限公司 对音频信号进行重采样以用于低延迟编码/解码
CN112133315A (zh) * 2014-07-29 2020-12-25 奥兰吉公司 确定用于编码lpd/fd过渡帧的预算
CN112133315B (zh) * 2014-07-29 2024-03-08 奥兰吉公司 确定用于编码lpd/fd过渡帧的预算
CN112970063A (zh) * 2018-10-29 2021-06-15 杜比国际公司 用于利用生成模型的码率质量可分级编码的方法及设备

Also Published As

Publication number Publication date
EP4243017A2 (en) 2023-09-13
AR098557A2 (es) 2016-06-01
EP2676265B1 (en) 2019-04-10
JP2014510305A (ja) 2014-04-24
CN103503062B (zh) 2016-08-10
EP3503098C0 (en) 2023-08-30
TR201908598T4 (tr) 2019-07-22
KR101698905B1 (ko) 2017-01-23
AU2012217153B2 (en) 2015-07-16
TW201506907A (zh) 2015-02-16
AR102602A2 (es) 2017-03-15
EP4243017A3 (en) 2023-11-08
KR101853352B1 (ko) 2018-06-14
CN105304090B (zh) 2019-04-09
MY160265A (en) 2017-02-28
KR20130133846A (ko) 2013-12-09
AU2012217153A1 (en) 2013-10-10
CN105304090A (zh) 2016-02-03
US9047859B2 (en) 2015-06-02
CA2827272C (en) 2016-09-06
WO2012110473A1 (en) 2012-08-23
EP3503098B1 (en) 2023-08-30
AR085221A1 (es) 2013-09-18
MX2013009306A (es) 2013-09-26
ZA201306839B (en) 2014-05-28
KR20160039297A (ko) 2016-04-08
JP6110314B2 (ja) 2017-04-05
TWI479478B (zh) 2015-04-01
TW201301262A (zh) 2013-01-01
US20130332148A1 (en) 2013-12-12
PT2676265T (pt) 2019-07-10
EP3503098A1 (en) 2019-06-26
EP2676265A1 (en) 2013-12-25
SG192721A1 (en) 2013-09-30
BR112013020699A2 (pt) 2016-10-25
BR112013020699B1 (pt) 2021-08-17
TWI563498B (en) 2016-12-21
PL2676265T3 (pl) 2019-09-30
CA2827272A1 (en) 2012-08-23
RU2013141919A (ru) 2015-03-27
ES2725305T3 (es) 2019-09-23

Similar Documents

Publication Publication Date Title
CN103503062A (zh) 用于使用对齐的前瞻部分将音频信号编码及解码的装置与方法
US11682404B2 (en) Audio decoding device and method with decoding branches for decoding audio signal encoded in a plurality of domains
Neuendorf et al. Unified speech and audio coding scheme for high quality at low bitrates
AU2009267466B2 (en) Audio encoder and decoder for encoding and decoding audio samples
CN102177426B (zh) 多分辨率切换音频编码/解码方案
CN103493129B (zh) 用于使用瞬态检测及质量结果将音频信号的部分编码的装置与方法
KR20110043592A (ko) 샘플링된 오디오 신호의 프레임들을 인코딩 및 디코딩하기 위한 오디오 인코더 및 디코더
AU2013200679B2 (en) Audio encoder and decoder for encoding and decoding audio samples
US8112271B2 (en) Audio encoding device and audio encoding method
EP3002751A1 (en) Audio encoder and decoder for encoding and decoding audio samples
RU2574849C2 (ru) Устройство и способ для кодирования и декодирования аудиосигнала с использованием выровненной части опережающего просмотра

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: Munich, Germany

Applicant after: Fraunhofer Application and Research Promotion Association

Address before: Munich, Germany

Applicant before: Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V.

COR Change of bibliographic data
C14 Grant of patent or utility model
GR01 Patent grant