CN102812512B - 处理音频信号的方法和装置 - Google Patents

处理音频信号的方法和装置 Download PDF

Info

Publication number
CN102812512B
CN102812512B CN201180015619.4A CN201180015619A CN102812512B CN 102812512 B CN102812512 B CN 102812512B CN 201180015619 A CN201180015619 A CN 201180015619A CN 102812512 B CN102812512 B CN 102812512B
Authority
CN
China
Prior art keywords
exponent number
group
linear prediction
unit
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201180015619.4A
Other languages
English (en)
Other versions
CN102812512A (zh
Inventor
丁奎赫
金大焕
李昌宪
金洛榕
田惠晶
李炳锡
姜仁圭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Priority to CN201410210359.1A priority Critical patent/CN104021793B/zh
Publication of CN102812512A publication Critical patent/CN102812512A/zh
Application granted granted Critical
Publication of CN102812512B publication Critical patent/CN102812512B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • G10L19/07Line spectrum pair [LSP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/002Dynamic bit allocation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/032Quantisation or dequantisation of spectral components
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/087Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters using mixed excitation models, e.g. MELP, MBE, split band LPC or HVXC
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/09Long term prediction, i.e. removing periodical redundancies, e.g. by using adaptive codebook or pitch predictor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/22Mode decision, i.e. based on audio signal content versus external parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/24Variable rate codecs, e.g. for generating different qualities using a scalable representation such as hierarchical encoding or layered encoding

Abstract

本发明涉及用于处理音频信号的方法,包括以下步骤:执行音频信号的当前帧的频谱分析,以确定指示当前帧对应于包括第一频带和第二频带的多个频带中的哪一个的带宽信息;基于该带宽信息来确定关于与当前帧对应的阶数(order)的信息;执行当前帧的线性预测分析,以生成第一阶数的第一组线性预测变换系数;对第一组线性预测系数执行向量量化以生成第一组索引;执行当前帧的线性预测分析,以根据关于阶数的信息来生成第二阶数的第二组线性预测变换系数;以及当生成了第二组线性预测系数时,通过使用第一组索引和第二组线性预测变换系数,对第二组差执行向量量化。

Description

处理音频信号的方法和装置
技术领域
本发明涉及用于处理音频信号的装置及其方法。虽然本发明适用于广泛范围的应用,但是其特别适用于对音频信号编码或解码。
背景技术
通常,在音频信号,并且更特别是音频信号具有语音信号的强烈特征的情况下,对音频信号执行线性预测编译(LPC)。通过线性预测编译生成的线性预测系数被发送至解码器。随后,解码器通过对对应系数执行线性预测合成来重构音频信号。
发明内容
技术问题
通常,采样率根据音频信号的频带被不同地应用。然而,例如,为了对与窄带对应的音频信号编码,可能造成要求具有低采样率的内核(core)的问题。为了对与宽带对应的音频信号编码,可能造成单独要求具有高采样率的内核。从而,不同内核在每帧的比特数和比特率方面相互不同。
同时,在应用单个采样率而不考虑窄带信号或宽带信号的情况下,因为线性预测系数的阶数(或,线性预测系数的数量)是固定的,所以可能造成相关窄带信号的情况不必要地浪费比特的问题。
技术解决方案
因此,本发明针对一种用于处理音频信号的装置及其方法,它们基本避免了由于相关技术的限制和缺点导致的一个或多个问题。本发明的目的在于提供一种用于处理音频信号的装置及其方法,通过其可以应用相同采样率,而不管音频信号的带宽如何。
本发明的另一个目的在于提供一种用于处理音频信号的装置及其方法,通过其可以根据所输入的音频信号的带宽来自适应地改变线性预测系数的阶数。
本发明的另一个目的在于提供一种用于处理音频信号的装置及其方法,通过其可以根据所输入的音频信号的编译模式来自适应地改变线性预测系数的阶数。
本发明的进一步目的在于提供一种用于处理音频信号的装置及其方法,通过其第二组第二阶数(或用于量化第二阶数的第一组第一阶数)可以用于在量化不同阶数的线性预测系数(例如,第一组第一阶数的系数、第二组第二阶数的系数)时使用线性预测系数的循环属性来量化第一组第一阶数。
有益效果
因此,本发明提供以下效果和/或特征。
首先,本发明应用相同采样率,而不管所输入的音频信号的带宽如何,由此以简单方式实现编码器和解码器。
第二,尽管不管带宽如何而应用相同采样率,但是本发明提取用于窄带信号的相对低阶的线性预测系数,由此节省具有相对低效率的比特。
第三,本发明另外将在线性预测中节省的比特分配给线性预测残留信号的编译,由此最大化比特效率。
附图说明
图1是根据本发明的实施例的音频信号处理装置的编码器的框图。
图2是根据一个实施例的图1中所示的阶数确定单元120的详细框图。
图3是根据第一实施例(130A)的图1中所示的线性预测分析单元130的详细框图。
图4是根据实施例的图3中所示的线性预测系数生成单元132A的详细框图。
图5是根据一个实施例的图3中所示的阶数调节单元136A的详细框图。
图6是根据另一个实施例的图3中所示的阶数调节单元136A的详细框图。
图7是根据第二实施例(130A')的线性预测分析单元130的详细框图。
图8是根据第三实施例(130B)的图1中所示的线性预测分析单元130的详细框图。
图9是根据一个实施例的图8中所示的线性预测系数生成单元132B的详细框图。
图10是根据一个实施例的图9中所示的阶数调节单元136B的详细框图。
图11是根据另一个实施例的图9中所示的阶数调节单元136B的详细框图。
图12是根据第四实施例(130C)的图1中所示的线性预测分析单元130的详细框图。
图13是根据一个实施例的图1中所示的线性预测合成单元140的详细框图。
图14是根据本发明的实施例的音频信号处理装置的解码器的框图。
图15是实现根据本发明的一个实施例的音频信号处理装置的产品的示意性框图。
图16是实现根据本发明的一个实施例的音频信号处理装置的产品之间的关系的示意图。
图17是实现根据本发明的一个实施例的音频信号处理装置的移动终端的示意性框图。
具体实施方式
为了实现这些和其他优点,并且根据本发明的目的,如具体和广泛描述的,根据本发明的处理音频信号的方法可以包括以下步骤:通过对音频信号的当前帧执行谱分析,确定指示当前帧对应于包括第一频带和第二频带的多个频带当中的哪一个的带宽信息;基于该带宽信息来确定与当前帧对应的阶数信息;通过对当前帧执行线性预测分析,生成第一阶数的第一组线性预测变换系数;通过向量量化第一组线性预测变换系数来生成第一组索引;通过对当前帧执行线性预测分析,根据阶数信息来生成第二阶数的第二组线性预测变换系数;以及如果生成了第二组线性预测变换系数,则使用第一组索引和第二组线性预测变换系数对第二组差执行向量量化。
根据本发明,多个频带进一步可以包括第三频带,并且该方法可以进一步包括以下步骤:通过对当前帧执行线性预测分析,根据阶数信息来生成第三阶数的第三组线性预测变换系数,以及对阶数被调节的第二组线性预测变换系数和第三组线性预测变换系数之间的差的第三组差执行量化。
根据本发明,如果带宽信息指示第一频带,则阶数信息可以被确定为先前确定的第一阶数。如果带宽信息指示第二频带,则阶数信息可以被确定为先前确定的第二阶数。
根据本发明,第一阶数可以小于第二阶数。
根据本发明,该方法可以进一步包括:生成指示包括用于当前帧的第一模式和第二模式的多个模式中的一个的编译模式信息的步骤,其中,可以基于编译模式信息进一步确定阶数信息。
根据本发明,阶数信息确定步骤可以包括以下步骤:生成指示包括用于当前帧的第一模式和第二模式的多个模式中的一个的编译模式信息;基于带宽信息来确定临时阶数;根据编译模式信息来确定校正阶数;以及基于临时阶数和校正阶数来确定阶数信息。
为了进一步实现根据本发明的目的的这些和其他优点,根据本发明的另一个实施例的用于处理音频信号的装置可以包括:带宽确定单元,该带宽确定单元被配置成通过对音频信号的当前帧执行谱分析,确定指示当前帧对应于包括第一频带和第二频带的多个频带当中的哪一个的带宽信息;阶数确定单元,该阶数确定单元被配置成基于带宽信息来确定与当前帧对应的阶数信息;线性预测系数生成/变换单元,该线性预测系数生成/变换单元被配置成通过对当前帧执行线性预测分析,生成第一阶数的第一组线性预测变换系数,线性预测系数生成/变换单元被配置成根据阶数信息来生成第二阶数的第二组线性预测变换系数;第一量化单元,该第一量化单元被配置成通过向量量化第一组线性预测变换系数来生成第一组索引;以及第二量化单元,如果生成了第二组线性预测变换系数,则该第二量化单元使用第一组索引和第二组线性预测变换系数对第二组差执行向量量化。
根据本发明,多个频带可以进一步包括第三频带,线性预测系数生成/变换单元可以进一步通过对当前帧执行线性预测分析,根据阶数信息来生成第三阶数的第三组线性预测变换系数,并且该装置可以进一步包括:第三量化单元,该第三量化单元被配置成对与阶数被调节的第二组线性预测变换系数和第三组线性预测变换系数之间的差对应的第三组差执行量化。
根据本发明,如果带宽信息指示第一频带,则阶数信息可以被确定为先前确定的第一阶数。如果带宽信息指示第二频带,则阶数信息可以被确定为先前确定的第二阶数。
根据本发明,第一阶数可以小于第二阶数。
根据本发明,阶数确定单元可以进一步包括:模式确定单元,该模式确定单元被配置成生成指示包括用于当前帧的第一模式和第二模式的多个模式中的一个的编译模式信息,并且可以基于该编译模式信息进一步确定阶数信息。
根据本发明,阶数确定单元可以包括:模式确定单元,该模式确定单元被配置成生成指示包括用于当前帧的第一模式和第二模式的多个模式中的一个的编译模式信息;以及阶数生成单元,该阶数生成单元被配置成基于带宽信息来确定临时阶数,阶数生成单元被配置成根据编译模式信息来确定校正阶数,阶数生成单元被配置成基于临时阶数和校正阶数来确定阶数信息。
应当理解,前述总体描述和以下详细描述是示例性的和解释性的,并且意在提供对所要求保护的本发明的进一步解释。
具体实施方式
现在将更详细地对本发明的优选实施例作出参考,其实例在附图中示出。首先,在本说明书和权利要求中使用的术语或词语不应当被解释为限于一般或字典意义,并且基于发明人能够适当地限定术语的概念来以最佳方式描述发明人的发明的原则,应当被解释为与本发明的技术思想匹配的意义和概念。在本公开中公开的实施例和在附图中所示的配置仅是一个优选实施例,并且不表示本发明的所有技术思想。因此,将理解,本发明覆盖该发明的修改和改变,只要在提交本申请的时间点,它们落入所附权利要求及其等同物的范围内。
根据本发明,本说明书中的术语可以被解释为以下意义,并且在本说明书中未能公开的术语可以被解释为与本发明的技术思想匹配的概念。特别是,‘编译’可以选择性地被解释为‘编码’或‘解码’,并且本公开中的‘信息’是通常包括值、参数、系数、元素等的术语,并且其意义有时可以被解释为不同的,本发明不限于此。
在本公开中,广义上,音频信号在概念上不同于视频信号并且指示在重放的情况下听觉上可以被识别的任何种类的信号。狭义上,音频信号意指没有或具有很少数量的语音特性的信号。本发明的音频信号应该在广义上被解释。并且,在以与语音信号不同的方式被使用的情况下,本发明的音频信号可以被理解为狭义音频信号。
而且,编译可以仅指示编码,但是可以在概念上可使用为包括编码和解码两者。
图1是根据本发明的实施例的音频信号处理装置的编码器的框图。参考图1,编码器100包括阶数确定单元120和线性预测分析单元130,并且可以进一步包括采样单元110、线性预测合成单元140、加法器150、比特分配单元160、残留编译单元170和复用器180。
编码器100的操作示意性地描述如下。首先,根据由阶数确定单元120确定的关于当前帧的阶数信息,线性预测分析单元130生成所确定的阶数的线性预测系数。编码器100的相应组件描述如下。
首先,采样单元110通过将预定采样率应用至所输入的音频信号来生成数字信号。在这种情况下,预定采样率可以包括12.8kHz,本发明可以不限于此。
阶数确定单元120使用音频信号(和采样后的数字信号)来确定当前帧的阶数信息。在该情况下,阶数信息指示线性预测系数的数量或线性预测系数的阶数。阶数信息可以根据以下确定:1)带宽信息;2)编译模式;以及3)带宽信息和编译模式,后面将参考图2对其详细地描述。
线性预测分析单元130对音频信号的当前帧执行LPC(线性预测编译)分析,由此基于由阶数确定单元120生成的阶数信息来生成线性预测系数。线性预测分析单元130对线性预测系数执行变换和量化,由此生成量化后的线性预测变换系数(索引)。根据本发明,由于提供了线性预测分析单元130的总计四个实施例,所以将分别参考图3、图7、图8和图12来描述第一实施例130A、第二实施例130A'、第三实施例130B和第四实施例130C。
线性预测合成单元140使用量化后的线性预测变换系数来生成线性预测合成信号。在这种情况下,阶数信息可以适用于插值,并且后面将参考图13来描述线性预测合成单元140的详细配置。
加法器150通过从音频信号减去线性预测合成信号来生成线性预测残留信号。特别地,加法器可以包括过滤器,本发明可以不限于此。
比特分配单元160基于阶数信息来将用于控制用于线性预测残留的编译的比特分配的控制信息递送至残留编译单元170。例如,如果阶数相对低,则比特分配单元160生成用于增加用于线性预测残留的编译的比特数的控制信息。对于另一个实例,如果阶数相对高,则比特分配单元160生成用于减少用于线性预测残留编译的比特数的控制信息。
残留编译单元170基于由比特分配单元160生成的控制信息对线性预测残留编译。残留编译单元170可以包括:长期预测(LTP)单元(图中未示出),该长期预测(LTP)单元被配置成通过间距(pitch)搜索来获得间距增益和间距延迟;以及码本搜索单元(图中未示出),该码本搜索单元被配置成通过对作为长期预测的残留的间距残留分量执行码本搜索来获得码本索引和码本增益。例如,在接收到关于比特数增加的控制信息的情况下,比特分配可以被提高(raise)用于间距增益、间距延迟、码本索引、码本增益等中的至少一个。对于另一个实例,在接收到关于比特数减少的控制信息的情况下,比特分配可以降低用于以上参数中的至少一个。
可替换地,残留编译单元170可以包括正弦波建模单元(图中未示出)和频率变换单元(图中未示出)而不是长期预测单元和码本搜索单元。在接收到关于比特数增加的控制信息的情况下,正弦波建模单元(图中未示出)能够将比特数分配提高至幅度相位频率参数。频率变换单元(图中未示出)可以通过TCX或MDCH方案操作。在接收到关于比特数增加的控制信息的情况下,频率变换单元能够将比特数分配增加至频率系数或标准化增益。
复用器180通过一起复用量化后的线性预测变换系数、与残留编译单元的输出对应的参数(例如,间距延迟等)等来生成至少一个比特流。同时,由阶数确定单元120确定的带宽信息和/或编译模式信息可以包括在比特流中。特别地,带宽信息可以包括在单独比特流中(例如,具有编解码器类型的比特流和包括在其中的比特率)而不是包括在其中包括的线性预测变换系数的比特流中。
在以下说明中,参考图2详细地解释了阶数确定单元120的配置,参考图3、图7、图8和图12详细地解释了线性预测分析单元130的相应实施例,并且参考图13详细地解释了线性预测合成单元140的配置。
图2是根据一个实施例的图1中所示的阶数确定单元120的详细框图。参考图2,阶数确定单元120可以包括带宽检测单元122、模式确定单元124和阶数生成单元126中的至少一个。
带宽检测单元122对所输入的音频信号(和采样的信号)执行频谱分析,以检测所输入的信号对应于包括第一频带、第二频带和第三频带(可选)的多个频带中的哪一个,并且然后生成指示该检测的结果的带宽信息。在这样的情况下,FFT(快速傅里叶变换)可以用于频谱分析,本发明可以不限于此。
特别地,第一频带可以对应于窄带(NB),第二频带可以对应于宽带(WB),以及第三频带可以对应于超宽带(SWB)。更特别地,窄带可以对应于0~4kHz,宽带可以对应于0~8kHz,并且超宽带可以对应于超过8kHz或更高。
在第一频带对应于0~4kHz的情况下,由于带宽信息受频带限制,所以能够以检验用于采样的音频信号的4kHz和6.4kHz之间的频谱的方式来确定采样的音频信号是对应于第一频带还是第二频带或更高。如果确定第二频带或更高,则能够通过检验编解码器的输入信号的频谱来确定第二频带或第三频带。
由带宽检测单元122确定的带宽信息可以被递送至阶数生成单元126或者可以以也被递送至图1中所示的复用器180的方式包括在比特流中。
模式确定单元124确定包括第一模式和第二模式的多个编译模式当中适用于当前帧的属性的一种编译模式,生成指示所确定的编译模式的编译模式信息,并且然后将所生成的编译模式信息递送至阶数生成单元126。多个编译模式可以包括总计四种编译模式。例如,多个编译模式可以包括适用于强无声化属性的情况的无声化编译模式、适用于存在浊音和清音之间的转换的情况的转换编译(TC)模式、适用于强语音属性的情况的语音编译(VC)模式、适用于一般情况的通用编译(GC)模式等。并且,本发明可以不受特定编译模式的数量和/或属性限制。
由模式确定单元124确定的编译模式信息可以被递送至阶数生成单元126或者还可以以正被递送至图1中所示的复用器的方式包括在比特流中。
阶数生成单元126使用1)带宽信息或2)编译模式信息、或3)带宽信息和编译模式信息来确定当前帧的线性预测系数的阶数(或数量)(例如,第一阶数、第二阶数(以及第三阶数)),并且然后生成阶数信息。
1)在使用带宽信息进行确定的情况下,如果第一频带和第二频带(以及第三频带)存在并且第一频带比第二频带(或第三频带)更窄,则低阶(例如,第一阶数)被确定用于第一频带的情况。并且,高阶数(例如,第二阶数)(或最高阶(例如,第三阶数))可以被确定用于第二频带(或第三频带)的情况。例如,如果第一频带、第二频带和第三频带分别是窄带、宽带和超宽带,则用于第一频带的情况的阶数、用于第二频带的情况的阶数和用于第三频带的情况的阶数可以分别被确定为10、16和20。然而,本发明的阶数可以不受特定值限制。这是因为线性预测编译可以以阶数应该与带宽成比例地增加的方式被更加有效地执行。相反,在窄带的情况下,不应用相同阶数的超宽带或宽带。相反地,通过应用较低阶数,可以减小带间质量差,并且可以增加比特分配的效率。
2)在使用编译模式信息来生成阶数信息的情况下,可以按照无声化编译模式、转换编译模式、通用编译模式和语音编译模式来提高阶数。由于语音属性在无声化编译模式下很弱,所以基于语音模型的线性预测编译方案效率不高。因此,确定相对低的阶数(例如,第一阶数)。在语音模式的情况下,由于语音属性很强,所以线性预测编译方案是有效的。因此,确定相对高的阶数(例如,第二阶数)。
同时,当使用编译模式信息来生成阶数信息时,如果多个阶数被确定用于相同频带,则低阶和高阶应该表示为第N1阶和第N2阶。后面将参考图12在线性预测分析单元的第四实施例130C的说明中解释第N1阶和第N2阶。
3)同时,当使用带宽信息和编译模式信息来确定阶数信息时,根据带宽信息事先确定的阶数被设置为临时阶数Ntemp(例如,第一临时阶数、第二临时阶数、第三临时阶数等),并且然后可以通过以下公式确定。
[公式1]
无声化编译模式:
阶数(Na)=临时阶数(Ntemp)+第一校正阶数(Nm1
转换编译模式:
阶数(Nb)=临时阶数(Ntemp)+第二校正阶数(Nm2
通用编译模式:
阶数(Nc)=临时阶数(Ntemp)+第三校正阶数(Nm3
语音编译模式:
阶数(Nd)=临时阶数(Ntemp)+第四校正阶数(Nm4
其中,Nm1到Nm4是整数,并且Nm1<Nm2<Nm3<Nm4
例如,Nm1、Nm2、Nm3和Nm4可以分别被设置为-4、-2、0和+2,本发明可以不限于此。
以上确定的阶数信息可以被递送至线性预测分析单元130(和线性预测合成单元140)和复用器180,如图1中所示。
在以下说明中,解释了图1中所示的线性预测分析单元130的第一至第四实施例。图3中所示的第一实施例涉及使用第一组线性预测系数来量化第二组线性预测系数[第一组参考实施例],图7中所示的第二实施例涉及将第一实施例扩展至第三组[第一组参考扩展实施例]的实例,图8中所示的第三实施例是与第一实施例相反的实施例并且使用第二组线性预测系数来量化第一组线性预测系数[第二组参考实施例],并且图12中所示的第四实施例是在相同频带内生成不同阶数的系数(N1组、N2组)的情况的一个实例[第N1组参考实施例]。
图3至图6是根据线性预测分析单元130的第一实施例的示意图。图3是根据第一实施例(130A)的如图1所示的线性预测分配单元130的详细框图。图4是根据实施例的图3中所示的线性预测系数生成单元132A的详细框图。图5是根据一个实施例的图3中所示的阶数调节单元136A的详细框图。图6是根据另一个实施例的图3中所示的阶数调节单元136A的详细框图。在以下说明中,参考图3至图6来解释第一实施例,并且参考图7、图8等来解释第二至第四实施例。
参考图3,根据第一实施例的线性预测分析单元130A可以包括线性预测系数生成单元132A、线性预测系数转换单元134A、第一量化单元135、阶数调节单元136A和第二量化单元138。
当与第一阶数N1对应的第一组线性预测系数LPC1和与第二阶数N2对应的第二组线性预测系数LPC2存在时,如果第一阶数小于第二阶数,则如在前述说明中所述,第一实施例是参考第一组的实施例。特别地,如果生成第一组,则仅第一组系数被量化。如果还生成第二组,则使用第一组来量化第二组。
线性预测系数生成单元132A通过对音频信号执行线性预测分析来生成与阶数信息对应的阶数的线性预测系数。特别地,如果阶数信息指示第一阶数N1,则线性预测系数生成单元132A仅生成第一阶数N1的第一组线性预测系数LPC1。如果阶数信息指示第二阶数N2,则线性预测系数生成单元132A生成第一阶数N1的第一组线性预测系数LPC1和第二阶数N2的第二组线性预测系数LPC2。在该情况下,第一阶数/数(number)是小于第二阶数/数的数。例如,如果第一阶数和第二阶数分别被设置为10和16,则10个线性预测系数变为第一组LPC1,并且16个线性预测系数变为第二组LPC2。在该情况下,第一组LPC1的特征在于,其线性预测系数几乎类似于第二组LPC2的16个线性预测系数当中的第一至第十系数的值。基于这样的特性,第一组可用于量化第二组。
如下参考图4来描述线性预测系数生成单元132A的详细配置。
参考图4,线性预测系数生成单元132A包括线性预测算法132A-6并且可以进一步包括窗口处理单元132A-2和自相关函数计算单元132A-4。
窗口处理单元132A-2将用于帧处理的窗口应用至从采样单元110接收到的音频信号。
自相关函数计算单元132A-4计算用于线性预测分析的窗口处理后的信号的自相关函数。
同时,线性预测编译模型的基本思想是在给定时间点n处逼近过去p个语音信号的线性结合,其可以表示为以下公式。
[公式2]
S(n)≈α1S(n-1)+α2S(n-2)+····+αpS(n-p)
在公式2中,αi指示线性预测系数,n指示帧索引,并且p指示线性预测阶数。
作为找到线性预测编译的解(αp)的方法,可能存在自相关方法或协方差方法。特别是,自相关函数涉及在音频编译系统中使用递归循环来找到解的通用方法,并且比直接计算更加有效。
自相关函数计算单元132A-4计算自相关函数R(k)。
线性预测算法132A-6使用自相关函数R(k)来生成与阶数信息对应的线性预测系数。这可以对应于用于找到以下公式的解的处理。在这样的情况下,可以对其应用Levinson-Durbin算法。
[公式3]
&Sigma; k = 1 p &alpha; k R [ | i - k | ] = R [ i ] , 1 &le; i &le; p : p 等式,
在公式3中,αk和R[]分别指示线性预测系数和自相关函数。
为了找到p个等式的解,使用最小均方预测误差等式来生成以下(P+1)个等式。
[公式4]
R [ 0 ] R [ 1 ] R [ 2 ] &CenterDot; &CenterDot; &CenterDot; R [ i - 1 ] R [ 1 ] R [ 0 ] R [ 1 ] &CenterDot; &CenterDot; &CenterDot; R [ i - 2 ] R [ 2 ] R [ 1 ] R [ 0 ] &CenterDot; &CenterDot; &CenterDot; R [ i - 3 ] &CenterDot; &CenterDot; &CenterDot; &CenterDot; &CenterDot; R [ i - 1 ] R [ i - 2 ] R [ i - 3 ] &CenterDot; &CenterDot; &CenterDot; R [ 0 ] 1 - &alpha; 1 ( i - 1 ) - &alpha; 2 ( i - 1 ) &CenterDot; - &alpha; i - 1 ( i - 1 ) = E ( i - 1 ) 0 0 &CenterDot; 0 | : ( P + 1 ) 个等式
在公式4中,
Figure BDA00002183546600153
指示最小均方预测误差等式。
为了通过递归循环来找到(P+1)个等式的解,如以上说明中所述,Levinson-Durbin算法被如下使用。
[公式5]
ε(0)=R[0]
fori=1,2,...,p
k i = ( R [ i ] - &Sigma; j = 1 i - 1 &alpha; j ( i - 1 ) R [ i - j ] ) / &epsiv; ( i - 1 )
&alpha; i ( i ) = k i
if i>1 then for j=1,2,...,i-1
&alpha; j ( i ) = &alpha; j ( i - 1 ) - k i &alpha; i - j ( i - 1 )
end
&epsiv; ( i ) = ( 1 - k i 2 ) &epsiv; ( i - 1 )
end
&alpha; j = &alpha; i ( p ) j=1,2,...,p
线性预测算法132A-6通过上述处理来生成线性预测系数。如前述说明中所述,线性预测算法132A-6在第一阶数N1的情况下生成第一组线性预测系数LPC1,并且在第二阶数N2的情况下生成第一组线性预测系数LPC1和第二组线性预测系数LPC2两者。特别是,不管阶数如何,生成第一组LPC1。并且,根据阶数信息(即,第一阶数或第二阶数)来自适应地确定是否生成第二阶数的第二组LPC2
可替换地,可以不通过线性预测系数生成单元132A而是通过图3中所示的线性预测系数变换单元134A来执行是否生成第二组的切换。在该情况下,不管阶数信息如何,线性预测系数生成单元132A生成第一组和第二组两者。不管阶数如何,线性预测系数变换单元134A根据阶数信息来转换第一组并且然后确定是否转换第二组。
在以下说明中,由于切换被解释为为了方便起见通过线性预测系数生成单元132A执行,所以其可以通过线性预测系数转换单元134A实现。根据第二至第四实施例,这可以同样地应用至线性预测分析单元,并且其详情将在以下说明中省略。
在以上说明中,解释了线性预测系数生成单元132A的详细配置。在以下说明中,参考图3解释了线性预测分析单元130A的其余组件。
线性预测系数生成单元132A通过转换由线性预测系数生成单元132A生成的第一组线性预测系数LPC1来生成第一阶数N1的第一组线性预测变换系数ISP1。如果生成了第二组线性预测系数LPC2,则线性预测系数转换单元134A还通过转换第二组来生成第二组线性预测变换系数ISP2
由于以前获得的线性预测系数具有大动态范围,所以其可能需要通过较少数量的比特被量化。由于线性预测系数易受量化误差损害,所以其可能需要被转换为强烈抵抗量化误差的线性预测变换系数。在该情况下,线性预测变换系数可以包括LSP(线谱对子)、ISP(导抗谱对子)、LSF(线频谱频率)和ISF(导抗谱频率)中的一个,本发明可以不限于此。在该情况下,ISF可以被表示为以下公式。
[公式6]
f i = f s 2 &pi; arccos ( q i ) , i = 1 , . . . , 15
= f s 4 &pi; arccos ( q i ) , i = 16
在公式6中,αi指示线性预测系数,fi指示ISF的[0,6400Hz]的频率范围,并且‘fs=12800’指示采样频率。
第一量化单元135通过量化第一组线性预测变换系数ISP1来生成第一组量化后的线性预测变换系数(此后称为第一索引),并且然后将第一索引Q1输出到复用器180。同时,如果阶数信息包括第二阶数,则第一索引Q1被递送至阶数调节单元136A。如果当前帧的阶数是第一阶数,则对应处理可以以量化第一阶数的第一组的方式结束。然而,如果当前帧的阶数是第二阶数,则第一组应该被用于第二组的量化。
阶数调节单元136A通过调节第一阶数N1的第一组索引Q1的阶数,生成第二阶数N2的第一组线性预测变换系数ISP1_mo。图5中示出了阶数调节单元136A的一个实施例136A.1的详细配置,并且图6中示出了另一个实施例136A.2的详细配置。
参考图5,根据一个实施例的阶数调节单元136A.1包括解量化单元136A.1-1、逆变换单元136A.1-2、阶数修改单元136A.1-3和变换单元136A.1-4。
解量化单元136A.1-1通过解量化第一组索引Q1来生成第一组线性预测变换系数IISP1。逆变换单元126A.1-2通过逆变换线性预测变换系数IISP1来生成第一组线性预测系数ILPC1。从而,执行解量化和逆变换来修改线性预测系数域(即,时间域)中的阶数。同时,可以存在用于在线性预测变换系数域(即,频域)中修改阶数的实施例。在该情况下,逆变换单元和变换单元被排除,并且阶数修改单元仅在频域中操作。虽然在本说明书中仅描述时域中的操作,但是频域中的操作也可用是必然的。
阶数修改单元136A.1-3从第一阶数N1的第一组线性预测系数ILPC1来估计第二阶数N2的第一组线性预测系数ILPC1_mo。例如,阶数修改单元136A.1-3使用10个线性预测系数来估计16个线性预测系数。在这样的情况下,Levinson-Durbin算法或格子结构的递归方法是可使用的。
变换单元136A.1-4通过变换阶数被调节的第一组线性预测系数ILPC1_mo来生成阶数被调节的线性预测变换系数ISP1_mo
从而,根据本发明的一个实施例的阶数调节单元136.A1涉及通过使用算法的估计处理来调节阶数的方法。另一方面,根据以下说明中所述的另一个实施例的阶数调节单元136.A2涉及仅随机地改变阶数的方法。
参考图6,根据另一个实施例的阶数调节单元136.A2包括类似于一个实施例的解量化单元136.A2-1。同时,填充单元136A.2-2通过用0填充与阶数差(N2-N1)对应的位置用于解量化的第一组线性预测变换系数IISP1,生成其格式仅被调节为第二阶数的第一组线性预测变换系数ISP1_mo
从而,现在参考图3,加法器137通过从第二组线性预测变换系数ISP2减去阶数被调节的第一组线性预测变换系数ISP1_mo来生成第二组差d2。在该情况下,由于第一组线性预测变换系数ISP1_mo对应于第二组线性预测变换系数ISP2的预测,所以其余差通过第二量化单元138被量化,并且量化后的第二组差(即,第二组索引)Qd2然后被输出到复用器。
图7是根据第二实施例(130A')的图1中所示的线性预测分析单元130的详细框图。如前述说明中所述,图7中所示的第二实施例包括将第一实施例扩展至第三组的实例。在该情况下,第一阶数N1、第二阶数N2和第三阶数N3的阶数增加(N1<N2<N3)。在这样的情况下,线性预测系数生成单元132A'一直生成第一组线性预测系数LPC1而不管阶数如何。如果阶数是第二阶数N2,则线性预测系数生成单元132A'进一步生成第二线性预测系数LPC2。如果阶数是第三阶数N3,则线性预测系数生成单元132A'进一步生成第二组线性预测系数LPC2和第三线性预测系数LPC3
线性预测系数变换单元134A'转换从线性预测系数生成单元132A'递送的线性预测系数。特别地,由于第一组系数仅在第一阶数的情况下被递送,所以线性预测系数变换单元134A'生成第一组变换系数ISP1。在第二阶数的情况下,线性预测系数变换单元134A'生成第一组变换系数ISP1和第二组变换系数ISP2。在第三阶数的情况下,线性预测系数变换单元134A'生成第一组变换系数ISP1、第二组变换系数ISP2和第三组变换系数ISP3
随后,第一量化单元135、阶数调节单元136A、第一加法器137和第二量化单元138'执行图3中所示的在前第一量化单元135、加法器137和阶数调节单元136A的相同操作。然而,如果阶数基于阶数信息是第三阶数,则第二量化单元138'还将第二组索引Qd2递送至阶数调节单元136A'。
在将第二阶数改变为第三阶数而不是将第一阶数改变为第二阶数时,该阶数调节单元136A'与在前阶数调节单元136A几乎相同,但是与在前阶数调节单元136A不同。而且,在解量化第二组差时,向其添加阶数被调节的第一组系数ISP1_mo时,在后阶数调节单元136A'不同于在前阶数调节单元136A,并且然后对对应结果执行阶数调节。
第二加法器137'通过从第三组线性预测变换系数ISP3减去阶数被调节的第二组线性预测变换系数ISP2_mo,生成第三组差d3。并且,第三量化单元138A'通过对第三差d3执行向量量化,生成量化后的第三组差(即,第三组索引)Qd3
在以下说明中,将参考图8至图11来解释图1中所示的线性预测分析单元130的第三实施例130B。如在前述说明中所述,第三实施例基于第二组,而第一实施例基于第一组。特别地,根据第三实施例,生成第二组线性预测系数,而不管阶数信息如何,并且使用第二组来量化第一组线性预测系数。如下详细地描述第三实施例的相应组件。
首先,线性预测分析单元130的第三实施例130B包括线性预测系数生成单元132B、线性预测系数变换单元134B、第一量化单元135、阶数调节单元136B和第二量化单元137。
线性预测系数生成单元123B通过对音频信号执行线性预测分析,生成与阶数信息对应的线性预测系数。由于第一阶数是不像第一实施例的参考,所以如果阶数信息包括第二阶数N2,则仅生成第二阶数N2的第二组线性预测系数LPC2。如果阶数信息包括第一阶数N1,则生成第一阶数N1的第一组线性预测系数LPC1和第二阶数N2的第二组线性预测系数LPC2。类似于第一实施例132A,第一阶数/数是小于第二阶数/数的数。例如,如果第一阶数和第二阶数分别被设置为10和16,则10个线性预测系数变为第一组LPC1,并且16个线性预测系数变为第二组LPC2。在该情况下,第一组LPC1的10个系数的特征在于,几乎类似于第二组LPC2的16个线性预测系数中的第一到第十个系数的值。基于这样的特性,第二组可用于量化第一组。
图9是根据实施例的图8中所示的线性预测系数生成单元132B的详细框图。这实际上相当于图4中所示的第一实施例132A的详细配置。特别地,窗口处理单元132B-2和自相关函数计算单元132B-4执行在第一实施例的前述说明中提及的相同名称的在前组件132A-2和134A-4的相同功能,并且将在以下说明中省略它们的详情。线性预测算法132B-6与第一实施例的在前线性预测算法132A-6相同,但是不同于在前线性预测算法132A-6在于基于第二组。特别地,生成第二组系数ISP2,而不管阶数信息如何。如果阶数信息包括第一阶数,则生成第一组系数LPC1。如果阶数信息包括第二阶数,则不生成第一组系数LPC1
现在参考图4,线性预测系数变换单元134B执行几乎类似于第一实施例的在前线性预测系数变换单元134的功能。然而,线性预测系数变换单元134B不同于第一实施例的在前线性预测系数变换单元134在于,只有当接收第一组系数LPC1时,才通过变换第二组线性预测系数LPC2来生成第二组线性预测变换系数ISP2,并且通过变换第一组系数LPC1来生成第一组线性预测变换系数ISP1
如第一实施例的前述说明中所述,线性预测系数生成单元132B生成第一组线性预测系数LPC1和第二组线性预测系数LPC2,而不管阶数信息如何,并且线性预测系数变换单元134能够根据阶数信息来选择性地转换系数(图中未示出)。特别地,在第二阶数的情况下,线性预测系数变换单元134B仅转换第二组系数。在第一阶数的情况下,线性预测系数变换单元134B转换第一组系数和第二组系数两者。
同时,第一量化单元135通过向量量化第二组变换系数ISP2来生成第二组量化后的线性预测变换系数(即,第二组索引)Q2。
阶数调节单元136B通过将第二阶数的第二组变换系数的阶数调节为第一阶数,生成阶数被调节的第二组变换系数ISP2_mo。在第一或第二实施例的在前阶数调节单元136A中,低阶(例如,第一阶数)被调节为高阶(例如,第二阶数)。然而,第三实施例的阶数调节单元136B将高阶(例如,第二阶数)调节为低阶(例如,第一阶数)。
图10和图11示出根据第三实施例的阶数调节单元136B的实施例136B.1和136B.2。根据一个实施例的阶数调节单元136B.1具有与根据图5中所示的一个实施例的在前阶数调节单元136A.1的详细配置几乎相同的配置。阶数调节单元136A.1解量化/逆变换第一组索引Q1,将阶数从第一阶数调节为第二阶数,并且然后转换系数。然而,第三实施例的阶数调节单元136B.1解量化/逆变换第二组索引Q2,将阶数从第二阶数调节为第一阶数,并且然后转换系数。
解量化单元136B.1通过解量化第二组量化后的线性预测变换系数(即,第二组索引Q2)来生成解量化后的第二组线性预测变换系数IISP2。逆变换单元136B.1-2通过逆变换第二组线性预测变换系数IISP2来生成第二组线性预测系数ILPC2。阶数修改单元136B.1-3通过使用作为高阶的第二阶数的第二组线性预测系数ILPC2的阶数来估计低阶的第一阶数,生成阶数被调节的第二组线性预测系数LPC2_mo。例如,使用16个线性预测系数来估计10个线性预测系数。在这样的情况下,修改后的Levinson-Durbin算法或格子结构递归方法可以是可使用的。变换单元146B.1-4通过变换第一阶数的第二组线性预测系数LPC2_mo来生成阶数被调节的第二组线性预测变换系数ISP2_mo
同时,图11示出根据另一个实施例的阶数调节单元136B.2。在将高阶(例如,第二阶数)调节为低阶(例如,第一阶数)并且执行分割而不执行填充时,图11中所示的阶数调节单元136B.2不同于在前实施例136A.1。
解量化单元136B.2-1通过解量化第二组量化后的线性预测变换系数(即,第二组索引Q2)来生成解量化后的第二组线性预测变换系数IISP2。分割单元136B.2-1通过将第二阶数的第二线性预测变换系数分割为低阶的第一阶数和其他并且然后仅采用第一阶数,生成阶数被调节为第一阶数的第二组线性预测变换系数ISP2_mo
从而,阶数调节单元136B将第二阶数调节为第一阶数。现在参考图8,加法器137通过从第一阶数的第一组线性预测变换系数ISP2减去其阶数被调节为第一阶数的阶数被调节的第二组线性预测变换系数ISP2_mo来生成第一组差d1。并且,第二量化单元138通过量化第一组差d1来生成第一组差(即,第一组索引)Qd1
从而,根据图8至图11中所示的第三实施例,能够参考高阶(例如,第二阶数)的系数来量化低阶(例如,第一阶数)的系数。类似于第二实施例130A',作为第一实施例的扩展实施例,第三实施例可以被扩展到第三组线性预测系数。特别是,第三组被用于参考第三组(最高阶)来量化第二组(高阶)和第一组(低阶)。更特别地,生成第三组系数LPC3,而不管阶数信息如何。根据阶数信息来确定是否生成第二组系数LPC2和第一组系数LPC1。即,在第三阶数的情况下,不生成第一和第二组系数。在第二阶数的情况下,仅生成第二组系数。在第一阶数的情况下,生成第一和第二组系数。
图12是根据第四实施例130C的图1中所示的线性预测分析单元130的详细框图。如在阶数生成单元126的前述说明中所述,第四实施例涉及确定关于相同频带的多个阶数而不是确定关于多个频带的多个阶数的情况。在这样的情况下,低阶和高阶将分别被称为第N1阶和第N2阶。
图12中所示的第四实施例基于低阶,其几乎与第一实施例相同。除了第一阶数和第二阶数分别由第N1阶和第N2阶代替之外,第四实施例的组件的功能几乎与第一实施例的相同。因此,第四实施例的组件的详情可以参考第一实施例的组件。
图13是根据一个实施例的图1中所示的线性预测合成单元140的详细框图。参考图13,线性预测合成单元140包括解量化单元146、阶数修改单元143、内插单元144、逆变换单元146、以及合成单元148。
解量化单元142通过从线性预测分析单元130接收量化后的线性预测变换系数(索引)并且然后解量化所接收到的系数,生成线性预测变换系数。
从根据第一实施例的线性预测分析单元130A,解量化单元142接收第一组索引(在第一阶数的情况下)或者接收第一组索引和第二组索引(在第二阶数的情况下)。在第一阶数的情况下,第一组索引被解量化。在第二阶数的情况下,第一组索引和第二组索引分别被解量化并且然后相加在一起。
从根据第二实施例的线性预测分析单元130A',第一阶数或第二阶数的情况与第一实施例的相同。在第三阶数的情况下,解量化单元142接收所有第一至第三索引,解量化每个所接收到的索引,并且然后将它们相加在一起。
从根据第三实施例的线性预测分析单元130B,解量化单元142接收第一组索引和第二组索引(在第一阶数的情况下)或者仅接收第二组索引(在第二阶数的情况下)。在第一阶数的情况下,第一组索引和第二组索引被解量化并且然后相加在一起。
从根据第四实施例的线性预测分析单元130C,解量化单元142接收第N1组(在N1阶的情况下)或接收第N1组和第N2组(在N2阶的情况下)。同样地,第N1组和第N2组分别被解量化并且然后相加在一起。
同时,阶数修改单元143接收前一帧和/或下一帧的线性预测变换系数,并且然后选择至少一帧作为目标以内插。随后,基于阶数信息,阶数修改单元143估计与目标对应的帧的系数的阶数,作为当前帧的线性预测变换系数的阶数(例如,第一阶数、第二阶数、第三阶数等)。为了该处理,用于阶数调节单元136A/136B将低阶调节为高阶(或将高阶调节为低阶)的算法(例如,修改后的Levinson-Durbin算法、格子结构递归方法等)可以是可使用的。
如果内插的目标帧对应于前一帧(例如,前一个和/或下一个阶数-不同帧而不是当前帧内的子帧),则内插单元144使用通过阶数修改单元143阶数修改的前一帧和/或下一帧的线性预测变换系数,内插作为解量化单元142的输出的当前帧的线性预测变换系数。
逆变换单元146通过逆变换当前帧的内插后的线性预测变换系数,生成当前帧的线性预测系数。例如,逆变换单元146在第一阶数的情况下生成第一组的线性预测系数。对于另一个实例,逆变换单元146在第二阶数的情况下生成第二组的线性预测系数。对于另一个实例,逆变换单元146在第三阶数的情况下生成第三组的线性预测系数。
合成单元148通过基于线性预测系数来执行线性预测合成,生成线性预测合成信号。合成单元148与图1中所示的加法器150可以被集成到单个滤波器中是理所当然的。
在以上说明中,参考图1解释了根据本发明的实施例的音频信号处理装置的编码器,并且参考图2至图13解释了相应组件的多种实施例(例如,阶数确定单元120、线性预测分析单元130等)。在以下说明中,参考图14解释了解码器。
图14是根据本发明的一个实施例的音频信号处理装置的解码器的框图。解码器200可以包括解复用器210、阶数获取单元215、线性预测合成单元220和残留解码单元130。
解复用器210从至少一个比特流提取:1)带宽信息;2)编译模式信息;或3)带宽信息和编译模式信息,并且然后将所提取的信息递送到阶数获取单元215。
阶数获取单元215通过参考基于以下的表格来确定阶数信息:1)所提取的带宽信息;2)所提取的编译模式信息;或3)所提取的带宽信息和所提取的编译模式信息。该确定处理可以与图2中所示的阶数生成单元126的处理相同,并且其详情将被省略。特别是,该表格是编码器和解码器之间协商的信息,并且更特别地,是编码器的阶数生成单元126和解码器的阶数获取单元215之间协商的信息,并且可以对应于每频带的阶数信息、每编译模式的阶数信息等。
表格的一个实例以下在表1中示出,本发明可以不限于此。
[表格1]
Figure BDA00002183546600271
[表2]
Figure BDA00002183546600272
从而,由阶数获取单元215获取的阶数信息被递送至复用器210和线性预测合成单元220。
复用器210解析通过由来自比特流的当前帧的阶数信息指示的差量化的线性预测变换系数,并且然后将该系数递送至线性预测合成单元220。
线性预测合成单元220基于阶数信息和量化后的线性预测变换系数来生成线性预测合成信号。特别地,线性预测合成单元220通过基于阶数信息解量化/逆变换量化后的线性预测变换系数,生成解量化后的线性预测系数。随后,线性预测合成单元通过执行线性预测合成来生成线性预测合成信号。该处理可以对应于用于在公式2的右侧计算的在前处理。
同时,残留解码单元230使用用于线性预测残留信号的参数(例如,间距增益、间距延迟、码本增益、码本索引等)来预测线性预测残留信号。特别地,残留解码单元230使用码本索引和码本增益来预测间距残留分量,并且然后使用间距增益和间距延迟来执行长期合成,由此生成长期合成信号。并且,残留解码单元230能够通过将长期合成信号和间距残留分量相加在一起,生成线性预测残留信号。加法器240然后通过将线性预测合成信号和线性预测残留信号相加在一起来生成用于当前帧的音频信号。
根据本发明的音频信号处理装置可用于多种产品使用。这些产品可以主要分为独立组和便携组。TV、监视器、机顶盒等可以包括在独立组中。并且,PMP、移动电话、导航系统等可以包括在便携组中。
图15示出实现根据本发明的实施例的音频信号处理装置的产品之间的关系。参考图15,有线/无线通信单元510经由有线/无线通信系统接收比特流。特别地,有线/无线通信单元510可以包括有线通信单元510A、红外线单元510B、蓝牙单元510C、无线LAN单元510D和移动通信单元510E中的至少一个。
用户认证单元520接收用户信息的输入并且然后执行用户认证。用户认证单元520可以包括指纹识别单元、虹膜识别单元、面部识别单元和语音识别单元中的至少一个。指纹识别单元、虹膜识别单元、面部识别单元和语音识别单元接收指纹信息、虹膜信息、面部轮廓信息和语音信息,并且然后分别将它们转换为用户信息。确定每个用户信息是否与预注册用户数据匹配以执行用户认证。
输入单元530是使用户能够输入多种命令的输入设备并且可以包括键盘单元530A、触摸板单元530B、远程控制器单元530C和麦克风单元530D中的至少一个,本发明不限于此。特别地,麦克风单元530D是被配置成接收语音或音频信号的输入设备。在该情况下,键盘单元530A、触摸板单元530B和远程控制器单元530C中的每个都能够接收用于出呼的命令的输入、用于激活麦克风单元430D的命令的输入等。在经由键盘单元530B等接收用于出呼的命令的情况下,控制器550可以控制移动通信单元510E,以作出对到其的通信网络的呼叫的请求。
信号编译单元540对经由麦克风单元530D或有线/无线通信单元510接收到的音频信号和/或视频信号执行编码或解码,并且然后在时域中输出音频信号。信号编译单元540包括音频信号处理装置545。如在前述说明中所述,音频信号处理装置545对应于本发明的上述实施例(即,编码器100和/或解码器200)。从而,音频信号处理装置545和包括其的信号编译单元可以通过至少一个或多个处理器实现。
控制单元550从输入设备接收输入信号并且控制信号解码单元540和输出单元560的所有处理。特别地,输出单元560是被配置成输出由信号解码单元540生成的输出信号等的元件,并且可以包括扬声器单元560A和显示器单元560B。如果输出信号是音频信号,则其被输出到扬声器。如果输出信号是视频信号,则其经由显示器被输出。
图16是用于根据本发明的实施例的提供有音频信号处理装置的产品的关系的视图。图16示出终端和与图15中所示的产品对应的服务器之间的关系。参考图16(A),可以观察到,第一终端500.1和第二终端500.2可以经由有线/无线通信单元相互双向地交换数据或比特流。参考图16(B),可以观察到,服务器600和第一终端500.1可以相互执行有线/无线通信。
图17是实现根据本发明的一个实施例的音频信号处理装置的移动终端的示意性框图。参考图17,移动终端700可以包括被配置用于出呼和入呼的移动通信单元710、被配置用于数据通信的数据通信单元720、被配置成输入用于出呼或音频输入的命令的输入单元730、被配置成输入语音信号或音频信号的麦克风单元740、被配置成控制移动终端700的相应组件的控制单元750、信号编译单元760、被配置成输出语音信号或音频信号的扬声器770、以及被配置成输出屏幕的显示器780。
信号编译单元760对经由移动通信单元710、数据通信单元720和/或麦克风单元530D接收到的音频信号和/或视频信号执行编码或解码,并且经由移动通信单元710、数据通信单元720、和/或扬声器770在时域中输出音频信号。信号编译单元760可以包括音频信号处理装置765。如前述说明中所述,音频信号处理装置765对应于本发明的上述实施例(即,编码器100和/或解码器200)。从而,音频信号处理装置765和包括其的信号编译单元可以通过至少一个或多个处理器实现。
根据本发明的音频信号处理方法可以被实现为计算机可执行程序并且可以存储在计算机可读记录介质中。并且,具有本发明的数据结构的多媒体数据可以存储在计算机可读记录介质中。计算机可读介质包括各种各样的记录设备,其中存储由计算机系统可读取的数据。计算机可读介质例如包括ROM、RAM、CD-ROM、磁带、软盘、光学数据存储器件等,并且还包括载波型实现(例如,经由互联网的传输)。并且,由上述编码方法生成的比特流可以存储在计算机可读记录介质中或者可以经由有线/无线通信网络发送。
虽然在此参考本发明的优选实施例描述和示出了本发明,但是对于本领域技术人员将显而易见的是,在不脱离本发明的精神和范围的情况下,可以在其中作出多种修改和改变。从而,本发明意在覆盖落入所附权利要求及其等同物的范围内的本发明的修改和改变。
工业适用性
因此,本发明适用于对音频信号编码和解码。

Claims (12)

1.一种处理音频信号的方法,包括以下步骤:
通过对所述音频信号的当前帧执行频谱分析,确定指示所述当前帧对应于包括第一频带和第二频带的多个频带当中的哪一个的带宽信息;
基于所述带宽信息确定与所述当前帧对应的阶数信息;
通过对所述当前帧执行线性预测分析,生成第一阶数的第一组线性预测变换系数;
通过向量量化所述第一组线性预测变换系数生成第一组索引;
通过对所述当前帧执行所述线性预测分析,根据所述阶数信息生成第二阶数的第二组线性预测变换系数;以及
如果生成了所述第二组线性预测变换系数,则通过向量量化与在所述第一组索引和所述第二组线性预测变换系数之间的差相对应的第二组差生成第二组索引。
2.根据权利要求1所述的方法,
其中,所述多个频带进一步包括第三频带,以及
其中,所述方法进一步包括以下步骤:通过对所述当前帧执行所述线性预测分析,根据所述阶数信息来生成第三阶数的第三组线性预测变换系数,以及通过向量量化与在阶数被调节的第二组线性预测变换系数和所述第三组线性预测变换系数之间的差对应的第三组差生成第三组索引。
3.根据权利要求1所述的方法,
其中,如果所述带宽信息指示所述第一频带,则所述阶数信息被确定为先前确定的第一阶数,以及
其中,如果所述带宽信息指示所述第二频带,则所述阶数信息被确定为先前确定的第二阶数。
4.根据权利要求1所述的方法,其中,所述第一阶数小于所述第二阶数。
5.根据权利要求1所述的方法,进一步包括以下步骤:生成指示包括用于所述当前帧的第一模式和第二模式的多个模式中的一个的编译模式信息,
其中,基于所述编译模式信息进一步确定所述阶数信息。
6.根据权利要求1所述的方法,其中,所述阶数信息确定步骤包括以下步骤:
生成指示包括用于所述当前帧的第一模式和第二模式的多个模式中的一个的编译模式信息;
基于所述带宽信息来确定临时阶数;
根据所述编译模式信息确定校正阶数;以及
基于所述临时阶数和所述校正阶数确定所述阶数信息。
7.一种用于处理音频信号的装置,包括:
带宽确定单元,所述带宽确定单元被配置成通过对所述音频信号的当前帧执行频谱分析,确定指示与包括第一频带和第二频带的多个频带中的一个对应的当前帧的带宽信息;
阶数确定单元,所述阶数确定单元被配置成基于所述带宽信息来确定与所述当前帧对应的阶数信息;
线性预测系数生成/变换单元,所述线性预测系数生成/变换单元被配置成通过对所述当前帧执行线性预测分析,生成第一阶数的第一组线性预测变换系数,所述线性预测系数生成/变换单元被配置成根据所述阶数信息来生成第二阶数的第二组线性预测变换系数;
第一量化单元,所述第一量化单元被配置成通过向量量化所述第一组线性预测变换系数生成第一组索引;以及
第二量化单元,如果生成了所述第二组线性预测变换系数,则所述第二量化单元通过向量量化与在所述第一组索引和所述第二组线性预测变换系数之间的差相对应的第二组差生成第二组索引。
8.根据权利要求7所述的装置,其中,多个所述频带进一步包括第三频带,其中,所述线性预测系数生成/变换单元进一步通过对所述当前帧执行所述线性预测分析,根据所述阶数信息来生成第三阶数的第三组线性预测变换系数,并且其中,所述装置进一步包括:第三量化单元,所述第三量化单元被配置成通过向量量化与在阶数被调节的第二组线性预测变换系数和所述第三组线性预测变换系数之间的差对应的第三组差生成第三组索引。
9.根据权利要求7所述的装置,其中,如果所述带宽信息指示所述第一频带,则所述阶数信息被确定为先前确定的第一阶数,并且其中,如果所述带宽信息指示所述第二频带,则所述阶数信息被确定为先前确定的第二阶数。
10.根据权利要求7所述的装置,其中,所述第一阶数小于所述第二阶数。
11.根据权利要求7所述的装置,其中,所述阶数确定单元进一步包括:模式确定单元,所述模式确定单元被配置成生成指示包括用于所述当前帧的第一模式和第二模式的多个模式中的一个的编译模式信息,并且其中,基于所述编译模式信息进一步确定所述阶数信息。
12.根据权利要求7所述的装置,所述阶数确定单元包括:
模式确定单元,所述模式确定单元被配置成生成指示包括用于所述当前帧的第一模式和第二模式的多个模式中的一个的编译模式信息;以及
阶数生成单元,所述阶数生成单元被配置成基于所述带宽信息来确定临时阶数,所述阶数生成单元被配置成根据所述编译模式信息来确定校正阶数,所述阶数生成单元被配置成基于所述临时阶数和所述校正阶数来确定所述阶数信息。
CN201180015619.4A 2010-03-23 2011-03-23 处理音频信号的方法和装置 Expired - Fee Related CN102812512B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410210359.1A CN104021793B (zh) 2010-03-23 2011-03-23 处理音频信号的方法和装置

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US31639010P 2010-03-23 2010-03-23
US61/316,390 2010-03-23
US201161451564P 2011-03-10 2011-03-10
US61/451,564 2011-03-10
PCT/KR2011/001989 WO2011118977A2 (ko) 2010-03-23 2011-03-23 오디오 신호 처리 방법 및 장치

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN201410210359.1A Division CN104021793B (zh) 2010-03-23 2011-03-23 处理音频信号的方法和装置

Publications (2)

Publication Number Publication Date
CN102812512A CN102812512A (zh) 2012-12-05
CN102812512B true CN102812512B (zh) 2014-06-25

Family

ID=44673756

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201180015619.4A Expired - Fee Related CN102812512B (zh) 2010-03-23 2011-03-23 处理音频信号的方法和装置
CN201410210359.1A Expired - Fee Related CN104021793B (zh) 2010-03-23 2011-03-23 处理音频信号的方法和装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN201410210359.1A Expired - Fee Related CN104021793B (zh) 2010-03-23 2011-03-23 处理音频信号的方法和装置

Country Status (5)

Country Link
US (1) US9093068B2 (zh)
EP (1) EP2551848A4 (zh)
KR (1) KR101804922B1 (zh)
CN (2) CN102812512B (zh)
WO (1) WO2011118977A2 (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2551848A4 (en) * 2010-03-23 2016-07-27 Lg Electronics Inc METHOD AND APPARATUS FOR PROCESSING AUDIO SIGNAL
CN102982807B (zh) * 2012-07-17 2016-02-03 深圳广晟信源技术有限公司 用于对语音信号lpc系数进行多级矢量量化的方法和系统
PL3447766T3 (pl) * 2014-04-24 2020-08-24 Nippon Telegraph And Telephone Corporation Sposób kodowania, urządzenie kodujące, odpowiedni program i nośnik zapisu
CN112689109B (zh) * 2019-10-17 2023-05-09 成都鼎桥通信技术有限公司 一种记录仪的音频处理方法和装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001306098A (ja) * 2000-04-25 2001-11-02 Victor Co Of Japan Ltd 線形予測符号化装置及びその方法
KR100348137B1 (ko) * 1995-12-15 2002-11-30 삼성전자 주식회사 표본화율변환에의한음성부호화및복호화방법
CN101180676A (zh) * 2005-04-01 2008-05-14 高通股份有限公司 用于谱包络表示的向量量化的方法和设备
CN101548317A (zh) * 2006-12-15 2009-09-30 松下电器产业株式会社 自适应激励矢量量化装置和自适应激励矢量量化方法
CN101615395A (zh) * 2008-12-31 2009-12-30 华为技术有限公司 信号编码、解码方法及装置、系统

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4379949A (en) * 1981-08-10 1983-04-12 Motorola, Inc. Method of and means for variable-rate coding of LPC parameters
CA1250368A (en) * 1985-05-28 1989-02-21 Tetsu Taguchi Formant extractor
JPH01238229A (ja) * 1988-03-17 1989-09-22 Sony Corp デイジタル信号処理装置
JP2625998B2 (ja) * 1988-12-09 1997-07-02 沖電気工業株式会社 特徴抽出方式
FR2720850B1 (fr) * 1994-06-03 1996-08-14 Matra Communication Procédé de codage de parole à prédiction linéaire.
JP4033898B2 (ja) * 1994-12-20 2008-01-16 ドルビー・ラボラトリーズ・ライセンシング・コーポレーション 知覚符号化システムのサブバンドに波形予測を適用する装置及び方法
FR2742568B1 (fr) * 1995-12-15 1998-02-13 Catherine Quinquis Procede d'analyse par prediction lineaire d'un signal audiofrequence, et procedes de codage et de decodage d'un signal audiofrequence en comportant application
FI964975A (fi) * 1996-12-12 1998-06-13 Nokia Mobile Phones Ltd Menetelmä ja laite puheen koodaamiseksi
FI973873A (fi) * 1997-10-02 1999-04-03 Nokia Mobile Phones Ltd Puhekoodaus
EP1052622B1 (en) * 1999-05-11 2007-07-11 Nippon Telegraph and Telephone Corporation Selection of a synthesis filter for CELP type wideband audio coding
US6574593B1 (en) * 1999-09-22 2003-06-03 Conexant Systems, Inc. Codebook tables for encoding and decoding
US6850884B2 (en) * 2000-09-15 2005-02-01 Mindspeed Technologies, Inc. Selection of coding parameters based on spectral content of a speech signal
US7272555B2 (en) * 2001-09-13 2007-09-18 Industrial Technology Research Institute Fine granularity scalability speech coding for multi-pulses CELP-based algorithm
FI20021936A (fi) 2002-10-31 2004-05-01 Nokia Corp Vaihtuvanopeuksinen puhekoodekki
US7613606B2 (en) * 2003-10-02 2009-11-03 Nokia Corporation Speech codecs
KR100707174B1 (ko) * 2004-12-31 2007-04-13 삼성전자주식회사 광대역 음성 부호화 및 복호화 시스템에서 고대역 음성부호화 및 복호화 장치와 그 방법
US20070005351A1 (en) * 2005-06-30 2007-01-04 Sathyendra Harsha M Method and system for bandwidth expansion for voice communications
US8532984B2 (en) * 2006-07-31 2013-09-10 Qualcomm Incorporated Systems, methods, and apparatus for wideband encoding and decoding of active frames
KR100921867B1 (ko) * 2007-10-17 2009-10-13 광주과학기술원 광대역 오디오 신호 부호화 복호화 장치 및 그 방법
EP2551848A4 (en) * 2010-03-23 2016-07-27 Lg Electronics Inc METHOD AND APPARATUS FOR PROCESSING AUDIO SIGNAL

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100348137B1 (ko) * 1995-12-15 2002-11-30 삼성전자 주식회사 표본화율변환에의한음성부호화및복호화방법
JP2001306098A (ja) * 2000-04-25 2001-11-02 Victor Co Of Japan Ltd 線形予測符号化装置及びその方法
CN101180676A (zh) * 2005-04-01 2008-05-14 高通股份有限公司 用于谱包络表示的向量量化的方法和设备
CN101548317A (zh) * 2006-12-15 2009-09-30 松下电器产业株式会社 自适应激励矢量量化装置和自适应激励矢量量化方法
CN101615395A (zh) * 2008-12-31 2009-12-30 华为技术有限公司 信号编码、解码方法及装置、系统

Also Published As

Publication number Publication date
EP2551848A2 (en) 2013-01-30
WO2011118977A3 (ko) 2011-12-22
WO2011118977A2 (ko) 2011-09-29
US9093068B2 (en) 2015-07-28
US20130096928A1 (en) 2013-04-18
CN104021793A (zh) 2014-09-03
CN102812512A (zh) 2012-12-05
CN104021793B (zh) 2017-05-17
KR20130028718A (ko) 2013-03-19
EP2551848A4 (en) 2016-07-27
KR101804922B1 (ko) 2017-12-05

Similar Documents

Publication Publication Date Title
CN1957398B (zh) 在基于代数码激励线性预测/变换编码激励的音频压缩期间低频加重的方法和设备
RU2492530C2 (ru) Устройство и способ кодирования/декодирования звукового сигнала посредством использования схемы переключения совмещения имен
JP6704037B2 (ja) 音声符号化装置および方法
TWI669705B (zh) 用以使用側邊增益及殘餘增益編碼或解碼多通道信號之設備及方法
CN101925950B (zh) 音频编码器和解码器
JP6272619B2 (ja) オーディオ信号の符号化用エンコーダ、オーディオ伝送システムおよび補正値の判定方法
US20070147518A1 (en) Methods and devices for low-frequency emphasis during audio compression based on ACELP/TCX
KR101792712B1 (ko) 주파수 도메인 내의 선형 예측 코딩 기반 코딩을 위한 저주파수 강조
US11011181B2 (en) Audio encoding/decoding based on an efficient representation of auto-regressive coefficients
CN104321815A (zh) 用于带宽扩展的高频编码/高频解码方法和设备
CN107393552A (zh) 自适应带宽扩展方法及其装置
US8909539B2 (en) Method and device for extending bandwidth of speech signal
KR20120128156A (ko) 샘플링 레이트 의존 시간 왜곡 윤곽 인코딩을 이용하는 오디오 신호 디코더, 오디오 신호 인코더, 방법, 및 컴퓨터 프로그램
CN103262161A (zh) 确定用于线性预测编码(lpc)系数量化的具有低复杂度的加权函数的设备和方法
CN102714040A (zh) 编码装置、解码装置、频谱变动量计算方法和频谱振幅调整方法
CN104584122A (zh) 使用改进的概率分布估计的基于线性预测的音频编码
CN102812512B (zh) 处理音频信号的方法和装置
US9373337B2 (en) Reconstruction of a high-frequency range in low-bitrate audio coding using predictive pattern analysis
EP2571170B1 (en) Encoding method, decoding method, encoding device, decoding device, program, and recording medium
US10115406B2 (en) Apparatus and method for audio signal envelope encoding, processing, and decoding by splitting the audio signal envelope employing distribution quantization and coding
US20100280830A1 (en) Decoder
Sugiura et al. Resolution warped spectral representation for low-delay and low-bit-rate audio coder
Villemoes et al. Speech coding with transform domain prediction
US20140244244A1 (en) Apparatus and method for processing frequency spectrum using source filter

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20140625

Termination date: 20170323

CF01 Termination of patent right due to non-payment of annual fee