CN103918028A - 基于自回归系数的有效表示的音频编码/解码 - Google Patents

基于自回归系数的有效表示的音频编码/解码 Download PDF

Info

Publication number
CN103918028A
CN103918028A CN201280053667.7A CN201280053667A CN103918028A CN 103918028 A CN103918028 A CN 103918028A CN 201280053667 A CN201280053667 A CN 201280053667A CN 103918028 A CN103918028 A CN 103918028A
Authority
CN
China
Prior art keywords
frequency
low frequency
decoding
grid
opt
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201280053667.7A
Other languages
English (en)
Other versions
CN103918028B (zh
Inventor
沃洛佳·格兰恰诺夫
西德格尔·思维里森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Telefonaktiebolaget LM Ericsson AB
Original Assignee
Telefonaktiebolaget LM Ericsson AB
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Telefonaktiebolaget LM Ericsson AB filed Critical Telefonaktiebolaget LM Ericsson AB
Publication of CN103918028A publication Critical patent/CN103918028A/zh
Application granted granted Critical
Publication of CN103918028B publication Critical patent/CN103918028B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/032Quantisation or dequantisation of spectral components
    • G10L19/038Vector quantisation, e.g. TwinVQ audio
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0204Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using subband decomposition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/032Quantisation or dequantisation of spectral components
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/038Speech enhancement, e.g. noise reduction or echo cancellation using band spreading techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0007Codebook element generation
    • G10L2019/001Interpolation of codebook vectors

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Error Detection And Correction (AREA)

Abstract

描述了一种用于对部分地表示音频信号的自回归系数的参数频谱表示(f)进行编码的编码器(50)。编码器包括低频编码器(10),低频编码器(10)被配置为对参数频谱表示的与音频信号的低频部分相对应的部分的元素进行量化。编码器还包括高频编码器(12),高频编码器(12)被配置为通过基于以经量化的镜像频率(fm)为中心翻转的经量化的元素(fL)和在闭环搜索过程中根据频率网格码本(24)确定的频率网格进行加权平均来对参数频谱表示(f)的高频部分(fH)进行编码,其中,经量化的镜像频率(fm)将低频部分与高频部分分隔开。还描述了相应的解码器、相应的编码/解码方法和包括这种编码器/解码器的UE。

Description

基于自回归系数的有效表示的音频编码/解码
技术领域
所提出的技术涉及基于自回归(AR)系数的有效表示的音频编码/解码。
背景技术
AR分析被普遍用于时域音频编码[1]和变换域音频编码[2]。不同的应用使用具有不同长度的AR矢量(模型阶数主要取决于经编码的信号的带宽;从针对带宽为4kHz的信号的10个系数到针对带宽为16kHz的信号的24个系数)。使用分离的多级矢量量化(VQ)来对这些AR系数进行量化,这确保了近似透明的重构。然而,传统的量化方案未被设计用于当AR系数对高音频率(例如,高于6kHz)进行建模并且以非常有限的比特预算操作(这不允许对系数进行透明编码)的情况。当在非最佳频率范围内并且以非最佳比特率使用这些传统的量化方案时,这会在重构的信号中引入较大的感知误差。
发明内容
所提出的技术的目的是用于自回归系数的更有效的量化方案。
该目的是根据所附权利要求来实现的。
所提出的技术的第一方案涉及一种对部分地表示音频信号的自回归系数的参数频谱表示进行编码的方法。所述方法包括以下步骤:
·所述方法通过对所述参数频谱表示的与所述音频信号的低频部分相对应的元素进行量化来对所述参数频谱表示的低频部分进行编码;
·所述方法通过基于以经量化的镜像频率为中心翻转的经量化的元素和在闭环搜索过程中根据频率网格码本确定的频率网格进行加权平均来对所述参数频谱表示的高频部分进行编码,其中,所述经量化的镜像频率将所述低频部分与所述高频部分分隔开。
所提出的技术的第二方案涉及一种对部分地表示音频信号的自回归系数的经编码的参数频谱表示进行解码的方法。所述方法包括以下步骤:
·所述方法根据对所述参数频谱表示的与所述音频信号的低频部分相对应的低频部分进行编码的至少一个量化索引来重构所述参数频谱表示的所述低频部分的元素;
·所述方法通过基于以经解码的镜像频率为中心翻转的经解码的元素和经解码的频率网格进行加权平均来重构所述参数频谱表示的高频部分的元素,其中,所述经解码的镜像频率将所述低频部分与所述高频部分分隔开。
所提出的技术的第三方案涉及一种用于对部分地表示音频信号的自回归系数的参数频谱表示进行编码的编码器。所述编码器包括:
·低频编码器,被配置为通过对所述参数频谱表示的与所述音频信号的低频部分相对应的元素进行量化来对所述参数频谱表示的低频部分进行编码;
·高频编码器,被配置为通过基于以经量化的镜像频率为中心翻转的经量化的元素和在闭环搜索过程中根据频率网格码本确定的频率网格进行加权平均来对所述参数频谱表示的高频部分进行编码,其中,所述经量化的镜像频率将所述低频部分与所述高频部分分隔开。
所提出的技术的第四方案涉及一种UE,包括根据第三方案所述的编码器。
所提出的技术的第五方案涉及一种用于对部分地表示音频信号的自回归系数的经编码的参数频谱表示进行解码的解码器。所述解码器包括:
·低频解码器,被配置为根据对所述参数频谱表示的与所述音频信号的低频部分相对应的低频部分进行编码的至少一个量化索引来重构所述参数频谱表示的所述低频部分的元素;
·高频解码器,被配置为通过基于以经解码的镜像频率为中心翻转的经解码的元素和经解码的频率网格进行加权平均来重构所述参数频谱表示的高频部分的元素,其中,所述经解码的镜像频率将所述低频部分与所述高频部分分隔开。
所提出的技术的第六方案涉及一种UE,包括根据第五方案所述的解码器。
所提出的技术提供了用于对自回归系数进行压缩或编码的低比特率方案。与全频谱量化方法相比,所提出的技术除了感知改善之外,还具有减少计算复杂度的优点。
附图说明
通过参照结合附图给出的以下描述,可以最佳地理解所提出的技术及其其他目的和优点,在附图中:
图1是根据所提出的技术的编码方法的流程图;
图2示出了所提出的技术的编码器侧方法的实施例;
图3示出了通过将(由黑点表示的)经量化的低频LSF元素镜像到先前由LSF矢量的上半部分占用的空间来将它们翻转到高频;
图4示出了对信号频谱进行网格平滑的效果;
图5是根据所提出的技术的编码器的实施例的框图;
图6是根据所提出的技术的编码器的实施例的框图;
图7是根据所提出的技术的解码方法的流程图;
图8示出了所提出的技术的解码器侧方法的实施例;
图9是根据所提出的技术的解码器的实施例的框图;
图10是根据所提出的技术的解码器的实施例的框图;
图11是根据所提出的实施例的编码器的实施例的框图;
图12是根据所提出的技术的解码器的实施例的框图;
图13示出了根据所提出的技术包括编码器的用户设备的实施例;以及
图14示出了根据所提出的技术包括解码器的用户设备的实施例。
具体实施方式
所提出的技术要求以AR系数(另一常用名称是线性预测(LP)系数)矢量a作为输入。这些系数通常是通过首先计算加窗音频段s(n)(n=l,...,N)的自相关r(j)而获得的,即:
r ( j ) = Σ n = j N s ( n ) s ( n - j ) , j = 0 , . . . , M - - - ( 1 )
其中,M是预定义模型阶数。然后,通过Levinson-Durbin算法[3]根据自相关序列r(j)获得AR系数a。
在音频通信系统中,必须从系统的编码器部分向解码器部分有效地传输AR系数。在所提出的技术中,这是通过仅对特定系数进行量化并且仅使用少量比特表示其余系数来实现的。
编码器
图1是根据所提出的技术的编码方法的流程图。步骤S1通过对参数频谱表示的与音频信号的低频部分相对应的元素进行量化来对参数频谱表示的低频部分进行编码。步骤S2通过基于以经量化的镜像频率为中心翻转的经量化的元素和在闭环搜索过程中根据频率网格码本确定的频率网格进行加权平均来对参数频谱表示的高频部分进行编码,其中,经量化的镜像频率将低频部分与高频部分分隔开。
图2示出了所提出的技术的实施例的在编码器侧执行的步骤。首先,在步骤S3中,例如,通过[4]中描述的算法,将AR系数转换为线谱频率(LSF)表示。然后,在步骤S4中,将LSF矢量f划分为两个部分,这两个部分被表示为低频(L)部分和高频(H)部分。例如,在10维LSF矢量中,可以将前五个系数指派给L子矢量fL并且将其余系数指派给H子矢量fH
虽然所提出的技术是参考LSF表示来描述的,但是其通用概念也可被应用于AR矢量被转换为另一参数频谱表示(例如,线谱对(LSP)或导抗频谱对(ISP)而不是LSF)的备选实现方式。
在步骤S5中,仅低频LSF子矢量fL被量化,并且其量化索引被发送到解码器。子矢量fH的高频LSF未被量化,而是仅在量化镜像频率fm(至)以及从形成频率网格码本的频率网格集合gi中闭环搜索最佳频率网格gopt时使用,如下面参照等式(2)-(13)所描述的那样。针对镜像频率和最佳频率网格的量化索引Im和Ig分别表示经编码的高频LSF矢量fH并且被发送到解码器。在下面的描述中,高频子矢量fH的编码有时被称作“外推”。
在所提出的实施例中,量化基于根据上述参数的统计特性被单独优化的标量量化器(SQ)集合。在备选的实现方式中,LSF元素可以被发送到矢量量化器(VQ)或者可以甚至针对组合的参数集合(LSF、镜像频率和最佳网格)来训练VQ。
在步骤S6中将子矢量fL的低频LSF翻转到由子矢量fH的高频LSF跨越的空间中。在图3中示出了该操作。首先,按照下式计算经量化的镜像频率
f ^ m = Q ( f ( M / 2 ) - f ^ ( M / 2 - 1 ) ) + f ^ ( M / 2 - 1 ) - - - ( 2 )
其中,f表示整个LSF矢量,并且Q(·)是fH中的第一元素(即,f(M/2))与fL中的最后一个经量化的元素(即,)之间的差值的量化,并且M表示参数频谱表示中的元素的总数。
接下来,按照下式来计算经翻转的LSFfflip(k):
f flip ( k ) = 2 f ^ m - f ^ ( M / 2 - 1 - k ) , 0 ≤ k ≤ M / 2 - 1 - - - ( 3 )
然后,按照下式重新缩放经翻转的LSF,使得它们将被束缚在范围[0...0.5]内(备选地,可以用弧度将该范围表示为[0...π]):
将频率网格gi重新缩放以适合最后一个经量化的LSF元素与最大网格点值gmax之间的区间,即:
g ~ i ( k ) = g i ( k ) · ( g max - f ^ ( M / 2 - 1 ) ) + f ^ ( M / 2 - 1 ) - - - ( 5 )
在步骤S7中通过使用重新缩放的频率网格进行平滑来进一步处理这些经翻转且重新缩放的系数(在图2中共同表示为)。按照下式,平滑具有经翻转且重新缩放的系数与重新缩放的频率网格之间的加权求和的形式:
f smooth ( k ) = [ 1 - λ ( k ) ] f ~ flip ( k ) + λ ( k ) g ~ i ( k ) - - - ( 6 )
其中,λ(k)和[1-λ(k)]是预定义权重。
因为等式(6)包括自由索引i,因此这意味着将针对每一个生成矢量fsmooth(k)。因此,等式(6)可以被表达为:
f smooth i ( k ) = [ 1 - λ ( k ) ] f ~ flip ( k ) + λ ( k ) g ~ i ( k ) - - - ( 7 )
在步骤S7中在对所有频率网格gi进行闭环搜索中执行该平滑,以找到最小化预定义标准的网格(如下面在等式(12)之后所描述的)。
对于M/2=5,等式(7)中的权重λ(k)可以被选择为:
λ={0.2,0.35,0.5,0.75,0.8}  (8)
在一个实施例中,感知地优化这些常数(建议不同的值集合,并且最终选择由听众面板报告的最大化质量的集合)。通常,λ中的元素的值随着索引k的增加而增加。因为较高的索引与较高的频率相对应,因此与相比,对得到的频率的较高频率造成更大影响(参见等式(7))。该平滑或加权平均的结果在接近高频处是更加平坦的频谱(潜在地由引入的频谱结构在接近高频处被逐渐移除)。
在这里,gmax被选择为接近但小于0.5。在该示例中,gmax被选择为等于0.49。
该示例中的方法使用4个经训练的网格gi(更少或更多个网格是可能的)。预先存储在存储器中的范围[0…1]内的模板网格矢量具有以下形式:
g 1 = { 0.17274857,0.35811835,0.52369229,0.71552804 , 0.85539771 } g 2 = { 0.16313042,0.30782962,0.43109281,0.59395830,0.82952486 } g 3 = { 0.17172427,0.33157177,0.48528862,0.66492442,0.82952486 } g 4 = { 0.16666667,0.33333333,0.50000000,0.66666667,0.83333333 } - - - ( 9 )
如果假设最后一个经量化的LSF系数的位置为0.25,则重新缩放的网格矢量采用以下形式:
g ~ 1 = { 0.2915,0.3359,0.3757,0.4217,0.4553 } g ~ 2 = { 0.2892,0.3239,0.3535,0.3925,0.4451 } g ~ 3 = { 0.2912,0.3296,0.3665,0.4096,0.449 } g ~ 4 = { 0.2900,0.3300,0.3700,0.4100,0.4500 } - - - ( 10 )
在图4中示出了将经翻转且重新缩放的LSF系数平滑至网格点的效果的示例。随着在闭环过程中使用的网格矢量的数量的增加,得到的频谱越来越接近目标频谱。
如果gmax=0.5而不是0.49,则频率网格码本可以取而代之地具有以下形式:
g 1 = { 0.15998503,0.31215086,0.47349756,0.66540429,0.84043882 } g 2 = { 0.15614473,0.30697672,0.45619822,0.62493785,0.77798001 } g 3 = { 0.14185823,0.26648724,0.39740108,0.55685745,0.74688616 } g 4 = { 0.15416561,0.27238427,0.39376780,0.59287916,0.86613986 } - - - ( 11 )
如果再次假设最后一个经量化的LSF系数的位置为0.25,则重新缩放的网格矢量采用以下形式:
g ~ 1 = { 0.28999626,0.32803772,0.36837439,0.41635107,0.46010970 } g ~ 2 = { 0.28903618,0.32674418,0.36404956,0.40623446,0.44449500 } g ~ 3 = { 0.28546456,0.31662181,0.34935027,0.38921436,0.43672154 } g ~ 4 = { 0.28854140,0.31809607,0.34844195,0 . 39821979,0.46653496 } - - - ( 12 )
将注意到,重新缩放的网格可以随着帧而不同,这是因为在重新缩放等式(5)中可能不是恒定的,而是随着时间而改变。然而,通过模板网格gi形成的码本是恒定的。在这个意义上说,重新缩放的网格可以被视为由模板网格gi的固定码本形成的自适应码本。
将在(7)中通过加权求和创建的LSF矢量与目标LSF矢量fH进行比较,并且将最佳网格gi作为最小化这两个矢量之间的均方差(MSE)的网格来进行选择。可以在数学上将该最佳网格的索引opt表达为:
opt = arg min i ( Σ k = 0 M / 2 - 1 ( f smooth i ( k ) - f H ( k ) ) 2 ) - - - ( 13 )
其中,fH(k)是由参数频谱表示的高频部分的元素形成的目标矢量。
在备选实现方式中,可以使用模仿频谱失真(SD)的更先进的误差度量,例如,LSF域上的逆调和平均或者其他加权。
在一个实施例中,通过对已经从语音数据库中提取的较大的LSF矢量集合使用K均值聚类算法来获得频率网格码本。等式(9)和(11)中的网格矢量被选择为在按照等式(5)进行重新缩放并且按照等式(7)使用进行加权平均之后最小化与fH的平方距离的网格矢量。换言之,当在等式(7)中使用这些网格矢量时,这些网格矢量提供了高频LSF系数的最佳表示。
图5是根据所提出的技术的编码器的实施例的框图。编码器40包括低频编码器10,低频编码器10被配置为通过对参数频谱表示的与音频信号的低频部分相对应的元素进行量化来对参数频谱表示f的低频部分进行编码。编码器40还包括高频编码器12,高频编码器12被配置为通过基于以经量化的镜像频率为中心翻转的经量化的元素和在闭环搜索过程中根据频率网格码本24确定的频率网格进行加权平均来对参数频谱表示的高频部分fH进行编码,其中,经量化的镜像频率将低频部分与高频部分分隔开。通过相应的量化索引Im、Ig来表示经量化的实体gopt,其中,相应的量化索引Im、Ig被发送到解码器。
图6是根据所提出的技术的编码器的实施例的框图。低频编码器10接收整个LSF矢量f,LSF矢量f被矢量划分器14划分为低频部分或子矢量fL和高频部分或子矢量fH。低频部分被转发给量化器16,量化器16被配置为通过将其元素量化(通过标量或矢量量化)至经量化的低频部分或子矢量来对低频部分fL进行编码。输出至少一个量化索引(这取决于所使用的量化方法)以发送到解码器。
经量化的低频子矢量和还未编码的高频子矢量fH被转发给高频编码器12。镜像频率计算器18被配置为按照等式(2)来计算经量化的镜像频率虚线指示针对此只需要中的最后一个经量化的元素和fH中的第一个元素f(M/2)。表示经量化的镜像频率的量化索引Im被输出以发送到解码器。
经量化的镜像频率被转发给量化低频子矢量翻转单元20,量化低频子矢量翻转单元20被配置为按照等式(3)以经量化的镜像频率为中心对经量化的低频子矢量的元素进行翻转。经翻转的元素fflip(k)和经量化的镜像频率被转发给翻转元素重新缩放器22,翻转元素重新缩放器22被配置为按照等式(4)重新缩放经翻转的元素。
频率网格gi(k)从频率网格码本24转发到频率网格重新缩放器26,频率网格重新缩放器26还接收中的最后一个经量化的元素重新缩放器26被配置为按照等式(5)执行重新缩放。
来自翻转元素重新缩放器22的经翻转且重新缩放的LSF和来自频率网格重新缩放器26的经重新缩放的频率网格被转发给加权单元28,加权单元28被配置为按照等式(7)执行加权平均。得到的经平滑的元素和高频目标矢量fH被转发给频率网格搜索单元30,频率网格搜索单元30被配置为按照等式(13)来选择频率网格gopt。相应的索引Ig被发送到解码器。
解码器
图7是根据所提出的技术的解码方法的流程图。步骤S11根据对参数频谱表示的与音频信号的低频部分相对应的低频部分进行编码的至少一个量化索引来重构参数频谱表示的低频部分的元素。步骤S12通过基于以经解码的镜像频率为中心翻转的经解码的元素和经解码的频率网格进行加权平均来重构参数频谱表示的高频部分的元素,其中,经解码的镜像频率将低频部分与高频部分分隔开。
通过图8中的实施例说明在解码器处执行的方法步骤。首先,接收分别针对低频LSF、最佳镜像频率和最佳网格的量化索引Im、Ig
在步骤S13中,通过使用接收的索引根据低频码本来重构经量化的低频部分
在解码器处执行的用于重构高频部分的方法步骤与在等式(3)至(7)中已经描述的编码器处理步骤非常类似。
在解码器处(在S14处)执行的翻转和重新缩放步骤与编码器操作相同,因此由等式(3)至(4)准确地描述。
重新缩放网格(等式(5))和使用网格进行平滑(等式(6))的步骤(在S15处)仅需要在解码器中进行略微修改,这是因为不执行闭环搜索(遍历i搜索)。其原因在于解码器从比特流接收到最佳索引opt。这些等式取而代之地分别采用以下形式:
g ~ opt ( k ) = g opt ( k ) · ( g max - f ^ ( M / 2 - 1 ) + f ^ ( M / 2 - 1 ) ) - - - ( 14 )
以及
f smooth ( k ) = [ 1 - λ ( k ) ] f ~ flip ( k ) + λ ( k ) g ~ opt ( k ) - - - ( 15 )
矢量fsmooth表示经解码的信号的高频部分
最后,在步骤S16中组合LSF矢量的低频部分和高频部分并且在步骤S17中将得到的矢量转换为AR系数
图9是根据所提出的技术的解码器50的实施例的框图。低频解码器60被配置为根据对参数频谱表示f的与音频信号的低频部分相对应的低频部分fL进行编码的至少一个量化索引来重构参数频谱表示的低频部分的元素高频解码器62被配置为通过基于以经解码的镜像频率为中心翻转的经解码的元素和经解码的频率网格gopt进行加权平均来对参数频谱表示的高频部分fH的元素进行重构,其中,经解码的镜像频率将低频部分与高频部分分隔开。通过从频率网格码本24(该码本是与编码器中的码本相同的码本)取回与接收的索引Ig相对应的频率网格来获得频率网格gopt
图10是根据所提出的技术的解码器的实施例的框图。低频解码器接收至少一个量化索引(这取决于使用标量量化还是矢量量化),并且将该量化索引转发给量化索引解码器64,量化索引解码器64重构参数频谱表示的低频部分的元素高频解码器62接收镜像频率量化索引Im,镜像频率量化索引Im被转发给镜像频率解码器66以对镜像频率进行解码。其余的块20、22、24、26和28执行与图6中所示的编码器中的相应编号框相同的功能。编码器与解码器之间的实质差别在于镜像频率是根据索引Im来解码的而不是根据等式(2)来计算的,并且编码器中的频率网格搜索单元30是不需要的,这是因为最佳频率网格是通过查找与接收的索引Ig相对应的频率网格gopt直接从频率网格码本24获得的。
可以使用任何传统的技术(例如分立电路或集成电路技术,包括通用电子电路和专用电路)用硬件实现本文所描述的步骤、功能、过程和/或框。
备选地,可以用软件实现本文所描述的步骤、功能、过程和/或框中的至少一些以供适合的处理设备执行。该设备可以包括例如一个或多个微处理器、一个或多个数字信号处理器(DSP)、一个或多个专用集成电路(ASIC)、视频加速硬件或者一个或多个适合的可编程逻辑设备(例如,现场可编程门阵列(FPGA))。此类处理元件的组合也是可行的。
还应当理解的是,可以重用已经存在于UE中的通用处理能力。这例如可以通过对现有软件进行重新编程或者通过添加新的软件组件来完成。
图11是根据所提出的技术的编码器40的实施例的框图。该实施例基于处理器110(例如,微处理器),处理器110执行用于对参数频谱表示的低频部分fL进行量化的软件120和用于搜索由镜像频率和最佳频率网格矢量gopt表示的最佳外推的软件130。软件被存储在存储器140中。处理器110通过系统总线与存储器进行通信。输入的参数频谱表示f由控制I/O总线的输入/输出(I/O)控制器150接收,其中,处理器110和存储器140连接到该I/O总线。软件120可以执行低频编码器10的功能。软件130可以执行高频编码器12的功能。I/O控制器150通过I/O总线从存储器140输出从软件120和130获得的经量化的参数gopt(或者优选地,相应的索引Im、Ig)。
图12是根据所提出的技术的解码器50的实施例的框图。该实施例基于处理器210(例如,微处理器),处理器210执行用于对参数频谱表示的低频部分fL进行解码的软件220和用于对参数频谱表示的通过外推得到的高频部分fH进行解码的软件230。软件被存储在存储器240中。处理器210通过系统总线与存储器进行通信。(由Im、Ig表示的)输入的经编码参数gopt由控制I/O总线的输入/输出(I/O)控制器250接收,其中,处理器210和存储器240连接到该I/O总线。软件220可以执行低频解码器60的功能。软件230可以执行高频解码器62的功能。I/O控制器250通过I/O总线从存储器240输出从软件220和230获得的经解码的参数表示
图13示出了根据所提出的技术包括编码器的用户设备UE的实施例。麦克风70将音频信号转发给A/D转换器72。音频编码器74对经数字化的音频信号进行编码。在音频编码器74中仅示出了用于说明所提出的技术的相关组件。音频编码器74包括AR系数估计器76、AR至参数频谱表示转换器78和参数频谱表示的编码器40。经编码的参数频谱表示(与无需用于说明本技术的其他经编码的音频参数一起)被转发给无线电单元80以进行信道编码并且上变频至射频以及通过天线发送到解码器。
图14示出了根据所提出的技术包括解码器的用户设备UE的实施例。天线接收包括经编码的参数频谱表示的信号并且将该信号转发给无线电单元82以用于从射频下变频并且进行信道解码。得到的数字信号被转发给音频解码器84。在音频解码器84中仅示出了用于说明所提出的技术的相关组件。音频解码器84包括参数频谱表示的解码器50和参数频谱表示至AR转换器86。AR系数(与无需用于说明本技术的其他经解码的音频参数一起)用于对音频信号进行解码,并且得到的音频采样被转发给D/A转换和放大单元88,D/A转换和放大单元88向扬声器90输出音频信号。
在一个示例性应用中,在BWE上下文中使用所提出的AR量化-外推方案。在该情况下,对特定高频带执行AR分析,并且AR系数仅用于合成滤波器。不是使用相应的分析滤波器获得针对该高频带的激励信号,而是根据单独编码的低频带激励外推针对该高频带的激励信号。
在另一个示例性应用中,在ACELP型编码方案中使用所提出的AR量化-外推方案。ACELP编码器使用AR模型对扬声器的声道进行建模。通过使波形s(n)通过白化滤波器来生成激励信号e(n):e(n)=A(z)s(n),其中,A(z)=1+a1z-1+a2z-2+…+aMz-M是阶数为M的AR模型。AR系数集合a=[a1a2…aM]T和激励信号被逐帧地量化,并且通过网络发送量化索引。在解码器处,通过发送经由重构合成滤波器A(z)-1重构的激励信号来逐帧地生成合成语音。
在另一个示例性应用中,所提出的AR量化-外推方案用作用于参数化变换音频编解码器的频谱包络的有效方式。波形被短时变换到频域,并且AR系数的频率响应用于近似频谱包络并且归一化经变换的矢量(以创建残差矢量)。接下来,AR系数和残差矢量被编码并且发送到解码器。
本领域技术人员将理解的是,可以在不偏离所提出的技术的由所附权利要求限定的范围的情况下对所提出的技术进行各种修改和改变。
缩写词
ACELP 代数码激励线性预测
ASIC  专用集成电路
AR    自回归
BWE   带宽扩展
DSP   数字信号处理器
FPGA  现场可编程门阵列
ISP   导抗频谱对
LP    线性预测
LSF   线谱频率
LSP   线谱对
MSE   均方差
SD    频谱失真
SQ    标量量化器
UE    用户设备
VQ    矢量量化
参考文献
[1]3GPP TS26.090,"Adaptive.Multi-Rate(AMR)speech codec;Transcoding functions",p.13,2007
[2]N.Iwakami,et al.,High-quality audio-coding at less than64kbit/s by using transform-domain weighted interleave vectorquantization(TWINVQ),IEEE ICASSP,vol.5,pp.3095-3098,1995
[3]J.Makhoul,"Linear prediction:A tutorial review",Proc.IEEE,vol63,p.566,1975
[4]P.Kabal and R.P.Ramachandran,"The computation of linespectral frequencies using Chebyshev polynomials",IEEE Trans,on ASSP,vol.34,no.6,pp.1419-1426,1986

Claims (34)

1.一种对部分地表示音频信号的自回归系数(a)的参数频谱表示(f)进行编码的方法,所述方法包括以下步骤:
通过对所述参数频谱表示的与所述音频信号的低频部分相对应的元素进行量化来对所述参数频谱表示(f)的低频部分(fL)进行编码;
通过基于以经量化的镜像频率为中心翻转的经量化的元素和在闭环搜索过程中根据频率网格码本(24)确定的频率网格(gopt)进行加权平均来对所述参数频谱表示(f)的高频部分(fH)进行编码,其中,所述经量化的镜像频率将所述低频部分与所述高频部分分隔开。
2.根据权利要求1所述的编码方法,包括以下步骤:
按照下式对所述镜像频率进行量化:
f ^ m = Q ( f ( M / 2 ) - f ^ ( M / 2 - 1 ) ) + f ^ ( M / 2 - 1 ) ,
其中
Q表示对相邻括号中的表达式进行量化,
M表示所述参数频谱表示中的元素的总数,
f(M/2)表示所述高频部分中的第一元素,以及
表示所述低频部分中的最后一个经量化的元素。
3.根据权利要求2所述的编码方法,包括以下步骤:
按照下式以所述经量化的镜像频率为中心对所述参数频谱表示(f)的所述低频部分(fL)的所述经量化的元素进行翻转:
f flip ( k ) = 2 f ^ m - f ^ ( M / 2 - 1 - k ) , 0 ≤ k ≤ M / 2 - 1 ,
其中,表示经量化的元素M/2-1-k。
4.根据权利要求3所述的编码方法,包括以下步骤:
按照下式重新缩放经翻转的元素fflip(k):
5.根据权利要求4所述的编码方法,包括以下步骤:
按照下式将来自所述频率网格码本(24)的所述频率网格gi重新缩放以适合所述低频部分中的最后一个经量化的元素与最大网格点值gmax之间的区间:
g ~ i ( k ) = g i ( k ) · ( g max - f ^ ( M / 2 - 1 ) ) + f ^ ( M / 2 - 1 ) .
6.根据权利要求5所述的编码方法,包括以下步骤:
按照下式对经翻转且重新缩放的元素和经重新缩放的频率网格进行加权平均:
f smooth i ( k ) = [ 1 - λ ( k ) ] f ~ flip ( k ) + λ ( k ) g ~ i ( k )
其中,λ(k)和[1-λ(k)]是预定义权重。
7.根据权利要求6所述的编码方法,包括以下步骤:
选择频率网格gopt,其中,索引opt满足以下标准:
opt = arg min i ( Σ k = 0 M / 2 - 1 ( f smooth i ( k ) - f H ( k ) ) 2 )
其中,fH(k)是由所述参数频谱表示的所述高频部分的元素形成的目标矢量。
8.根据权利要求7所述的编码方法,其中,M=10,gmax=0.5,并且权重λ(k)被定义为λ={0.2,0.35,0.5,0.75,0.8}。
9.根据前述权利要求中任意一项所述的方法,其中,所述编码是针对所述自回归系数的线谱频率表示执行的。
10.一种对部分地表示音频信号的自回归系数(a)的经编码的参数频谱表示进行解码的方法,所述方法包括以下步骤:
根据对所述参数频谱表示(f)的与所述音频信号的低频部分相对应的低频部分(fL)进行编码的至少一个量化索引来重构(S11)所述参数频谱表示的所述低频部分的元素
通过基于以经解码的镜像频率为中心翻转的经解码的元素和经解码的频率网格(gopt)进行加权平均来重构(S12)所述参数频谱表示的高频部分(fH)的元素其中,所述经解码的镜像频率将所述低频部分与所述高频部分分隔开。
11.根据权利要求10所述的解码方法,包括以下步骤:
按照下式以所述镜像频率为中心对所述低频部分的所述经解码的元素进行翻转:
f flip ( k ) = 2 f ^ m - f ^ ( M / 2 - 1 - k ) , 0 ≤ k ≤ M / 2 - 1
其中
M表示所述参数频谱表示中的元素的总数,以及
表示经解码的元素M/2-1-k。
12.根据权利要求11所述的解码方法,包括以下步骤:
按照下式重新缩放经翻转的元素fflip(k):
13.根据权利要求12所述的解码方法,包括以下步骤:
按照下式将经解码的频率网格gopt重新缩放以适合所述低频部分中的最后一个经量化的元素与最大网格点值gmax之间的区间:
g ~ opt ( k ) = g opt ( k ) · ( g max - f ^ ( M / 2 - 1 ) + f ^ ( M / 2 - 1 ) ) .
14.根据权利要求13所述的解码方法,包括以下步骤:
按照下式对经翻转且重新缩放的元素和经重新缩放的频率网格进行加权平均:
f smooth ( k ) = [ 1 - λ ( k ) ] f ~ flip ( k ) + λ ( k ) g ~ opt ( k )
其中,λ(k)和[1-λ(k)]是预定义权重。
15.根据权利要求14所述的解码方法,其中,M=10,gmax=0.5,并且权重λ(k)被定义为λ={0.2,0.35,0.5,0.75,0.8}。
16.根据前述权利要求10至15中任意一项所述的方法,其中,所述解码是针对所述自回归系数的线谱频率表示执行的。
17.一种用于对部分地表示音频信号的自回归系数(a)的参数频谱表示(f)进行编码的编码器(40),所述编码器包括:
低频编码器(10),被配置为通过对所述参数频谱表示的与所述音频信号的低频部分相对应的元素进行量化来对所述参数频谱表示(f)的低频部分(fL)进行编码;
高频编码器(12),被配置为通过基于以经量化的镜像频率为中心翻转的经量化的元素和在闭环搜索过程中根据频率网格码本(24)确定的频率网格(gopt)进行加权平均来对所述参数频谱表示(f)的高频部分(fH)进行编码,其中,所述经量化的镜像频率将所述低频部分与所述高频部分分隔开。
18.根据权利要求17所述的编码器,其中,所述高频编码器(12)包括镜像频率计算器(18),所述镜像频率计算器(18)被配置为按照下式计算所述经量化的镜像频率
f ^ m = Q ( f ( M / 2 ) - f ^ ( M / 2 - 1 ) ) + f ^ ( M / 2 - 1 )
其中
Q表示对相邻括号中的表达式进行量化,
M表示所述参数频谱表示中的元素的总数,
f(M/2)表示所述高频部分中的第一元素,以及
表示所述低频部分中的最后一个经量化的元素。
19.根据权利要求18所述的编码器,其中,所述高频编码器(12)
包括量化低频子矢量翻转单元(20),所述量化低频子矢量翻转单元(20)被配置为按照下式以所述经量化的镜像频率为中心对所述参数频谱表示(f)的所述低频部分(fL)的所述经量化的元素进行翻转:
f flip ( k ) = 2 f ^ m - f ^ ( M / 2 - 1 - k ) , 0 ≤ k ≤ M / 2 - 1 ,
其中,表示经量化的元素M/2-1-k。
20.根据权利要求19所述的编码器,其中,所述高频编码器(12)包括翻转元素重新缩放器(22),所述翻转元素重新缩放器(22)被配置为按照下式重新缩放经翻转的元素fflip(k):
21.根据权利要求20所述的编码器,其中,所述高频编码器(12)包括频率网格重新缩放器(26),所述频率网格重新缩放器(26)被配置为按照下式将来自所述频率网格码本(24)的所述频率网格gi重新缩放以适合所述低频部分中的最后一个经量化的元素与最大网格点值gmax之间的区间:
g ~ i ( k ) = g i ( k ) · ( g max - f ^ ( M / 2 - 1 ) ) + f ^ ( M / 2 - 1 ) .
22.根据权利要求21所述的编码器,其中,所述高频编码器(12)包括加权单元(28),所述加权单元(28)被配置为按照下式对经翻转且重新缩放的元素和经重新缩放的频率网格进行加权平均:
f smooth i ( k ) = [ 1 - λ ( k ) ] f ~ flip ( k ) + λ ( k ) g ~ i ( k )
其中,λ(k)和[1-λ(k)]是预定义权重。
23.根据权利要求22所述的编码器,其中,所述高频编码器(12)包括频率网格搜索单元(30),所述频率网格搜索单元(30)被配置为选择频率网格gopt,其中,索引opt满足以下标准:
opt = arg min i ( Σ k = 0 M / 2 - 1 ( f smooth i ( k ) - f H ( k ) ) 2 )
其中,fH(k)是由所述参数频谱表示的所述高频部分的元素形成的目标矢量。
24.根据权利要求23所述的编码器,其中,M=10,gmax=0.5,并且权重λ(k)被定义为λ={0.2,0.35,0.5,0.75,0.8}。
25.根据前述权利要求18至24中任意一项所述的编码器,其中,所述编码器被配置为对所述自回归系数的线谱频率表示进行编码。
26.一种UE,包括根据前述权利要求18至25中任意一项所述的编码器(40)。
27.一种用于对部分地表示音频信号的自回归系数(a)的经编码的参数频谱表示进行解码的解码器(50),所述解码器包括:
低频解码器(60),被配置为根据对所述参数频谱表示(f)的与所述音频信号的低频部分相对应的低频部分(fL)进行编码的至少一个量化索引来重构所述参数频谱表示的所述低频部分的元素
高频解码器(62),被配置为通过基于以经解码的镜像频率为中心翻转的经解码的元素和经解码的频率网格(gopt)进行加权平均来重构所述参数频谱表示的高频部分(fH)的元素其中,所述经解码的镜像频率将所述低频部分与所述高频部分分隔开。
28.根据权利要求27所述的解码器,其中,所述高频解码器(62)包括量化低频子矢量翻转单元(20),所述量化低频子矢量翻转单元(20)被配置为按照下式以所述镜像频率为中心对所述低频部分的所述经解码的元素进行翻转:
f flip ( k ) = 2 f ^ m - f ^ ( M / 2 - 1 - k ) , 0 ≤ k ≤ M / 2 - 1
其中
M表示所述参数频谱表示中的元素的总数,以及
表示经解码的元素M/2-1-k。
29.根据权利要求28所述的解码器,其中,所述高频解码器(62)包括翻转元素重新缩放器(22),所述翻转元素重新缩放器(22)被配置为按照下式重新缩放经翻转的元素fflip(k):
30.根据权利要求29所述的解码器,其中,所述高频解码器(62)包括频率网格重新缩放器(26),所述频率网格重新缩放器(26)被配置为按照下式将经解码的频率网格gopt重新缩放以适合所述低频部分中的最后一个经量化的元素与最大网格点值gmax之间的区间:
g ~ opt ( k ) = g opt ( k ) · ( g max - f ^ ( M / 2 - 1 ) + f ^ ( M / 2 - 1 ) ) .
31.根据权利要求30所述的解码器,其中,所述高频解码器(62)包括加权单元(28),所述加权单元(28)被配置为按照下式对经翻转且重新缩放的元素和经重新缩放的频率网格进行加权平均:
f smooth ( k ) = [ 1 - λ ( k ) ] f ~ flip ( k ) + λ ( k ) g ~ opt ( k ) ,
其中,λ(k)和[1-λ(k)]是预定义权重。
32.根据权利要求31所述的解码器,其中,M=10,gmax=0.5,并且权重λ(k)被定义为λ={0.2,0.35,0.5,0.75,0.8}。
33.根据前述权利要求27至32中任意一项所述的解码器,其中,所述解码器被配置为是针对所述自回归系数的线谱频率表示进行解码。
34.一种UE,包括根据前述权利要求27至33中任意一项所述的解码器。
CN201280053667.7A 2011-11-02 2012-05-15 基于自回归系数的有效表示的音频编码/解码 Active CN103918028B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201161554647P 2011-11-02 2011-11-02
US61/554,647 2011-11-02
PCT/SE2012/050520 WO2013066236A2 (en) 2011-11-02 2012-05-15 Audio encoding/decoding based on an efficient representation of auto-regressive coefficients

Publications (2)

Publication Number Publication Date
CN103918028A true CN103918028A (zh) 2014-07-09
CN103918028B CN103918028B (zh) 2016-09-14

Family

ID=48192964

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201280053667.7A Active CN103918028B (zh) 2011-11-02 2012-05-15 基于自回归系数的有效表示的音频编码/解码

Country Status (10)

Country Link
US (5) US9269364B2 (zh)
EP (3) EP3279895B1 (zh)
CN (1) CN103918028B (zh)
AU (1) AU2012331680B2 (zh)
BR (1) BR112014008376B1 (zh)
DK (1) DK3040988T3 (zh)
ES (3) ES2657802T3 (zh)
NO (1) NO2737459T3 (zh)
PL (2) PL3279895T3 (zh)
WO (1) WO2013066236A2 (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013066236A2 (en) * 2011-11-02 2013-05-10 Telefonaktiebolaget L M Ericsson (Publ) Audio encoding/decoding based on an efficient representation of auto-regressive coefficients
WO2014187987A1 (en) 2013-05-24 2014-11-27 Dolby International Ab Methods for audio encoding and decoding, corresponding computer-readable media and corresponding audio encoder and decoder
EP2830061A1 (en) * 2013-07-22 2015-01-28 Fraunhofer Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for encoding and decoding an encoded audio signal using temporal noise/patch shaping
CN104517611B (zh) 2013-09-26 2016-05-25 华为技术有限公司 一种高频激励信号预测方法及装置
CN104517610B (zh) * 2013-09-26 2018-03-06 华为技术有限公司 频带扩展的方法及装置
US9959876B2 (en) * 2014-05-16 2018-05-01 Qualcomm Incorporated Closed loop quantization of higher order ambisonic coefficients
CN113556135B (zh) * 2021-07-27 2023-08-01 东南大学 基于冻结翻转列表的极化码置信传播比特翻转译码方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1361941A (zh) * 2000-05-17 2002-07-31 皇家菲利浦电子有限公司 频谱建模
CN1416563A (zh) * 2000-11-09 2003-05-07 皇家菲利浦电子有限公司 用于更高感觉质量的电话语音的宽带扩展
EP1818913A1 (en) * 2004-12-10 2007-08-15 Matsushita Electric Industrial Co., Ltd. Wide-band encoding device, wide-band lsp prediction device, band scalable encoding device, wide-band encoding method
CN101183527A (zh) * 2006-11-17 2008-05-21 三星电子株式会社 用于对高频信号进行编码和解码的方法和设备

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1947174B (zh) 2004-04-27 2012-03-14 松下电器产业株式会社 可扩展编码装置、可扩展解码装置、可扩展编码方法以及可扩展解码方法
CN101006496B (zh) * 2004-08-17 2012-03-21 皇家飞利浦电子股份有限公司 可分级音频编码
WO2006028010A1 (ja) 2004-09-06 2006-03-16 Matsushita Electric Industrial Co., Ltd. スケーラブル符号化装置およびスケーラブル符号化方法
CA3162807C (en) * 2009-01-16 2024-04-23 Dolby International Ab Cross product enhanced harmonic transposition
WO2013066236A2 (en) * 2011-11-02 2013-05-10 Telefonaktiebolaget L M Ericsson (Publ) Audio encoding/decoding based on an efficient representation of auto-regressive coefficients

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1361941A (zh) * 2000-05-17 2002-07-31 皇家菲利浦电子有限公司 频谱建模
CN1416563A (zh) * 2000-11-09 2003-05-07 皇家菲利浦电子有限公司 用于更高感觉质量的电话语音的宽带扩展
EP1818913A1 (en) * 2004-12-10 2007-08-15 Matsushita Electric Industrial Co., Ltd. Wide-band encoding device, wide-band lsp prediction device, band scalable encoding device, wide-band encoding method
CN101183527A (zh) * 2006-11-17 2008-05-21 三星电子株式会社 用于对高频信号进行编码和解码的方法和设备

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
BO HANG, ET AL.: "A Low Bit Rate Audio Bandwidth Extension Method for Mobile Communication", 《ADVANCES IN MULTIMEDIA INFORMATION PROCESSING-PCM 2008》, 31 December 2008 (2008-12-31), pages 778 - 781, XP019112898 *
CHATREE BUDSABATHON,ET AL.: "Bandwidth Extension with Hybrid Signal Extrapolation for Audio Coding", 《IEICE TRANS. FUNDAMENTALS》, vol. 90, no. 8, 31 August 2007 (2007-08-31), pages 1564 - 1569, XP001506569, DOI: doi:10.1093/ietfec/e90-a.8.1564 *
GUO CHEN,ET AL.: "HMM-BASED FREQUENCY BANDWIDTH EXTENSION FOR SPEECH ENHANCEMENT USING LINE SPECTRAL FREQUENCIES", 《ICASSP 2004》, 31 May 2004 (2004-05-31), pages 709 - 712, XP010717727 *
J. EPPS,ET AL.: "SPEECH ENHANCEMENT USING STC-BASED BANDWIDTH EXTENSION", 《CONFERENCE PROCEEDINGS ARTICLE》, 31 October 1998 (1998-10-31), pages 1 - 4 *

Also Published As

Publication number Publication date
US11594236B2 (en) 2023-02-28
EP2774146A2 (en) 2014-09-10
US20140249828A1 (en) 2014-09-04
AU2012331680A1 (en) 2014-05-22
NO2737459T3 (zh) 2018-09-08
EP2774146A4 (en) 2015-05-13
US20210201924A1 (en) 2021-07-01
US11011181B2 (en) 2021-05-18
EP2774146B1 (en) 2016-07-06
ES2657802T3 (es) 2018-03-06
EP3040988B1 (en) 2017-10-25
PL3040988T3 (pl) 2018-03-30
PL3279895T3 (pl) 2020-03-31
AU2012331680B2 (en) 2016-03-03
EP3040988A1 (en) 2016-07-06
WO2013066236A3 (en) 2013-07-11
EP3279895B1 (en) 2019-07-10
CN103918028B (zh) 2016-09-14
BR112014008376B1 (pt) 2021-01-05
EP3279895A1 (en) 2018-02-07
ES2592522T3 (es) 2016-11-30
US20230178087A1 (en) 2023-06-08
DK3040988T3 (en) 2018-01-08
WO2013066236A2 (en) 2013-05-10
US20160155450A1 (en) 2016-06-02
ES2749967T3 (es) 2020-03-24
US20200243098A1 (en) 2020-07-30
US9269364B2 (en) 2016-02-23
US12087314B2 (en) 2024-09-10
BR112014008376A2 (pt) 2017-04-18

Similar Documents

Publication Publication Date Title
CN105637583B (zh) 自适应带宽扩展方法及其装置
CA2556797C (en) Methods and devices for low-frequency emphasis during audio compression based on acelp/tcx
US11011181B2 (en) Audio encoding/decoding based on an efficient representation of auto-regressive coefficients
CN106663441B (zh) 改进时域编码与频域编码之间的分类
US20070147518A1 (en) Methods and devices for low-frequency emphasis during audio compression based on ACELP/TCX
CN105359211B (zh) 语音处理的清音/浊音判决方法及装置
CN101878504A (zh) 使用时间分辨率能选择的低复杂性频谱分析/合成
US9082398B2 (en) System and method for post excitation enhancement for low bit rate speech coding
JP2017528751A (ja) 信号符号化方法及びその装置、並びに信号復号方法及びその装置
CN102812512B (zh) 处理音频信号的方法和装置
EP2862167B1 (en) Method and arrangement for scalable low-complexity audio coding
Kim et al. A 4 kbps adaptive fixed code-excited linear prediction speech coder

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant