CN107256709B - 音频编码装置 - Google Patents

音频编码装置 Download PDF

Info

Publication number
CN107256709B
CN107256709B CN201710532316.9A CN201710532316A CN107256709B CN 107256709 B CN107256709 B CN 107256709B CN 201710532316 A CN201710532316 A CN 201710532316A CN 107256709 B CN107256709 B CN 107256709B
Authority
CN
China
Prior art keywords
audio
unit
signal
pitch lag
encoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710532316.9A
Other languages
English (en)
Other versions
CN107256709A (zh
Inventor
堤公孝
菊入圭
山口贵史
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Korea Co Ltd
Original Assignee
NTT Korea Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Korea Co Ltd filed Critical NTT Korea Co Ltd
Publication of CN107256709A publication Critical patent/CN107256709A/zh
Application granted granted Critical
Publication of CN107256709B publication Critical patent/CN107256709B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • G10L19/125Pitch excitation, e.g. pitch synchronous innovation CELP [PSI-CELP]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/005Correction of errors induced by the transmission channel, if related to the coding algorithm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/09Long term prediction, i.e. removing periodical redundancies, e.g. by using adaptive codebook or pitch predictor
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Detection And Prevention Of Errors In Transmission (AREA)
  • Reduction Or Emphasis Of Bandwidth Of Signals (AREA)
  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)

Abstract

本发明提供一种音频编码装置,其具有:音频编码部,其对音频信号进行编码;以及辅助信息编码部,其计算码激励线性预测编码中的先行信号的参数,作为码激励线性预测编码中的分组丢失隐藏用的辅助信息,所述音频编码部计算表示编号对象帧的性质的索引,并将其传送给所述辅助信息编码部,仅在特定的帧类中,在作为解码对象的分组的前一个分组中包含基音滞后作为所述辅助信息,在所述特定的帧类以外的情况下,不包含基音滞后。

Description

音频编码装置
本申请是申请号为201380058010.4的发明专利申请(国际申请号:PCT/JP2013/080589,申请日:2013年11月12日,发明名称:音频编码装置、音频编码方法和音频编码程序以及音频解码装置、音频解码方法和音频解码程序)的分案申请。
技术领域
本发明涉及经由IP网和移动通信网传输音频分组时的错误隐藏隐藏,更具体而言,涉及实现错误隐藏的高精度分组丢失隐藏信号(パケットロス隠蔽信号)生成用的音频编码装置。
背景技术
在IP网和移动通信中传输音频/声音信号(以下称作“音频信号”)时,按照某固定时间长度对音频信号进行编码而生成音频分组,经由通信网进行传输。在接收侧通过通信网接收音频分组,并在接收侧的服务器、MCU(Multipoint Control Unit)、终端等中进行解码,从而得到解码音频信号。
音频信号通常以数字形式被收音。即,作为与每一秒钟的采样频率相同数量的数列进行计测和蓄积。将该数列的各个要素称为采样(sample)。在音频编码中,每当所确定的采样数量的音频信号在内置的缓存器中蓄积了预定量时,就对缓存器内的音频信号进行编码。将所述规定的采样数量称为帧长,将与帧长相同数量的采样的集合称为帧。例如,当在32kHz的采样频率中将帧长设为20ms时,帧长为640个采样。另外,缓存器的长度也可以比1帧长。
在通过通信网传输音频分组时,由于通信网的拥挤状态等,可能会产生一部分音频分组丢失或写入音频分组中的一部分信息产生错误的现象(所谓的分组丢失)。在这种情况下,由于无法在接收侧对音频分组进行正确解码,因此不能得到期望的解码音频信号。此外,由于与产生分组丢失的音频分组对应的解码音频信号被感知为噪音,因此显著损坏对收听的人提供的主观品质。
为了消除上述那样的不良情况,作为对由于分组丢失而丢失的部分的音频声音信号进行插值的技术,采用分组丢失隐藏技术。分组丢失隐藏技术包括仅在接收侧进行分组丢失隐藏的“不使用辅助信息的分组丢失隐藏技术”,以及在发送侧求出有助于分组丢失隐藏的参数并传输给接收侧,然后在接收侧利用接收到的参数进行丢失隐藏的“使用辅助信息的分组丢失隐藏技术”。
在其中的“不使用辅助信息的分组丢失隐藏技术”中,例如非专利文献1的技术那样,通过以基音(pitch)为单位对之前正常接收到的分组所包含的解码音频信号进行复制后,乘以预先确定的衰减系数,生成与分组丢失的部分对应的音频信号。“不使用辅助信息的分组丢失隐藏技术”以分组丢失了的部分的音频性质与即将分组丢失时的音频相似为前提,因此在分组丢失了的部分具有与即将丢失时的音频不同性质的情况、和功率急剧变化的情况下不能充分发挥隐藏效果。
另一方面,在“使用辅助信息的分组丢失隐藏技术”中有如专利文献1的技术,在发送侧对分组丢失隐藏所需要的参数进行编码并传输,并在接收侧的分组丢失隐藏中使用。在专利文献1中,采用主要编码/冗余编码这两种编码方式对音频进行编码。冗余编码是以低于主要编码的比特速率对即将进行主要编码的帧的前一个帧进行编码(参照图1(a))。例如,在第N个分组中包含采用主要编码对第N帧进行编码而得到的音频码、和采用冗余编码对第N-1帧进行编码而得到的辅助信息码来进行传输。
在接收侧,等待在时间上连续的两个以上分组的到达,然后对时间上较早的分组进行解码,从而得到解码音频信号。例如,在得到与第N帧对应的信号的情况下,等待第N+1分组到达后进行解码。在正常接收到第N分组、第N+1分组的情况下,对第N分组所包含的音频码进行解码,从而得到第N帧的音频信号(参照图1(b))。另一方面,在分组丢失的情况下(在第N分组丢失的状况下得到了第N+1分组的情况),对第N+1分组所包含的辅助信息码进行解码,从而得到第N帧的音频信号(参照图1(c))。
在专利文献1的方法中,即使作为解码对象的分组到达了,在又一个以上的分组到达之前,也必须等待解码,算法延迟增加了1个分组量以上。因此,在专利文献1的方法中,虽然能够期待通过分组丢失隐藏来提高音质,但是算法延迟增加,音频通话质量下降。
另外,在将如上所述的分组丢失技术适用于CELP(Code Excited LinearPrediction,码激励线性预测)编码时,由于CELP的动作特点而产生其它问题。CELP是基于线性预测的音频模型,能够高精度且以较高的压缩率对音频信号进行编码,因而在许多的国际标准中被采用。
在CELP中,通过利用全极型合成滤波器对激励信号e(n)进行滤波来实现合成。即,按照下式将音频信号s(n)合成。
[数式1]
Figure BDA0001339578040000031
a(i)表示线性预测系数(LP系数),次数例如采用P=16等值。
激励信号被蓄积在被称为自适应码本的缓存器中。在将新的帧的音频合成时,根据被称为基音滞后(pitch lag)的位置信息,将从自适应码本读出的自适应码本向量、和表示激励信号的时间变化的固定码本向量相加,由此生成新的激励信号。所生成的新的激励信号被蓄积在自适应码本中,同时通过全极型合成滤波器被实施滤波,从而合成解码信号。
在CELP中,对所有的帧计算LP系数。在计算LP系数时需要约10ms的先行信号(先読み信号)。即,除编码对象帧以外,在缓存器中还蓄积先行信号,然后实施LP系数计算及其之后的处理(参照图2)。各帧被分割成约4个子帧,按照子帧为单位进行上述基音滞后计算、自适应码本向量计算、固定码本向量计算、自适应码本更新等的处理。在上述子帧为单位的处理中,LP系数也通过进行插值处理而变为因每个子帧而不同的系数。并且,为了便于进行量化/插值处理,LP系数在被变换为LP系数的等效表述即ISP(Immittance Spectral Pair)参数、ISF(Immittance Spectral Frequency)参数的基础上进行编码。有关LP系数和ISP参数/ISF参数的相互变换的处理步骤记述在非专利文献2中。
在CELP编码中,以编码侧和解码侧分别具有自适应码本、并且这些自适应码本始终同步为前提进行编码/解码。在正常接收分组并正常进行解码的情况下,编码侧的自适应码本和解码侧的自适应码本同步,但是在产生一次分组丢失时,将无法获取自适应码本的同步。
例如,如果被用作基音滞后的值在编码侧和解码侧不同,则自适应码本向量成为在时间上错开的信号。由于用该自适应码本向量进行自适应码本的更新,因而即使是正常接收到下一个帧,在编码侧求出的自适应码本向量和在解码侧求出的自适应码本向量也不一致,不能恢复自适应码本的同步。由于这样的自适应码本的不一致,从分组丢失的帧开始连续数帧产生音质劣化。
在CELP编码的分组丢失隐藏中,作为更高超的技术有专利文献2的方法。在专利文献2中,在分组丢失造成的影响较大的特定的帧中,传输转移模式码本的索引来取代基音滞后和自适应码本增益。在专利文献2中,作为分组丢失造成的影响较大的帧,着眼于转移帧(从无声音的音频区段(segment)向有声音的音频区段的转移,或者两个母音之间的转移)。在该转移帧中,通过使用转移模式码本进行激励信号生成,能够生成不依赖于过去的自适应码本的激励信号,并从过去的分组丢失导致的自适应码本不一致中恢复。
专利文献2的方法例如在偏长的母音持续的帧等中,由于不采用转移帧码本,因而与以往一样不能从自适应码本不一致中恢复。另外,在丢失了包含转移模式码本的分组的情况下,与以往一样地,丢失的影响将持续到从分组丢失开始之后的帧中。这对于丢失了包括转移模式码本的分组的下一个分组的情况也一样。
虽然也能够将如转移帧码本那样不依赖于过去的帧的码本适用于所有的帧,但是由于编码的效率明显下降,因而不能实现低速率、高音质。
现有技术文献
专利文献
专利文献1:日本特表2003-533916号公报
专利文献2:日本特表2010-507818号公报
非专利文献
非专利文献1:ITU-T G.711Appendix I
非专利文献2:3GPP TS26-191
非专利文献3:3GPP TS26-190
非专利文献4:ITU-T G.718
发明内容
发明要解决的问题
在采用专利文献1的方法时,在解码对象的分组到达后,等待后续的分组到达后再开始解码。因此,虽然基于分组丢失隐藏的音质提高,但是算法延迟增加,通话质量下降。
在CELP编码中的分组丢失时,由于编码部/解码部之间的自适应码本的不一致,产生音频质量的劣化。根据如专利文献2的方法,虽然能够从自适应码本不一致中恢复,但是在转移帧紧前面的帧以外的帧丢失的情况下,不能得到足够的效果。
本发明正是为了解决上述问题而提出的,其目的在于,提供一种音频编码装置、音频编码方法和音频编码程序以及音频解码装置、音频解码方法和音频解码程序,在音频编码中的分组丢失时,能够在不增加算法延迟的情况下恢复音频质量。
用于解决问题的手段
为了达到上述目的,本发明的一个方面涉及的音频编码装置对音频信号进行编码,该音频编码装置具有:音频编码部,其对音频信号进行编码;以及辅助信息编码部,其根据先行信号计算辅助信息而进行编码。
也可以是,辅助信息与先行信号中的基音滞后相关,或者辅助信息与先行信号中的基音增益相关,或者与先行信号中的基音滞后及基音增益相关。并且,也可以是,辅助信息包括与辅助信息可否利用相关的信息。
也可以是,辅助信息编码部对先行信号部分计算辅助信息而进行编码,进而生成隐藏信号,音频编码装置还具有:误差信号编码部,其对输入音频信号和辅助信息编码部输出的隐藏信号之间的误差信号进行编码;以及主要编码部,其对输入音频信号本身进行编码。
另外,本发明的一个方面涉及的音频解码装置对音频码进行解码而输出音频信号,该音频解码装置具有:音频码缓存器,其根据音频分组的接收状态检测分组丢失;音频参数解码部,其在音频分组正常接收时对音频码进行解码;辅助信息解码部,其在音频分组正常接收时对辅助信息码进行解码;辅助信息蓄积部,其蓄积对辅助信息码进行解码而得到的辅助信息;音频参数丢失处理部,其在音频分组丢失检测时输出音频参数;以及音频合成部,其根据音频参数合成解码音频。
也可以是,辅助信息与先行信号中的基音滞后相关,或者与先行信号中的基音增益相关,或者与先行信号中的基音滞后及基音增益相关。并且,也可以是,辅助信息包括与辅助信息可否利用相关的信息。
也可以是,辅助信息解码部对辅助信息码进行解码而输出辅助信息,而且利用辅助信息输出有关先行部分的隐藏信号,音频解码装置还具有:误差解码部,其对和音频信号与隐藏信号之间的误差信号有关的码进行解码;主要解码部,其对有关音频信号的码进行解码;以及隐藏信号蓄积部,其蓄积由辅助信息解码部输出的隐藏信号。
也可以是,在音频分组正常接收时,将从隐藏信号蓄积部读出的隐藏信号、和误差解码部输出的解码误差信号相加,由此生成一部分解码信号,并利用辅助信息解码部输出的隐藏信号更新隐藏信号蓄积部。
也可以是,在音频分组丢失检测时,将从隐藏信号蓄积部读出的隐藏信号作为解码信号的一部分或者全部。
也可以是,在音频分组丢失检测时,使用由音频分组丢失处理部预测出的音频参数生成解码信号,使用其中一部分解码信号更新隐藏信号蓄积部。
也可以是,在音频分组丢失检测时,音频分组丢失处理部使用从辅助信息蓄积部读出的辅助信息作为音频参数的预测值的一部分。
也可以是,在音频分组丢失检测时,音频合成部使用从辅助信息蓄积部读出的辅助信息,修正作为音频参数之一的自适应码本向量。
另外,本发明的一个方面涉及的音频编码装置的音频编码方法,该音频编码装置对音频信号进行编码,该音频编码方法包括:音频编码步骤,对音频信号进行编码;以及辅助信息编码步骤,根据先行信号计算辅助信息而进行编码。
另外,本发明的一个方面涉及的音频解码装置的音频解码方法,该音频解码装置对音频码进行解码并输出音频信号,该音频解码方法包括:音频码缓存步骤,根据音频分组的接收状态检测分组丢失;音频参数解码步骤,在音频分组正常接收时对音频码进行解码;辅助信息解码步骤,在音频分组正常接收时对辅助信息码进行解码;辅助信息蓄积步骤,蓄积对辅助信息码进行解码而得到的辅助信息;音频参数丢失处理步骤,在音频分组丢失检测时输出音频参数;以及音频合成步骤,根据音频参数合成解码音频。
另外,本发明的一个方面涉及的音频编码程序使计算机作为以下要素发挥作用:音频编码部,其对音频信号进行编码;以及辅助信息编码部,其根据先行信号计算辅助信息而进行编码。
另外,本发明的一个方面涉及的音频解码程序使计算机作为以下要素发挥作用:音频码缓冲器,其根据音频分组的接收状态检测分组丢失;音频参数解码部,其在音频分组正常接收时对音频码进行解码;辅助信息解码部,其在音频分组正常接收时对辅助信息码进行解码;辅助信息蓄积部,其蓄积对辅助信息码进行解码而得到的辅助信息;音频参数丢失处理部,其在音频分组丢失检测时输出音频参数;以及音频合成部,其根据音频参数合成解码音频。
本发明提供一种对音频信号进行编码的音频编码装置,该音频编码装置具有:
音频编码部,其对音频信号进行编码;以及
辅助信息编码部,其计算码激励线性预测编码中的先行信号的参数,作为码激励线性预测编码中的分组丢失隐藏用的辅助信息,
所述音频编码部计算表示编号对象帧的性质的索引,并将其传送给所述辅助信息编码部,
仅在特定的帧类中,在作为解码对象的分组的前一个分组中包含基音滞后作为所述辅助信息,在所述特定的帧类以外的情况下,不包含基音滞后。
发明效果
在音频编码的分组丢失中,能够在不增加算法延迟的情况下恢复音频质量。尤其是在CELP编码中,能够降低在分组丢失时产生的自适应码本的劣化,改善分组丢失时的音频质量。
附图说明
图1是示出专利文献1所记载的现有发明中的分组和解码信号的时间性关系的图。
图2是示出CELP编码中的LP分析对象信号和先行信号的时间性关系的图。
图3是示出本发明的实施方式中的分组和解码信号的时间性关系的图。
图4是示出本发明的实施例1中的音频信号发送装置的功能结构例的图。
图5是示出本发明的实施例1中的音频信号接收装置的功能结构例的图。
图6是示出本发明的实施例1中的音频信号发送装置的处理步骤的图。
图7是示出本发明的实施例1中的音频信号接收装置的处理步骤的图。
图8是示出本发明的实施例1中的辅助信息编码部的功能结构例的图。
图9是示出本发明的实施例1中的辅助信息编码部的处理步骤的图。
图10是示出本发明的实施例1中的LP系数计算部的处理步骤的图。
图11是示出本发明的实施例1中的分组信号计算部的处理步骤的图。
图12是示出本发明的实施例1中的音频参数丢失处理部的功能结构例的图。
图13是示出本发明的实施例1中的音频参数预测的处理步骤的图。
图14是示出本发明的实施例1的变形例1-1中的激励向量合成部的处理步骤的图。
图15是示出本发明的实施例1中的音频合成部的功能结构例的图。
图16是示出本发明的实施例1中的音频合成部的处理步骤的图。
图17是示出本发明的实施例1的变形例1-2中的辅助信息编码部(设置辅助信息输出判定部时)的功能结构例的图。
图18是示出本发明的实施例1的变形例1-2中的辅助信息编码部(设置辅助信息输出判定部时)的处理步骤的图。
图19是示出本发明的实施例1的变形例1-2中的音频参数预测的处理步骤的图。
图20是示出本发明的实施例2中的音频信号发送装置的功能结构例的图。
图21是示出本发明的实施例2中的主要编码部的功能结构例的图。
图22是示出本发明的实施例2中的音频信号发送装置的处理步骤的图。
图23是示出本发明的实施例2中的音频信号接收装置的功能结构例的图。
图24是示出本发明的实施例2中的音频信号接收装置的处理步骤的图。
图25是示出本发明的实施例2中的音频合成部的功能结构例的图。
图26是示出本发明的实施例2中的音频参数解码部的功能结构例的图。
图27是示出本发明的实施例3中的辅助信息编码部的功能结构例的图。
图28是示出本发明的实施例3中的辅助信息编码部的处理步骤的图。
图29是示出本发明的实施例3中的基音滞后选定部的处理步骤的图。
图30是示出本发明的实施例3中的辅助信息解码部的处理步骤的图。
图31是将本发明的实施方式中的音频编码程序的结构与存储介质一起示出的图。
图32是将本发明的实施方式中的音频解码程序的结构与存储介质一起示出的图。
图33是示出本发明的实施例4中的辅助信息编码部的功能结构例的图。
图34是示出本发明的实施例4中的辅助信息编码部的处理步骤的图。
图35是示出本发明的实施例4中的基音滞后预测部的处理步骤的图(之一)。
图36是示出本发明的实施例4中的基音滞后预测部的处理步骤的图(之二)。
图37是示出本发明的实施例4中的基音滞后预测部的处理步骤的图(之三)。
图38是示出本发明的实施例4中的自适应码本计算部的处理步骤的图。
图39是示出本发明的实施例5中的辅助信息编码部的功能结构例的图。
图40是示出本发明的实施例5中的基音滞后编码部的处理步骤的图。
图41是示出本发明的实施例5中的辅助信息解码部的处理步骤的图。
图42是示出本发明的实施例5中的基音滞后预测部的处理步骤的图。
图43是示出本发明的实施例5中的自适应码本计算部的处理步骤的图。
具体实施方式
参照附图说明本发明的实施方式。在尽可能的情况下,对相同的部分标注相同的标号,并省略重复说明。
本发明的实施方式涉及实现“使用辅助信息的分组丢失隐藏技术”的编码器及解码器,在“使用辅助信息的分组丢失隐藏技术”中,对在编码器侧计算出的辅助信息进行编码并传输,以便在解码侧的分组丢失隐藏时使用。
在本发明的实施方式中,在分组丢失隐藏时使用的辅助信息包含在前一个分组中。图3示出了分组中包含的音频码和辅助信息码的时间性关系。根据图3可知,本发明的实施方式中的辅助信息是针对CELP编码中的先行信号求出的参数(基音滞后、自适应码本增益等)。
通过将辅助信息码包含在前一个分组中,能够在不需等待比解码对象的分组靠后的分组的情况下进行解码。在检测出分组丢失时,由于在其紧前面的分组中能够得到有关作为隐藏对象的帧的辅助信息,因而能够实现高精度的分组丢失隐藏,而不需等待后续的分组。
另外,通过将先行信号中的CELP编码的参数作为辅助信息进行传输,即使分组丢失时也能够减轻自适应码本的不一致。
本发明的实施方式包括音频信号发送装置(音频编码装置)、音频信号接收装置(音频解码装置)。音频信号发送装置的功能结构例如图4所示,处理步骤如图6所示。此外,音频信号接收装置的功能结构例如图5所示,处理步骤如图7所示。
音频信号发送装置如图4所示由音频编码部111和辅助信息编码部112构成。音频信号接收装置如图5所示由音频码缓存器121、音频参数解码部122、音频参数丢失处理部123、音频合成部124、辅助信息解码部125、辅助信息蓄积部126构成。
音频信号发送装置根据图6所示的处理步骤,按照每帧对音频信号进行编码并传输。
音频编码部111对编码对象帧计算音频参数,并输出音频码(图6的步骤131)。
辅助信息编码部112对先行信号计算音频参数,并输出辅助信息码(图6的步骤S132)。
判定音频信号是否结束并反复上述处理,一直到音频信号结束为止(图6的步骤S133)。
音频信号接收装置根据图7所示的处理步骤,对到达的音频分组进行解码并输出音频信号。
音频码缓存器121等待音频分组的到达并蓄积音频码。在音频分组正常到达的情况下,将处理切换至音频参数解码部122。另一方面,在音频分组未正常到达的情况下,将处理切换至音频参数丢失处理部123(图7的步骤S141)。
<正常接收到音频分组的情况>
音频参数解码部122对音频码进行解码而输出音频参数(图7的步骤S142)。
辅助信息解码部125对辅助信息码进行解码,输出辅助信息。所输出的辅助信息被发送给辅助信息蓄积部126(图7的步骤S143)。
音频合成部124根据音频参数解码部122输出的音频参数,将音频信号合成并进行输出(图7的步骤S144)。
音频参数丢失处理部123是在分组丢失时而准备的,用于蓄积音频参数解码部122输出的音频参数(图7的步骤S145)。
音频码缓存器121判定音频分组的发送是否结束,在音频分组的发送结束时停止处理。在音频分组的发送持续的期间,反复上述步骤S 141-S146(图7的步骤S147)。
<音频分组丢失的情况>
音频参数丢失处理部123从辅助信息蓄积部126读出辅助信息,对不包含在辅助信息中的参数进行预测,由此输出音频参数(图7的步骤S146)。
音频合成部124根据音频参数丢失处理部123输出的音频参数,将音频信号合成并进行输出(图7的步骤S144)。
音频参数丢失处理部123是在分组丢失时而准备的,用于蓄积音频参数丢失处理部123输出的音频参数(图7的步骤S145)。
音频码缓存器121判定音频分组的发送是否结束,在音频分组的发送结束时停止处理。在音频分组的发送持续的期间,反复上述步骤S 141-S146(图7的步骤S147)。
[实施例1]
在本实施例中记述这样的示例:传输基音滞后作为辅助信息,以便在解码侧生成分组丢失隐藏信号时使用。
音频信号发送装置的功能结构例如图4所示,音频信号接收装置的功能结构例如图5所示,音频信号发送装置的处理步骤如图6所示,音频信号接收装置的处理步骤如图7所示。
<发送侧>
在音频信号发送装置中,向音频编码部111发送输入音频信号。
音频编码部111通过CELP编码对编码对象帧进行编码(图6的步骤131)。关于CELP编码的详细情况,例如采用非专利文献3记载的方法,因而省略CELP编码的处理步骤的详细情况。另外,在CELP编码中,在编码侧进行局部解码(local decode)。局部解码是指在编码侧也对音频码进行解码,以得到音频合成所需要的参数(ISP参数及对应的ISF参数、基音滞后、长期预测参数、自适应码本、自适应码本增益、固定码本增益、固定码本向量等)。将通过局部解码而得到的参数中至少ISP参数和ISF参数中任意一方或者双方、基音滞后、自适应码本发送给辅助信息编码部112。在音频编码部111采用如非专利文献4所述的音频编码的情况下,还可以发送表示编码对象帧的性质的索引。另外,音频编码部111也能够采用CELP编码以外的编码。在这种情况下,根据输入信号或者通过局部解码而得到的解码信号另外计算至少ISP参数和ISF参数中任意一方或者双方、基音滞后、自适应码本,并传输给辅助信息编码部112。
辅助信息编码部112使用由音频编码部111计算出的参数和先行信号计算辅助信息码(图6的步骤132)。辅助信息编码部112如图8所示由LP系数计算部151、目标信号计算部152、基音滞后计算部153、自适应码本计算部154、激励向量合成部155、自适应码本缓存器156、合成滤波器157、基音滞后编码部158构成。辅助信息编码部的处理步骤如图9所示。
LP系数计算部151使用由音频编码部111计算出的ISF参数和在过去数帧中计算出的ISF参数计算LP系数(图9的步骤161)。LP系数计算部151的处理步骤如图10所示。
首先,使用由音频编码部111得到的ISF参数更新缓存器(图10的步骤171)。然后,计算先行信号中的数式2所表示的ISF参数。
[数式2]
Figure BDA0001339578040000121
根据数式4和数式5计算数式3所表示的ISF参数(图10的步骤172)。
[数式3]
Figure BDA0001339578040000122
[数式4]
Figure BDA0001339578040000123
[数式5]
Figure BDA0001339578040000124
其中,数式6所表示的项是被存储在缓存器中的j帧前的ISF参数。
[数式6]
Figure BDA0001339578040000125
数式7所表示的项是事前通过学习等求出的讲话区间的ISF参数。
[数式7]
Figure BDA0001339578040000126
β是常数,例如能够取值如0.75,但不限于此。另外,α也是常数,能够取值如0.9,但不限于此。
数式8所表示的项例如也可以如非专利文献4记载的ISF隐藏(concealment)那样,根据表示编码对象帧的性质的索引而变化。
[数式8]
Figure BDA0001339578040000131
然后,将如数式9所表示的项满足数式10的值i重排,并进行调整使相邻的数式11所表示的项不过度彼此接近。
[数式9]
Figure BDA0001339578040000132
[数式10]
Figure BDA0001339578040000133
[数式11]
Figure BDA0001339578040000134
在调整数式12所表示的值的步骤中,能够采用例如非专利文献4(数式151)(图10的步骤173)。
[数式12]
Figure BDA0001339578040000135
然后,在将数式13所表示的项变换为ISP参数的基础上,对每个子帧进行插值。作为根据ISF参数计算ISP参数的方法,可以采用非专利文献4的6.4.4节记述的方法,关于插值的方法,能够采用非专利文献4的6.8.3节记述的处理步骤(图10的步骤174)。
[数式13]
Figure BDA0001339578040000136
然后,将每个子帧的ISP参数变换为数式14所示的LP系数。
[数式14]
Figure BDA0001339578040000137
其中,将先行信号所包含的子帧的数设为Mla。从ISP参数向LP系数的变换,可以采用非专利文献4的6.4.5节记述的处理步骤(图10的步骤175)。
目标信号计算部152使用数式15所表示的LP系数计算目标信号x(n)及脉冲响应h(n)(图9的步骤162)。如非专利文献4的6.8.4.1.3节记述的那样,目标信号是通过使线性预测残差信号通过听觉加权滤波器而得到的(图11)。
[数式15]
Figure BDA0001339578040000141
首先,使用LP系数按照数式17计算出数式16所表示的先行信号的残差信号r(n)(图11的步骤181)。
[数式16]
Figure BDA0001339578040000142
[数式17]
Figure BDA0001339578040000143
其中,L’表示子帧的采样数,L表示编码对象帧spre(n)(0≦n<L)的采样数。此时,数式18如下所示。
[数式18]
Figure BDA0001339578040000144
然后,按照下式计算目标信号x(n)(0≦n<L’)(图11的步骤182)。
[数式19]
Figure BDA0001339578040000145
[数式20]
Figure BDA0001339578040000146
[数式21]
Figure BDA0001339578040000147
[数式22]
x(n)=e(n)+γ·e(n-1)
其中,听觉加权滤波器γ=0.68。听觉加权滤波器的值也可以按照音频编码的设计方针设为其它的值。
然后,按照下式计算脉冲响应h(n)(0≦n<L’)(图11的步骤183)。
[数式23]
Figure BDA0001339578040000151
[数式24]
Figure BDA0001339578040000152
基音滞后计算部153通过求出使下式最大化的k,对每个子帧计算基音滞后(图9的步骤163)。在此,为了削减运算量,也可以省略上述目标信号计算(图11的步骤182)和脉冲响应计算(图11的步骤183),而直接将残差信号用作目标信号。
Tp=argmaxTk
[数式25]
Figure BDA0001339578040000153
[数式26]
Figure BDA0001339578040000154
[数式27]
Figure BDA0001339578040000155
另外,yk(n)是通过将线性预测残差与脉冲响应进行卷积而得到的。其中,Int(i)表示插值滤波器。插值滤波器的详细情况如非专利文献4的6.8.4.1.4.1节所述。当然,插值也可以不使用滤波器,而设为v’(n)=u(n+Nadapt-Tp+i)。
根据上述计算方法是求出整数值的基音滞后,但是通过对所述Tk进行插值,在将基音滞后的精度取至小数点以下时也能够求出。关于通过插值来求出小数点以下的基音滞后的处理步骤的详细情况,能够利用非专利文献4的6.8.4.1.4.1节所述的处理方法。
自适应码本计算部154根据基音滞后Tp、在自适应码本缓存器156中存储的自适应码本u(n),按照下式计算自适应码本向量v’(n)及长期预测参数(图9的步骤164)。
[数式28]
Figure BDA0001339578040000161
关于长期参数计算的详细的处理步骤,能够采用非专利文献3的5.7节所记述的方法。
激励向量合成部155将自适应码本向量v’(n)与事前设定的数式29所表示的自适应码本增益相乘,按照下式输出激励信号向量(图9的步骤165)。
[数式29]
Figure BDA0001339578040000162
[数式30]
Figure BDA0001339578040000163
数式31所表示的自适应码本增益的值例如使用1.0等,但也可以使用通过事前的学习而求出的值,还可以根据表示编码对象帧的性质的索引而变化。
[数式31]
Figure BDA0001339578040000164
然后,按照下面的算式,利用激励信号向量更新存储在自适应码本缓存器156中的自适应码本u(n)的状态(图9的步骤166)。
u(n)=u(n+L)(0≦n<N-L)
u(n+N-L)=e(n)(0≦n<L)
合成滤波器157通过以激励信号向量为激励源的线性预测逆向滤波,按照下式合成解码信号(图9的步骤167)。
[数式32]
Figure BDA0001339578040000165
对每个子帧反复上述图9的步骤162~步骤167,一直到先行信号结束为止(图9的步骤168)。
基音滞后编码部158对在先行信号中计算出的数式33所表示的基音滞后进行编码(图9的步骤169)。在此,设先行信号所包含的子帧的数量为Mla
[数式33]
Figure BDA0001339578040000171
关于编码的方法,例如可以考虑以下的方法,但编码的方法可以采用任何方法。
1.基音滞后
对数式34所表示的一部分或者全部进行二进制编码或者标量(scalar)量化或者向量量化或者算术编码并传输的方法。
[数式34]
Figure BDA0001339578040000172
2.与前一个子帧的基音滞后的差分
对数式35所表示的一部分或者全部进行二进制编码或者标量量化或者向量量化或者算术编码并传输的方法。
[数式35]
Figure BDA0001339578040000173
其中,数式36所表示的项表示编码对象帧中的最后一个子帧的基音滞后。
[数式36]
Figure BDA0001339578040000174
3.基音滞后
将数式37所表示的一部分或者全部、和在编码对象帧中计算出的基音滞后的一部分或者全部一并进行向量量化或者算术编码并传输的方法。
[数式37]
Figure BDA0001339578040000175
4.基音滞后
以数式38所表示的一部分或者全部为线索,选择事前设定的插值方法中的一种插值方法,并传输该插值方法的索引的方法。此时,也可以将在过去的音频合成中使用的多个子帧的基音滞后一并用于插值方法的选择。
[数式38]
Figure BDA0001339578040000176
关于标量量化及向量量化可以采用根据经验而设定的码本、或通过学习而事前计算出的码本。并且,在将上述基音滞后与偏置的值相加的基础上进行编码的方法,当然也包含在本发明的实施方式的思想中。
<解码侧>
如图5所示,音频信号接收装置由音频码缓存器121、音频参数解码部122、音频参数丢失处理部123、音频合成部124、辅助信息解码部125、辅助信息蓄积部126构成。音频信号接收装置的处理步骤如图7所示。
音频码缓存器121判定是否正常接收到分组,在判定为正常接收到分组时,将处理切换至音频参数解码部122和辅助信息解码部125,在判定为不能正常接收到分组时,将处理切换至音频参数丢失处理部123(图7的步骤141)。
<正常接收到分组的情况>
音频参数解码部122对接收到的音频码进行解码,计算出将有关编码对象帧的音频合成所需要的音频参数(ISP参数及对应的ISF参数、基音滞后、长期预测参数、自适应码本、自适应码本增益、固定码本增益、固定码本向量等)(图7的步骤142)。
辅助信息解码部125对辅助信息码进行解码,计算数式39所表示的基音滞后并存储在辅助信息蓄积部126中。在辅助信息解码部125中,使用与在编码侧使用的编码方法对应的解码方法对辅助信息码进行解码(图7的步骤143)。
[数式39]
Figure BDA0001339578040000181
音频合成部124根据音频参数解码部122输出的参数,对与编码对象帧对应的音频信号进行合成(图7的步骤144)。音频合成部124的功能结构例如图15所示,处理步骤如图16所示。另外,为了示出信号的流程而记述了音频参数丢失处理部123,但是音频参数丢失处理部123不包含在音频合成部124的功能结构中。
LP系数计算部1121在将ISF参数变换为ISP参数的基础上进行插值处理,得到每个子帧的ISP系数。然后,将ISP系数变换为线性预测系数(LP系数),得到每个子帧的LP系数(图16的步骤11301)。关于ISP系数的插值处理及ISP-LP系数,能够采用例如非专利文献4的6.4.5节记述的方法。这些参数变换处理的步骤不是本发明的实施方式的主旨,因而省略详细说明。
自适应码本计算部1123使用基音滞后和长期预测参数、自适应码本1122,计算自适应码本向量(图16的步骤11302)。根据数式40所表示的基音滞后、自适应码本u(n),按照下式41计算自适应码本向量v’(n)。
[数式40]
Figure BDA0001339578040000191
[数式41]
Figure BDA0001339578040000192
自适应码本向量是通过利用FIR滤波器Int(i)对自适应码本u(n)进行插值而计算出的。在此,设自适应码本的长度为Nadapt。用于插值的滤波器Int(i)与(数式27)的插值滤波器相同,是事前设定的长度2l+1的FIR滤波器。L’表示子帧的采样数。也可以与编码器侧一样,在插值中不使用滤波器。
自适应码本计算部1123按照长期预测参数的值,对上述自适应码本向量进行滤波(图16的步骤11303)。在长期预测参数取指示滤波的值时,按照下式对自适应码本向量进行滤波。
v’(n)=0.18v’(n-1)+0.64v’(n)+0.18v’(n+1)
另一方面,在长期预测参数取不指示滤波的值时,不进行滤波,设为v(n)=v’(n)。
激励向量合成部1124将自适应码本向量与自适应码本增益gp相乘(图16的步骤11304)。另外,激励向量合成部1124将固定码本向量c(n)与固定码本增益gc相乘(图16的步骤11305)。另外,激励向量合成部1124将自适应码本向量和固定码本向量相加,输出激励信号向量(图16的步骤11306)。
e(n)=gp·v’(n)+gc·c(n)
主滤波器1125对激励信号向量实施例如基音强调、噪音强调、低频强调的后处理。关于基音强调、噪音强调、低频强调的技术详情参照非专利文献3的6.1节的记述。主滤波器的处理与本发明的实施方式的主旨的关系不紧密,因而省略详细说明(图16的步骤11307)。
自适应码本1122按照下式利用激励信号向量来更新状态(图16的步骤11308)。
u(n)=u(n+L)(0≦n<N-L)
u(n+N-L)=e(n)(0≦n<L)
合成滤波器1126通过以激励信号向量为激励源的线性预测逆向滤波,按照下式将解码信号合成(图16的步骤11309)。
[数式42]
Figure BDA0001339578040000201
听觉加权逆滤波器1127按照下式对解码信号应用听觉加权逆滤波器(图16的步骤11310)。
[数式43]
Figure BDA0001339578040000202
作为β的值,使用代表性的0.68等,但不限于该值。
音频参数丢失处理部123将在音频合成部124中使用的音频参数(ISF参数、基音滞后、自适应码本增益、固定码本增益)存储在缓存器中(图7的步骤145)。
<检测出分组丢失的情况>
音频参数丢失处理部123从辅助信息蓄积部126读出数式44所表示的基音滞后,并预测音频参数。音频参数丢失处理部123的功能结构例如图12所示,音频参数预测的处理步骤如图13所示。
[数式44]
Figure BDA0001339578040000203
ISF预测部191使用有关前一个帧的ISF参数、和在过去数帧中计算出的ISF参数计算ISF参数(图13的步骤1101)。ISF预测部191的处理步骤如图10所示。
首先,使用前一个帧的ISF参数更新缓存器(图10的步骤171)。然后,按照下式计算ISF参数(图10的步骤172)。
[数式45]
Figure BDA0001339578040000204
[数式46]
Figure BDA0001339578040000205
[数式47]
Figure BDA0001339578040000206
其中,数式48所表示的项是被存储在缓存器中的j帧前的ISF参数。
[数式48]
Figure BDA0001339578040000211
另外,数式49所表示的项、α、β与在编码侧使用的值相同。
[数式49]
Figure BDA0001339578040000212
然后,将如数式50所表示的项满足数式51的值i重排,并进行调整使相邻的数式52所表示的项不过度彼此接近。
[数式50]
Figure BDA0001339578040000213
[数式51]
Figure BDA0001339578040000214
[数式52]
Figure BDA0001339578040000215
在调整数式53所表示的值的步骤中,可以采用例如非专利文献4(数式151)(图10的步骤173)。
[数式53]
Figure BDA0001339578040000216
基音滞后预测部192对来自辅助信息蓄积部126的辅助信息码进行解码而得到数式54所表示的基音滞后。
[数式54]
Figure BDA0001339578040000217
另外,使用在过去的解码中使用的数式55所表示的基音滞后,输出数式56所表示的基音滞后。
[数式55]
Figure BDA0001339578040000218
[数式56]
Figure BDA0001339578040000221
其中,设1帧所包含的子帧的数量为M,设辅助信息中所包含的基音滞后的数量为Mla。在进行数式57所表示的基音滞后的预测时,能够采用例如非专利文献4的7.11.1.3节记述的处理步骤(图13的步骤1102)。
[数式57]
Figure BDA0001339578040000222
自适应码本增益计算部193使用事前设定的数式58所表示的自适应码本增益、和在过去的解码中使用的数式59所表示的自适应码本增益,输出数式60所表示的自适应码本增益。
[数式58]
Figure BDA0001339578040000223
[数式59]
Figure BDA0001339578040000224
[数式60]
Figure BDA0001339578040000225
其中,设1帧所包含的子帧的数量为M,设辅助信息所包含的基音滞后的数量为Mla。在进行数式61所表示的自适应码本增益的预测时,能够采用例如非专利文献4的7.11.2.5.3节记述的处理步骤(图13的步骤1103)。
[数式61]
Figure BDA0001339578040000226
固定码本预测部194使用在过去的解码中使用的数式62所表示的固定码本增益,输出数式63所表示的固定码本增益。
[数式62]
Figure BDA0001339578040000227
[数式63]
Figure BDA0001339578040000228
其中,设1帧所包含的子帧的数量为M。在进行数式64所表示的固定码本增益的预测时,能够采用例如非专利文献4的7.11.2.6节记述的处理步骤(图13的步骤1104)。
[数式64]
Figure BDA0001339578040000232
噪音信号生成部195输出长度L的白色噪音(图13的步骤1105)。其中,设1帧的长度为L。
音频合成部124根据音频参数丢失处理部123输出的音频参数,合成解码信号(图7的步骤144)。音频合成部124的动作与<正常接收到音频分组的情况>的音频合成部的动作相同,因而省略详细说明(图7的步骤144)。
音频参数丢失处理部123将在音频合成部124中使用的音频参数(ISF参数、基音滞后、自适应码本增益、固定码本增益)存储在缓存器中(图7的步骤145)。
在上述实施例中,说明了对与先行信号所包含的所有子帧有关的辅助信息进行编码并传输的示例,但也可以构成为仅传输与特定的子帧有关的辅助信息。
[变形例1-1]
作为实施例1的变形例,示出在辅助信息中追加基音增益的示例。变形例1-1与实施例1的差别仅在于激励向量合成部155的动作,因而省略有关其它部分的说明。
<编码侧>
激励向量合成部155的处理步骤如图14所示。
根据自适应码本向量v’(n)和目标信号x(n),按照数式66计算数式65所表示的自适应码本增益(图14的步骤1111)。
[数式65]
Figure BDA0001339578040000233
[数式66]
Figure BDA0001339578040000231
受限于0≤gp≤1.2,
其中,y(n)表示将自适应码本向量与脉冲响应进行卷积而得到的信号y(n)=v(n)*h(n)。
对计算出的自适应码本增益进行编码,并包含在辅助信息码中(图14的步骤1112)。在编码中能够采用利用了事前通过学习而求出的码本的标量量化,但编码方法自身可以采用任何方法。
通过将对在自适应码本增益的编码中求出的码进行解码而得到的数式67所表示的自适应码本增益、与自适应码本向量相乘,按照数式68计算激励向量(图14的步骤1113)。
[数式67]
Figure BDA0001339578040000241
[数式68]
Figure BDA0001339578040000242
<解码侧>
激励向量合成部155将自适应码本向量v’(n)、与通过对辅助信息码进行解码而得到的数式69所表示的自适应码本增益相乘,按照数式70输出激励信号向量(图9的步骤165)。
[数式69]
Figure BDA0001339578040000243
[数式70]
Figure BDA0001339578040000244
[变形例1-2]
作为实施例1的变形例,示出了在辅助信息中追加辅助信息的利用判定用的标志的示例。
<编码侧>
辅助信息编码部的功能结构例如图17所示,辅助信息编码部的处理步骤如图18所示。与实施例1的差别仅在于辅助信息输出判定部1128(图18的步骤1131),因而省略有关其它部分的说明。
辅助信息输出判定部1128按照下式计算解码信号和先行信号的segmental SNR(区段信噪比),仅在segmental SNR超过阈值时将标志的值设定为ON,并包含在辅助信息中。
[数式71]
Figure BDA0001339578040000251
另一方面,在segmental SNR未超过阈值时将标志的值设定为OFF而包含在辅助信息中(图18的步骤1131)。另外,也可以是,仅在标志的值为ON时,将基音滞后和/或基音增益等辅助信息附加在标志中进行传输,在标志的值为OFF时仅传输标志的值,由此削减辅助信息的比特量。
<解码侧>
辅助信息解码部对包含在辅助信息码中的标志进行解码。音频参数丢失处理部在标志的值为开启(ON)时,通过与实施例1一样的处理步骤计算解码信号。另一方面,在标志的值为关闭(OFF)时,利用不使用辅助信息的分组丢失隐藏方法计算解码信号(图19的步骤1151)。
[实施例2]
在本实施例中,说明在正常接收时也使用先行信号部分的解码音频的示例。为了容易进行说明,设1帧中所包含的子帧的数量为M子帧,设先行信号的长度为M’子帧。
<编码侧>
音频信号发送装置如图20所示由主要编码部211、辅助信息编码部212、隐藏信号蓄积部213、误差信号编码部214构成。音频信号发送装置的处理步骤如图22所示。
误差信号编码部214从隐藏信号蓄积部213读出1子帧量的隐藏信号,并从音频信号中减去来计算误差信号(图22的步骤221)。
误差信号编码部214对误差信号进行编码。关于具体的处理步骤,采用非专利文献4的6.8.4.1.5节记述的AVQ等。在进行误差信号的编码时,进行局部解码,输出解码误差信号(图22的步骤222)。
通过将解码误差信号与隐藏信号相加,输出1子帧量的解码信号(图22的步骤223)。
反复M’子帧量的上述步骤221~223,一直到隐藏信号结束为止。
主要编码部211的功能结构如图21所示。主要编码部211由ISF编码部2011、目标信号计算部2012、基音滞后计算部2013、自适应码本计算部2014、固定码本计算部2015、增益计算部2016、激励向量计算部2017、合成滤波器2018、自适应码本缓存器2019构成。
ISF编码部2011对编码对象帧及先行信号应用莱文森杜斌法(Levinson-Durbinmethod)而得到LP系数。然后,将LP系数变换为ISF参数而进行编码。然后,对码进行解码而得到解码ISF参数。最后,在对解码ISF参数进行插值的基础上得到每个子帧的解码LP系数。莱文森杜斌法、源自LP系数的ISF参数变换的处理步骤与实施例1一样。另外,在ISF参数的编码中采用例如非专利文献4的6.8.2节记述的处理步骤。通过ISF编码部2011得到对ISF参数进行编码后的索引、解码ISF参数、以及将解码ISF参数变换为LP系数而得到的解码LP系数(图22的步骤224)。
目标信号计算部2012的具体的处理步骤与实施例1的图9步骤162相同(图22的步骤225)。
基音滞后计算部2013参照自适应码本缓存器,使用目标信号计算基音滞后及长期预测参数。基音滞后及长期预测参数计算的具体的处理步骤与实施例1一样(图22的步骤226)。
自适应码本计算部2014使用由基音滞后计算部2013求出的基音滞后及长期预测参数,计算自适应码本向量。自适应码本计算部2014的具体的处理步骤与实施例1一样(图22的步骤227)。
固定码本计算部2015使用目标信号和自适应码本向量,计算固定码本向量和对固定码本向量进行编码而得到的索引。具体的步骤与在误差信号编码部214中使用的AVQ的处理步骤与实施例1一样(图22的步骤228)。
增益计算部2016使用目标信号、自适应码本向量、固定码本向量,计算自适应码本增益、固定码本增益以及对这两个增益进行编码而得到的索引。具体的处理步骤与非专利文献4的6.8.4.1.6节所记述的处理步骤相同(图22的步骤229)。
激励向量计算部2017将应用了增益的自适应码本向量和固定码本向量相加,计算出激励向量。具体的处理步骤与实施例1一样。另外,激励向量计算部2017使用激励向量更新自适应码本缓存器2019的状态。具体的处理步骤与实施例1一样(图22的步骤2210)。
合成滤波器2018使用解码LP系数和激励向量将解码信号合成(图22的步骤2211)。
反复M-M’子帧量的上述步骤224~2211,一直到编码对象帧结束为止。
辅助信息编码部212对先行信号M’子帧计算辅助信息。具体的处理步骤与实施例1一样(图22的步骤2212)。
在实施例1的步骤基础上,在实施例2中,将辅助信息编码部212的合成滤波器157输出的解码信号蓄积在隐藏信号蓄积部213中(图22的步骤2213)。
<解码部>
如图23所示,音频信号接收装置由音频码缓存器231、音频参数解码部232、音频参数丢失处理部233、音频合成部234、辅助信息解码部235、辅助信息蓄积部236、误差信号解码部237、隐藏信号蓄积部238构成。音频信号接收装置的处理步骤如图24所示。音频合成部234的功能结构如图25所示。
音频码缓存器231判定是否正常接收到分组,在判定为正常接收到分组时,将处理切换至音频参数解码部232、辅助信息解码部235、误差信号解码部237,在判定为不能正常接收到分组时,将处理切换至音频参数丢失处理部233(图24的步骤241)。
<正常接收到分组的情况>
误差信号解码部237对误差信号码进行解码而得到解码误差信号。关于具体的处理步骤,采用与非专利文献4的7.1.2.1.2节所记述的AVQ等在编码侧使用的方法对应的解码方法(图24的步骤242)。
先行激励向量合成部2318从隐藏信号蓄积部238读出1子帧量的隐藏信号、并与解码误差信号相加,由此输出1子帧量的解码信号(图24的步骤243)。
反复M’子帧量的上述步骤241~243,一直到隐藏信号结束为止。
音频参数解码部232由ISF解码部2211、基音滞后解码部2212、增益解码部2213、固定码本解码部2214构成。音频参数解码部232的功能结构例如图26所示。
ISF解码部2211对ISF码进行解码并变换为LP系数,由此得到解码LP系数。例如,采用非专利文献4的7.1.1节所记述的处理步骤(图24的步骤244)。
基音滞后解码部2212对基音滞后码进行解码而得到基音滞后和长期预测参数(图24的步骤245)。
增益解码部2213对增益码进行解码而得到自适应码本增益、固定码本增益。具体的处理步骤参照非专利文献4的7.1.2.1.3节的记述(图24的步骤246)。
自适应码本计算部2313使用基音滞后和长期预测参数计算自适应码本向量。自适应码本计算部2313的具体的处理步骤参照实施例1的记述(图24的步骤247)。
固定码本解码部2214对固定码本码进行解码,计算固定码本向量。具体的处理步骤参照非专利文献4的7.1.2.1.2节的记述(图24的步骤248)。
激励向量合成部2314将应用了增益的自适应码本向量和固定码本向量相加来计算激励向量。另外,激励向量计算部使用激励向量更新自适应码本缓存器(图24的步骤249)。具体的处理步骤与实施例1一样。
合成滤波器2316使用解码LP系数和激励向量合成解码信号(图24的步骤2410)。具体的处理步骤与实施例1一样。
反复M-M’子帧量的上述步骤244~2410,一直到编码对象帧结束为止。
辅助信息解码部235的功能结构与实施例1一样。辅助信息解码部235对辅助信息码进行解码,计算基音滞后(图24的步骤2411)。
音频参数丢失处理部233的功能结构与实施例1一样。
ISF预测部191使用前一个帧的ISF参数预测ISF参数,并变换为LP系数。处理步骤与实施例1的图10的步骤172、173、174相同(图24的步骤2412)。
自适应码本计算部2313使用辅助信息解码部235输出的基音滞后、和自适应码本2312,计算自适应码本向量(图24的步骤2413)。处理步骤与图16的步骤11301、11302相同。
自适应码本预测部193输出自适应码本增益。具体的处理步骤与图13的步骤1103相同(图24的步骤2414)。
固定码本预测部194输出固定码本增益。具体的处理步骤与图13的步骤1104相同(图24的步骤2415)。
噪音信号生成部195输出白色噪音作为固定码本向量。处理步骤与图13的步骤1105相同(图24的步骤2416)。
激励向量合成部2314在对自适应码本向量和固定码本向量分别应用增益的基础上进行相加,计算出激励向量。并且,利用激励向量更新自适应码本缓存器(图24的步骤2417)。
合成滤波器2316使用上述LP系数和激励向量计算解码信号。利用计算出的解码信号更新隐藏信号蓄积部238(图24的步骤2418)。
反复M’子帧量的上述步骤,将解码信号作为音频信号进行输出。
<丢失了分组的情况>
从隐藏信号蓄积部读出1子帧量的隐藏信号作为解码信号(图24的步骤2419)。
反复M’子帧量的上述步骤。
ISF预测部191预测ISF参数(图24的步骤2420)。处理步骤采用图13的步骤1101。
基音滞后预测部192使用在过去的解码中使用的基音滞后,输出预测基音滞后(图24的步骤2421)。在预测中使用的处理步骤与实施例1的图13的步骤1102相同。
自适应码本增益预测部193、固定码本增益预测部194、噪音信号生成部195、音频合成部234的动作与实施例1一样(图24的步骤2422)。
反复M子帧量的上述步骤,将M-M’子帧量的解码信号作为音频信号进行输出,利用剩余的M’子帧量的解码信号更新隐藏信号蓄积部238。
[实施例3]
说明在计算自适应码本向量时使用声门脉冲同步的情况。
<编码侧>
音频信号发送装置的功能结构与实施例1相同。功能结构及处理步骤不同的只有辅助信息码部,因而在此仅说明辅助信息码部的动作。
辅助信息码部由LP系数计算部311、基音滞后预测部312、基音滞后选定部313、基音滞后码部314、自适应码本缓存器315构成。辅助信息码部的功能结构图如图27所示,处理步骤如图28所示。
LP系数计算部311与实施例1的LP系数计算部相同,因而省略说明(图28的步骤321)。
基音滞后预测部312使用从音频码部得到的基音滞后计算数式72所表示的基音滞后预测值(图28的步骤322)。
[数式72]
Figure BDA0001339578040000291
预测的具体处理与实施例1中的基音滞后预测部192进行的数式73所表示的预测相同(图13的步骤1102)。
[数式73]
Figure BDA0001339578040000305
然后,基音滞后选定部313决定要作为辅助信息而传输的基音滞后(图28的步骤323)。基音滞后选定部313的更详细的处理步骤如图29所示。
首先,根据数式74所表示的基音滞后预测值和数式75所表示的过去的基音滞后的值,按照数式76及数式77生成基音滞后码本(图29的步骤331)。
[数式74]
Figure BDA0001339578040000306
[数式75]
Figure BDA0001339578040000307
[数式76]
Figure BDA0001339578040000301
Figure BDA0001339578040000302
[数式77]
Figure BDA0001339578040000303
Figure BDA0001339578040000304
其中,1子帧前的基音滞后的值用数式78表示。
[数式78]
Figure BDA0001339578040000308
并且,设码本的索引数为l。另外,δj表示事前设定的步宽,ρ表示事前设定的常数。
然后,使用自适应码本、数式79所表示的基音滞后预测值,按照数式80生成初始激励向量u0(n)(图29的步骤332)。
[数式79]
Figure BDA0001339578040000311
[数式80]
Figure BDA0001339578040000312
初始激励向量计算的处理步骤与非专利文献4的式(607)及式(608)相同。
然后,对初始激励向量使用数式81所示的基音滞后码本中的所有的候选基音滞后,采用声门脉冲同步生成候选自适应码本向量uj(n)(0≦j<l)(图29的步骤333)。声门脉冲同步采用与非专利文献4的7.11.2.5节中不能利用脉冲位置时相同的处理步骤。另外,非专利文献4的u(n)对应于本发明的实施方式的u0(n),extrapolated pitch对应于本发明的实施方式的数式82,the last reliable pitch(Tc)对应于本发明的实施方式的数式83。
[数式81]
Figure BDA0001339578040000313
[数式82]
Figure BDA0001339578040000314
[数式83]
Figure BDA0001339578040000315
对候选自适应码本向量uj(n)(0≦j<l)计算评价尺度(图29的步骤334)。在评价尺度采用segmental SNR的情况下,通过使用了LP系数的逆向滤波合成信号,按照下式计算与输入信号之间的segmental SNR。
[数式84]
Figure BDA0001339578040000316
[数式85]
Figure BDA0001339578040000321
也可以按照下式,使用残差信号在自适应码本向量的区域中计算segmental SNR,以取代进行逆向滤波。
[数式86]
Figure BDA0001339578040000322
[数式87]
Figure BDA0001339578040000323
在这种情况下,使用LP系数计算先行信号s(n)(0≦n<L’)的残差信号r(n)(图11的步骤181)。
选择与在步骤334计算出的评价尺度中最大的评价尺度对应的索引,求出对应该索引的基音滞后(图29的步骤335)。
[数式88]
Figure BDA0001339578040000324
<解码侧>
音频信号接收装置的功能结构与实施例1一样。与实施例1的差别在于音频参数丢失处理部123、辅助信息解码部125、辅助信息蓄积部126的功能结构及处理步骤,因而仅说明这些内容。
<正常接收到分组的情况>
辅助信息解码部125对辅助信息码进行解码来计算数式89所表示的基音滞后,并存储在辅助信息蓄积部126中。辅助信息解码部125的处理步骤如图30所示。
[数式89]
Figure BDA0001339578040000335
在计算基音滞后时,首先基音滞后预测部312使用从音频解码部得到的基音滞后计算数式90所表示的基音滞后预测值(图30的步骤341)。预测的具体处理与实施例3中的图28的步骤322相同。
[数式90]
Figure BDA0001339578040000336
然后,根据数式91所表示的基音滞后预测值和数式92所表示的过去的基音滞后的值,按照数式93及数式94生成基音滞后码本(图30的步骤342)。
[数式91]
Figure BDA0001339578040000337
[数式92]
Figure BDA0001339578040000338
[数式93]
Figure BDA0001339578040000331
Figure BDA0001339578040000332
[数式94]
Figure BDA0001339578040000333
Figure BDA0001339578040000334
处理步骤与图29的步骤331相同。其中,1子帧前的基音滞后的值用数式95表示。
[数式95]
Figure BDA0001339578040000339
并且,设码本的索引数为l。另外,δj表示事前设定的步宽,ρ表示事前设定的常数。
然后,参照基音滞后码本,求出与要作为辅助信息而传输的索引idx对应的数式96所表示的基音滞后,并存储在辅助信息蓄积部126中(图30的步骤343)。
[数式96]
Figure BDA0001339578040000341
<检测出分组丢失的情况>
音频合成部的功能结构也与实施例1一样(与图15相同),下面仅对与实施例1的动作不同的自适应码本计算部1123进行说明。
音频参数丢失处理部123在从辅助信息蓄积部126读出基音滞后的基础上,按照下式计算基音滞后值,以取代基音滞后预测部192的输出。
[数式97]
Figure BDA0001339578040000342
其中,数式98所表示的项是预先设定的常数。
[数式98]
κ
然后,使用自适应码本、数式99所表示的基音滞后预测值,按照数式100生成初始激励向量u0(n)(图29的步骤332)。
[数式99]
Figure BDA0001339578040000343
[数式100]
Figure BDA0001339578040000344
然后,对初始激励向量使用数式101所表示的基音滞后,采用声门同步脉冲生成自适应码本向量u(n)。声门脉冲同步采用与图29的步骤333相同的处理步骤。
[数式101]
Figure BDA0001339578040000345
下面,说明用于使计算机执行上述一系列的音频信号发送装置的处理的音频编码程序70。如图31所示,音频编码程序70被安装在计算机中被访问使用,或者被存储在形成于计算机具备的记录介质60的程序存储区域61中。
音频编码程序70构成为具有音频编码模块700和辅助信息编码模块701。通过执行音频编码模块700和辅助信息编码模块701而实现的功能,分别与上述的音频信号发送装置的音频编码部111和辅助信息编码部112的功能相同。
另外,也可以构成为,将音频编码程序70的一部分或者全部通过通信线路等传输介质进行传输,由其它设备接收并进行记录(包括安装)。此外,音频编码程序70的各个模块也可以安装在多个计算机中的任意一个计算机中,而不是安装在一个计算机中。在这种情况下,由这多个计算机所构成的计算机系统执行上述一系列的音频编码程序70的处理。
下面,说明用于使计算机执行上述一系列的音频信号接收装置的处理的音频解码程序90。如图32所示,音频解码程序90被安装在计算机中被访问使用,或者被存储在形成于计算机具备的记录介质80的程序存储区域81中。
音频解码程序90构成为具有音频码缓存器模块900、音频参数解码模块901、辅助信息解码模块902、辅助信息蓄积模块903、音频参数丢失处理模块904、音频合成模块905。通过执行音频码缓存器模块900、音频参数解码模块901、辅助信息解码模块902、辅助信息蓄积模块903、音频参数丢失处理模块904、音频合成模块905而实现的功能,分别与上述音频信号接收装置的音频码缓存器231、音频参数解码部232、辅助信息解码部235、辅助信息蓄积部236、音频参数丢失处理部233、音频合成部234的功能相同。
另外,也可以构成为,将音频解码程序90的一部分或者全部通过通信线路等传输介质进行传输,由其它设备接收并进行记录(包括安装)。此外,音频解码程序90的各个模块也可以安装在多个计算机中的任意一个计算机中,而不是安装在一个计算机中。在这种情况下,由这多个计算机所构成的计算机系统执行上述一系列的音频解码程序90的处理。
[实施例4]
说明将辅助信息用于在解码侧的基音滞后预测的示例。
<编码侧>
音频信号发送装置的功能结构与实施例1一样。功能结构及处理步骤不同的只有辅助信息编码部112,因而在此仅说明辅助信息编码部112的动作。
辅助信息编码部112的功能结构图如图33所示,处理步骤如图34所示。辅助信息编码部112由LP系数计算部511、残差信号计算部512、基音滞后计算部513、自适应码本计算部514、自适应码本缓存器515、基音滞后编码部516构成。
LP系数计算部511与实施例1的图8的LP系数计算部151相同,因而省略说明。
残差信号计算部512通过与实施例1的图11的步骤181相同的处理来计算残差信号。
基音滞后计算部513通过求出使下式最大化的k,对每个子帧计算基音滞后(图34的步骤163)。其中,u(n)表示自适应码本,L’表示1子帧所包含的采样数。
Tp=argkmaxkTk
[数式102]
Figure BDA0001339578040000361
自适应码本计算部514根据基音滞后Tp、自适应码本u(n)计算自适应码本向量v’(n)。在此,设自适应码本的长度为Nadapt(图34的步骤164)。
v’(n)=u(n+Nadapt-Tp)
自适应码本缓存器515利用自适应码本向量v’(n)更新状态(图34的步骤166)。
u(n)=u(n+L’)(0≦n<N-L’)
u(n+N-L’)=v’(n)(0≦n<L)
基音滞后编码部516与实施例1一样,因而省略(图34的步骤169)。
<解码侧>
音频信号接收装置与实施例1一样由音频码缓存器121、音频参数解码部122、音频参数丢失处理部123、音频合成部124、辅助信息解码部125、辅助信息蓄积部126构成。音频信号接收装置的处理步骤如图7所示。
音频码缓存器121的动作与实施例1一样。
<正常接收到分组的情况>
音频参数解码部122的动作与实施例1一样。
辅助信息解码部125对辅助信息码进行解码来计算数式103所表示的基音滞后,并存储在辅助信息蓄积部126中。在辅助信息解码部125中使用与在编码侧使用的编码方法对应的解码方法,对辅助信息码进行解码。
[数式103]
Figure BDA0001339578040000371
音频合成部124与实施例1一样。
<检测出分组丢失的情况>
音频参数丢失处理部123(参照图12)的ISF预测部191与实施例1一样地计算ISF参数。
基音滞后预测部192的处理步骤如图35所示。基音滞后预测部192与实施例1一样地从辅助信息蓄积部126读出辅助信息码而得到数式104所表示的基音滞后(图35的步骤4051)。
[数式104]
Figure BDA0001339578040000372
另外,使用在过去的解码中使用的数式105所表示的基音滞后,输出数式106所表示的基音滞后(图35的步骤4052)。在此,设1帧所包含的子帧的数量为M,设辅助信息所包含的基音滞后的数量为Mla
[数式105]
Figure BDA0001339578040000373
[数式106]
Figure BDA0001339578040000374
在进行数式107所表示的基音滞后的预测时,能够采用如非专利文献4的处理步骤(图13的步骤1102)。
[数式107]
Figure BDA0001339578040000375
在此,基音滞后预测部192在进行数式108所表示的基音滞后的预测时,也可以使用在过去的解码中使用的数式109所表示的基音滞后和数式110所表示的基音滞后、预测数式111所表示的基音滞后。
[数式108]
Figure BDA0001339578040000381
[数式109]
Figure BDA0001339578040000382
[数式110]
Figure BDA0001339578040000383
[数式111]
Figure BDA0001339578040000384
另外,也可以设数式112所表示的情况。这种情况时的基音滞后预测部的处理步骤如图36所示。
[数式112]
Figure BDA0001339578040000385
另外,也可以是,基音滞后预测部192仅在有关基音滞后的预测值的可靠性较低的情况下,设数式113所表示的情况。这种情况时的基音滞后预测部192的处理步骤如图37所示。
[数式113]
Figure BDA0001339578040000386
也可以是,向自适应码本计算部154输入有关使用预测值、还是使用根据辅助信息而得到的数式114所表示的基音滞后的指示信息。
[数式114]
Figure BDA0001339578040000387
自适应码本增益预测部193、固定码本增益预测部194与实施例1一样。
噪音信号生成部195与实施例1一样。
音频合成部124根据音频参数丢失处理部123输出的参数,合成与编码对象帧对应的音频信号。
音频合成部124(参照图15)的LP系数计算部1121与实施例1一样地得到LP系数(图16的步骤11301)。
自适应码本计算部1123与实施例1一样地计算自适应码本向量。自适应码本计算部1123也可以始终对自适应码本向量进行滤波,也可以始终不进行滤波。即,使用下式计算自适应码本向量。在此,设滤波器系数为fi
v(n)=f-1v’(n-1)+f0v’(n)+f1v’(n+1)
在取不指示滤波的值的情况下,v(n)=v’(n)(自适应码本计算步骤A)。
自适应码本计算部1123也可以按照下面的步骤计算自适应码本向量(自适应码本计算步骤B)。
使用基音滞后和自适应码本1122计算初始自适应码本向量。
v(n)=f-1v’(n-1)+f0v’(n)+f1v’(n+1)
根据设计方针,也可以设为v(n)=v’(n)。
然后,对初始自适应码本向量应用声门脉冲同步。声门脉冲同步采用与非专利文献4的7.11.2.5节中不能利用脉冲位置时相同的处理步骤。另外,非专利文献4的u(n)对应于本发明的实施方式的v(n),extrapolated pitch对应于本发明的实施方式的数式115,the last reliable pitch(Tc)对应于本发明的实施方式的数式116。
[数式115]
Figure BDA0001339578040000391
[数式116]
Figure BDA0001339578040000392
另外,也可以是,在基音滞后预测部192输出了上述预测值的指示信息的情况下,在上述指示信息表示不将作为辅助信息而发送的基音滞后用作预测值时(图38的步骤4082:否),自适应码本计算部1123采用上述自适应码本计算步骤A,在除此以外的情况时(图38的步骤4082:是)采用上述自适应码本计算步骤B。这种情况时的自适应码本计算部1123的处理步骤如图38所示。
激励向量合成部1124与实施例1一样地输出激励信号向量(图16的步骤11306)。
主滤波器1125与实施例1一样地对合成信号进行后处理。
自适应码本1122与实施例1一样地利用激励信号向量更新状态(图16的步骤11308)。
合成滤波器1126与实施例1一样地将解码信号合成(图16的步骤11309)。
听觉加权逆滤波器1127使用与实施例1一样的听觉加权逆滤波器。
音频参数丢失处理部123与实施例1一样地将在音频合成部124使用的音频参数(ISF参数、基音滞后、自适应码本增益、固定码本增益)存储在缓存器中(图7的步骤145)。
[实施例5]
在本实施例中说明这样的结构:仅在特定的帧类中传输基音滞后作为辅助信息,在除此以外的情况不传输基音滞后。
<发送侧>
在音频信号发送装置中,向音频编码部111发送输入音频信号。
本实施例中的音频编码部111必定计算表示编码对象帧的性质的索引,并传输给辅助信息编码部112。除此以外的动作与实施例1一样。
在辅助信息编码部112中,只有基音滞后编码部158与实施例1-4不同,因而下面说明基音滞后编码部158的动作。实施例5的辅助信息编码部112的结构图如图39所示。
基音滞后编码部158的处理步骤如图40所示。基音滞后编码部158读出表示编码对象帧的性质的索引(图40的步骤5021),在表示编码对象帧的性质的索引与事前设定的值相同的情况下,将对辅助信息分配的比特数设为B比特(B>1)。另一方面,在表示编码对象帧的性质的索引与事前设定的值不同的情况下,将对辅助信息分配的比特数设为1比特(图40的步骤5022)。
在对辅助信息分配的比特数为1比特的情况下(图40的步骤5022:否),对辅助信息索引设定表示不传输辅助信息的值,并作为辅助信息码(图40的步骤5023)。
另一方面,在对辅助信息分配的比特数为B比特的情况下(图40的步骤5022:是),对辅助信息索引设定表示传输辅助信息的值(图40的步骤5024),还将利用实施例1的方法对基音滞后进行编码得到的B-1比特的码包含在内作为辅助信息码(图40的步骤5025)。
<解码侧>
音频信号接收装置与实施例1一样由音频码缓存器121、音频参数解码部122、音频参数丢失处理部123、音频合成部124、辅助信息解码部125、辅助信息蓄积部126构成。音频信号接收装置的处理步骤如图7所示。
音频码缓存器121的动作与实施例1一样。
<正常接收到分组的情况>
音频参数解码部122的动作与实施例1一样。
辅助信息解码部125的处理步骤如图41所示。辅助信息解码部125首先对辅助信息码所包含的辅助信息索引进行解码(图41的步骤5031)。在辅助信息索引表示不传输辅助信息的情况下,不再继续进行解码动作。并且,将辅助信息索引的值存储在辅助信息蓄积部126中(图41的步骤5032)。
另一方面,在辅助信息索引表示传输辅助信息的情况下,再进行B-1比特的解码,计算数式117所表示的基音滞后,并存储在辅助信息蓄积部126中(图41的步骤5033)。并且,将辅助信息索引的值存储在辅助信息蓄积部126中。另外,B-1比特的辅助信息的解码是与实施例1的辅助信息解码部125相同的动作。
[数式117]
Figure BDA0001339578040000411
音频合成部124与实施例1一样。
<检测出分组丢失的情况>
音频参数丢失处理部123(参照图12)的ISF预测部191与实施例1一样地计算ISF参数。
ISF预测部192的处理步骤如图42所示。ISF预测部192从辅助信息蓄积部126读出辅助信息索引(图42的步骤5041),确认是否是表示传输辅助信息的值(图42的步骤5042)。
<辅助信息索引是表示传输辅助信息的值的情况>
与实施例1一样地,从辅助信息蓄积部126读出辅助信息码,得到数式118所表示的基音滞后(图42的步骤5043)。
[数式118]
Figure BDA0001339578040000412
另外,使用在过去的解码中使用的数式119所表示的基音滞后、和作为辅助信息而得到的数式120所表示的值,输出数式121所表示的基音滞后(图42的步骤5044)。在此,设1帧所包含的子帧的数量为M,设辅助信息所包含的基音滞后的数量为Mla
[数式119]
Figure BDA0001339578040000421
[数式120]
Figure BDA0001339578040000422
[数式121]
Figure BDA0001339578040000423
在进行数式122所表示的基音滞后的预测时,能够采用如非专利文献4的处理步骤(图13的步骤1102)。并且,也可以设为数式123所示。
[数式122]
Figure BDA0001339578040000424
[数式123]
Figure BDA0001339578040000425
另外,也可以是,基音滞后预测部192仅在有关基音滞后的预测值的可靠性较低的情况下设为数式124,在除此以外的情况下,将预测值设为数式125(图42的步骤5046)。
[数式124]
Figure BDA0001339578040000426
[数式125]
Figure BDA0001339578040000427
另外,也可以向自适应码本计算部1123输入有关使用预测值、还是使用根据辅助信息而得到的数式126所表示的基音滞后的基音滞后指示信息。
[数式126]
Figure BDA0001339578040000428
<辅助信息索引是表示不传输辅助信息的值的情况>
基音滞后预测部192在进行数式127所表示的基音滞后的预测时,使用在过去的解码中使用的数式128所表示的基音滞后,预测数式129所表示的基音滞后(图42的步骤5048)。
[数式127]
Figure BDA0001339578040000431
[数式128]
Figure BDA0001339578040000432
[数式129]
Figure BDA0001339578040000433
另外,也可以是,基音滞后预测部192仅在有关基音滞后的预测值的可靠性较低的情况下设为数式130的情况(图42的步骤5049),在除此以外的情况下,将预测值设为数式131。
[数式130]
Figure BDA0001339578040000434
[数式131]
Figure BDA0001339578040000435
并且,向自适应码本计算部1123输入有关使用预测值、还是使用在过去解码时使用的数式132所表示的基音滞后的基音滞后指示信息(图42的步骤5050)。
[数式132]
Figure BDA0001339578040000436
自适应码本增益预测部193、固定码本增益预测部194与实施例1一样。
噪音信号生成部195与实施例1一样。
音频合成部124根据音频参数丢失处理部123输出的参数,合成与编码对象帧对应的音频信号。
音频合成部124(参照图15)的LP系数计算部1121与实施例1一样地得到LP系数(图16的步骤11301)。
自适应码本计算部1123的处理步骤如图43所示。自适应码本计算部1123与实施例1一样地计算自适应码本向量。首先,参照基音滞后指示信息(图43的步骤5051),在预测值的可靠性较低的情况下(图43的步骤5052:是),使用下式计算自适应码本向量(图43的步骤5055)。在此,设滤波器系数为fi
v(n)=f-1v’(n-1)+f0v’(n)+f1v’(n+1)
另外,根据设计方针,也可以设为v(n)=v’(n)。
参照基音滞后指示信息,在预测值的可靠性较高的情况下(图43的步骤5052:否),自适应码本计算部1123按照下面的步骤计算自适应码本向量。
首先,使用基音滞后和自适应码本1122计算初始自适应码本向量(图43的步骤5053)。
v(n)=f-1v’(n-1)+f0v’(n)+f1v’(n+1)
另外,根据设计方针,也可以设为v(n)=v’(n)。
然后,对初始自适应码本向量应用声门脉冲同步。声门脉冲同步采用与非专利文献4的7.11.2.5节中不能利用脉冲位置时相同的处理步骤(图43的步骤5054)。另外,非专利文献4的u(n)对应于本发明的实施方式的v(n),extrapolated pitch对应于本发明的实施方式的数式133,the last reliable pitch(Tc)对应于本发明的实施方式的数式134。
[数式133]
Figure BDA0001339578040000441
[数式134]
Figure BDA0001339578040000442
激励向量合成部1124与实施例1一样地输出激励信号向量(图16的步骤11306)。
主滤波器1125与实施例1一样地对合成信号进行后处理。
自适应码本1122与实施例1一样地利用激励信号向量更新状态(图16的步骤11308)。
合成滤波器1126与实施例1一样地合成解码信号(图16的步骤11309)。
听觉加权逆滤波器1127使用与实施例1一样的听觉加权逆滤波器。
音频参数丢失处理部123与实施例1一样地将在音频合成部124使用的音频参数(ISF参数、基音滞后、自适应码本增益、固定码本增益)存储在缓存器中(图7的步骤145)。
标号说明
60、80存储介质;61、81程序存储区域;70音频编码程序;90音频解码程序;111音频编码部;112辅助信息编码部;121、231音频码缓存器;122、232音频参数解码部;123、233音频参数丢失处理部;124、234音频合成部;125、235辅助信息解码部;126、236辅助信息蓄积部;151、511、1121LP系数计算部;152、2012目标信号计算部;153、513、2013基音滞后计算部;154、1123、514、2014、2313自适应码本计算部;155、1124、2314激励向量合成部;156、315、515、2019自适应码本缓存器;157、1126、2018、2316合成滤波器;158、516基音滞后编码部;191ISF预测部;192基音滞后预测部;193自适应码本增益预测部;194固定码本增益预测部;195噪音信号生成部;211主要编码部;212辅助信息编码部;213、238隐藏信号蓄积部;214误差信号编码部;237误差信号解码部;311LP系数计算部;312基音滞后预测部;313基音滞后选定部;314基音滞后编码部;512残差信号计算部;700音频编码模块;701辅助信息编码模块;900音频参数解码模块;901音频参数丢失处理模块;902音频合成模块;903辅助信息编码模块;1128辅助信息输出判定部;1122、2312自适应码本;1125主滤波器;1127听觉加权逆滤波器;2011ISF编码部;2015固定码本计算部;2016增益计算部;2017激励向量计算部;2211ISF解码部;2212基音滞后解码部;2213增益解码部;2214固定码本解码部;2318先行激励向量合成部。

Claims (1)

1.一种对音频信号进行编码的音频编码装置,该音频编码装置具有:
音频编码部,其对音频信号进行编码;以及
辅助信息编码部,其计算码激励线性预测编码中的先行信号的参数,作为码激励线性预测编码中的分组丢失隐藏用的辅助信息,
所述音频编码部计算表示编码对象帧的性质的索引,并传送给所述辅助信息编码部,
在所述索引示出所述编码对象帧是特定的帧类的情况下,将与所述编码对象帧相邻的后一帧的基音滞后作为所述辅助信息包含在所述编码对象帧的分组中,并且,
在所述索引示出所述编码对象帧是特定的帧类以外的情况下,不将与所述编码对象帧相邻的后一帧的基音滞后包含在所述编码对象帧的分组中。
CN201710532316.9A 2012-11-15 2013-11-12 音频编码装置 Active CN107256709B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JPJP2012-251646 2012-11-15
JP2012251646 2012-11-15
CN201380058010.4A CN104781876B (zh) 2012-11-15 2013-11-12 音频编码装置、音频编码方法以及音频解码装置、音频解码方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201380058010.4A Division CN104781876B (zh) 2012-11-15 2013-11-12 音频编码装置、音频编码方法以及音频解码装置、音频解码方法

Publications (2)

Publication Number Publication Date
CN107256709A CN107256709A (zh) 2017-10-17
CN107256709B true CN107256709B (zh) 2021-02-26

Family

ID=50731166

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201380058010.4A Active CN104781876B (zh) 2012-11-15 2013-11-12 音频编码装置、音频编码方法以及音频解码装置、音频解码方法
CN201710532316.9A Active CN107256709B (zh) 2012-11-15 2013-11-12 音频编码装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201380058010.4A Active CN104781876B (zh) 2012-11-15 2013-11-12 音频编码装置、音频编码方法以及音频解码装置、音频解码方法

Country Status (18)

Country Link
US (7) US9564143B2 (zh)
EP (2) EP3579228A1 (zh)
JP (8) JP6158214B2 (zh)
KR (10) KR102110853B1 (zh)
CN (2) CN104781876B (zh)
AU (6) AU2013345949B2 (zh)
BR (1) BR112015008505B1 (zh)
CA (4) CA2886140C (zh)
DK (1) DK2922053T3 (zh)
ES (1) ES2747353T3 (zh)
HK (1) HK1209229A1 (zh)
IN (1) IN2015DN02595A (zh)
MX (3) MX2018016263A (zh)
PL (1) PL2922053T3 (zh)
PT (1) PT2922053T (zh)
RU (8) RU2640743C1 (zh)
TW (2) TWI547940B (zh)
WO (1) WO2014077254A1 (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2849974C (en) * 2011-09-26 2021-04-13 Sirius Xm Radio Inc. System and method for increasing transmission bandwidth efficiency ("ebt2")
KR102110853B1 (ko) * 2012-11-15 2020-05-14 가부시키가이샤 엔.티.티.도코모 음성 부호화 장치, 음성 부호화 방법, 음성 부호화 프로그램, 음성 복호 장치, 음성 복호 방법 및 음성 복호 프로그램
US9418671B2 (en) * 2013-08-15 2016-08-16 Huawei Technologies Co., Ltd. Adaptive high-pass post-filter
EP2922056A1 (en) * 2014-03-19 2015-09-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus, method and corresponding computer program for generating an error concealment signal using power compensation
EP2922055A1 (en) * 2014-03-19 2015-09-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus, method and corresponding computer program for generating an error concealment signal using individual replacement LPC representations for individual codebook information
EP2922054A1 (en) * 2014-03-19 2015-09-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus, method and corresponding computer program for generating an error concealment signal using an adaptive noise estimation
CN105897666A (zh) * 2015-10-08 2016-08-24 乐视致新电子科技(天津)有限公司 实时语音通话中的实时语音接收设备及降低延迟的方法
US10650837B2 (en) 2017-08-29 2020-05-12 Microsoft Technology Licensing, Llc Early transmission in packetized speech
US11710492B2 (en) * 2019-10-02 2023-07-25 Qualcomm Incorporated Speech encoding using a pre-encoded database

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004138756A (ja) * 2002-10-17 2004-05-13 Matsushita Electric Ind Co Ltd 音声符号化装置、音声復号化装置、音声信号伝送方法及びプログラム
CN101000768A (zh) * 2006-06-21 2007-07-18 北京工业大学 嵌入式语音编解码的方法及编解码器
CN101501763A (zh) * 2005-05-31 2009-08-05 微软公司 音频编解码器后置滤波器

Family Cites Families (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5327520A (en) 1992-06-04 1994-07-05 At&T Bell Laboratories Method of use of voice message coder/decoder
JP3713288B2 (ja) * 1994-04-01 2005-11-09 株式会社東芝 音声復号装置
JPH08160993A (ja) * 1994-12-08 1996-06-21 Nec Corp 音声分析合成器
JP4121578B2 (ja) * 1996-10-18 2008-07-23 ソニー株式会社 音声分析方法、音声符号化方法および装置
CN100583242C (zh) * 1997-12-24 2010-01-20 三菱电机株式会社 声音译码方法和声音译码装置
US7072832B1 (en) 1998-08-24 2006-07-04 Mindspeed Technologies, Inc. System for speech encoding having an adaptive encoding arrangement
US6757654B1 (en) 2000-05-11 2004-06-29 Telefonaktiebolaget Lm Ericsson Forward error correction in speech coding
JP2002118517A (ja) * 2000-07-31 2002-04-19 Sony Corp 直交変換装置及び方法、逆直交変換装置及び方法、変換符号化装置及び方法、並びに復号装置及び方法
US6862567B1 (en) 2000-08-30 2005-03-01 Mindspeed Technologies, Inc. Noise suppression in the frequency domain by adjusting gain according to voicing parameters
US6968309B1 (en) * 2000-10-31 2005-11-22 Nokia Mobile Phones Ltd. Method and system for speech frame error concealment in speech decoding
KR100674423B1 (ko) * 2001-01-19 2007-01-29 엘지전자 주식회사 송/수신 시스템 및 데이터 처리 방법
JP3628268B2 (ja) * 2001-03-13 2005-03-09 日本電信電話株式会社 音響信号符号化方法、復号化方法及び装置並びにプログラム及び記録媒体
US7308406B2 (en) 2001-08-17 2007-12-11 Broadcom Corporation Method and system for a waveform attenuation technique for predictive speech coding based on extrapolation of speech waveform
SE521600C2 (sv) * 2001-12-04 2003-11-18 Global Ip Sound Ab Lågbittaktskodek
JP3722366B2 (ja) * 2002-02-22 2005-11-30 日本電信電話株式会社 パケット構成方法及び装置、パケット構成プログラム、並びにパケット分解方法及び装置、パケット分解プログラム
CN1639984B (zh) * 2002-03-08 2011-05-11 日本电信电话株式会社 数字信号编码方法、解码方法、编码设备、解码设备
JP2004077688A (ja) * 2002-08-14 2004-03-11 Nec Corp 音声通信装置
US7584107B2 (en) * 2002-09-09 2009-09-01 Accenture Global Services Gmbh Defined contribution benefits tool
AU2003208517A1 (en) * 2003-03-11 2004-09-30 Nokia Corporation Switching between coding schemes
JP4365653B2 (ja) * 2003-09-17 2009-11-18 パナソニック株式会社 音声信号送信装置、音声信号伝送システム及び音声信号送信方法
SE527670C2 (sv) * 2003-12-19 2006-05-09 Ericsson Telefon Ab L M Naturtrogenhetsoptimerad kodning med variabel ramlängd
EP1746580B1 (en) * 2004-05-10 2010-03-24 Nippon Telegraph and Telephone Corporation Acoustic signal packet communication method, transmission method, reception method, and device and program thereof
JP2008502194A (ja) * 2004-06-02 2008-01-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 補助情報をメディア信号に埋め込む方法及び装置
US20060088093A1 (en) * 2004-10-26 2006-04-27 Nokia Corporation Packet loss compensation
SE0402652D0 (sv) 2004-11-02 2004-11-02 Coding Tech Ab Methods for improved performance of prediction based multi- channel reconstruction
SE0402650D0 (sv) * 2004-11-02 2004-11-02 Coding Tech Ab Improved parametric stereo compatible coding of spatial audio
US7933767B2 (en) * 2004-12-27 2011-04-26 Nokia Corporation Systems and methods for determining pitch lag for a current frame of information
US9047860B2 (en) 2005-01-31 2015-06-02 Skype Method for concatenating frames in communication system
JP5452915B2 (ja) * 2005-05-26 2014-03-26 エルジー エレクトロニクス インコーポレイティド オーディオ信号の符号化/復号化方法及び符号化/復号化装置
US20070055510A1 (en) * 2005-07-19 2007-03-08 Johannes Hilpert Concept for bridging the gap between parametric multi-channel audio coding and matrixed-surround multi-channel coding
US9058812B2 (en) * 2005-07-27 2015-06-16 Google Technology Holdings LLC Method and system for coding an information signal using pitch delay contour adjustment
US7712008B2 (en) * 2006-01-26 2010-05-04 Agere Systems Inc. Systems and methods for error reduction associated with information transfer
WO2007091926A1 (en) * 2006-02-06 2007-08-16 Telefonaktiebolaget Lm Ericsson (Publ) Method and arrangement for speech coding in wireless communication systems
US7457746B2 (en) * 2006-03-20 2008-11-25 Mindspeed Technologies, Inc. Pitch prediction for packet loss concealment
JPWO2008007698A1 (ja) 2006-07-12 2009-12-10 パナソニック株式会社 消失フレーム補償方法、音声符号化装置、および音声復号装置
WO2008007700A1 (fr) * 2006-07-12 2008-01-17 Panasonic Corporation Dispositif de décodage de son, dispositif de codage de son, et procédé de compensation de trame perdue
JP4380669B2 (ja) * 2006-08-07 2009-12-09 カシオ計算機株式会社 音声符号化装置、音声復号装置、音声符号化方法、音声復号方法、及び、プログラム
US7752038B2 (en) 2006-10-13 2010-07-06 Nokia Corporation Pitch lag estimation
CA2666546C (en) 2006-10-24 2016-01-19 Voiceage Corporation Method and device for coding transition frames in speech signals
JP5123516B2 (ja) * 2006-10-30 2013-01-23 株式会社エヌ・ティ・ティ・ドコモ 復号装置、符号化装置、復号方法及び符号化方法
KR20090028723A (ko) * 2006-11-24 2009-03-19 엘지전자 주식회사 오브젝트 기반 오디오 신호의 부호화 및 복호화 방법과 그 장치
KR100862662B1 (ko) * 2006-11-28 2008-10-10 삼성전자주식회사 프레임 오류 은닉 방법 및 장치, 이를 이용한 오디오 신호복호화 방법 및 장치
CN101226744B (zh) * 2007-01-19 2011-04-13 华为技术有限公司 语音解码器中实现语音解码的方法及装置
CN101256771A (zh) * 2007-03-02 2008-09-03 北京工业大学 嵌入式编码、解码方法、编码器、解码器及系统
US8644970B2 (en) * 2007-06-08 2014-02-04 Lg Electronics Inc. Method and an apparatus for processing an audio signal
CN101207665B (zh) 2007-11-05 2010-12-08 华为技术有限公司 一种衰减因子的获取方法
CN100550712C (zh) 2007-11-05 2009-10-14 华为技术有限公司 一种信号处理方法和处理装置
KR100998396B1 (ko) * 2008-03-20 2010-12-03 광주과학기술원 프레임 손실 은닉 방법, 프레임 손실 은닉 장치 및 음성송수신 장치
EP2144231A1 (en) * 2008-07-11 2010-01-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Low bitrate audio encoding/decoding scheme with common preprocessing
US8706479B2 (en) * 2008-11-14 2014-04-22 Broadcom Corporation Packet loss concealment for sub-band codecs
JP5309944B2 (ja) * 2008-12-11 2013-10-09 富士通株式会社 オーディオ復号装置、方法、及びプログラム
US8452606B2 (en) * 2009-09-29 2013-05-28 Skype Speech encoding using multiple bit rates
US8423355B2 (en) * 2010-03-05 2013-04-16 Motorola Mobility Llc Encoder for audio signal including generic audio and speech frames
CN101894558A (zh) * 2010-08-04 2010-11-24 华为技术有限公司 丢帧恢复方法、设备以及语音增强方法、设备和系统
JP5612698B2 (ja) 2010-10-05 2014-10-22 日本電信電話株式会社 符号化方法、復号方法、符号化装置、復号装置、プログラム、記録媒体
ES2727748T3 (es) * 2010-11-22 2019-10-18 Ntt Docomo Inc Dispositivo y método de codificación de audio
MX2013009305A (es) * 2011-02-14 2013-10-03 Fraunhofer Ges Forschung Generacion de ruido en codecs de audio.
US9026434B2 (en) 2011-04-11 2015-05-05 Samsung Electronic Co., Ltd. Frame erasure concealment for a multi rate speech and audio codec
KR102110853B1 (ko) * 2012-11-15 2020-05-14 가부시키가이샤 엔.티.티.도코모 음성 부호화 장치, 음성 부호화 방법, 음성 부호화 프로그램, 음성 복호 장치, 음성 복호 방법 및 음성 복호 프로그램
KR102452593B1 (ko) 2015-04-15 2022-10-11 삼성전자주식회사 반도체 장치의 제조 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004138756A (ja) * 2002-10-17 2004-05-13 Matsushita Electric Ind Co Ltd 音声符号化装置、音声復号化装置、音声信号伝送方法及びプログラム
CN101501763A (zh) * 2005-05-31 2009-08-05 微软公司 音频编解码器后置滤波器
CN101000768A (zh) * 2006-06-21 2007-07-18 北京工业大学 嵌入式语音编解码的方法及编解码器

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Steganographic Packet Loss Concealment for Wireless VoIP;Bernd Geiser等;《ITG conference on voice communication》;20081231;1689-1692 *

Also Published As

Publication number Publication date
JP2019070866A (ja) 2019-05-09
RU2690775C1 (ru) 2019-06-05
RU2665301C1 (ru) 2018-08-28
EP2922053B1 (en) 2019-08-28
KR102259112B1 (ko) 2021-05-31
US20170148459A1 (en) 2017-05-25
EP2922053A4 (en) 2016-07-06
US20200126578A1 (en) 2020-04-23
JP6158214B2 (ja) 2017-07-05
US20220059108A1 (en) 2022-02-24
KR20170107590A (ko) 2017-09-25
CA3127953C (en) 2023-09-26
RU2722510C1 (ru) 2020-06-01
KR102110853B1 (ko) 2020-05-14
KR20210118988A (ko) 2021-10-01
KR101780667B1 (ko) 2017-09-21
CA3127953A1 (en) 2014-05-22
HK1209229A1 (zh) 2016-03-24
KR102302012B1 (ko) 2021-09-13
AU2019202186B2 (en) 2020-12-03
WO2014077254A1 (ja) 2014-05-22
IN2015DN02595A (zh) 2015-09-11
AU2023208191A1 (en) 2023-08-17
KR20180115357A (ko) 2018-10-22
AU2017208369A1 (en) 2017-08-17
US11176955B2 (en) 2021-11-16
US11749292B2 (en) 2023-09-05
AU2017208369B2 (en) 2019-01-03
MX362139B (es) 2019-01-07
RU2760485C1 (ru) 2021-11-25
JP6659882B2 (ja) 2020-03-04
JP6626026B2 (ja) 2019-12-25
TWI547940B (zh) 2016-09-01
PL2922053T3 (pl) 2019-11-29
AU2013345949A1 (en) 2015-04-16
KR20150056614A (ko) 2015-05-26
JP6846500B2 (ja) 2021-03-24
AU2022202856B2 (en) 2023-06-08
TWI587284B (zh) 2017-06-11
US11195538B2 (en) 2021-12-07
MX2018016263A (es) 2021-12-16
KR20200123285A (ko) 2020-10-28
KR20170141827A (ko) 2017-12-26
US10553231B2 (en) 2020-02-04
AU2013345949B2 (en) 2017-05-04
JP2020034951A (ja) 2020-03-05
CN104781876B (zh) 2017-07-21
KR102171293B1 (ko) 2020-10-28
JP2016197254A (ja) 2016-11-24
US20180122394A1 (en) 2018-05-03
KR102459376B1 (ko) 2022-10-25
KR20160111550A (ko) 2016-09-26
RU2612581C2 (ru) 2017-03-09
JP7209032B2 (ja) 2023-01-19
KR101812123B1 (ko) 2017-12-26
KR102173422B1 (ko) 2020-11-03
RU2015122777A (ru) 2017-01-10
KR20200051858A (ko) 2020-05-13
BR112015008505A2 (pt) 2020-01-07
RU2640743C1 (ru) 2018-01-11
US11211077B2 (en) 2021-12-28
EP2922053A1 (en) 2015-09-23
CA2886140A1 (en) 2014-05-22
CA3044983C (en) 2022-07-12
BR112015008505B1 (pt) 2021-10-26
US9881627B2 (en) 2018-01-30
AU2020294317B2 (en) 2022-03-31
TW201432670A (zh) 2014-08-16
ES2747353T3 (es) 2020-03-10
KR20200124339A (ko) 2020-11-02
MX345692B (es) 2017-02-10
RU2737465C1 (ru) 2020-11-30
US9564143B2 (en) 2017-02-07
JP6793675B2 (ja) 2020-12-02
JPWO2014077254A1 (ja) 2017-01-05
US20150262588A1 (en) 2015-09-17
CN107256709A (zh) 2017-10-17
DK2922053T3 (da) 2019-09-23
JP2020038396A (ja) 2020-03-12
US20200126576A1 (en) 2020-04-23
KR101689766B1 (ko) 2016-12-26
EP3579228A1 (en) 2019-12-11
KR102307492B1 (ko) 2021-09-29
CA2886140C (en) 2021-03-23
JP2018112749A (ja) 2018-07-19
RU2713605C1 (ru) 2020-02-05
AU2020294317A1 (en) 2021-02-25
TW201635274A (zh) 2016-10-01
PT2922053T (pt) 2019-10-15
KR20190133302A (ko) 2019-12-02
JP2021092814A (ja) 2021-06-17
AU2022202856A1 (en) 2022-05-19
CN104781876A (zh) 2015-07-15
JP6872597B2 (ja) 2021-05-19
AU2019202186A1 (en) 2019-04-18
MX2015005885A (es) 2015-09-23
JP2017138607A (ja) 2017-08-10
CA3044983A1 (en) 2014-05-22
US20200126577A1 (en) 2020-04-23
CA3210225A1 (en) 2014-05-22

Similar Documents

Publication Publication Date Title
CN107256709B (zh) 音频编码装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant