CN103098125A - 音频解码装置、音频解码方法、音频解码程序、音频编码装置、音频编码方法以及音频编码程序 - Google Patents

音频解码装置、音频解码方法、音频解码程序、音频编码装置、音频编码方法以及音频编码程序 Download PDF

Info

Publication number
CN103098125A
CN103098125A CN2011800388172A CN201180038817A CN103098125A CN 103098125 A CN103098125 A CN 103098125A CN 2011800388172 A CN2011800388172 A CN 2011800388172A CN 201180038817 A CN201180038817 A CN 201180038817A CN 103098125 A CN103098125 A CN 103098125A
Authority
CN
China
Prior art keywords
coding
audio
frame
long time
code sequence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2011800388172A
Other languages
English (en)
Other versions
CN103098125B (zh
Inventor
菊入圭
文仲丞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to CN201510151793.1A priority Critical patent/CN104835501B/zh
Publication of CN103098125A publication Critical patent/CN103098125A/zh
Application granted granted Critical
Publication of CN103098125B publication Critical patent/CN103098125B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/22Mode decision, i.e. based on audio signal content versus external parameters

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

在一实施方式的音频解码装置中,多个解码部执行彼此不同的音频解码处理而由码序列生成音频信号。提取部从流中提取长时期编码处理信息。流具有分别包含音频信号的码序列的多个帧。长时期编码处理信息对于多个帧是单一的长时期编码处理信息,表示在该多个帧的码序列的生成中使用了共同的音频编码处理。选择部根据提取出长时期编码处理信息的情况,选择多个解码部中的、在多个帧的码序列的解码中共同使用的解码部。

Description

音频解码装置、音频解码方法、音频解码程序、音频编码装置、音频编码方法以及音频编码程序
技术领域
本发明的各侧面涉及音频解码装置、音频解码方法、音频解码程序、音频编码装置、音频编码方法以及音频编码程序。
背景技术
为了高效地对声音信号和音乐信号双方进行编码,有效的是切换适合声音信号的编码处理和适合音乐信号的编码处理来利用的复合型音频编码方式。
在下述专利文献1中记载有如上所述的复合型音频编码方式。在记载于专利文献1的音频编码方式中,对每个帧附加表示在该帧中的码序列生成中使用的编码处理的信息。
另外,在MPEG USAC(Unified Speech and Audio Coding,联合语音和音频编码)中的音频编码中,使用三个编码处理、即FD(Modified AAC(Advanced Audio Coding,高级音频编码),变更后AAC)、TCX(transform coded excitation,变换码激励)、ACELP(Algebraic Code Excited Linear Prediction,代数码激励线性预测)。在MPEGUSAC中,将TCX和ACELP总括成一组来定义为LPD。在MPEG USAC中,为了表示是使用了FD还是使用了LPD而在各帧上附加1比特的信息。另外,在MPEGUSAC中,在使用LPD时,为了规定组合利用TCX与ACELP的过程而在各帧上附加4比特的信息。
另外,在第3代便携电话系统(3GPP)的AMR-WB+(Extended Adaptive Multi-RateWideband,扩展自适应多速率宽带)中,使用两个编码处理、即TCX和ACELP。在AMR-WB+中,为了规定TCX或ACELP的使用而在各帧上附加2比特的信息。
现有技术文献
专利文献
专利文献1:日本特开2000-267699号公报
发明内容
发明所要解决的问题
关于音频信号,存在以基于人的发声的信号即声音信号为中心的信号,也存在以音乐信号为中心的信号。当对这种音频信号进行编码时,能够对多个帧利用共同的编码处理。对于这样的音频信号,要求能够更高效地从编码侧向解码侧传输信息的方法。
本发明的各侧面的目的在于,提供能够生成尺寸小的流的音频编码装置、音频编码方法以及音频编码程序,以及能够使用尺寸小的流的音频解码装置、音频解码方法以及音频解码程序。
用于解决问题的手段
本发明的一侧面涉及音频编码,能够包含以下的音频编码装置、音频编码方法以及音频编码程序。
本发明的一侧面的音频编码装置具有多个编码部、选择部、生成部、以及输出部。多个编码部执行彼此不同的音频编码处理而由音频信号生成码序列。选择部选择多个编码部中的、在多个帧的音频信号的编码中共同使用的编码部,或者,选择在分别包含多个帧的多个超级帧的音频信号的编码中共同使用的一组编码部。生成部生成长时期编码处理信息。长时期编码处理信息对于多个帧是单一的信息,是表示在该多个帧的码序列的生成中使用了共同的音频编码处理的信息。或者,长时期编码处理信息对于多个超级帧是单一的信息,是表示在该多个超级帧的码序列的生成中使用了共同的一组音频编码处理的信息。输出部输出包含由通过选择部而选择的编码部来生成的上述多个帧的码序列、或者由通过选择部而选择的一组编码部来生成的上述多个超级帧的码序列、以及长时期编码处理信息的流。
本发明的一侧面的音频编码方法,包括:(a)选择彼此不同的多个音频编码处理中的、在多个帧的音频信号的编码中共同使用的音频编码处理,或者,选择该多个音频编码处理中的、在分别包含多个帧的多个超级帧的音频信号的编码中共同使用的一组音频编码处理的步骤;(b)使用所选择的音频编码处理对上述多个帧的音频信号进行编码而生成该多个帧的码序列,或者,使用所选择的一组音频编码处理对上述多个超级帧的音频信号进行编码而生成该多个超级帧的码序列的步骤;(c)生成长时期编码处理信息的步骤,该长时期编码处理信息对于所述多个帧是单一的长时期编码处理信息、且表示在该多个帧的码序列的生成中使用了共同的音频编码处理或者,该长时期编码处理信息对于所述多个超级帧是单一的长时期编码处理信息、且表示在该多个超级帧的码序列的生成中使用了共同的一组音频编码处理;(d)输出包含上述多个帧的码序列、或者上述多个超级帧的码序列、以及上述长时期编码处理信息的流的步骤。
本发明的一侧面的音频编码程序使计算机作为多个编码部、选择部、生成部以及输出部来发挥功能。
根据本发明的一侧面的音频编码装置、音频编码方法以及音频编码程序,通过长时期编码处理信息,在编码侧,能够通知在多个帧的码序列的生成中使用了共同的音频编码处理,或者,在多个超级帧的码序列的生成中使用了共同的一组音频编码处理的情况。通过该长时期编码处理信息的通知,在解码侧,能够选择共同的音频解码处理,或者,选择共同的一组音频解码处理。因此,能够减少用于确定在流内包含的音频编码处理的信息的量。
在一实施方式中,在流中,也可以至少在多个帧中的开头的帧之后的帧中不包含用于确定在该之后的帧的码序列的生成中使用的音频编码处理的信息。
在一实施方式中,也可以对上述多个帧,选择多个编码部(或者多个音频编码处理)中的预定的编码部(或者预定的音频编码处理),也可以在流中不包含用于确定在上述多个帧的码序列的生成中使用的音频编码处理的信息。根据该方式,能够进一步减少流的信息量。另外,在一实施方式中,长时期编码处理信息也可以是1比特的信息。根据该方式,能够进一步减少流的信息量。
本发明的另一侧面是涉及音频解码,能够包含音频解码装置、音频解码方法以及音频解码程序。
本发明的另一侧面的音频解码装置具有多个解码部、提取部以及选择部。多个解码部执行彼此不同的音频解码处理而由码序列生成音频信号。提取部从流提取长时期编码处理信息。流具有分别包含音频信号的码序列的多个帧及/或分别包含多个帧的多个超级帧。长时期编码处理信息对于多个帧是单一的长时期编码处理信息、且表示在该多个帧的码序列的生成中使用了共同的音频编码处理。或者,长时期编码处理信息对于多个超级帧是单一的长时期编码处理信息、且表示在该多个超级帧的码序列的生成中使用了共同的一组音频编码处理。选择部根据提取出长时期编码处理信息的情况,选择多个解码部中的、在多个帧的码序列的解码中共同使用的解码部。或者,选择部选择多个解码部中的、在多个超级帧的码序列的解码中共同使用的一组解码部。
本发明的另一侧面的音频解码方法,包括:(a)从具有分别包含音频信号的码序列的多个帧及/或分别包含多个帧的多个超级帧的流,提取长时期编码处理信息的步骤,该长时期编码处理信息对于该多个帧是单一的长时期编码处理信息、且表示在该多个帧的码序列的生成中使用了共同的音频编码处理,或者,该长时期编码处理信息对于该多个超级帧是单一的长时期编码处理信息、且表示在该多个超级帧的码序列的生成中使用了共同的一组音频编码处理;(b)根据提取出长时期编码处理信息的情况,选择彼此不同的多个音频解码处理中的、在上述多个帧的码序列的解码中共同使用的音频解码处理,或者,选择该多个音频解码处理中的、在上述多个超级帧的码序列的解码中共同使用的一组音频解码处理的步骤;(c)使用所选择的音频解码处理来对上述多个帧的码序列进行解码,或者,使用所选择的上述一组音频解码处理来对上述多个超级帧的码序列进行解码的步骤。
本发明的另一侧面的音频解码程序,使计算机作为多个解码部、提取部以及选择部来发挥功能。
根据本发明的另一侧面的音频解码装置、音频解码方法以及音频解码程序,能够由根据与上述的编码有关的本发明的一侧面所生成的流来生成音频信号。
在一实施方式中,在流中,也可以至少在多个帧中的开头的帧之后的帧中不包含用于确定在该之后的帧的码序列的生成中使用的音频编码处理的信息。
在一实施方式中,对于上述多个帧,可以选择多个解码部(或者多个音频解码处理)中的预定的解码部(或者预定的音频解码处理),也可以在流中不包含用于确定在上述多个帧的码序列的生成中使用的音频编码处理的信息。根据该方式,能够进一步减少流中的信息的量。另外,在一实施方式中,长时期编码处理信息也可以是1比特的信息。根据该方式,能够进一步减少流中的信息的量。
发明效果
如以上说明,根据本发明的各侧面,提供能够生成尺寸小的流的音频编码装置、音频编码方法以及音频编码程序,以及能够使用尺寸小的流的音频解码装置、音频解码方法以及音频解码程序。
附图说明
图1是示出一实施方式的音频编码装置的图。
图2是示出通过一实施方式的音频编码装置而生成的流的图。
图3是示出一实施方式的音频编码方法的流程图。
图4是示出一实施方式的音频编码程序的图。
图5是示出一实施方式的计算机的硬件结构的图。
图6是示出一实施方式的计算机的立体图。
图7是示出变形方式的音频编码装置的图。
图8是示出一实施方式的音频解码装置的图。
图9是示出一实施方式的音频解码方法的流程图。
图10是示出一实施方式的音频解码程序的图。
图11是示出另一实施方式的音频编码装置的图。
图12是示出通过以往的MPEG USAC来生成的流和通过图11所示的音频编码装置来生成的流的图。
图13是另一实施方式的音频编码方法的流程图。
图14是示出另一实施方式的音频编码程序的图。
图15是示出另一实施方式的音频解码装置的图。
图16是另一实施方式的音频解码方法的流程图。
图17是示出mod[k]与a(mod[k])的关系的图。
图18是示出另一实施方式的音频解码程序的图。
图19是示出又一实施方式的音频编码装置的图。
图20是示出通过以往的AMR WB+来生成的流和通过图19所示的音频编码装置来生成的流的图。
图21是又一实施方式的音频编码方法的流程图。
图22是示出又一实施方式的音频编码程序的图。
图23是示出又一实施方式的音频解码装置的图。
图24是又一实施方式的音频解码方法的流程图。
图25是示出又一实施方式的音频解码程序的图。
图26是示出又一实施方式的音频编码装置的图。
图27是示出通过图26所示的音频编码装置来生成的流的图。
图28是又一实施方式的音频编码方法的流程图。
图29是示出又一实施方式的音频编码程序的图。
图30是示出又一实施方式的音频解码装置的图。
图31是又一实施方式的音频解码方法的流程图。
图32是示出又一实施方式的音频解码程序的图。
图33是示出又一实施方式的音频编码装置的图。
图34是示出通过以往的MPEG USAC来生成的流和通过图33所示的音频编码装置来生成的流的图。
图35是又一实施方式的音频编码方法的流程图。
图36是示出又一实施方式的音频编码程序的图。
图37是示出又一实施方式的音频解码装置的图。
图38是又一实施方式的音频解码方法的流程图。
图39是示出又一实施方式的音频解码程序的图。
图40是示出又一实施方式的音频编码装置的图。
图41是示出通过图40所示的音频编码装置来生成的流的图。
图42是又一实施方式的音频编码方法的流程图。
图43是示出又一实施方式的音频编码程序的图。
图44是示出又一实施方式的音频解码装置的图。
图45是又一实施方式的音频解码方法的流程图。
图46是示出又一实施方式的音频解码程序的图。
图47是示出又一实施方式的音频编码装置的图。
图48是示出通过以往的AMR WB+来生成的流和通过图47所示的音频编码装置来生成的流的图。
图49是又一实施方式的音频编码方法的流程图。
图50是示出又一实施方式的音频编码程序的图。
图51是示出又一实施方式的音频解码装置的图。
图52是又一实施方式的音频解码方法的流程图。
图53是示出又一实施方式的音频解码程序的图。
具体实施方式
以下,参照附图对各实施方式进行详细说明。另外,在各附图中对相同或相当的部分附上相同的标号。
图1是示出一实施方式的音频编码装置的图。图1所示的音频编码装置10能够使用共同的音频编码处理对输入到输入端子In1的多个帧的音频信号进行编码。如图1所示,音频编码装置10具有多个编码部10a1~10an、选择部10b、生成部10c以及输出部10d。此处,n为2以上的整数。
编码部10a1~10an执行彼此不同的音频编码处理而由音频信号生成码序列。对于这些音频编码处理能够采用任意的音频编码处理。例如,作为音频编码处理,能够使用称为变更后AAC(Modified AAC)编码处理、ACELP编码处理以及TCX编码处理的处理。
选择部10b根据输入到输入端子In2的输入信息,选择编码部10a1~10an中的一个编码部。输入信息是例如由用户输入的信息。在一实施方式中,该输入信息可以是确定在多个帧的音频信号中共同使用的音频编码处理的信息。选择部10b对开关SW进行控制,从而能够将编码部10a1~10an中的执行由输入信息确定的音频编码处理的编码部与输入端子In1结合起来。
生成部10c根据输入信息生成长时期编码处理信息。长时期编码处理信息是表示在多个帧的码序列的生成中使用共同的音频编码处理的信息。另外,长时期编码处理信息也可以是能够在解码侧识别的唯一字。另外,在一实施方式中,也可以是能够在解码侧确定在多个帧的码序列的生成中共同使用的音频编码处理的信息。
输出部10d输出包含通过所选择的编码部而生成的多个帧的码序列、以及通过生成部10c而生成的长时期编码处理信息的流。
图2是示出通过一实施方式的音频编码装置而生成的流的图。图2所示的流包含第1~第m多个帧。此处,m为2以上的整数。以下,有时将流中的帧称为输出帧。在各输出帧中包含根据输入音频信号中与该输出帧对应的帧的音频信号生成的码序列。另外,在流的第1帧中,作为参数信息,能够附加长时期编码处理信息。
以下,对音频编码装置10的动作、和一实施方式的音频编码方法进行说明。图3是示出一实施方式的音频编码方法的流程图。如图3所示,在一实施方式中,在步骤S10-1中,选择部10b根据输入信息来选择编码部10a1~10an中的一个编码部。
接着,在步骤S10-2中,生成部10c根据输入信息生成长时期编码处理信息。在接下来的步骤S10-3中,输出部10d在第1帧上附加长时期编码处理信息作为参数信息。
接着,在步骤S10-4中,由选择部10b选择的编码部对当前的编码对象的帧的音频信号进行编码,生成码序列。在接下来的步骤S10-5中,输出部10d使与编码对象的帧对应的流内的输出帧中包含通过编码部而生成的码序列,输出该输出帧。
在接下来的步骤S10-5中,进行是否存在还没有进行编码的帧的判定。在不存在没有进行过编码的帧时,结束处理。另一方面,在还存在应编码的帧时,以没有进行编码过的帧为对象继续进行从步骤S10-4开始的一系列的处理。
根据以上说明的音频编码装置10和一实施方式的音频编码方法,仅在流的第1帧中包含长时期编码处理信息。即,从流中的第2帧起的之后的帧中,不包含用于确定所使用的音频编码处理的信息。因此,能够生成尺寸小的高效的流。
以下,对使计算机作为音频编码装置10来动作的程序进行说明。图4是示出一实施方式的音频编码程序的图。图5是示出一实施方式的计算机的硬件结构的图。图6是示出一实施方式的计算机的立体图。图4所示的音频编码程序P10能够使图5所示的计算机C10作为音频编码装置10来动作。另外,在本说明书中说明的程序不限于如图5所示的计算机,能够使称为便携电话、便携信息终端的任意的装置根据该程序来动作。
音频编码程序P10能够存储在记录介质SM中来提供。另外,作为记录介质SM,例示了软盘、CD-ROM、DVD或ROM等记录介质,或者半导体存储器等。
如图5所示,计算机C10具有:软盘驱动装置、CD-ROM驱动装置、DVD驱动装置等读取装置C12;使操作系统常驻的作业用存储器(RAM)C14;对存储在记录介质SM中的程序进行存储的存储器C16;称为显示器的显示装置C18;作为输入装置的鼠标C20和键盘C22;用于进行数据等的收发的通信装置C24;以及控制程序的执行的CPU C26。
当将记录介质SM插入到读取装置C12中时,计算机C10能够从读取装置C12访问存储在记录介质SM中的音频编码程序P10,能够通过该程序P10而作为音频编码装置10来动作。
如图6所示,音频编码程序P10也可以作为重叠在载波上的计算机数据信号CW而通过网络来提供。此时,计算机C10将通过通信装置C24而接收到的音频编码程序P10存储在存储器C16中,能够执行程序P10。
如图4所示,音频编码程序P10具有:多个编码模块M10a1~M10an、选择模块M10b、生成模块M10c以及输出模块M10d。
在一实施方式中,编码模块部M10a1~M10an、选择模块M10b、生成模块M10c、输出模块M10d使计算机C10执行分别与编码部10a1~10an、选择部10b、生成部10c、输出部10d相同的功能。根据该音频编码程序P10,计算机C10能够作为音频编码装置10来动作。
此处,对音频编码装置10的变形方式进行说明。图7是示出变形方式的音频编码装置的图。在音频编码装置10中,虽然根据输入信息来选择编码部(编码处理),但是在图7所示的音频编码装置10A中,根据音频信号的分析结果来选择编码部。因此,音频编码装置10A具有分析部10e。
分析部10e对多个帧的音频信号进行分析,决定适合于该多个帧的音频信号的编码的音频编码处理。分析部10e将用于确定已决定的音频编码处理的信息提供给选择部10b,使选择部10b选择执行该音频编码处理的编码部。另外,分析部10e将用于确定已决定的音频编码处理的信息提供给生成部10c,使生成部10c生成长时期编码处理信息。
分析部10e例如能够对音频信号的音调性、音调周期、时间包络、过渡性成分(突然的信号上升/下降)进行分析。例如,在音频信号的音调性比预定音调性强时,分析部10e能够确定使用进行频域编码的音频编码处理。另外,例如在音频信号的音调周期位于预定范围内时,分析部10e能够确定使用适合于该音频信号的编码的音频编码处理。而且,例如在音频信号的时间包络的变动比预定变动大时,或者,在音频信号包含过渡成分时,分析部10e能够确定使用进行时域编码的音频编码处理。
以下,对能够解码由音频编码装置10来生成的流的音频解码装置进行说明。图8是示出一实施方式的音频解码装置的图。图8所示的音频解码装置12具有多个解码部12a1~12an、提取部12b以及选择部12c。解码部12a1~12an执行彼此不同的音频解码处理而由码序列生成音频信号。解码部12a1~12an的处理是与编码部10a1~10an的处理分别对称的处理。
提取部12b从输入到输入端子In的流中提取长时期编码处理信息(参照图3)。提取部12b将所提取的长时期编码处理信息提供给选择部12c,能够向开关SW输出除去了长时期编码处理信息后的流的剩余部分。
选择部12c根据长时期编码处理信息来控制开关SW。选择部12c在解码部12a1~12an中选择执行根据长时期编码处理信息所确定的编码处理的解码部。另外,选择部12c控制开关SW以使包含在流中的多个帧结合到所选择的解码部中。
以下,对音频解码装置12的动作和一实施方式的音频解码方法进行说明。图9是示出一实施方式的音频解码方法的流程图。如图9所示,在一实施方式中,在步骤S12-1中,提取部12b从流中提取长时期编码处理信息。在接下来的步骤S12-2中,选择部12c根据所提取的长时期编码处理信息从解码部12a1~12an选择一个解码部。
在接下来的步骤S12-3中,所选择的解码部对解码对象的帧的码序列进行解码。接着,在步骤S12-4中判定是否存在还没有解码的帧。在不存在没有进行过解码的帧时,结束处理。另一方面,在存在还没有解码的帧时,将该帧作为对象,使用在步骤S12-2中选择的解码部,继续进行从步骤S12-3开始的处理。
以下,对使计算机能够作为音频解码装置12来动作的音频解码程序进行说明。图10是示出一实施方式的音频解码程序的图。
图10所示的音频解码程序P12能够在图5和图6所示的计算机中使用。另外,音频解码程序P12能够与音频编码程序P10同样地提供。
如图10所示,音频解码程序P12具有解码模块M12a1~M12an、提取模块M12b以及选择模块M12c。解码模块M12a1~M12an、提取模块M12b、选择模块M12c使计算机C10执行与解码部12a1~12an、提取部12b、选择部12c分别相同的功能。
以下,对另一实施方式的音频编码装置进行说明。图11是示出另一实施方式的音频编码装置的图。图11所示的音频编码装置14是能够在MPEG USAC的扩展中使用的装置。
图12是示出通过以往的MPEG USAC来生成的流和通过图11所示的音频编码装置来生成的流的图。如图12所示,在以往的MPEG USAC中,在流中的各帧中附加有表示使用FD(变更后AAC)还是使用LPD(ACELP或TCX)的信息、即1比特的core_mode。另外,在以往的MPEG USAC中,使用LPD的帧具有包含四个帧的超级帧结构。在使用LPD时,作为表示在超级帧的各帧的编码中使用了ACELP或TCX的哪个的信息,在该超级帧中附加有4比特的lpd_mode。
图11所示的音频编码装置14能够通过共同的音频编码处理对所有帧的音频信号进行编码。另外,音频编码装置14与以往的MPEG_USAC同样,还能够切换在各帧中使用的音频编码处理。另外,在一实施方式中,音频编码装置也可以在所有的超级帧中共同地使用LPD、即一组音频编码处理。
如图11所示,音频编码装置14具有:ACELP编码部14a1、TCX编码部14a2、变更后AAC编码部14a3、选择部14b、生成部14c、输出部14d、头生成部14e、第1判定部14f、core_mode生成部14g、第2判定部14h、lpd_mode生成部14i、MPS编码部14m以及SBR编码部14n。
MPS编码部14m接收输入到输入端子In1的音频信号。输入到MPS编码部14m的音频信号可以是2通道以上的多通道的音频信号。MPS编码部14m对于各帧的多通道的音频信号,利用比该多通道的通道数量少的通道数量的音频信号、和用于根据该更少的通道数量的音频信号来解码多通道的音频信号的参数来表现。
在多通道的音频信号为立体声信号时,MPS编码部14m通过对该立体声信号进行缩混(downmix)来生成单声道的音频信号。另外,MPS编码部14m生成单声道信号与立体声信号的各通道之间的电平差、相位差及/或相关值,作为用于从单声道信号解码立体声信号的参数。MPS编码部14m向SBR编码部14n输出所生成的单声道信号,将通过对所生成的参数进行编码而得到的编码数据输出到输出部14d。另外,立体声信号也可以通过单声道信号与残差信号以及参数来表现。
SBR编码部14n从MPS编码部14m接收各帧的音频信号。SBR编码部14n接收的音频信号例如可以是上述的单声道信号。在输入到输入端子In1的音频信号为单声道信号时,SBR编码部14n接收该音频信号。SBR编码部14n将预定频率作为基准,根据所输入的音频信号生成低频带的音频信号和高频带的音频信号。另外,SBR编码部14n算出用于根据低频带的音频信号生成高频带的音频信号的参数。作为该参数,例如能够利用表示预定频率的频率信息、时间·频率分辨率信息、频谱包络信息、附加噪声信息以及称为附加正弦波信息的信息。SBR编码部14n向开关SW1输出低频带的音频信号。另外,SBR编码部14n向输出部14d输出通过对所算出的参数进行编码而得到的编码数据。
编码部14a1通过ACELP编码处理对音频信号进行编码而生成码序列。编码部14a2通过TCX编码处理对音频信号进行编码而生成码序列。编码部14a3通过变更后AAC编码处理对音频信号进行编码而生成码序列。
选择部14b根据输入到输入端子In2的输入信息,选择对输入到开关SW1的多个帧的音频信号进行编码的编码部。在本实施方式中,输入信息可以是能够通过用户输入的信息。另外,输入信息可以是表示是否通过共同的一个编码处理对多个帧进行编码的信息。
在本实施方式中,在输入信息表示通过共同的一个音频编码处理对多个帧进行编码时,选择部14b选择执行预定编码处理的预定编码部。例如,如说明的那样,在输入信息表示通过共同的一个音频编码处理对多个帧进行编码时,选择部14b对开关SW1进行控制,而能够将ACELP编码部14a1选择为预定编码部。因此,在本实施方式中,在输入信息表示通过共同的一个音频编码处理对多个帧进行编码时,通过ACELP编码部14a1对多个帧的音频信号进行编码。
另一方面,在输入信息表示不通过共同的一个音频编码处理对多个帧进行编码时,选择部14b将输入到开关SW1的各帧的音频信号与连接到第1判定部14f等的路径结合。
生成部14c根据输入信息生成长时期编码处理信息。如图12所示,作为长时期编码处理信息,能够使用1比特的GEM_ID。另外,在输入信息表示通过共同的一个音频编码处理对多个帧进行编码时,生成部14c能够将GEM_ID的值设定为“1”。另一方面,在输入信息表示不通过共同的一个音频编码处理对多个帧进行编码时,生成部14c能够将GEM_ID的值设定为“0”。
头生成部14e生成在流中包含的头,将所设定的GEM_ID包含在该头中。如图12所示,该头在从输出部14d输出时,能够包含在第1帧中。
在输入信息表示不通过共同的一个音频编码处理对多个帧进行编码时,第1判定部14f通过SW1接收编码对象的帧的音频信号。第1判定部14f对编码对象的帧的音频信号进行分析,判定是否应通过变更后AAC编码部14a3对该音频信号进行编码。
在判定为应通过变更后AAC编码部14a3对编码对象的帧的音频信号进行编码时,第1判定部14f控制开关SW2,将该帧与变更后AAC编码部14a3结合。
另一方面,在判定为不应通过变更后AAC编码部14a3对编码对象的帧的音频信号进行编码时,第1判定部14f控制开关SW2,将该帧与第2判定部14h和开关SW3结合。此时,在后续的处理中,编码对象的帧被分割为四个帧,作为包含该四个帧的超级帧来处理。
另外,第1判定部14f例如对编码对象的帧的音频信号进行分析,在该音频信号具有预定量以上的音调成分时,能够将变更后AAC编码部14a3选择为该帧的声音信号用的编码部。
core_mode生成部14g根据第1判定部14f的判定结果,生成core_mode。如图12所示,core_mode是1比特的信息。在第1判定部14f判定为应通过变更后AAC编码部14a3对编码对象的帧的音频信号进行编码时,core_mode生成部14g将core_mode的值设定为“0”。另一方面,在第1判定部14f判定为不应通过变更后AAC编码部14a3对判定对象的帧的音频信号进行编码时,core_mode生成部14g将core_mode的值设定为“1”。在该core_mode从输出部14d输出时,将其作为参数信息附加在与编码对象的帧对应的流内的输出帧中。
第2判定部14h通过开关SW2接收编码对象的超级帧的音频信号。第2判定部14h判定应通过ACELP编码部14a1还是应通过TCX编码部14a2对编码对象的超级帧中的各帧的音频信号进行编码。
在判定为应通过ACELP编码部14a1对编码对象的帧的音频信号进行编码时,第2判定部14h控制开关SW3而将该帧的音频信号与ACELP编码部14a1结合。另一方面,在判定为应通过TCX编码部14a2对编码对象的帧的音频信号进行编码时,第2判定部14h控制开关SW3而将该帧的音频信号与TCX编码部14a2结合。
例如在编码对象的帧的音频信号为具有很强声音成分的信号时、该音频信号的时间包络在短时间内变动得比预定变动大时、或者该音频信号包含过渡性成分时,第2判定部14h能够判定为应通过ACELP编码部14a1对该音频信号进行编码。在除此以外的情况下,第2判定部14h能够判定为应通过TCX编码部14a2对该音频信号进行编码。另外,音频信号为具有很强的声音成分的信号的情况可以是该音频信号的音调周期位于预定范围内的情况、音调周期时的自相关性比预定自相关性强的情况、或者过零率(zero cross rate)比预定比率小的情况。
lpd_mode生成部14i根据第2判定部14h的判定结果生成lpd_mode。如图12所示,lpd_mode是4比特的信息。lpd_mode生成部14i对与针对来自第2判定部14h的超级帧中的各帧的音频信号的判定结果对应的预定值设定lpd_mode的值。在从输出部14d输出通过lpd_mode生成部14i设定了值的lpd_mode时,将其附加到与编码对象的超级帧对应的流内的输出超级帧中。
输出部14d输出流。在流中包含:包含上述的GEM_ID的头和具有对应的码序列的第1帧;以及分别具有对应的码序列的第2~第m帧(m为2以上的整数)。另外,输出部14d在各输出帧中包含通过MPS编码部14m而生成的参数的编码数据和通过SBR编码部14n而生成的参数的编码数据。
以下,对音频编码装置14的动作以及另一实施方式的音频编码方法进行说明。图13是另一实施方式的音频编码方法的流程图。
如图13所示,在一实施方式中,在步骤S14-1中,生成部14c根据输入信息如上所述生成(设定)GEM_ID。在接下来的步骤S14-2中,头生成部14e生成包含所设定的GEM_ID的头。
接着,在通过步骤S14-p所示的判定,判断为输入到输入端子In1的音频信号为多通道信号时,在步骤S14-m中,如上所述,MPS编码部14m根据所输入的编码对象的帧的多通道的音频信号,生成比多通道的通道数量少的通道数量的音频信号、和用于根据该更少的通道数量的音频信号来解码多通道的音频信号的参数。另外,MPS编码部14m生成该参数的编码数据。该编码数据通过输出部14d而包含在对应的输出帧中。另一方面,在输入到输入端子In1的音频信号为单声道信号时,MPS编码部14m不动作,将输入到输入端子In1的音频信号输入到SBR编码部14n。
接着,在步骤S14-n中,SBR编码部14n如上所述根据所输入的音频信号,生成低频带的音频信号和用于由低频带的音频信号生成高频带的音频信号的参数。另外,SBR编码部14n生成该参数的编码数据。该编码数据通过输出部14d而包含在对应的输出帧中。
接着,在步骤S14-3中,选择部14b根据输入信息,判定是否通过共同的音频编码处理对多个帧的音频信号、即从SBR编码部14n输出的多个帧的低频带的音频信号进行编码。
在步骤S14-3中,在输入信息表示通过共同的音频编码处理对多个帧的音频信号进行编码时,即在GEM_ID的值为“1”时,选择部14b选择ACELP编码部14a1
接着,在步骤S14-4中,通过选择部14b选择的ACELP编码部14a1对编码对象的帧的音频信号进行编码而生成码序列。
接着,在步骤S14-5中,输出部14d判断是否在帧中附加头。在步骤S14-5中,在编码对象的帧为第1帧时,输出部14d判定为在与该编码对象的帧对应的流内的第1帧中附加头,在接下来的步骤S14-6中,在第1帧中包含头和码序列来输出该第1帧。另一方面,在第2帧开始的以后的帧的情况下,不附加头,而在步骤S14-7中,输出部14d使帧中包含码序列来输出。
接着,在步骤S14-8中,判断是否存在没有进行过编码的帧。在不存在没有进行过编码的帧时,结束处理。另一方面,在存在没有进行过编码的帧时,将没有进行过编码的帧作为对象继续进行从步骤S14-p开始的处理。
如上所述,在本实施方式中,在GEM_ID的值为“1”时,在多个帧的音频信号的所有编码中继续使用ACELP编码部14a1
在步骤S14-3中,在判断为GEM_ID的值为“0”时、即输入信息表示应通过单独的编码处理方法来对各帧进行处理时,在步骤S14-9中,第1判定部14f判定是否应通过变更后AAC编码部14a3对编码对象的帧的音频信号、即从SBR编码部14n输出的编码对象的帧的低频带的音频信号进行编码。在接下来的步骤S14-10中,core_mode生成部14g对与第1判定部14f的判定结果对应的值设定core_mode的值。
接着,在步骤S14-11中,判定第1判定部14f的判定结果是否表示应通过变更后AAC编码部14a3来对编码对象的帧的音频信号进行编码。在第1判定部14f的判定结果表示应通过变更后AAC编码部14a3来对编码对象的帧的音频信号进行编码时,在接下来的步骤S14-12中,通过变更后AAC编码部14a3对编码对象的帧的音频信号进行编码。
接着,在步骤S14-13中,输出部14d在与编码对象的帧对应的流内的输出帧(或者超级帧)上附加core_mode。并且,处理前进到步骤S14-5。
在步骤S14-11中,在第1判定部14f的判定结果表示不应通过变更后AAC编码部14a3来对编码对象的帧的音频信号进行编码时,在从步骤S14-14开始的处理中,将编码对象的帧作为超级帧来处理。
在步骤S14-14中,第2判定部14h判定是应通过ACELP编码部14a1还是应通过TCX编码部14a2对超级帧中的各帧进行编码。在接下来的步骤S14-15中,lpd_mode生成部14i对与第2判定部14h的判定结果对应的值设定lpd_mode。
接着,在步骤S14-16中,判定第2判定部14h的判定结果是表示应通过ACELP编码部14a1对超级帧内的编码对象的帧进行编码,还是表示应通过TCX编码部14a2对该编码对象的帧进行编码。
在第2判定部14h的判定结果表示应通过ACELP编码部14a1对编码对象的帧进行编码时,在步骤S14-17中,通过ACELP编码部14a1对编码对象的帧的音频信号进行编码。另一方面,在第2判定部14h的判定结果表示应通过TCX编码部14a2对编码对象的帧进行编码时,在步骤S14-18中,通过TCX编码部14a2对编码编码对象的帧的音频信号进行编码。
接着,在步骤S14-19中,在与编码对象的超级帧对应的流内的输出超级帧中附加lpd_mode。并且,处理进入到步骤S14-13。
根据以上说明的音频编码装置14和音频编码方法,通过在头中包含设定为“1”的GEM_ID,从而能够向解码侧通知下述情况:不包含用于确定在各帧中使用的音频编码处理的信息,仅通过ACELP编码部对多个帧的音频信号进行了编码。因此,生成了尺寸更小的流。
以下,对使计算机作为音频编码装置14来动作的音频编码程序进行说明。图14是示出另一实施方式的音频编码程序的图。
图14所示的音频编码程序P14能够在图5和图6所示的计算机中使用。另外,能够与音频编码程序P10同样地提供音频编码程序P14。
如图14所示,音频编码程序P14具有ACELP编码模块M14a1、TCX编码模块M14a2、变更后AAC编码模块M14a3、选择模块M14b、生成模块M14c、输出模块M14d、头生成模块M14e、第1判定模块M14f、core_mode生成模块M14g、第2判定模块M14h、lpd_mode生成模块M14i、MPS编码模块M14m以及SBR编码模块14n。
ACELP编码模块M14a1、TCX编码模块M14a2、变更后AAC编码模块M14a3、选择模块M14b、生成模块M14c、输出模块M14d、头生成模块M14e、第1判定模块M14f、core_mode生成模块M14g、第2判定模块M14h、lpd_mode生成模块M14i、MPS编码模块M14m以及SBR编码模块14n使计算机C10执行与ACELP编码部14a1、TCX编码部14a2、变更后AAC编码部14a3、选择部14b、生成部14c、输出部14d、头生成部14e、第1判定部14f、core_mode生成部14g、第2判定部14h、lpd_mode生成部14i、MPS编码部14m、SBR编码部14n分别相同的功能。
以下,对能够解码通过音频编码装置14生成的流的音频解码装置进行说明。图15是示出另一实施方式的音频解码装置的图。图15所示的音频解码装置16具有:ACELP解码部16a1、TCX解码部16a2、变更后AAC解码部16a3、提取部16b、选择部16c、头分析部16d、core_mode提取部16e、第1选择部16f、lpd_mode提取部16g、第2选择部16h、MPS解码部16m以及SBR解码部16n。
ACELP解码部16a1通过ACELP解码处理对帧内的码序列进行解码,生成音频信号。TCX解码部16a2通过TCX解码处理对帧内的码序列进行解码,生成音频信号。变更后AAC解码部16a3通过变更后AAC解码处理对帧内的码序列进行解码,生成音频信号。在一实施方式中,从这些解码部输出的音频信号对于音频编码装置14而言是上述的低频带的音频信号。
头分析部16d能够从第1帧分离出头。头分析部16d将所分离的头提供给提取部16b,向开关SW1、MPS解码部16m以及SBR解码部16n输出分离了头的第1帧和后续的帧。
提取部16b从头中提取GEM_ID。选择部16c根据所提取的GEM_ID,选择在多个帧的码序列的解码中使用的解码部。具体地讲,在GEM_ID的值为“1”时,选择部16c控制开关SW1,将多个帧全部与ACELP解码部16a1结合。另一方面,在GEM_ID的值为“0”时,选择部16c控制开关SW1,将解码对象的帧(或超级帧)与core_mode提取部16e结合。
core_mode提取部16e提取解码对象的帧(或超级帧)内的core_mode,将该core_mode提供给第1选择部16f。第1选择部16f根据所提供的core_mode的值,控制开关SW2。具体地讲,在core_mode的值为“0”时,第1选择部16f控制开关SW2,将解码对象的帧与变更后AAC解码部16a3结合。由此,将解码对象的帧输入到变更后AAC解码部16a3。另一方面,在core_mode的值为“1”时,第1选择部16f控制开关SW2,将解码对象的超级帧与lpd_mode提取部16g结合。
lpd_mode提取部16g从解码对象的帧、即超级帧中提取lpd_mode。lpd_mode提取部16g将所提取的lpd_mode与第2选择部16h结合。第2选择部16h根据所输入的lpd_mode,将从lpd_mode提取部16g输出的解码对象的超级帧内的各帧与ACELP解码部16a1或TCX解码部16a2结合。
具体地讲,第2选择部16h参照与lpd_mode的值关联的预定的表,设定mod[k](k=0,1,2,3)的值。并且,第2选择部16h根据mod[k]的值,控制开关SW3,将解码对象的超级帧内的各帧与ACELP解码部16a1或TCX解码部16a2结合。另外,关于mod[k]的值与ACELP解码部16a1或TCX解码部16a2的选择关系,将在后面叙述。
SBR解码部16n从解码部16a1、16a2以及16a3接收低频带的音频信号。SBR解码部16n还通过对包含在解码对象的帧中的编码数据进行解码,从而复原参数。SBR解码部16n使用低频带的音频信号和所复原的参数生成高频带的音频信号。另外,SBR解码部16n通过将高频带的音频信号和低频带的音频信号合成,从而生成音频信号。
MPS解码部16m从SBR解码部16n接收音频信号。在应复原的音频信号为立体声信号时,该音频信号可以是单声道的音频信号。MPS解码部16m还通过对包含在解码对象的帧中的编码数据进行解码,从而复原参数。另外,MPS解码部16m使用从SBR解码部16n接收的音频信号和所复原的参数,生成多通道的音频信号,输出该多通道的音频信号。在应复原的音频信号为单声道信号时,MPS解码部16m不动作,输出上述SBR解码部16n生成的音频信号。
以下,对音频解码装置16的动作和其他的实施方式的音频解码方法进行说明。图16是另一实施方式的音频解码方法的流程图。
如图16所示,在一实施方式中,在步骤S16-1中,头分析部16d从流中分离出头。在接下来的步骤S16-2中,提取部16b从由头分析部16d提供的头中提取GEM_ID。
接着,在步骤S16-3中,选择部16c根据由提取部16b提取的GEM_ID的值,选择对多个帧进行解码的解码部。具体地讲,在GEM_ID的值为“1”时,选择部16c选择ACELP解码部16a1。此时,在步骤S16-4中,ACELP解码部16a1对解码对象的帧内的码序列进行解码。通过步骤S16-4而生成的音频信号是上述的低频带的音频信号。
接着,在步骤S16-n中,SBR解码部16n通过对包含在解码对象的帧中的编码数据进行解码,从而复原参数。另外,在步骤S16-n中,SBR解码部16n使用所输入的低频带的音频信号和所复原的参数来生成高频带的音频信号。另外,在步骤S16-n中,SBR解码部16n通过将高频带的音频信号和低频带的音频信号合成而生成音频信号。
接着,在通过步骤S16-p中的判定而判断为将多通道信号作为处理对象时,在接下来的步骤S16-m中,MPS解码部16m通过对包含在解码对象的帧中的编码数据进行解码,从而复原参数。另外,在步骤S16-m中,MPS解码部16m使用从SBR解码部16n接收的音频信号和所复原的参数,生成多通道的音频信号,输出该多通道的音频信号。另一方面,在判断为将单声道信号作为处理对象时,输出SBR解码部16n生成的音频信号。
接着,在步骤S16-5中,进行是否存在没有进行过解码的帧的判定。在不存在没有进行过解码的帧时,结束处理。另一方面,在存在没有进行过解码的帧时,将没有进行过解码的帧作为对象继续进行从步骤S16-4开始的处理。由此,在GEM_ID的值为“1”时,通过共同的解码部、即ACELP解码部16a1对多个帧的码序列进行解码。
回到步骤S16-3,在GEM_ID的值为“0”时,选择部16c将解码对象的帧与core_mode提取部16e结合。此时,在步骤S16-6中,core_mode提取部16e从解码对象的帧中提取core_mode。
接着,在步骤S16-7中,第1选择部16f根据所提取的core_mode,选择变更后AAC解码部16a3或lpd_mode提取部16g。具体地讲,在core_mode的值为“0”时,第1选择部16f选择变更后AAC解码部16a3,将解码对象的帧与变更后AAC解码部16a3结合。此时,在接下来的步骤S16-8中,通过变更后AAC解码部16a3对处理对象的帧内的码序列进行解码。在该步骤S16-8中生成的音频信号是上述的低频带的音频信号。接着该步骤S16-8,进行上述的SBR解码处理(步骤S16-n)和MPS解码处理(步骤S16-m)。
接着,在步骤S16-9中,判定是否存在没有进行过解码的帧,在不存在没有进行过解码的帧时,结束处理。另一方面,在存在没有进行过解码的帧时,以没有进行过解码的帧为对象继续进行从步骤S16-6开始的处理。
回到步骤S16-7,在core_mode的值为“1”时,第1选择部16f选择lpd_mode提取部16g,将解码对象的帧与lpd_mode提取部16g结合。另外,此时,将解码对象的帧作为超级帧进行处理。
接着,在步骤S16-10中,lpd_mode提取部16g从解码对象的超级帧中提取lpd_mode。并且,第2选择部16h根据所提取的lpd_mode设定mod[k](k=0、1、2、3)。
接着,在步骤S16-11中,第2选择部16h将k的值设定为“0”。在接下来的步骤S16-12中,第2选择部16h判定mod[k]的值是否比0大。在mod[k]的值为0以下时,第2选择部16h选择ACELP解码部16a1。另一方面,在mod[k]的值比0大时,第2选择部16h选择TCX解码部16a2
并且,在选择了ACELP解码部16a1时,在接下来的步骤S16-13中,ACELP解码部16a1对超级帧内的解码对象的帧的码序列进行解码。接着,在步骤S16-14中,将k的值设定为k+1。另一方面,在选择了TCX解码部16a2时,在接下来的步骤S16-15中,TCX解码部16a2对超级帧内的解码对象的帧的码序列进行解码。接着,在步骤S16-16中,将k的值更新为k+a(mod[k])。另外,关于mod[k]与a(mod[k])的关系,参照图17。
接着,在步骤S16-17中,判定k的值是否比4小。在k的值比4小时,对超级帧内的后续的帧继续进行从步骤S16-12开始的处理。另一方面,在k的值为4以上时,处理进入到步骤S16-n。
以下,对使计算机作为音频解码装置16来动作的音频解码程序进行说明。图18是示出另一实施方式的音频解码程序的图。
图18所示的音频解码程序P16能够在图5和图6所示的计算机中使用。另外,能够与音频编码程序P10同样地提供音频解码程序P16。
如图18所示,音频解码程序P16具有:ACELP解码模块M16a1、TCX解码模块M16a2、变更后AAC解码模块M16a3、提取模块M16b、选择模块M16c、头分析模块M16d、core_mode提取模块M16e、第1选择模块M16f、lpd_mode提取模块M16g、第2选择模块M16h、MPS解码模块M16m以及SBR解码模块M16n。
ACELP解码模块M16a1、TCX解码模块M16a2、变更后AAC解码模块M16a3、提取模块M16b、选择模块M16c、头分析模块M16d、core_mode提取模块M16e、第1选择模块M16f、lpd_mode提取模块M16g、第2选择模块M16h、MPS解码模块M16m、SBR解码模块M16n使计算机C10执行与ACELP解码部16a1、TCX解码部16a2、变更后AAC解码部16a3、提取部16b、选择部16c、头分析部16d、core_mode提取部16e、第1选择部16f、lpd_mode提取部16g、第2选择部16h、MPS解码部16m、SBR解码部16n分别相同的功能。
以下,关于又一实施方式的音频编码装置进行说明。图19是示出又一实施方式的音频编码装置的图。图19所示的音频编码装置18是能够作为AMR-WB+的扩展来使用的装置。
图20示出根据以往的AMR-WB+来生成的流和根据图19所示的音频编码装置来生成的流的图。如图20所示,在AMR-WB+中,在各帧上附加2比特的模式比特(Modebits)。模式比特是利用其值来表示是选择ACELP编码处理还是选择TCX编码处理的信息。
另一方面,图19所示的音频编码装置18能够通过共同的音频编码处理对所有帧的音频信号进行编码。另外,音频编码装置18能够切换在各帧中使用的音频编码处理。
如图19所示,音频编码装置18具有ACELP编码部18a1和TCX编码部18a2。ACELP编码部18a1通过ACELP编码处理对音频信号进行编码而生成码序列。TCX编码部18a2通过TCX编码处理对音频信号进行编码而生成码序列。音频编码装置18进一步具有:选择部18b、生成部18c、输出部18d、头生成部18e、编码处理判定部18f、模式比特生成部18g、分析部18m、缩混部18n、高频带编码部18p以及立体声编码部18q。
分析部18m将预定频率作为基准,将输入到输入端子In1的各帧的音频信号分割为低频带的音频信号和高频带的音频信号。在输入到输入端子In1的音频信号为单声道的音频信号时,分析部18m向开关SW1输出所生成的低频带的音频信号,向高频带编码部18p输出高频带的音频信号。另一方面,在输入到输入端子In1的音频信号为立体声信号时,分析部18m将所生成的低频带的音频信号(立体声信号)输出到缩混部18n。
在输入到输入端子In1的音频信号为立体声信号时,缩混部18n将低频带的音频信号(立体声信号)缩混成单声道的音频信号。缩混部18n向开关SW1输出所生成的单声道的音频信号。缩混部18n将预定频率作为基准将低频带的音频信号分割为两个频带的音频信号。缩混部18n向立体声编码部18q输出两个频带的音频信号中的低频带的音频信号(单声道信号)和右通道的音频信号。
高频带编码部18p算出用于在解码侧根据低频带的音频信号生成高频带的音频信号的参数,生成该参数的编码数据,将该编码数据输出到输出部18d。作为参数,例如能够使用对频谱包络进行了模型化的线性预测系数和用于功率调整的增益。
立体声编码部18q算出上述两个频带的音频信号中的低频带的单声道的音频信号与右通道的音频信号的差分信号、即侧信号。立体声编码部18q算出表示单声道的音频信号与侧信号的电平差的平衡因子,通过预定方法分别对该平衡因子和侧信号的波形进行编码,将编码数据输出到输出部18d。另外,立体声编码部18q算出用于通过解码装置根据上述两个频带的音频信号中的低频带的音频信号生成立体声音频信号的参数,将该参数的编码数据输出到输出部18d。
选择部18b具有与选择部14b相同的功能。具体地讲,在输入信息表示通过共同的一个音频编码处理对多个帧进行编码时,选择部18b控制开关SW1,将输入到开关SW1的所有帧的音频信号与ACELP编码部18a1结合。另一方面,在输入信息表示不通过共同的一个编码处理对多个帧进行编码时,选择部18b控制开关SW1,将输入到开关SW1的各帧的音频信号与连接到编码处理判定部18f等的路径结合。
生成部18c与生成部14c同样地设定GEM_ID。头生成部18e生成与包含由生成部18c生成的GEM_ID的AMR-WB+对应的头。该头是在流的前头中通过输出部18d来输出。在本实施方式中,GEM_ID能够包含在头的AMRWPSampleEntry_fields内的未使用的区域中。
在输入信息表示不通过共同的一个编码处理对多个帧进行编码时,编码处理判定部18f通过SW1接收编码对象的帧的音频信号。
编码处理判定部18f将编码对象的帧作为将该编码对象的帧分割为4个以下的帧的超级帧来进行处理。编码处理判定部18f对超级帧中的各帧的音频信号进行分析,判定是应通过ACELP编码部18a1还是应通过TCX编码部18a2对该音频信号进行编码。该分析也可以是与上述的第2判定部14h相同的分析。
在判定为应通过ACELP编码部18a1对帧的音频信号进行编码时,判定部18f控制开关SW2,对ACELP编码部18a1结合该帧的音频信号。另一方面,在判定为应通过TCX编码部18a2对帧的音频信号进行编码时,控制开关SW2,对TCX编码部18a2结合该帧的音频信号。
模式比特生成部18g生成具有与编码处理判定部18f的判定结果对应的值的K个Mode bits[k](k=0~K-1)。此处,K的值是4以下的整数,可以是与超级帧内的帧数对应的数值。另外,Mode bits[k]是至少表示在编码对象的帧的音频信号的编码中使用ACELP编码处理、还是使用TCX编码处理的2比特的信息。
输出部18d输出具有多个帧的流,该多个帧具有头和对应的码序列。另外,在GEM_ID的值为0时,输出部18d在输出帧中包含Mode bits[k]。而且,输出部18d将通过高频带编码部18p而生成的编码数据和通过立体声编码部18而生成的编码数据包含在对应的帧中。
以下,对音频编码装置18的动作和一实施方式的音频编码方法进行说明。图21是又一实施方式的音频编码方法的流程图。
如图21所示,在一实施方式中,首先进行与步骤S14-1相同的步骤S18-1。接着,在步骤S18-2中,头生成部18e如上所述,生成包含GEM_ID的AMR-WB+的头。在接下来的步骤S18-3中,输出部18d在流的前头中输出所生成的头。
接着,在步骤S18-m中,分析部18m如上所述,将输入到输入端子In1的编码对象的帧的音频信号分割为低频带的音频信号和高频带的音频信号。另外,在步骤S18-m中,在输入到输入端子In1的音频信号为单声道的音频信号时,分析部18m向开关SW1输出所生成的低频带的音频信号,向高频带编码部18p输出高频带的音频信号。另一方面,在输入到输入端子In1的音频信号为立体声信号时,分析部18m将所生成的低频带的音频信号(立体声信号)输出到缩混部18n。
接着,在通过步骤S18-r所示的判定,判定为输入到输入端子In1的音频信号为单声道信号时,在步骤S18-p中进行基于高频带编码部18p的上述处理,通过高频带编码部18p而生成的上述编码数据通过输出部18d而输出。另一方面,在输入到输入端子In1的音频信号为立体声信号时,在步骤S18-n中进行基于缩混部18n的上述处理,在接下来的步骤S18-q中进行基于立体声编码部18q的上述处理,将通过立体声编码部18q而生成的上述编码数据通过输出部18d而输出,处理进入到步骤S18-p。
接着,在步骤S18-4中,选择部18b判定GEM_ID的值是否为“0”。在GEM_ID的值不是“0”时,即在GEM_ID的值为“1”时,选择部18b选择ACELP编码部18a1。接着,在步骤S18-5中,通过所选择的ACELP编码部18a1对帧的音频信号(低频带的音频信号)进行编码。在接下来的步骤S18-6中,通过输出部18d而输出包含所生成的码序列的帧。并且,在GEM_ID的值为“1”时,经过在步骤S18-7中进一步判定是否为应编码的帧,通过ACELP编码部18a1对所有帧的音频信号(低频带的音频信号)进行编码并输出。
回到步骤S18-4,在GEM_ID的值为“0”时,在接下来的步骤S18-8中,编码处理判定部18f判定是通过ACELP编码处理还是通过TCX编码处理对编码对象的帧、即超级帧中的各帧的音频信号(低频带的音频信号)进行编码。
接着,在步骤S18-9中,模式比特生成部18g生成具有与编码处理判定部18f中的判定结果对应的值的Mode bits[k]。
接着,在步骤S18-10中,进行步骤S18-8的判定结果是否表示通过TCX编码处理对编码对象的帧的音频信号进行编码、即通过TCX编码部18a2进行编码的判定。
在步骤S18-8的判定结果表示通过TCX编码部18a2对编码对象的帧的音频信号进行编码时,在接下来的步骤S18-11中,通过TCX编码部18a2对该帧的音频信号(低频带的音频信号)进行编码。另一方面,在判定结果不表示通过TCX编码部18a2对编码对象的帧的音频信号进行编码时,在接下来的步骤S18-12中,通过ACELP编码部18a1对该帧的音频信号(低频带的音频信号)进行编码。另外,对超级帧内的各帧进行步骤S18-10~步骤S18-12的处理。
接着,在步骤S18-13中,输出部18d在步骤S18-11或步骤S18-12中生成的码序列上附加Mode bits[k]。并且,处理进入到步骤S18-6。
在以上说明的音频编码装置18和音频编码方法中,也通过将设定为“1”的GEM_ID包含在头中,从而能够向解码侧通知仅通过ACELP编码部对多个帧的音频信号进行了编码。因此,生成了尺寸更小的流。
以下,对使计算机作为音频编码装置18来动作的音频编码程序进行说明。图22是示出又一实施方式的音频编码程序的图。
图22所示的音频编码程序P18能够在图5和图6所示的计算机中使用。另外,能够与音频编码程序P10同样地提供音频编码程序P18。
音频编码程序P18具有:ACELP编码模块M18a1、TCX编码模块M18a2、选择模块M18b、生成模块M18c、输出模块M18d、头生成模块M18e、编码处理判定模块M18f、模式比特生成模块M18g、分析模块M18m、缩混模块M18n、高频带编码模块M18p以及立体声编码模块M18q。
ACELP编码模块M18a1、TCX编码模块M18a2、选择模块M18b、生成模块M18c、输出模块M18d、头生成模块M18e、编码处理判定模块M18f、模式比特生成模块M18g、分析模块M18m、缩混模块M18n、高频带编码模块M18p以及立体声编码模块M18q使计算机C10执行分别与ACELP编码部18a1、TCX编码部18a2、选择部18b、生成部18c、输出部18d、头生成部18e、编码处理判定部18f、模式比特生成部18g、分析部18m、缩混部18n、高频带编码部18p、立体声编码部18q相同的功能。
以下,对能够对通过音频编码装置18而生成的流进行解码的音频解码装置进行说明。图23是示出又一实施方式的音频解码装置的图。图23所示的音频解码装置20具有ACELP解码部20a1和TCX解码部20a2。ACELP解码部20a1通过ACELP解码处理而对帧内的码序列进行解码,生成音频信号(低频带的音频信号)。TCX解码部20a2通过TCX解码处理对帧内的码序列进行解码,生成音频信号(低频带的音频信号)。音频解码装置20进一步具有:提取部20b、选择部20c、头分析部20d、模式比特提取部20e、解码处理选择部20f、高频带解码部20p、立体声解码部20q以及合成部20m。
头分析部20d接收图20所示的流,从该流中分离头。头分析部20d将所分离的头提供给提取部20b。另外,头分析部20d向开关SW1、高频带解码部20p以及立体声解码部20q输出分离了头的流中的各帧。
提取部20b从头中提取GEM_ID。在所提取的GEM_ID的值为“1”时,选择部20c控制开关SW1,将多个帧与ACELP解码部20a1结合。由此,在GEM_ID的值为“1”时,所有帧的码序列通过ACELP解码部20a1而被解码。
另一方面,在GEM_ID的值为“0”时,选择部20c控制开关SW1,将各帧与模式比特提取部20e结合。模式比特提取部20e提取所输入的各帧、即超级帧中的各帧用的Mode bits[k],提供给解码处理选择部20f。
解码处理选择部20f根据Mode bits[k]的值来控制开关SW2。具体地讲,在根据Mode bits[k]的值判断为应选择ACELP解码处理时,解码处理选择部20f控制开关SW2,将解码对象的帧与ACELP解码部20a1结合。另一方面,在根据Mode bits[k]的值判断为应选择TCX解码处理时,解码处理选择部20f控制开关SW2,将解码对象的帧与TCX解码部20a2结合。
高频带解码部20p对包含在解码对象的帧中的编码数据进行解码,复原上述的参数。高频带解码部20p使用所复原的参数和通过ACELP解码部20a1及/或TCX解码部20a2所解码的低频带的音频信号,生成高频带的音频信号,将该高频带的音频信号输出到合成部20m。
立体声解码部20q对包含在解码对象的帧中的编码数据进行解码,复原上述的参数、平衡因子以及侧信号的波形。立体声解码部20q使用所复原的参数、平衡因子、侧信号的波形以及通过ACELP解码部20a1及/或TCX解码部20a2所解码的低频带的单声道的音频信号,生成立体声信号。
合成部20m将通过ACELP解码部20a1及/或TCX解码部20a2而复原的低频带的音频信号、与通过高频带解码部20p而生成的高频带的音频信号进行合成,生成解码音频信号。另外,在将立体声信号作为处理对象时,合成部20m还使用来自立体声解码部20q的输入信号(立体声信号),生成立体声音频信号。
以下,对音频解码装置20的动作、和一实施方式的音频解码方法进行说明。图24是又一实施方式的音频解码方法的流程图。
如图24所示,在一实施方式中,首先在步骤S20-1中,头分析部20d从流中分离头。
接着,在步骤S20-2中,提取部20b从头中提取GEM_ID。在接下来的步骤S20-3中,选择部20c根据GEM_ID的值来控制开关SW1。
具体地讲,在GEM_ID的值为“1”时,选择部20c控制开关SW1,选择ACELP解码部20a1作为对流中的多个帧的码序列进行解码的解码部。此时,在接下来的步骤S20-4中,ACELP解码部20a1对解码对象的帧的码序列进行解码。由此,复原低频带的音频信号。
接着,在步骤S20-p中,高频带解码部20p从在解码对象的帧中包含的编码数据复原参数。另外,在步骤S20-p中,高频带解码部20p使用所复原的参数和通过ACELP解码部20a1而复原的低频带的音频信号,生成高频带的音频信号,将该高频带的音频信号输出到合成部20m。
接着,在通过步骤S20-r中的判定判断为将立体声信号作为处理对象时,在接下来的步骤S20-q中,立体声解码部20q对包含在解码对象的帧中的编码数据进行解码,复原上述的参数、平衡因子以及侧信号的波形。另外,在步骤S20-q中,立体声解码部20q使用所复原的参数、平衡因子、侧信号的波形以及通过ACELP解码部20a1而复原的低频带的单声道的音频信号来复原立体声信号。
接着,在步骤S20-m中,合成部20m对通过ACELP解码部20a1而复原的低频带的音频信号、与通过高频带解码部20p而生成的高频带的音频信号进行合成,生成解码音频信号。另外,在将立体声信号作为处理对象时,合成部20m还使用来自立体声解码部20q的输入信号(立体声信号),来复原立体声音频信号。
并且,当在步骤S20-5中判定为不存在没有进行过解码的帧时,处理结束。另一方面,在存在没有进行过解码的帧时,将未处理的帧作为对象继续进行从步骤S20-4开始的处理。
回到步骤S20-3,在GEM_ID的值为“0”时,选择部20c控制开关SW1,将流的各帧与模式比特提取部20e结合。此时,在接下来的步骤S20-6中,模式比特提取部20e从解码对象的超级帧种提取Mode bits[k]。另外,Mode bits[k]可以一次从超级帧中提取,也可以在超级帧内的各帧的解码时按顺序提取。
接着,在步骤S20-7中,解码处理选择部20f将k的值设定为“0”。在接下来的步骤S20-8中,解码处理选择部20f判定Mode bits[k]的值是否比0大。在Mode bits[k]的值为0以下时,在接下来的步骤S20-9中,通过ACELP解码部20a1对超级帧内的解码对象帧的码序列进行解码。另一方面,在Mode bits[k]的值比0大时,通过TCX解码部20a2对超级帧内的解码对象帧的码序列进行解码。
接着,在步骤S20-11中,解码处理选择部20f利用k+a(Mode bits[k])来更新k的值。此处,Mode bits[k]的值与a(Mode bits[k])之间的关系可以具有跟图17所示的mod[k]与a(mod[k])之间的关系相同的关系。
接着,在步骤S20-12中,解码处理选择部20f进行k的值是否比4小的判定。在k的值比4小时,以超级帧内的后续的帧为对象,继续进行从步骤S20-8开始的处理。另一方面,在k的值为4以上时,在步骤S20-p中,高频带解码部20p从在解码对象的帧中包含的编码数据来复原参数。另外,在步骤S20-p中,高频带解码部20p根据该参数、通过解码部20a1或解码部20a2而复原的低频带的音频信号生成高频带的音频信号,将该高频带的音频信号输出到合成部20m。
接着,在通过步骤S20-r中的判定判断为将立体声信号作为处理对象时,在接下来的步骤S20-q中,立体声解码部20q对包含在解码对象的帧中的编码数据进行解码,复原上述的参数、平衡因子以及侧信号的波形。另外,在步骤S20-q中,立体声解码部20q使用所复原的参数、平衡因子、侧信号的波形以及通过解码部20a1或解码部20a2而复原的低频带的单声道的音频信号,来复原立体声信号。
接着,在步骤S20-m中,合成部20m将通过解码部20a1或解码部20a2而复原的低频带的音频信号、与通过高频带解码部20p而生成的高频带的音频信号进行合成,生成解码音频信号。另外,在将立体声信号作为处理对象时,合成部20m还使用来自立体声解码部20q的输入信号(立体声信号),来复原立体声音频信号。并且,处理进入到步骤S20-13。
在步骤S20-13中,进行是否存在没有进行过解码的帧的判定。在不存在没有进行过解码的帧时,处理结束。另一方面,在存在没有进行过解码的帧时,将该帧(超级帧)作为对象,继续进行从步骤S20-6开始的处理。
以下,对能够使计算机作为音频解码装置20来动作的音频解码程序进行说明。图25是示出又一实施方式的音频解码程序的图。
图25所示的音频解码程序P20能够在图5和图6所示的计算机中使用。另外,能够与音频编码程序P10同样地提供音频解码程序P20。
音频解码程序P20具有:ACELP解码模块M20a1、TCX解码模块M20a2、提取模块M20b、选择模块M20c、头分析模块M20d、模式比特提取模块M20e、解码处理选择模块M20f、高频带解码模块M20p、立体声解码模块M20q以及合成模块M20m。
ACELP解码模块M20a1、TCX解码模块M20a2、提取模块M20b、选择模块M20c、头分析模块M20d、模式比特提取模块M20e、解码处理选择模块M20f、高频带解码模块M20p、立体声解码模块M20q、合成模块M20m使计算机执行分别与ACELP解码部20a1、TCX解码部20a2、提取部20b、选择部20c、头分析部20d、模式比特提取部20e、解码处理选择部20f、高频带解码部20p、立体声解码部20q、合成部20m相同的功能。
以下,对又一实施方式的音频编码装置进行说明。图26是示出又一实施方式的音频编码装置的图。图26所示的音频编码装置22能够切换在第1多个帧的音频信号的编码中使用的音频编码处理、与在后续的第2多个帧的音频信号的编码中使用的音频编码处理。
音频编码装置22与音频编码装置10同样地具有编码部10a1~10an。音频编码装置22进一步具有:生成部22c、选择部22b、输出部22d以及检查部22e。
检查部22e监视针对输入端子In2的输入,接收输入到输入端子In2的输入信息。输入信息是确定在多个帧的编码中共同使用的音频编码处理的信息。
选择部22b选择与输入信息对应的编码部。具体地讲,选择部22b控制开关SW,将输入到输入端子In1的音频信号结合到执行通过输入信息确定的音频编码处理的编码部。选择部22b继续进行单一的编码部的选择,直到下一次向检查部22e中输入输入信息为止。
在每一次通过检查部22e接收了输入信息时,生成部22c就根据该输入信息生成表示在多个帧中使用共同的编码处理的长时期编码处理信息。
当通过生成部22c而生成了长时期编码处理信息时,输出部22d对多个帧附加该长时期编码处理信息。图27是示出通过图26所示的音频编码装置而生成的流的图。如图27所示,将长时期编码处理信息附加在多个帧中的开头的帧上。在图27所示的例子中,表示通过共同的编码处理对从第1帧到第l-1帧为止的多个帧进行编码,在第l帧中切换编码处理,通过共同的编码处理对从第l帧到第m帧为止的多个帧进行编码。
以下,对音频编码装置22的动作和一实施方式的音频编码方法进行说明。图28是又一实施方式的音频编码方法的流程图。
如图28所示,在一实施方式中,在步骤S22-1中,检查部22e监视输入信息的输入。当输入了输入信息时,在步骤S22-2中,选择部22b选择与输入信息对应的编码部。
接着,在步骤S22-3中,选择部22b根据输入信息生成长时期编码处理信息。长时期编码处理信息能够在步骤S22-4中通过输出部22d而附加到多个帧中的开头的帧上。
并且,在步骤S22-5中,通过所选择的编码部对编码对象的帧的音频信号进行编码。另外,到下一次输入输入信息为止的期间,不经过步骤S22-2~S22-4的处理,而对编码对象的帧的音频信号进行编码。
接着,在步骤S22-6中,将编码过的码序列包含在与编码对象的帧对应的比特流内的帧中而从输出部22d输出。
接着,在步骤S22-7中,判定是否存在没有进行过编码的帧。在不存在没有进行过编码的帧时,处理结束。另一方面,在存在没有进行过编码的帧时,继续进行从步骤S22-1开始的处理。
以下,对能够使计算机作为音频编码装置22来动作的音频编码程序进行说明。图29是示出又一实施方式的音频编码程序的图。
图29所示的音频编码程序P22能够在图5和图6所示的计算机中使用。另外,能够与音频编码程序P10同样地提供音频编码程序P22。
如图29所示,音频编码程序P22具有:编码模块M10a1~10an、生成模块M22c、选择模块M22b、输出模块M22d以及检查模块M22e。
编码模块M10a1~10an、生成模块M22c、选择模块M22b、输出模块M22d、检查模块M22e使计算机C10执行分别与编码部10a1~10an、生成部22c、选择部22b、输出部22d、检查部22e相同的功能。
以下,对能够通过音频编码装置22而生成的流进行解码的音频解码装置进行说明。图30是示出又一实施方式的音频解码装置的图。
图30所示的音频解码装置24与音频解码装置12同样,具有解码部12a1~12an。音频解码装置24进一步具有提取部24b、选择部24c、检查部24d。
检查部24d检查在输入到输入端子In的流内的各帧中是否含有长时期编码处理信息。当通过检查部24d判断为在帧中含有长时期编码处理信息时,提取部24b从该帧中提取长时期编码处理信息。另外,提取部24b在去掉长时期编码处理信息之后,将帧送出到开关SW。
当通过提取部24b而提取了长时期编码处理信息时,选择部24c控制开关SW,选择执行与根据该长时期编码处理信息而确定的编码处理对应的音频解码处理的解码部。在到下一次通过检查部24d而提取长时期编码处理信息为止的期间,选择部24c继续选择单一的解码部,继续通过共同的音频解码处理对多个帧的码序列进行解码。
以下,对音频解码装置24的动作、和一实施方式的音频解码方法进行说明。图31是又一实施方式的音频解码方法的流程图。
如图31所示,在一实施方式中,在步骤S24-1中,检查部24d监视在所输入的帧中是否包含有长时期编码处理信息。当通过检查部24d而检测到长时期编码处理信息时,在接下来的步骤S24-2中,提取部24b从帧中提取长时期编码处理信息。
接着,在步骤S24-3中,选择部24c根据所提取的长时期编码处理信息选择适当的解码部。在接下来的步骤S24-4中,所选择的解码部对解码对象的帧的码序列进行解码。
并且,在步骤S24-5中,进行是否存在没有进行过解码的帧的判定。在不存在没有进行过解码的帧时,处理结束。另一方面,在存在没有进行过解码的帧时,继续进行从步骤S24-1开始的处理。
在本实施方式中,当在步骤S24-1中判断为在帧中没有附加有长时期编码处理信息时,不经过步骤S24-2~步骤S24-3的处理,而执行步骤S24-4的处理。
以下,对能够使计算机作为音频解码装置24来动作的音频解码程序进行说明。图32是示出又一实施方式的音频解码程序的图。
图32所示的音频解码程序P24能够在图5和图6所示的计算机中使用。另外,能够与音频编码程序P10同样地提供音频解码程序P24。
如图32所示,音频解码程序P24具有:解码模块M12a1~12an、提取模块M24b、选择模块M24c以及检查模块M24d。
解码模块M12a1~12an、提取模块M24b、选择模块M24c、检查模块M24d使计算机C10执行分别与解码部12a1~12an、提取部24b、选择部24c、检查部24d相同的功能。
以下,对又一实施方式的音频编码装置进行说明。图33是示出又一实施方式的音频编码装置的图。另外,图34是示出根据以往的MPEG USAC而生成的流和通过图33所示的音频编码装置而生成的流的图。
在上述的音频编码装置14中,能够通过单一的共同的音频编码处理对所有帧的音频信号进行编码,或者通过单独的音频编码处理对各帧的音频信号进行编码。
另一方面,图33所示的音频编码装置26能够对多个帧中的一部分的多个帧使用共同的音频编码处理。另外,音频编码装置26还能够对所有帧中的一部分帧使用单独的音频编码处理。而且,音频编码装置26能够对所有帧中的从中间的帧开始的多个帧使用共同的音频编码处理。
如图33所示,音频编码装置26与音频编码装置14同样,具有:ACELP编码部14a1、TCX编码部14a2、变更后AAC编码部14a3、第1判定部14f、core_mode生成部14g、第2判定部14h、lpd_mode生成部14i、MPS编码部14m以及SBR编码部14n。音频编码装置26还具有:检查部26j、选择部26b、生成部26c、输出部26d以及头生成部26e。以下,关于音频编码装置26的要素中的、与音频编码装置14不同的要素进行说明。
检查部26j检查是否在输入端子In2中输入有输入信息。输入信息是表示是否通过共同的音频编码处理来对多个帧的音频信号进行编码的信息。
当通过检查部26j而检测到输入信息时,选择部26b控制开关SW1。具体地讲,在检测到的输入信息表示通过共同的音频编码处理对多个帧的音频信号进行编码时,选择部26b控制开关SW1,将开关SW1与ACELP编码部14a1结合。另一方面,在检测到的输入信息表示不通过共同的音频编码处理对多个帧的音频信号进行编码时,选择部26b控制开关SW1,将开关SW1与包含第1判定部14f等的路径结合。
当通过检查部26j检测到输入信息时,生成部26c生成与该时刻的编码对象帧对应的输出帧用的GEM_ID。具体地讲,在检测到的输入信息表示通过共同的音频编码处理对多个帧的音频信号进行编码时,生成部26c将GEM_ID的值设定为“1”。另一方面,在检测到的输入信息表示不通过共同的音频编码处理对多个帧的音频信号进行编码时,生成部26c将GEM_ID的值设定为“0”。
当通过检查部26j检测到输入信息时,头生成部26e生成与该时刻的编码对象帧对应的输出帧的头,在该头内包含通过生成部26c生成的GEM_ID。
输出部26d输出包含所生成的码序列的输出帧。另外,输出部26d在各输出帧中包含通过MPS编码部14m而生成的参数的编码数据和通过SBR编码部14n而生成的参数的编码数据。另外,在通过检查部26j而检测到输入信息时,输出帧包含通过头生成部26e而生成的头。
以下,对音频编码装置26的动作、和又一实施方式的音频编码方法进行说明。图35是又一实施方式的音频编码方法的流程图。
在图35所示的流程中,步骤S14-3~4、步骤S14-9~19、步骤S14-m~步骤S14-n的处理与图13所示的处理相同。以下,对与图13所示的流程不同的处理进行说明。
如图35所示,在一实施方式中,在步骤S26-a中,对GEM_ID的值初始化。GEM_ID的值例如可以被初始化为“0”。在步骤S26-1中,检查部26j如上所述监视输入信息。当检测到输入了输入信息时,在接下来的步骤S26-2中,生成部26c生成与该输入信息对应的GEM_ID,在接下来的步骤S26-3中,头生成部26e生成包含所生成的GEM_ID的头。另一方面,在没有输入信息时,不经过步骤S26-2和S26-3的处理,处理进入到步骤S14-p。
在步骤S26-4中,判断是否附加头。当通过检查部26j检测到输入信息时,在步骤S26-5中,在与该时刻的编码对象帧对应的输出帧中附加包含GEM_ID的头,输出包含该头的帧。另一方面,在没有检测到输入信息时,在步骤S26-6中,直接输出与该时刻的编码对象帧对应的输出帧。
接着,在步骤S26-7中,判断是否存在没有进行过编码的帧。在不存在没有进行过编码的帧时,处理结束。另一方面,在存在没有进行过编码的帧时,以没有进行过编码的帧为对象继续进行从步骤S26-1开始的处理。
根据以上说明的音频编码装置26和一实施方式的音频编码方法,能够通过共同的音频编码处理对多个帧进行编码,之后,通过单独的音频编码处理对几个帧进行编码,再通过共同的音频编码处理对后续的多个帧进行编码。
另外,在音频编码装置26中,虽然根据输入信息来确定在多个帧的音频信号的编码中使用的音频编码处理,但是在本发明中,也可以根据各帧的音频信号的分析结果,确定在多个帧中共同使用的音频编码处理。例如,也可以在输入端子In1与开关SW1之间,包含对各帧的音频信号进行分析的分析部,根据该分析结果,使选择部26b和生成部26c等动作。另外,对于该分析能够使用上述的分析方法。
另外,也可以将所有帧的音频信号暂且与包含第1判定部14f的路径结合,在输出部26d中积蓄包含码序列的输出帧。此时,能够使用第1判定部14f和第2判定部14h的判定结果,事后对各帧调整lpd_mode、core_mode等的设定、头的生成、附加等。
另外,也可以进行预定数量的帧的分析,或者对于预定数量的帧进行第1判定部14f和第2判定部的判定,使用该预定数量的帧的分析结果或判定结果,来预测在包含该预定数量的帧的多个帧中共同利用的编码处理。
另外,关于在多个帧中使用共同的编码处理,还是使用单独的编码处理,能够以使得包含core_mode、lpd_mode以及头等的附加信息的量减少的方式来确定。
以下,对能够使计算机作为音频编码装置26来动作的音频编码程序进行说明。图36是示出又一实施方式的音频编码程序的图。
图36所示的音频编码程序P26能够在图5和图6所示的计算机中使用。另外,能够与音频编码程序P10同样地提供音频编码程序P26。
如图36所示,音频编码程序P26具有:ACELP编码模块M14a1、TCX编码模块M14a2、变更后AAC编码模块M14a3、第1判定模块M14f、core_mode生成模块M14g、第2判定模块M14h、lpd_mode生成模块M14i、MPS编码模块M14m、SBR编码模块M14n、检查模块M26j、选择模块M26b、生成模块M26c、输出模块M26d以及头生成模块M26e。
ACELP编码模块M14a1、TCX编码模块M14a2、变更后AAC编码模块M14a3、第1判定模块M14f、core_mode生成模块M14g、第2判定模块M14h、lpd_mode生成模块M14i、MPS编码模块M14m、SBR编码模块M14n、检查模块M26j、选择模块M26b、生成模块M26c、输出模块M26d、头生成模块M26e使计算机C10执行分别与ACELP编码部14a1、TCX编码部14a2、变更后AAC编码部14a3、第1判定部14f、core_mode生成部14g、第2判定部14h、lpd_mode生成部14i、MPS编码部14m、SBR编码部14n、检查部26j、选择部26b、生成部26c、输出部26d、头生成部26e相同的功能。
以下,对能够对通过音频编码装置26而生成的流进行解码的音频解码装置进行说明。图37是示出又一实施方式的音频解码装置的图。
图37所示的音频解码装置28与音频解码装置16同样,具有:ACELP解码部16a1、TCX解码部16a2、变更后AAC解码部16a3、core_mode提取部16e、第1选择部16f、lpd_mode提取部16g、第2选择部16h、MPS解码部16m以及SBR解码部16n。音频解码装置28还具有:头检查部28j、头分析部28d、提取部28b以及选择部28c。以下,对音频解码装置28的要素中的与音频解码装置16的要素不同的要素进行说明。
头检查部28j监视在输入到输入端子In的各帧中是否存在头。当通过头检查部28j而检测到在帧中存在头时,头分析部28d分离出该头。提取部28b从所提取的头中提取GEM_ID。
选择部28c根据所提取的GEM_ID来控制开关SW1。具体地讲,在GEM_ID的值为“1”时,选择部28c控制开关SW1,使从头分析部28d送出的帧与ACELP解码部16a1结合,直至下一次提取出GEM_ID为止的期间。
另一方面,在GEM_ID的值为“0”时,选择部28c将从头分析部28d送出的帧与core_mode提取部16e结合。
以下,对音频解码装置28的动作和又一实施方式的音频解码方法进行说明。图38是又一实施方式的音频解码方法的流程图。
图38中的通过包含“S16”的参照标号来确定的处理是与图16中的对应处理相同的处理。以下,对图38中的处理中的、与图16所示的处理不同的处理进行说明。
如图38所示,在一实施方式中,在步骤S28-1中,头检查部28j监视在所输入的帧中是否包含头。在帧中包含有头时,在接下来的步骤S28-2中,头分析部28d从该帧中分离出头。并且,在步骤S28-3中,提取部28b从头中提取出GEM_ID。另一方面,当在帧中没有包含有头时,在步骤S28-4中,复制紧之前提取的GEM_ID,之后利用所复制的GEM_ID。
在步骤S28-5中,进行是否存在没有进行过解码的帧的判定。在不存在没有进行过解码的帧时,处理结束。另一方面,在存在没有进行过解码的帧时,将没有进行过解码的帧作为对象,继续进行从步骤S28-1开始的处理。
另外,在步骤S28-6中,进行是否存在没有进行过解码的帧的判定。在不存在没有进行过解码的帧时,处理结束。另一方面,在存在没有进行过解码的帧时,将没有进行过解码的帧作为对象,继续进行从步骤S28-1开始的处理。
以下,对能够使计算机作为音频解码装置28来动作的音频解码程序进行说明。图39是示出又一实施方式的音频解码程序的图。
图39所示的音频解码程序P28能够在图5和图6所示的计算机中使用。另外,能够与音频编码程序P10同样地提供音频解码程序P28。
如图39所示,音频解码程序P28具有:ACELP解码模块M16a1、TCX解码模块M16a2、变更后AAC解码模块M16a3、core_mode提取模块M16e、第1选择模块M16f、lpd_mode提取模块M16g、第2选择模块M16h、MPS解码模块M16m、SBR解码模块M16n、头检查模块M28j、头分析模块M28d、提取模块M28b以及选择模块M28c。
ACELP解码模块M16a1、TCX解码模块M16a2、变更后AAC解码模块M16a3、core_mode提取模块M16e、第1选择模块M16f、lpd_mode提取模块M16g、第2选择模块M16h、MPS解码模块M16m、SBR解码模块M16n、头检查模块M28j、头分析模块M28d、提取模块M28b、选择模块M28c使计算机C10执行分别与ACELP解码部16a1、TCX解码部16a2、变更后AAC解码部16a3、core_mode提取部16e、第1选择部16f、lpd_mode提取部16g、第2选择部16h、MPS解码部16m、SBR解码部16n、头检查部28j、头分析部28d、提取部28b、选择部28c相同的功能。
以下,对又一实施方式的音频编码装置进行说明。图40是示出又一实施方式的音频编码装置的图。图41是示出通过图40所示的音频编码装置而生成的流的图。
图40所示的音频编码装置30除了输出部30d,具有与音频编码装置22的对应的要素相同的要素。即,在音频编码装置30中,在生成了GEM_ID的情况下,将输出帧作为包含长时期编码处理信息的第1帧类型的输出帧而从输出部30d输出。另一方面,在没有生成长时期编码处理信息时,将输出帧作为不包含长时期编码处理信息的第2帧类型的输出帧而从输出部30d输出。
图42是又一实施方式的音频编码方法的流程图。以下,参照图42,对音频编码装置30的动作、和又一实施方式的音频编码方法进行说明。另外,图42所示的流程除了步骤S30-1和步骤S30-2的处理以外,与图28所示的流程相同。因此,在以下,对步骤S30-1和步骤S30-2进行说明。
在步骤S30-1中,当在步骤S22-1中输入了输入信息时,输出部30d将与此时的编码对象帧对应的输出帧设定为包含长时期编码处理信息的第1帧类型。另一方面,当在步骤S22-1中没有输入有输入信息时,在步骤S30-2中,输出部30d将与此时的编码对象帧对应的输出帧设定为不包含长时期编码处理信息的第2帧类型。另外,在一实施方式中,在输入有音频信号的最初的帧时,输入输入信息,将与该最初的帧对应的输出帧设定为第1帧类型。
如上所述,根据长时期编码处理信息的有无来变更帧类型,从而也能够向解码侧通知长时期编码处理信息。
以下,对能够使计算机作为音频编码装置30来动作的音频编码程序进行说明。图43是示出又一实施方式的音频编码程序的图。
图43所示的音频编码程序P30能够在图5和图6所示的计算机中使用。另外,能够与音频编码程序P10同样地提供音频编码程序P30。
如图43所示,音频编码程序P30具有:编码模块M10a1~10an、生成模块M22c、选择模块M22b、输出模块M30d以及检查模块M22e。
编码模块M10a1~10an、生成模块M22c、选择模块M22b、输出模块M30d、检查模块M22e使计算机C10执行分别与编码部10a1~10an、生成部22c、选择部22b、输出部30d、检查部22e相同的功能。
以下,对能够对通过音频编码装置30生成的流进行解码的音频解码装置进行说明。图44是示出又一实施方式的音频解码装置的图。图44所示的音频解码装置32除了提取部32b和帧类型检查部32d以外,具有与音频解码装置24中的对应的要素相同的要素。以下,对提取部32b和帧类型检查部32d进行说明。
帧类型检查部32d检查输入到输入端子In的流中的各帧的帧类型。具体地讲,在解码对象的帧为第1帧类型的帧时,帧类型检查部32d将该帧提供给提取部30b和开关SW1。另一方面,在解码对象的帧为第2帧类型的帧时,帧类型检查部32d将该帧仅送出到开关SW1。提取部32b从接收自帧类型检查部32d的帧内提取长时期编码处理信息,将该长时期编码处理信息提供给选择部24c。
图45是又一实施方式的音频解码方法的流程图。以下,参照图45,对音频解码装置32的动作和又一实施方式的音频解码方法进行说明。另外,在图45所示的流程中,通过包含“S24”的参照标号来表示的处理是与图31所示的对应处理相同的处理。以下,对与图31所示的处理不同的步骤S32-1和步骤S32-2进行说明。
在步骤S32-1中,帧类型检查部32d分析解码对象的帧是否为第1帧类型的帧。在接下来的步骤S32-2中,当判断为解码对象的帧为第1帧类型的帧时,在步骤S24-2中,通过提取部32b从该帧中选择长时期编码处理信息。另一方面,当在步骤S32-2的判定中,判定为解码对象的帧不是第1帧类型的帧时,处理前进到步骤S24-4。即,当一旦在步骤S24-3中选择了解码部时,在到下一次输入第1帧类型的帧为止的期间,继续使用共同的解码部。
以下,对能够使计算机作为音频解码装置32来动作的音频解码程序进行说明。图46是示出又一实施方式的音频解码程序的图。
图46所示的音频解码程序P32能够在图5和图6所示的计算机中使用。另外,能够与音频编码程序P10同样地提供音频解码程序P32。
如图46所示,音频解码程序P24具有:解码模块M12a1~12an、提取模块M32b、选择模块M24c以及帧类型检查模块M32d。
解码模块M12a1~12an、提取模块M32b、选择模块M24c、帧类型检查模块M32d使计算机C10执行分别与解码部12a1~12an、提取部32b、选择部24c、帧类型检查部32d相同的功能。
以下,对又一实施方式的音频编码装置进行说明。图47是示出又一实施方式的音频编码装置的图。图47所示的音频编码装置34在以下说明的点上与音频编码装置18不同。即,音频编码装置34能够对所输入的多个帧中的一部分的连续多个帧使用共同的音频编码处理,对另一部的帧使用单独的音频编码处理。另外,音频编码装置34能够对第1多个帧使用共同的音频编码处理,对后续的一部分的帧使用单独的音频编码处理,而且对后续的第2多个帧使用共同的音频编码处理。图48是示出按照以往的AMR-WB+而生成的流和通过图47所示的音频编码装置而生成的流的图。如图48所示,音频编码装置34能够输出包含GEM_ID的第1帧类型的帧和不包含GEM_ID的第2帧类型的帧。
如图47所示,音频编码装置34与音频编码装置18同样,具有ACELP编码部18a1、TCX编码部18a2、编码处理判定部18f、模式比特生成部18g、分析部18m、缩混部18n、高频带编码部18p以及立体声编码部18q。音频编码装置34还具有检查部34e、选择部34b、生成部34c以及输出部34d。以下,对音频编码装置34的要素中的与音频编码装置18的要素不同的要素进行说明。
检查部34e监视针对输入端子In2的输入信息的输入。输入信息是表示是否对多个帧的音频信号使用共同的编码处理的信息。当通过检查部检测到输入信息的输入时,选择部34b判定输入信息是否表示对多个帧的音频信号使用共同的编码处理。在输入信息表示对多个帧的音频信号使用共同的编码处理时,选择部34b控制开关SW1,将开关SW1与ACELP编码部18a1结合。该结合维持到下一次检测到输入信息的输入为止。另一方面,在输入信息不表示对多个帧的音频信号使用共同的编码处理、即输入信息表示对编码对象的帧使用单独的编码处理时,选择部34b将开关SW1与包含编码处理判定部18f等的路径结合。
当通过检查部检测到输入信息的输入时,生成部34c生成具有与输入信息对应的值的GEM_ID。具体地讲,在输入信息表示对多个帧的音频信号使用共同的编码处理时,生成部34c将GEM_ID的值设定为“1”。另一方面,在输入信息不表示对多个帧的音频信号使用共同的编码处理时,生成部34c将GEM_ID的值设定为“0”。
在通过检查部34e而检测到输入信息时,输出部34d将与该时刻的编码对象帧对应的输出帧作为第1帧类型的输出帧,在该输出帧中包含通过生成部34c生成的GEM_ID,并包含编码对象帧的音频信号的码序列。在GEM_ID的值为0时,输出部34d在输出帧中包含Mode bits[k]。另一方面,在没有通过检查部34e检测到输入信息时,将与该时刻的编码对象帧对应的输出帧作为第2帧类型的输出帧,在该输出帧中包含编码对象帧的音频信号的码序列。输出部34d输出如上所述生成的输出帧。
图49是又一实施方式的音频编码方法的流程图。以下,参照图49,对音频编码装置34的动作、和又一实施方式的音频编码方法进行说明。另外,在图49所示的流程中,通过包含“S18”的参照标号表示的处理与图21中的对应处理相同。以下,对图49所示的流程的处理中的与图21的处理不同的处理进行说明。
如图49所示,在一实施方式中,在步骤S34-1中,检查部34e监视针对输入端子In2的输入信息的输入。在检测到输入信息的输入时,在接下来的步骤S34-2中,将与编码对象的帧对应的输出帧作为第1帧类型的输出帧。另一方面,在没有检测到输入信息的输入时,在接下来的步骤S34-3中,将与编码对象的帧对应的输出帧作为第2帧类型的输出帧。
接着,在步骤S34-4中,判定输入信息是否表示对每个帧指定编码处理。即,判定输入信息是否表示对多个帧使用共同的编码处理。在输入信息表示对多个帧使用共同的编码处理时,在接下来的步骤S34-5中,将GEM_ID的值设定为“1”。另一方面,在输入信息不表示对多个帧使用共同的编码处理时,在接下来的步骤S34-6中,将GEM_ID的值设定为“0”。
在步骤S34-7中,判定是否附加GEM_ID。具体地讲,在对检测到输入信息的输入时的编码对象帧进行处理时,在接下来的步骤S34-8中,附加GEM_ID,输出包含码序列的第1帧类型的输出帧。另一方面,在对没有检测到输入信息的输入时的编码对象帧进行处理时,在接下来的步骤S34-9中,输出包含码序列的第2帧类型的输出帧。
接着,在步骤S34-10中,判定是否存在没有进行过编码的帧。在不存在没有进行过编码的帧时,处理结束。另一方面,在存在没有进行过编码的帧时,以该帧为对象继续进行从步骤S34-1开始的处理。
以下,对能够使计算机作为音频编码装置34来动作的音频编码程序进行说明。图50是示出又一实施方式的音频编码程序的图。
图50所示的音频编码程序P34能够在图5和图6所示的计算机中使用。另外,能够与音频编码程序P10同样地提供音频编码程序P34。
音频编码程序P34具有:ACELP编码模块M18a1、TCX编码模块M18a2、选择模块M34b、生成模块M34c、输出模块M34d、编码处理判定模块M18f、模式比特生成模块M18g、分析模块M18m、缩混模块M18n、高频带编码模块M18p以及立体声编码模块M18q。
CELP编码模块M18a1、TCX编码模块M18a2、选择模块M34b、生成模块M34c、输出模块M34d、编码处理判定模块M18f、模式比特生成模块M18g、分析模块M18m、缩混模块M18n、高频带编码模块M18p、立体声编码模块M18q使计算机C10执行分别与ACELP编码部18a1、TCX编码部18a2、选择部34b、生成部34c、输出部34d、编码处理判定部18f、模式比特生成部18g、分析部18m、缩混部18n、高频带编码部18p、立体声编码部18q相同的功能。
以下,对能够对通过音频编码装置34生成的流进行解码的音频解码装置进行说明。图51是示出又一实施方式的音频解码装置的图。
图51所示的音频解码装置36与音频解码装置20同样,具有ACELP解码部20a1、TCX解码部20a2、模式比特提取部20e、解码处理选择部20f、高频带解码部20p、立体声解码部20q以及合成部20m。音频解码装置36还具有帧类型检查部36d、提取部36b以及选择部36c。以下,对音频解码装置36的要素中的与音频解码装置20的要素不同的要素进行说明。
帧类型检查部36d检查输入到输入端子In的流内的各帧的帧类型。帧类型检查部36d将第1帧类型的帧送出到提取部36b、开关SW1、高频带解码部20p以及立体声解码部20q。另一方面,帧类型检查部36d将第2帧类型的帧仅送出到开关SW1、高频带解码部20p以及立体声解码部20q。
提取部36b从接收自帧类型检查部36d的帧中提取GEM_ID。选择部36c根据所提取的GEM_ID的值来控制开关SW1。具体地讲,在GEM_ID的值为“1”时,选择部36c控制开关SW1,将解码对象的帧与ACELP解码部20a1结合。在GEM_ID的值为“1”时,到下一次输入第1帧类型的帧为止的期间,继续选择ACELP解码部20a1。另一方面,在GEM_ID的值为“0”时,选择部36c控制开关SW1,将解码对象的帧与模式比特提取部20e结合。
图52是又一实施方式的音频解码方法的流程图。以下,参照图52,对音频解码装置36的动作、和又一实施方式的音频解码方法进行说明。另外,图52所示的流程的处理中的包含“S20”的处理是与图24所示的对应处理相同的处理。以下,对图52所示的流程的处理中的与图24所示的处理不同的处理进行说明。
如图52所示,在一实施方式中,在步骤S36-1中,帧类型检查部36d判定解码对象的帧是否为第1帧类型的帧。在解码对象的帧为第1帧类型的帧时,在接下来的步骤S36-2中,提取部36b提取GEM_ID。另一方面,在解码对象的帧为第2帧类型的帧时,在接下来的步骤S36-3中,复制已有的GEM_ID,在以后的处理中利用该GEM_ID。
在步骤S36-4中,判定是否存在没有进行过解码的帧。在不存在没有进行过解码的帧时,处理结束。另一方面,在存在没有进行过解码的帧时,以该帧为对象,继续进行从步骤S36-1开始的处理。
以下,对能够使计算机作为音频解码装置36来动作的音频解码程序进行说明。图53是示出又一实施方式的音频解码程序的图。
图53所示的音频解码程序P36能够在图5和图6所示的计算机中使用。另外,能够与音频编码程序P10同样地提供音频解码程序P36。
音频解码程序P36具有:ACELP解码模块M20a1、TCX解码模块M20a2、提取模块M36b、选择模块M36c、帧类型检查模块M36d、模式比特提取模块M20e、解码处理选择模块M20f、高频带解码模块M20p、立体声解码模块M20q以及合成模块M20m。
ACELP解码模块M20a1、TCX解码模块M20a2、提取模块M36b、选择模块M36c、帧类型检查模块M36d、模式比特提取模块M20e、解码处理选择模块M20f、高频带解码模块M20p、立体声解码模块M20q、合成模块M20m使计算机执行分别与ACELP解码部20a1、TCX解码部20a2、提取部36b、选择部36c、帧类型检查部36d、模式比特提取部20e、解码处理选择部20f、高频带解码部20p、立体声解码部20q、合成部20m相同的功能。
以上,对本发明的各种实施方式进行了说明。本发明不限定于上述的实施方式而能够进行各种变形。例如,在上述一部分的实施方式中,分别将ACELP编码处理和ACELP解码处理选择为在多个帧中共同使用的编码处理和解码处理。但是,共同使用的编码处理和解码处理不限定于ACELP编码处理和解码处理,也可以是任意的音频编码处理和音频解码处理。另外,上述的GEM_ID也可以是设定为任意的比特尺寸和值的GEM_ID。
标号说明
10、10A…音频编码装置,10a1~10an…编码部,10b…选择部,10c…生成部,10d…输出部,10e…分析部,12…音频解码装置,12a1~12an…解码部,12b…提取部,12c…选择部,14…音频编码装置,14a1…ACELP编码部,14a2…TCX编码部,14a3…变更后AAC编码部,14b…选择部,14c…生成部,14d…输出部,14e…头生成部,14f…第1判定部,14g…core_mode生成部,14h…第2判定部,14…lpd_mode生成部,16…音频解码装置,16a1…ACELP解码部,16a2…TCX解码部,16a3…变更后AAC解码部,16b…提取部,16c…选择部,16d…头分析部,16e…core_mode提取部,16f…第1选择部,16g…lpd_mode提取部,16h…第2选择部,18…音频编码装置,18b…选择部,18c…生成部,18d…输出部,18e…头生成部,18f…编码处理判定部,18g…生成部,20…音频解码装置,20b…提取部,20c…选择部,20d…头分析部,20e…模式比特提取部,20f…解码处理选择部,22…音频编码装置,22b…选择部,22c…生成部,22d…输出部,22e…检查部,24…音频解码装置,24b…提取部,24c…选择部,24d…检查部,26…音频编码装置,26b…选择部,26c…生成部,26d…输出部,26e…头生成部,26j…检查部,28…音频解码装置,28b…提取部,28c…选择部,28d…头分析部,28j…头检查部,30…音频编码装置,30b…提取部,30d…输出部,32…音频解码装置,32b…提取部,32d…帧类型检查部,34…音频编码装置,34b…选择部,34c…生成部,34d…输出部,34e…检查部,36…音频解码装置,36b…提取部,36c…选择部。

Claims (12)

1.一种音频解码装置,其特征在于,具有:
多个解码部,其执行彼此不同的音频解码处理而由码序列生成音频信号;
提取部,其从具有分别包含音频信号的码序列的多个帧及/或分别包含多个帧的多个超级帧的流中,提取长时期编码处理信息,该长时期编码处理信息对于该多个帧是单一的长时期编码处理信息、且表示在该多个帧的码序列的生成中使用了共同的音频编码处理,或者该长时期编码处理信息对于该多个超级帧是单一的长时期编码处理信息、且表示在该多个超级帧的码序列的生成中使用了共同的一组音频编码处理;以及
选择部,其根据提取出所述长时期编码处理信息的情况,选择所述多个解码部中的、在所述多个帧的码序列的解码中共同使用的解码部,或者,选择所述多个解码部中的、在所述多个超级帧的码序列的解码中共同使用的一组解码部。
2.根据权利要求1所述的音频解码装置,其特征在于,
在所述流中,至少在所述多个帧中的开头的帧之后的帧中不包含用于确定在该之后的帧的码序列的生成中使用的音频编码处理的信息。
3.根据权利要求2所述的音频解码装置,其特征在于,
所述选择部响应于所述提取部提取出所述长时期编码处理信息的情况,选择所述多个解码部中的预定的解码部,
在所述流中不包含用于确定在所述多个帧的码序列的生成中使用的音频编码处理的信息。
4.根据权利要求3所述的音频解码装置,其特征在于,
所述长时期编码处理信息是1比特的信息。
5.一种音频编码装置,其特征在于,具有:
多个编码部,其执行彼此不同的音频编码处理而由音频信号生成码序列;
选择部,其选择所述多个编码部中的、在多个帧的音频信号的编码中共同使用的编码部,或者,选择在分别包含多个帧的多个超级帧的音频信号的编码中共同使用的一组编码部;
生成部,其生成长时期编码处理信息,该长时期编码处理信息对于所述多个帧是单一的长时期编码处理信息、且表示在该多个帧的码序列的生成中使用了共同的音频编码处理,或者,该长时期编码处理信息对于所述多个超级帧是单一的长时期编码处理信息、且表示在该多个超级帧的码序列的生成中使用了共同的一组音频编码处理;以及
输出部,其输出流,该流包含由通过所述选择部选择的所述编码部所生成的所述多个帧的码序列、或者由通过所述选择部选择的所述一组编码部所生成的所述多个超级帧的码序列、以及所述长时期编码处理信息。
6.根据权利要求5所述的音频编码装置,其特征在于,
在所述流中,至少在所述多个帧中的开头的帧之后的帧中不包含用于确定在该之后的帧的码序列的生成中使用的音频编码处理的信息。
7.根据权利要求6所述的音频编码装置,其特征在于,
所述选择部选择所述多个编码部中的预定的编码部,
在所述流中,不包含用于确定在所述多个帧的码序列的生成中使用的音频编码处理的信息。
8.根据权利要求7所述的音频编码装置,其特征在于,
所述长时期编码处理信息是1比特的信息。
9.一种音频解码方法,其特征在于,包括如下步骤:
从具有分别包含音频信号的码序列的多个帧及/或分别包含多个帧的多个超级帧的流,提取长时期编码处理信息,该长时期编码处理信息对于该多个帧是单一的长时期编码处理信息、且表示在该多个帧的码序列的生成中使用了共同的音频编码处理,或者,该长时期编码处理信息对于该多个超级帧是单一的长时期编码处理信息、且表示在该多个超级帧的码序列的生成中使用了共同的一组音频编码处理;
根据提取出所述长时期编码处理信息的情况,选择彼此不同的多个音频解码处理中的、在所述多个帧的码序列的解码中共同使用的音频解码处理,或者,选择该多个音频解码处理中的、在所述多个超级帧的码序列的解码中共同使用的一组音频解码处理;以及
使用所选择的所述音频解码处理来对所述多个帧的码序列进行解码,或者,使用所选择的所述一组音频解码处理来对所述多个超级帧的码序列进行解码。
10.一种音频编码方法,其特征在于,包括如下步骤:
选择彼此不同的多个音频编码处理中的、在多个帧的音频信号的编码中共同使用的音频编码处理,或者,选择该多个音频编码处理中的、在分别包含多个帧的多个超级帧的音频信号的编码中共同使用的一组音频编码处理;
使用所选择的所述音频编码处理对所述多个帧的音频信号进行编码而生成该多个帧的码序列,或者,使用所选择的所述一组音频编码处理对所述多个超级帧的音频信号进行编码而生成该多个超级帧的码序列;
生成长时期编码处理信息,该长时期编码处理信息对于所述多个帧是单一的长时期编码处理信息、且表示在该多个帧的码序列的生成中使用了共同的音频编码处理,或者,该长时期编码处理信息对于所述多个超级帧是单一的长时期编码处理信息、且表示在该多个超级帧的码序列的生成中使用了共同的一组音频编码处理;以及
输出流,该流包含所述多个帧的码序列、或者所述多个超级帧的码序列、以及所述长时期编码处理信息。
11.一种程序,其特征在于,使计算机作为如下所述的单元来发挥功能:
多个解码部,其执行彼此不同的音频解码处理而由码序列生成音频信号;
提取部,其从具有分别包含音频信号的码序列的多个帧及/或分别包含多个帧的多个超级帧的流中,提取长时期编码处理信息,该长时期编码处理信息对于该多个帧是单一的长时期编码处理信息、且表示在该多个帧的码序列的生成中使用了共同的音频编码处理,或者该长时期编码处理信息对于该多个超级帧是单一的长时期编码处理信息、且表示在该多个超级帧的码序列的生成中使用了共同的一组音频编码处理;以及
选择部,其根据提取出所述长时期编码处理信息的情况,选择所述多个解码部中的、在所述多个帧的码序列的解码中共同使用的解码部,或者,选择所述多个解码部中的、在所述多个超级帧的码序列的解码中共同使用的一组解码部。
12.一种程序,其特征在于,使计算机作为如下所述的单元来发挥功能:
多个编码部,其执行彼此不同的音频编码处理而由音频信号生成码序列;
选择部,其选择所述多个编码部中的、在多个帧的音频信号的编码中共同使用的编码部,或者,选择在分别包含多个帧的多个超级帧的音频信号的编码中共同使用的一组编码部;
生成部,其生成长时期编码处理信息,该长时期编码处理信息对于所述多个帧是单一的长时期编码处理信息、且表示在该多个帧的码序列的生成中使用了共同的音频编码处理,或者,该长时期编码处理信息对于所述多个超级帧是单一的长时期编码处理信息、且表示在该多个超级帧的码序列的生成中使用了共同的一组音频编码处理;以及
输出部,其输出流,该流包含由通过所述选择部选择的所述编码部所生成的所述多个帧的码序列、或者由通过所述选择部选择的所述一组编码部所生成的所述多个超级帧的码序列、以及所述长时期编码处理信息。
CN201180038817.2A 2010-08-13 2011-08-11 音频解码装置、音频解码方法、音频编码装置、音频编码方法 Active CN103098125B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510151793.1A CN104835501B (zh) 2010-08-13 2011-08-11 音频解码装置、音频解码方法、音频编码装置、音频编码方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010181345A JP5749462B2 (ja) 2010-08-13 2010-08-13 オーディオ復号装置、オーディオ復号方法、オーディオ復号プログラム、オーディオ符号化装置、オーディオ符号化方法、及び、オーディオ符号化プログラム
JP2010-181345 2010-08-13
PCT/JP2011/068388 WO2012020828A1 (ja) 2010-08-13 2011-08-11 オーディオ復号装置、オーディオ復号方法、オーディオ復号プログラム、オーディオ符号化装置、オーディオ符号化方法、及び、オーディオ符号化プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN201510151793.1A Division CN104835501B (zh) 2010-08-13 2011-08-11 音频解码装置、音频解码方法、音频编码装置、音频编码方法

Publications (2)

Publication Number Publication Date
CN103098125A true CN103098125A (zh) 2013-05-08
CN103098125B CN103098125B (zh) 2015-04-29

Family

ID=45567788

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201510151793.1A Active CN104835501B (zh) 2010-08-13 2011-08-11 音频解码装置、音频解码方法、音频编码装置、音频编码方法
CN201180038817.2A Active CN103098125B (zh) 2010-08-13 2011-08-11 音频解码装置、音频解码方法、音频编码装置、音频编码方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201510151793.1A Active CN104835501B (zh) 2010-08-13 2011-08-11 音频解码装置、音频解码方法、音频编码装置、音频编码方法

Country Status (6)

Country Link
US (1) US9280974B2 (zh)
EP (1) EP2605240B1 (zh)
JP (1) JP5749462B2 (zh)
CN (2) CN104835501B (zh)
TW (2) TWI476762B (zh)
WO (1) WO2012020828A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106796800A (zh) * 2014-07-28 2017-05-31 弗劳恩霍夫应用研究促进协会 使用频域处理器、时域处理器和用于连续初始化的交叉处理器的音频编码器和解码器
US10468046B2 (en) 2012-11-13 2019-11-05 Samsung Electronics Co., Ltd. Coding mode determination method and apparatus, audio encoding method and apparatus, and audio decoding method and apparatus
CN110491401A (zh) * 2014-05-01 2019-11-22 日本电信电话株式会社 周期性综合包络序列生成装置、方法、程序、记录介质

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5749462B2 (ja) * 2010-08-13 2015-07-15 株式会社Nttドコモ オーディオ復号装置、オーディオ復号方法、オーディオ復号プログラム、オーディオ符号化装置、オーディオ符号化方法、及び、オーディオ符号化プログラム
US8620660B2 (en) * 2010-10-29 2013-12-31 The United States Of America, As Represented By The Secretary Of The Navy Very low bit rate signal coder and decoder
EP2830062B1 (en) 2012-03-21 2019-11-20 Samsung Electronics Co., Ltd. Method and apparatus for high-frequency encoding/decoding for bandwidth extension
CN103827964B (zh) * 2012-07-05 2018-01-16 松下知识产权经营株式会社 编解码系统、解码装置、编码装置以及编解码方法
EP2980794A1 (en) * 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder and decoder using a frequency domain processor and a time domain processor
TWI602172B (zh) * 2014-08-27 2017-10-11 弗勞恩霍夫爾協會 使用參數以加強隱蔽之用於編碼及解碼音訊內容的編碼器、解碼器及方法
US10499229B2 (en) * 2016-01-24 2019-12-03 Qualcomm Incorporated Enhanced fallback to in-band mode for emergency calling
EP3891973B1 (en) * 2019-01-31 2022-07-06 British Telecommunications public limited company Methods and apparatus for the encoding of audio and/or video data
US11495240B1 (en) * 2019-07-23 2022-11-08 Amazon Technologies, Inc. Management of local devices
US11392401B1 (en) 2019-07-23 2022-07-19 Amazon Technologies, Inc. Management of and resource allocation for local devices
US10978083B1 (en) * 2019-11-13 2021-04-13 Shure Acquisition Holdings, Inc. Time domain spectral bandwidth replication
EP4138396A4 (en) * 2020-05-21 2023-07-05 Huawei Technologies Co., Ltd. AUDIO DATA TRANSMISSION METHOD AND DEVICE ASSOCIATED

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000267699A (ja) * 1999-03-19 2000-09-29 Nippon Telegr & Teleph Corp <Ntt> 音響信号符号化方法および装置、そのプログラム記録媒体、および音響信号復号装置
CN1344072A (zh) * 1994-10-06 2002-04-10 皇家菲利浦电子有限公司 采用不同编码原理的传送系统
JP2008197199A (ja) * 2007-02-09 2008-08-28 Matsushita Electric Ind Co Ltd オーディオ符号化装置及びオーディオ復号化装置
US20100145688A1 (en) * 2008-12-05 2010-06-10 Samsung Electronics Co., Ltd. Method and apparatus for encoding/decoding speech signal using coding mode

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW321810B (zh) * 1995-10-26 1997-12-01 Sony Co Ltd
JP3252782B2 (ja) * 1998-01-13 2002-02-04 日本電気株式会社 モデム信号対応音声符号化復号化装置
JP3784583B2 (ja) * 1999-08-13 2006-06-14 沖電気工業株式会社 音声蓄積装置
US6658381B1 (en) 1999-10-15 2003-12-02 Telefonaktiebolaget Lm Ericsson (Publ) Methods and systems for robust frame type detection in systems employing variable bit rates
TW501376B (en) * 2001-02-09 2002-09-01 Elan Microelectronics Corp Decoding device and method of digital audio
TW561451B (en) * 2001-07-27 2003-11-11 At Chip Corp Audio mixing method and its device
MXPA03005133A (es) * 2001-11-14 2004-04-02 Matsushita Electric Ind Co Ltd Dispositivo de codificacion, dispositivo de decodificacion y sistema de los mismos.
JP2003173622A (ja) * 2001-12-04 2003-06-20 Matsushita Electric Ind Co Ltd 符号化音声データ復号化装置及び符号化音声データ復号化方法
JP2003195894A (ja) * 2001-12-27 2003-07-09 Mitsubishi Electric Corp 符号化装置、復号化装置、符号化方法、及び復号化方法
WO2005099243A1 (ja) * 2004-04-09 2005-10-20 Nec Corporation 音声通信方法及び装置
EP1780895B1 (en) * 2004-07-28 2020-07-01 III Holdings 12, LLC Signal decoding apparatus
JP4628798B2 (ja) * 2005-01-13 2011-02-09 Kddi株式会社 通信端末装置
US7177804B2 (en) * 2005-05-31 2007-02-13 Microsoft Corporation Sub-band voice codec with multi-stage codebooks and redundant coding
EP2131590A1 (en) * 2008-06-02 2009-12-09 Deutsche Thomson OHG Method and apparatus for generating or cutting or changing a frame based bit stream format file including at least one header section, and a corresponding data structure
US20100114568A1 (en) * 2008-10-24 2010-05-06 Lg Electronics Inc. Apparatus for processing an audio signal and method thereof
US8023530B1 (en) * 2009-01-07 2011-09-20 L-3 Communications Corp. Physical layer quality of service for wireless communications
JP5749462B2 (ja) * 2010-08-13 2015-07-15 株式会社Nttドコモ オーディオ復号装置、オーディオ復号方法、オーディオ復号プログラム、オーディオ符号化装置、オーディオ符号化方法、及び、オーディオ符号化プログラム
US8976730B2 (en) * 2011-07-22 2015-03-10 Alcatel Lucent Enhanced capabilities and efficient bandwidth utilization for ISSI-based push-to-talk over LTE

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1344072A (zh) * 1994-10-06 2002-04-10 皇家菲利浦电子有限公司 采用不同编码原理的传送系统
JP2000267699A (ja) * 1999-03-19 2000-09-29 Nippon Telegr & Teleph Corp <Ntt> 音響信号符号化方法および装置、そのプログラム記録媒体、および音響信号復号装置
JP2008197199A (ja) * 2007-02-09 2008-08-28 Matsushita Electric Ind Co Ltd オーディオ符号化装置及びオーディオ復号化装置
US20100145688A1 (en) * 2008-12-05 2010-06-10 Samsung Electronics Co., Ltd. Method and apparatus for encoding/decoding speech signal using coding mode

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10468046B2 (en) 2012-11-13 2019-11-05 Samsung Electronics Co., Ltd. Coding mode determination method and apparatus, audio encoding method and apparatus, and audio decoding method and apparatus
US11004458B2 (en) 2012-11-13 2021-05-11 Samsung Electronics Co., Ltd. Coding mode determination method and apparatus, audio encoding method and apparatus, and audio decoding method and apparatus
CN110491401A (zh) * 2014-05-01 2019-11-22 日本电信电话株式会社 周期性综合包络序列生成装置、方法、程序、记录介质
CN110491401B (zh) * 2014-05-01 2022-10-21 日本电信电话株式会社 周期性综合包络序列生成装置、方法、记录介质
CN106796800A (zh) * 2014-07-28 2017-05-31 弗劳恩霍夫应用研究促进协会 使用频域处理器、时域处理器和用于连续初始化的交叉处理器的音频编码器和解码器

Also Published As

Publication number Publication date
CN104835501B (zh) 2018-08-14
US20130159005A1 (en) 2013-06-20
EP2605240A1 (en) 2013-06-19
US9280974B2 (en) 2016-03-08
JP2012042534A (ja) 2012-03-01
WO2012020828A1 (ja) 2012-02-16
EP2605240A4 (en) 2014-04-02
CN103098125B (zh) 2015-04-29
TWI570712B (zh) 2017-02-11
TWI476762B (zh) 2015-03-11
CN104835501A (zh) 2015-08-12
EP2605240B1 (en) 2016-10-05
TW201514975A (zh) 2015-04-16
TW201222531A (en) 2012-06-01
JP5749462B2 (ja) 2015-07-15

Similar Documents

Publication Publication Date Title
CN103098125B (zh) 音频解码装置、音频解码方法、音频编码装置、音频编码方法
KR101452722B1 (ko) 신호 부호화 및 복호화 방법 및 장치
US9818411B2 (en) Apparatus for encoding and decoding of integrated speech and audio
RU2544789C2 (ru) Способ кодирования и устройство для декодирования основывающегося на объектах аудиосигнала
US8364497B2 (en) Apparatus and method for coding and decoding multi-object audio signal with various channel
EP2849180B1 (en) Hybrid audio signal encoder, hybrid audio signal decoder, method for encoding audio signal, and method for decoding audio signal
JP2014149552A (ja) 符号化装置および復号装置
KR20110016668A (ko) 시멘틱 정보를 이용한 멀티 채널 오디오 인코딩 및 디코딩 방법 및 장치
EP2426662B1 (en) Acoustic signal decoding device, method and corresponding program
KR101434834B1 (ko) 다채널 오디오 신호의 부호화/복호화 방법 및 장치
JP5174651B2 (ja) 低演算量符号励振線形予測符号化
KR20120060033A (ko) 분할된 음성 프레임의 디코딩을 위한 음성 디코더 및 그 방법
KR20050122268A (ko) 부호 변환 방법 및 장치와 기록 매체

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant