CN101185123B - 可扩展编码装置及可扩展编码方法 - Google Patents

可扩展编码装置及可扩展编码方法 Download PDF

Info

Publication number
CN101185123B
CN101185123B CN2006800191271A CN200680019127A CN101185123B CN 101185123 B CN101185123 B CN 101185123B CN 2006800191271 A CN2006800191271 A CN 2006800191271A CN 200680019127 A CN200680019127 A CN 200680019127A CN 101185123 B CN101185123 B CN 101185123B
Authority
CN
China
Prior art keywords
sound channel
sound
unit
signal
coding unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN2006800191271A
Other languages
English (en)
Other versions
CN101185123A (zh
Inventor
后藤道代
吉田幸司
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
III Holdings 12 LLC
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Publication of CN101185123A publication Critical patent/CN101185123A/zh
Application granted granted Critical
Publication of CN101185123B publication Critical patent/CN101185123B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/24Variable rate codecs, e.g. for generating different qualities using a scalable representation such as hierarchical encoding or layered encoding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders

Abstract

公开了可扩展编码装置,能够在防止解码信号的音质恶化的同时削减编码速率,并削减电路规模。在该装置中,扩展层被大致分为对第一声道进行处理的系统和对第二声道进行处理的系统。对第一声道进行处理的音源预测单元(112)基于单声道信号的驱动音源信号预测第一声道的驱动音源信号,并将预测出的驱动音源信号通过乘法器(113)输出到CELP编码单元(114)。对第二声道进行处理的音源预测单元(115)基于单声道信号的驱动音源信号和来自CELP编码单元(114)的输出,预测第二声道的驱动音源信号,并将预测出的驱动音源信号通过乘法器(116)输出到CELP编码单元(117)。CELP编码单元(114和117)使用各个预测驱动音源信号,对各个声道进行CELP编码。

Description

可扩展编码装置及可扩展编码方法
技术领域
本发明涉及对立体声信号进行编码的可扩展编码装置及可扩展编码方法。
背景技术
像通过移动电话的通话那样,在移动通信系统的语音通信中,目前通过单声道方式的通信(单声道通信)为主流。但是,今后如果像第四代移动通信系统那样,推进传输速率的更高比特速率化,则能够确保用于传输多个声道的频带,因此在语音通信中也可以期待通过立体声方式的通信(立体声通信)的普及。
例如,考虑在装备了HDD(硬盘)的便携式音响播放器中记录音乐,并对该播放器安装立体声用的耳机和头戴耳机等而欣赏立体声音乐的用户日益增加的现状,可预测到将来移动电话和音频播放器会结合,从而利用立体声用的耳机和头戴耳机等的设备并进行通过立体声方式的语音通信的生活方式普及起来。而且,可以预测到在最近在逐渐普及的电视会议等的环境中,为了实现具有现场感的会话,同样进行立体声通信。
另一方面,在移动通信系统和有线方式的通信系统等中,为了减轻系统的负荷,一般通过对所传输的语音信号预先进行编码而谋求传输信息的低比特速率化。由此,对立体声语音信号进行编码的技术最近备受瞩目。例如,有一种通过使用声道间预测(cross-channel prediction)来提高预测残差信号的编码效率的编码技术,所述预测残差信号是进行了立体声语音信号的CELP编码的加权的预测残差信号(参照非专利文献1)。
另外,也可以预测到即使普及了立体声通信,仍然进行单声道通信。这是因为,由于单声道通信的比特速率低而可以期待降低通信成本,而且仅支持单声道通信的移动电话的电路规模小而价格较低,因此不希望高质量的语音通信的用户趋于购买仅支持单声道通信的移动电话。所以,在一个通信系统中会同时存在支持立体声通信的移动电话和支持单声道通信的移动电话, 从而通信系统需要支持这些立体声通信和单声道通信的双方。进而,由于在移动通信系统中通过无线信号交换通信数据,所以根据传输路径环境,有时会丢失通信数据的一部分。于是,如果移动电话具有即使丢失了通信数据的一部分也能够基于剩余的接收数据恢复原来的通信数据的功能,就非常有用。
作为能够支持立体声通信和单声道通信的双方,而且即使丢失了通信数据的一部分也能够基于剩余的数据恢复原来的通信数据的功能,有由立体声信号和单声道信号构成的可扩展编码。作为具有该功能的可扩展编码装置的例子,例如有非专利文献2所公开的装置。
非专利文献1:Ramprashad S.A.、“Stereophonic CELP coding using crosschannel prediction”、Proc.IEEE Workshop on Speech Coding、Pages:136-138、(17-20 Sept.2000)
非专利文献2:ISO/IEC 14496-3:1999(B.14 Scalable AAC with core coder)
发明内容
发明要解决的问题
然而,非专利文献1所公开的技术,对两个声道的语音信号分别具有独立的自适应码本和固定码本等,对每个声道产生各自的驱动音源信号而生成合成信号。也就是说,对每个声道进行语音信号的CELP编码,并将得到的各个声道的编码信息输出到解码端。因此,存在如下问题:与声道数目相应数目的编码参数被生成而提高编码速率,同时编码装置的电路规模也变大。假如使自适应码本和固定码本等的个数减少,虽然编码速率降低而且可削减电路规模,但反而导致解码信号的极大的音质劣化。这是在非专利文献2所公开的可扩展编码装置中也同样会发生的问题。
因此,本发明的目的在于提供可扩展编码装置和可扩展编码方法,能够在防止解码信号的音质恶化的同时削减编码速率,并削减电路规模。
解决问题的方案
本发明的可扩展编码装置采用的结构包括:单声道编码单元,对单声道信号进行编码;第一预测单元,基于在所述单声道编码单元的编码中得到的驱动音源,预测在立体声信号中所包含的第一声道的驱动音源;第一声道编码单元,使用所述第一预测单元所预测的驱动音源,对第一声道进行编码;第二预测单元,基于在所述单声道编码单元和所述第一声道编码单元的各个 编码中得到的驱动音源,预测在所述立体声信号中所包含的第二声道的驱动音源;以及第二声道编码单元,使用所述第二预测单元所预测的驱动音源,对第二声道进行编码。
发明效果
根据本发明,对立体声语音信号,能够在防止解码信号的音质恶化的同时削减编码速率,并削减电路规模。
附图说明
图1是表示实施方式1的可扩展编码装置的主要结构的方框图;
图2是表示实施方式1的立体声编码单元内部的主要结构的方框图;
图3是用于说明在实施方式1的音源预测单元中进行的预测处理的步骤的流程图;
图4是用于说明在实施方式1的音源预测单元中进行的预测处理的步骤的流程图;
图5是更详细地说明实施方式1的立体声编码单元内部的结构的方框图;
图6是表示实施方式2的可扩展编码装置的扩张层的主要结构的方框图;
图7是表示实施方式3的立体声编码单元内部的主要结构的方框图;
图8是更详细地说明实施方式3的立体声编码单元内部的结构的方框图;
图9是表示在实施方式3的码本选择单元中的比特分配处理的步骤的流程图;以及
图10是表示在实施方式3的码本选择单元中的比特分配处理的其它的步骤的流程图。
具体实施方式
以下,参照附图详细说明本发明的实施方式。
(实施方式1)
图1是表示本发明的实施方式1的可扩展编码装置100的主要结构的方框图。另外,这里以对由两个声道构成的立体声语音信号进行编码的情况为例进行说明,而且以下所示的第一声道和第二声道分别表示L声道和R声道,或者其相反的声道。
可扩展编码装置100包括:加法器101、乘法器102、单声道编码单元 103以及立体声编码单元104,而且加法器101、乘法器102和单声道编码单元103构成基本层,立体声编码单元104构成扩展层。
可扩展编码装置100的各个部分进行以下动作。
加法器101将输入到可扩展编码装置100的第一声道信号CH1和第二声道信号CH2相加,生成和信号。乘法器102将该和信号乘以1/2而将标量(scale)减半,生成单声道信号M。也就是说,加法器101和乘法器102对第一声道信号CH1和第二声道信号CH2求平均,并将其作为单声道信号M。单声道编码单元103对该单声道信号M进行编码,并将得到的编码参数输出。这里,例如在CELP编码时,编码参数为LPC(LSP)参数、自适应码本索引、自适应音源增益、固定码本索引以及固定音源增益。另外,单声道编码单元103将在编码时得到的驱动音源信号输出到立体声编码单元104。
立体声编码单元104对输入到可扩展编码装置100的第一声道信号CH1和第二声道信号CH2,使用从单声道编码单元103输出的驱动音源信号进行后述的编码,并将得到的立体声信号的编码参数输出。
该可扩展编码装置100的特征之一是,从基本层输出单声道信号的编码参数,而从扩展层输出立体声信号的编码参数。该立体声信号的编码参数为在解码装置中通过与基本层(单声道信号)的编码参数一起进行解码而能够得到立体声信号的参数。也就是说,本实施方式的可扩展编码装置实现由单声道信号和立体声信号构成的可扩展编码。例如,得到基本层和扩展层的编码参数的解码装置,即使因传输路径环境的恶化而未能得到扩展层的编码参数而只能得到基本层的编码参数,虽然质量低,但是能够解码出单声道信号。另外,如果解码装置能够得到基本层和扩展层双方的编码参数,就能够使用这些参数来解码出高质量的立体声信号。
图2是表示上述立体声编码单元104内部的主要结构的方框图。
立体声编码单元104包括:LPC反滤波器111、音源预测单元112、乘法器113、CELP编码单元114、音源预测单元115、乘法器116以及CELP编码单元117,而且大致可分为对第一声道信号进行处理的系统(LPC反滤波器111、音源预测单元112、乘法器113以及CELP编码单元114)和对第二声道信号进行处理的系统(音源预测单元115、乘法器116以及CELP编码单元117)。
首先说明对第一声道信号的处理。
音源预测单元112基于从基本层的单声道编码单元103输出的单声道信号的驱动音源信号预测第一声道的驱动音源信号,并将预测出的驱动音源信号输出到乘法器113,同时将该预测的相关信息(预测参数)P1输出。对于该预测方法,将在后面叙述。乘法器113将在音源预测单元112得到的第一声道的驱动音源信号乘以从CELP编码单元114反馈的预测音源增益,并输出到CELP编码单元114。CELP编码单元114使用从乘法器113输出的第一声道的驱动音源信号,对第一声道信号进行CELP编码,并将得到的第一声道用的LPC量化索引P2和码本索引P3输出。另外,CELP编码单元114将通过LPC分析和LPC量化得到的第一声道信号的量化LPC系数输出到LPC反滤波器111。LPC反滤波器111使用该量化LPC系数对第一声道信号进行逆滤波处理,并将得到的第一声道信号的驱动音源信号输出到音源预测单元112。
接着,说明对第二声道信号的处理。
音源预测单元115基于从基本层的单声道编码单元103输出的单声道信号的驱动音源信号和从CELP编码单元114输出的第一声道信号的驱动音源信号,预测第二声道的驱动音源信号,并将预测出的驱动音源信号输出到乘法器116。对于该预测方法,也将在后面叙述。乘法器116将在音源预测单元115得到的第二声道的驱动音源信号乘以从CELP编码单元117所反馈的预测音源增益,并输出到CELP编码单元117。CELP编码单元117使用从乘法器116输出的第二声道的驱动音源信号,对第二声道信号进行CELP编码,并将得到的第二声道用的LPC量化索引P4和码本索引P5输出。
图3是用于说明在音源预测单元112中进行的预测处理的步骤的流程图。
单声道信号的驱动音源信号EXCM和第一声道信号的驱动音源信号EXCCH1被输入到音源预测单元112(ST1010)。音源预测单元112计算使这些驱动音源信号之间的互相关函数的值为最大的延迟时间差(ST1020)。这里,能够基于以下的等式(1)求得EXCM和EXCCH1的互相关函数Φ。
φ ( m ) = Σ n = 0 FL - 1 EXC M ( n - m ) · EXC CH 1 ( n ) . . . ( 1 )
n为帧内的音源信号的样本号,FL为1个帧的样本数(帧长度)。另外,m表示样本数,而且假设取预先决定的从min_m至max_m的范围的值,并将Φ(m)为最大时的m=M设为EXCCH1相对于EXCM的延迟时间差。
然后,音源预测单元112如下求振幅比(ST1030)。首先,基于以下的等 式(2)求EXCM的1个帧内的能量EM,并基于以下的等式(3)求EXCCH1的1个帧内的能量ECH1
E M = Σ n = 0 FL - 1 EXC M ( n ) 2 . . . ( 2 )
E CH 1 = Σ n = 0 FL - 1 EXC CH 1 ( n ) 2 . . . ( 3 )
这里,与等式(1)同样地,n为样本号,FL为1个帧的样本数(帧长度)。而且,EXCM(n)和EXCCH1(n)分别表示单声道信号的驱动音源信号和第一声道信号的驱动音源信号的第n样本的振幅。然后,基于以下的等式(4)求单声道信号的驱动音源信号和第一声道信号的驱动音源信号的能量比的平方根C,并将其作为振幅比。
C = E CH 1 E M . . . ( 4 )
音源预测单元112对计算出的延迟时间差M和振幅比C以预先决定的比特数进行量化,使用量化后的延迟时间差MQ和振幅比CQ并根据以下的等式(5),基于单声道信号的驱动音源信号EXCM求第一声道信号的驱动音源信号EXCCH1’(ST1040)。
EXCCH1′(n)=CQ·EXCM(n-MQ)    …(5)
(其中,n=0,…,FL-1)
图4是用于说明在音源预测单元115中进行的预测处理的步骤的流程图。
音源预测单元115使用单声道信号的驱动音源信号EXCM和第一声道信号的驱动音源信号EXCCH1”(n),基于以下的等式(6)求第二声道信号的驱动音源信号EXCCH2’。
EXCCH2′(n)=2·EXCM(n)-EXCCH1″(n)  …(6)
(其中,n=0,…,FL-1)
但是,该等式(6)为在使单声道信号为第一声道信号和第二声道信号的平均时的等式。
图5是更详细地说明立体声编码单元104内部的结构的方框图。
如该图所示,立体声编码单元104具有第一声道用的自适应码本127和固定码本128,并通过由失真最小化单元126控制的码本搜索,生成第一声道用的驱动音源信号。
LPC分析单元121对第一声道信号进行线性预测分析,求作为谱包络信息的LPC系数。LPC量化单元122对该LPC系数进行量化,并将得到的量化LPC系数输出到LPC合成滤波器123和LPC反滤波器111,同时将表示该LPC系数的LPC量化索引P2输出。
另一方面,自适应码本127根据来自失真最小化单元126的指示,将驱动音源输出到乘法器129。固定码本128也同样地根据来自失真最小化单元126的指示,将驱动音源输出到乘法器130。乘法器129和乘法器130根据失真最小化单元126的指示,将来自自适应码本127和固定码本128的输出乘以自适应码本增益和固定码本增益,并输出到加法器131。加法器131对由音源预测单元112预测出的单声道信号的驱动音源信号,加上从各个码本输出的驱动音源信号。
LPC合成滤波器123将从LPC量化单元122输出的量化LPC系数作为滤波器系数,由从加法器131输出的驱动音源信号作为LPC合成滤波器而驱动,并将合成信号输出到加法器124。加法器124通过从第一声道信号减去合成信号计算编码失真,并输出到听觉加权单元125。听觉加权单元125使用将从LPC分析单元121输出的LPC系数作为滤波器系数的听觉加权滤波器,对编码失真进行听觉上的加权,并输出到失真最小化单元126。
失真最小化单元126对每个子帧求自适应码本127和固定码本128的各个索引,以使通过听觉加权单元125输出的编码失真最小,并将这些索引作为编码参数P3输出。另外,在上述的等式(6)中,将码本失真为最小时的第一声道信号的驱动音源信号表示为EXCCH1”(n)。
另外,编码失真最小时的驱动音源(加法器131的输出),对每个子帧被反馈到自适应码本127。
另一方面,立体声编码单元104具有第二声道用的自适应码本147和固定码本148,并通过码本搜索,生成第二声道用的驱动音源信号。加法器151对由音源预测单元115预测出的单声道信号的驱动音源信号,相加从各个码本输出的驱动音源信号。但是,对这些驱动音源信号,通过乘法器116、149和150被乘以了适当的增益。
LPC合成滤波器143使用由LPC分析单元141进行LPC分析,并由LPC量化单元142进行量化后的LPC系数,由从加法器151输出的第二声道的驱 动音源信号而驱动,并将合成信号输出到加法器144。加法器144通过从第二声道信号减去合成信号计算编码失真,并输出到听觉加权单元145。
失真最小化单元146对每个子帧求自适应码本147和固定码本148的各个索引,以使通过听觉加权单元145输出的编码失真最小,并将这些索引作为编码参数P5输出。另外,在上述的等式(6)中,将码本失真为最小时的第一声道信号的驱动音源信号表示为EXCCH1”(n)。
生成出的编码参数P1至P5,作为立体声信号的编码参数被发送到解码装置,并在对第二声道信号进行解码时被使用。
如上所述,根据本实施方式,扩展层的立体声编码单元104,先于第二声道,对于第一声道使用单声道信号进行CELP编码,而对于第二声道,使用第一声道的CELP编码的结果高效率地进行编码。尤其是就驱动音源而言,着眼于在构成立体声信号的各个声道信号和单声道信号之间存在较强的相关性,在本实施方式中,在对第一声道的CELP编码中对于音源信息基于单声道信号的驱动音源预测第一声道的驱动音源来提高预测效率并降低编码速率,另一方面,对于声道信息(vocal tract information),对第一声道按照常规那样直接进行LPC分析从而进行编码。因此,第一声道和第二声道的驱动音源的预测精度提高,进而,对于立体声语音信号,能够防止解码信号的音质的恶化并削减编码速率。而且,根据本实施方式,能够削减电路规模。
另外,虽然在本实施方式中以求延迟时间差M之后求振幅比C的情况为例进行了说明,但是可以同时或者以相反的顺序进行这些处理。
另外,虽然在本实施方式中以求得单声道信号作为第一声道和第二声道的平均的情况为例进行了说明,但是并不限于此,也可以通过其它方法求得。
另外,本实施方式的立体声编码单元104先对第一声道使用单声道信号的驱动音源进行CELP编码,而对第二声道,使用第一声道的CELP编码的结果高效率地进行编码。因此,在先进行编码的第一声道的编码精度也影响到第二声道的编码精度。因此,如果对第一声道的CELP编码比第二声道的CELP编码分配更多的比特数,则能够提高编码装置的编码性能。
(实施方式2)
在实施方式1中所使用的“第一声道”和“第二声道”,具体地为在立体声信号中的R声道或L声道。在实施方式1中,对没有特别限定第一声道和第二声道相当于R声道和L声道中的哪一方,可以相当于任一方的情况进行了说明。但是,如果通过以下所述的方法将第一声道限定于特定的声道,也就是选择R声道和L声道的一方作为第一声道,则能够进一步提高可扩展编码装置的编码性能。
图6是表示本发明的实施方式2的可扩展编码装置的扩张层的主要结构的方框图。另外,对与实施方式1中所示的可扩展编码装置相同的结构部分附加相同的标号,省略其说明。
对于第一声道信号,在LPC分析单元201-1中进行LPC分析,在LPC量化单元202-1中进行量化,在LPC反滤波器203-1中使用量化LPC系数计算第一声道信号的驱动音源信号,并输出到声道信号判定单元204。另外,LPC分析单元201-2、LPC量化单元202-2以及LPC反滤波器203-2,对第二声道信号进行与第一声道信号同样的处理。
声道信号判定单元204分别基于以下的等式(7)和(8),计算所输入的第一声道信号和第二声道信号的驱动音源信号与单声道信号的驱动音源信号之间的互相关函数。
φ CH 1 ( m ) = Σ n = 0 FL - 1 EXC M ( n - m ) · EXC CH 1 ( n ) . . . ( 7 )
φ CH 2 ( m ) = Σ n = 0 FL - 1 EXC M ( n - m ) · EXC CH 2 ( n ) . . . ( 8 )
声道信号判定单元204分别检索使计算出的ΦCH1(m)和ΦCH2(m)最大的m,对m取该值时的ΦCH1(m)和ΦCH2(m)的值进行比较,并将表示较大的值的声道,即相关性较高的声道选择作为第一声道。表示该选择声道的声道选择标识被输出到声道信号选择单元205。而且,声道选择标识与LPC量化索引和码本索引一起,作为编码参数以帧为单位被输出到解码装置。
声道信号选择单元205基于从声道信号判定单元204输出的声道选择标识,将输入立体声信号(R声道信号和L声道信号)分成作为立体声编码单元104的输入的第一声道信号和第二声道信号。
如上所述,根据本实施方式,选择与单声道信号的相关性较高的声道,并将其作为立体声编码单元104的第一声道。由此,能够提高编码装置的编码性能。这是因为,立体声编码单元104先对第一声道使用单声道信号的驱动音源进行CELP编码,对于第二声道,使用第一声道的CELP编码的结果高效率地进行编码。因此,在先进行编码的第一声道的编码精度也影响到第 二声道的编码精度。也就是说,可以容易理解,如果像本实施方式那样将与单声道信号的相关性较高的声道作为第一声道,则能够提高第一声道的编码精度。
而且,基于同样的理由,如果对第一声道的CELP编码比第二声道的CELP编码分配更多的比特数,则能够进一步提高编码装置的编码性能。
另外,声道选择标识也可以汇总地发送而不对每个帧发送,以便多个帧能够选择相同的声道信号。或者,也可以在首先计算几个帧的互相关函数之后决定将哪一方声道信号作为第一声道,并首先发送其声道选择标记(flag)。
(实施方式3)
本发明的实施方式3公开在本发明的可扩展编码装置中改变比特分配的方法。
一般而言,分配到编码处理的编码比特越多,越减少编码失真。例如,由于本发明的可扩展编码装置进行第一声道信号的编码和第二声道信号的编码,所以如果能够增加分配到第一声道和第二声道双方的编码比特,则能够减少第一声道的编码失真和第二声道的编码失真的双方。但是,实际上,分配到第一声道的比特数和分配到第二声道的比特数之和有上限。因此,如果分配到第一声道的比特数增加,虽然第一声道信号的编码失真会减少,但是由于分配到第二声道的比特数减少,所以第二声道信号的编码失真增大。
但是,本发明的可扩展编码装置,使第一声道用的比特数增加时的对第二声道的编码失真的影响并不只是负面影响。这是因为,在本说明的可扩展编码装置中,由于第二声道的驱动音源信号是基于单声道信号的驱动音源信号和第一声道信号的驱动音源信号预测的(参照图4),所以第二声道信号的编码失真取决于第一声道信号的编码失真。因此,考虑第一声道的编码失真和第二声道的编码失真相互的关联性,如果分配到第一声道的比特数增加,随着第一声道的编码失真的减少,第二声道信号的编码失真也减少。也就是说,在本发明的可扩展编码装置中,第一声道用的比特数的增加对第二声道的编码失真的影响中包含有正面影响。
因此,本实施方式的可扩展编码装置,通过对第一声道和第二声道自适应地分配比特数,从而提高可扩展编码装置全体的编码效率。更详细而言,在本实施方式中,对第一声道和第二声道自适应地分配比特数,以使第一声道的编码失真和第二声道的编码失真均等。
由于本实施方式的可扩展编码装置300具有与实施方式1所示的可扩展编码装置100(参照图1)相同的基本结构,所以省略表示可扩展编码装置300的结构的方框图。可扩展编码装置300的立体声编码单元304,由于其一部分结构和动作与实施方式1所示的立体声编码单元104不同,所以附加不同的标号。可扩展编码装置300中的比特分配是在立体声编码单元304内部进行的。
图7是表示本实施方式的立体声编码单元304内部的主要结构的方框图。立体声编码单元304具有与实施方式1所示的立体声编码单元104(参照图2)相同的基本结构,对相同的结构部分附加相同的标号,省略其说明。本实施方式的立体声编码单元304还具有码本选择单元318,这一点与实施方式1所示的立体声编码单元104不同。另外,CELP编码单元314和CELP编码单元317分别具有与实施方式1所示的CELP编码单元114和CELP编码单元117相同的基本结构,而一部分结构和动作不同。以下说明这些不同方面。
CELP编码单元314将第一声道用的LPC量化索引和第一声道用码本索引输出到码本选择单元318而不作为编码参数输出,这一点与实施方式1所示的CELP编码单元114不同。另外,CELP编码单元314还将第一声道信号的最小编码失真输出到码本选择单元318,并由码本选择单元318反馈第一声道用的码本选择索引,这一点与实施方式1所示的CELP编码单元114不同。这里,第一声道的最小编码失真为,通过在CELP编码单元314内部为了使第一声道的编码失真最小而进行的闭环的失真最小化处理得到的第一声道信号的编码失真的最小值。
CELP编码单元317将第二声道用的LPC量化索引和第二声道用码本索引输出到码本选择单元318而不作为编码参数输出,这一点与实施方式1所示的CELP编码单元117不同。另外,CELP编码单元317还将第二声道信号的最小编码失真输出到码本选择单元318,并由码本选择单元318反馈第二声道用的码本选择索引,这一点与实施方式1所示的CELP编码单元117不同。这里,第二声道的最小编码失真为,通过在CELP编码单元317内部为了使第二声道的编码失真最小而进行的闭环的失真最小化处理得到的第二声道信号的编码失真的最小值。
码本选择单元318从CELP编码单元314输入第一声道用的LPC量化索引、第一声道用码本索引以及第一声道信号的最小编码失真,而且从CELP 编码单元317输入第二声道用的LPC量化索引、第二声道用码本索引以及第二声道信号的最小编码失真。码本选择单元318使用这些输入进行码本选择处理,将第一声道用的码本选择索引反馈到CELP编码单元314,而且将第二声道用的码本选择索引反馈到CELP编码单元317。编码选择单元318中的码本选择处理为,改变分配到CELP编码单元314和CELP编码单元317的比特数以使第一声道信号的最小编码失真与第二声道信号的最小编码失真均等,并使用第一声道用的码本选择索引和第二声道用的码本选择索引来表示比特数的变化情况的处理。码本选择单元318将第一声道用的LPC量化索引P2、第一声道用码本索引P3、第二声道用的LPC量化索引P4、第二声道用码本索引P5以及比特分配选择信息P6,作为编码参数输出。
图8是更详细地说明本实施方式的立体声编码单元304内部的结构的方框图。该图主要为更详细地表示CELP编码单元314内部的结构,由于CELP编码单元317内部的结构与CELP编码单元314内部的结构相同,所以省略其显示和说明。另外,在该图中,对与实施方式1的图5所示的结构相同的部分省略说明,只对不同的部分进行说明。
固定码本328由第一固定码本328-1至第n固定码本328-n构成,将在第一固定码本328-1至第n固定码本328-n中的某些驱动音源输出,而且驱动音源的输出目的地是切换单元321而不是乘法器130,这一点与实施方式1所示的固定码本128不同。由于第一固定码本328-1至第n固定码本328-n为比特速率互不相同的n个固定码本,所以固定码本328通过使用切换单元321改变驱动音源输出,从而使第一声道用的编码比特数变化。
一般而言,由于固定码本所需的比特数多于自适应码本所需的比特数,所以这里通过改变固定码本328的分配比特数而得到的编码失真的改善效果高于改变自适应码本127的分配比特数而得到的效果。因此,在本实施方式,通过改变固定码本328的固定码本索引而不改变自适应码本127的码本索引,来使分配到两个声道的比特数变化。
LPC量化单元322将第一声道用的LPC量化索引输出到码本选择单元318而不作为编码参数输出,这一点与实施方式1所示的LPC量化单元122不同。
失真最小化单元326将第一声道用码本索引输出到码本选择单元318而不作为编码参数输出,而且对码本选择单元318还输出第一声道信号的最小 编码失真,这一点与实施方式1所示的失真最小化单元126不同。这里,第一声道信号的最小编码失真为:失真最小化单元326基于码本选择单元318的指示而切换第一固定码本328-1至第n固定码本328-n,同时进行为了使第一声道的编码失真最小的闭环的失真最小化处理,最终得到的第一声道信号的编码失真的最小值。
码本选择单元318从LPC量化单元322输入第一声道用的LPC量化索引和第一声道用码本索引,而且从失真最小化单元326输入第一声道信号的最小编码失真。同样地,码本选择单元318从CELP编码单元317输入第二声道用的LPC量化索引、第二声道用码本索引以及第二声道信号的最小编码失真。码本选择单元318使用这些输入进行码本选择处理,将第一声道用的码本选择索引反馈到切换单元321,并将第二声道用的码本选择索引反馈到CELP编码单元317。第一声道用的码本选择索引为,表示固定码本328为了第一声道的编码而使用的、第一固定码本328-1至第n固定码本328-n的各个码本的索引。码本选择单元318将第一声道用的LPC量化索引P2、第一声道用码本索引P3、第二声道用的LPC量化索引P4、第二声道用码本索引P5以及比特分配选择信息P6,分别作为编码参数输出。
切换单元321基于从码本选择单元318输入的码本选择索引,切换在固定码本328和乘法器130之间的路径。例如,在从码本选择单元318输入的码本选择索引所示的码本为第二固定码本328-2时,切换单元321使第二固定码本328-2的驱动音源输出到乘法器130。
图9是表示在码本选择单元318中的比特分配处理的步骤的流程图。该图中所示的处理以帧为单位进行,而且进行比特分配以使第一声道信号的编码失真和第二声道信号的编码失真均等。
首先,在ST3010中,码本选择单元318对两个声道都分配最小的比特数,进行比特分配处理的初始化。也就是说,码本选择单元318通过第一声道用的码本选择索引,对固定码本328进行指示,以使用比特速率最小的固定码本,例如第二固定码本328-2。码本选择单元318对第二声道的处理与对第一声道的处理相同。
接着,在ST3020中,对码本选择单元318输入第一声道信号的最小编码失真和第二声道信号的最小编码失真。也就是说,失真最小化单元326在例如使用第二固定码本328-2作为固定码本328时,求此时的第一声道信号 的编码失真的最小值,并输出到码本选择单元318。这里,固定码本328所使用的固定码本是在ST3020之前的步骤中由码本选择单元318指示的码本。在ST3020中,在第二声道的处理与在第一声道的处理相同。
然后,在ST3030中,码本选择单元318对第一声道信号的最小编码失真和第二声道信号的最小编码失真进行比较。在第一声道信号的最小编码失真大于第二声道信号的最小编码失真时,在ST3040中,码本选择单元318使第一声道用的比特数增加。也就是说,码本选择单元318通过第一声道用的码本选择索引,对固定码本328进行指示,以使用比特速率更高的固定码本,例如第四固定码本328-4。另一方面,在第一声道信号的最小编码失真小于第二声道信号的最小编码失真时,在ST3050中,码本选择单元318使第二声道用的比特数增加。在第二声道用的比特数的增加方法与第一声道用的比特数的增加方法相同。
接着,在ST3060中,判定已经分配到两个声道的比特数的总和是否已达到上限值。在分配到两个声道的比特数的总和未达到上限值时,返回到ST3020而重复进行ST3020至ST3060的处理,直到分配到两个声道的比特数的总和达到上限值为止。
如上所述,码本选择单元318首先对两个声道都分配最小的比特速率,在保持第一声道信号的编码失真和第二声道信号的编码失真均等的同时逐渐增加分配到两个声道的比特数,最终对两个声道分配规定的上限的比特数。也就是说,分配到两个声道的比特数的总和从最小值开始,随着处理的进展逐渐增加而最终达到规定的上限值。
图10是表示在码本选择单元318中的比特分配处理的其它的步骤的流程图。该图中所示的处理也与图9所示的处理同样地以帧为单位进行,而且进行比特分配,以使第一声道信号的最小编码失真和第二声道信号的最小编码失真均等。图9所示的处理,分配到两个声道的比特数的总和从最小值开始,随着处理的进展逐渐增加而最终达到规定的上限值,与此相对,该图中所示的处理,从开始就将规定的上限的比特数均等分配到两个声道,并对两个声道用的比特数的比例调整,直到第一声道信号的编码失真和第二声道信号的编码失真均等为止。另外,对于处理步骤的各个步骤中的可扩展编码装置300的各个结构部分的详细动作,省略说明(参照图9的说明)。首先,在ST3110中,码本选择单元318对两个声道均等分配规定的上限的比特数,进行比特 分配处理的初始化。接着,在ST3120中,对码本选择单元318输入第一声道信号的最小编码失真和第二声道信号的最小编码失真。然后,在ST3130中,码本选择单元318对第一声道信号的最小编码失真和第二声道信号的最小编码失真进行比较。在第一声道信号的最小编码失真大于第二声道信号的最小编码失真时,在ST3140中,码本选择单元318使第一声道用的比特数增加,并使第二声道用的比特数减少。此时,第一声道用的比特数的增加部分与第二声道用的比特数的减少部分相同。另一方面,在第一声道信号的最小编码失真小于第二声道信号的最小编码失真时,在ST3150中,码本选择单元318使第一声道用的比特数减少,并使第二声道用的比特数增加。此时,第一声道用的比特数的减少部分与第二声道用的比特数的增加部分相同。接着,在ST3160中,码本选择单元318判定第一声道信号的最小编码失真与第二声道信号的最小编码失真之间的差是否为规定值以下。也就是说,码本选择单元318判定为第一声道信号的最小编码失真与第二声道信号的最小编码失真之间的差为规定值以下时,判断为第一声道信号的最小编码失真和第二声道信号的最小编码失真均等。在这两个最小编码失真的差不在规定值以下时,返回到ST3120而重复进行ST3120至ST3160的处理,直到这两个最小编码失真的差在规定值以下为止。
如上所述,该图中所示的方法在初始化中将规定的上限的比特数均等地分配到两个声道,这一点与图9所示的比特分配处理的初始化不同,但是进行后续的处理的结果,与图9所示的步骤同样地,将规定的上限的比特数分配到两个声道,以使第一声道信号的编码失真和第二声道信号的编码失真均等。
如上所述,根据本实施方式,由于自适应地分配规定的上限的比特数以使第一声道信号的编码失真和第二声道信号的编码失真均等,所以能够降低编码装置的编码失真,并提高编码装置的编码性能。
另外,虽然在本实施方式中以进行比特分配以使第一声道信号的编码失真和第二声道信号的编码失真均等的情况为例进行了说明,但也可以进行比特分配以使第一声道信号的编码失真和第二声道信号的编码失真之和最小。进行比特分配以使第一声道信号的编码失真和第二声道信号的编码失真之和最小的方法适合用于与通过比特数的增加改善某一方的声道信号的编码失真的程度相比,改善另一方的声道信号的编码失真的程度显著大的情况。此时, 对通过比特数的增加而能够显著改善编码失真的另一方的声道,分配更多的比特数。另外,使两个声道信号的编码失真之和最小的第一声道用的比特数和第二声道用的比特数的组合,能通过以该组合的循环方式(round-robin basis)进行编码而被搜索。
另外,虽然在本实施方式中以在ST3010和ST3110中对两个声道均等分配比特数而进行比特分配处理的初始化的情况为例进行了说明,但也可以考虑第二声道信号的编码失真取决于第一声道信号的编码失真,对第一声道比第二声道分配更多的比特,从而进行比特分配处理的初始化。进而,也可以求单声道信号和第一声道信号的互相关函数的值以及单声道信号和第二声道信号的互相关函数的值,并自适应地增加分配到互相关函数的值较小的声道的比特数,从而进行比特分配的初始化。通过被这样改善过的初始化处理,能够减少使第一声道信号的最小编码失真和第二声道信号的最小编码失真均等为止所需的循环处理的次数,能够缩短比特分配处理。
另外,虽然在本实施方式中,以使用固定码本索引作为改变比特分配的对象的情况为例进行了说明,但也可以采用固定码本索引以外的编码参数作为改变比特分配的对象。例如,也可以使LPC参数、自适应码本滞后(lag)和音源增益参数等的编码信息自适应地变化。
另外,虽然在本实施方式中以基于编码失真进行比特分配的情况为例进行了说明,但也可以基于编码失真以外的信息进行比特分配。例如,也可以基于音源预测单元的预测增益进行比特分配。或者,也可以使用单声道信号和第一声道信号的互相关函数的值以及单声道信号和第二声道信号的互相关函数的值等进行比特分配。此时,求单声道信号和第一声道信号的互相关函数的值以及单声道信号和第二声道信号的互相关函数的值,并对互相关函数的值较小的声道分配更多的比特数。另外,还可以进一步考虑第二声道信号的编码失真取决于第一声道信号的编码失真,自适应地增加分配到第一声道的比特数。
以上说明了本发明的各个实施方式。
本发明的可扩展编码装置和可扩展编码方法,并不限于上述各个实施方式,可以进行各种各样的变更而实施。例如,也可以适当地组合各个实施方式来实施。
另外,固定码本有时也被称为“固定音源码本”、“噪声码本”、“概率码 本(stochastic codebook)”以及“随机码本(random codebook)”。
另外,自适应码本有时也被称为“自适应音源码本”。
另外,LSP有时也被称为“LSF(Line Spectral Frequency)”,也可以将“LSP”读为“LSF”。另外,有时也将ISP(Immittance Spectrum Frequency)作为谱参数进行编码以代替LSP,此时如果将“LSP”改读为“ISP”,则作为ISP编码/解码装置而能够利用本发明。
另外,本发明的可扩展编码装置可以配备在移动通信系统中的通信终端装置和基站装置上,由此能够提供具有与上述同样的作用效果的通信终端装置、基站装置以及移动通信系统。
另外,虽然这里以通过硬件来构成本发明的情形为例进行了说明,但是本发明还可以通过软件来实现。例如,通过编程语言对本发明的可扩展编码方法的算法进行记述,并且在内存中保存该程序并通过信息处理单元来实行,从而能够实现与本发明的可扩展编码装置相同的功能。
另外,在上述各实施方式的说明中所使用的各功能块典型地通过集成电路的LSI来实现。这些既可以单独地实行单芯片化,也可以包含其中一部分或者是全部而实行单芯片化。
另外,每个功能块在此虽然称作LSI,但是根据集成度的不同,有时也称为IC、系统LSI、超级LSI(Super LSI)、或超大LSI(Ultra LSI)等。
另外,集成电路化的方法不只限于LSI,也可以使用专用电路或通用处理器来实现。也可以利用能够在LSI制造后编程的FPGA(Field ProgrammableGate Array),或可以利用可对LSI内部的电路单元的连接或设定进行重新配置的可重配置处理器(Reconfigurable Processor)。
再者,如果由半导体技术的进步或者派生的其他技术,出现取代LSI的集成电路化的技术,当然也可以利用该技术来实现功能块的集成化。也有适用生物技术等的可能性。
本说明书基于2005年5月31日提交的日本专利申请特愿2005-159685号以及2005年11月30日提交的日本专利申请特愿2005-346665号。其内容全部包含于此。
工业实用性
本发明的可扩展编码装置和可扩展编码方法能够适用于移动通信系统中的通信终端装置和基站装置等的用途。

Claims (12)

1. 一种可扩展编码装置,包括:
单声道编码单元,对单声道信号进行编码;
第一预测单元,基于在所述单声道编码单元的编码中得到的驱动音源,预测在立体声信号中所包含的第一声道的驱动音源;
第一声道编码单元,使用所述第一预测单元所预测的驱动音源,对第一声道进行编码;
第二预测单元,基于在所述单声道编码单元和所述第一声道编码单元的各个编码中得到的驱动音源,预测在所述立体声信号中所包含的第二声道的驱动音源;以及
第二声道编码单元,使用所述第二预测单元所预测的驱动音源,对第二声道进行编码。
2. 如权利要求1所述的可扩展编码装置,其中,
所述第二预测单元通过从两倍的在所述单声道编码单元的编码中得到的驱动音源中减去在所述第一声道编码单元的编码中得到的驱动音源,从而预测所述第二声道的驱动音源。
3. 如权利要求1所述的可扩展编码装置,其中,
所述第一预测单元使用在单声道信号和第一声道信号之间的延迟时间差和振幅比中的至少一方进行所述预测。
4. 如权利要求1所述的可扩展编码装置,其中,还包括:
设定单元,在所述立体声信号中所包含的声道之中,将与所述单声道信号的驱动音源的相关较高的声道设定为所述第一声道。
5. 如权利要求1所述的可扩展编码装置,其中,还包括:
比特分配单元,进行对所述第一声道编码单元和所述第二声道编码单元分配比特的处理,以使第一声道的编码失真和第二声道的编码失真均等。
6. 如权利要求1所述的可扩展编码装置,其中,还包括:
比特分配单元,进行对所述第一声道编码单元和所述第二声道编码单元分配比特的处理,以使第一声道的编码失真和第二声道的编码失真之和最小。
7. 如权利要求1所述的可扩展编码装置,其中,还包括:
比特分配单元,进行对所述第一声道编码单元和所述第二声道编码单元分配比特的处理,
所述第一声道编码单元和所述第二声道编码单元分别具有比特速率互不相同的多个固定码本,
所述比特分配单元通过改变所述第一声道编码单元和所述第二声道编码单元所使用的固定码本,进行分配所述比特的处理。
8. 如权利要求1所述的可扩展编码装置,其中,还包括:
比特分配单元,进行对所述第一声道编码单元和所述第二声道编码单元分配比特的处理,
所述比特分配单元作为分配所述比特的处理的初始条件,对所述第一声道编码单元比所述第二声道编码单元分配更多的比特。
9. 如权利要求1所述的可扩展编码装置,其中,还包括:
比特分配单元,进行对所述第一声道编码单元和所述第二声道编码单元分配比特的处理,
所述比特分配单元作为分配所述比特的处理的初始条件,在与第二声道的驱动音源相比,第一声道的驱动音源与单声道信号的驱动音源的相关性较高时,对所述第二声道编码单元比所述第一声道编码单元分配更多的比特,而在与第一声道的驱动音源相比,第二声道的驱动音源与单声道信号的驱动音源的相关性较高时,对所述第一声道编码单元比所述第二声道编码单元分配更多的比特。
10. 一种通信终端装置,具有权利要求1所述的可扩展编码装置。
11. 一种基站装置,具有权利要求1所述的可扩展编码装置。
12. 一种可扩展编码方法,包括:
单声道编码步骤,对单声道信号进行编码;
第一预测步骤,基于在所述单声道编码步骤中得到的驱动音源,预测在立体声信号中所包含的第一声道的驱动音源;
第一声道编码步骤,使用在所述第一预测步骤中所预测的驱动音源,对第一声道进行编码;
第二预测步骤,基于分别在所述单声道编码步骤和所述第一声道编码步骤中得到的驱动音源,预测在所述立体声信号中所包含的第二声道的驱动音源;以及
第二声道编码步骤,使用所述第二预测步骤中所预测的驱动音源,对第二声道进行编码。
CN2006800191271A 2005-05-31 2006-05-29 可扩展编码装置及可扩展编码方法 Active CN101185123B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP159685/2005 2005-05-31
JP2005159685 2005-05-31
JP346665/2005 2005-11-30
JP2005346665 2005-11-30
PCT/JP2006/310689 WO2006129615A1 (ja) 2005-05-31 2006-05-29 スケーラブル符号化装置およびスケーラブル符号化方法

Publications (2)

Publication Number Publication Date
CN101185123A CN101185123A (zh) 2008-05-21
CN101185123B true CN101185123B (zh) 2011-07-13

Family

ID=37481544

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2006800191271A Active CN101185123B (zh) 2005-05-31 2006-05-29 可扩展编码装置及可扩展编码方法

Country Status (6)

Country Link
US (1) US8271275B2 (zh)
EP (1) EP1887567B1 (zh)
JP (1) JP4948401B2 (zh)
CN (1) CN101185123B (zh)
DE (1) DE602006015461D1 (zh)
WO (1) WO2006129615A1 (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2453117B (en) 2007-09-25 2012-05-23 Motorola Mobility Inc Apparatus and method for encoding a multi channel audio signal
US8374883B2 (en) * 2007-10-31 2013-02-12 Panasonic Corporation Encoder and decoder using inter channel prediction based on optimally determined signals
WO2009116280A1 (ja) * 2008-03-19 2009-09-24 パナソニック株式会社 ステレオ信号符号化装置、ステレオ信号復号装置およびこれらの方法
US8452587B2 (en) * 2008-05-30 2013-05-28 Panasonic Corporation Encoder, decoder, and the methods therefor
JP5425066B2 (ja) * 2008-06-19 2014-02-26 パナソニック株式会社 量子化装置、符号化装置およびこれらの方法
US8489403B1 (en) * 2010-08-25 2013-07-16 Foundation For Research and Technology—Institute of Computer Science ‘FORTH-ICS’ Apparatuses, methods and systems for sparse sinusoidal audio processing and transmission
US9183842B2 (en) * 2011-11-08 2015-11-10 Vixs Systems Inc. Transcoder with dynamic audio channel changing
GB2578625A (en) * 2018-11-01 2020-05-20 Nokia Technologies Oy Apparatus, methods and computer programs for encoding spatial metadata

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5243686A (en) * 1988-12-09 1993-09-07 Oki Electric Industry Co., Ltd. Multi-stage linear predictive analysis method for feature extraction from acoustic signals
US5434948A (en) * 1989-06-15 1995-07-18 British Telecommunications Public Limited Company Polyphonic coding
US5651090A (en) * 1994-05-06 1997-07-22 Nippon Telegraph And Telephone Corporation Coding method and coder for coding input signals of plural channels using vector quantization, and decoding method and decoder therefor
JP2586441B2 (ja) * 1994-07-27 1997-02-26 日本電気株式会社 移動電話機
DE69618684T2 (de) * 1995-02-16 2002-10-10 Toshiba Kawasaki Kk Ausgabesteuerungssystem für umschaltbare Torkanäle
JP3705305B2 (ja) * 1996-05-16 2005-10-12 カシオ計算機株式会社 音声記憶再生装置
JP3364825B2 (ja) * 1996-05-29 2003-01-08 三菱電機株式会社 音声符号化装置および音声符号化復号化装置
TW395142B (en) * 1997-05-15 2000-06-21 Matsushita Electric Ind Co Ltd Compressed code decoding device and audio decoding device
SE519976C2 (sv) 2000-09-15 2003-05-06 Ericsson Telefon Ab L M Kodning och avkodning av signaler från flera kanaler
SE0202159D0 (sv) * 2001-07-10 2002-07-09 Coding Technologies Sweden Ab Efficientand scalable parametric stereo coding for low bitrate applications
US6934677B2 (en) 2001-12-14 2005-08-23 Microsoft Corporation Quantization matrices based on critical band pattern information for digital audio wherein quantization bands differ from critical bands
US7502743B2 (en) * 2002-09-04 2009-03-10 Microsoft Corporation Multi-channel audio encoding and decoding with multi-channel transform selection
AU2003278013A1 (en) * 2002-10-11 2004-05-04 Voiceage Corporation Methods and devices for source controlled variable bit-rate wideband speech coding
JP2005159685A (ja) 2003-11-26 2005-06-16 Nec Corp 送信電力制御システムおよび制御方法
US7809579B2 (en) * 2003-12-19 2010-10-05 Telefonaktiebolaget Lm Ericsson (Publ) Fidelity-optimized variable frame length encoding
JP2005346665A (ja) 2004-06-07 2005-12-15 Nogiwa Sangyo Kk 海岸線抽出方法及び海岸線抽出システム
CN101023472B (zh) 2004-09-06 2010-06-23 松下电器产业株式会社 可扩展编码装置和可扩展编码方法
BRPI0518133A (pt) 2004-10-13 2008-10-28 Matsushita Electric Ind Co Ltd codificador escalável, decodificador escalável, e método de codificação escalável
US8000967B2 (en) * 2005-03-09 2011-08-16 Telefonaktiebolaget Lm Ericsson (Publ) Low-complexity code excited linear prediction encoding
US8108219B2 (en) * 2005-07-11 2012-01-31 Lg Electronics Inc. Apparatus and method of encoding and decoding audio signal

Also Published As

Publication number Publication date
US20090271184A1 (en) 2009-10-29
JP4948401B2 (ja) 2012-06-06
CN101185123A (zh) 2008-05-21
US8271275B2 (en) 2012-09-18
DE602006015461D1 (de) 2010-08-26
EP1887567A4 (en) 2009-07-01
EP1887567A1 (en) 2008-02-13
WO2006129615A1 (ja) 2006-12-07
JPWO2006129615A1 (ja) 2009-01-08
EP1887567B1 (en) 2010-07-14

Similar Documents

Publication Publication Date Title
CN101185123B (zh) 可扩展编码装置及可扩展编码方法
CN101268351B (zh) 健壮解码器
CN101996636B (zh) 带多级码本和冗余编码的子带话音编解码器
US8862463B2 (en) Adaptive time/frequency-based audio encoding and decoding apparatuses and methods
US7840402B2 (en) Audio encoding device, audio decoding device, and method thereof
CN101176148B (zh) 编码装置、解码装置和其方法
WO2004097796A1 (ja) 音声符号化装置、音声復号化装置及びこれらの方法
CN101111887B (zh) 可扩展编码装置和可扩展编码方法
JP4445328B2 (ja) 音声・楽音復号化装置および音声・楽音復号化方法
CN101027718A (zh) 可扩展性编码装置以及可扩展性编码方法
JP4842147B2 (ja) スケーラブル符号化装置およびスケーラブル符号化方法
JP4578145B2 (ja) 音声符号化装置、音声復号化装置及びこれらの方法
JP3916934B2 (ja) 音響パラメータ符号化、復号化方法、装置及びプログラム、音響信号符号化、復号化方法、装置及びプログラム、音響信号送信装置、音響信号受信装置
CN103119650B (zh) 编码装置和编码方法
JP2002073097A (ja) Celp型音声符号化装置とcelp型音声復号化装置及び音声符号化方法と音声復号化方法
JPH11259098A (ja) 音声符号化/復号化方法
JPH06202697A (ja) 励振信号の利得量子化方法
CN101091205A (zh) 可扩展编码装置以及可扩展编码方法
JPH09269800A (ja) 音声符号化装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
ASS Succession or assignment of patent right

Owner name: MATSUSHITA ELECTRIC (AMERICA) INTELLECTUAL PROPERT

Free format text: FORMER OWNER: MATSUSHITA ELECTRIC INDUSTRIAL CO, LTD.

Effective date: 20140716

C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20140716

Address after: California, USA

Patentee after: PANASONIC INTELLECTUAL PROPERTY CORPORATION OF AMERICA

Address before: Osaka Japan

Patentee before: Matsushita Electric Industrial Co.,Ltd.

TR01 Transfer of patent right

Effective date of registration: 20170601

Address after: Delaware

Patentee after: III Holdings 12 LLC

Address before: California, USA

Patentee before: PANASONIC INTELLECTUAL PROPERTY CORPORATION OF AMERICA

TR01 Transfer of patent right