JP2003195899A - Encoding method for speech/sound signal and electronic device - Google Patents

Encoding method for speech/sound signal and electronic device

Info

Publication number
JP2003195899A
JP2003195899A JP2001392714A JP2001392714A JP2003195899A JP 2003195899 A JP2003195899 A JP 2003195899A JP 2001392714 A JP2001392714 A JP 2001392714A JP 2001392714 A JP2001392714 A JP 2001392714A JP 2003195899 A JP2003195899 A JP 2003195899A
Authority
JP
Japan
Prior art keywords
signal
encoding
weighted
voice
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001392714A
Other languages
Japanese (ja)
Other versions
JP3984048B2 (en
Inventor
Kimio Miseki
公生 三関
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2001392714A priority Critical patent/JP3984048B2/en
Publication of JP2003195899A publication Critical patent/JP2003195899A/en
Application granted granted Critical
Publication of JP3984048B2 publication Critical patent/JP3984048B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an encoding method for speech/sound signals which can generate the speech signal and sound signal even at a low bit rate. <P>SOLUTION: The encoding method for the speech/sound signals which includes encoding of pulse position information comprises a step for obtaining a parameter representing a short-time spectrum of an input signal, a step for finding an impulse response on the basis of the obtained parameter representing the short-time spectrum, a step for obtaining at least position weight information from the input signal, and a step for selecting the pulse position information by using the impulse response and position weight information. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は音声/音響信号の符
号化方法及び電子装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an audio / audio signal encoding method and an electronic device.

【0002】[0002]

【従来の技術】音声信号を圧縮符号化する方法としてC
ELP(Code-Excited LinearPrediction)方式が知ら
れている。CELP方式については、例えば、["Code-
Excited Linear Prediction(CELP):High-quality Speec
h at Very Low Rates" Proc.ICASSP' 85,25,1.1.pp.937
-940,1985]に記載されている。
2. Description of the Related Art C is a method for compressing and encoding a voice signal.
An ELP (Code-Excited Linear Prediction) method is known. For the CELP method, for example, ["Code-
Excited Linear Prediction (CELP): High-quality Speec
h at Very Low Rates "Proc.ICASSP '85,25,1.1.pp.937
-940, 1985].

【0003】CELP方式では、音声信号を合成フィル
タとこれを駆動する音源信号に分けてモデル化してい
る。符号化後の合成音声信号は音源信号を合成フィルタ
に通過させることにより生成される。
In the CELP system, a voice signal is modeled by being divided into a synthesis filter and a sound source signal for driving the synthesis filter. The encoded synthesized speech signal is generated by passing the excitation signal through the synthesis filter.

【0004】音源信号は、過去の音源信号を格納する適
応符号帳から生成される適応符号ベクトルと、雑音符号
帳から生成される雑音ベクトルという2つの符号ベクト
ルを結合することにより生成される。
The excitation signal is generated by combining two code vectors, that is, an adaptive code vector generated from an adaptive codebook storing past excitation signals and a noise vector generated from a noise codebook.

【0005】適応符号ベクトルは主に有声音区間の音源
信号の特徴であるピッチ周期による波形の繰返しを表わ
す役割がある。
The adaptive code vector mainly has a role of representing the repetition of the waveform due to the pitch period, which is a feature of the sound source signal in the voiced sound section.

【0006】一方、雑音符号ベクトルは適応符号ベクト
ルでは表わしきれない音源信号に含まれる成分を補う役
割を持ち、合成音声信号をより自然なものにするために
用いられる。適応符号ベクトルもしくは雑音符号ベクト
ルだけを音源信号と言うこともある。
On the other hand, the noise code vector has a role of supplementing the components contained in the excitation signal that cannot be represented by the adaptive code vector, and is used to make the synthesized speech signal more natural. Only the adaptive code vector or the noise code vector may be referred to as the excitation signal.

【0007】CELP方式では、音源信号の符号化は聴
覚重み付けられた音声信号のレベルで歪を評価すること
により、符号化歪が知覚されにくくなるようにしている
点に特徴がある。
[0007] The CELP method is characterized in that the excitation signal is encoded by evaluating the distortion at the level of the auditory-weighted audio signal so that the encoded distortion is less perceptible.

【0008】図12は、聴覚重み付き合成により音源信
号から聴覚重み付き合音声信号が生成される過程を示し
たものである。音源信号発生部300からの残差レベル
の音源信号の候補が経路305を経て聴覚重み付き合成
部301に入力され、出力端子304に聴覚重み付き合
成音声信号が出力される。
FIG. 12 shows a process of generating a perceptually weighted combined voice signal from a sound source signal by perceptually weighted synthesis. The candidate of the residual level sound source signal from the sound source signal generation unit 300 is input to the perceptual weighting synthesis unit 301 via the path 305, and the perceptual weighted synthetic speech signal is output to the output terminal 304.

【0009】聴覚重みを用いることにより符号化歪が知
覚されにくくなるのは、音声信号のスペクトルの形状に
符号化歪のスペクトルがマスクされるように聴覚重み付
けが行なわれるためで、周波数マスキングを利用してい
る。聴覚重み付けは、符号化区間毎に音声信号から求
め、同一の符号化区間の中では同じ聴覚重み特性が用い
られる。
The reason why the coding distortion is hardly perceived by using the perceptual weight is that the perceptual weighting is performed so that the spectrum of the coding distortion is masked in the shape of the spectrum of the voice signal. is doing. The perceptual weighting is obtained from the audio signal for each coding section, and the same perceptual weighting characteristic is used in the same coding section.

【0010】このように従来の符号化では、聴覚重み付
けは符号化区間毎に音声信号から求め、符号化区間の中
で同じ重み特性を用いて音源信号の符号化を行なうこと
が特徴である。
As described above, the conventional coding is characterized in that the perceptual weighting is obtained from the speech signal for each coding section, and the excitation signal is coded using the same weighting characteristic in the coding section.

【0011】このような従来方法では符号化ビットレー
トを例えば音声信号の場合、4kbit/s程度にまで
低下させると、音源信号を表現するために割り当てられ
るビット数が不足するため、符号化による歪が音として
知覚されるようになる。結果として音がかすれたり、雑
音が混じるなどの音質の劣化が顕著となってしまう。
In such a conventional method, when the coding bit rate is lowered to about 4 kbit / s in the case of a voice signal, for example, the number of bits allocated for expressing the excitation signal becomes insufficient, so that the distortion due to the coding is generated. Will be perceived as sound. As a result, the deterioration of the sound quality such as the faint sound and the mixing of noise becomes remarkable.

【0012】このためビットレートを低下させても高品
質な合成音声を生成できる高効率の符号化が求められて
いる。このような要求は音響信号の符号化についても同
様である。
Therefore, there is a demand for highly efficient coding that can generate high-quality synthesized speech even if the bit rate is reduced. Such a requirement also applies to the encoding of acoustic signals.

【0013】[0013]

【発明が解決しようとする課題】上記したように従来の
音声/音響信号の符号化方法では、聴覚重み付けは符号
化区間毎に音声信号から求め、符号化区間の中で同じ重
み特性を用いて音源信号の符号化を行なっているため、
低ビットレートでは高品質の合成音声が得難いという問
題点があった。
As described above, in the conventional speech / audio signal coding method, the perceptual weighting is obtained from the speech signal for each coding section, and the same weighting characteristic is used in the coding section. Since the sound source signal is encoded,
There is a problem in that it is difficult to obtain high quality synthetic speech at a low bit rate.

【0014】本発明はこのような課題に着目してなされ
たものであり、その目的とするところは、低ビットレー
トでも高品質な音声信号/音響信号を生成できる音声/
音響信号の符号化方法及び電子装置を提供することにあ
る。
The present invention has been made in view of these problems, and an object thereof is to provide a voice / audio signal capable of generating a high-quality voice signal / acoustic signal even at a low bit rate.
An object is to provide an audio signal encoding method and an electronic device.

【0015】[0015]

【課題を解決するための手段】上記の目的を達成するた
めに、第1の発明は、パルス位置情報の符号化を含む音
声/音響信号の符号化方法であって、入力信号の短時間
スペクトルを表すパラメータを取得するステップと、取
得した短時間スペクトルを表すパラメータを基にインパ
ルス応答を求めるステップと、入力信号から少なくとも
位置重み情報を取得するステップと、前記インパルス応
答と前記位置重み情報とを用いて、前記パルス位置情報
の選択を行なうステップとを具備する。
In order to achieve the above object, the first invention is a method of encoding a voice / acoustic signal including encoding of pulse position information, which is a short-time spectrum of an input signal. , A step of obtaining an impulse response based on the acquired parameter representing the short-time spectrum, a step of obtaining at least position weight information from an input signal, the impulse response and the position weight information. Using the pulse position information.

【0016】また、第2の発明は、パルス位置情報の符
号化を含む音声/音響信号の符号化方法であって、入力
信号の短時間スペクトルを表すパラメータを取得するス
テップと、取得した短時間スペクトルを表すパラメータ
を基にインパルス応答を求めるステップと、入力信号か
ら少なくとも位置重み情報を取得するステップと、前記
インパルス応答と前記位置重み情報を用いて位置重み付
き相関値を計算するステップと、求めた位置重み付き相
関値を用いて、前記パルス位置情報の選択を行なうステ
ップとを具備する。
A second aspect of the present invention is a method for encoding a voice / acoustic signal including encoding of pulse position information, which comprises a step of acquiring a parameter representing a short-time spectrum of an input signal and the acquired short-time. Obtaining an impulse response based on a parameter representing a spectrum, obtaining at least position weight information from an input signal, calculating a position weighted correlation value using the impulse response and the position weight information, and obtaining And selecting the pulse position information using the position-weighted correlation value.

【0017】また、第3の発明は、パルス位置情報の符
号化を含む音声/音響信号の符号化方法であって、入力
信号の短時間スペクトルを表すパラメータを取得するス
テップと、取得した短時間スペクトルを表すパラメータ
を基にインパルス応答を求めるステップと、入力信号か
ら少なくとも目標信号と位置重み情報を取得するステッ
プと、前記インパルス応答と前記位置重み情報を基に位
置重み付き相関値を求めるステップと、前記インパルス
応答と前記目標信号と前記位置重み情報を用いて位置重
み付き相互相関値を求めるステップと、前記位置重み付
き相関値と前記位置重み付き相互相関値を用いて前記パ
ルス位置情報の選択を行なうステップとを具備する。
A third aspect of the present invention is a method for encoding a voice / acoustic signal including encoding of pulse position information, which comprises a step of acquiring a parameter representing a short-time spectrum of an input signal and the acquired short-time. A step of obtaining an impulse response based on a parameter representing a spectrum, a step of obtaining at least a target signal and position weight information from an input signal, and a step of obtaining a position weighted correlation value based on the impulse response and the position weight information. A step of obtaining a position-weighted cross-correlation value using the impulse response, the target signal, and the position-weight information, and selection of the pulse position information using the position-weighted correlation value and the position-weighted cross-correlation value And a step of performing.

【0018】また、第4の発明は、第1から第3の発明
のいずれか1つに係る音声/音響信号の符号化方法にお
いて、前記パルス位置情報の符号化に代数符号帳を用い
る。
A fourth invention uses the algebraic codebook for coding the pulse position information in the audio / audio signal coding method according to any one of the first to third inventions.

【0019】また、第5の発明は、第1から第4の発明
のいずれか1つに係る音声/音響信号の符号化方法にお
いて、前記入力信号から短期予測残差信号を取得するス
テップをさらに有し、この短期予測残差信号を用いて位
置重み情報を求める。
A fifth aspect of the invention is the method of encoding a voice / acoustic signal according to any one of the first to fourth aspects, further comprising a step of obtaining a short-term prediction residual signal from the input signal. The position weight information is obtained using the short-term prediction residual signal.

【0020】また、第6の発明は、音源信号を表す情報
の符号化を含む音声/音響信号の符号化方法であって、
入力信号の短時間スペクトルを表すパラメータを取得す
るステップと、取得した短時間スペクトルを表すパラメ
ータを基にインパルス応答を求めるステップと、入力信
号から取得した短期予測残差信号を用いて位置重み情報
を求めるステップと、前記インパルス応答と前記位置重
み情報とを用いて、前記音源信号を表す情報の選択を行
なうステップとを具備する。
A sixth aspect of the present invention is a voice / acoustic signal encoding method including encoding of information representing a sound source signal,
The step of acquiring a parameter representing the short-time spectrum of the input signal, the step of obtaining an impulse response based on the acquired parameter representing the short-time spectrum, and the position weight information using the short-term prediction residual signal acquired from the input signal. The method further comprises a step of obtaining and a step of selecting information representing the sound source signal using the impulse response and the position weight information.

【0021】また、第7の発明は、第1から第6の発明
のいずれか1つに係る音声/音響信号の符号化方法にお
いて、位置重み付けと聴覚重み付けの両方の重み付けを
用いる。
A seventh aspect of the invention uses the weighting of both the position weighting and the perceptual weighting in the method of encoding a voice / acoustic signal according to any one of the first to sixth aspects of the invention.

【0022】また、第8の発明は、音源信号を表す情報
の符号化を含む音声/音響信号の符号化方法であって、
音源信号を表すための候補信号に位置重み付けをするス
テップと、前記位置重み付けられた候補信号を合成した
ときの歪みを基に、前記候補信号の選択を行なうステッ
プとを具備する。
An eighth aspect of the present invention is a voice / acoustic signal encoding method including encoding of information representing a sound source signal,
The method further comprises the steps of position-weighting the candidate signal for representing the sound source signal, and selecting the candidate signal based on the distortion when the position-weighted candidate signals are combined.

【0023】また、第9の発明は、音源信号を表す情報
の符号化を含む音声/音響信号の符号化方法であって、
音源信号を表すための候補信号に位置重み付けをするス
テップと、前記位置重み付けられた候補信号を聴覚重み
付き合成したときの歪を基に、前記候補信号の選択を行
なうステップとを具備する。
A ninth aspect of the present invention is a voice / acoustic signal encoding method including encoding of information representing a sound source signal,
Positioning is performed on the candidate signal for representing the sound source signal, and selection of the candidate signal is performed based on distortion when the position-weighted candidate signal is auditorily weighted combined.

【0024】また、第10の発明は、音声/音響信号を
入力するための入力部と、この入力部を介して入力され
た音声/音響信号に対して符号化処理を施す符号化部
と、この符号化部で符号化された音声/音響信号を送信
する送信部と、符号化された音声/音響信号を受信する
受信部と、この受信部を介して受信された音声/音響信
号に対して復号化処理を施す復号化部と、この復号化部
で復号された音声/音響信号を出力する出力部とを具備
し、前記符号化部は、第1から第9の発明のいずれか1
つに記載の符号化方法を実行する。
A tenth aspect of the invention is an input section for inputting a voice / acoustic signal, and an encoding section for performing an encoding process on the voice / acoustic signal input via the input section. A transmitter for transmitting the voice / acoustic signal encoded by the encoder, a receiver for receiving the encoded voice / acoustic signal, and a voice / acoustic signal received via the receiver. And a decoding unit for performing a decoding process, and an output unit for outputting the voice / sound signal decoded by the decoding unit, wherein the coding unit is any one of the first to ninth inventions.
The encoding method described in No. 1 is executed.

【0025】[0025]

【発明の実施の形態】以下、図面を参照して本発明の実
施形態を詳細に説明する。
DETAILED DESCRIPTION OF THE INVENTION Embodiments of the present invention will be described in detail below with reference to the drawings.

【0026】図1は、本発明の符号化方法における残差
レベル位置重み付けの原理的構成を示したものである。
同図において、音源信号発生部300からの残差レベル
の音源信号の候補が経路308を経て、残差レベル位置
重み付け部302に入力される。ここで残差レベルの位
置重み付けが為された音源信号の候補は、次に、経路3
09を経て聴覚重み付き合成部303に入力され、出力
端子310に残差レベル位置重み付きの聴覚重み付き合
音声信号が出力される。
FIG. 1 shows the principle of residual level position weighting in the encoding method of the present invention.
In the figure, the sound source signal candidates of the residual level from the sound source signal generation unit 300 are input to the residual level position weighting unit 302 via a path 308. Here, the position-weighted residual sound source signal candidates are
09, and is input to the perceptual weighting synthesis unit 303, and the perceptual weighted combined voice signal with residual level position weighting is output to the output terminal 310.

【0027】このような残差レベル位置重み付き聴覚重
み付き合成音声信号を用いて音源信号を表す符号の選択
を行なうことにより、残差信号レベルで位置的に重要な
信号の情報をより精度良く符号化に反映しながら、聴覚
重み付けによるマスキング効果も取り入れることができ
るようになるため、符号化の性能が向上する。
By selecting the code representing the sound source signal by using such a residual level position-weighted auditory weighted synthetic speech signal, the information of the positionally important signal at the residual signal level can be more accurately measured. Since it becomes possible to incorporate the masking effect by weighting of hearing while reflecting the coding, the performance of the coding is improved.

【0028】図2は、残差信号レベルの位置重み付けと
聴覚重み付き合成レベルでの歪み評価を用いて雑音符号
帳の符号選択を行なう本発明の符号化方法の原理的な構
成を示すもので、入力信号を表すために用いる音源信号
の符号化の主要な部分を表したものである。目標残差信
号生成部901は、スペクトルパラメータ処理部900
で獲得した入力信号の短時間スペクトルを表すパラメー
タを用いて目標残差信号を生成する。目標残差信号は音
源信号の理想信号に相当するものである。
FIG. 2 shows the principle configuration of the coding method of the present invention for performing code selection of the random codebook by using the position weighting of the residual signal level and the distortion evaluation at the perceptually weighted synthesis level. , The main part of the encoding of the excitation signal used to represent the input signal. The target residual signal generation unit 901 includes a spectrum parameter processing unit 900.
The target residual signal is generated by using the parameter representing the short-time spectrum of the input signal acquired in (1). The target residual signal corresponds to the ideal signal of the sound source signal.

【0029】一方、雑音符号帳902は符号ベクトル候
補を出力する。残差レベル位置重み獲得部903は入力
信号と短時間スペクトルを表すパラメータを用いて残差
レベルの位置重み付けに適した位置重み情報を獲得す
る。残差レベル位置重み付け部904および残差レベル
位置重み付け部905はそれぞれ目標残差信号と符号ベ
クトル候補という残差レベルの信号対し位置重み付けを
行なう機能を有する。
On the other hand, the random codebook 902 outputs code vector candidates. The residual level position weight acquisition unit 903 acquires position weight information suitable for position weighting of the residual level using the input signal and the parameter representing the short time spectrum. The residual level position weighting section 904 and the residual level position weighting section 905 have a function of performing position weighting on the residual level signals of the target residual signal and the code vector candidate, respectively.

【0030】聴覚重み付き合成部906は位置重み付き
目標残差信号を位置重み付きの聴覚重み付き目標信号に
して歪み評価部909に出力する。同様に、聴覚重み付
き合成部907は位置重み付き符号ベクトル候補を位置
重み付きの聴覚重み付き合成符号ベクトル候補にし、さ
らにゲイン乗算部908でゲインを乗じてこれを歪み評
価部909に出力する。ここで目標に対し符号候補の歪
み評価値を求める。この操作を雑音符号帳902の所定
の符号候補についてそれぞれ行ない、歪み評価値がより
好適な値を示す符号候補を符号選択部910にて選択
し、その符号Cを出力することで音源信号の符号化が実
現される。
The perceptually weighted synthesis unit 906 outputs the position-weighted target residual signal to the distortion evaluation unit 909 as a perceptually weighted target signal with position weighting. Similarly, the auditory weighted synthesis unit 907 converts the position weighted code vector candidate into a position weighted auditory weighted synthetic code vector candidate, further multiplies the gain by the gain multiplication unit 908, and outputs the result to the distortion evaluation unit 909. Here, the distortion evaluation value of the code candidate is obtained for the target. This operation is performed for each predetermined code candidate in the random codebook 902, the code selection unit 910 selects a code candidate having a more favorable distortion evaluation value, and the code C is output to output the code of the excitation signal. Is realized.

【0031】図3は、本発明の音声/音響信号の符号化
方法を実現する符号化部の一例を示すブロック図であ
る。ここでは音声信号のCELP符号化に本発明を適用した
例を説明することにする。
FIG. 3 is a block diagram showing an example of a coding unit which realizes the method of coding a voice / acoustic signal of the present invention. Here, an example in which the present invention is applied to CELP coding of a voice signal will be described.

【0032】マイクなどの音声入力手段(図示せず)か
ら入力された入力音声はA/D変換を施され、所定の時
間区間毎に図3のスペクトルパラメータ分析・符号化部
500に入力される。通常この時間区間は10〜30m
s程度の長さが用いられ、フレームと呼ばれることがあ
る。
The input voice input from a voice input means (not shown) such as a microphone is subjected to A / D conversion, and is input to the spectrum parameter analysis / encoding unit 500 of FIG. 3 for each predetermined time interval. . Usually this time section is 10-30m
A length of about s is used and is sometimes called a frame.

【0033】CELP方式では音声の生成過程のモデル
として、声帯信号を音源信号に対応させ、声道が表すス
ペクトル包絡特性を合成フィルタにより表し、音源信号
を合成フィルタに入力させ、合成フィルタの出力で音声
信号を表現する。本発明は、入力音声信号と合成音声信
号との波形歪みが小さくなるように音源信号の符号選択
を行うという大枠では従来のCELP方式と同じである。
In the CELP method, as a model of a voice generation process, a vocal cord signal is made to correspond to a sound source signal, a spectral envelope characteristic represented by the vocal tract is expressed by a synthesis filter, the sound source signal is input to the synthesis filter, and the output of the synthesis filter is used. Represents an audio signal. The present invention is the same as the conventional CELP system in the general framework that the code selection of the sound source signal is performed so that the waveform distortion between the input speech signal and the synthesized speech signal becomes small.

【0034】しかしながら、本発明では、(1)符号帳
探索の中に位置重みを導入して波形歪みの評価を行なう
点、(2)音声波形レベルの信号ではなく、残差信号レ
ベルの信号である音源信号や音源パルスへの位置重み付
けを導入している点が従来と大きく異なる。ここでは音
源パルスを表すための符号帳として代数符号帳(Algebr
aic codebook)の使用を想定して説明するが、本発明
の骨子はあくまでも上記(1)(2)にあり、符号帳自
体の構造は音源パルスを表す代数符号帳に限定されるも
のではない。例えば、符号帳がマルチパルスを表すため
の符号帳であったとしても本発明は有効である。本発明
ではこれらの符号帳を総称して雑音符号帳と呼ぶことに
する。
However, in the present invention, (1) the point weight is introduced into the codebook search to evaluate the waveform distortion, and (2) the signal of the residual signal level is used instead of the signal of the voice waveform level. The point that the position weighting is applied to a certain sound source signal or sound source pulse is very different from the conventional one. Here, the algebraic codebook (Algebr
Although description will be made assuming the use of an aic codebook), the essence of the present invention is only in (1) and (2) above, and the structure of the codebook itself is not limited to the algebraic codebook representing excitation pulses. For example, the present invention is effective even if the codebook is a codebook for representing multiple pulses. In the present invention, these codebooks will be collectively referred to as a random codebook.

【0035】スペクトルパラメータ分析・符号化部50
0は音声信号をフレーム毎に入力し、入力された音声信
号を分析することによりスペクトルパラメータを抽出す
る。次に、抽出されたスペクトルパラメータを用いて、
予め用意しているスペクトルパラメータ符号帳を探索
し、入力された信号のスペクトル包絡をより良く表現す
ることのできる符号帳のインデックス(スペクトルパラ
メータ符号)Aを選択し、これを出力する。通常、CE
LP方式ではスペクトル包絡を符号化する際に用いるス
ペクトルパラメータとしてLSP(Line Spectrum Pai
r)パラメータを用いるが、これに限られるものではな
く、スペクトル包絡を表現できるパラメータであればLP
C係数などの他のパラメータも有効である。
Spectral parameter analysis / encoding unit 50
0 inputs a voice signal for each frame and analyzes the input voice signal to extract spectrum parameters. Then, using the extracted spectral parameters,
A spectrum parameter codebook prepared in advance is searched for, and an index (spectrum parameter code) A of the codebook capable of better expressing the spectrum envelope of the input signal is selected and output. Usually CE
In the LP method, LSP (Line Spectrum Pai) is used as a spectrum parameter used when encoding a spectrum envelope.
r) parameter is used, but it is not limited to this, and LP can be used as long as it can express the spectrum envelope.
Other parameters such as the C factor are also valid.

【0036】目標信号計算部511は入力された音声信
号とスペクトルパラメータ分析・符号化部500からの
スペクトルパラメータと後で述べる音源信号生成部51
0からの音源信号を用いて、適応符号帳探索部504で
の符号化の目標信号X(n)を計算する。
The target signal calculation unit 511 receives the input voice signal, the spectrum parameters from the spectrum parameter analysis / encoding unit 500, and the excitation signal generation unit 51 described later.
The excitation signal from 0 is used to calculate the target signal X (n) for encoding in adaptive codebook search section 504.

【0037】インパルス応答計算部501は、スペクト
ルパラメータ分析・符号化部500からのスペクトルパ
ラメータをもとに、インパルス応答h(n)を求める。この
インパルス応答は典型的にはLPC係数を用いた合成フィ
ルタと聴覚重みフィルタを組み合わせた特性の聴覚重み
付き合成フィルタH(z)を用いて計算される。
The impulse response calculation section 501 obtains an impulse response h (n) based on the spectrum parameter from the spectrum parameter analysis / encoding section 500. This impulse response is typically calculated using a perceptual weighted synthesis filter H (z) that is a combination of a synthesis filter using LPC coefficients and a perceptual weighting filter.

【0038】[0038]

【数1】 [Equation 1]

【0039】残差信号計算部502は入力音声とスペク
トルパラメータ分析・符号化部500からのスペクトル
パラメータを用いて残差信号を計算する。具体例として
は、抽出されたスペクトルパラメータとしてLPC係数を
用い、これを用いた予測フィルタA(z)で音声信号をフィ
ルタリングすることにより予測残差信号を求める。予測
残差信号r(n)は音声信号s(n)を用いて、例えば
次のようにして求めることができる。
Residual signal calculating section 502 calculates a residual signal using the input speech and the spectrum parameter from spectrum parameter analyzing / encoding section 500. As a specific example, an LPC coefficient is used as the extracted spectrum parameter, and a prediction residual signal is obtained by filtering the audio signal with the prediction filter A (z) using the LPC coefficient. The prediction residual signal r (n) can be obtained using the audio signal s (n), for example, as follows.

【0040】[0040]

【数2】 [Equation 2]

【0041】ここでαiは量子化しないLPC係数であ
るが、量子化したLPC係数で代用してもr(n)と類
似の予測残差信号を求めることができる。(2)式はLP
C係数を用いた近接のPサンプルのデータを用いた予測で
あるから、この方法で得られる残差信号は正確には短期
予測残差信号という。また、予測残差信号は残差信号と
呼ばれたり、単に残差と呼ばれたりすることもある。以
降の説明では残差信号または残差と呼ぶことにする。
Here, α i is an LPC coefficient which is not quantized, but a prediction residual signal similar to r (n) can be obtained by substituting the quantized LPC coefficient. Formula (2) is LP
The residual signal obtained by this method is called a short-term predicted residual signal because it is a prediction using data of P samples in the vicinity using the C coefficient. The prediction residual signal may also be called a residual signal or simply a residual. In the following description, it will be referred to as a residual signal or a residual.

【0042】位置重み設定部503は残差信号計算部5
02で得られた残差信号をもとに位置重みを求め、これ
を位置重み付き相関計算部505、位置重み付き相互相
関計算部506にそれぞれ出力する。本実施形態では、
説明の簡単化のため、代数符号帳の符号探索にだけ位置
重みを用いる例を説明するが、適応符号帳探索部504
やゲイン符号帳探索部509にも位置重みを適用可能で
あることは言うまでもない。その場合は、位置重みが適
応符号帳探索部504やゲイン符号帳探索部509にも
出力される。
The position weight setting unit 503 is a residual signal calculation unit 5
A position weight is obtained based on the residual signal obtained in 02 and output to the position weighted correlation calculation unit 505 and the position weighted cross correlation calculation unit 506, respectively. In this embodiment,
For simplification of the description, an example in which the position weight is used only for the code search of the algebraic codebook will be described, but the adaptive codebook search unit 504
It goes without saying that the position weight can be applied to the gain codebook search unit 509. In that case, the position weight is also output to the adaptive codebook searching unit 504 and the gain codebook searching unit 509.

【0043】図4(A)〜(C)及び図5(A)、
(B)は、位置重み設定部503にて位置重みを求める
方法の一例を説明するための図である。ここでは説明の
簡単化のため、フレーム長が24サンプル(=位置が2
4個)とするが、例えばフレームを複数のサブフレーム
に分割してサブフレーム毎に位置重みや符号帳の符号探
索を行なう場合であっても本発明に含まれることは言う
までも無い。
FIGS. 4A to 4C and FIG. 5A,
(B) is a diagram for explaining an example of a method for obtaining the position weight in the position weight setting unit 503. For simplicity of explanation, the frame length is 24 samples (= position is 2
However, it is needless to say that the present invention includes the case where a frame is divided into a plurality of subframes and the position weight or the code search of the codebook is performed for each subframe.

【0044】図4(A)は符号化前の音声信号s(n)
の離散波形例である。同図では位置n=iの音声信号の波
形振幅をs(i)と表している。図4(B)は図4
(A)の音声信号から求めた残差信号r(n)の波形例
である。残差信号は音声信号を予測したときの誤差信号
であるから、残差信号の振幅が大きな位置は予測によっ
て十分表現できなかった位置であるということができ
る。そしてその位置の残差信号には、振幅が小さな他の
位置に比べ、予測によって表現できない音声の特徴がよ
り多く含まれていると考えられる。
FIG. 4A shows a speech signal s (n) before encoding.
Is an example of a discrete waveform of. In the figure, the waveform amplitude of the audio signal at the position n = i is represented by s (i). FIG. 4B shows FIG.
It is a waveform example of the residual signal r (n) obtained from the audio signal of (A). Since the residual signal is an error signal when the speech signal is predicted, it can be said that a position where the amplitude of the residual signal is large is a position that cannot be sufficiently expressed by the prediction. It is considered that the residual signal at that position includes more voice features that cannot be expressed by prediction than other positions with small amplitude.

【0045】従って、残差信号の振幅が大きな位置を他
の位置より精度良く(即ち歪みを少なく)符号化する仕
組みを音源信号の符号化に導入することにより、より高
品質の合成音声を提供することが可能となる。
Therefore, by introducing into the encoding of the excitation signal a mechanism for encoding a position where the amplitude of the residual signal is large with higher accuracy (that is, less distortion) than other positions, a higher quality synthesized speech is provided. It becomes possible to do.

【0046】本発明は、残差信号を基にその特徴をとら
えることにより、どの位置で歪みをより小さくするべき
かを分析し、そのような位置については歪み評価のペナ
ルティーが大きくなるように、位置重みを相対的に大き
く設定する。
The present invention analyzes at which position the distortion should be made smaller by capturing its characteristics based on the residual signal, and the penalty of the distortion evaluation becomes large at such a position. Set the position weight relatively large.

【0047】残差信号の各振幅値r(n)の相対的な大
小関係に応じ、各位置nの位置重みv(n)を設定する
ための具体例は、次のようになる。
A specific example for setting the position weight v (n) of each position n according to the relative magnitude relation of each amplitude value r (n) of the residual signal is as follows.

【0048】r(n)からしきい値THを計算し、 |r(n)|> TH ならば v(n)=k1 |r(n)|≦ TH ならば v(n)=k2 ここで、k1、k2はk1>k2>0なる関係にすると絶対値振
幅が大きい位置に大きな位置重みk1が設定されることに
なる。k1=k2とすると位置重みを用いないことと等価に
なる。
The threshold value TH is calculated from r (n), and if | r (n) |> TH, v (n) = k1 | r (n) | ≤TH, v (n) = k2 where , K1, k2 have a relationship of k1>k2> 0, a large position weight k1 is set at a position where the absolute value amplitude is large. Setting k1 = k2 is equivalent to not using position weight.

【0049】以下に、図4(C)を参照しながら、残差
信号から位置重みを設定する方法の一例を説明する。
An example of a method for setting the position weight from the residual signal will be described below with reference to FIG. 4 (C).

【0050】同図では、残差信号の各位置に置ける絶対
値振幅と所定の方法で決まるしきい値レベル49とを比
較し、その大小関係で位置重みを設定する最も簡単な方
法を示している。即ち、各位置における残差信号の絶対
値振幅がしきい値49よりも小さいならば位置重みを相
対的に小さく設定し、逆に、絶対値振幅がしきい値49
よりも大きいならば位置重みを相対的に大きく設定す
る。
In the figure, the simplest method of comparing the absolute value amplitude at each position of the residual signal with the threshold level 49 determined by a predetermined method and setting the position weight based on the magnitude relationship is shown. There is. That is, if the absolute value amplitude of the residual signal at each position is smaller than the threshold value 49, the position weight is set relatively small, and conversely, the absolute value amplitude is set to the threshold value 49.
If it is larger than that, the position weight is set relatively large.

【0051】実際、図4(C)の例では、50で示す絶
対値振幅はしきい値49よりも小さいのでこの位置の位
置重みは相対的に小さく設定され、51で示す絶対値振
幅はしきい値49よりも大きいのでこの位置の位置重み
は相対的に大きく設定される。
In the example of FIG. 4C, in fact, the absolute value amplitude indicated by 50 is smaller than the threshold value 49, so the position weight at this position is set relatively small, and the absolute value amplitude indicated by 51 is Since it is larger than the threshold value 49, the position weight at this position is set relatively large.

【0052】なお、しきい値THは1種類としたが、TH
1、TH2を使うなどして複数種類のしきい値を使ってより
細かく位置重みの値を設定する方法も効果がある。ま
た、しきい値は、例えば、残差信号の2乗和平均の平方
根や絶対値平均、または分散などを基に決めることがで
きる。残差信号の振幅を正規化したものを用いると、し
きい値はほぼ固定値として位置重みを設定することが可
能となる。
Although the threshold value TH is one type,
It is also effective to set the position weight value more finely by using multiple thresholds such as 1 and TH2. The threshold value can be determined based on, for example, the square root of the sum of squares of the residual signals, the average of the absolute values, or the variance. If the amplitude of the residual signal is normalized, it is possible to set the position weight with the threshold value set to a substantially fixed value.

【0053】図5(A)にこの結果得られる位置重みv
(n)の例を示す。この例では、位置重みv(n)の値
は大(k1)と小(k2)の2種類の値としている。また、
同図から判るように、本発明の位置重みv(n)はすべ
て同一の極性(同図ではすべて正:v(n)>0)を持
っている。このことは、位置重みがサンプル位置nに対
して対応付けされた重み関数であることを示している。
The position weight v obtained as a result is shown in FIG.
An example of (n) is shown. In this example, the position weight v (n) has two kinds of values, large (k1) and small (k2). Also,
As can be seen from the figure, all the position weights v (n) of the present invention have the same polarity (all positive: v (n)> 0 in the figure). This indicates that the position weight is a weight function associated with the sample position n.

【0054】サンプル位置nはサンプルリングされた時
系列信号の位置nを示すものであるから、本発明で言う
位置nとは、時間n、または時刻nと考えてもよい。従
って、位置に関する重みv(n)は対象とする符号化の
区間内のサンプル位置に関する位置重みでもあると言え
るし、この区間内で定義される時刻nに関する時間重み
(または時刻重み)であるとも言ってもよい。このよう
な時間位置に関する重み付けは、時系列信号の個々のサ
ンプル毎に乗じるように定義される重み付けであって、
従来の聴覚重み付けで用いるフィルタ演算や畳み込み演
算によって実現される重み付けとは全く異なる重み付け
である。
Since the sampling position n indicates the position n of the sampled time series signal, the position n in the present invention may be considered as the time n or the time n. Therefore, it can be said that the weight v (n) relating to the position is also the position weight relating to the sample position in the target coding section, and is also the time weight (or time weight) relating to the time n defined in this section. You can say that. The weighting relating to such a time position is a weighting defined to be multiplied for each individual sample of the time series signal,
The weighting is completely different from the weighting realized by the filter calculation and the convolution calculation used in the conventional auditory weighting.

【0055】図5(B)は残差の絶対値振幅が非常に小
さい位置での位置重みを小さな値に設定する方法も取り
入れ、位置重みの大きさを3種類に設定した例である。
例えば、同図で位置重みv(21)の値が図5(A)の
v(21)の値より小さくなっているのは、図4(C)
で位置n=21での残差の絶対値振幅が非常に小さいこ
とを反映するようにしたためである。
FIG. 5B is an example in which the method of setting the position weight at a position where the absolute value of the residual difference is very small is set to a small value and the size of the position weight is set to three types.
For example, in FIG. 4C, the position weight v (21) in FIG. 4 is smaller than the value v (21) in FIG.
This is because the fact that the absolute value amplitude of the residual at position n = 21 is very small is reflected.

【0056】位置重みの別な設定方法としては、残差信
号r(n)または残差信号を正規化した信号を用いて、
その絶対値を量子化したものを位置重みv(n)とする
方法も有効である。即ち、v(n)=Q[abs(r
(n))]とする。ここでabs( )は絶対値を表す関
数、Q[x]は所定の量子器Qにxを入力したときの量子
化出力を表す。量子化出力が2値の量子化器を用いる構
成にした場合は、図5(A)と同様に2種類の大きさの
位置重み設定をすることができる。
As another method of setting the position weight, the residual signal r (n) or a signal obtained by normalizing the residual signal is used,
It is also effective to use a quantized absolute value as the position weight v (n). That is, v (n) = Q [abs (r
(N))]. Here, abs () represents a function representing an absolute value, and Q [x] represents a quantized output when x is input to a predetermined quantum device Q. When a quantizer having a binary quantization output is used, position weights of two different sizes can be set as in the case of FIG. 5A.

【0057】同様に、量子化出力が3値の量子化器を用
いる構成にした場合は、図5(B)と同様に3種類の大
きさの位置重みを設定することができる。位置重みの大
きさの種類は4種類以上であってもよい。また、v
(n)=abs(Q[r(n)])としてもよい。量子化
器に絶対値処理が組みこまれている場合は単にv(n)
=Q[r(n)]とすればよい。
Similarly, when a quantizer whose quantized output is ternary is used, three kinds of position weights can be set as in the case of FIG. 5B. There may be four or more types of position weight magnitudes. Also, v
(N) = abs (Q [r (n)]) may be used. If absolute value processing is incorporated in the quantizer, simply v (n)
= Q [r (n)].

【0058】また、別な位置重みの設定方法としては、
r(n)の代わりに残差信号の2乗信号{r(n)}
を用いて上記の例に示した方法で位置重みを設定するこ
とも可能である。
As another method of setting the position weight,
Squared signal of residual signal instead of r (n) {r (n)} 2
It is also possible to set the position weight by using the method described in the above example.

【0059】また、残差信号の代わりに残差信号に比較
的近い形状を有する模擬信号を用いる方法も本発明に含
まれる。このような残差信号の模擬信号としては、例え
ば、これから述べるところの適応符号ベクトルが考えら
れ、適応符号ベクトルを残差信号の代りに用いて位置重
みを求めることも有効である。
The present invention also includes a method of using a simulated signal having a shape relatively close to the residual signal instead of the residual signal. As such a simulated signal of the residual signal, for example, the adaptive code vector described below can be considered, and it is also effective to use the adaptive code vector instead of the residual signal to obtain the position weight.

【0060】このように位置重みの設定方法としては様
々なものが考えられるが、要は、位置毎の重要度を位置
重みに反映できるような仕組みなっていればよく、どの
ような位置重みの決め方であっても本発明に含まれる。
As described above, various methods can be considered for setting the position weight, but the point is that the position weight should have a mechanism capable of reflecting the importance of each position on the position weight. The method of determination is also included in the present invention.

【0061】以上で図4(A)〜(C)及び図5
(A)、(B)の説明を終わる。
Above, FIGS. 4A to 4C and FIG.
The description of (A) and (B) ends.

【0062】ここで図3に戻って説明を続ける。Now, returning to FIG. 3, the description will be continued.

【0063】適応符号帳探索部504は音源信号の中に
含まれるピッチ周期で繰り返す成分を表現するために用
いる。CELP方式では、符号化された過去の音源信号
を所定の長さだけ適応符号帳として格納し、これを音声
符号化部と音声復号化部の両方で持つことにより、指定
されたピッチ周期に対応して繰り返す信号を適応符号帳
から引き出すことができる構造になっている。
Adaptive codebook search section 504 is used to represent a component repeated in the pitch period included in the excitation signal. In the CELP method, the coded past excitation signal is stored as an adaptive codebook for a predetermined length, and the adaptive codebook is stored in both the speech coding unit and the speech decoding unit, so that the specified pitch period is supported. The structure is such that the repeated signal can be extracted from the adaptive codebook.

【0064】適応符号帳では符号帳からの出力信号とピ
ッチ周期が一対一に対応するためピッチ周期を適応符号
帳のインデックスに対応させることができる。このよう
な構造の下、適応符号帳探索部504では、適応符号帳
からの出力信号を合成フィルタで合成したときの合成信
号と目標信号との歪みが小さくなるようなピッチ周期を
探索する。そして、探索されたピッチ周期に対応したイ
ンデックス(適応符号)Lを出力する。
In the adaptive codebook, the output signal from the codebook and the pitch period have a one-to-one correspondence, so the pitch period can correspond to the index of the adaptive codebook. Under such a structure, adaptive codebook searching section 504 searches for a pitch period such that distortion of the synthesized signal and the target signal when the output signal from the adaptive codebook is synthesized by the synthesis filter becomes small. Then, the index (adaptive code) L corresponding to the searched pitch period is output.

【0065】適応符号帳探索部504では、インデック
ス(適応符号)Lに対応したピッチ周期で得られる適応
符号帳からの出力信号(適応符号ベクトル)と、適応符
号ベクトルをスペクトルパラメータまたはインパルス応
答で合成することによって得られる合成された適応符号
ベクトルを出力する。さらに、適応符号ベクトルからの
寄与分を目標信号X(n)から差し引くことにより次の
雑音符号帳探索で使用する目標信号X2(n)(以下では
目標ベクトルX2とも呼ぶ)を出力する。
The adaptive codebook search unit 504 synthesizes the output signal (adaptive code vector) from the adaptive codebook obtained at the pitch period corresponding to the index (adaptive code) L and the adaptive code vector with the spectrum parameter or impulse response. The combined adaptive code vector obtained by Further, by subtracting the contribution from the adaptive code vector from the target signal X (n), the target signal X2 (n) (hereinafter also referred to as the target vector X2) used in the next noise codebook search is output.

【0066】位置重み付き相関計算部505は位置重み
とインパルス応答h(n)を用いて位置重み付き相関を計算
する。位置重み付き相互相関計算部506は位置重みと
インパルス応答h(n)と目標信号X2(n)とを用いて位
置重み付き相互相関を計算する。
The position weighted correlation calculation unit 505 calculates the position weighted correlation using the position weight and the impulse response h (n). The position-weighted cross-correlation calculation unit 506 calculates the position-weighted cross-correlation using the position weight, the impulse response h (n), and the target signal X2 (n).

【0067】次に、計算された位置重み付き相関と位置
重み付き相互相関を用いた雑音符号帳の探索を行なう訳
であるが、その前に、位置重みを導入した相関と相互相
関を用いた符号帳探索法の原理について以下で説明をし
ておく。
Next, the noise codebook is searched using the calculated position-weighted correlation and the position-weighted cross-correlation. Before that, the position-weighted correlation and cross-correlation were used. The principle of the codebook search method will be described below.

【0068】位置重みを導入した場合の符号帳探索によ
る誤差ベクトルEは以下のようにして表される。
The error vector E by the codebook search when the position weight is introduced is expressed as follows.

【0069】[0069]

【数3】 [Equation 3]

【0070】ここで、Hはインパルス応答h(n)から構成
されるインパルス応答行列、Vは位置重み行列、ckは
符号帳から出力される符号kに対応する符号ベクトル、
gはゲイン、r2は目標残差ベクトルに相当し、X2=
Hr2の関係がある。位置重み行列Vは本実施形態では
主対角成分viiが位置重みv(i)で、それ以外の要素
は値が零である行列とする。
Here, H is an impulse response matrix composed of impulse responses h (n), V is a position weight matrix, ck is a code vector corresponding to the code k output from the code book,
g is the gain, r2 is the target residual vector, and X2 =
There is a relationship of Hr2. In the position weight matrix V, in the present embodiment, the main diagonal component vii is the position weight v (i), and the other elements have a value of zero.

【0071】[0071]

【数4】 [Equation 4]

【0072】X3は、位置重み付き目標ベクトルであ
る。インパルス応答行列Hは、聴覚重み付き合成フィル
タH(z)による畳み込み演算を行列の形で表したもの
で、主対角成分にh(0)をもつ下三角行列で、対角要素が
同じ行列である。
X3 is a position weighted target vector. The impulse response matrix H represents a convolution operation by the auditory weighted synthesis filter H (z) in the form of a matrix, and is a lower triangular matrix having h (0) in the main diagonal component and a matrix with the same diagonal elements. Is.

【0073】[0073]

【数5】 [Equation 5]

【0074】従って、(3)式で定義される誤差Eは、
符号ベクトルckを位置重み付けしたベクトルVckを聴
覚重み付き合成フィルタH(z)で合成し、これにゲイ
ンgを乗じたベクトルgHVckと位置重み付き目標ベ
クトルX3との間の誤差であることがわかる。Vr2とV
ckはぞれぞれ、位置重み付きの目標残差ベクトル、位
置重み付き符号ベクトルと呼ぶことができる。
Therefore, the error E defined by the equation (3) is
It can be seen that there is an error between the position-weighted target vector X3 and the vector gHVck obtained by synthesizing the position-weighted vector Vck of the code vector ck with the auditory-weighted synthesizing filter H (z) and multiplying it by the gain g. Vr2 and V
ck can be called a position-weighted target residual vector and a position-weighted code vector, respectively.

【0075】従って、HVr2(=X3)は位置重み付
きの目標ベクトル、HVckは位置重み付き合成符号ベ
クトルである。また、(1)式で符号ベクトルckや残
差ベクトルr2という残差レベルのベクトルに対して位
置重み付けが適用され、さらに、これに聴覚重み付き合
成を行なったレベルで誤差Eが定義されていることに注
意されたい。
Therefore, HVr2 (= X3) is a position-weighted target vector, and HVcc is a position-weighted composite code vector. In addition, position weighting is applied to the residual level vectors such as the code vector ck and the residual vector r2 in the equation (1), and the error E is defined at the level where the auditory weighting synthesis is performed on the vector. Please note that.

【0076】上記で少し触れたが、r2は目標残差ベク
トルで、目標ベクトルX2からインパルス応答による畳
み込み合成の影響を取り去ったもので、X2=Hr2の
関係がある。従って、r2は目標ベクトルX2とインパ
ルス応答h(n)を用いることにより、r2=H-1X2とし
て計算することができる。この計算は表現を変えると、
以下と同じである。
As mentioned above, r2 is the target residual vector, which is obtained by removing the influence of convolutional synthesis by the impulse response from the target vector X2, and there is a relation of X2 = Hr2. Therefore, r2 can be calculated as r2 = H −1 X2 by using the target vector X2 and the impulse response h (n). This calculation changes the expression,
The same as below.

【0077】[0077]

【数6】 ここでLはベクトルの次元数を表す。[Equation 6] Here, L represents the number of dimensions of the vector.

【0078】目標残差ベクトルr2(n)は目標信号
(目標ベクトル)X(n)から生成された一種の短期予
測残差信号であるから、これにも音源信号の重要位置に
関する情報が含まれていると考えられる。従って、目標
残差ベクトルr2(n)を残差信号r(n)の代わりに
使用しても位置重みの情報抽出は可能であることをここ
で追記しておく。
Since the target residual vector r2 (n) is a kind of short-term predicted residual signal generated from the target signal (target vector) X (n), it also contains information on the important position of the sound source signal. It is thought that Therefore, it should be added here that the position weight information can be extracted even if the target residual vector r2 (n) is used instead of the residual signal r (n).

【0079】従来法で行なわれる代数符号帳の探索で
は、インパルス応答から求められる相関は目標信号とイ
ンパルス応答との相互相関(行列で表現するとX2
に相当、tは行列の転置を表す)、および、インパルス
応答の自己相関(行列で表現するとHHに相当)の計
算が必要である。これらの相関を用いて高速に代数符号
帳を探索するアルゴリズムは代数符号帳(Algebr
aic Codebook)探索法として広く知られて
おり、日本国内で使われている携帯電話のPDC―EF
R規格のACELP方式や、ITU−T標準の音声符号
化方式であるG.729、さらには3GPP規格の音声
符号化方式であるAMRなど各種の公知な音声符号化規
格において採用されている。
In the search of the algebraic codebook performed by the conventional method, the correlation obtained from the impulse response is the cross-correlation between the target signal and the impulse response (X2 t H when expressed as a matrix).
, T represents the transpose of the matrix), and the autocorrelation of the impulse response (corresponding to H t H when expressed in a matrix) is required. An algorithm for searching an algebraic codebook at high speed using these correlations is an algebraic codebook (Algebr
Widely known as aic Codebook search method, PDC-EF of mobile phone used in Japan
R standard ACELP system and ITU-T standard voice coding system G.I. 729, and also various known speech coding standards such as AMR which is a speech coding method of the 3GPP standard.

【0080】これに対し、本発明による位置重みを用い
た代数符号帳の探索は以下のようになる。
On the other hand, the search of the algebraic codebook using the position weight according to the present invention is as follows.

【0081】いま、(3)式の誤差ベクトルEの誤差パ
ワEEを最小にするゲインgを求めると
Now, when the gain g that minimizes the error power E t E of the error vector E of the equation (3) is obtained,

【数7】 となり、これを(3)式に代入すると、誤差パワの最小
値(EE)minは
[Equation 7] Then, by substituting this into equation (3), the minimum error power value (E t E) min is

【数8】 となる。符号帳の探索は(8)式の右辺第2項の評価値 (X3HVck)/(ckVHVck) を最大にする符号ベクトルの符号kを探索することであ
る(右辺第1項は符号kに依存しない固定値なので無視
することができる)。
[Equation 8] Becomes Search codebook is to explore the code k code vectors which maximize the equation (8) on the right side evaluation value of the second term (X3 t HVck) 2 / ( ck t V t H t HVck) ( right side The first term is a fixed value that does not depend on the code k and can be ignored).

【0082】一方、従来法の位置重みを用いない符号帳
の探索では、評価値 (X2Hck)/(ckHck) を最大にする符号ベクトルの符号kを探索する。従来法
では、相互相関X2H、自己相関HHを探索前に事
前に求めておくことで、これらの値を用いて誤差パワを
最小化するような好適な符号kを高速に探索することが
できる。しかしながら、位置重みを導入した条件では誤
差パワを最小化するような好適な符号kを高速に探索す
る方法はこれまで考えられておらず、本発明はこの方法
を提供するものである。
On the other hand, in the conventional codebook search using no position weight, the code k of the code vector that maximizes the evaluation value (X2 t Hc k ) 2 / (c k t H t Hc k) is searched. In the conventional method, the cross-correlation X2 t H and the auto-correlation H t H are obtained in advance before the search so that a suitable code k that minimizes the error power can be searched at high speed by using these values. be able to. However, a method for rapidly searching for a suitable code k that minimizes the error power under the condition of introducing the position weight has not been considered so far, and the present invention provides this method.

【0083】従来法と本発明の方法で得られた上記評価
値の対比から、位置重み付き相互相関X3HV(=r
VHV)と、位置重み付き自己相関V
Vを符号帳探索の前に事前に求めておけば、従来の代数
符号帳の探索法を利用して高速に最適な符号を選択でき
ることが判る。従って、位置重み付き相互相関と位置重
み付き自己相関を少ない計算量で求めることができるよ
うにすれば、本発明の位置重みを用いた符号帳探索に要
する計算量を従来法と同程度の量に抑えることができ、
より実用に適した符号化方法を提供することができる。
From the comparison between the above-mentioned evaluation values obtained by the conventional method and the method of the present invention, the position-weighted cross-correlation X3 t HV (= r
2 t V t H t HV) and position-weighted autocorrelation V t H t H
It is understood that if V is obtained in advance before the codebook search, the optimum code can be selected at high speed by using the conventional algebraic codebook search method. Therefore, if the position-weighted cross-correlation and the position-weighted autocorrelation can be obtained with a small amount of calculation, the amount of calculation required for the codebook search using the position weight of the present invention is similar to that of the conventional method. Can be suppressed to
A coding method more suitable for practical use can be provided.

【0084】まず、本発明による位置重み付き自己相関
を求める方法の具体例について説明する。従来のインパ
ルス応答の自己相関HHのi行j列の要素φ(i,
j)は、
First, a specific example of the method for obtaining the position-weighted autocorrelation according to the present invention will be described. The element φ (i, i, j) of the autocorrelation H t H of the conventional impulse response
j) is

【数9】 で計算することができ、HHは対称行列になるのでφ
(j,i)=φ(i,j)なる関係がある。一方、本発
明の方法では位置重み付き自己相関VHVの計算
が必要であるが、位置重み行列Vが(4)式で定義され
る対角行列の場合は、VHVのi行j列の要素Φ
(i,j)は、以下のようにして計算できる。
[Equation 9] And H t H becomes a symmetric matrix, so φ
There is a relationship of (j, i) = φ (i, j). On the other hand, the method of the present invention requires the calculation of the position-weighted autocorrelation V t H t HV. However, when the position weight matrix V is a diagonal matrix defined by the equation (4), V t H t HV Element at row i and column j of
(I, j) can be calculated as follows.

【0085】[0085]

【数10】 [Equation 10]

【0086】ここで、v(i)は位置重みであり、常に
正(即ち、v(i)>0)の値で与えられる。
Here, v (i) is a position weight and is always given as a positive value (that is, v (i)> 0).

【0087】Vが対角行列の場合、位置重み付き自己相
関VHVも対称行列になるので、Φ(j,i)=
Φ(i,j)なる関係がある。従って、本発明の方法に
よる位置重み付き自己相関を求めるための計算量の増加
は、従来法で得られるインパルス応答の自己相関φ
(i,j)にv(i)v(j)を乗じるだけでよいことが判る。
When V is a diagonal matrix, the position-weighted autocorrelation V t H t HV is also a symmetric matrix, so Φ (j, i) =
There is a relationship of Φ (i, j). Therefore, the increase in the amount of calculation for obtaining the position-weighted autocorrelation by the method of the present invention is due to the autocorrelation φ of the impulse response obtained by the conventional method.
It can be seen that it is sufficient to multiply (i, j) by v (i) v (j).

【0088】さらに、予め限定した個数の位置にだけ、
1と異なる位置重みを用いるように位置重みを設定する
と、更に(10)式の計算量をさらに少なくできること
は明かである。
Furthermore, only in a limited number of positions in advance,
It is clear that if the position weight is set so as to use a position weight different from 1, the calculation amount of the equation (10) can be further reduced.

【0089】典型的な代数符号帳探索法では、音源パル
ス位置の探索の前に位置毎のパルス振幅が+1か−1の
何れかに定め、位置毎のパルス振幅を反映した自己相関
φ’(i,j)を用いてパルス位置の探索を行なうこと
で探索の計算量を少なくする。すなわち従来法による
φ’(i,j)は、
In a typical algebraic codebook search method, the pulse amplitude for each position is set to either +1 or -1 before the search for the excitation pulse position, and the autocorrelation φ '( The calculation amount of the search is reduced by performing the search of the pulse position using i, j). That is, φ ′ (i, j) by the conventional method is

【数11】 で求めることができる。これに対し、本発明による位置
毎のパルス振幅を反映した位置重み付き自己相関Φ’
(i,j)は次のようになる。
[Equation 11] Can be found at. On the other hand, according to the present invention, position-weighted autocorrelation Φ ′ reflecting the pulse amplitude for each position
(I, j) is as follows.

【0090】[0090]

【数12】 [Equation 12]

【0091】[0091]

【数13】 [Equation 13]

【0092】位置毎のパルス振幅を反映した位置重み付
き自己相関についてもΦ’(j,i)=Φ’(i,j)
なる関係がある。dは位置毎のパルス振幅の事前推定に
使用する信号または関数である。典型的なdとしては、
d=X2H(相互相関)を用いることができる。すな
わち、
Also for position-weighted autocorrelation reflecting the pulse amplitude for each position, Φ '(j, i) = Φ' (i, j)
There is a relationship. d is a signal or function used for pre-estimation of pulse amplitude for each position. As a typical d,
d = X2 t H (cross correlation) can be used. That is,

【数14】 であり、sign(d(i))はn=iの位置におけるd(i)
の極性を表す。すなわち、sign(d(i))やsign(d(j))は
+1か−1のいずれかの値である。ここに示した位置毎
のパルス振幅の推定に使用する関数dは一例であってこ
れに限られるものではない。位置毎のパルス振幅を反映
した位置重み付き自己相関Φ’(i,j)はインパルス
応答の自己相関φ(i,j)に位置iと位置jのパルス
振幅sign(d(i))、sign(d(j))を乗じる以外に、位置i
と位置jの位置重みv(i)、v(j)を乗じることで計算する
ことができる。位置重みv(i)とv(j)は正の値であり、位
置iと位置jで位置の重要度が異なる場合にはv(i)とv(j)
は異なる値とすることができる(例えば、位置重みの設
計によっては、v(i)=1.25、v(j)=0.75
となることもある)。
[Equation 14] And sign (d (i)) is d (i) at the position of n = i
Represents the polarity of. That is, sign (d (i)) and sign (d (j)) are either +1 or -1. The function d used here for estimating the pulse amplitude for each position is an example, and the function d is not limited to this. The position-weighted autocorrelation Φ ′ (i, j) reflecting the pulse amplitude for each position is the pulse amplitude sign (d (i)), sign of position i and position j in the autocorrelation φ (i, j) of the impulse response. Besides multiplying by (d (j)), position i
And the position weights v (i) and v (j) of the position j can be calculated. Position weights v (i) and v (j) are positive values, and v (i) and v (j) are different when position importance is different between position i and position j.
Can have different values (eg, v (i) = 1.25, v (j) = 0.75 depending on the position weight design.
May be).

【0093】また位置毎にパルス振幅と位置重みを乗じ
た位置重み付きパルス振幅としてvs(i)=v(i)×si
gn(d(i))を定義すると、(13)式は
Further, as a position-weighted pulse amplitude obtained by multiplying the pulse amplitude and the position weight for each position, vs (i) = v (i) × si
Defining gn (d (i)), equation (13) becomes

【数15】 と書くことができる。すなわち、位置重み付きパルス振
幅vs(i)を予め計算しておいてから、これを自己相
関φ(i,j)に乗じることにより位置毎のパルス振幅
を反映した位置重み付き自己相関Φ’(i,j)を求め
る方法も有効である。これにさらに(7)式を代入すれ
[Equation 15] Can be written. That is, after the position-weighted pulse amplitude vs (i) is calculated in advance, the position-weighted autocorrelation Φ ′ ((′) that reflects the pulse amplitude for each position by multiplying this by the autocorrelation φ (i, j). The method of obtaining i, j) is also effective. Substituting equation (7) into this,

【数16】 が得られる。この(16)式を使用すればφ(i,j)
を介さずにインパルス応答と位置重み付きパルス振幅を
用いて位置重み付き自己相関を求めることができる。
[Equation 16] Is obtained. If this equation (16) is used, φ (i, j)
The position-weighted autocorrelation can be obtained without using the impulse response and the position-weighted pulse amplitude.

【0094】図6は、図3の位置重み付き相関計算部5
05のより詳細な構成例である。同図では、まず相関計
算部520でインパルス応答計算部501からのインパ
ルス応答の自己相関を計算し、計算された自己相関に位
置重み付け部521にて位置重みを反映することによ
り、位置重み付き自己相関を求める方法を示している。
FIG. 6 shows the position weighted correlation calculator 5 of FIG.
11 is a more detailed configuration example of No. 05. In the figure, first, the correlation calculation unit 520 calculates the autocorrelation of the impulse response from the impulse response calculation unit 501, and the position weighting unit 521 reflects the position weight on the calculated autocorrelation, so that the position weighted self The method of obtaining the correlation is shown.

【0095】図7は、図6の位置重み付け部521をさ
らに詳細に表した一例である。位置重み付け部521は
振幅計算部522、位置重み付け部523、乗算部52
4から構成されている。振幅計算部522はパルス振幅
の計算を行なうもので、実現の一例としては、d=X2
H(相互相関)をもとに上述した方法で位置毎のパル
ス振幅を求める。
FIG. 7 is an example showing the position weighting unit 521 of FIG. 6 in more detail. The position weighting unit 521 includes an amplitude calculation unit 522, a position weighting unit 523, and a multiplication unit 52.
It is composed of 4. The amplitude calculator 522 calculates the pulse amplitude, and as an example of implementation, d = X2
The pulse amplitude for each position is obtained by the method described above based on t H (cross-correlation).

【0096】別な方法としては、これから述べる、位置
重みを反映した相互相関(X3HV)を用いて位置毎
のパルス振幅を求める方法も有効である。この方法を用
いると、従来の位置重み付けをしない相互相関(X2
H)の計算が不要になるので計算量が減るという効果が
ある。位置重み付け部523は位置毎のパルス振幅に位
置重みを乗じることにより、位置重み付きパルス振幅v
s(i)を出力する。これを乗算部524で自己相関に
乗じることにより、位置毎のパルス振幅を反映した位置
重み付き自己相関Φ’(i,j)が計算される。
As another method, a method of obtaining the pulse amplitude for each position using the cross-correlation (X3 t HV) reflecting the position weight, which will be described later, is also effective. Using this method, the conventional cross-correlation (X2 t
The calculation amount is reduced because the calculation of H) becomes unnecessary. The position weighting unit 523 multiplies the position-weighted pulse amplitude by the position weight to obtain the position-weighted pulse amplitude v
Output s (i). By multiplying this by the autocorrelation in the multiplication unit 524, the position-weighted autocorrelation Φ ′ (i, j) that reflects the pulse amplitude for each position is calculated.

【0097】次に、位置重み付き相互相関X3HV
(=r2VHV)の求め方の一例について説明
する。
Next, position-weighted cross-correlation X3 t HV
(= R2 t V t H t HV) An example of Determination will be described.

【0098】X3はX3=HVr2であり、r2はr2=
-1X2であるから、まず、(6)式により目標残差ベ
クトルr2を求め、次に、これに位置重みを乗じ、位置
重み付き目標残差ベクトルVr2を求める。すなわち、
ベクトルq=Vr2とおくと、その要素q(n)は
X3 is X3 = HVr2, and r2 is r2 =
Since it is H −1 X2, first, the target residual vector r2 is obtained by the equation (6), and then this is multiplied by the position weight to obtain the position-weighted target residual vector Vr2. That is,
If the vector q = Vr2 is set, the element q (n) is

【数17】 と計算できる。次に、位置重み付き目標残差ベクトルq
にインパルス応答を畳み込み、位置重み付き目標ベクト
ルX3(=H(Vr2)=Hq)を得る。
[Equation 17] Can be calculated. Next, the position-weighted target residual vector q
The impulse response is convolved with the position-weighted target vector X3 (= H (Vr2) = Hq).

【0099】[0099]

【数18】 [Equation 18]

【0100】次に位置重み付き目標ベクトルX3とイン
パルス応答との相関計算によりベクトルX3Hの要素
γ(n)を求める。
Next, the element γ (n) of the vector X3 t H is obtained by the correlation calculation between the position-weighted target vector X3 and the impulse response.

【0101】[0101]

【数19】 [Formula 19]

【0102】最後に、X3Hの要素γ(n)に位置重
みv(n)を乗じ、位置重み付きの相互相関X3HV
の要素f(n)を求める。
Finally, the element weight γ (n) of X3 t H is multiplied by the position weight v (n) to obtain the position weighted cross-correlation X3 t HV.
The element f (n) of

【0103】[0103]

【数20】 [Equation 20]

【0104】位置毎のパルス振幅が与えられている場
合、これを反映した位置重み付き相互自己相関f’
(n)は
When the pulse amplitude for each position is given, the position-weighted cross autocorrelation f ′ reflecting this is given.
(N) is

【数21】 となる。ここで、d(n)は位置毎のパルス振幅の事前推
定に使用する信号または関数である。d(n)としては位
置重みなしの相互相関や位置重み付きの相互相関f
(n)を用いることができる。すなわち、
[Equation 21] Becomes Here, d (n) is a signal or function used for pre-estimation of the pulse amplitude for each position. As d (n), cross-correlation with no position weight or cross-correlation with position weight f
(N) can be used. That is,

【数22】 [Equation 22]

【0105】図8は、図3の位置重み付き相互相関計算
部506のより詳細な構成例である。同図で、位置重み
付き相互相関計算部506は位置重み付き目標ベクトル
計算部525、相互相関計算部529、位置重み付け部
530から構成されている。位置重み付き目標ベクトル
計算部525はインパルス応答と位置重みと、適応符号
帳探索部504の影響を差し引いた目標ベクトルをもと
に位置重み付き目標ベクトルを計算する。
FIG. 8 is a more detailed configuration example of the position-weighted cross-correlation calculation unit 506 of FIG. In the figure, the position-weighted cross-correlation calculation unit 506 includes a position-weighted target vector calculation unit 525, a cross-correlation calculation unit 529, and a position weighting unit 530. The position-weighted target vector calculation unit 525 calculates the position-weighted target vector based on the impulse response, the position weight, and the target vector from which the influence of the adaptive codebook search unit 504 is subtracted.

【0106】次に相互相関計算部529でインパルス応
答と位置重み付き目標ベクトルとの相互相関を計算し、
これに位置重み付け部530で位置重みを乗じることに
より位置重み付き相互相関を得る。
Next, the cross-correlation calculator 529 calculates the cross-correlation between the impulse response and the position-weighted target vector,
A position weighting unit 530 multiplies this by a position weight to obtain a position weighted cross-correlation.

【0107】図9は、図8の位置重み付き目標ベクトル
計算部525をさらに詳細に表した一例である。位置重
み付き目標ベクトル計算部525は目標残差ベクトル計
算部526、位置重み付け部527、フィルタリング部
528から構成されている。目標残差ベクトル計算部5
26は適応符号帳探索部504の影響を差し引いた目標
ベクトルとインパルス応答を用いて目標残差ベクトルを
計算する。位置重み付け部527は目標残差ベクトルに
位置重みを乗じて位置重み付き目標残差ベクトルを出力
する。次に、フィルタリング部528で位置重み付き目
標残差ベクトルにインパルス応答を畳み込むことで位置
重み付き目標ベクトルを得る。
FIG. 9 is an example showing the position-weighted target vector calculation unit 525 of FIG. 8 in more detail. The position-weighted target vector calculation unit 525 includes a target residual vector calculation unit 526, a position weighting unit 527, and a filtering unit 528. Target residual vector calculation unit 5
Reference numeral 26 calculates a target residual vector using the target vector and impulse response from which the influence of the adaptive codebook search unit 504 has been subtracted. The position weighting unit 527 multiplies the target residual vector by the position weight and outputs the position-weighted target residual vector. Next, the filtering unit 528 convolves the impulse response with the position-weighted target residual vector to obtain the position-weighted target vector.

【0108】本発明は、位置重みとインパルス応答を用
いて計算される歪み評価値を用いて符号帳探索を行なう
ことがその趣旨であり、位置重み付きの相関や位置重み
付きの相互相関を基に符号探索を行なう方法は本発明の
方法を少ない計算量で実現するための一つの手法であ
る。従って、本実施形態の方法と類似の別な方法や、計
算を簡略的に行なう手法が存在するが、そのような場合
も基本的に本発明に含まれることはいうまでもない。
The gist of the present invention is to perform a codebook search using the distortion evaluation value calculated using the position weight and the impulse response, and based on the position weighted correlation and the position weighted cross correlation. The code search method is a method for realizing the method of the present invention with a small amount of calculation. Therefore, although there are other methods similar to the method of the present embodiment and a method of simplifying the calculation, it goes without saying that such a case is basically included in the present invention.

【0109】例えば、位置重み付きの相互相関を求める
別な方法として、次の方法が存在する。すなわち、位置
重み付き相互相関X3HVがr2HVと等
しいことを利用し、目標残差ベクトルr2と上述の位置
重み付き自己相関Φ(i,j)(=VHVの要
素)を用いることにより、位置重み付きの相互相関X3
HVの要素f(n)が
For example, a position-weighted cross-correlation is obtained.
As another method, there is the following method. Ie position
Weighted cross-correlation X3tHV is r2tVtHtHV etc.
The target residual vector r2 and the above-mentioned position
Weighted autocorrelation Φ (i, j) (= VtHtThe point of HV
Position weighted cross-correlation X3
tThe element f (n) of HV is

【数23】 を用いて計算できる。[Equation 23] Can be calculated using

【0110】従来法の(9)式の計算がLの3乗のオー
ダであることと比較すると、本発明による計算量の増加
は以上述べた方法のいずれを使用するにしても、高々L
の2乗のオーダであり、本発明の方法は実用的な方法で
あると言える。
Compared with the calculation of the equation (9) of the conventional method in the order of the cube of L, the increase in the amount of calculation according to the present invention is at most L regardless of which of the above-mentioned methods is used.
It can be said that the method of the present invention is a practical method.

【0111】以上で、本発明の位置重み付き自己相関の
計算方法、および、位置重み付き相互相関の計算方法に
ついての説明を終わる。
The above is the description of the method of calculating the position-weighted autocorrelation and the method of calculating the position-weighted cross-correlation of the present invention.

【0112】ここで図3に戻って説明を続ける。Now, returning to FIG. 3, the description will be continued.

【0113】雑音符号帳探索部507では、代数符号帳
を用いて歪みが最小となる符号ベクトルの符号kの検索
を行なう。この際に、位置重み付き相関と位置重み付き
相互相関を用いる。代数符号帳は予め定められたNp個
のパルスの振幅がとり得る値を+1、−1に限定し、パ
ルスの位置情報と振幅情報(すなわち極性情報)の組合
せで符号ベクトルを表わす符号帳である。代数符号帳の
特徴としては、符号ベクトルそのものを直接には格納す
る必要がないため符号帳を表わすメモリ量が少なくて済
み、符号ベクトルを選択するための計算量が少ないにも
かかわらず、比較的高品質に音源情報に含まれる雑音成
分を表わすことができることが挙げられる。このように
音源信号の符号化に代数符号帳を用いるものはACEL
P方式,ACELPベースの方式と呼ばれ、比較的歪の
少ない合成音声が得られることが知られている。
The random codebook search unit 507 searches the code k of the code vector with the minimum distortion using the algebraic codebook. At this time, the position weighted correlation and the position weighted cross correlation are used. The algebraic codebook is a codebook in which the values that can be taken by the amplitude of a predetermined Np pulse are limited to +1 and -1, and a code vector is represented by a combination of pulse position information and amplitude information (that is, polarity information). . The characteristics of the algebraic codebook are that it is not necessary to directly store the code vector itself, so the amount of memory representing the codebook is small, and although the amount of calculation for selecting the code vector is small, it is relatively small. It is possible to represent the noise component included in the sound source information with high quality. ACEL is one that uses an algebraic codebook for encoding excitation signals in this way.
It is known that the P system and the ACELP-based system are available, and that synthetic speech with relatively little distortion can be obtained.

【0114】このような構造の下、雑音符号帳探索部5
07では、符号帳からの出力信号(符号ベクトル)を用
いて再生される合成音声信号と雑音符号帳探索部におい
て目標となる目標信号(修正された目標ベクトルX2)
との歪みを位置重み付き相関(VHV)と位置重
み付き相互相関(X3HV)を用いて評価し、その歪
みが小さくなるようなインデックス(雑音符号)Cを探
索する。この際用いる評価値は、先に説明したように、
(8)式の右辺第2項の歪み評価値 (X3HVck)/(ckHVck) であり、この値を最大にする符号ベクトルの符号kを探
索することが最も歪みが小さくなる符号を選択すること
と等価である。そして、探索された雑音符号Cとこの符
号に対応する雑音符号ベクトルcを出力する。
Under such a structure, the random codebook search unit 5
In 07, a synthesized speech signal reproduced using an output signal (code vector) from the codebook and a target signal that is a target in the noise codebook search unit (modified target vector X2)
Distortion is evaluated using a position weighted correlation (V t H t HV) and a position weighted cross correlation (X3 t HV), and an index (noise code) C that reduces the distortion is searched for. The evaluation value used at this time is, as described above,
The distortion evaluation value of the second term on the right side of the equation (8) is (X3 t HVc k) 2 / (c k t V t H t HVc k), and searching for the code k of the code vector that maximizes this value is the most distortion. This is equivalent to selecting a code that reduces. Then, the searched random code C and the random code vector c c corresponding to this code are output.

【0115】雑音符号帳が代数符号帳で実現される場
合、数個(ここではNp個)の非零のパルスから構成さ
れるようになっているため、(8)式の右辺第2項の評
価値の分子側のX3HVckはさらに
When the random codebook is realized by an algebraic codebook, it is composed of several (Np in this case) non-zero pulses, so that the second term on the right side of the equation (8) X3 t HVcc on the numerator side of the evaluation value is further

【数24】 と表すことができる。ここで、miは第i番目のパルス
の位置、
[Equation 24] It can be expressed as. Where m i is the position of the i-th pulse,

【数25】 は第i番目のパルスの振幅、f(n)は位置重み付きの
相互相関ベクトルX3HVの要素である。また、
(8)式の右辺第2項の評価値の分母側のck
HVckは
[Equation 25] Is the amplitude of the i-th pulse, and f (n) is an element of the position-weighted cross-correlation vector X3 t HV. Also,
Ck t V t H on the denominator side of the evaluation value of the second term on the right side of the equation (8)
t HVcc is

【数26】 と表すことができる。さらに、位置毎のパルス振幅が求
められている条件では、これを反映した位置重み付きの
相関を使うと
[Equation 26] It can be expressed as. Furthermore, under the condition that the pulse amplitude for each position is obtained, using the position-weighted correlation that reflects this

【数27】 [Equation 27]

【数28】 となる。これらを基に歪み評価値(X3HVck)
(ckHVck)が最大となるようなパルス位
置mi(i=0〜Np)を探索することでパルス位置情報
の選択が完了する。この際、f’(n)とΦ’(i,
j)(もしくはf(n)とΦ(i,j))が探索の前に
計算されているので、符号選択の際に要する計算量は非
常に少ないものとなる。選択されたパルス位置情報はパ
ルス振幅情報と共に雑音符号として出力される。
[Equation 28] Becomes Based on these, distortion evaluation value (X3 t HVcc) 2 /
(Ck t V t H t HVck ) Selection of pulse position information that explore the maximum to become such a pulse position m i (i = 0~Np) is completed. At this time, f '(n) and Φ' (i,
Since j) (or f (n) and Φ (i, j)) is calculated before the search, the calculation amount required for code selection is very small. The selected pulse position information is output as a noise code together with the pulse amplitude information.

【0116】本発明では、位置重み付けと従来の聴覚重
み付けを組み合わせることでより効果的に歪みが聞こえ
にくい符号を選択することができる効果がある。聴覚重
み付けを用いるには、前述したようにインパルス応答h
(n)を(1)式で示したような聴覚重み付き合成フィ
ルタH(z)から求めることが必要である。
The present invention has the effect of more effectively selecting a code in which distortion is less audible by combining position weighting and conventional auditory weighting. In order to use the auditory weighting, as described above, the impulse response h
It is necessary to obtain (n) from the perceptual weighted synthesis filter H (z) as shown in the equation (1).

【0117】ゲイン符号帳探索部509は音源のゲイン
成分を表現するために用いる。典型的なCELP方式で
は、ピッチ成分に用いるゲインと雑音成分に用いるゲイ
ンの2種類のゲインをゲイン符号帳探索部509で符号
化する。ここでは説明の簡単のためゲイン符号帳探索部
509については位置重みを用いない構成で説明する
が、位置重みをゲイン符号帳探索部509で用いる構成
であってもよいことは言うまでもない。
The gain codebook search unit 509 is used to express the gain component of the excitation. In a typical CELP method, the gain codebook search unit 509 encodes two types of gains, a gain used for a pitch component and a gain used for a noise component. Here, for the sake of simplicity of explanation, the gain codebook searching unit 509 will be described as a configuration that does not use the position weight, but it goes without saying that the position code weight may be used in the gain codebook searching unit 509.

【0118】ゲイン符号帳探索においては、符号帳から
引き出されるゲイン候補を用いて再生される合成音声信
号と目標とする音声信号との歪みが小さくなるようなイ
ンデックス(ゲイン符号)Gを探索する。そして、探索
されたゲイン符号Gとそれに対応するゲインを出力す
る。
In the gain codebook search, an index (gain code) G is searched so that the distortion between the synthesized voice signal reproduced using the gain candidates extracted from the codebook and the target voice signal becomes small. Then, the searched gain code G and the corresponding gain are output.

【0119】ここでは雑音符号帳探索だけに位置重みを
用いる方法を説明したが、本発明はこれに限られるもの
ではなく、様々な変形例が可能であることは言うまでも
ない。例えば、適応符号帳探索、雑音符号帳探索、ゲイ
ン符号帳探索における3つの符号帳の探索のそれぞれに
位置重みを用いる方法も有効である。
Although the method of using the position weights only for the random codebook search has been described here, it is needless to say that the present invention is not limited to this and various modifications can be made. For example, a method of using position weights for each of the three codebook searches in the adaptive codebook search, the noise codebook search, and the gain codebook search is also effective.

【0120】また別の実現例においては、適応符号帳探
索と雑音符号帳の2つの探索部にだけ位置重みを用いる
方法も有効である。さらに別の実現例においては、ゲイ
ン符号帳探索だけに位置重みを用いる方法も有効であ
る。
In another implementation, it is also effective to use position weights only for the two search units of the adaptive codebook search and the random codebook. In yet another implementation, a method of using the position weight only for the gain codebook search is also effective.

【0121】このように、本発明は様々な適用形態が考
えられるが、どのような使用法においても、音声信号か
ら求められた位置重みを残差信号(または音源信号)レ
ベルの時系列信号の符号化に用いることにより、重要な
位置の信号サンプルをより精度良く符号化することがで
きる。
As described above, the present invention can be applied in various forms. In any usage, the position weight obtained from the voice signal is used as the time series signal of the residual signal (or sound source signal) level. By using it for encoding, signal samples at important positions can be encoded more accurately.

【0122】音源信号生成部510は、適応符号帳探索
部504からの適応符号ベクトル、雑音符号帳探索部5
07からの雑音符号ベクトル、ゲイン符号帳探索部50
9からのゲインを用いて音源信号を生成する。生成され
た音源信号は次の符号化区間において適応符号帳探索部
504で利用できるように適応符号帳に格納される。さ
らに、生成された音源信号は、次の符号化区間において
適応符号帳探索部504で利用できるように適応符号帳
に格納される。生成された音源信号は目標信号計算部5
11において、次区間での符号化の目標信号を計算する
ために使用される。
Excitation signal generation section 510 has adaptive code vector and adaptive codebook search section 5 from adaptive codebook search section 504.
Noisy code vector from 07, gain codebook search unit 50
The sound source signal is generated using the gain from 9. The generated excitation signal is stored in the adaptive codebook so that it can be used by adaptive codebook searching section 504 in the next coding section. Further, the generated excitation signal is stored in the adaptive codebook so that it can be used by adaptive codebook searching section 504 in the next coding section. The generated sound source signal is the target signal calculation unit 5
At 11, it is used to calculate the target signal for encoding in the next interval.

【0123】以上で図3の音声符号化の説明を終る。This is the end of the description of the speech coding shown in FIG.

【0124】図10は、本発明の一実施形態に係る符号
化方法をフローチャートにしたものである。所定の符号
化区間毎に音声信号を入力し(ステップS1)、スペク
トルパラメータの分析とその符号帳探索を行なう(ステ
ップS2)。次に、現区間の符号化の目標信号を計算す
る(ステップS3)。次に、スペクトルパラメータをも
とにインパルス応答を求める(ステップS4)。
FIG. 10 is a flowchart of the encoding method according to the embodiment of the present invention. A voice signal is input for each predetermined coding section (step S1), spectrum parameters are analyzed and a codebook search is performed (step S2). Next, a target signal for encoding the current section is calculated (step S3). Next, the impulse response is obtained based on the spectrum parameter (step S4).

【0125】さらに、音声信号から第1の信号(例:残
差信号)を求め(ステップS5)、第1の信号を用いて
位置重みを設定する(ステップS6)。例としては、残
差信号の絶対値振幅や残差信号のパワの外形など、極性
に依存しない形状情報を介して位置重みを決定する。そ
して、適応符号帳探索を行なう(ステップS7)。
Further, a first signal (eg residual signal) is obtained from the voice signal (step S5), and the position weight is set using the first signal (step S6). As an example, the position weight is determined through shape information that does not depend on the polarity, such as the absolute value amplitude of the residual signal and the outer shape of the power of the residual signal. Then, an adaptive codebook search is performed (step S7).

【0126】次に、位置重み付き相関と位置重み付き相
互相関を計算し(ステップS8)、これらを用いて雑音
符号帳を探索し、雑音符号を選択する(ステップS
9)。次に、ゲイン符号帳を探索する(ステップS1
0)。こうして得られたスペクトルパラメータ符号、適
応符号L、雑音符号C、ゲイン符号Gを符号化部から出
力し(ステップS11)、次区間の符号化に備えて音源
信号を計算する(ステップS12)。次の区間の符号化
を行なう場合はステップS1にて次の区間の音声信号を
入力し、そうでない場合はステップS13にて符号化部
の処理を終了する。
Next, the position-weighted correlation and the position-weighted cross-correlation are calculated (step S8), the random codebook is searched using these, and the random code is selected (step S).
9). Next, the gain codebook is searched (step S1).
0). The spectrum parameter code, adaptive code L, noise code C, and gain code G thus obtained are output from the encoding unit (step S11), and the excitation signal is calculated in preparation for the encoding of the next section (step S12). If the next section is to be coded, the audio signal of the next section is input in step S1, and if not, the processing of the coding unit ends in step S13.

【0127】以上で図10のフローチャートを用いた符
号化部の処理の説明を終わる。
This is the end of the description of the processing of the encoding unit using the flowchart of FIG.

【0128】本発明は、符号化側で行なうパラメータの
符号選択に用いる重み付けに関するものであるため、復
号化の方法は従来法と同じでよい。ここでは、復号化の
方法について図11を参照して簡単に説明することにす
る。
Since the present invention relates to weighting used for code selection of parameters performed on the encoding side, the decoding method may be the same as the conventional method. Here, the decoding method will be briefly described with reference to FIG.

【0129】図11において、符号化部からの符号化デ
ータは入力端子160から入力され、符号化データ分離
部19において各符号A,L,C,Gに分離される。ス
ペクトルパラメータ復号部14は、符号Aを基にスペク
トルパラメータを再生する。適応音源復号部11は、符
号Lを基に適応符号ベクトルを再生する。雑音音源復号
部12は、符号Cを基に雑音符号ベクトルを再生する。
ゲイン復号部13は、符号Gを基に、ゲインを再生す
る。音源再生部15では再生された適応符号ベクトル、
雑音符号ベクトル、ゲインを用いて音源信号を再生す
る。
In FIG. 11, the coded data from the coding unit is input from the input terminal 160, and is separated into each code A, L, C, G in the coded data separation unit 19. The spectrum parameter decoding unit 14 reproduces the spectrum parameter based on the code A. The adaptive excitation decoding unit 11 reproduces an adaptive code vector based on the code L. The noise source decoding unit 12 reproduces a noise code vector based on the code C.
The gain decoding unit 13 reproduces the gain based on the code G. In the sound source reproducing unit 15, the reproduced adaptive code vector,
The sound source signal is reproduced using the noise code vector and the gain.

【0130】合成フィルタ16は、スペクトルパラメー
タ復号部14で再生されたスペクトルパラメータを用い
て合成フィルタを構成し、これに音源再生部15からの
音源信号を通過させることにより、合成音声信号を生成
する。ポストフィルタ17は、この合成音声信号に含ま
れる符号化歪みを整形して聞きやすい音となるようにす
るポストフィルタリング処理を行う。処理された合成音
声信号は出力端子195から出力される。
The synthesizing filter 16 forms a synthesizing filter by using the spectrum parameters reproduced by the spectrum parameter decoding unit 14, and passes the sound source signal from the sound source reproducing unit 15 through this to generate a synthetic speech signal. . The post filter 17 performs post filtering processing for shaping the coding distortion included in the synthesized voice signal so that the sound becomes easy to hear. The processed synthesized voice signal is output from the output terminal 195.

【0131】以上で、本実施形態の説明を終わる。This is the end of the description of the present embodiment.

【0132】[0132]

【発明の効果】本発明によれば、低ビットレートでも高
品質な音声信号/音響信号を生成できる音声/音響信号
の符号化方法及び電子装置を提供することができる。
According to the present invention, it is possible to provide an audio / audio signal encoding method and an electronic device capable of generating a high-quality audio / audio signal even at a low bit rate.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の符号化方法における残差レベル位置重
み付けの原理的構成を示す図である。
FIG. 1 is a diagram showing a principle configuration of residual level position weighting in an encoding method of the present invention.

【図2】残差信号レベルの位置重み付けと聴覚重み付き
合成レベルでの歪み評価を用いて雑音符号帳の符号選択
を行なう本発明の符号化方法の原理的な構成を示す図で
ある。
FIG. 2 is a diagram showing a principle configuration of a coding method of the present invention for performing code selection of a random codebook by using position weighting of residual signal levels and distortion evaluation at a perceptually weighted synthesis level.

【図3】本発明の音声/音響信号の符号化方法を実現す
る符号化部の一例を示すブロック図である。
[Fig. 3] Fig. 3 is a block diagram showing an example of a coding unit that realizes a method of coding a voice / acoustic signal of the present invention.

【図4】位置重み設定部503にて位置重みを求める方
法の一例を説明するための図(その1)である。
FIG. 4 is a diagram (No. 1) for explaining an example of a method for obtaining a position weight in a position weight setting unit 503.

【図5】位置重み設定部503にて位置重みを求める方
法の一例を説明するための図(その2)である。
FIG. 5 is a diagram (No. 2) for explaining an example of a method for obtaining a position weight in a position weight setting unit 503.

【図6】図3の位置重み付き相関計算部505のより詳
細な構成例を示す図である。
6 is a diagram showing a more detailed configuration example of a position weighted correlation calculation unit 505 in FIG.

【図7】図6の位置重み付け部521をさらに詳細に表
した一例を示す図である。
7 is a diagram showing an example of the position weighting unit 521 of FIG. 6 in more detail.

【図8】図3の位置重み付き相互相関計算部506のよ
り詳細な構成例を示す図である。
8 is a diagram showing a more detailed configuration example of a position-weighted cross-correlation calculation unit 506 in FIG.

【図9】図8の位置重み付き目標ベクトル計算部525
をさらに詳細に表した一例を示す図である。
9 is a position weighted target vector calculation unit 525 of FIG. 8;
It is a figure which shows an example which represented in more detail.

【図10】本発明の一実施形態に係る符号化方法をフロ
ーチャートにした図である。
FIG. 10 is a flowchart showing an encoding method according to an embodiment of the present invention.

【図11】復号化の方法について説明するための図であ
る。
FIG. 11 is a diagram for explaining a decoding method.

【図12】聴覚重み付き合成により音源信号から聴覚重
み付き合音声信号が生成される過程を示す図である。
FIG. 12 is a diagram showing a process in which an auditory weighted combined speech signal is generated from a sound source signal by auditory weighted synthesis.

【符号の説明】[Explanation of symbols]

300 音源信号(残差レベル) 302 残差レベル位置重み付け部 303 聴覚重み付き合成部 308、309 経路 310 出力端子 500 スペクトルパラメータ分析・符号化部 501 インパルス応答計算部 502 残差信号計算部 503 位置重み設定部 504 適応符号帳探索部 505 位置重み付き相関計算部 506 位置重み付き相互相関計算部 507 雑音符号帳探索部 509 ゲイン符号帳探索部 510 音源信号生成部 511 目標信号計算部 900 スペクトルパラメータ処理部 901 目標残差信号生成部 902 雑音符号帳 903 残差レベル位置重み獲得部 904、905 残差レベル位置重み付け部 906、907 聴覚重み付き合成部 908 ゲイン乗算部 909 歪み評価部 910 符号選択部 300 sound source signal (residual level) 302 Residual Level Position Weighting Unit 303 Auditory weighted synthesis unit 308, 309 route 310 output terminal 500 Spectral parameter analysis / encoding unit 501 impulse response calculator 502 Residual signal calculation unit 503 Position weight setting unit 504 Adaptive codebook search unit 505 Position weighted correlation calculator 506 Position-weighted cross-correlation calculator 507 Random codebook search unit 509 Gain Codebook Search Unit 510 sound source signal generator 511 Target signal calculation unit 900 spectrum parameter processing unit 901 Target residual signal generation unit 902 Noise Codebook 903 Residual level position weight acquisition unit 904, 905 Residual level position weighting unit 906, 907 Auditory weighted synthesis unit 908 Gain multiplication unit 909 Strain evaluation unit 910 code selection unit

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 パルス位置情報の符号化を含む音声/音
響信号の符号化方法であって、 入力信号の短時間スペクトルを表すパラメータを取得す
るステップと、 取得した短時間スペクトルを表すパラメータを基にイン
パルス応答を求めるステップと、 入力信号から少なくとも位置重み情報を取得するステッ
プと、 前記インパルス応答と前記位置重み情報とを用いて、前
記パルス位置情報の選択を行なうステップとを具備する
ことを特徴とする音声/音響信号の符号化方法。
1. A method of encoding a voice / acoustic signal including encoding of pulse position information, the method comprising: acquiring a parameter representing a short-time spectrum of an input signal; And a step of obtaining at least position weight information from an input signal, and a step of selecting the pulse position information using the impulse response and the position weight information. A method for encoding a voice / sound signal.
【請求項2】 パルス位置情報の符号化を含む音声/音
響信号の符号化方法であって、入力信号の短時間スペク
トルを表すパラメータを取得するステップと、 取得した短時間スペクトルを表すパラメータを基にイン
パルス応答を求めるステップと、 入力信号から少なくとも位置重み情報を取得するステッ
プと、 前記インパルス応答と前記位置重み情報を用いて位置重
み付き相関値を計算するステップと、 求めた位置重み付き相関値を用いて、前記パルス位置情
報の選択を行なうステップとを具備することを特徴とす
る音声/音響信号の符号化方法。
2. A method for encoding a voice / acoustic signal including encoding of pulse position information, the method comprising: acquiring a parameter representing a short-time spectrum of an input signal; A step of obtaining an impulse response, a step of obtaining at least position weight information from an input signal, a step of calculating a position weighted correlation value using the impulse response and the position weight information, and a calculated position weighted correlation value And a step of selecting the pulse position information by using the above method.
【請求項3】 パルス位置情報の符号化を含む音声/音
響信号の符号化方法であって、 入力信号の短時間スペクトルを表すパラメータを取得す
るステップと、 取得した短時間スペクトルを表すパラメータを基にイン
パルス応答を求めるステップと、 入力信号から少なくとも目標信号と位置重み情報を取得
するステップと、 前記インパルス応答と前記位置重み情報を基に位置重み
付き相関値を求めるステップと、 前記インパルス応答と前記目標信号と前記位置重み情報
を用いて位置重み付き相互相関値を求めるステップと、 前記位置重み付き相関値と前記位置重み付き相互相関値
を用いて前記パルス位置情報の選択を行なうステップと
を具備することを特徴とする音声/音響信号の符号化方
法。
3. A method for encoding a voice / acoustic signal including encoding of pulse position information, the method comprising: acquiring a parameter representing a short-time spectrum of an input signal; A step of obtaining an impulse response, a step of obtaining at least a target signal and position weight information from an input signal, a step of obtaining a position weighted correlation value based on the impulse response and the position weight information, the impulse response and the A step of obtaining a position weighted cross-correlation value using the target signal and the position weight information; and a step of selecting the pulse position information using the position weighted correlation value and the position weighted cross correlation value. A method for encoding a voice / acoustic signal, comprising:
【請求項4】 前記パルス位置情報の符号化に代数符号
帳を用いることを特徴とする請求項1から3のいずれか
1つに記載の音声/音響信号の符号化方法。
4. The method of encoding a voice / acoustic signal according to claim 1, wherein an algebraic codebook is used for encoding the pulse position information.
【請求項5】 前記入力信号から短期予測残差信号を取
得するステップをさらに有し、この短期予測残差信号を
用いて位置重み情報を求めることを特徴とする請求項1
から4のいずれか1つに記載の音声/音響信号の符号化
方法。
5. The method according to claim 1, further comprising the step of obtaining a short-term prediction residual signal from the input signal, wherein the position weight information is obtained using the short-term prediction residual signal.
5. The audio / audio signal encoding method according to any one of 1 to 4.
【請求項6】 音源信号を表す情報の符号化を含む音声
/音響信号の符号化方法であって、 入力信号の短時間スペクトルを表すパラメータを取得す
るステップと、 取得した短時間スペクトルを表すパラメータを基にイン
パルス応答を求めるステップと、 入力信号から取得した短期予測残差信号を用いて位置重
み情報を求めるステップと、 前記インパルス応答と前記位置重み情報とを用いて、前
記音源信号を表す情報の選択を行なうステップとを具備
することを特徴とする音声/音響信号の符号化方法。
6. A method of encoding a voice / acoustic signal including encoding of information representing a sound source signal, comprising: acquiring a parameter representing a short-time spectrum of an input signal; and a parameter representing the acquired short-time spectrum. A step of obtaining an impulse response based on, a step of obtaining position weighting information using a short-term prediction residual signal obtained from an input signal, and using the impulse response and the position weighting information, information representing the sound source signal The method for encoding a voice / acoustic signal, comprising:
【請求項7】 位置重み付けと聴覚重み付けの両方の重
み付けを用いることを特徴とする請求項1から6のいず
れか1つに記載の音声/音響信号の符号化方法。
7. The method for encoding a voice / acoustic signal according to claim 1, wherein both position weighting and auditory weighting are used.
【請求項8】 音源信号を表す情報の符号化を含む音声
/音響信号の符号化方法であって、 音源信号を表すための候補信号に位置重み付けをするス
テップと、 前記位置重み付けられた候補信号を合成したときの歪み
を基に、前記候補信号の選択を行なうステップとを具備
することを特徴とする音声/音響信号の符号化方法。
8. A method for encoding a voice / acoustic signal including encoding of information representing a sound source signal, the method comprising: position-weighting a candidate signal for representing a sound source signal, the position-weighted candidate signal A method of encoding a voice / acoustic signal, comprising the step of selecting the candidate signal based on the distortion when the above are combined.
【請求項9】 音源信号を表す情報の符号化を含む音声
/音響信号の符号化方法であって、 音源信号を表すための候補信号に位置重み付けをするス
テップと、 前記位置重み付けられた候補信号を聴覚重み付き合成し
たときの歪を基に、前記候補信号の選択を行なうステッ
プとを具備することを特徴とする音声/音響信号の符号
化方法。
9. A method for encoding a voice / acoustic signal including encoding of information representing a sound source signal, the method comprising: position-weighting a candidate signal for representing a sound source signal; and the position-weighted candidate signal. A method of encoding a voice / acoustic signal, comprising the step of selecting the candidate signal based on the distortion when the sound weighted synthesis is performed.
【請求項10】 音声/音響信号を入力するための入力
部と、 この入力部を介して入力された音声/音響信号に対して
符号化処理を施す符号化部と、 この符号化部で符号化された音声/音響信号を送信する
送信部と、 符号化された音声/音響信号を受信する受信部と、 この受信部を介して受信された音声/音響信号に対して
復号化処理を施す復号化部と、 この復号化部で復号された音声/音響信号を出力する出
力部とを具備し、 前記符号化部は、請求項1から9のいずれか1つに記載
の符号化方法を実行することを特徴とする電子装置。
10. An input unit for inputting a voice / acoustic signal, an encoding unit for performing an encoding process on the voice / acoustic signal input via the input unit, and an encoding unit for encoding by the encoding unit. A transmitting unit for transmitting the encoded audio / acoustic signal, a receiving unit for receiving the encoded audio / acoustic signal, and a decoding process for the audio / acoustic signal received via the receiving unit. A decoding unit and an output unit for outputting the audio / acoustic signal decoded by the decoding unit are provided, and the coding unit is the coding method according to any one of claims 1 to 9. An electronic device characterized by being executed.
JP2001392714A 2001-12-25 2001-12-25 Speech / acoustic signal encoding method and electronic apparatus Expired - Fee Related JP3984048B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001392714A JP3984048B2 (en) 2001-12-25 2001-12-25 Speech / acoustic signal encoding method and electronic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001392714A JP3984048B2 (en) 2001-12-25 2001-12-25 Speech / acoustic signal encoding method and electronic apparatus

Publications (2)

Publication Number Publication Date
JP2003195899A true JP2003195899A (en) 2003-07-09
JP3984048B2 JP3984048B2 (en) 2007-09-26

Family

ID=27599934

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001392714A Expired - Fee Related JP3984048B2 (en) 2001-12-25 2001-12-25 Speech / acoustic signal encoding method and electronic apparatus

Country Status (1)

Country Link
JP (1) JP3984048B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013218360A (en) * 2003-12-19 2013-10-24 Motorola Mobility Inc Method and apparatus for speech coding
JP2015121802A (en) * 2009-12-14 2015-07-02 パナソニックIpマネジメント株式会社 Voice encoding device and voice encoding method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013218360A (en) * 2003-12-19 2013-10-24 Motorola Mobility Inc Method and apparatus for speech coding
JP2015121802A (en) * 2009-12-14 2015-07-02 パナソニックIpマネジメント株式会社 Voice encoding device and voice encoding method
JP2016130871A (en) * 2009-12-14 2016-07-21 パナソニックIpマネジメント株式会社 Voice encoding device and voice encoding method
JP2017207774A (en) * 2009-12-14 2017-11-24 パナソニックIpマネジメント株式会社 Vector quantization device and vector quantization method
US10176816B2 (en) 2009-12-14 2019-01-08 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Vector quantization of algebraic codebook with high-pass characteristic for polarity selection
US11114106B2 (en) 2009-12-14 2021-09-07 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Vector quantization of algebraic codebook with high-pass characteristic for polarity selection

Also Published As

Publication number Publication date
JP3984048B2 (en) 2007-09-26

Similar Documents

Publication Publication Date Title
CN100369112C (en) Variable rate speech coding
JP3094908B2 (en) Audio coding device
JP3196595B2 (en) Audio coding device
JP3180762B2 (en) Audio encoding device and audio decoding device
US9972325B2 (en) System and method for mixed codebook excitation for speech coding
JP3582589B2 (en) Speech coding apparatus and speech decoding apparatus
JP3335841B2 (en) Signal encoding device
JPH09160596A (en) Voice coding device
JP2002140099A (en) Sound decoding device
JP3531780B2 (en) Voice encoding method and decoding method
JP3308764B2 (en) Audio coding device
JP3984048B2 (en) Speech / acoustic signal encoding method and electronic apparatus
JP3583945B2 (en) Audio coding method
JP3003531B2 (en) Audio coding device
JP3319396B2 (en) Speech encoder and speech encoder / decoder
JP3299099B2 (en) Audio coding device
JP2001318698A (en) Voice coder and voice decoder
JP3144284B2 (en) Audio coding device
JP3510168B2 (en) Audio encoding method and audio decoding method
JP3552201B2 (en) Voice encoding method and apparatus
JP2001142499A (en) Speech encoding device and speech decoding device
JP2002073097A (en) Celp type voice coding device and celp type voice decoding device as well as voice encoding method and voice decoding method
JP3984021B2 (en) Speech / acoustic signal encoding method and electronic apparatus
JP3192051B2 (en) Audio coding device
JP2853170B2 (en) Audio encoding / decoding system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070319

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070607

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070703

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070705

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100713

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100713

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110713

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120713

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130713

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees