JPH08202398A - Voice coding device - Google Patents

Voice coding device

Info

Publication number
JPH08202398A
JPH08202398A JP7013072A JP1307295A JPH08202398A JP H08202398 A JPH08202398 A JP H08202398A JP 7013072 A JP7013072 A JP 7013072A JP 1307295 A JP1307295 A JP 1307295A JP H08202398 A JPH08202398 A JP H08202398A
Authority
JP
Japan
Prior art keywords
frame
pitch
feature amount
circuit
mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7013072A
Other languages
Japanese (ja)
Other versions
JP3047761B2 (en
Inventor
Shinichi Taumi
真一 田海
Kazunori Ozawa
一範 小澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP7013072A priority Critical patent/JP3047761B2/en
Application filed by NEC Corp filed Critical NEC Corp
Priority to DE69609089T priority patent/DE69609089T2/en
Priority to EP99111363A priority patent/EP0944038B1/en
Priority to DE69615227T priority patent/DE69615227T2/en
Priority to DE69615870T priority patent/DE69615870T2/en
Priority to EP96100544A priority patent/EP0723258B1/en
Priority to EP99109387A priority patent/EP0944037B1/en
Priority to US08/588,005 priority patent/US5787389A/en
Priority to CA002167552A priority patent/CA2167552C/en
Publication of JPH08202398A publication Critical patent/JPH08202398A/en
Application granted granted Critical
Publication of JP3047761B2 publication Critical patent/JP3047761B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

PURPOSE: To provide a voice coding device by which good voice quality can be obtained without degrading voice quality by temporal variation for discriminating a mode even if a frame length is shortened to 5ms-10ms or less in order to make low delay. CONSTITUTION: A hearing sense weighing signal is inputted from an input terminal 2010 with a unit of a frame, and a spectrum parameter is inputted from an input terminal 2020. A feature quantity calculating circuit A 2030 calculates, for example, pitch prediction gain PG as feature quantity and outputs it. A feature quantity calculating circuit B 3040 calculates short time prediction gain SG as feature quantity and output it. A mode discriminating circuit 2050 compares an output value PG of the input terminal 2020 and an output value SG of the input terminal 2030 with plural threshold values previously decided in accordance with mode information of a frame of one frame before stored in a delay circuit 2060, performs mode discrimination, and outputs mode information.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、音声信号を低遅延、特
に5ms−10ms以下の短いフレーム単位で高品質に
符号化するための音声符号化装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a speech coding apparatus for coding a speech signal with a low delay, particularly in a short frame unit of 5 ms-10 ms or less with high quality.

【0002】[0002]

【従来の技術】音声信号を符号化する方式としては、例
えば、K.Ozawa氏らによる“M−LCELP S
peech Coding at 4kb/s wit
h Multi−Mode and Multi−Co
debook”(IEICETrans.Commu
n.vol.E77−B,No.9,pp.1114−
1121,1994年)と題した論文(文献1)などが
知られている。この従来例では、送信側では、フレーム
毎(例えば40ms)に音声信号から線形予測(LP
C)分析を用いて、音声信号のスペクトル特性を表すス
ペクトルパラメータを抽出し、前記フレーム単位の信号
または前記フレーム単位の信号に聴感重み付けを行なっ
た信号から得た特徴量を計算し、特徴量を用いてモード
判別(例えば、母音部と子音部)を行ない、モード判別
結果に応じてアルゴリズムあるいはコードブックを切り
かえて符号化を行なう。符号化部では、フレームをさら
にサブフレーム(例えば8ms)に分割し、サブフレー
ム毎に過去の音源信号を基に適応コードブックにおける
パラメータ(ピッチ周期に対応する遅延パラメータとゲ
インパラメータ)を抽出し適応コードブックにより前記
サブフレームの音声信号をピッチ予測し、ピッチ予測し
て求めた残差信号に対して、予め定められた種類の雑音
信号からなる音源コードブック(ベクトル量子化コード
ブック)から最適音源コードベクトルを選択し最適なゲ
インを計算することにより、音源信号を量子化する。音
源コードベクトルの選択の仕方は、選択した雑音信号に
より合成した信号と、前記残差信号との誤差電力を最小
化するように行なう。そして、選択されたコードベクト
ルの種類を表すインデクスとゲインならびに、前記スペ
クトルパラメータと適応コードブックのパラメータをマ
ルチプレクサ部により組み合わせて伝送する。受信側の
説明は省略する。
2. Description of the Related Art As a method for encoding a voice signal, for example, K. "M-LCELPS S by Ozawa et al.
Peach Coding at 4kb / s wit
h Multi-Mode and Multi-Co
"Debook" (IEICE Trans. Commu
n. vol. E77-B, No. 9, pp. 1114-
A paper (reference 1) entitled "1121, 1994) is known. In this conventional example, on the transmission side, linear prediction (LP) is performed from the audio signal for each frame (for example, 40 ms).
C) Using analysis, a spectrum parameter representing the spectral characteristic of the audio signal is extracted, and a feature amount obtained from the frame unit signal or a signal obtained by perceptually weighting the frame unit signal is calculated. A mode discrimination (for example, a vowel part and a consonant part) is performed by using it, and coding is performed by switching the algorithm or codebook according to the mode discrimination result. The encoding unit further divides the frame into subframes (for example, 8 ms), extracts parameters (delay parameters and gain parameters corresponding to the pitch period) in the adaptive codebook based on past excitation signals for each subframe, and adapts them. Optimum sound source from a sound source codebook (vector quantization codebook) composed of a noise signal of a predetermined type with respect to the residual signal obtained by pitch-estimating the voice signal of the subframe by the codebook and pitch-predicting The source signal is quantized by selecting a code vector and calculating the optimum gain. The excitation code vector is selected so as to minimize the error power between the signal synthesized from the selected noise signal and the residual signal. Then, the index and the gain indicating the type of the selected code vector, the spectrum parameter and the parameter of the adaptive codebook are combined by the multiplexer unit and transmitted. A description of the receiving side is omitted.

【0003】[0003]

【発明が解決しようとする課題】前記従来法では、処理
遅延を低減するために、フレーム長を例えば5ms以下
に低減した場合、モード情報あるいはピッチ抽出、レベ
ル抽出をフレーム単位で求めると、これらの値の時間的
変動が大きいために、不安定で過ったモード切り替え、
あるいは不安定で過ったピッチ抽出、不安定で過ったレ
ベル抽出が生じ、音質劣化が起こるという問題点があっ
た。本発明は、上述の問題を解決し、正しいモード判
別、あるいは正しいピッチ抽出、正しいレベル抽出を提
供し、これらの誤りによる音質劣化を抑制することを目
的とする。
In the conventional method described above, when the frame length is reduced to, for example, 5 ms or less in order to reduce the processing delay, if mode information or pitch extraction and level extraction are obtained in frame units, these Mode change due to instability due to large time fluctuation of value,
Alternatively, there is a problem that unstable and incorrect pitch extraction and unstable and incorrect level extraction occur, resulting in deterioration of sound quality. SUMMARY OF THE INVENTION It is an object of the present invention to solve the above problems, provide correct mode determination, correct pitch extraction, and correct level extraction, and suppress sound quality deterioration due to these errors.

【0004】[0004]

【課題を解決するための手段】本発明によれば、音声信
号を予め定めたフレーム単位に区切るフレーム分割部
と、前記音声信号から特徴量を計算しモード判別を行な
うモード判別部と、前記判別結果におうじて前記音声信
号を符号化する音声符号化装置において、現フレーム及
び過去の少なくとも一つのフレームからそれぞれ求めた
少なくとも1種類以上の特徴量と過去の少なくとも一つ
のフレームから求めたモード判別情報を用いて、現フレ
ームのモード判別をする機能を有することを特徴とする
音声符号化装置が得られる。
According to the present invention, a frame dividing section for dividing an audio signal into predetermined frame units, a mode determining section for calculating a feature amount from the audio signal and performing a mode determination, and the determination In a voice encoding device that encodes the voice signal based on the result, at least one type of feature amount obtained from each of the present frame and at least one past frame and mode discrimination information obtained from at least one past frame A speech coding apparatus having a function of discriminating the mode of the current frame is obtained by using.

【0005】また本発明によれば、音声信号を予め定め
たフレーム単位に区切るフレーム分割部と、前記音声信
号から特徴量を計算しモード判別を行なうモード判別部
と、前記判別結果におうじて前記音声信号を符号化する
音声符号化装置において、現フレーム及び過去の少なく
とも一つのフレームからそれぞれ求めた少なくとも1種
類以上の特徴量と過去の少なくとも一つのフレームから
求めたモード判別情報を用いて、現フレームのモード判
別をする機能を有することを特徴とする音声符号化装置
で、前記特徴量として、少なくとも1種類以上の特徴量
の時間変化比を特徴量として含めた音声符号化装置が得
られる。
Further, according to the present invention, a frame dividing unit that divides the audio signal into predetermined frame units, a mode determining unit that calculates a feature amount from the audio signal and performs mode determination, and the above-mentioned determination result is used. In a voice encoding device for encoding a voice signal, at least one type of feature amount obtained from each of a current frame and at least one past frame and mode discrimination information obtained from at least one past frame In a speech coding apparatus having a function of discriminating a mode of a frame, a speech coding apparatus can be obtained in which, as the feature quantity, at least one kind of time-dependent change ratio of the feature quantity is included as the feature quantity.

【0006】また本発明によれば、音声信号を予め定め
たフレーム単位に区切るフレーム分割部と、前記音声信
号から特徴量を計算しモード判別を行なうモード判別部
と、前記判別結果におうじて前記音声信号を符号化する
音声符号化装置において、現フレーム及び過去の少なく
とも一つのフレームからそれぞれ求めた少なくとも1種
類以上の特徴量と過去の少なくとも一つのフレームから
求めたモード判別情報を用いて、現フレームのモード判
別をする機能を有することを特徴とする音声符号化装置
で、前記特徴量として、現フレーム又は過去の少なくと
も一つ以上のフレームのいずれかの2フレーム分のそれ
ぞれの特徴量に対し、前記二つの特徴量の比を特徴量と
して含めた音声符号化装置が得られる。
Further, according to the present invention, a frame dividing unit that divides the audio signal into predetermined frame units, a mode determining unit that calculates a feature amount from the audio signal and performs mode determination, and the above-mentioned determination result is used. In a voice encoding device for encoding a voice signal, at least one type of feature amount obtained from each of a current frame and at least one past frame and mode discrimination information obtained from at least one past frame A voice encoding device having a function of discriminating a mode of a frame, wherein the feature amount is a feature amount for each feature amount of two frames of a current frame or at least one past frame. As a result, it is possible to obtain a speech coding apparatus in which the ratio of the two feature quantities is included as the feature quantity.

【0007】また本発明によれば、音声信号を予め定め
たフレーム単位に区切るフレーム分割部と、前記音声信
号から特徴量を計算しモード判別を行なうモード判別部
と、前記判別結果におうじて前記音声信号を符号化する
音声符号化装置において、現フレーム及び過去の少なく
とも一つのフレームからそれぞれ求めた少なくとも1種
類以上の特徴量と過去の少なくとも一つのフレームから
求めたモード判別情報を用いて、現フレームのモード判
別をする機能を有することを特徴とする音声符号化装置
で、前記特徴量として、ピッチ予測ゲイン、短期予測ゲ
イン、レベル、ピッチの少なくとも一種以上を特徴量と
して含めることを特徴とする音声符号化装置が得られ
る。
Further, according to the present invention, a frame dividing section that divides the audio signal into predetermined frame units, a mode determining section that calculates a feature amount from the audio signal and determines a mode, and the above-mentioned determination result is used. In a voice encoding device for encoding a voice signal, at least one type of feature amount obtained from each of a current frame and at least one past frame and mode discrimination information obtained from at least one past frame A speech coding apparatus having a function of discriminating a mode of a frame, characterized in that the feature quantity includes at least one or more of a pitch prediction gain, a short-term prediction gain, a level, and a pitch. A speech coder is obtained.

【0008】また本発明によれば、音声信号を予め定め
たフレーム単位に区切るフレーム分割部と、前記音声信
号から特徴量を計算しモード判別を行なうモード判別部
と、前記判別結果におうじて前記音声信号を符号化する
音声符号化装置において、現フレーム及び過去の少なく
とも一つのフレームからそれぞれ求めた少なくとも1種
類以上の特徴量と過去の少なくとも一つのフレームから
求めたモード判別情報を用いて、現フレームのモード判
別をする機能を有することを特徴とする音声符号化装置
で、前記特徴量として、少なくとも1種類以上の特徴量
の時間変化比を特徴量として含めた音声符号化装置で、
前記特徴量として、ピッチ予測ゲイン、短期予測ゲイ
ン、レベル、ピッチの少なくとも一種以上を特徴量とし
て含めることを特徴とする音声符号化装置が得られる。
Further, according to the present invention, a frame dividing section that divides the audio signal into predetermined frame units, a mode determining section that calculates a feature amount from the audio signal and performs mode determination, and the above-mentioned determination result is used. In a voice encoding device for encoding a voice signal, at least one type of feature amount obtained from each of a current frame and at least one past frame and mode discrimination information obtained from at least one past frame A voice encoding device having a function of discriminating a mode of a frame, wherein the feature amount includes at least one time change ratio of feature amounts as a feature amount.
A speech coding apparatus is obtained which includes at least one of pitch prediction gain, short-term prediction gain, level, and pitch as the feature amount as the feature amount.

【0009】また本発明によれば、音声信号を予め定め
たフレーム単位に区切るフレーム分割部と、前記音声信
号から特徴量を計算しモード判別を行なうモード判別部
と、前記判別結果におうじて前記音声信号を符号化する
音声符号化装置において、現フレーム及び過去の少なく
とも一つのフレームからそれぞれ求めた少なくとも1種
類以上の特徴量と過去の少なくとも一つのフレームから
求めたモード判別情報を用いて、現フレームのモード判
別をする機能を有することを特徴とする音声符号化装置
で、前記特徴量として、現フレームまたは過去の少なく
とも一つ以上のフレームのいずれかの2フレーム分のそ
れぞれの特徴量に対し、前記二つの特徴量の比を特徴量
として含めた音声符号化装置で、前記特徴量として、ピ
ッチ予測ゲイン、短期予測ゲイン、レベル、ピッチの少
なくとも一種以上を特徴量として含めることを特徴とす
る音声符号化装置が得られる。
Further, according to the present invention, a frame dividing section that divides the audio signal into predetermined frame units, a mode determining section that calculates a feature amount from the audio signal and performs mode determination, and the above-mentioned determination result is used. In a voice encoding device for encoding a voice signal, at least one type of feature amount obtained from each of a current frame and at least one past frame and mode discrimination information obtained from at least one past frame A voice encoding device having a function of discriminating a mode of a frame, wherein the feature amount is a feature amount for each feature amount of two frames of a current frame or at least one past frame. , A speech coding apparatus including a ratio of the two feature quantities as a feature quantity, wherein the feature quantity is a pitch prediction gain, Period predicted gain, a level, the speech coding apparatus is obtained which is characterized in that included as a feature quantity of at least one or more of the pitch.

【0010】また本発明によれば、音声信号を予め定め
たフレーム単位に区切るフレーム分割部と、前記音声信
号から特徴量を計算しモード判別を行なうモード判別部
と、前記音声信号からピッチを抽出するピッチ抽出部
と、前記判別結果におうじて前記音声信号を符号化する
音声符号化装置において、現フレーム及び過去の少なく
とも一つのフレームからそれぞれ求めた少なくとも1種
類以上の特徴量と過去の少なくとも一つのフレームから
求めたモード判別情報を用いて、現フレームのピッチを
補正するピッチ抽出部を有することを特徴とする音声符
号化装置が得られる。
Further, according to the present invention, a frame dividing section that divides an audio signal into predetermined frame units, a mode determining section that calculates a feature amount from the audio signal and determines a mode, and a pitch is extracted from the audio signal. In the pitch extraction unit and in the speech coding apparatus for coding the speech signal based on the discrimination result, at least one type of feature amount and at least one past characteristic value respectively obtained from the current frame and at least one past frame. A speech encoding apparatus is obtained which has a pitch extraction unit that corrects the pitch of the current frame using the mode discrimination information obtained from one frame.

【0011】また本発明によれば、音声信号を予め定め
たフレーム単位に区切るフレーム分割部と、前記音声信
号から特徴量を計算しモード判別を行なうモード判別部
と、前記音声信号からピッチを抽出するピッチ抽出部
と、前記判別結果におうじて前記音声信号を符号化する
音声符号化装置において、現フレーム及び過去の少なく
とも一つのフレームからそれぞれ求めた少なくとも1種
類以上の特徴量と過去の少なくとも一つのフレームから
求めたモード判別情報を用いて、現フレームのピッチを
補正するピッチ抽出部を有することを特徴とする音声符
号化装置で、前記特徴量として、少なくとも1種類以上
の特徴量の時間変化比を特徴量として含めた音声符号化
装置が得られる。
Further, according to the present invention, a frame dividing unit that divides an audio signal into predetermined frame units, a mode determining unit that calculates a feature amount from the audio signal and determines a mode, and a pitch is extracted from the audio signal. In the pitch extraction unit and in the speech coding apparatus for coding the speech signal based on the discrimination result, at least one type of feature amount and at least one past characteristic value respectively obtained from the current frame and at least one past frame. A speech coding apparatus characterized by having a pitch extraction unit that corrects the pitch of the current frame by using the mode discrimination information obtained from one frame, wherein at least one or more kinds of the characteristic quantities change with time as the characteristic quantity. A speech coding apparatus including a ratio as a feature amount can be obtained.

【0012】また本発明によれば、音声信号を予め定め
たフレーム単位に区切るフレーム分割部と、前記音声信
号から特徴量を計算しモード判別を行なうモード判別部
と、前記音声信号からピッチを抽出するピッチ抽出部
と、前記判別結果におうじて前記音声信号を符号化する
音声符号化装置において、現フレーム及び過去の少なく
とも一つのフレームからそれぞれ求めた少なくとも1種
類以上の特徴量と過去の少なくとも一つのフレームから
求めたモード判別情報を用いて、現フレームのピッチを
補正するピッチ抽出部を有することを特徴とする音声符
号化装置で、前記特徴量として、現フレーム又は過去の
少なくとも一つ以上のフレームのいずれかの2フレーム
分のそれぞれの特徴量に対し、前記二つの特徴量の比を
特徴量として含めた音声符号化装置が得られる。
Further, according to the present invention, a frame dividing unit that divides the audio signal into predetermined frame units, a mode determining unit that calculates a feature amount from the audio signal and determines a mode, and a pitch is extracted from the audio signal. In the pitch extraction unit and in the speech coding apparatus for coding the speech signal based on the discrimination result, at least one type of feature amount and at least one past characteristic value respectively obtained from the current frame and at least one past frame. A speech coding apparatus characterized by having a pitch extraction unit for correcting the pitch of the current frame by using the mode discrimination information obtained from one frame, wherein the feature amount is at least one of the current frame and the past. The ratio of the two feature amounts is included as the feature amount for each feature amount of any two frames. Voice encoding device can be obtained.

【0013】また本発明によれば、音声信号を予め定め
たフレーム単位に区切るフレーム分割部と、前記音声信
号から特徴量を計算しモード判別を行なうモード判別部
と、前記音声信号からピッチを抽出するピッチ抽出部
と、前記判別結果におうじて前記音声信号を符号化する
音声符号化装置において、現フレーム及び過去の少なく
とも一つのフレームからそれぞれ求めた少なくとも1種
類以上の特徴量と過去の少なくとも一つのフレームから
求めたモード判別情報を用いて、現フレームのピッチを
補正するピッチ抽出部を有することを特徴とする音声符
号化装置で、前記特徴量として、ピッチ予測ゲイン、短
期予測ゲイン、レベル、ピッチの少なくとも一種以上を
特徴量として含めることを特徴とする音声符号化装置が
得られる。
Further, according to the present invention, a frame dividing unit that divides the audio signal into predetermined frame units, a mode determining unit that calculates a feature amount from the audio signal and determines a mode, and a pitch is extracted from the audio signal. In the pitch extraction unit and in the speech coding apparatus for coding the speech signal based on the discrimination result, at least one type of feature amount and at least one past characteristic value respectively obtained from the current frame and at least one past frame. Using the mode discrimination information obtained from one frame, a speech coding apparatus characterized by having a pitch extraction unit for correcting the pitch of the current frame, as the feature amount, pitch prediction gain, short-term prediction gain, level, There is provided a speech coding apparatus characterized by including at least one kind of pitch as a feature amount.

【0014】また本発明によれば、音声信号を予め定め
たフレーム単位に区切るフレーム分割部と、前記音声信
号から特徴量を計算しモード判別を行なうモード判別部
と、前記音声信号からピッチを抽出するピッチ抽出部
と、前記判別結果におうじて前記音声信号を符号化する
音声符号化装置において、現フレーム及び過去の少なく
とも一つのフレームからそれぞれ求めた少なくとも1種
類以上の特徴量と過去の少なくとも一つのフレームから
求めたモード判別情報を用いて、現フレームのピッチを
補正するピッチ抽出部を有することを特徴とする音声符
号化装置で、前記特徴量として、少なくとも1種類以上
の特徴量の時間変化比を特徴量として含めた音声符号化
装置で、前記特徴量として、ピッチ予測ゲイン、短期予
測ゲイン、レベル、ピッチの少なくとも一種以上を特徴
量として含めることを特徴とする音声符号化装置が得ら
れる。
Further, according to the present invention, a frame dividing unit that divides the audio signal into predetermined frame units, a mode determining unit that calculates a feature amount from the audio signal and determines a mode, and a pitch is extracted from the audio signal. In the pitch extraction unit and in the speech coding apparatus for coding the speech signal based on the discrimination result, at least one type of feature amount and at least one past characteristic value respectively obtained from the current frame and at least one past frame. A speech coding apparatus characterized by having a pitch extraction unit that corrects the pitch of the current frame by using the mode discrimination information obtained from one frame, wherein at least one or more kinds of the characteristic quantities change with time as the characteristic quantity. A speech coding apparatus including a ratio as a feature amount, wherein the feature amount includes a pitch prediction gain, a short-term prediction gain, a level, Speech coding device is obtained, characterized in that included as the feature quantity of at least one or more pitch.

【0015】また本発明によれば、音声信号を予め定め
たフレーム単位に区切るフレーム分割部と、前記音声信
号から特徴量を計算しモード判別を行なうモード判別部
と、前記音声信号からピッチを抽出するピッチ抽出部
と、前記判別結果におうじて前記音声信号を符号化する
音声符号化装置において、現フレーム及び過去の少なく
とも一つのフレームからそれぞれ求めた少なくとも1種
類以上の特徴量と過去の少なくとも一つのフレームから
求めたモード判別情報を用いて、現フレームのピッチを
補正するピッチ抽出部を有することを特徴とする音声符
号化装置で、前記特徴量として、現フレーム又は過去の
少なくとも一つ以上のフレームのいずれかの2フレーム
分のそれぞれの特徴量に対し、前記二つの特徴量の比を
特徴量として含めた音声符号化装置で、前記特徴量とし
て、ピッチ予測ゲイン、短期予測ゲイン、レベル、ピッ
チの少なくとも一種以上を特徴量として含めることを特
徴とする音声符号化装置が得られる。
Further, according to the present invention, a frame dividing unit that divides the audio signal into predetermined frame units, a mode determining unit that calculates a feature amount from the audio signal and determines a mode, and a pitch is extracted from the audio signal. In the pitch extraction unit and in the speech coding apparatus for coding the speech signal based on the discrimination result, at least one type of feature amount and at least one past characteristic value respectively obtained from the current frame and at least one past frame. A speech coding apparatus characterized by having a pitch extraction unit for correcting the pitch of the current frame by using the mode discrimination information obtained from one frame, wherein the feature amount is at least one of the current frame and the past. The ratio of the two feature amounts is included as the feature amount for each feature amount of any two frames. In voice encoding device, as the feature amount, a pitch prediction gain, short-term prediction gain, level, the speech coding apparatus is obtained which is characterized in that included as a feature quantity of at least one or more of the pitch.

【0016】また本発明によれば、音声信号を予め定め
たフレーム単位に区切るフレーム分割部と、前記音声信
号から特徴量を計算しモード判別を行なうモード判別部
と、前記音声信号からレベルを抽出するレベル抽出部
と、前記判別結果におうじて前記音声信号を符号化する
音声符号化装置において、現フレーム及び過去の少なく
とも一つのフレームからそれぞれ求めた少なくとも1種
類以上の特徴量と過去の少なくとも一つのフレームから
求めたモード判別情報を用いて、現フレームのレベルを
補正するレベル抽出部を有することを特徴とする音声符
号化装置が得られる。
Further, according to the present invention, a frame dividing unit that divides the audio signal into predetermined frame units, a mode determining unit that calculates a feature amount from the audio signal and determines a mode, and a level is extracted from the audio signal. And a level extraction unit for encoding the audio signal based on the determination result, and at least one type of feature amount and at least one of the past obtained respectively from the current frame and at least one frame in the past. A speech coding apparatus is obtained which has a level extraction unit for correcting the level of the current frame using the mode discrimination information obtained from one frame.

【0017】また本発明によれば、音声信号を予め定め
たフレーム単位に区切るフレーム分割部と、前記音声信
号から特徴量を計算しモード判別を行なうモード判別部
と、前記音声信号からレベルを抽出するレベル抽出部
と、前記判別結果におうじて前記音声信号を符号化する
音声符号化装置において、現フレーム及び過去の少なく
とも一つのフレームからそれぞれ求めた少なくとも1種
類以上の特徴量と過去の少なくとも一つのフレームから
求めたモード判別情報を用いて、現フレームのレベルを
補正するレベル抽出部を有することを特徴とする音声符
号化装置で、前記特徴量として、少なくとも1種類以上
の特徴量の時間変化比を特徴量として含めた音声符号化
装置が得られる。
Further, according to the present invention, a frame dividing unit that divides the audio signal into predetermined frame units, a mode determining unit that calculates a feature amount from the audio signal and determines a mode, and a level is extracted from the audio signal. And a level extraction unit for encoding the audio signal based on the determination result, and at least one type of feature amount and at least one of the past obtained respectively from the current frame and at least one frame in the past. A speech coding apparatus characterized by having a level extraction unit that corrects the level of the current frame by using the mode discrimination information obtained from one frame, wherein at least one or more of the characteristic amounts as the characteristic amount changes with time. A speech coding apparatus including a ratio as a feature amount can be obtained.

【0018】また本発明によれば、音声信号を予め定め
たフレーム単位に区切るフレーム分割部と、前記音声信
号から特徴量を計算しモード判別を行なうモード判別部
と、前記音声信号からレベルを抽出するレベル抽出部
と、前記判別結果におうじて前記音声信号を符号化する
音声符号化装置において、現フレーム及び過去の少なく
とも一つのフレームからそれぞれ求めた少なくとも1種
類以上の特徴量と過去の少なくとも一つのフレームから
求めたモード判別情報を用いて、現フレームのレベルを
補正するレベル抽出部を有することを特徴とする音声符
号化装置で、前記特徴量として、現フレーム又は過去の
少なくとも一つ以上のフレームのいずれかの2フレーム
分のそれぞれの特徴量に対し、前記二つの特徴量の比を
特徴量として含めた音声符号化装置が得られる。
Further, according to the present invention, a frame dividing unit that divides the audio signal into predetermined frame units, a mode determining unit that calculates a feature amount from the audio signal and determines a mode, and a level is extracted from the audio signal. And a level extraction unit for encoding the audio signal based on the determination result, and at least one type of feature amount and at least one of the past obtained respectively from the current frame and at least one frame in the past. A speech coding apparatus characterized by having a level extraction unit for correcting the level of the current frame by using the mode discrimination information obtained from one frame, wherein the feature amount is at least one of the current frame and the past. The ratio of the two feature amounts is included as the feature amount for each feature amount of any two frames. Voice encoding device can be obtained.

【0019】また本発明によれば、音声信号を予め定め
たフレーム単位に区切るフレーム分割部と、前記音声信
号から特徴量を計算しモード判別を行なうモード判別部
と、前記音声信号からレベルを抽出するレベル抽出部
と、前記判別結果におうじて前記音声信号を符号化する
音声符号化装置において、現フレーム及び過去の少なく
とも一つのフレームからそれぞれ求めた少なくとも1種
類以上の特徴量と過去の少なくとも一つのフレームから
求めたモード判別情報を用いて、現フレームのレベルを
補正するレベル抽出部を有することを特徴とする音声符
号化装置で、前記特徴量として、ピッチ予測ゲイン、短
期予測ゲイン、レベル、ピッチの少なくとも一種以上を
特徴量として含めることを特徴とする音声符号化装置が
得られる。
Further, according to the present invention, a frame dividing section that divides the audio signal into predetermined frame units, a mode determining section that calculates a feature amount from the audio signal and determines a mode, and a level is extracted from the audio signal. And a level extraction unit for encoding the audio signal based on the determination result, and at least one type of feature amount and at least one of the past obtained respectively from the current frame and at least one frame in the past. Using the mode discrimination information obtained from one frame, a speech encoding device characterized by having a level extraction unit for correcting the level of the current frame, as the feature amount, pitch prediction gain, short-term prediction gain, level, There is provided a speech coding apparatus characterized by including at least one kind of pitch as a feature amount.

【0020】また本発明によれば、音声信号を予め定め
たフレーム単位に区切るフレーム分割部と、前記音声信
号から特徴量を計算しモード判別を行なうモード判別部
と、前記音声信号からレベルを抽出するレベル抽出部
と、前記判別結果におうじて前記音声信号を符号化する
音声符号化装置において、現フレーム及び過去の少なく
とも一つのフレームからそれぞれ求めた少なくとも1種
類以上の特徴量と過去の少なくとも一つのフレームから
求めたモード判別情報を用いて、現フレームのレベルを
補正するレベル抽出部を有することを特徴とする音声符
号化装置で、前記特徴量として、少なくとも1種類以上
の特徴量の時間変化比を特徴量として含めた音声符号化
装置で、前記特徴量として、ピッチ予測ゲイン、短期予
測ゲイン、レベル、ピッチの少なくとも一種以上を特徴
量として含めることを特徴とする音声符号化装置が得ら
れる。
Further, according to the present invention, a frame dividing unit that divides the audio signal into predetermined frame units, a mode determining unit that calculates a feature amount from the audio signal and determines a mode, and a level is extracted from the audio signal. And a level extraction unit for encoding the audio signal based on the determination result, and at least one type of feature amount and at least one of the past obtained respectively from the current frame and at least one frame in the past. A speech coding apparatus characterized by having a level extraction unit that corrects the level of the current frame by using the mode discrimination information obtained from one frame, wherein at least one or more of the characteristic amounts as the characteristic amount changes with time. A speech coding apparatus including a ratio as a feature amount, wherein the feature amount includes a pitch prediction gain, a short-term prediction gain, a level, Speech coding device is obtained, characterized in that included as the feature quantity of at least one or more pitch.

【0021】また本発明によれば、音声信号を予め定め
たフレーム単位に区切るフレーム分割部と、前記音声信
号から特徴量を計算しモード判別を行なうモード判別部
と、前記音声信号からレベルを抽出するレベル抽出部
と、前記判別結果におうじて前記音声信号を符号化する
音声符号化装置において、現フレーム及び過去の少なく
とも一つのフレームからそれぞれ求めた少なくとも1種
類以上の特徴量と過去の少なくとも一つのフレームから
求めたモード判別情報を用いて、現フレームのレベルを
補正するレベル抽出部を有することを特徴とする音声符
号化装置で、前記特徴量として、現フレーム又は過去の
少なくとも一つ以上のフレームのいずれかの2フレーム
分のそれぞれの特徴量に対し、前記二つの特徴量の比を
特徴量として含めた音声符号化装置で、前記特徴量とし
て、ピッチ予測ゲイン、短期予測ゲイン、レベル、ピッ
チの少なくとも一種以上を特徴量として含めることを特
徴とする音声符号化装置が得られる。
Further, according to the present invention, a frame dividing section that divides the audio signal into predetermined frame units, a mode determining section that calculates a feature amount from the audio signal and determines a mode, and a level is extracted from the audio signal. And a level extraction unit for encoding the audio signal based on the determination result, and at least one type of feature amount and at least one of the past obtained respectively from the current frame and at least one frame in the past. A speech coding apparatus characterized by having a level extraction unit for correcting the level of the current frame by using the mode discrimination information obtained from one frame, wherein the feature amount is at least one of the current frame and the past. The ratio of the two feature amounts is included as the feature amount for each feature amount of any two frames. In voice encoding device, as the feature amount, a pitch prediction gain, short-term prediction gain, level, the speech coding apparatus is obtained which is characterized in that included as a feature quantity of at least one or more of the pitch.

【0022】[0022]

【作用】前記構成により、現フレームの前後では正しい
モード情報あるいは正しいピッチ抽出、正しいレベル抽
出を示しているが、現フレームのみでこれらの値が過っ
た場合、過去の正しいモード情報あるいは正しいピッチ
抽出、正しいレベル抽出を示すフレームからの情報を現
フレームに適応することにより、現フレームのモード情
報あるいはピッチ抽出、レベル抽出を長い時間長にわた
る情報を用いて補正することができる。従って、音声符
号化処理に正しいモード情報あるいは正しいピッチ、正
しいレベル抽出を提供し、これらの誤りに起因する音質
劣化を抑制できる。
With the above structure, the correct mode information, the correct pitch extraction, and the correct level extraction are shown before and after the current frame. However, when these values are exceeded only in the current frame, the correct mode information in the past or the correct pitch is extracted. By applying the information from the frame indicating the extraction and the correct level extraction to the current frame, the mode information of the current frame or the pitch extraction and the level extraction can be corrected using the information over a long time length. Therefore, correct mode information or correct pitch and correct level extraction can be provided to the audio encoding process, and the sound quality deterioration due to these errors can be suppressed.

【0023】[0023]

【実施例】請求項4の“前記特徴量として、ピッチ予測
ゲイン、短期予測ゲイン、レベル、ピッチの少なくとも
一種以上を特徴量として含めることを特徴とする請求項
1記載の音声符号化装置”に関わる実施例を図1に示
す。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS In the speech encoding apparatus according to claim 4, "at least one or more of a pitch prediction gain, a short-term prediction gain, a level, and a pitch is included as the feature amount as the feature amount". A related example is shown in FIG.

【0024】図において、入力端子100から音声信号
を入力し、フレーム分割回路110では音声信号をフレ
ーム(例えば5ms)毎に分割し、サブフレーム分割回
路120では、フレームの音声信号をフレームよりも短
いサブフレーム(例えば2.5ms)に分割する。
In the figure, a voice signal is input from an input terminal 100, a frame division circuit 110 divides the voice signal into frames (for example, 5 ms), and a sub-frame division circuit 120 divides the voice signal of the frame into shorter than the frame. It is divided into subframes (for example, 2.5 ms).

【0025】スペクトルパラメータ計算回路200で
は、少なくとも一つのサブフレームの音声信号に対し
て、サブフレーム長よりも長い窓(例えば24ms)を
かけて音声を切り出してスペクトルパラメータをあらか
じめ定められた次数(例えばP=10次)計算する。こ
こでスペクトルパラメータの計算には、周知のLPC分
析や、Burg分析等を用いることができる。ここで
は、Berg分析を用いることとする。Burg分析の
詳細については、中溝著による“信号解析とシステム同
定”と題した単行本(コロナ社1988年刊)の82〜
87頁(文献2)等に記載されているので説明は略す
る。さらにスペクトルパラメータ計算部では、Burg
法により計算された線形予測係数αi (i=1,…,1
0)を量子化や補間に適したLSPパラメータに変換す
る。ここで、線形予測係数からLSPへの変換は、菅村
他による“線スペクトル対(LSP)音声分析合成方法
による音声情報圧縮”と題した論文(電子通信学会論文
誌、J64−A、pp.599−606、1981年)
(文献3)を参照することができる。つまり、第2サブ
フレームでBurg法により求めた線形予測係数を、L
SPパラメータに変換し、第1サブフレームのLSPを
直線補間により求めて、第1サブフレームのLSPを逆
変換して線形予測係数に戻し、第1、2サブフレームの
線形予測係数αil(i=1,…,10,l=1,…,
5)を聴感重み付け回路230に出力する。また、第
1、2サブフレームのLSPをスペクトルパラメータ量
子化回路210へ出力する。
In the spectrum parameter calculation circuit 200, a speech signal is cut out by applying a window (for example, 24 ms) longer than the subframe length to a speech signal of at least one subframe, and spectrum parameters are set to predetermined orders (for example, P = 10th order) Here, well-known LPC analysis, Burg analysis, or the like can be used for the calculation of the spectrum parameter. Here, Berg analysis is used. For more information on Burg analysis, see 82-of the book (Corona Publishing Co., Ltd., 1988) entitled "Signal Analysis and System Identification" by Nakamizo.
The description is omitted because it is described on page 87 (reference 2). Furthermore, in the spectrum parameter calculation unit, Burg
Linear prediction coefficient α i (i = 1, ..., 1) calculated by the method
0) is converted into an LSP parameter suitable for quantization and interpolation. Here, the conversion from the linear prediction coefficient to the LSP is performed by Sugamura et al., "Speech information compression by line spectrum pair (LSP) speech analysis and synthesis method" (The Institute of Electronics and Communication Engineers, J64-A, pp. 599). -606, 1981)
(Reference 3) can be referred to. That is, the linear prediction coefficient obtained by the Burg method in the second subframe is
It is converted into SP parameters, the LSP of the first sub-frame is obtained by linear interpolation, the LSP of the first sub-frame is inversely transformed back to the linear prediction coefficient, and the linear prediction coefficient α il (i = 1, ..., 10, l = 1, ...,
5) is output to the perceptual weighting circuit 230. In addition, the LSP of the first and second subframes is output to the spectrum parameter quantization circuit 210.

【0026】スペクトルパラメータ量子化回路210で
は、あらかじめ定められたサブフレームのLSPパラメ
ータを効率的に電子化する。以下では、量子化法とし
て、ベクトル量子化を用いるものとし、第2サブフレー
ムのLSPパラメータを量子化するものとする。LSP
パラメータのベクトル量子化の手法は周知の手法を用い
ることができる。具体的な方法は例えば、特開平4−1
71500号公報(特願平2−297600号)(文献
4)や特開平4−363000号公報(特願平3−26
1925号)(文献5)や、特開平5−6199号公報
(特願平3−155049号)(文献6)や、T.No
mura et al.,による“LSPCoding
Using VQ−SVQ With Interp
olation in 4.075 kbps M−L
CELP Speech Coder”と題した論文
(Proc.Mobile Multimedia C
ommunications,pp.B.2.5,19
93)(文献7)等を参照できるのでここでは説明は略
する。また、スペクトルパラメータ量子化回路210で
は、第2サブフレームで量子化したLSPパラメータを
もとに、第1,2サブフレームのLSPパラメータを復
元する。ここでは、現フレームの第2サブフレームの量
子化LSPパラメータと1つ過去のフレームの第2サブ
フレームの量子化LSPを直線補間して、第1,2サブ
フレームのLSPを復元する。ここで、量子化前のLS
Pと量子化後のLSPとの誤差電力を最小化するコード
ベクトルを1種類選択した後に、直線補間により第1〜
第4サブフレームのLSPを復元できる。さらに性能を
向上させるためには、前記誤差電力を最小化するコード
ベクトルを複数候補選択したのちに、各々の候補につい
て、累積歪を評価し、累積歪を最小化する候補と補間L
SPの組を選択するようにすることができる。
The spectrum parameter quantization circuit 210 efficiently digitizes the LSP parameters of a predetermined subframe. In the following, it is assumed that vector quantization is used as the quantization method and the LSP parameter of the second subframe is quantized. LSP
A well-known method can be used as a method of vector quantization of parameters. A specific method is, for example, Japanese Patent Laid-Open No. 4-1
71500 (Japanese Patent Application No. 2-297600) (Reference 4) and Japanese Patent Laid-Open No. 4-363000 (Japanese Patent Application No. 3-26).
1925) (Reference 5), Japanese Patent Laid-Open No. 5-6199 (Japanese Patent Application No. 3-155049) (Reference 6), T.I. No
mura et al. , By "LSPCoding
Using VQ-SVQ With Interp
automation in 4.075 kbps ML
The paper entitled "CELP Speech Coder" (Proc. Mobile Multimedia C
communications, pp. B. 2.5, 19
93) (Reference 7) and the like, so description thereof will be omitted here. Further, the spectrum parameter quantization circuit 210 restores the LSP parameters of the first and second subframes based on the LSP parameters quantized in the second subframe. Here, the quantized LSP parameter of the second subframe of the current frame and the quantized LSP of the second subframe of the frame one past are linearly interpolated to restore the LSP of the first and second subframes. Where LS before quantization
After selecting one type of code vector that minimizes the error power between P and the quantized LSP, first to
The LSP of the fourth subframe can be restored. In order to further improve the performance, after selecting a plurality of code vectors that minimize the error power, the cumulative distortion is evaluated for each candidate, and the candidate that minimizes the cumulative distortion and the interpolation L are calculated.
A set of SPs can be selected.

【0027】以上により復元した第1,2サブフレーム
のLSPと第2サブフレームの量子化LSPをサブフレ
ーム毎に線形予測係数α′il(i=1,…,10,l=
1,…,5)に変換し、インパルス応答計算回路310
へ出力する。また、第2サブフレームの量子化LSPの
コードベクトルを表すインパルスをマルチプレクサ40
0に出力する。
The LSP of the first and second subframes and the quantized LSP of the second subframe restored as described above are linearly predicted for each subframe by a linear prediction coefficient α'il (i = 1, ..., 10, l =
1, ..., 5), and the impulse response calculation circuit 310
Output to. In addition, the multiplexer 40 transmits the impulse representing the code vector of the quantized LSP of the second subframe.
Output to 0.

【0028】上記において、直線補間のかわりに、LS
Pの補間パターンをあらかじめ定められたビット数(例
えば2ビット)分用意しておき、これらのパターンの各
々に対して1,2サブフレームのLSPを復元して累積
歪を最小化するコードベクトルと補間パターンの組を選
択するようにしてもよい。このようにすると補間パター
ンのビット数だけ伝送情報が増加するが、LSPのフレ
ーム内での時間的な変化をより精密に表すことができ
る。ここで、補間パターンは、トレーニング用のLSP
データを用いてあらかじめ学習して作成してもよいし、
あらかじめ定められたパターンを格納しておいてもよ
い。あらかじめ定められたパターンとしては、例えば、
T.Taniguchi et al.による“Imp
rovedCELP speech coding a
t 4kb/s and below”と題した論文
(Proc.ICSLP,pp.41−44,199
2)(文献8)等に記載のパターンを用いることができ
る。また、さらに性能を改善するためには、補間パター
ンを選択した後に、あらかじめ定められたサブフレーム
において、LSPの真の値とLSPの補間値との誤差信
号を求め、前記誤差信号をさらに誤差コードブックで表
すようにしてもよい。
In the above, instead of linear interpolation, LS
P interpolation patterns are prepared for a predetermined number of bits (for example, 2 bits), and LSPs of 1 and 2 subframes are restored for each of these patterns and a code vector for minimizing the cumulative distortion. A set of interpolation patterns may be selected. In this way, the transmission information increases by the number of bits of the interpolation pattern, but it is possible to more accurately represent the temporal change in the LSP frame. Here, the interpolation pattern is the LSP for training.
It may be created by learning in advance using data,
A predetermined pattern may be stored. As the predetermined pattern, for example,
T. Taniguchi et al. By “Imp
lovedCELP speech coding a
t 4 kb / s and below ”(Proc. ICSLP, pp. 41-44, 199).
2) The pattern described in (Reference 8) or the like can be used. Further, in order to further improve the performance, after selecting an interpolation pattern, an error signal between the true value of the LSP and the interpolation value of the LSP is obtained in a predetermined subframe, and the error signal is further converted into an error code. It may be represented in a book.

【0029】聴感重み付け回路230は、スペクトルパ
ラメータ計算回路200から、各サブフレーム毎に量子
化前の線形予測係数αil(i=1,…,10,l=1,
…,5)を入力し、前記文献1にもとづき、サブフレー
ムの音声信号に対して聴感重み付けを行ない、聴感重み
付け信号を出力する。
The perceptual weighting circuit 230 receives from the spectral parameter calculation circuit 200 a linear prediction coefficient α il (i = 1, ..., 10, l = 1, 1) before quantization for each subframe.
, 5) is input, and the perceptual weighting is performed on the audio signal of the sub-frame based on the reference 1 and the perceptual weighting signal is output.

【0030】提案型モード判別回路2000は、聴感重
み付け回路230からフレーム単位で聴感重み付け信号
を受け取り、スペクトルパラメータ計算回路200から
スペクトルパラメータを受け取り、モード判別情報を出
力する。提案型モード判別回路の構成を図2に示す。
The proposed mode discrimination circuit 2000 receives the perceptual weighting signal from the perceptual weighting circuit 230 on a frame-by-frame basis, receives the spectrum parameter from the spectrum parameter calculation circuit 200, and outputs the mode discrimination information. The configuration of the proposed mode discrimination circuit is shown in FIG.

【0031】図2において、入力端子2010からフレ
ーム単位に、聴感重み付け信号を入力し、入力端子20
20からスペクトルパラメータを入力する。特徴量計算
回路A2030では特徴量として、例えばピッチ予測ゲ
インPGを計算し出力する。特徴量計算回路B3040
では特徴量として、例えば短期予測ゲインSGを計算し
出力する。
In FIG. 2, the perceptual weighting signal is input from the input terminal 2010 on a frame-by-frame basis, and the input terminal 20
Input the spectral parameters from 20. The characteristic amount calculation circuit A2030 calculates and outputs, for example, a pitch prediction gain PG as a characteristic amount. Feature amount calculation circuit B3040
Then, for example, a short-term prediction gain SG is calculated and output as the feature amount.

【0032】モード判別回路2050では、遅延器20
60に格納されている過去の一つ前のフレームのモード
情報に応じて、2030の出力値PGと、2040の出
力値SGを、あらかじめ定められた複数個のしきいと比
較して、モード判別を行ない、モード情報を出力する。
モード判別回路2050は、モード判別結果を適応コー
ドブック回路500、音源量子化回路350へ出力す
る。
In the mode discrimination circuit 2050, the delay unit 20
According to the mode information of the previous frame stored in 60, the output value PG of 2030 and the output value SG of 2040 are compared with a plurality of predetermined thresholds to determine the mode. And output the mode information.
The mode discrimination circuit 2050 outputs the mode discrimination result to the adaptive codebook circuit 500 and the excitation quantization circuit 350.

【0033】図1にもどり、応答信号計算回路240
は、スペクトルパラメータ計算回路200から、各サブ
フレーム毎に線形予測係数αilを入力し、スペクトルパ
ラメータ量子化回路210から、量子化、補間して復元
した線形予測係数α′ilをサブフレーム毎に入力し、保
存されているフィルタメモリの値を用いて、入力信号d
(n)=0とした応答信号を1サブフレーム分計算し、
減算器235へ出力する。ここで、応答信号xz (n)
は下式(1)で表される。
Returning to FIG. 1, the response signal calculation circuit 240
Is the linear prediction coefficient α il input from the spectrum parameter calculation circuit 200 for each subframe, and the linear prediction coefficient α ′ il restored by quantization and interpolation from the spectrum parameter quantization circuit 210 for each subframe. The input signal d is input using the value of the filter memory that is input and stored.
The response signal with (n) = 0 is calculated for one subframe,
Output to the subtractor 235. Here, the response signal x z (n)
Is represented by the following formula (1).

【0034】[0034]

【数1】 [Equation 1]

【0035】ここで、γは、聴感重み付け量を制御する
重み係数であり、下記の(3)式と同一の値である。
Here, γ is a weighting coefficient for controlling the perceptual weighting amount, and has the same value as the following equation (3).

【0036】減算器235は、下式(2)により、聴感
重み付け信号から応答信号を1サブフレーム分減算し、
x′w (n)を適応コードブック回路300へ出力す
る。
The subtractor 235 subtracts the response signal for one subframe from the perceptual weighting signal by the following equation (2),
It outputs x ′ w (n) to the adaptive codebook circuit 300.

【0037】 x′w (n)=xw (n)−xz (n) (2) インパルス応答計算回路310は、z変換が下式(3)
で表される重み付けフィルタのインパルス応答h
w (n)をあらかじめ定められた点数Lだけ計算し、適
応コードブック回路300、音源量子化回路350へ出
力する。
X ′ w (n) = x w (n) −x z (n) (2) In the impulse response calculation circuit 310, z conversion is represented by the following formula (3).
Impulse response h of the weighting filter represented by
w (n) is calculated by a predetermined number L of points and output to the adaptive codebook circuit 300 and the excitation quantization circuit 350.

【0038】[0038]

【数2】 [Equation 2]

【0039】適応コードブック回路500は、ピッチパ
ラメータを求める。詳細は前記文献2を参照することが
できる。また、適応コードブックによりピッチ予測を下
式(4)に従い行ない、適応コードブック予測算差信号
z(n)を出力する。
Adaptive codebook circuit 500 determines pitch parameters. For details, refer to Reference 2 above. Also, pitch prediction is performed by the adaptive codebook according to the following equation (4), and the adaptive codebook prediction difference signal z (n) is output.

【0040】 x(n)=x′w (n)−b(n) (4) ここで、b(n)は、適応コードブックピッチ予測信号
であり、下式(5)で表せる。
X (n) = x ′ w (n) −b (n) (4) Here, b (n) is an adaptive codebook pitch prediction signal and can be expressed by the following equation (5).

【0041】 b(n)=βv(n−T)*hw (n) (5) ここで、β、Tは、それぞれ、適応コードブックのゲイ
ン、遅延を示す。v(n)は適応コードベクトルであ
る。記号*は畳み込み演算を示す。
B (n) = βv (n−T) * h w (n) (5) where β and T represent the gain and delay of the adaptive codebook, respectively. v (n) is an adaptive code vector. The symbol * indicates a convolution operation.

【0042】不均一パルス数型スパース音源コードブッ
ク351は、各々のベクトルの0でない成分の個数が異
なるスパースコードブックである。
The nonuniform pulse number type sparse excitation codebook 351 is a sparse codebook in which the number of non-zero components of each vector is different.

【0043】音源量子化回路350では、音源コードブ
ック351に格納された音源コードベクトルの全部ある
いは一部に対して、式(6)を最小化するように、最良
の音源コードベクトルcj (n)を選択する。このと
き、最良のコードベクトルを1種選択してもよいし、2
種以上のコードベクトルを選んでおいて、ゲイン量子化
の際に、1種に本選択してもよい。ここでは、2種以上
のコードベクトルを選んでおくものとする。
In the excitation quantization circuit 350, the best excitation code vector c j (n) is minimized so that the expression (6) is minimized for all or some of the excitation code vectors stored in the excitation codebook 351. ) Is selected. At this time, one of the best code vectors may be selected, or 2
It is also possible to select more than one type of code vector and make a final selection for one type during gain quantization. Here, it is assumed that two or more types of code vectors are selected.

【0044】 Dj =Σn (z(n)−γj j (n)hw (n))2 (6) なお、一部の音源コードベクトルに対してのみ、式
(6)を適用するときは、複数個の音源コードベクトル
をあらかじめ予備選択しておき、予備選択された音源コ
ードベクトルに対して、式(6)を適用することもでき
る。
D j = Σ n (z (n) −γ j c j (n) h w (n)) 2 (6) Note that Expression (6) is applied only to some sound source code vectors. In this case, it is also possible to preselect a plurality of sound source code vectors in advance and apply equation (6) to the preselected sound source code vectors.

【0045】ゲイン量子化回路365は、ゲインコード
ブック355からゲインコードベクトルを読みだし、選
択された音源コードベクトルに対して、式(7)を最小
化するように、音源コードベクトルとゲインコードベク
トルの組み合わせを選択する。
The gain quantization circuit 365 reads the gain code vector from the gain code book 355, and for the selected excitation code vector, the excitation code vector and the gain code vector are set so as to minimize the equation (7). Select the combination of.

【0046】 Dj,k =Σn (xw (n)−β′k v(n−T)hw (n)−γ′k j ( n)hw (n))2 (7) ここで、β′k 、γ′k は、ゲインコードブック355
に格納された2次元ゲインコードブックにおけるk番目
のコードベクトルである。選択された音源コードベクト
ルとゲインコードベクトルを表すインデクスをマルチプ
レクサ400に出力する。
D j, k = Σ n (x w (n) −β ′ k v (n−T) h w (n) −γ ′ k c j (n) h w (n)) 2 (7) Here, β ′ k and γ ′ k are gain codebook 355.
It is the k-th code vector in the two-dimensional gain codebook stored in. The indexes representing the selected sound source code vector and gain code vector are output to the multiplexer 400.

【0047】重み付け信号計算回路360は、スペクト
ルパラメータ計算回路の出力パラメータ及び、それぞれ
のインデクスを入力し、インデクスからそれに対応する
コードベクトルを読みだし、まず下式(8)にもとづく
駆動音源信号v(n)を求める。
The weighting signal calculation circuit 360 inputs the output parameter of the spectrum parameter calculation circuit and each index, reads the code vector corresponding to the index from the index, and first, the drive source signal v (based on the following equation (8). n) is calculated.

【0048】 v(n)=β′k v(n−T)+γ′k j (n) (8) 次に、スペクトルパラメータ計算回路200の出力パラ
メータ、スペクトルパラメータ量子化回路210の出力
パラメータを用いて下式(9)により、重み付け信号s
w (n)をサブフレーム毎に計算し、応答信号計算回路
240へ出力する。
V (n) = β ′ k v (n−T) + γ ′ k c j (n) (8) Next, the output parameter of the spectrum parameter calculation circuit 200 and the output parameter of the spectrum parameter quantization circuit 210 are set. Using the following equation (9), the weighting signal s
w (n) is calculated for each subframe and output to the response signal calculation circuit 240.

【0049】[0049]

【数3】 (Equation 3)

【0050】以上により、請求項4の“前記特徴量とし
て、ピッチ予測ゲイン、短期予測ゲイン、レベル、ピッ
チの少なくとも一種以上を特徴量として含めることを特
徴とする請求項1記載の音声符号化装置”に関わる実施
例の説明を終える。
According to the above, at least one or more of the pitch prediction gain, the short-term prediction gain, the level, and the pitch are included as the feature quantity in the speech coding apparatus according to claim 4. The description of the embodiment relating to "is completed.

【0051】請求項4の“前記特徴量として、ピッチ予
測ゲイン、短期予測ゲイン、レベル、ピッチの少なくと
も一種以上を特徴量として含めることを特徴とする請求
項2記載の音声符号化装置”に関わる実施例を図3に示
す。
The speech coding apparatus according to claim 2, wherein at least one of pitch prediction gain, short-term prediction gain, level, and pitch is included as a feature amount as the feature amount. An example is shown in FIG.

【0052】ここでの発明では、請求項4の“前記特徴
量として、ピッチ予測ゲイン、短期予測ゲイン、レベ
ル、ピッチの少なくとも一種以上を特徴量として含める
ことを特徴とする請求項1記載の音声符号化装置”に関
わる実施例である図1の提案型モード判別回路2000
と本実施例の提案型モード判別回路の構成が異なるの
で、本実施例の提案型モード判別回路の構成を図3を用
いて説明する。
According to the present invention, at least one of pitch prediction gain, short-term prediction gain, level, and pitch is included as the feature quantity in the claim 4 as the feature quantity. 1 is an embodiment relating to the "encoding device", and the proposed mode discrimination circuit 2000 of FIG.
Since the configuration of the proposed mode discrimination circuit of this embodiment is different from that of the present embodiment, the configuration of the proposed mode discrimination circuit of this embodiment will be described with reference to FIG.

【0053】提案型モード判別回路は、提案型モード判
別回路2000と同様に、聴感重み付け回路230から
フレーム単位で聴感重み付け信号とスペクトルパラメー
タ計算回路200よりスペクトルパラメータを受け取
り、モード判別情報を出力する。提案型モード判別回路
の構成を図3に示す。
Like the proposed mode discrimination circuit 2000, the proposed mode discrimination circuit receives the perceptual weighting signal from the perceptual weighting circuit 230 on a frame-by-frame basis and the spectrum parameter from the spectrum parameter calculation circuit 200, and outputs the mode discrimination information. The configuration of the proposed mode discrimination circuit is shown in FIG.

【0054】図3において、入力端子3010からフレ
ーム単位に、聴感重み付け信号を入力し、入力端子30
20からスペクトルパラメータを入力する。
In FIG. 3, the perceptual weighting signal is input from the input terminal 3010 in units of frames, and the input terminal 30
Input the spectral parameters from 20.

【0055】特徴量計算回路A3030では特徴量とし
て、例えばピッチ予測ゲインPGを計算し出力する。特
徴量計算回路B3040では特徴量として、例えばRM
S比RRを計算し出力する。特徴量計算回路C3050
では特徴量として、例えば短期予測ゲインSGと短期予
測ゲイン比SGRを計算し出力する。
The characteristic amount calculation circuit A3030 calculates and outputs, for example, a pitch prediction gain PG as a characteristic amount. In the characteristic amount calculation circuit B3040, as the characteristic amount, for example, RM
Calculate and output the S ratio RR. Feature amount calculation circuit C3050
Then, for example, the short-term prediction gain SG and the short-term prediction gain ratio SGR are calculated and output as the feature amount.

【0056】モード判別回路3060では、遅延器30
70に格納された過去の一つ前のフレームのモード情報
に応じて、3030の出力値PGと、3040の出力値
RRと、3050の出力値SGとSGRを、あらかじめ
定められた複数個のしきいと比較して、モード判別を行
ない、モード情報を出力する。モード判別回路3060
は、提案型モード判別回路2000と同様に、モード判
別結果を適応コードブック回路500、音源量子化回路
350へ出力する。
In the mode discrimination circuit 3060, the delay unit 30
According to the mode information of the previous frame stored in 70, the output value PG of 3030, the output value RR of 3040, and the output values SG and SGR of 3050 are stored in a predetermined number. The mode information is compared and the mode information is output. Mode discrimination circuit 3060
Outputs the mode discrimination result to the adaptive codebook circuit 500 and the excitation quantization circuit 350, similarly to the proposed mode discrimination circuit 2000.

【0057】特徴量計算回路B3040の構成を図4に
示す。図4において、入力端子4010からフレーム単
位に、聴感重み付け信号を入力し、RMS計算回路40
20でRMS値Rを計算し、この値と遅延器4030に
格納された過去のRMS値とを用いてRMS計算回路4
040でRMS比RRを計算し、これを出力端子405
0により出力する。ここで、RMS比RRはフレーム単
位に時間軸をとったときのRMSの変化率である。
The structure of the characteristic amount calculation circuit B3040 is shown in FIG. In FIG. 4, the perceptual weighting signal is input from the input terminal 4010 in frame units, and the RMS calculation circuit 40
20 calculates the RMS value R, and uses this value and the past RMS value stored in the delay unit 4030 to calculate the RMS calculation circuit 4
040 calculates the RMS ratio RR and outputs it to the output terminal 405.
Output by 0. Here, the RMS ratio RR is the rate of change of the RMS when the time axis is taken in frame units.

【0058】特徴量計算回路C3050の構成を図5に
示す。図5において、入力端子5010からフレーム単
位に、聴感重み付け信号を入力し、入力端子5020か
らフレーム単位に、スペクトルパラメータを入力し、短
期予測ゲイン計算回路5030で短期予測ゲインSGを
計算し、この値を出力端子5070により出力する。ま
た、5030で計算された短期予測ゲインSGと遅延器
5040に格納された過去のフレームの短期予測ゲイン
とを用いて短期予測ゲイン比計算回路5050で短期予
測ゲイン比を計算し、これを出力端子5060により出
力する。
The configuration of the characteristic amount calculation circuit C3050 is shown in FIG. In FIG. 5, the perceptual weighting signal is input from the input terminal 5010 in frame units, the spectrum parameter is input from the input terminal 5020 in frame units, the short-term prediction gain calculation circuit 5030 calculates the short-term prediction gain SG, and this value is calculated. Is output from the output terminal 5070. Also, the short-term prediction gain ratio calculation circuit 5050 calculates the short-term prediction gain ratio using the short-term prediction gain SG calculated in 5030 and the short-term prediction gain of the past frame stored in the delay unit 5040, and this is output terminal. Output by 5060.

【0059】以上により、請求項4の“前記特徴量とし
て、ピッチ予測ゲイン、短期予測ゲイン、レベル、ピッ
チの少なくとも一種以上を特徴量として含めることを特
徴とする請求項2記載の音声符号化装置”に関わる実施
例の説明を終える。
According to the above, at least one or more of the pitch prediction gain, the short-term prediction gain, the level, and the pitch are included as the feature amount in the claim 4 as the feature amount. The description of the embodiment relating to "is completed.

【0060】請求項4の“前記特徴量として、ピッチ予
測ゲイン、短期予測ゲイン、レベル、ピッチの少なくと
も一種以上を特徴量として含めることを特徴とする請求
項3記載の音声符号化装置”に関わる実施例を図9に示
す。
The present invention relates to the speech coder according to claim 3, wherein at least one of a pitch prediction gain, a short-term prediction gain, a level, and a pitch is included as the feature quantity as the feature quantity. An example is shown in FIG.

【0061】ここでの発明では、請求項4の“前記特徴
量として、ピッチ予測ゲイン、短期予測ゲイン、レベ
ル、ピッチの少なくとも一種以上を特徴量として含める
ことを特徴とする請求項2記載の音声符号化装置”に関
わる実施例である図3の特徴量計算回路C3050と本
実施例の特徴量計算回路Cの構成が異なるので、本実施
例の特徴量計算回路Cの構成を図9を用いて説明する。
According to the present invention, at least one or more of a pitch prediction gain, a short-term prediction gain, a level, and a pitch are included as the feature amount in the claim 4 "feature amount. The configuration of the feature amount calculation circuit C3050 of FIG. 3 which is an embodiment relating to the "encoding device" and the feature amount calculation circuit C of this embodiment are different. Therefore, the configuration of the feature amount calculation circuit C of this embodiment is shown in FIG. Explain.

【0062】図9において、入力端子8010からフレ
ーム単位に、聴感重み付け信号を入力し、入力端子80
20からフレーム単位に、スペクトルパラメータを入力
し、短期予測ゲイン計算回路8030で短期予測ゲイン
SGを計算し、この値を出力端子8070により出力す
る。また、8030で計算された短期予測ゲインSGと
遅延器8050に格納された2つ前の過去のフレームの
短期予測ゲインとを用いて短期予測ゲイン比計算回路で
短期予測ゲイン比を計算し、これを出力端子8060に
より出力する。
In FIG. 9, the perceptual weighting signal is input from the input terminal 8010 in frame units, and the input terminal 80
The spectrum parameter is input from 20 in frame units, the short-term prediction gain calculation circuit 8030 calculates the short-term prediction gain SG, and this value is output from the output terminal 8070. Further, the short-term prediction gain ratio is calculated by the short-term prediction gain ratio calculation circuit using the short-term prediction gain SG calculated in 8030 and the short-term prediction gain of the previous frame stored in the delay unit 8050. Is output from the output terminal 8060.

【0063】以上により、請求項4の“前記特徴量とし
て、ピッチ予測ゲイン、短期予測ゲイン、レベル、ピッ
チの少なくとも一種以上を特徴量として含めることを特
徴とする請求項3記載の音声符号化装置”に関わる実施
例の説明を終える。
According to the above, at least one or more of the pitch prediction gain, the short-term prediction gain, the level, and the pitch are included as the feature amount as the feature amount in the speech encoding device according to claim 4. The description of the embodiment relating to "is completed.

【0064】請求項3に関わる実施例を図10に示す。An embodiment relating to claim 3 is shown in FIG.

【0065】ここでの発明では、請求項4の“前記特徴
量として、ピッチ予測ゲイン、短期予測ゲイン、レベ
ル、ピッチの少なくとも一種以上を特徴量として含める
ことを特徴とする請求項2記載の音声符号化装置”に関
わる実施例である提案型モード判別回路と本実施例の提
案型モード判別回路の構成が異なるので、本実施例の提
案型モード判別回路の構成を図10を用いて説明する。
In the present invention, the speech according to claim 4 is characterized in that at least one of pitch prediction gain, short-term prediction gain, level, and pitch is included as the feature amount as the feature amount. Since the configuration of the proposed mode discriminating circuit which is the embodiment relating to the "encoding device" is different from that of the proposed mode discriminating circuit of the present embodiment, the configuration of the proposed mode discriminating circuit of the present embodiment will be described with reference to FIG. .

【0066】提案型モード判別回路は、聴感重み付け回
路230からフレーム単位で聴感重み付け信号とスペク
トルパラメータ計算回路200よりスペクトルパラメー
タを受け取り、モード判別情報を出力する。提案型モー
ド判別回路の構成を図10に示す。
The proposed mode discrimination circuit receives the perceptual weighting signal from the perceptual weighting circuit 230 on a frame-by-frame basis and the spectrum parameter from the spectrum parameter calculation circuit 200, and outputs the mode discrimination information. The configuration of the proposed mode discrimination circuit is shown in FIG.

【0067】図10において、入力端子9010からフ
レーム単位に、聴感重み付け信号を入力し、入力端子9
020からスペクトルパラメータを入力する。
In FIG. 10, the perceptual weighting signal is input from the input terminal 9010 in frame units, and the input terminal 9
Input the spectrum parameter from 020.

【0068】特徴量計算回路A9030では特徴量とし
て、例えばピッチ予測ゲインPGを計算し出力する。特
徴量計算回路B9040では特徴量として、例えばRM
S値RとRMS比RRを計算し出力する。特徴量計算回
路C9050では特徴量として、例えば短期予測ゲイン
SGと短期予測ゲイン比SGRを計算し出力する。
The characteristic amount calculation circuit A 9030 calculates and outputs, for example, a pitch prediction gain PG as a characteristic amount. In the feature amount calculation circuit B9040, as the feature amount, for example, RM
The S value R and the RMS ratio RR are calculated and output. The characteristic amount calculation circuit C9050 calculates and outputs, for example, the short-term prediction gain SG and the short-term prediction gain ratio SGR as the characteristic amount.

【0069】モード判別回路9060では、遅延器90
70に格納された過去の一つ前のフレームのモード情報
に応じて、9030の出力値PGと、9040の出力値
RとRRと、9050の出力値SGとSGRを、あらか
じめ定められた複数個のしきいと比較して、モード判別
を行ない、モード情報を出力する。モード判別回路90
60は、モード判別結果を適応コードブック回路50
0、音源量子化回路350へ出力する。
In the mode discrimination circuit 9060, the delay device 90
A plurality of predetermined output values PG of 9030, output values R and RR of 9040, and output values SG and SGR of 9050 are stored in accordance with the mode information of the previous frame stored in 70. The mode information is compared with the threshold value and the mode information is output. Mode discrimination circuit 90
Reference numeral 60 denotes the adaptive codebook circuit 50 which indicates the mode discrimination result.
0, output to the excitation quantization circuit 350.

【0070】特徴量計算回路B9040の構成を図11
に示す。図11において、入力端子1010からフレー
ム単位に、聴感重み付け信号を入力し、RMS計算回路
11020でRMS値Rを計算し出力端子11060か
ら出力する。また、RMS計算回路11020の出力値
Rと遅延器21030に格納された過去の2つ前のフレ
ームのRMS値とを用いてRMS比計算回路11040
でRMS比RRを計算し、これを出力端子11050に
より出力する。
FIG. 11 shows the configuration of the characteristic amount calculation circuit B9040.
Shown in In FIG. 11, the perceptual weighting signal is input from the input terminal 1010 in frame units, the RMS calculation circuit 11020 calculates the RMS value R, and outputs the RMS value R from the output terminal 11060. Also, the RMS ratio calculation circuit 11040 is calculated using the output value R of the RMS calculation circuit 11020 and the RMS value of the frame two frames before in the past stored in the delay unit 21030.
Then, the RMS ratio RR is calculated, and this is output from the output terminal 11050.

【0071】特徴量計算回路C9050は、請求項4の
“前記特徴量として、ピッチ予測ゲイン、短期予測ゲイ
ン、レベル、ピッチの少なくとも一種以上を特徴量とし
て含めることを特徴とする請求項2記載の音声符号化装
置”に関わる実施例の図3の特徴量計算回路C3050
と同じである。
The feature quantity calculating circuit C9050 according to claim 4, wherein at least one of pitch prediction gain, short-term prediction gain, level, and pitch is included as the feature quantity as the feature quantity. Feature amount calculation circuit C3050 of FIG.
Is the same as

【0072】以上により、請求項3に関わる実施例の説
明を終える。
This is the end of the description of the embodiment according to claim 3.

【0073】請求項2に関わる実施例を図27に示す。An embodiment relating to claim 2 is shown in FIG.

【0074】ここでの発明では、請求項3に関わる実施
例である図10の特徴量計算回路Bと本実施例の特徴量
計算回路Bの構成が異なるので、この構成を図27を用
いて説明する。
In the present invention, the characteristic amount calculating circuit B of FIG. 10 which is an embodiment relating to claim 3 and the characteristic amount calculating circuit B of the present embodiment have different configurations. explain.

【0075】提案型モード判別回路は、聴感重み付け回
路230からフレーム単位で聴感重み付け信号とスペク
トルパラメータ計算回路200よりスペクトルパラメー
タを受け取り、モード判別情報を出力する。提案型モー
ド判別回路の構成を図27に示す。
The proposed mode discriminating circuit receives the perceptual weighting signal from the perceptual weighting circuit 230 on a frame-by-frame basis and the spectrum parameter from the spectrum parameter calculating circuit 200, and outputs the mode discriminating information. FIG. 27 shows the configuration of the proposed mode discrimination circuit.

【0076】図27において、入力端子10010から
フレーム単位に、聴感重み付け信号を入力し、RMS計
算回路10020でRMS値Rを計算し出力端子100
60から出力する。また、RMS計算回路10020の
出力値Rと遅延器10030に格納された過去のフレー
ムのRMS値とを用いてRMS比計算回路10040で
RMS比RRを計算し、これを出力端子10050によ
り出力する。ここで、RMS比RRはフレーム単位に時
間軸をとったときのRMSの変化率である。
In FIG. 27, a perceptual weighting signal is input from the input terminal 10010 in frame units, the RMS calculation circuit 10020 calculates the RMS value R, and the output terminal 100
Output from 60. Further, the RMS ratio calculation circuit 10040 calculates the RMS ratio RR using the output value R of the RMS calculation circuit 10020 and the RMS value of the past frame stored in the delay device 10030, and outputs the RMS ratio RR from the output terminal 10050. Here, the RMS ratio RR is the rate of change of the RMS when the time axis is taken in frame units.

【0077】以上により、請求項2に関わる実施例の説
明を終える。
This is the end of the description of the embodiment according to claim 2.

【0078】請求項1に関わる実施例を図12に示す。An embodiment relating to claim 1 is shown in FIG.

【0079】ここでの発明では、請求項4の“前記特徴
量として、ピッチ予測ゲイン、短期予測ゲイン、レベ
ル、ピッチの少なくとも一種以上を特徴量として含める
ことを特徴とする請求項2記載の音声符号化装置”に関
わる実施例である図3の提案型モード判別回路と本実施
例の提案型モード判別回路の構成が異なるので、提案型
モード判別回路の構成を図12を用いて説明する。
According to the present invention, at least one or more of a pitch prediction gain, a short-term prediction gain, a level, and a pitch are included as the feature quantity in the claim 4 as the feature quantity. The configuration of the proposed mode discrimination circuit of FIG. 3 which is an embodiment related to the "encoding device" and the proposed mode discrimination circuit of this embodiment are different, and therefore the configuration of the proposed mode discrimination circuit will be described with reference to FIG.

【0080】提案型モード判別回路は、聴感重み付け回
路230からフレーム単位で聴感重み付け信号とスペク
トルパラメータ計算回路200よりスペクトルパラメー
タを受け取り、モード判別情報を出力する。
The proposed mode discriminating circuit receives the perceptual weighting signal from the perceptual weighting circuit 230 on a frame-by-frame basis and the spectrum parameter from the spectrum parameter calculating circuit 200, and outputs the mode discriminating information.

【0081】特徴量計算回路A12030では特徴量と
して、例えばピッチ予測ゲインPGを計算し出力する。
特徴量計算回路B12040では特徴量として、例えば
RMS値Rを計算し出力する。特徴量計算回路C120
50では特徴量として、例えば短期予測ゲインSGを計
算し出力する。
The characteristic amount calculation circuit A12030 calculates and outputs, for example, a pitch prediction gain PG as a characteristic amount.
The characteristic amount calculation circuit B12040 calculates and outputs, for example, an RMS value R as a characteristic amount. Feature amount calculation circuit C120
In 50, for example, a short-term prediction gain SG is calculated and output as a feature amount.

【0082】モード判別回路12060では、遅延器1
2070に格納された過去の一つ前のフレームのモード
情報に応じて、12030の出力値PGと、12040
の出力値Rと、12050の出力値SGを、あらかじめ
定められた複数個のしきいと比較して、モード判別を行
ない、モード情報を出力する。モード判別回路1206
0は、モード判別結果を適応コードブック回路500、
音源量子化回路350へ出力する。
In the mode discrimination circuit 12060, the delay unit 1
According to the mode information of the previous frame stored in 2070, the output value PG of 12030 and 12040
Output value R of 12050 and output value SG of 12050 are compared with a plurality of predetermined thresholds, mode determination is performed, and mode information is output. Mode discrimination circuit 1206
0 indicates that the result of mode discrimination is the adaptive codebook circuit 500,
Output to the excitation quantization circuit 350.

【0083】以上により、請求項1に関わる実施例の説
明を終える。
With the above, the description of the embodiment according to claim 1 is completed.

【0084】請求項8の“前記特徴量として、ピッチ予
測ゲイン、短期予測ゲイン、レベル、ピッチの少なくと
も一種以上を特徴量として含めることを特徴とする請求
項6記載の音声符号化装置”に関わる実施例を図6に示
す。
The present invention relates to the "speech coding apparatus according to claim 6," wherein at least one of pitch prediction gain, short-term prediction gain, level, and pitch is included as the feature quantity as the feature quantity. An example is shown in FIG.

【0085】ここでの発明では、請求項4の“前記特徴
量として、ピッチ予測ゲイン、短期予測ゲイン、レベ
ル、ピッチの少なくとも一種以上を特徴量として含める
ことを特徴とする請求項1記載の音声符号化装置”に関
わる実施例である図1の提案型モード判別回路2000
と適応コードブック回路500が、本実施例の提案型モ
ード判別回路4000と適応コードブック回路5000
のそれぞれに対しその構成が異なるので、本実施例では
これらと提案型ピッチ抽出回路6000の構成について
図6を用いて説明する。
According to the present invention, at least one or more of a pitch prediction gain, a short-term prediction gain, a level, and a pitch are included as the feature amount in the claim 4 "feature amount. 1 is an embodiment relating to the "encoding device", and the proposed mode discrimination circuit 2000 of FIG.
And the adaptive codebook circuit 500, the proposed mode discrimination circuit 4000 and the adaptive codebook circuit 5000 of this embodiment.
Since their configurations are different from each other, the configurations of these and the proposed pitch extraction circuit 6000 will be described in this embodiment with reference to FIG.

【0086】モード判別回路4000は、聴感重み付け
回路230からフレーム単位で聴感重み付け信号を受取
り、ピッチ予測ゲインPGを計算し、これを、あらかじ
め定められた複数個のしきいと比較して、モード判別を
行ない、モード情報を出力する。モード判別回路400
0は、モード判別結果を適応コードブック回路5000
及び音源量子化回路350及び提案型ピッチ抽出回路6
000へ出力する。
The mode discrimination circuit 4000 receives the perceptual weighting signal from the perceptual weighting circuit 230 on a frame-by-frame basis, calculates the pitch prediction gain PG, and compares this with a predetermined plurality of thresholds to discriminate the mode. And output the mode information. Mode discrimination circuit 400
0 indicates that the result of mode discrimination is the adaptive codebook circuit 5000.
And excitation quantization circuit 350 and proposed pitch extraction circuit 6
Output to 000.

【0087】提案型ピッチ抽出回路6000は、聴感重
み付け回路230からフレーム単位で聴感重み付け信号
とモード判別回路4000よりモード判別情報と提案型
ピッチ抽出回路6000の出力値を受け取り、適応コー
ドブック回路5000と提案型ピッチ抽出回路6000
に抽出したピッチCPを出力する。
The proposed pitch extraction circuit 6000 receives the perceptual weighting signal from the perceptual weighting circuit 230 on a frame-by-frame basis, the mode discrimination information from the mode discrimination circuit 4000, and the output value of the proposed pitch extraction circuit 6000. Proposed pitch extraction circuit 6000
The pitch CP extracted in is output.

【0088】提案型ピッチ抽出回路6000の構成を図
7に示す。
The structure of the proposed pitch extraction circuit 6000 is shown in FIG.

【0089】図7において、入力端子6010からモー
ド判別情報を入力し、入力端子6020から聴感重み付
け信号を入力し、入力端子6070からピッチを入力す
る。
In FIG. 7, mode discrimination information is input from the input terminal 6010, a perceptual weighting signal is input from the input terminal 6020, and a pitch is input from the input terminal 6070.

【0090】特徴量D計算回路6040では特徴量とし
て、例えば現フレームのピッチCP、過去のフレームの
ピッチPP、ピッチ比DRを計算し出力する。ここで、
ピッチ比DRはフレーム単位に時間軸をとったときのピ
ッチの変化率である。
The characteristic amount D calculating circuit 6040 calculates and outputs, for example, the current frame pitch CP, the past frame pitch PP, and the pitch ratio DR as the characteristic amount. here,
The pitch ratio DR is the rate of change in pitch when the time axis is taken in frame units.

【0091】特徴量D補正計算回路6050では、入力
端子6010からの現在のモード情報と、遅延器603
0に格納された過去の一つ前のフレームのモード情報に
応じて、6040の出力値ピッチ比DRをあらかじめ定
められた閾値と比較して、現フレームのピッチCPを過
去のフレームのピッチPPで補正した値CPPを出力す
る。
In the characteristic amount D correction calculation circuit 6050, the current mode information from the input terminal 6010 and the delay device 603 are used.
According to the mode information of the previous frame stored in 0, the output value pitch ratio DR of 6040 is compared with a predetermined threshold value, and the pitch CP of the current frame is set to the pitch PP of the past frame. The corrected value CPP is output.

【0092】特徴量D計算回路6040の構成を図8に
示す。図8において、入力端子7010からフレーム単
位に、聴感重み付け信号入力端子7080からピッチを
入力し、ピッチ計算回路7020でピッチCPを計算
し、出力端子7070で出力する。また、7020で計
算されたピッチCPと遅延器7030に格納された過去
のフレームのピッチPPとを用いてピッチ比計算回路7
040でピッチ比DRを計算し、これを出力端子706
0により出力する。また、遅延器7030に格納された
過去のフレームのピッチPPも出力端子7050より出
力される。
FIG. 8 shows the configuration of the characteristic amount D calculation circuit 6040. In FIG. 8, the pitch is input from the perceptual weighting signal input terminal 7080 in frame units from the input terminal 7010, the pitch CP is calculated by the pitch calculation circuit 7020, and output at the output terminal 7070. Further, the pitch ratio calculation circuit 7 is calculated using the pitch CP calculated in 7020 and the pitch PP of the past frame stored in the delay unit 7030.
The pitch ratio DR is calculated at 040, and this is output terminal 706.
Output by 0. The pitch PP of the past frame stored in the delay unit 7030 is also output from the output terminal 7050.

【0093】適応コードブック回路5000は、第1の
発明の適応コードブック回路500と基本的に同じであ
るが、過去の信号からのピッチの探索範囲を、提案型ピ
ッチ抽出回路6000により得られたピッチCPPの近
傍とすることを特徴とする。
The adaptive codebook circuit 5000 is basically the same as the adaptive codebook circuit 500 of the first invention, but the pitch search range from the past signal is obtained by the proposed pitch extraction circuit 6000. It is characterized in that it is in the vicinity of the pitch CPP.

【0094】以上により、請求項8の“前記特徴量とし
て、ピッチ予測ゲイン、短期予測ゲイン、レベル、ピッ
チの少なくとも一種以上を特徴量として含めることを特
徴とする請求項6記載の音声符号化装置”に関わる実施
例の説明を終える。
According to the above, at least one or more of the pitch prediction gain, the short-term prediction gain, the level, and the pitch are included as the feature quantity in the speech coding apparatus according to claim 8. The description of the embodiment relating to "is completed.

【0095】請求項8の“前記特徴量として、ピッチ予
測ゲイン、短期予測ゲイン、レベル、ピッチの少なくと
も一種以上を特徴量として含めることを特徴とする請求
項5記載の音声符号化装置”に関わる実施例を図13に
示す。
The speech coding apparatus according to claim 5, wherein at least one of pitch prediction gain, short-term prediction gain, level, and pitch is included as a feature amount as the feature amount. An example is shown in FIG.

【0096】ここでの発明では、請求項8の“前記特徴
量として、ピッチ予測ゲイン、短期予測ゲイン、レベ
ル、ピッチの少なくとも一種以上を特徴量として含める
ことを特徴とする請求項6記載の音声符号化装置”に関
わる実施例である図7のピッチ抽出回路と本実施例のピ
ッチ抽出回路の構成が異なるので、これについて図13
を用いて説明する。
According to the present invention, at least one or more of a pitch prediction gain, a short-term prediction gain, a level, and a pitch are included as the feature amount in the claim 8 "feature amount. The configuration of the pitch extraction circuit of FIG. 7 which is an embodiment relating to the "encoding device" is different from that of the pitch extraction circuit of this embodiment.
Will be explained.

【0097】提案型ピッチ抽出回路は、聴感重み付け回
路230からフレーム単位で聴感重み付け信号とモード
判別回路4000よりモード判別情報を受け取り、適応
コードブック回路5000に抽出したピッチCPPを出
力する。
The proposed pitch extraction circuit receives the perceptual weighting signal from the perceptual weighting circuit 230 on a frame-by-frame basis and the mode discrimination information from the mode discrimination circuit 4000, and outputs the extracted pitch CPP to the adaptive codebook circuit 5000.

【0098】提案型ピッチ抽出回路の構成を図13に示
す。
The structure of the proposed pitch extraction circuit is shown in FIG.

【0099】図13において、入力端子13010から
モード判別情報を入力し、入力端子13020から聴感
重み付け信号を入力する。
In FIG. 13, mode discrimination information is input from an input terminal 13010, and a perceptual weighting signal is input from an input terminal 13020.

【0100】特徴量D計算回路13040では特徴量と
して、例えば現フレームのピッチCPを計算し出力す
る。
The characteristic amount D calculating circuit 13040 calculates and outputs, for example, the pitch CP of the current frame as a characteristic amount.

【0101】特徴量D補正計算回路13050では、入
力端子13010からの現在のモード情報と、遅延器1
3030に格納された過去の一つ前のフレームのモード
情報に応じて、現フレームのピッチCPを補正した値C
PPを出力する。
In the characteristic amount D correction calculation circuit 13050, the current mode information from the input terminal 13010 and the delay unit 1
A value C obtained by correcting the pitch CP of the current frame in accordance with the mode information of the previous frame stored in 3030.
Output PP.

【0102】以上により、請求項8の“前記特徴量とし
て、ピッチ予測ゲイン、短期予測ゲイン、レベル、ピッ
チの少なくとも一種以上を特徴量として含めることを特
徴とする請求項5記載の音声符号化装置”に関わる実施
例の説明を終える。
According to the above, at least one or more of the pitch prediction gain, the short-term prediction gain, the level, and the pitch are included as the feature quantity in the speech coding apparatus according to claim 8. The description of the embodiment relating to "is completed.

【0103】請求項8の“前記特徴量として、ピッチ予
測ゲイン、短期予測ゲイン、レベル、ピッチの少なくと
も一種以上を特徴量として含めることを特徴とする請求
項7記載の音声符号化装置”に関わる実施例を図14に
示す。
The speech coding apparatus according to claim 7, wherein at least one of pitch prediction gain, short-term prediction gain, level, and pitch is included as a feature amount as the feature amount. An example is shown in FIG.

【0104】ここでの発明では、請求項8の“前記特徴
量として、ピッチ予測ゲイン、短期予測ゲイン、レベ
ル、ピッチの少なくとも一種以上を特徴量として含める
ことを特徴とする請求項6記載の音声符号化装置、に関
わる実施例である図7の特徴量D計算回路6040と本
実施例の特徴量D計算回路の構成が異なるので、これに
ついて図14を用いて説明する。
According to the present invention, at least one or more of a pitch prediction gain, a short-term prediction gain, a level, and a pitch is included as the feature amount in the claim 8 "feature amount. The feature amount D calculation circuit 6040 of FIG. 7 which is an embodiment relating to the encoding device and the feature amount D calculation circuit of the present embodiment have different configurations, which will be described with reference to FIG.

【0105】特徴量D計算回路の構成を図14に示す。
図14において、入力端子14010からフレーム単位
に、聴感重み付け信号を入力し、ピッチ計算回路140
20でピッチCPを計算し、出力端子14070で出力
する。また、14020で計算されたピッチCPと遅延
器14030に格納された2つ前の過去のフレームのピ
ッチPPPとを用いてピッチ比計算回路14040でピ
ッチ比DRを計算し、これを出力端子14060により
出力する。また、遅延器14030に格納された過去の
フレームのピッチPPも出力端子14050より出力さ
れる。
FIG. 14 shows the configuration of the feature amount D calculation circuit.
In FIG. 14, the perceptual weighting signal is input from the input terminal 14010 in frame units, and the pitch calculation circuit 140
The pitch CP is calculated at 20, and output at the output terminal 14070. Also, the pitch ratio DR is calculated by the pitch ratio calculation circuit 14040 using the pitch CP calculated in 14020 and the pitch PPP of the frame of the previous frame stored in the delay unit 14030, and this is calculated by the output terminal 14060. Output. Further, the pitch PP of the past frame stored in the delay device 14030 is also output from the output terminal 14050.

【0106】以上により、請求項8の“前記特徴量とし
て、ピッチ予測ゲイン、短期予測ゲイン、レベル、ピッ
チの少なくとも一種以上を特徴量として含めることを特
徴とする請求項7記載の音声符号化装置”に関わる実施
例の説明を終える。
According to the above, at least one or more of the pitch prediction gain, the short-term prediction gain, the level, and the pitch is included as the feature quantity in the speech coding apparatus according to claim 8. The description of the embodiment relating to "is completed.

【0107】請求項7に関わる実施例を図15に示す。An embodiment relating to claim 7 is shown in FIG.

【0108】ここでの発明では、請求項8の“前記特徴
量として、ピッチ予測ゲイン、短期予測ゲイン、レベ
ル、ピッチの少なくとも一種以上を特徴量として求める
ことを特徴とする請求項7記載の音声符号化装置”に関
わる実施例である図7のピッチ抽出回路が、本実施例の
提案型ピッチ抽出回路に対しその構成が異なるので、本
実施例ではこれらの構成について図15を用いて説明す
る。
According to the present invention, at least one or more of a pitch prediction gain, a short-term prediction gain, a level, and a pitch are obtained as the feature amount as the feature amount in the eighth aspect. The pitch extraction circuit of FIG. 7 which is an embodiment related to the "encoding device" has a different structure from the pitch pitch extraction circuit of the proposed type of this embodiment. Therefore, in this embodiment, these structures will be described with reference to FIG. .

【0109】提案型ピッチ抽出回路は、聴感重み付け回
路230からフレーム単位で聴感重み付け信号とモード
判別回路4000よりモード判別情報と提案型ピッチ抽
出回路からピッチを受け取り、適応コードブック回路5
000と提案型ピッチ抽出回路に抽出したピッチCPを
出力する。
The proposed pitch extraction circuit receives the perceptual weighting signal from the perceptual weighting circuit 230 on a frame-by-frame basis, the mode discrimination information from the mode discrimination circuit 4000 and the pitch from the proposed pitch extraction circuit, and the adaptive codebook circuit 5
000 and the pitch CP extracted to the proposed pitch extraction circuit.

【0110】提案型ピッチ抽出回路の構成を図15に示
す。
The structure of the proposed pitch extraction circuit is shown in FIG.

【0111】図15において、入力端子15010から
モード判別情報を入力し、入力端子15020から聴感
重み付け信号を入力する。
In FIG. 15, mode discrimination information is input from an input terminal 15010, and a perceptual weighting signal is input from an input terminal 15020.

【0112】特徴量D計算回路15040では特徴量と
して、例えば現フレームのピッチCP、ピッチ比DRを
計算し出力する。
The characteristic amount D calculating circuit 15040 calculates and outputs, for example, the pitch CP and the pitch ratio DR of the current frame as the characteristic amount.

【0113】特徴量D補正計算回路15050では、入
力端子15010からの現在のモード情報と、遅延器1
5030に格納された過去の一つ前のフレームのモード
情報に応じて、15040の出力値ピッチ比DRをあら
かじめ定められた閾値と比較して、現フレームのピッチ
CPをピッチ比DRで補正した値CPPを出力する。
In the characteristic amount D correction calculation circuit 15050, the current mode information from the input terminal 15010 and the delay unit 1
A value obtained by comparing the output value pitch ratio DR of 15040 with a predetermined threshold value according to the mode information of the previous frame stored in 5030 and correcting the pitch CP of the current frame with the pitch ratio DR. Output CPP.

【0114】特徴量D計算回路15040の構成を図1
6に示す。図16において、入力端子16010からフ
レーム単位に、聴感重み付け信号を入力し、ピッチ計算
回路16020でピッチCPを計算し、出力端子160
70で出力する。また、16020で計算されたピッチ
CPと遅延器26030に格納された2つ前の過去のフ
レームのピッチPPとを用いてピッチ比計算回路160
40でピッチ比DRを計算し、これを出力端子1606
0により出力する。
FIG. 1 shows the configuration of the feature amount D calculation circuit 15040.
6 is shown. In FIG. 16, the perceptual weighting signal is input from the input terminal 16010 in frame units, the pitch calculation circuit 16020 calculates the pitch CP, and the output terminal 160
Output at 70. Further, the pitch ratio calculation circuit 160 is calculated by using the pitch CP calculated in 16020 and the pitch PP of the frame of the previous frame stored in the delay unit 26030.
The pitch ratio DR is calculated at 40, and this is output terminal 1606
Output by 0.

【0115】以上により、請求項7に関わる実施例の説
明を終える。
With the above, the description of the embodiment according to claim 7 is completed.

【0116】請求項6に関わる実施例を図17に示す。An embodiment relating to claim 6 is shown in FIG.

【0117】ここでの発明では、請求項7に関わる実施
例である図15の特徴量D計算回路15040が、本実
施例の提案型ピッチ抽出回路に対しその構成が異なるの
で、本実施例ではこれらの構成について図17を用いて
説明する。
In the present invention, the feature amount D calculating circuit 15040 of FIG. 15 which is an embodiment relating to claim 7 has a different structure from the proposed pitch extracting circuit of the present embodiment. Therefore, in the present embodiment, These configurations will be described with reference to FIG.

【0118】特徴量D抽出計算回路の構成を図17に示
す。図17において、入力端子17010からフレーム
単位に、聴感重み付け信号と入力端子17080からピ
ッチを入力し、ピッチ計算回路17020でピッチCP
を計算し、出力端子17070で出力する。また、17
020で計算されたピッチCPと遅延器17030に格
納された過去のフレームのピッチPPとを用いてピッチ
比計算回路17040でピッチ比DRを計算し、これを
出力端子17060により出力する。
FIG. 17 shows the configuration of the characteristic amount D extraction / calculation circuit. In FIG. 17, the perceptual weighting signal and the pitch are input from the input terminal 17080 from the input terminal 17010 in frame units, and the pitch calculation circuit 17020 inputs the pitch CP.
Is calculated and output at the output terminal 17070. Also, 17
The pitch ratio DR is calculated by the pitch ratio calculation circuit 17040 using the pitch CP calculated in 020 and the pitch PP of the past frame stored in the delay device 17030, and this is output from the output terminal 17060.

【0119】以上により、請求項6に関わる実施例の説
明を終える。
With the above, the description of the embodiment according to claim 6 is completed.

【0120】請求項5に関わる実施例を図18に示す。An embodiment relating to claim 5 is shown in FIG.

【0121】ここでの発明では、請求項8の“前記特徴
量として、ピッチ予測ゲイン、短期予測ゲイン、レベ
ル、ピッチの少なくとも一種以上を特徴量として含める
ことを特徴とする請求項6記載の音声符号化装置”に関
わる実施例である図6の提案型ピッチ抽出回路6000
と本実施例の提案型ピッチ抽出回路が異なるため、この
構成についてのみ図18を用いて説明する。
According to the present invention, at least one or more of a pitch prediction gain, a short-term prediction gain, a level, and a pitch are included as the feature amount in the claim 8 "feature amount. The proposed pitch extraction circuit 6000 of FIG. 6 which is an embodiment relating to the "encoding device".
Since the proposed pitch extraction circuit of this embodiment is different from that of this embodiment, only this configuration will be described with reference to FIG.

【0122】提案型ピッチ抽出回路は、聴感重み付け回
路230からフレーム単位で聴感重み付け信号とモード
判別回路4000よりモード判別情報と提案型ピッチ抽
出回路よりピッチを受け取り、適応コードブック回路6
000と提案型ピッチ抽出回路に抽出したピッチCPを
出力する。
The proposed pitch extraction circuit receives the perceptual weighting signal from the perceptual weighting circuit 230 on a frame-by-frame basis, the mode discrimination information from the mode discrimination circuit 4000 and the pitch from the proposed pitch extraction circuit, and the adaptive codebook circuit 6
000 and the pitch CP extracted to the proposed pitch extraction circuit.

【0123】提案型ピッチ抽出回路の構成を図18に示
す。
The structure of the proposed pitch extraction circuit is shown in FIG.

【0124】図18において、入力端子18010から
モード判別情報を入力し、入力端子18020から聴感
重み付け信号を入力し、入力端子18070よりピッチ
を入力する。
In FIG. 18, mode discrimination information is input from an input terminal 18010, a perceptual weighting signal is input from an input terminal 18020, and a pitch is input from an input terminal 18070.

【0125】特徴量D計算回路18040では特徴量と
して、例えば現フレームのピッチCP、過去のフレーム
のピッチPPを出力する。
The characteristic amount D calculating circuit 18040 outputs, for example, the pitch CP of the present frame and the pitch PP of the past frame as the characteristic amount.

【0126】特徴量D補正計算回路18050では、入
力端子18010からの現在のモード情報と、遅延器1
8030に格納された過去の一つ前のフレームのモード
情報に応じて、18040の出力値過去のフレームのピ
ッチPPをあらかじめ定められた閾値と比較して、現フ
レームのピッチCPを過去のフレームのピッチPPで補
正した値CPPを出力する。
In the characteristic amount D correction calculation circuit 18050, the current mode information from the input terminal 18010 and the delay unit 1
According to the mode information of the previous frame stored in 8030, the output value 18040 of the past frame is compared with a preset threshold value, and the pitch CP of the current frame is compared with that of the previous frame. The value CPP corrected with the pitch PP is output.

【0127】特徴量D計算回路18040の構成を図1
9に示す。図19において、入力端子19010からフ
レーム単位に、聴感重み付け信号を入力し、ピッチ計算
回路19020でピッチCPを計算し、出力端子190
70で出力する。また、19020で計算されたピッチ
CPと遅延器19030に格納された過去のフレームの
ピッチPPを出力端子19060により出力する。
The configuration of the feature amount D calculation circuit 18040 is shown in FIG.
9 shows. 19, a perceptual weighting signal is input from an input terminal 19010 in frame units, a pitch CP is calculated by a pitch calculation circuit 19020, and an output terminal 190 is output.
Output at 70. Further, the output terminal 19060 outputs the pitch CP calculated in 19020 and the pitch PP of the past frame stored in the delay device 19030.

【0128】請求項5に関わる実施例の説明を終える。The description of the embodiment relating to claim 5 is finished.

【0129】請求項9に関わる実施例を図20に示す。An embodiment relating to claim 9 is shown in FIG.

【0130】ここでの発明では、請求項4の“前記特徴
量として、ピッチ予測ゲイン、短期予測ゲイン、レベ
ル、ピッチの少なくとも一種以上を特徴量として含める
ことを特徴とする請求項1記載の音声符号化装置”に関
わる実施例である図1の提案型モード判別回路2000
が、本実施例の提案型モード判別回路20000に対し
その構成が異なるので、本実施例ではこれと提案型RM
S抽出回路30000の構成について図20を用いて説
明する。
According to the present invention, at least one or more of a pitch prediction gain, a short-term prediction gain, a level, and a pitch is included as the feature amount in the claim 4 "feature amount. 1 is an embodiment relating to the "encoding device", and the proposed mode discrimination circuit 2000 of FIG.
However, since the configuration is different from the proposed mode discrimination circuit 20000 of this embodiment, this and the proposed RM are used in this embodiment.
The configuration of the S extraction circuit 30000 will be described with reference to FIG.

【0131】モード判別回路20000は、聴感重み付
け回路230からフレーム単位で聴感重み付け信号を受
け取り、ピッチ予測ゲインPGを計算し、これを、あら
かじめ定められた複数のしきいと比較して、モード判別
を行ない、モード情報を出力する。モード判別回路20
000は、モード判別結果を適応コードブック回路50
0、提案型RMS抽出回路30000及び音源量子化回
路350へ出力する。
The mode discrimination circuit 20000 receives the perceptual weighting signal from the perceptual weighting circuit 230 on a frame-by-frame basis, calculates the pitch prediction gain PG, and compares it with a plurality of predetermined thresholds to discriminate the mode. Output the mode information. Mode discrimination circuit 20
000 indicates the mode discrimination result based on the adaptive codebook circuit 50.
0, and outputs to the proposed RMS extraction circuit 30000 and the excitation quantization circuit 350.

【0132】提案型RMS抽出回路30000は、フレ
ーム分割回路110からフレーム単位で音声信号とモー
ド判別回路20000よりモード判別情報とRMSコー
ドブック40000より、幾つかのRMSコードベクト
ルを受け取り、一つのRMSコードベクトルを出力す
る。
The proposed RMS extraction circuit 30000 receives a voice signal from the frame division circuit 110 on a frame-by-frame basis, the mode discrimination information from the mode discrimination circuit 20000, and several RMS code vectors from the RMS codebook 40000. Output a vector.

【0133】提案型RMS抽出回路30000の構成を
図21に示す。
The structure of the proposed RMS extraction circuit 30000 is shown in FIG.

【0134】図21において、入力端子31010から
モード判別情報を、入力端子31020からフレーム単
位での音声信号を、入力端子31080からRMSコー
ドベクトル信号入力する。
In FIG. 21, mode discrimination information is input from the input terminal 31010, an audio signal in frame units is input from the input terminal 31020, and an RMS code vector signal is input from the input terminal 31080.

【0135】RMS計算回路31040ではフレーム単
位でのRMS値Rを計算する。
The RMS calculation circuit 31040 calculates the RMS value R in frame units.

【0136】RMS補正計算回路31050では、入力
端子31010からの現在のモード情報と、遅延器31
030に格納された過去の一つ前のフレームのモード情
報に応じて、31040の出力値Rをあらかじめ定めら
れた閾値と比較して、現フレームのRMS値を補正した
値IRを出力する。
In the RMS correction calculation circuit 31050, the current mode information from the input terminal 31010 and the delay unit 31 are used.
According to the mode information of the previous frame stored in 030, the output value R of 31040 is compared with a predetermined threshold value, and the value IR obtained by correcting the RMS value of the current frame is output.

【0137】RMS量子化ベクトル選択回路31060
では、RMSコードブック40000の予め格納された
コードベクトルの中から、RMS補正計算回路3105
0の出力値IRに近いベクトルを選択し、これを出力す
る。
RMS quantization vector selection circuit 31060
Then, the RMS correction calculation circuit 3105 is selected from the code vectors stored in advance in the RMS codebook 40000.
A vector close to the output value IR of 0 is selected and output.

【0138】以上により、請求項9に関わる実施例の説
明を終える。
With the above, the description of the embodiment according to claim 9 is completed.

【0139】請求項12の“前記特徴量として、ピッチ
予測ゲイン、短期予測ゲイン、レベル、ピッチの少なく
とも一種以上を特徴量として含めることを特徴とする請
求項9記載の音声符号化装置”に関わる実施例を図22
に示す。
The speech encoding apparatus according to claim 9, wherein at least one of pitch prediction gain, short-term prediction gain, level, and pitch is included as a feature amount as the feature amount. FIG. 22 shows an example.
Shown in

【0140】ここでの発明では、請求項9に関わる実施
例である図20の提案型RMS抽出回路30000が、
本実施例の提案型RMS抽出回路に対しその構成が異な
るので、本実施例ではこの構成について図22を用いて
説明する。
In the present invention, the proposed RMS extraction circuit 30000 of FIG. 20, which is an embodiment relating to claim 9, is
Since the configuration is different from the proposed RMS extraction circuit of this embodiment, this configuration will be described in this embodiment with reference to FIG.

【0141】図22において、入力端子32010から
モード判別情報を、入力端子32020からフレーム単
位での音声信号を、入力端子32080からRMSコー
ドベクトル信号入力する。
In FIG. 22, mode discrimination information is input from the input terminal 32010, an audio signal in frame units is input from the input terminal 32020, and an RMS code vector signal is input from the input terminal 32080.

【0142】RMS計算回路32040ではフレーム単
位でのRMS値Rを計算する。
The RMS calculation circuit 32040 calculates the RMS value R in frame units.

【0143】RMS補正計算回路32050では、入力
端子32010からの現在のモード情報と、遅延器32
030に格納された過去の一つ前のフレームのモード情
報と、遅延器32090に格納された過去のフレームの
RMS値に応じて、32040の出力値Rをあらかじめ
定められた閾値と比較して、現フレームのRMS値を補
正した値IRを出力する。
In the RMS correction calculation circuit 32050, the current mode information from the input terminal 32010 and the delay unit 32
According to the mode information of the previous frame stored in 030 in the past and the RMS value of the past frame stored in the delay unit 32090, the output value R of 32040 is compared with a predetermined threshold value, A value IR obtained by correcting the RMS value of the current frame is output.

【0144】RMS量子化ベクトル選択回路32060
では、RMSコードブック40000の予め格納された
コードベクトルの中から、RMS補正計算回路3205
0の出力値IRに近いベクトルを選択し、これを出力す
る。
RMS quantization vector selection circuit 32060
Then, the RMS correction calculation circuit 3205 is selected from the code vectors stored in advance in the RMS codebook 40000.
A vector close to the output value IR of 0 is selected and output.

【0145】以上により、請求項12の“前記特徴量と
して、ピッチ予測ゲイン、短期予測ゲイン、レベル、ピ
ッチの少なくとも一種以上を特徴量として含めることを
特徴とする請求項9記載の音声符号化装置”に関わる実
施例の説明を終える。
According to the above, at least one or more of a pitch prediction gain, a short-term prediction gain, a level, and a pitch is included as the feature quantity in the speech coding apparatus according to claim 12. The description of the embodiment relating to "is completed.

【0146】請求項10に関わる実施例を図23に示
す。
An embodiment relating to claim 10 is shown in FIG.

【0147】ここでの発明では、請求項9に関わる実施
例である図20の提案型RMS抽出回路が、本実施例の
提案型RMS抽出回路に対しその構成が異なるので、本
実施例ではこれの構成について図23を用いて説明す
る。
In the present invention, the structure of the proposed RMS extraction circuit of FIG. 20, which is an embodiment relating to claim 9, is different from that of the proposed RMS extraction circuit of the present embodiment. The configuration will be described with reference to FIG.

【0148】図23において、入力端子33010から
モード判別情報を、入力端子33020からフレーム単
位での音声信号を、入力端子33080からRMSコー
ドベクトル信号入力する。
In FIG. 23, mode discrimination information is input from the input terminal 33010, an audio signal in frame units is input from the input terminal 33020, and an RMS code vector signal is input from the input terminal 33080.

【0149】RMS計算回路33040ではフレーム単
位でのRMS値Rを計算する。
The RMS calculation circuit 33040 calculates the RMS value R in frame units.

【0150】RMS補正計算回路33050では、入力
端子33010からの現在のモード情報と、遅延器33
030に格納された過去の一つ前のフレームのモード情
報と、RMS計算回路43090に格納されたRMS比
RRに応じて、33040の出力値Rをあらかじめ定め
られた閾値と比較して、現フレームのRMS値を補正し
た値IRを出力する。
In the RMS correction calculation circuit 33050, the current mode information from the input terminal 33010 and the delay unit 33 are used.
The output value R of 33040 is compared with a predetermined threshold value according to the mode information of the previous frame stored in 030 and the RMS ratio RR stored in the RMS calculation circuit 43090, and the current frame is compared. A value IR obtained by correcting the RMS value of is output.

【0151】RMS比計算回路43090では、RMS
計算回路33040の出力値Rと遅延器33090に格
納された過去のフレームのRMS値との比を計算し、こ
れを出力する。
In the RMS ratio calculation circuit 43090, the RMS
The ratio between the output value R of the calculation circuit 33040 and the RMS value of the past frame stored in the delay unit 33090 is calculated and output.

【0152】RMS量子化ベクトル選択回路33060
では、RMSコードブック40000の予め格納された
コードベクトルの中から、RMS補正計算回路3305
0の出力値IRに近いベクトルを選択し、これを出力す
る。
RMS quantization vector selection circuit 33060
Then, the RMS correction calculation circuit 3305 is selected from the code vectors stored in advance in the RMS codebook 40000.
A vector close to the output value IR of 0 is selected and output.

【0153】以上により、請求項10に関わる実施例の
説明を終える。
With the above, the description of the embodiment according to claim 10 is completed.

【0154】請求項12の“前記特徴量として、ピッチ
予測ゲイン、短期予測ゲイン、レベル、ピッチの少なく
とも一種以上を特徴量として含めることを特徴とする請
求項10記載の音声符号化装置”に関わる実施例を図2
4に示す。
According to a twelfth aspect of the present invention, the "speech coding apparatus according to the tenth aspect" is characterized in that at least one of pitch prediction gain, short-term prediction gain, level, and pitch is included as a feature amount as the feature amount. Example of FIG.
4 shows.

【0155】ここでの発明では、請求項10に関わる実
施例である図24の提案型RMS抽出回路が、本実施例
の提案型RMS抽出回路に対しその構成が異なるので、
本実施例ではこの構成について図24を用いて説明す
る。
In the present invention, the structure of the proposed RMS extraction circuit of FIG. 24, which is an embodiment relating to claim 10, is different from that of the proposed RMS extraction circuit of the present embodiment.
In this embodiment, this structure will be described with reference to FIG.

【0156】図24において、入力端子34010から
モード判別情報を、入力端子34020からフレーム単
位での音声信号を、入力端子34080からRMSコー
ドベクトル信号入力する。
In FIG. 24, mode discrimination information is input from the input terminal 34010, an audio signal in frame units is input from the input terminal 34020, and an RMS code vector signal is input from the input terminal 34080.

【0157】RMS計算回路34040ではフレーム単
位でのRMS値Rを計算する。
The RMS calculation circuit 34040 calculates the RMS value R in frame units.

【0158】RMS補正計算回路34050では、入力
端子34010からの現在のモード情報と、遅延器34
030に格納された過去の一つ前のフレームのモード情
報と、RMS比計算回路44090に格納されたRMS
比RRに応じて、34040の出力値Rをあらかじめ定
められた閾値と比較して、現フレームのRMS値を遅延
器34090に格納された過去のフレームのRMS値で
補正した値IRを出力する。
In the RMS correction calculation circuit 34050, the current mode information from the input terminal 34010 and the delay unit 34 are used.
Mode information of the previous frame stored in 030 and RMS stored in the RMS ratio calculation circuit 44090.
According to the ratio RR, the output value R of 34040 is compared with a predetermined threshold value, and the RMS value of the current frame is corrected with the RMS value of the past frame stored in the delay unit 34090 to output a value IR.

【0159】RMS比計算回路34090では、RMS
計算回路34040の出力値Rと遅延器34090に格
納された過去のフレームのRMS値との比を計算し、こ
れを出力する。
In the RMS ratio calculation circuit 34090, the RMS
The ratio of the output value R of the calculation circuit 34040 and the RMS value of the past frame stored in the delay unit 34090 is calculated and output.

【0160】RMS量子化ベクトル選択回路34060
では、RMSコードブック40000の予め格納された
コードベクトルの中から、RMS補正計算回路3405
0の出力値IRに近いベクトルを選択し、これを出力す
る。
RMS quantization vector selection circuit 34060
Then, the RMS correction calculation circuit 3405 is selected from the code vectors stored in advance in the RMS codebook 40000.
A vector close to the output value IR of 0 is selected and output.

【0161】以上により、請求項12の“前記特徴量と
して、ピッチ予測ゲイン、短期予測ゲイン、レベル、ピ
ッチの少なくとも一種以上を特徴量として含めることを
特徴とする請求項10記載の音声符号化装置”に関わる
実施例の説明を終える。
According to the above, at least one of pitch prediction gain, short-term prediction gain, level, and pitch is included as a feature quantity in the speech coding apparatus according to claim 12. The description of the embodiment relating to "is completed.

【0162】請求項11に関わる実施例を図25に示
す。
An embodiment relating to claim 11 is shown in FIG.

【0163】ここでの発明では、請求項11に関わる実
施例である図24の提案型RMS抽出回路が、本実施例
の提案型RMS抽出回路に対しその構成が異なるので、
本実施例ではこれの構成について図25を用いて説明す
る。
In the present invention, the structure of the proposed RMS extraction circuit of FIG. 24, which is an embodiment related to claim 11, is different from that of the proposed RMS extraction circuit of the present embodiment.
In the present embodiment, this structure will be described with reference to FIG.

【0164】図25において、入力端子35010から
モード判別情報を、入力端子35020からフレーム単
位での音声信号を、入力端子35080からRMSコー
ドベクトル信号入力する。
In FIG. 25, mode discrimination information is input from the input terminal 35010, an audio signal in frame units is input from the input terminal 35020, and an RMS code vector signal is input from the input terminal 35080.

【0165】RMS計算回路35040ではフレーム単
位でのRMS値Rを計算する。
The RMS calculation circuit 35040 calculates the RMS value R in frame units.

【0166】RMS補正計算回路35050では、入力
端子35010からの現在のモード情報と、遅延器35
030に格納された過去の一つ前のフレームのモード情
報と、RMS比計算回路45090に格納されたRMS
比RRに応じて、35040の出力値Rをあらかじめ定
められた閾値と比較して、現フレームのRMS値を補正
した値IRを出力する。
In the RMS correction calculation circuit 35050, the current mode information from the input terminal 35010 and the delay unit 35 are used.
Mode information of the previous frame stored in 030 and the RMS stored in the RMS ratio calculation circuit 45090.
The output value R of 35040 is compared with a predetermined threshold value according to the ratio RR, and a value IR obtained by correcting the RMS value of the current frame is output.

【0167】RMS比計算回路45090では、RMS
計算回路35040の出力値Rと遅延器55090に格
納された過去の2つ前のフレームのRMS値との比を計
算し、これを出力する。
In the RMS ratio calculation circuit 45090, the RMS
The ratio between the output value R of the calculation circuit 35040 and the RMS value of the frame two frames before in the past stored in the delay unit 55090 is calculated and output.

【0168】RMS量子化ベクトル選択回路35060
では、RMSコードブック40000の予め格納された
コードベクトルの中から、RMS補正計算回路3505
0の出力値IRに近いベクトルを選択し、これを出力す
る。
RMS quantization vector selection circuit 35060
Then, the RMS correction calculation circuit 3505 is selected from the code vectors stored in advance in the RMS codebook 40000.
A vector close to the output value IR of 0 is selected and output.

【0169】以上により、請求項11に関わる実施例の
説明を終える。
With the above, the description of the embodiment according to claim 11 is completed.

【0170】請求項12の“前記特徴量として、ピッチ
予測ゲイン、短期予測ゲイン、レベル、ピッチの少なく
とも一種以上を特徴量として含めることを特徴とする請
求項11記載の音声符号化装置”に関わる実施例を図2
6に示す。
According to a twelfth aspect of the present invention, there is provided the "speech coding apparatus according to the eleventh aspect", wherein at least one of a pitch prediction gain, a short-term prediction gain, a level, and a pitch is included as the feature quantity as the feature quantity. Example of FIG.
6 is shown.

【0171】ここでの発明では、請求項11に関わる実
施例である図25の提案型RMS抽出回路が、本実施例
の提案型RMS抽出回路に対しその構成が異なるので、
本実施例ではこの構成について図26を用いて説明す
る。
In the present invention, the structure of the proposed RMS extraction circuit of FIG. 25, which is an embodiment relating to claim 11, is different from that of the proposed RMS extraction circuit of the present embodiment.
In this embodiment, this structure will be described with reference to FIG.

【0172】図26において、入力端子36010から
モード判別情報を、入力端子36020からフレーム単
位での音声信号を、入力端子36080からRMSコー
ドベクトル信号入力する。
In FIG. 26, mode discrimination information is input from the input terminal 36010, an audio signal in frame units is input from the input terminal 36020, and an RMS code vector signal is input from the input terminal 36080.

【0173】RMS計算回路36040ではフレーム単
位でのRMS値Rを計算する。
The RMS calculation circuit 36040 calculates the RMS value R in frame units.

【0174】RMS補正計算回路36050では、入力
端子36010からの現在のモード情報と、遅延器36
030に格納された過去の一つ前のフレームのモード情
報と、RMS比計算回路46090に格納されたRMS
比RRに応じて、36040の出力値Rをあらかじめ定
められた閾値と比較して、現フレームのRMS値を遅延
器36090に格納された過去の1つ前のフレームのR
MS値で補正した値IRを出力する。
In the RMS correction calculation circuit 36050, the current mode information from the input terminal 36010 and the delay unit 36 are used.
The mode information of the previous frame stored in 030 and the RMS stored in the RMS ratio calculation circuit 46090.
According to the ratio RR, the output value R of 36040 is compared with a predetermined threshold value, and the RMS value of the current frame is stored in the delay unit 36090, and the RMS value of the previous frame of the past is stored.
The value IR corrected with the MS value is output.

【0175】RMS比較計算回路46090では、RM
S計算回路36040の出力値Rと遅延器56090に
格納された過去の2つ前のフレームのRMS値との比を
計算し、これを出力する。
In the RMS comparison calculation circuit 46090, the RM
The ratio between the output value R of the S calculation circuit 36040 and the RMS value of the frame two frames before in the past stored in the delay device 56090 is calculated and output.

【0176】RMS量子化ベクトル選択回路36060
では、RMSコードブック40000の予め格納された
コードベクトルの中から、RMS補正計算回路3605
0の出力値IRに近いベクトルを選択し、これを出力す
る。
RMS quantization vector selection circuit 36060
Then, the RMS correction calculation circuit 3605 is selected from the code vectors stored in advance in the RMS codebook 40000.
A vector close to the output value IR of 0 is selected and output.

【0177】以上により、請求項12の“前記特徴量と
して、ピッチ予測ゲイン、短期予測ゲイン、レベル、ピ
ッチの少なくとも一種以上を特徴量として含めることを
特徴とする請求項11記載の音声符号化装置”に関わる
実施例の説明を終える。
According to the above, at least one or more of the pitch prediction gain, the short-term prediction gain, the level, and the pitch are included as the feature quantity in the speech coding apparatus according to claim 12. The description of the embodiment relating to "is completed.

【0178】[0178]

【発明の効果】以上説明したように、本発明によれば、
音声符号化装置において、低遅延とするために、フレー
ム長を5ms−10ms以下と短くしても、モード判別
あるいはピッチ抽出、レベル抽出の時間的変動による音
質劣化を起こすことなく、良好な音質を得ることが可能
となりこの利点は極めて大きなものである。
As described above, according to the present invention,
In the speech coding apparatus, even if the frame length is shortened to 5 ms-10 ms or less in order to achieve low delay, good sound quality is obtained without causing sound quality deterioration due to time variation of mode discrimination, pitch extraction, or level extraction. This is possible and this advantage is extremely large.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例の構成図。FIG. 1 is a configuration diagram of an embodiment of the present invention.

【図2】提案型モード判別回路の構成図。FIG. 2 is a block diagram of a proposed mode discrimination circuit.

【図3】提案型モード判別回路の構成図。FIG. 3 is a block diagram of a proposed mode discrimination circuit.

【図4】特徴量計算回路Bの構成図。FIG. 4 is a configuration diagram of a feature amount calculation circuit B.

【図5】特徴量計算回路Cの構成図。FIG. 5 is a configuration diagram of a feature amount calculation circuit C.

【図6】本発明の一実施例の構成図。FIG. 6 is a configuration diagram of an embodiment of the present invention.

【図7】提案型ピッチ抽出回路の構成図。FIG. 7 is a block diagram of a proposed pitch extraction circuit.

【図8】特徴量D抽出計算回路の構成図。FIG. 8 is a configuration diagram of a feature amount D extraction calculation circuit.

【図9】特徴量計算回路Cの構成図。FIG. 9 is a configuration diagram of a feature amount calculation circuit C.

【図10】提案型モード判別回路の構成図。FIG. 10 is a block diagram of a proposed mode discrimination circuit.

【図11】特徴量計算回路Bの構成図。FIG. 11 is a configuration diagram of a feature quantity calculation circuit B.

【図12】提案型モード判別回路の構成図。FIG. 12 is a block diagram of a proposed mode discrimination circuit.

【図13】ピッチ抽出回路の構成図。FIG. 13 is a configuration diagram of a pitch extraction circuit.

【図14】特徴量D計算回路の構成図。FIG. 14 is a configuration diagram of a feature amount D calculation circuit.

【図15】ピッチ抽出回路の構成図。FIG. 15 is a configuration diagram of a pitch extraction circuit.

【図16】特徴量D抽出計算回路の構成図。FIG. 16 is a configuration diagram of a feature amount D extraction calculation circuit.

【図17】提案型ピッチ抽出回路の構成図。FIG. 17 is a block diagram of a proposed pitch extraction circuit.

【図18】提案型ピッチ抽出回路の構成図。FIG. 18 is a configuration diagram of a proposed pitch extraction circuit.

【図19】特徴量D抽出計算回路の構成図。FIG. 19 is a configuration diagram of a feature amount D extraction calculation circuit.

【図20】本発明の一実施例の構成図。FIG. 20 is a configuration diagram of an embodiment of the present invention.

【図21】提案型RMS抽出回路の構成図。FIG. 21 is a block diagram of a proposed RMS extraction circuit.

【図22】提案型RMS抽出回路の構成図。FIG. 22 is a configuration diagram of a proposed RMS extraction circuit.

【図23】提案型RMS抽出回路の構成図。FIG. 23 is a block diagram of a proposed RMS extraction circuit.

【図24】提案型RMS抽出回路の構成図。FIG. 24 is a block diagram of a proposed RMS extraction circuit.

【図25】提案型RMS抽出回路の構成図。FIG. 25 is a block diagram of a proposed RMS extraction circuit.

【図26】提案型RMS抽出回路の構成図。FIG. 26 is a block diagram of a proposed RMS extraction circuit.

【図27】特徴量計算回路Bの構成図。FIG. 27 is a configuration diagram of a feature quantity calculation circuit B.

【符号の説明】[Explanation of symbols]

110 フレーム分割回路 120 サブフレーム分割回路 200 スペクトルパラメータ計算回路 210 スペクトルパラメータ量子化回路 211 LSPコードブック 230 重み付け回路 235 減算回路 240 応答信号計算回路 310 インパルス応答計算回路 350 音源量子化回路 351 不均一パルス数型スパース音源コードブック 355 ゲインコードブック 360 重み付け信号計算回路 365 ゲイン量子化回路 400 マルチプレクサ 500、550 適応コードブック回路 2000 提案型モード判別回路 2010 フレーム単位の入力端子 2020 スペクトルパラメータの入力端子 2030 フレーム単位の特徴量計算回路 2040 特徴量計算回路B 2050 モード判別回路 2060 モード情報格納遅延器 2070 モード情報出力端子 3030 特徴量計算回路A 3040 特徴量計算回路B 3050 特徴量計算回路C 3060 モード判別回路 3070 遅延器 4000 モード判別回路 4020 RMS計算回路 4030 遅延器 4040 RMS比計算回路 5000 適応コードブック回路 5030 短期予測ゲイン計算回路 5040 遅延器 5050 短期予測ゲイン比計算回路 6000 提案型ピッチ抽出回路 6030 遅延器 6040 特徴量D計算回路 6050 特徴量D補正計算回路 7020 ピッチ計算回路 7030 遅延器 7040 ピッチ比計算回路 8030 短期予測ゲイン計算回路 8040 遅延器 8050 遅延器 8080 短期予測ゲイン比計算回路 9030 特徴量計算回路A 9040 特徴量計算回路B 9050 特徴量計算回路C 9060 モード判別回路 9070 遅延器 10020 RMS計算回路 10030 遅延器 10040 RMS比計算回路 11020 RMS計算回路 11030 遅延器 11040 RMS比計算回路 12030 特徴量計算回路A 12040 特徴量計算回路B 12050 特徴量計算回路C 12060 モード判別回路 12070 遅延器 13030 遅延器 13040 特徴量D計算回路 13050 特徴量D補正計算回路 14020 ピッチ計算回路 14030 遅延器 14040 ピッチ比計算回路 15030 遅延器 15040 特徴量D計算回路 15050 特徴量D抽出計算回路 16020 ピッチ計算回路 16030 遅延器 16040 ピッチ計算回路 17020 ピッチ計算回路 17030 遅延器 17040 ピッチ比計算回路 18030 遅延器 18040 特徴量D計算回路 18050 特徴量D抽出計算回路 19020 ピッチ計算回路 19030 遅延器 20000 提案型モード判別回路 21030 遅延器 24030 遅延器 26030 遅延器 30000 提案型RMS抽出回路 31030 遅延器 31040 RMS計算回路 31050 RMS補正計算回路 31060 RMS量子化ベクトル選択回路 32030 遅延器 32040 RMS計算回路 32050 RMS補正計算回路 32060 RMS量子化ベクトル選択回路 32090 遅延器 33030 遅延器 33040 RMS計算回路 33050 RMS補正計算回路 33060 RMS量子化ベクトル選択回路 33090 遅延器 34030 遅延器 34040 RMS計算回路 34050 RMS補正計算回路 34060 RMS量子化ベクトル選択回路 34090 遅延器 35030 遅延器 35040 RMS計算回路 35050 RMS補正計算回路 35060 RMS量子化ベクトル選択回路 35090 遅延器 36030 遅延器 36040 RMS計算回路 36050 RMS補正計算回路 36060 RMS量子化ベクトル選択回路 36090 遅延器 40000 RMSコードブック 43090 RMS比計算回路 44090 RMS比計算回路 45090 RMS比計算回路 46090 RMS比計算回路 55090 遅延器 56090 遅延器 110 frame division circuit 120 sub-frame division circuit 200 spectrum parameter calculation circuit 210 spectrum parameter quantization circuit 211 LSP codebook 230 weighting circuit 235 subtraction circuit 240 response signal calculation circuit 310 impulse response calculation circuit 350 excitation quantization circuit 351 non-uniform pulse number Type sparse source codebook 355 gain codebook 360 weighting signal calculation circuit 365 gain quantization circuit 400 multiplexer 500, 550 adaptive codebook circuit 2000 proposed mode discrimination circuit 2010 frame-unit input terminal 2020 spectrum parameter input terminal 2030 frame-unit input Feature amount calculation circuit 2040 Feature amount calculation circuit B 2050 Mode discrimination circuit 2060 Mode information storage delay device 2070 mode Information output terminal 3030 Feature amount calculation circuit A 3040 Feature amount calculation circuit B 3050 Feature amount calculation circuit C 3060 Mode determination circuit 3070 Delay device 4000 Mode determination circuit 4020 RMS calculation circuit 4030 Delay device 4040 RMS ratio calculation circuit 5000 Adaptive codebook circuit 5030 Short-term prediction gain calculation circuit 5040 Delay device 5050 Short-term prediction gain ratio calculation circuit 6000 Proposed pitch extraction circuit 6030 Delay device 6040 Feature amount D calculation circuit 6050 Feature amount D correction calculation circuit 7020 Pitch calculation circuit 7030 Delay device 7040 Pitch ratio calculation circuit 8030 Short-term prediction gain calculation circuit 8040 Delay device 8050 Delay device 8080 Short-term prediction gain ratio calculation circuit 9030 Feature amount calculation circuit A 9040 Feature amount calculation circuit B 9050 Feature amount calculation circuit C 906 Mode discriminating circuit 9070 Delay device 10020 RMS calculating circuit 10030 Delay device 10040 RMS ratio calculating circuit 11020 RMS calculating circuit 11030 Delay device 11040 RMS ratio calculating circuit 12030 Feature amount calculating circuit A 12040 Feature amount calculating circuit B 12050 Feature amount calculating circuit C 12060 Mode Discrimination circuit 12070 Delay device 13030 Delay device 13040 Feature amount D calculation circuit 13050 Feature amount D correction calculation circuit 14020 Pitch calculation circuit 14030 Delay device 14040 Pitch ratio calculation circuit 15030 Delay device 15040 Feature amount D calculation circuit 15050 Feature amount D extraction calculation circuit 16020 Pitch calculation circuit 16030 Delay device 16040 Pitch calculation circuit 17020 Pitch calculation circuit 17030 Delay device 17040 Pitch ratio calculation circuit 18030 Delay device 18040 Feature amount D calculation circuit 18050 Feature amount D extraction calculation circuit 19020 Pitch calculation circuit 19030 Delay device 20000 Proposed type mode determination circuit 21030 Delay device 24030 Delay device 26030 Delay device 30000 Proposed RMS extraction circuit 31030 Delay device 31040 RMS calculation circuit 31050 RMS correction calculation circuit 31060 RMS quantization vector selection circuit 32030 delay device 3240 RMS calculation circuit 32050 RMS correction calculation circuit 32060 RMS quantization vector selection circuit 32090 delay device 33030 delay device 33040 RMS calculation circuit 33050 RMS correction calculation circuit 33060 RMS quantization Vector selection circuit 33090 Delay device 34030 Delay device 34040 RMS calculation circuit 34050 RMS correction calculation circuit 3 060 RMS quantization vector selection circuit 34090 delay device 35030 delay device 35040 RMS calculation circuit 35050 RMS correction calculation circuit 35060 RMS quantization vector selection circuit 35090 delay device 36030 delay device 36040 RMS calculation circuit 36050 RMS correction calculation circuit 36060 RMS quantization vector selection Circuit 36090 Delay device 40000 RMS codebook 43090 RMS ratio calculation circuit 44090 RMS ratio calculation circuit 45090 RMS ratio calculation circuit 46090 RMS ratio calculation circuit 55090 Delay device 56090 Delay device

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】音声信号を予め定めたフレーム単位に区切
るフレーム分割部と、前記音声信号から特徴量を計算し
モード判別を行なうモード判別部と、前記判別結果にお
うじて前記音声信号を符号化する音声符号化装置におい
て、現フレーム及び過去の少なくとも一つのフレームか
らそれぞれ求めた少なくとも1種類以上の特徴量と過去
の少なくとも一つのフレームから求めたモード判別情報
を用いて、現フレームのモード判別をする機能を有する
ことを特徴とする音声符号化装置。
1. A frame division unit that divides an audio signal into predetermined frame units, a mode determination unit that calculates a feature amount from the audio signal and performs mode determination, and the audio signal is encoded based on the determination result. In the speech coding apparatus, the mode discrimination of the current frame is performed by using at least one kind of feature amount obtained from the present frame and at least one past frame, and the mode discrimination information obtained from at least one past frame. A speech coding apparatus having a function of:
【請求項2】前記特徴量として、少なくとも1種類以上
の特徴量の時間変化比を特徴量として含めた請求項1記
載の音声符号化装置。
2. The speech encoding apparatus according to claim 1, wherein a temporal change ratio of at least one type of feature quantity is included as the feature quantity as the feature quantity.
【請求項3】前記特徴量として、現フレーム又は過去の
少なくとも一つ以上のフレームのいずれかの2フレーム
分のそれぞれの特徴量に対し、前記二つの特徴量の比を
特徴量として含めた請求項1記載の音声符号化装置。
3. The feature amount includes a ratio of the two feature amounts as a feature amount with respect to each feature amount of two frames of either the present frame or at least one past frame. The speech coding apparatus according to Item 1.
【請求項4】前記特徴量として、ピッチ予測ゲイン、短
期予測ゲイン、レベル、ピッチの少なくとも一種以上を
特徴量として含めることを特徴とする請求項1、2、ま
たは3記載の音声符号化装置。
4. The speech coding apparatus according to claim 1, wherein at least one of pitch prediction gain, short-term prediction gain, level, and pitch is included as the feature amount as the feature amount.
【請求項5】音声信号を予め定めたフレーム単位に区切
るフレーム分割部と、前記音声信号から特徴量を計算し
モード判別を行なうモード判別部と、前記音声信号から
ピッチを抽出するピッチ抽出部と、前記判別結果におう
じて前記音声信号を符号化する音声符号化装置におい
て、現フレーム及び過去の少なくとも一つのフレームか
らそれぞれ求めた少なくとも1種類以上の特徴量と過去
の少なくとも一つのフレームから求めたモード判別情報
を用いて、現フレームのピッチを補正するピッチ抽出部
を有することを特徴とする音声符号化装置。
5. A frame division unit that divides an audio signal into predetermined frame units, a mode determination unit that calculates a feature amount from the audio signal and determines a mode, and a pitch extraction unit that extracts a pitch from the audio signal. In a voice encoding device that encodes the voice signal based on the determination result, it is obtained from at least one type of feature amount obtained from the current frame and at least one past frame and at least one past frame. A speech coding apparatus comprising a pitch extraction unit that corrects a pitch of a current frame using mode discrimination information.
【請求項6】前記特徴量として、少なくとも1種類以上
の特徴量の時間変化比を特徴量として含めた請求項5記
載の音声符号化装置。
6. The speech coding apparatus according to claim 5, wherein as the feature quantity, a temporal change ratio of at least one kind of feature quantity is included as the feature quantity.
【請求項7】前記特徴量として、現フレーム又は過去の
少なくとも一つ以上のフレームのいずれかの2フレーム
分のそれぞれの特徴量に対し、前記二つの特徴量の比を
特徴量として含めた請求項5記載の音声符号化装置。
7. The feature amount includes a ratio of the two feature amounts as a feature amount with respect to each feature amount of two frames of at least one of a current frame and at least one past frame. Item 5. The speech encoding device according to item 5.
【請求項8】前記特徴量として、ピッチ予測ゲイン、短
期予測ゲイン、レベル、ピッチの少なくとも一種以上を
特徴量として含めることを特徴とする請求項5、6、ま
たは7記載の音声符号化装置。
8. The speech coding apparatus according to claim 5, wherein at least one of pitch prediction gain, short-term prediction gain, level, and pitch is included as the feature amount as the feature amount.
【請求項9】音声信号を予め定めたフレーム単位に区切
るフレーム分割部と、前記音声信号から特徴量を計算し
モード判別を行なうモード判別部と、前記音声信号から
レベルを抽出するレベル抽出部と、前記判別結果におう
じて前記音声信号を符号化する音声符号化装置におい
て、現フレーム及び過去の少なくとも一つのフレームか
らそれぞれ求めた少なくとも1種類以上の特徴量と過去
の少なくとも一つのフレームから求めたモード判別情報
を用いて、現フレームのレベルを補正するレベル抽出部
を有することを特徴とする音声符号化装置。
9. A frame division unit that divides an audio signal into predetermined frame units, a mode determination unit that calculates a feature amount from the audio signal and determines a mode, and a level extraction unit that extracts a level from the audio signal. In a voice encoding device that encodes the voice signal based on the determination result, it is obtained from at least one type of feature amount obtained from the current frame and at least one past frame and at least one past frame. A speech coding apparatus comprising a level extraction unit that corrects a level of a current frame using mode discrimination information.
【請求項10】前記特徴量として、少なくとも1種類以
上の特徴量の時間変化比を特徴量として含めた請求項9
記載の音声符号化装置。
10. The feature amount includes a time change ratio of at least one type of feature amount as the feature amount.
The speech encoding device described.
【請求項11】前記特徴量として、現フレーム又は過去
の少なくとも一つ以上のフレームのいずれかの2フレー
ム分のそれぞれの特徴量に対し、前記二つの特徴量の比
を特徴量として含めた請求項9記載の音声符号化装置。
11. The feature amount includes a ratio of the two feature amounts as a feature amount with respect to each feature amount of two frames of either a current frame or at least one past frame. Item 9. The speech encoding device according to item 9.
【請求項12】前記特徴量として、ピッチ予測ゲイン、
短期予測ゲイン、レベル、ピッチの少なくとも一種以上
を特徴量として含めることを特徴とする請求項9、1
0、または11記載の音声符号化装置。
12. A pitch prediction gain as the feature quantity,
10. At least one or more of a short-term prediction gain, a level, and a pitch are included as a feature amount, 9.
The audio encoding device according to 0 or 11.
JP7013072A 1995-01-17 1995-01-30 Audio coding device Expired - Fee Related JP3047761B2 (en)

Priority Applications (9)

Application Number Priority Date Filing Date Title
JP7013072A JP3047761B2 (en) 1995-01-30 1995-01-30 Audio coding device
EP99111363A EP0944038B1 (en) 1995-01-17 1996-01-16 Speech encoder with features extracted from current and previous frames
DE69615227T DE69615227T2 (en) 1995-01-17 1996-01-16 Speech encoder with features extracted from current and previous frames
DE69615870T DE69615870T2 (en) 1995-01-17 1996-01-16 Speech encoder with features extracted from current and previous frames
DE69609089T DE69609089T2 (en) 1995-01-17 1996-01-16 Speech encoder with features extracted from current and previous frames
EP96100544A EP0723258B1 (en) 1995-01-17 1996-01-16 Speech encoder with features extracted from current and previous frames
EP99109387A EP0944037B1 (en) 1995-01-17 1996-01-16 Speech encoder with features extracted from current and previous frames
US08/588,005 US5787389A (en) 1995-01-17 1996-01-17 Speech encoder with features extracted from current and previous frames
CA002167552A CA2167552C (en) 1995-01-30 1996-01-18 Speech encoder with features extracted from current and previous frames

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7013072A JP3047761B2 (en) 1995-01-30 1995-01-30 Audio coding device

Publications (2)

Publication Number Publication Date
JPH08202398A true JPH08202398A (en) 1996-08-09
JP3047761B2 JP3047761B2 (en) 2000-06-05

Family

ID=11822957

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7013072A Expired - Fee Related JP3047761B2 (en) 1995-01-17 1995-01-30 Audio coding device

Country Status (2)

Country Link
JP (1) JP3047761B2 (en)
CA (1) CA2167552C (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002045078A1 (en) * 2000-11-30 2002-06-06 Matsushita Electric Industrial Co., Ltd. Audio decoder and audio decoding method
US6704702B2 (en) 1997-01-23 2004-03-09 Kabushiki Kaisha Toshiba Speech encoding method, apparatus and program
US7289953B2 (en) 1999-08-23 2007-10-30 Matsushita Electric Industrial Co., Ltd. Apparatus and method for speech coding

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07225599A (en) * 1994-02-15 1995-08-22 Nippon Telegr & Teleph Corp <Ntt> Method of encoding sound

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07225599A (en) * 1994-02-15 1995-08-22 Nippon Telegr & Teleph Corp <Ntt> Method of encoding sound

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6704702B2 (en) 1997-01-23 2004-03-09 Kabushiki Kaisha Toshiba Speech encoding method, apparatus and program
US7191120B2 (en) 1997-01-23 2007-03-13 Kabushiki Kaisha Toshiba Speech encoding method, apparatus and program
US7289953B2 (en) 1999-08-23 2007-10-30 Matsushita Electric Industrial Co., Ltd. Apparatus and method for speech coding
US7383176B2 (en) 1999-08-23 2008-06-03 Matsushita Electric Industrial Co., Ltd. Apparatus and method for speech coding
WO2002045078A1 (en) * 2000-11-30 2002-06-06 Matsushita Electric Industrial Co., Ltd. Audio decoder and audio decoding method
US7478042B2 (en) 2000-11-30 2009-01-13 Panasonic Corporation Speech decoder that detects stationary noise signal regions

Also Published As

Publication number Publication date
JP3047761B2 (en) 2000-06-05
CA2167552C (en) 2001-01-02
CA2167552A1 (en) 1996-07-31

Similar Documents

Publication Publication Date Title
EP0409239B1 (en) Speech coding/decoding method
JP2746039B2 (en) Audio coding method
US6470313B1 (en) Speech coding
JP3094908B2 (en) Audio coding device
JP3196595B2 (en) Audio coding device
EP1096476B1 (en) Speech signal decoding
JP3180786B2 (en) Audio encoding method and audio encoding device
JP3616432B2 (en) Speech encoding device
JP2624130B2 (en) Audio coding method
JP2002268686A (en) Voice coder and voice decoder
JP3531780B2 (en) Voice encoding method and decoding method
JP3179291B2 (en) Audio coding device
JP3047761B2 (en) Audio coding device
JP3303580B2 (en) Audio coding device
JP3089967B2 (en) Audio coding device
JP3153075B2 (en) Audio coding device
JP3299099B2 (en) Audio coding device
JP3192051B2 (en) Audio coding device
JP2001142499A (en) Speech encoding device and speech decoding device
JP3296411B2 (en) Voice encoding method and decoding method
JPH08185199A (en) Voice coding device
JPH08320700A (en) Sound coding device
JP3144244B2 (en) Audio coding device
JP2907019B2 (en) Audio coding device
JPH0473700A (en) Sound encoding system

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080324

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090324

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090324

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100324

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees