JP2004046232A - Voice decoding device and its method - Google Patents

Voice decoding device and its method Download PDF

Info

Publication number
JP2004046232A
JP2004046232A JP2003312063A JP2003312063A JP2004046232A JP 2004046232 A JP2004046232 A JP 2004046232A JP 2003312063 A JP2003312063 A JP 2003312063A JP 2003312063 A JP2003312063 A JP 2003312063A JP 2004046232 A JP2004046232 A JP 2004046232A
Authority
JP
Japan
Prior art keywords
code
gain
speech
codebook
noise
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003312063A
Other languages
Japanese (ja)
Other versions
JP3563400B2 (en
Inventor
Tadashi Yamaura
山浦 正
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2003312063A priority Critical patent/JP3563400B2/en
Publication of JP2004046232A publication Critical patent/JP2004046232A/en
Application granted granted Critical
Publication of JP3563400B2 publication Critical patent/JP3563400B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To reproduce voice of high quality by small information quantity in voice encoding/decoding for compressing and encoding a voice signal into a digital signal. <P>SOLUTION: In code excited linear predictor (CELP) voice encoding, the degree of voice noisiness in an encoding section is evaluated by using at least one code or encoded result out of spectral information, power information and pitch information and different excited code books 19, 20 are used in accordance with evaluation results. <P>COPYRIGHT: (C)2004,JPO

Description

 この発明は音声信号をディジタル信号に圧縮符号化復号化する際に使用する音声符号化・復号化方法及び音声符号化・復号化装置に関し、特に低ビットレートで品質の高い音声を再生するための音声符号化方法及び音声復号化方法並びに音声符号化装置及び音声復号化装置に関する。 The present invention relates to a voice coding / decoding method and a voice coding / decoding apparatus used when a voice signal is compression-coded / decoded into a digital signal, and particularly to a high-quality voice at a low bit rate. The present invention relates to an audio encoding method and an audio decoding method, and an audio encoding device and an audio decoding device.

 従来、高能率音声符号化方法としては、符号駆動線形予測(Code-Excited Linear Prediction:CELP)符号化が代表的であり、その技術については、「Code-excited linear prediction(CELP):High-quality speech at very low bit rates」(M.R.Shroeder and B.S.Atal著、ICASSP '85, pp.937-940, 1985)に述べられている。 Conventionally, as a high-efficiency speech coding method, Code-Excited Linear Prediction (CELP) coding is typical, and the technique is described in "Code-excited Linear Prediction (CELP): High-quality". speech at very low bit rates "(MR Shroeder and BSAtal, ICASSP '85, pp.937-940, 1985).

 図6は、CELP音声符号化復号化方法の全体構成の一例を示すもので、図中101は符号化部、102は復号化部、103は多重化手段、104は分離手段である。符号化部101は線形予測パラメータ分析手段105、線形予測パラメータ符号化手段106、合成フィルタ107、適応符号帳108、駆動符号帳109、ゲイン符号化手段110、距離計算手段111、重み付け加算手段138より構成されている。また、復号化部102は線形予測パラメータ復号化手段112、合成フィルタ113、適応符号帳114、駆動符号帳115、ゲイン復号化手段116、重み付け加算手段139より構成されている。 FIG. 6 shows an example of the overall configuration of the CELP speech coding / decoding method. In the drawing, reference numeral 101 denotes a coding unit, 102 denotes a decoding unit, 103 denotes a multiplexing unit, and 104 denotes a separating unit. The encoding unit 101 includes a linear prediction parameter analysis unit 105, a linear prediction parameter encoding unit 106, a synthesis filter 107, an adaptive codebook 108, a driving codebook 109, a gain encoding unit 110, a distance calculation unit 111, and a weighting addition unit 138. It is configured. The decoding unit 102 includes a linear prediction parameter decoding unit 112, a synthesis filter 113, an adaptive codebook 114, a driving codebook 115, a gain decoding unit 116, and a weighting addition unit 139.

 CELP音声符号化では、5〜50ms程度を1フレームとして、そのフレームの音声をスペクトル情報と音源情報に分けて符号化する。まず、CELP音声符号化方法の動作について説明する。符号化部101において、線形予測パラメータ分析手段105は入力音声S101を分析し、音声のスペクトル情報である線形予測パラメータを抽出する。線形予測パラメータ符号化手段106はその線形予測パラメータを符号化し、符号化した線形予測パラメータを合成フィルタ107の係数として設定する。 In CELP speech coding, about 5 to 50 ms is defined as one frame, and the speech of the frame is divided into spectrum information and sound source information and encoded. First, the operation of the CELP speech coding method will be described. In the encoding unit 101, the linear prediction parameter analysis unit 105 analyzes the input speech S101 and extracts a linear prediction parameter that is speech spectrum information. The linear prediction parameter coding unit 106 codes the linear prediction parameter, and sets the coded linear prediction parameter as a coefficient of the synthesis filter 107.

 次に音源情報の符号化について説明する。適応符号帳108には、過去の駆動音源信号が記憶されており、距離計算手段111から入力される適応符号に対応して過去の駆動音源信号を周期的に繰り返した時系列ベクトルを出力する。駆動符号帳109には、例えば学習用音声とその符号化音声との歪みが小さくなるように学習して構成された複数の時系列ベクトルが記憶されており、距離計算手段111から入力される駆動符号に対応した時系列ベクトルを出力する。 Next, encoding of sound source information will be described. The adaptive codebook 108 stores past driving excitation signals, and outputs a time-series vector obtained by periodically repeating the past driving excitation signals corresponding to the adaptive code input from the distance calculation unit 111. The drive codebook 109 stores, for example, a plurality of time-series vectors configured by learning so that distortion between the learning speech and the encoded speech is reduced. Output a time-series vector corresponding to the code.

 適応符号帳108、駆動符号帳109からの各時系列ベクトルはゲイン符号化手段110から与えられるそれぞれのゲインに応じて重み付け加算手段138で重み付けして加算され、その加算結果を駆動音源信号として合成フィルタ107へ供給し符号化音声を得る。距離計算手段111は符号化音声と入力音声S101との距離を求め、距離が最小となる適応符号、駆動符号、ゲインを探索する。上記符号化が終了した後、線形予測パラメータの符号、入力音声と符号化音声との歪みを最小にする適応符号、駆動符号、ゲインの符号を符号化結果として出力する。 The time series vectors from the adaptive codebook 108 and the driving codebook 109 are weighted and added by the weighting and adding means 138 according to the respective gains provided from the gain coding means 110, and the added result is combined as a driving excitation signal. The coded voice is supplied to the filter 107 to obtain the coded voice. The distance calculation unit 111 obtains the distance between the coded speech and the input speech S101, and searches for an adaptive code, a drive code, and a gain that minimize the distance. After the above-mentioned encoding is completed, the code of the linear prediction parameter, the adaptive code for minimizing the distortion between the input speech and the encoded speech, the drive code, and the gain code are output as the encoding result.

 次にCPEL音声復号化方法の動作について説明する。 Next, the operation of the CPEL audio decoding method will be described.

 一方復号化部102において、線形予測パラメータ復号化手段112は線形予測パラメータの符号から線形予測パラメータを復号化し、合成フィルタ113の係数として設定する。次に、適応符号帳114は、適応符号に対応して、過去の駆動音源信号を周期的に繰り返した時系列ベクトルを出力し、また駆動符号帳115は駆動符号に対応した時系列ベクトルを出力する。これらの時系列ベクトルは、ゲイン復号化手段116でゲインの符号から復号化したそれぞれのゲインに応じて重み付け加算手段139で重み付けして加算され、その加算結果が駆動音源信号として合成フィルタ113へ供給され出力音声S103が得られる。 In the one-side decoding unit 102, the linear prediction parameter decoding unit 112 decodes the linear prediction parameter from the code of the linear prediction parameter, and sets it as a coefficient of the synthesis filter 113. Next, adaptive codebook 114 outputs a time-series vector corresponding to the adaptive code and periodically repeats the past excitation signal, and drive codebook 115 outputs a time-series vector corresponding to the drive code. I do. These time-series vectors are weighted and added by weighting and adding means 139 according to the respective gains decoded from the sign of the gain by the gain decoding means 116, and the addition result is supplied to the synthesis filter 113 as a drive excitation signal. Thus, an output voice S103 is obtained.

 またCELP音声符号化復号化方法で再生音声品質の向上を目的として改良された従来の音声符号化復号化方法として、「Phonetically-based vector excitation coding of speech at 3.6kbps」(S.Wang and A.Gersho著、ICASSP '89, pp.49-52, 1989)に示されたものがある。図6との対応手段分に同一符号を付けた図7は、この従来の音声符号化復号化方法の全体構成の一例を示し、図中符号化部101において117は音声状態判定手段、118駆動符号帳切替手段、119は第1の駆動符号帳、120は第2の駆動符号帳である。また図中復号化手段102において121は駆動符号帳切替手段、122は第1の駆動符号帳、123は第2の駆動符号帳である。このような構成による符号化復号化方法の動作を説明する。まず符号化手段101において、音声状態判定手段117は入力音声S101を分析し、音声の状態を例えば有声/無声の2つの状態のうちどちらであるかを判定する。駆動符号帳切替手段118はその音声状態判定結果に応じて、例えば有声であれば第1の駆動符号帳119を、無声であれば第2の駆動符号帳120を用いるとして符号化に用いる駆動符号帳を切り替え、また、どちらの駆動符号帳を用いたかを符号化する。 As a conventional speech coding / decoding method improved for the purpose of improving reproduced speech quality by the CELP speech coding / decoding method, “Phonetically-based vector excitation coding of speech at 3.6 kbps” (S. Wang and A. Gersho, ICASSP '89, pp.49-52, 1989). FIG. 7 in which the same reference numerals are assigned to the corresponding units as in FIG. 6 shows an example of the entire configuration of the conventional audio encoding / decoding method. In the encoding unit 101 in FIG. Codebook switching means, 119 is a first drive codebook, and 120 is a second drive codebook. Further, in the decoding means 102 in the figure, 121 is a driving codebook switching means, 122 is a first driving codebook, and 123 is a second driving codebook. The operation of the encoding / decoding method having such a configuration will be described. First, in the encoding unit 101, the voice state determination unit 117 analyzes the input voice S101, and determines which of the two voice states is voiced / unvoiced. The driving codebook switching unit 118 determines that the first driving codebook 119 is used if voiced, and the second driving codebook 120 is used if voiced, for example. The book is switched, and which driving codebook is used is encoded.

 次に復号化手段102において、駆動符号帳切替手段121は符号化手段101でどちらの駆動符号帳を用いたかの符号に応じて、符号化手段101で用いたのと同じ駆動符号帳を用いるとして第1の駆動符号帳122と第2の駆動符号帳123とを切り替える。このように構成することにより、音声の各状態毎に符号化に適した駆動符号帳を用意し、入力された音声の状態に応じて駆動符号帳を切り替えて用いることで再生音声の品質を向上することができる。 Next, in the decoding unit 102, the driving codebook switching unit 121 determines that the same driving codebook as used in the encoding unit 101 is used according to the code of which driving codebook was used in the encoding unit 101. The first drive codebook 122 and the second drive codebook 123 are switched. With this configuration, a driving codebook suitable for encoding is prepared for each state of the voice, and the quality of the reproduced voice is improved by switching and using the driving codebook according to the state of the input voice. can do.

 また送出ビット数を増加することなく、複数の駆動符号帳を切り替える従来の音声符号化復号化方法として特開平8−185198号公報に開示されたものがある。これは、適応符号帳で選択したピッチ周期に応じて、複数個の駆動符号帳を切り替えて用いるものである。これにより、伝送情報を増やさずに入力音声の特徴に適応した駆動符号帳を用いることができる。 A conventional speech coding / decoding method for switching between a plurality of driving codebooks without increasing the number of transmission bits is disclosed in JP-A-8-185198. In this method, a plurality of driving codebooks are switched and used according to the pitch period selected in the adaptive codebook. As a result, it is possible to use a drive codebook adapted to the characteristics of the input speech without increasing the transmission information.

「Code-excited linear prediction(CELP):High-quality speech at very low bit rates」(M.R.Shroeder and B.S.Atal著、ICASSP '85, pp.937-940, 1985)"Code-excited linear prediction (CELP): High-quality speech at very low bit rates" (M.R.Shroeder and B.S.Atal, ICASSP '85, pp.937-940, 1985) 「Phonetically-based vector excitation coding of speech at 3.6kbps」(S.Wang and A.Gersho著、ICASSP '89, pp.49-52, 1989)"Phonetically-based vector excitation coding of speech at 3.6kbps" (S. Wang and A. Gersho, ICASSP '89, pp.49-52, 1989) 特開平8−185198号公報JP-A-8-185198

 上述したように図6に示す従来の音声符号化復号化方法では、単一の駆動符号帳を用いて合成音声を生成している。低ビットレートでも品質の高い符号化音声を得るためには、駆動符号帳に格納する時系列ベクトルはパルスを多く含む非雑音的なものとなる。このため、背景雑音や摩擦性子音など雑音的な音声を符号化、合成した場合、符号化音声はジリジリ、チリチリといった不自然な音を発するという問題があった。駆動符号帳を雑音的な時系列ベクトルからのみ構成すればこの問題は解決するが、符号化音声全体としての品質が劣化する。 As described above, in the conventional speech encoding / decoding method shown in FIG. 6, synthesized speech is generated using a single driving codebook. In order to obtain high-quality coded speech even at a low bit rate, the time-series vector stored in the driving codebook is non-noise containing many pulses. For this reason, when coding and synthesizing noise-like sounds such as background noise and fricative consonants, there is a problem in that the coded sounds emit unnatural sounds such as gritty sounds and dusty sounds. This problem can be solved by constructing the driving codebook only from noise-like time-series vectors, but the quality of the encoded speech as a whole deteriorates.

 また改良された図7に示す従来の音声符号化復号化方法では、入力音声の状態に応じて複数の駆動符号帳を切り替えて符号化音声を生成している。これにより例えば入力音声が雑音的な無声部分では雑音的な時系列ベクトルから構成された駆動符号帳を、またそれ以外の有声部分では非雑音的な時系列ベクトルから構成された駆動符号帳を用いることができ、雑音的な音声を符号化、合成しても不自然なジリジリした音を発することはなくなる。しかし、復号化側でも符号化側と同じ駆動符号帳を用いるために、新たにどの駆動符号帳を使用したかの情報を符号化、伝送する必要が生じ、これが低ビットレート化の妨げになるという問題があった。 In the improved conventional speech encoding / decoding method shown in FIG. 7, a plurality of driving codebooks are switched according to the state of input speech to generate encoded speech. Thus, for example, in an unvoiced part where the input speech is noisy, a driving codebook composed of a noise-like time series vector is used, and in other voiced parts, a driving codebook composed of a non-noise time-series vector is used. Therefore, even if noise-like speech is encoded and synthesized, an unnatural sizzling sound is not emitted. However, since the decoding side uses the same driving codebook as the encoding side, it is necessary to encode and transmit information on which driving codebook is newly used, which hinders a reduction in bit rate. There was a problem.

 また送出ビット数を増加することなく、複数の駆動符号帳を切り替える従来の音声符号化復号化方法では、適応符号帳で選択されるピッチ周期に応じて駆動符号帳を切り替えている。しかし、適応符号帳で選択されるピッチ周期は実際の音声のピッチ周期とは異なり、その値からだけでは入力音声の状態が雑音的か非雑音的かを判定できないので、音声の雑音的な部分の符号化音声が不自然であるという課題は解決されない。 In the conventional speech coding / decoding method for switching between a plurality of driving codebooks without increasing the number of transmission bits, the driving codebook is switched according to a pitch period selected by the adaptive codebook. However, the pitch period selected in the adaptive codebook is different from the pitch period of the actual voice, and it is not possible to judge whether the state of the input voice is noisy or non-noise based on the value alone. Does not solve the problem that the coded speech is unnatural.

 この発明はかかる課題を解決するためになされたものであり、低ビットレートでも品質の高い音声を再生する音声符号化復号化方法及び装置を提供するものである。 The present invention has been made to solve such a problem, and an object of the present invention is to provide an audio encoding / decoding method and apparatus for reproducing high quality audio even at a low bit rate.

 上述の課題を解決するためにこの発明の音声符号化方法は、スペクトル情報、パワー情報、ピッチ情報のうち少なくとも1つの符号または符号化結果を用いて該符号化区間における音声の雑音性の度合いを評価し、評価結果に応じて複数の駆動符号帳のうち1つを選択するようにした。 In order to solve the above-described problems, a speech encoding method according to the present invention uses at least one code or encoding result of spectrum information, power information, and pitch information to determine the degree of noise of speech in the encoding section. The evaluation is performed, and one of the plurality of driving codebooks is selected according to the evaluation result.

 さらに次の発明の音声符号化方法は、格納している時系列ベクトルの雑音性の度合いが異なる複数の駆動符号帳を備え、音声の雑音性の度合いの評価結果に応じて、複数の駆動符号帳を切り替えるようにした。 The speech encoding method according to the next invention further includes a plurality of driving codebooks having different degrees of noise of the stored time-series vectors, and a plurality of driving codes according to the evaluation result of the degree of noise of speech. Switch books.

 さらに次の発明の音声符号化方法は、音声の雑音性の度合いの評価結果に応じて、駆動符号帳に格納している時系列ベクトルの雑音性の度合いを変化させるようにした。 In the speech encoding method of the next invention, the degree of noise of the time-series vector stored in the driving codebook is changed according to the evaluation result of the degree of noise of speech.

 さらに次の発明の音声符号化方法は、雑音的な時系列ベクトルを格納している駆動符号帳を備え、音声の雑音性の度合いの評価結果に応じて、駆動音源の信号サンプルを間引くことにより雑音性の度合いが低い時系列ベクトルを生成するようにした。 Furthermore, the speech encoding method according to the next invention includes a driving codebook storing a noise-like time-series vector, and thins out signal samples of the driving sound source according to the evaluation result of the degree of noise of the speech. A time series vector with a low degree of noise is generated.

 さらに次の発明の音声符号化方法は、雑音的な時系列ベクトルを格納している第1の駆動符号帳と、非雑音的なの時系列ベクトルを格納している第2の駆動符号帳とを備え、音声の雑音性の度合いの評価結果に応じて、第1の駆動符号帳の時系列ベクトルと第2の駆動符号帳の時系列ベクトルを重み付けし加算した時系列ベクトルを生成するようにした。 The speech encoding method according to the next invention further comprises a first driving codebook storing a noise-like time-series vector and a second driving codebook storing a non-noise-like time-series vector. The time series vector of the first driving codebook and the time series vector of the second driving codebook are weighted and added to generate a time series vector in accordance with the evaluation result of the degree of noise of speech. .

 また次の発明の音声復号化方法は、スペクトル情報、パワー情報、ピッチ情報のうち少なくとも1つの符号または復号化結果を用いて該復号化区間における音声の雑音性の度合いを評価し、評価結果に応じて複数の駆動符号帳のうちの1つを選択するようにした。 Further, the speech decoding method of the next invention evaluates the degree of noise of speech in the decoding section using at least one code or decoding result among spectrum information, power information, and pitch information, and Accordingly, one of a plurality of driving codebooks is selected.

 さらに次の発明の音声復号化方法は、格納している時系列ベクトルの雑音性の度合いが異なる複数の駆動符号帳を備え、音声の雑音性の度合いの評価結果に応じて、複数の駆動符号帳を切り替えるようにした。 Furthermore, the speech decoding method of the next invention comprises a plurality of driving codebooks having different degrees of noise of stored time-series vectors, and a plurality of driving codes according to the evaluation result of the degree of noise of speech. Switch books.

 さらに次の発明の音声復号化方法は、音声の雑音性の度合いの評価結果に応じて、駆動符号帳に格納している時系列ベクトルの雑音性の度合いを変化させるようにした。 In the speech decoding method of the next invention, the degree of noise of the time series vector stored in the driving codebook is changed according to the evaluation result of the degree of noise of speech.

 さらに次の発明の音声復号化方法は、雑音的な時系列ベクトルを格納している駆動符号帳を備え、音声の雑音性の度合いの評価結果に応じて、駆動音源の信号サンプルを間引くことにより雑音性の度合いが低い時系列ベクトルを生成するようにした。 Further, the speech decoding method according to the next invention includes a driving codebook storing a noise-like time-series vector, and thins out signal samples of the driving sound source according to the evaluation result of the degree of noise of the speech. A time series vector with a low degree of noise is generated.

 さらに次の発明の音声復号化方法は、雑音的な時系列ベクトルを格納している第1の駆動符号帳と、非雑音的な時系列ベクトルを格納している第2の駆動符号帳とを備え、音声の雑音性の度合いの評価結果に応じて、第1の駆動符号帳の時系列ベクトルと第2の駆動符号帳の時系列ベクトルを重み付けし加算した時系列ベクトルを生成するようにした。 Further, the speech decoding method according to the next invention is characterized in that a first driving codebook storing a noise-like time series vector and a second driving codebook storing a non-noise time-series vector are used. The time series vector of the first driving codebook and the time series vector of the second driving codebook are weighted and added to generate a time series vector in accordance with the evaluation result of the degree of noise of speech. .

 さらに次の発明の音声符号化装置は、入力音声のスペクトル情報を符号化し、符号化結果の1要素として出力するスペクトル情報符号化部と、このスペクトル情報符号化部からの符号化されたスペクトル情報から得られるスペクトル情報、パワー情報のうち少なくとも1つの符号または符号化結果を用いて該符号化区間における音声の雑音性の度合いを評価し、評価結果を出力する雑音度評価部と、非雑音的な複数の時系列ベクトルが記憶された第1の駆動符号帳と、雑音的な複数の時系列ベクトルが記憶された第2の駆動符号帳と、前記雑音度評価部の評価結果により、第1の駆動符号帳と第2の駆動符号帳とを切り替える駆動符号帳切替部と、前記第1の駆動符号帳または第2の駆動符号帳からの時系列ベクトルをそれぞれの時系列ベクトルのゲインに応じて重み付けし加算する重み付け加算部と、この重み付けされた時系列ベクトルを駆動音源信号とし、この駆動音源信号と前記スペクトル情報符号化部からの符号化されたスペクトル情報とに基づいて符号化音声を得る合成フィルタと、この符号化音声と前記入力音声との距離を求め、距離が最小となる駆動符号、ゲインを探索し、その結果を駆動符号,ゲインの符号を符号化結果として出力する距離計算部とを備えた。 Further, a speech encoding apparatus according to the next invention encodes spectrum information of an input speech and outputs the encoded spectrum information as one element of an encoding result, and the encoded spectrum information from the spectrum information encoding section. A noise evaluation unit that evaluates the degree of noise of speech in the coding section using at least one code or coding result of the spectrum information and power information obtained from The first driving codebook in which a plurality of time-series vectors are stored, the second driving codebook in which a plurality of noise-like time-series vectors are stored, and an evaluation result of the noise degree evaluation unit, A drive codebook switching unit for switching between the first drive codebook and the second drive codebook, and a time series vector from the first drive codebook or the second drive codebook. A weighted addition unit for weighting and adding according to the gain of the torquer, and using the weighted time-series vector as a drive excitation signal, based on the drive excitation signal and the encoded spectrum information from the spectrum information encoding unit. A synthesis filter for obtaining a coded voice by means of a filter, obtaining a distance between the coded voice and the input voice, searching for a drive code and a gain that minimize the distance, and using the result as a drive code and a code for the gain to obtain the coding result. And a distance calculation unit that outputs the result as

 さらに次の発明の音声復号化装置は、スペクトル情報の符号からスペクトル情報を復号化するスペクトル情報復号化部と、このスペクトル情報復号化部からの復号化されたスペクトル情報から得られるスペクトル情報、パワー情報のうち少なくとも1つの復号化結果または前記スペクトル情報の符号を用いて該復号化区間における音声の雑音性の度合いを評価し、評価結果を出力する雑音度評価部と、非雑音的な複数の時系列ベクトルが記憶された第1の駆動符号帳と、雑音的な複数の時系列ベクトルが記憶された第2の駆動符号帳と、前記雑音度評価部の評価結果により、第1の駆動符号帳と第2の駆動符号帳とを切り替える駆動符号帳切替部と、前記第1の駆動符号帳または第2の駆動符号帳からの時系列ベクトルをそれぞれの時系列ベクトルのゲインに応じて重み付けし加算する重み付け加算部と、この重み付けされた時系列ベクトルを駆動音源信号とし、この駆動音源信号と前記スペクトル情報復号化部からの復号化されたスペクトル情報とに基づいて復号化音声を得る合成フィルタとを備えた。 A speech decoding apparatus according to the next invention further comprises a spectrum information decoding unit for decoding spectrum information from a code of the spectrum information, and spectrum information and power obtained from the decoded spectrum information from the spectrum information decoding unit. A noise evaluation unit that evaluates the degree of noise of speech in the decoding section using at least one decoding result of the information or the code of the spectrum information, and outputs a non-noise evaluation unit; A first driving codebook in which a time series vector is stored, a second driving codebook in which a plurality of noise-like time series vectors are stored, and a first driving code A drive codebook switching unit for switching between a book and a second drive codebook, and a time series vector from the first drive codebook or the second drive codebook, respectively. A weighted addition unit that weights and adds according to the gain of the vector, and sets the weighted time-series vector as a drive excitation signal, based on the drive excitation signal and the decoded spectrum information from the spectrum information decoding unit. And a synthesis filter for obtaining a decoded speech.

 この発明に係る音声符号化装置は、符号駆動線形予測(CELP)音声符号化装置において、スペクトル情報、パワー情報、ピッチ情報のうち少なくとも1つの符号または符号化結果を用いて該符号化区間における音声の雑音性の度合いを評価する雑音度評価部と、上記雑音度評価部の評価結果に応じて複数の駆動符号帳を切り替える駆動符号帳切替部とを備えたことを特徴とする。 A speech coding apparatus according to the present invention is a code-driven linear prediction (CELP) speech coding apparatus, wherein at least one of spectrum information, power information, and pitch information or a coding result is used. And a driving codebook switching unit that switches a plurality of driving codebooks according to the evaluation result of the noise evaluation unit.

 この発明に係る音声復号化装置は、符号駆動線形予測(CELP)音声復号化装置において、スペクトル情報、パワー情報、ピッチ情報のうち少なくとも1つの符号または復号化結果を用いて該復号化区間における音声の雑音性の度合いを評価する雑音度評価部と、上記雑音度評価部の評価結果に応じて複数の駆動符号帳を切り替える駆動符号帳切替部とを備えたことを特徴とする。 A speech decoding apparatus according to the present invention is a code-driven linear prediction (CELP) speech decoding apparatus, wherein at least one of spectrum information, power information, and pitch information or a decoding result is used. And a driving codebook switching unit that switches a plurality of driving codebooks according to the evaluation result of the noise evaluation unit.

 本発明に係る音声符号化方法及び音声復号化方法並びに音声符号化装置及び音声復号化装置によれば、スペクトル情報、パワー情報、ピッチ情報のうち少なくとも1つの符号または符号化結果を用いて該符号化区間における音声の雑音性の度合いを評価し、評価結果に応じて異なる駆動符号帳を用いるので、少ない情報量で品質の高い音声を再生することができる。 According to the speech encoding method and the speech decoding method, and the speech encoding apparatus and the speech decoding apparatus according to the present invention, at least one of the spectrum information, the power information, and the pitch information or the encoding result is used for the encoding. Since the degree of noise of speech in the segmentation section is evaluated and different driving codebooks are used in accordance with the evaluation result, high-quality speech can be reproduced with a small amount of information.

 またこの発明によれば、音声符号化方法及び音声復号化方法で、格納している駆動音源の雑音性の度合いが異なる複数の駆動符号帳を備え、音声の雑音性の度合いの評価結果に応じて、複数の駆動符号帳を切り替えて用いるので、少ない情報量で品質の高い音声を再生することができる。 Further, according to the present invention, in the speech encoding method and the speech decoding method, a plurality of driving codebooks having different degrees of noise of the driving excitation stored therein are provided, and the plurality of driving codebooks are provided according to the evaluation result of the degree of noise of the speech. Since a plurality of driving codebooks are switched and used, high-quality sound can be reproduced with a small amount of information.

 またこの発明によれば、音声符号化方法及び音声復号化方法で、音声の雑音性の度合いの評価結果に応じて、駆動符号帳に格納している時系列ベクトルの雑音性の度合いを変化させたので、少ない情報量で品質の高い音声を再生することができる。 Further, according to the present invention, in the speech encoding method and the speech decoding method, the degree of noise of the time-series vector stored in the driving codebook is changed according to the evaluation result of the degree of noise in speech. Therefore, high-quality sound can be reproduced with a small amount of information.

 またこの発明によれば、音声符号化方法及び音声復号化方法で、雑音的な時系列ベクトルを格納している駆動符号帳を備え、音声の雑音性の度合いの評価結果に応じて、時系列ベクトルの信号サンプルを間引くことにより雑音性の度合いが低い時系列ベクトルを生成したので、少ない情報量で品質の高い音声を再生することができる。 Further, according to the present invention, in the speech encoding method and the speech decoding method, a driving codebook storing a noise-like time-series vector is provided. Since a time-series vector with a low degree of noise is generated by thinning out the signal samples of the vector, high-quality sound can be reproduced with a small amount of information.

 またこの発明によれば、音声符号化方法及び音声復号化方法で、雑音的な時系列ベクトルを格納している第1の駆動符号帳と、非雑音的な時系列ベクトルを格納している第2の駆動符号帳とを備え、音声の雑音性の度合いの評価結果に応じて、第1の駆動符号帳の時系列ベクトルと第2の駆動符号帳の時系列ベクトルを重み付け加算した時系列ベクトルを生成したので、少ない情報量で品質の高い音声を再生することができる。 Further, according to the present invention, in the speech encoding method and the speech decoding method, the first driving codebook storing the noise-like time-series vector and the second driving codebook storing the non-noise-like time-series vector. And a time series vector obtained by weighting and adding the time series vector of the first drive codebook and the time series vector of the second drive codebook according to the evaluation result of the degree of noise in speech. Is generated, a high-quality sound can be reproduced with a small amount of information.

 以下図面を参照しながら、この発明の実施の形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.

実施の形態1.
 図1は、この発明による音声符号化方法及び音声復号化方法の実施の形態1の全体構成を示す。図中、1は符号化部、2は復号化部、3は多重化部、4は分離部である。符号化部1は、線形予測パラメータ分析部5、線形予測パラメータ符号化部6、合成フィルタ7、適応符号帳8、ゲイン符号化部10、距離計算部11、第1の駆動符号帳19、第2の駆動符号帳20、雑音度評価部24、駆動符号帳切替部25、重み付け加算部38より構成されている。また、復号化部2は線形予測パラメータ復号化部12、合成フィルタ13、適応符号帳14、第1の駆動符号帳22、第2の駆動符号帳23、雑音度評価部26、駆動符号帳切替部27、ゲイン復号化部16、重み付け加算部39より構成されている。図1中5は入力音声S1を分析し、音声のスペクトル情報である線形予測パラメータを抽出するスペクトル情報分析部としての線形予測パラメータ分析部、6はスペクトル情報であるその線形予測パラメータを符号化し、符号化した線形予測パラメータを合成フィルタ7の係数として設定するスペクトル情報符号化部としての線形予測パラメータ符号化部、19、22は非雑音的な複数の時系列ベクトルが記憶された第1の駆動符号帳、20、23は雑音的な複数の時系列ベクトルが記憶された第2の駆動符号帳、24、26は雑音の度合いを評価する雑音度評価部、25、27は雑音の度合いにより駆動符号帳を切り替える駆動符号帳切替部である。
Embodiment 1 FIG.
FIG. 1 shows an overall configuration of a first embodiment of a speech encoding method and a speech decoding method according to the present invention. In the figure, 1 is an encoding unit, 2 is a decoding unit, 3 is a multiplexing unit, and 4 is a demultiplexing unit. The coding unit 1 includes a linear prediction parameter analysis unit 5, a linear prediction parameter coding unit 6, a synthesis filter 7, an adaptive codebook 8, a gain coding unit 10, a distance calculation unit 11, a first driving codebook 19, 2, a driving codebook 20, a noise evaluation unit 24, a driving codebook switching unit 25, and a weighting addition unit 38. The decoding unit 2 includes a linear prediction parameter decoding unit 12, a synthesis filter 13, an adaptive codebook 14, a first driving codebook 22, a second driving codebook 23, a noise evaluation unit 26, and a driving codebook switching. It comprises a unit 27, a gain decoding unit 16, and a weighting addition unit 39. In FIG. 1, reference numeral 5 denotes a linear prediction parameter analysis unit as a spectrum information analysis unit for analyzing the input speech S1 and extracting a linear prediction parameter which is spectrum information of the speech, 6 encodes the linear prediction parameter which is spectrum information, The linear prediction parameter coding units 19 and 22 serving as spectrum information coding units for setting the coded linear prediction parameters as coefficients of the synthesis filter 7 are the first drive in which a plurality of non-noise time-series vectors are stored. Codebooks 20 and 23 are second driving codebooks storing a plurality of noise-like time-series vectors, 24 and 26 are noise degree evaluation units for evaluating the degree of noise, and 25 and 27 are driven based on the degree of noise. A driving codebook switching unit that switches codebooks.

 以下、動作を説明する。まず、符号化部1において、線形予測パラメータ分析部5は入力音声S1を分析し、音声のスペクトル情報である線形予測パラメータを抽出する。線形予測パラメータ符号化部6はその線形予測パラメータを符号化し、符号化した線形予測パラメータを合成フィルタ7の係数として設定するとともに、雑音度評価部24へ出力する。次に、音源情報の符号化について説明する。適応符号帳8には、過去の駆動音源信号が記憶されており、距離計算部11から入力される適応符号に対応して過去の駆動音源信号を周期的に繰り返した時系列ベクトルを出力する。雑音度評価部24は、前記線形予測パラメータ符号化部6から入力された符号化した線形予測パラメータと適応符号とから、例えば図2に示すようにスペクトルの傾斜、短期予測利得、ピッチ変動から該符号化区間の雑音の度合いを評価し、評価結果を駆動符号帳切替部25に出力する。駆動符号帳切替部25は前記雑音度の評価結果に応じて、例えば雑音度が低ければ第1の駆動符号帳19を、雑音度が高ければ第2の駆動符号帳20を用いるとして符号化に用いる駆動符号帳を切り替える。 Hereinafter, the operation will be described. First, in the encoding unit 1, the linear prediction parameter analysis unit 5 analyzes the input speech S1 and extracts a linear prediction parameter that is speech spectrum information. The linear prediction parameter coding unit 6 codes the linear prediction parameter, sets the coded linear prediction parameter as a coefficient of the synthesis filter 7, and outputs the coefficient to the noise evaluation unit 24. Next, encoding of the sound source information will be described. The adaptive codebook 8 stores past driving excitation signals, and outputs a time-series vector obtained by periodically repeating the past driving excitation signals corresponding to the adaptive code input from the distance calculation unit 11. The noise degree evaluator 24 uses the coded linear prediction parameters and the adaptive codes input from the linear prediction parameter encoder 6 to calculate, for example, the spectral tilt, the short-term prediction gain, and the pitch variation as shown in FIG. The degree of noise in the coding section is evaluated, and the evaluation result is output to the driving codebook switching unit 25. According to the evaluation result of the noise degree, the driving codebook switching unit 25 determines that the first driving codebook 19 is used if the noise degree is low, and that the second driving codebook 20 is used if the noise degree is high. Switch the driving codebook to be used.

 第1の駆動符号帳19には、非雑音的な複数の時系列ベクトル、例えば学習用音声とその符号化音声との歪みが小さくなるように学習して構成された複数の時系列ベクトルが記憶されている。また、第2の駆動符号帳20には、雑音的な複数の時系列ベクトル、例えばランダム雑音から生成した複数の時系列ベクトルが記憶されており、距離計算部11から入力されるそれぞれ駆動符号に対応した時系列ベクトルを出力する。適応符号帳8、第1の駆動音源符号帳19または第2の駆動符号帳20からの各時系列ベクトルは、ゲイン符号化部10から与えられるそれぞれのゲインに応じて重み付け加算部38で重み付けして加算され、その加算結果を駆動音源信号として合成フィルタ7へ供給され符号化音声を得る。距離計算部11は符号化音声と入力音声S1との距離を求め、距離が最小となる適応符号、駆動符号、ゲインを探索する。以上符号化が終了した後、線形予測パラメータの符号、入力音声と符号化音声との歪みを最小にする適応符号、駆動符号,ゲインの符号を符号化結果S2として出力する。以上がこの実施の形態1の音声符号化方法に特徴的な動作である。 The first driving codebook 19 stores a plurality of non-noise time-series vectors, for example, a plurality of time-series vectors configured by learning such that distortion between the learning speech and the encoded speech is reduced. Have been. The second driving codebook 20 stores a plurality of noise-like time-series vectors, for example, a plurality of time-series vectors generated from random noise. Output the corresponding time series vector. Each time-series vector from the adaptive codebook 8, the first excitation codebook 19, or the second excitation codebook 20 is weighted by the weighting and adding unit 38 according to each gain given from the gain encoding unit 10. The result of the addition is supplied to the synthesis filter 7 as a drive excitation signal to obtain an encoded voice. The distance calculation unit 11 obtains the distance between the coded speech and the input speech S1, and searches for an adaptive code, a driving code, and a gain that minimize the distance. After the coding is completed, the code of the linear prediction parameter, the adaptive code for minimizing the distortion between the input voice and the coded voice, the driving code, and the gain code are output as the coding result S2. The above is the characteristic operation of the speech encoding method according to the first embodiment.

 次に復号化部2について説明する。復号化部2では、線形予測パラメータ復号化部12は線形予測パラメータの符号から線形予測パラメータを復号化し、合成フィルタ13の係数として設定するとともに、雑音度評価部26へ出力する。次に、音源情報の復号化について説明する。適応符号帳14は、適応符号に対応して、過去の駆動音源信号を周期的に繰り返した時系列ベクトルを出力する。雑音度評価部26は、前記線形予測パラメータ復号化部12から入力された復号化した線形予測パラメータと適応符号とから符号化部1の雑音度評価部24と同様の方法で雑音の度合いを評価し、評価結果を駆動符号帳切替部27に出力する。駆動符号帳切替部27は前記雑音度の評価結果に応じて、符号化部1の駆動符号帳切替部25と同様に第1の駆動符号帳22と第2の駆動符号帳23とを切り替える。 Next, the decoding unit 2 will be described. In the decoding unit 2, the linear prediction parameter decoding unit 12 decodes the linear prediction parameter from the code of the linear prediction parameter, sets the decoded parameter as a coefficient of the synthesis filter 13, and outputs the coefficient to the noise evaluation unit 26. Next, decoding of the sound source information will be described. The adaptive codebook 14 outputs a time-series vector obtained by periodically repeating a past excitation signal in accordance with the adaptive code. The noise degree evaluation unit 26 evaluates the degree of noise from the decoded linear prediction parameters input from the linear prediction parameter decoding unit 12 and the adaptive code in the same manner as the noise degree evaluation unit 24 of the encoding unit 1. Then, the evaluation result is output to the driving codebook switching unit 27. The driving codebook switching unit 27 switches between the first driving codebook 22 and the second driving codebook 23 in the same manner as the driving codebook switching unit 25 of the encoding unit 1 according to the evaluation result of the noise degree.

 第1の駆動符号帳22には非雑音的な複数の時系列ベクトル、例えば学習用音声とその符号化音声との歪みが小さくなるように学習して構成された複数の時系列ベクトルが、第2の駆動符号帳23には雑音的な複数の時系列ベクトル、例えばランダム雑音から生成した複数の時系列ベクトルが記憶されており、それぞれ駆動符号に対応した時系列ベクトルを出力する。適応符号帳14と第1の駆動符号帳22または第2の駆動符号帳23からの時系列ベクトルは、ゲイン復号化部16でゲインの符号から復号化したそれぞれのゲインに応じて重み付け加算部39で重み付けして加算され、その加算結果を駆動音源信号として合成フィルタ13へ供給され出力音声S3が得られる。以上がこの実施の形態1の音声復号化方法に特徴的な動作である。 The first driving codebook 22 includes a plurality of non-noise time-series vectors, for example, a plurality of time-series vectors configured by learning such that distortion between the learning speech and the encoded speech is reduced. The second drive codebook 23 stores a plurality of noise-like time-series vectors, for example, a plurality of time-series vectors generated from random noise, and outputs a time-series vector corresponding to each drive code. The time series vectors from the adaptive codebook 14 and the first driving codebook 22 or the second driving codebook 23 are weighted and added to each other by the gain decoding unit 16 in accordance with the respective gains decoded from the gain codes. , And the result of the addition is supplied to the synthesis filter 13 as a drive sound source signal to obtain an output sound S3. The above is the characteristic operation of the speech decoding method according to the first embodiment.

 この実施の形態1によれば、入力音声の雑音の度合いを符号および符号化結果から評価し、評価結果に応じて異なる駆動符号帳を用いることにより、少ない情報量で、品質の高い音声を再生することができる。 According to the first embodiment, the degree of noise of the input speech is evaluated from the code and the coding result, and different driving codebooks are used in accordance with the evaluation result, thereby reproducing high quality speech with a small amount of information. can do.

 また、上記実施の形態では、駆動符号帳19,20,22,23には、複数の時系列ベクトルが記憶されている場合を説明したが、少なくとも1つの時系列ベクトルが記憶されていれば、実施可能である。 Further, in the above embodiment, the case where a plurality of time-series vectors are stored in driving codebooks 19, 20, 22, and 23 has been described. However, if at least one time-series vector is stored, It is feasible.

実施の形態2.
 上述の実施の形態1では、2つの駆動符号帳を切り替えて用いているが、これに代え、3つ以上の駆動符号帳を備え、雑音の度合いに応じて切り替えて用いるとしても良い。この実施の形態2によれば、音声を雑音/非雑音の2通りだけでなく、やや雑音的であるなどの中間的な音声に対してもそれに適した駆動符号帳を用いることができるので、品質の高い音声を再生することができる。
Embodiment 2 FIG.
In Embodiment 1 described above, two driving codebooks are used by switching, but instead, three or more driving codebooks may be provided and used by switching according to the degree of noise. According to the second embodiment, it is possible to use a driving codebook suitable for not only two types of speech, that is, noise / non-noise, but also intermediate speech such as slightly noisy one. High quality audio can be reproduced.

実施の形態3.
 図1との対応部分に同一符号を付けた図3は、この発明の音声符号化方法及び音声復号化方法の実施の形態3の全体構成を示し、図中28、30は雑音的な時系列ベクトルを格納した駆動符号帳、29、31は時系列ベクトルの低振幅なサンプルの振幅値を零にするサンプル間引き部である。
Embodiment 3 FIG.
FIG. 3 where the same reference numerals are assigned to corresponding parts to FIG. 1 shows the entire configuration of a speech encoding method and speech decoding method according to a third embodiment of the present invention. Driving codebooks 29 and 31 storing the vectors are sample thinning units for setting the amplitude values of low-amplitude samples of the time series vector to zero.

 以下、動作を説明する。まず、符号化部1において、線形予測パラメータ分析部5は入力音声S1を分析し、音声のスペクトル情報である線形予測パラメータを抽出する。線形予測パラメータ符号化部6はその線形予測パラメータを符号化し、符号化した線形予測パラメータを合成フィルタ7の係数として設定するとともに、雑音度評価部24へ出力する。次に、音源情報の符号化について説明する。適応符号帳8には、過去の駆動音源信号が記憶されており、距離計算部11から入力される適応符号に対応して過去の駆動音源信号を周期的に繰り返した時系列ベクトルを出力する。雑音度評価部24は、前記線形予測パラメータ符号化部6から入力された符号化した線形予測パラメータと適応符号とから、例えばスペクトルの傾斜、短期予測利得、ピッチ変動から該符号化区間の雑音の度合いを評価し、評価結果をサンプル間引き部29に出力する。 Hereinafter, the operation will be described. First, in the encoding unit 1, the linear prediction parameter analysis unit 5 analyzes the input speech S1 and extracts a linear prediction parameter that is speech spectrum information. The linear prediction parameter coding unit 6 codes the linear prediction parameter, sets the coded linear prediction parameter as a coefficient of the synthesis filter 7, and outputs the coefficient to the noise evaluation unit 24. Next, encoding of the sound source information will be described. The adaptive codebook 8 stores past driving excitation signals, and outputs a time-series vector obtained by periodically repeating the past driving excitation signals corresponding to the adaptive code input from the distance calculation unit 11. The noise degree evaluator 24 uses the coded linear prediction parameter input from the linear prediction parameter encoder 6 and the adaptive code to calculate, for example, the noise of the coding section from the spectrum slope, short-term prediction gain, and pitch fluctuation. The degree is evaluated, and the evaluation result is output to the sample thinning unit 29.

 駆動符号帳28には、例えばランダム雑音から生成した複数の時系列ベクトルが記憶されており、距離計算部11から入力される駆動符号に対応した時系列ベクトルを出力する。サンプル間引き部29は、前記雑音度の評価結果に応じて、雑音度が低ければ前記駆動符号帳28から入力された時系列ベクトルに対して、例えば所定の振幅値に満たないサンプルの振幅値を零にした時系列ベクトルを出力し、また、雑音度が高ければ前記駆動符号帳28から入力された時系列ベクトルをそのまま出力する。適応符号帳8、サンプル間引き部29からの各時系列ベクトルは、ゲイン符号化部10から与えられるそれぞれのゲインに応じて重み付け加算部38で重み付けして加算され、その加算結果を駆動音源信号として合成フィルタ7へ供給され符号化音声を得る。距離計算部11は符号化音声と入力音声S1との距離を求め、距離が最小となる適応符号、駆動符号、ゲインを探索する。以上符号化が終了した後、線形予測パラメータの符号、入力音声と符号化音声との歪みを最小にする適応符号、駆動符号,ゲインの符号を符号化結果S2として出力する。以上がこの実施の形態3の音声符号化方法に特徴的な動作である。 The driving codebook 28 stores a plurality of time-series vectors generated from, for example, random noise, and outputs a time-series vector corresponding to the driving code input from the distance calculation unit 11. According to the noise level evaluation result, if the noise level is low, the sample decimation unit 29 converts the time series vector input from the driving codebook 28 into, for example, the amplitude value of a sample less than a predetermined amplitude value. The time series vector set to zero is output. If the noise level is high, the time series vector input from the driving codebook 28 is output as it is. The time series vectors from the adaptive codebook 8 and the sample thinning unit 29 are weighted and added by the weighting and adding unit 38 according to the respective gains provided from the gain coding unit 10, and the addition result is used as a driving excitation signal. The encoded voice is supplied to the synthesis filter 7 and is obtained. The distance calculation unit 11 obtains the distance between the coded speech and the input speech S1, and searches for an adaptive code, a driving code, and a gain that minimize the distance. After the coding is completed, the code of the linear prediction parameter, the adaptive code for minimizing the distortion between the input voice and the coded voice, the driving code, and the gain code are output as the coding result S2. The above is the characteristic operation of the speech encoding method according to the third embodiment.

 次に復号化部2について説明する。復号化部2では、線形予測パラメータ復号化部12は線形予測パラメータの符号から線形予測パラメータを復号化し、合成フィルタ13の係数として設定するとともに、雑音度評価部26へ出力する。次に、音源情報の復号化について説明する。適応符号帳14は、適応符号に対応して、過去の駆動音源信号を周期的に繰り返した時系列ベクトルを出力する。雑音度評価部26は、前記線形予測パラメータ復号化部12から入力された復号化した線形予測パラメータと適応符号とから符号化部1の雑音度評価部24と同様の方法で雑音の度合いを評価し、評価結果をサンプル間引き部31に出力する。 Next, the decoding unit 2 will be described. In the decoding unit 2, the linear prediction parameter decoding unit 12 decodes the linear prediction parameter from the code of the linear prediction parameter, sets the decoded parameter as a coefficient of the synthesis filter 13, and outputs the coefficient to the noise evaluation unit 26. Next, decoding of the sound source information will be described. The adaptive codebook 14 outputs a time-series vector obtained by periodically repeating a past excitation signal in accordance with the adaptive code. The noise degree evaluation unit 26 evaluates the degree of noise from the decoded linear prediction parameters input from the linear prediction parameter decoding unit 12 and the adaptive code in the same manner as the noise degree evaluation unit 24 of the encoding unit 1. Then, the evaluation result is output to the sample thinning unit 31.

 駆動符号帳30は駆動符号に対応した時系列ベクトルを出力する。サンプル間引き部31は、前記雑音度評価結果に応じて、前記符号化部1のサンプル間引き部29と同様の処理により時系列ベクトルを出力する。適応符号帳14、サンプル間引き部31からの各時系列ベクトルは、ゲイン復号化部16から与えられるそれぞれのゲインに応じて重み付け加算部39で重み付けして加算され、その加算結果を駆動音源信号として合成フィルタ13へ供給され出力音声S3が得られる。 The drive codebook 30 outputs a time-series vector corresponding to the drive code. The sample thinning unit 31 outputs a time-series vector by the same processing as that of the sample thinning unit 29 of the encoding unit 1 according to the noise degree evaluation result. The time series vectors from the adaptive codebook 14 and the sample decimating unit 31 are weighted and added by a weighting and adding unit 39 according to the respective gains provided from the gain decoding unit 16, and the result of the addition is used as a driving excitation signal. The output sound S3 supplied to the synthesis filter 13 is obtained.

 この実施の形態3によれば、雑音的な時系列ベクトルを格納している駆動符号帳を備え、音声の雑音性の度合いの評価結果に応じて、駆動音源の信号サンプルを間引くことにより雑音性の度合いが低い駆動音源を生成することにより、少ない情報量で、品質の高い音声を再生することができる。また、複数の駆動符号帳を備える必要がないので、駆動符号帳の記憶に要するメモリ量を少なくする効果もある。 According to the third embodiment, a driving codebook that stores a noise-like time-series vector is provided, and a signal sample of a driving sound source is thinned out according to the evaluation result of the degree of noise of the speech. By generating a driving sound source with a low degree of sound, high-quality sound can be reproduced with a small amount of information. Further, since there is no need to provide a plurality of driving codebooks, there is also an effect of reducing the amount of memory required for storing the driving codebooks.

実施の形態4.
 上述の実施の形態3では、時系列ベクトルのサンプルを間引く/間引かないの2通りとしているが、これに代え、雑音の度合いに応じてサンプルを間引く際の振幅閾値を変更するとしても良い。この実施の形態4によれば、音声を雑音/非雑音の2通りだけでなく、やや雑音的であるなどの中間的な音声に対してもそれに適した時系列ベクトルを生成し、用いることができるので、品質の高い音声を再生することができる。
Embodiment 4 FIG.
In the above-described third embodiment, the time series vector samples are decimated / not decimated. Alternatively, the amplitude threshold value for decimating the samples may be changed according to the degree of noise. According to the fourth embodiment, it is possible to generate and use a time-series vector suitable not only for two kinds of speech, that is, noise / non-noise but also for an intermediate speech such as a little noise. As a result, high-quality sound can be reproduced.

実施の形態5.
 図1との対応部分に同一符号を付けた図4は、この発明の音声符号化方法及び音声復号化方法の実施の形態5の全体構成を示し、図中32、35は雑音的な時系列ベクトルを記憶している第1の駆動符号帳、33、36は非雑音的な時系列ベクトルを記憶している第2の駆動符号帳、34、37は重み決定部である。
Embodiment 5 FIG.
FIG. 4 in which parts corresponding to those in FIG. 1 are assigned the same reference numerals shows the overall configuration of a fifth embodiment of the speech encoding method and the speech decoding method of the present invention. The first driving codebooks 33 and 36 storing vectors are second driving codebooks storing non-noise time-series vectors, and 34 and 37 are weight determining units.

 以下、動作を説明する。まず、符号化部1において、線形予測パラメータ分析部5は入力音声S1を分析し、音声のスペクトル情報である線形予測パラメータを抽出する。線形予測パラメータ符号化部6はその線形予測パラメータを符号化し、符号化した線形予測パラメータを合成フィルタ7の係数として設定するとともに、雑音度評価部24へ出力する。次に、音源情報の符号化について説明する。適応符号帳8には、過去の駆動音源信号が記憶されており、距離計算部11から入力される適応符号に対応して過去の駆動音源信号を周期的に繰り返した時系列ベクトルを出力する。雑音度評価部24は、前記線形予測パラメータ符号化部6から入力された符号化した線形予測パラメータと適応符号とから、例えばスペクトルの傾斜、短期予測利得、ピッチ変動から該符号化区間の雑音の度合いを評価し、評価結果を重み決定部34に出力する。 Hereinafter, the operation will be described. First, in the encoding unit 1, the linear prediction parameter analysis unit 5 analyzes the input speech S1 and extracts a linear prediction parameter that is speech spectrum information. The linear prediction parameter coding unit 6 codes the linear prediction parameter, sets the coded linear prediction parameter as a coefficient of the synthesis filter 7, and outputs the coefficient to the noise evaluation unit 24. Next, encoding of the sound source information will be described. The adaptive codebook 8 stores past driving excitation signals, and outputs a time-series vector obtained by periodically repeating the past driving excitation signals corresponding to the adaptive code input from the distance calculation unit 11. The noise degree evaluator 24 uses the coded linear prediction parameter input from the linear prediction parameter encoder 6 and the adaptive code to calculate, for example, the noise of the coding section from the spectrum slope, short-term prediction gain, and pitch fluctuation. The degree is evaluated, and the evaluation result is output to the weight determining unit 34.

 第1の駆動符号帳32には、例えばランダム雑音から生成した複数の雑音的な時系列ベクトルが記憶されており、駆動符号に対応した時系列ベクトルを出力する。第2の駆動符号帳33には、例えば学習用音声とその符号化音声との歪みが小さくなるように学習して構成された複数の時系列ベクトルが記憶されており、距離計算部11から入力される駆動符号に対応した時系列ベクトルを出力する。重み決定部34は前記雑音度評価部24から入力された雑音度の評価結果に応じて、例えば図5に従って、第1の駆動符号帳32からの時系列ベクトルと第2の駆動符号帳33からの時系列ベクトルに与える重みを決定する。第1の駆動符号帳32、第2の駆動符号帳33からの各時系列ベクトルは上記重み決定部34から与えられる重みに応じて重み付けして加算される。適応符号帳8から出力された時系列ベクトルと、前記重み付け加算して生成された時系列ベクトルはゲイン符号化部10から与えられるそれぞれのゲインに応じて重み付け加算部38で重み付けして加算され、その加算結果を駆動音源信号として合成フィルタ7へ供給し符号化音声を得る。距離計算部11は符号化音声と入力音声S1との距離を求め、距離が最小となる適応符号、駆動符号、ゲインを探索する。この符号化が終了した後、線形予測パラメータの符号、入力音声と符号化音声との歪みを最小にする適応符号、駆動符号、ゲインの符号を符号化結果として出力する。 The first driving codebook 32 stores a plurality of noise-like time-series vectors generated from, for example, random noise, and outputs a time-series vector corresponding to the driving code. The second driving codebook 33 stores, for example, a plurality of time-series vectors configured by learning such that distortion between the learning speech and the encoded speech is reduced, and is input from the distance calculation unit 11. A time series vector corresponding to the driving code to be output is output. The weight determination unit 34 determines the time series vector from the first drive codebook 32 and the second drive codebook 33 from the second drive codebook 33 according to, for example, FIG. The weight given to the time series vector of is determined. Each time-series vector from the first drive codebook 32 and the second drive codebook 33 is weighted and added according to the weight given from the weight determination unit 34. The time series vector output from the adaptive codebook 8 and the time series vector generated by the weighted addition are weighted and added by the weighting and adding section 38 according to the respective gains given from the gain coding section 10, The result of the addition is supplied to the synthesis filter 7 as a drive excitation signal to obtain an encoded voice. The distance calculation unit 11 obtains the distance between the coded speech and the input speech S1, and searches for an adaptive code, a driving code, and a gain that minimize the distance. After this coding is completed, the code of the linear prediction parameter, the adaptive code for minimizing the distortion between the input voice and the coded voice, the driving code, and the gain code are output as the coding result.

 次に復号化部2について説明する。復号化部2では、線形予測パラメータ復号化部12は線形予測パラメータの符号から線形予測パラメータを復号化し、合成フィルタ13の係数として設定するとともに、雑音度評価部26へ出力する。次に、音源情報の復号化について説明する。適応符号帳14は、適応符号に対応して、過去の駆動音源信号を周期的に繰り返した時系列ベクトルを出力する。雑音度評価部26は、前記線形予測パラメータ復号化部12から入力された復号化した線形予測パラメータと適応符号とから符号化部1の雑音度評価部24と同様の方法で雑音の度合いを評価し、評価結果を重み決定部37に出力する。 Next, the decoding unit 2 will be described. In the decoding unit 2, the linear prediction parameter decoding unit 12 decodes the linear prediction parameter from the code of the linear prediction parameter, sets the decoded parameter as a coefficient of the synthesis filter 13, and outputs the coefficient to the noise evaluation unit 26. Next, decoding of the sound source information will be described. The adaptive codebook 14 outputs a time-series vector obtained by periodically repeating a past excitation signal in accordance with the adaptive code. The noise degree evaluation unit 26 evaluates the degree of noise from the decoded linear prediction parameters input from the linear prediction parameter decoding unit 12 and the adaptive code in the same manner as the noise degree evaluation unit 24 of the encoding unit 1. Then, the evaluation result is output to the weight determination unit 37.

 第1の駆動符号帳35および第2の駆動符号帳36は駆動符号に対応した時系列ベクトルを出力する。重み決定部37は前記雑音度評価部26から入力された雑音度評価結果に応じて、符号化部1の重み決定部34と同様に重みを与えるとする。第1の駆動符号帳35、第2の駆動符号帳36からの各時系列ベクトルは上記重み決定部37から与えれるそれぞれの重みに応じて重み付けして加算される。適応符号帳14から出力された時系列ベクトルと、前記重み付け加算して生成された時系列ベクトルは、ゲイン復号化部16でゲインの符号から復号化したそれぞれのゲインに応じて重み付け加算部39で重み付けして加算され、その加算結果が駆動音源信号として合成フィルタ13へ供給され出力音声S3が得られる。 The first driving codebook 35 and the second driving codebook 36 output a time-series vector corresponding to the driving code. It is assumed that the weight determining unit 37 gives weights in the same manner as the weight determining unit 34 of the encoding unit 1 in accordance with the noise evaluation result input from the noise evaluation unit 26. The respective time-series vectors from the first driving codebook 35 and the second driving codebook 36 are weighted and added according to the respective weights given from the weight determining unit 37. The time series vector output from the adaptive codebook 14 and the time series vector generated by the weighted addition are combined by the weight addition section 39 in accordance with the respective gains decoded from the gain codes by the gain decoding section 16. The weighted addition is performed, and the result of the addition is supplied to the synthesis filter 13 as a driving sound source signal to obtain an output sound S3.

 この実施の形態5によれば、音声の雑音の度合いを符号および符号化結果から評価し、評価結果に応じて雑音的な時系列ベクトルと非雑音的な時系列ベクトルを重み付き加算して用いることにより、少ない情報量で、品質の高い音声を再生することができる。 According to the fifth embodiment, the degree of speech noise is evaluated from the code and the coding result, and a noise-like time-series vector and a non-noise time-series vector are weighted and used in accordance with the evaluation result. Thus, high-quality sound can be reproduced with a small amount of information.

実施の形態6.
 上述の実施の形態1〜5でさらに、雑音の度合いの評価結果に応じてゲインの符号帳を変更するとしても良い。この実施の形態6によれば、駆動符号帳に応じて最適なゲインの符号帳を用いることができるので、品質の高い音声を再生することができる。
Embodiment 6 FIG.
In the above-described first to fifth embodiments, the codebook of the gain may be changed according to the evaluation result of the degree of noise. According to the sixth embodiment, a codebook having an optimum gain can be used according to the driving codebook, so that high-quality sound can be reproduced.

実施の形態7.
 上述の実施の形態1〜6では、音声の雑音の度合いを評価し、その評価結果に応じて駆動符号帳を切り替えているが、有声の立ち上がりや破裂性の子音などをそれぞれ判定、評価し、その評価結果に応じて駆動符号帳を切り替えても良い。この実施の形態7によれば、音声の雑音的な状態だけでなく、有声の立ち上がりや破裂性子音などさらに細かく分類し、それぞれに適した駆動符号帳を用いることができるので、品質の高い音声を再生することができる。
Embodiment 7 FIG.
In the above-described first to sixth embodiments, the degree of noise in speech is evaluated, and the driving codebook is switched according to the evaluation result. However, voiced rising and bursting consonants are determined and evaluated, respectively. The driving codebook may be switched according to the evaluation result. According to the seventh embodiment, not only the noise state of the voice but also voiced rising and burst consonants can be further finely classified, and a driving codebook suitable for each voice can be used. Can be played.

実施の形態8.
 上述の実施の形態1〜6では、図2に示すスペクトル傾斜、短期予測利得、ピッチ変動から、符号化区間の雑音の度合いを評価しているが、適応符号帳出力に対するゲイン値の大小を用いて評価しても良い。
Embodiment 8 FIG.
In the above-described first to sixth embodiments, the degree of noise in the coding section is evaluated based on the spectrum tilt, the short-term prediction gain, and the pitch fluctuation shown in FIG. 2, but the magnitude of the gain value for the adaptive codebook output is used. May be evaluated.

この発明による音声符号化及び音声復号化装置の実施の形態1の全体構成を示すブロック図である。FIG. 1 is a block diagram illustrating an overall configuration of a speech encoding and speech decoding apparatus according to a first embodiment of the present invention. 図1の実施の形態1における雑音の度合い評価の説明に供する表である。3 is a table provided for describing noise degree evaluation according to Embodiment 1 in FIG. 1. この発明による音声符号化及び音声復号化装置の実施の形態3の全体構成を示すブロック図である。It is a block diagram which shows the whole structure of Embodiment 3 of the audio coding and audio decoding apparatus by this invention. この発明による音声符号化及び音声復号化装置の実施の形態5の全体構成を示すブロック図である。It is a block diagram which shows the whole structure of Embodiment 5 of the audio coding and audio decoding apparatus by this invention. 図4の実施の形態5における重み付け決定処理の説明に供する略線図である。FIG. 15 is a schematic diagram used for describing a weight determination process according to the fifth embodiment of FIG. 4. 従来のCELP音声符号化復号化装置の全体構成を示すブロック図である。FIG. 11 is a block diagram illustrating the overall configuration of a conventional CELP speech encoding / decoding device. 従来の改良されたCELP音声符号化復号化装置の全体構成を示すブロック図である。FIG. 10 is a block diagram showing the overall configuration of a conventional improved CELP speech encoding / decoding device.

Claims (4)

ゲインの符号を含む音声符号を入力し、音声を合成する符号駆動線形予測(Code-Excited Linear Prediction:CELP)音声復号化装置において、
 上記ゲインの符号を入力し、入力したゲインの符号に応じて復号化区間における音声のゲインを復号化するゲイン復号化部と、
 上記ゲイン復号化部が復号化したゲインを用いて、上記復号化区間における音声の雑音性の度合いを評価する雑音度評価部と、
 複数の予め定められた駆動音源信号に対応する複数の時系列ベクトルを記憶する駆動符号帳と、
 上記雑音度評価部の評価結果に応じて上記駆動符号帳から出力された時系列ベクトルの雑音性の度合いを変化させる雑音度制御部と
を備えたことを特徴とする音声復号化装置。
In a code-driven linear prediction (CELP) speech decoding device that receives speech code including gain code and synthesizes speech,
A gain decoding unit that inputs the gain code and decodes the audio gain in the decoding section according to the input gain code,
Using the gain decoded by the gain decoding unit, a noise degree evaluation unit that evaluates the degree of noise of speech in the decoding section,
A drive codebook that stores a plurality of time-series vectors corresponding to a plurality of predetermined drive excitation signals,
A speech decoding device comprising: a noise level control unit that changes a degree of noise of a time-series vector output from the driving codebook according to an evaluation result of the noise level evaluation unit.
線形予測パラメータの符号と適応符号と駆動符号とゲインの符号とを含む音声符号を入力し、音声を合成する符号駆動線形予測(Code-Excited Linear Prediction:CELP)音声復号化装置において、
 過去の駆動音源信号を記憶し、適応符号を入力し、入力した適応符号に応じて過去の駆動音源信号に対応する時系列ベクトルを出力する適応符号帳と、
 複数の予め定められた駆動音源信号に対応する複数の時系列ベクトルを記憶し、駆動符号を入力し、入力した駆動符号に応じて駆動音源信号に対応する時系列ベクトルを出力する駆動符号帳と、
 ゲインの符号を入力し、入力したゲインの符号に応じて復号化区間における音声のゲインを復号化するゲイン復号化部と、
 上記ゲイン復号化部が復号化したゲインを入力し、入力したゲインを用いて上記復号化区間における音声の雑音性の度合いを評価する雑音度評価部と、
 上記雑音度評価部の評価結果と上記駆動符号帳から出力された時系列ベクトルとを入力し、上記雑音度評価部の評価結果に応じて上記駆動符号帳から出力された時系列ベクトルの雑音性の度合いを変化させる雑音度制御部と、
 上記適応符号帳から出力された時系列ベクトルと上記駆動符号帳から出力された時系列ベクトルと上記ゲイン復号化部が復号化したゲインとを入力し、上記適応符号帳から出力された時系列ベクトルと上記駆動符号帳から出力された時系列ベクトルとを上記ゲインを用いて重み付けし、上記ゲインを用いて重み付けした二つの時系列ベクトルを加算し、加算結果を出力する重み付け加算部と、
 上記線形予測パラメータの符号を入力し、入力した線形予測パラメータの符号から線形予測パラメータを復号化し、出力する線形予測パラメータ復号化部と、
 上記線形予測パラメータ復号化部から出力された線形予測パラメータと上記重み付け加算部から出力された加算結果とを入力し、上記線形予測パラメータと上記加算結果とを用いて音声を合成する合成フィルタと
を備えたことを特徴とする音声復号化装置。
In a code-driven linear prediction (CELP) speech decoding device that inputs a speech code including a code of a linear prediction parameter, an adaptive code, a drive code, and a gain code and synthesizes speech,
An adaptive codebook that stores a past driving excitation signal, inputs an adaptive code, and outputs a time-series vector corresponding to the past driving excitation signal according to the input adaptive code,
A drive codebook that stores a plurality of time-series vectors corresponding to a plurality of predetermined drive excitation signals, inputs a drive code, and outputs a time-series vector corresponding to the drive excitation signal according to the input drive code. ,
A gain decoding unit that inputs a gain code and decodes a gain of a voice in a decoding section according to the input gain code,
The gain decoding unit inputs the decoded gain, a noise degree evaluation unit that evaluates the degree of noise of the speech in the decoding section using the input gain,
The noise level evaluation unit and the time series vector output from the driving codebook are input, and the noise characteristics of the time series vector output from the driving codebook according to the evaluation result of the noise level evaluation unit are input. A noise level control unit for changing the degree of noise,
The time series vector output from the adaptive codebook, the time series vector output from the driving codebook, and the gain decoded by the gain decoding unit are input, and the time series vector output from the adaptive codebook is input. And a time-series vector output from the driving codebook are weighted using the gain, the two time-series vectors weighted using the gain are added, and a weighted addition unit that outputs an addition result,
A linear prediction parameter decoding unit that receives the sign of the linear prediction parameter, decodes the linear prediction parameter from the input sign of the linear prediction parameter, and outputs the linear prediction parameter;
A synthesis filter that inputs the linear prediction parameter output from the linear prediction parameter decoding unit and the addition result output from the weighting addition unit, and synthesizes a voice using the linear prediction parameter and the addition result. An audio decoding device, comprising:
ゲインの符号を含む音声符号を入力し、音声を合成する符号駆動線形予測(Code-Excited Linear Prediction:CELP)音声復号化方法において、
 上記ゲインの符号を入力し、入力したゲインの符号に応じて復号化区間における音声のゲインを復号化し、
 上記復号化したゲインを用いて、上記復号化区間における音声の雑音性の度合いを評価し、
 複数の予め定められた駆動音源信号に対応する複数の時系列ベクトルを駆動符号帳へ記憶し、
 評価結果に応じて上記駆動符号帳から出力された時系列ベクトルの雑音性の度合いを変化させることを特徴とする音声復号化方法。
In a code-driven linear prediction (CELP) speech decoding method for inputting a speech code including a gain code and synthesizing speech,
The above-mentioned gain code is input, and the voice gain in the decoding section is decoded according to the input gain code,
Using the decoded gain, evaluate the degree of noise of the speech in the decoding section,
A plurality of time-series vectors corresponding to a plurality of predetermined drive excitation signals are stored in the drive codebook,
A speech decoding method characterized by changing a degree of noise of a time-series vector output from the driving codebook according to an evaluation result.
線形予測パラメータの符号と適応符号と駆動符号とゲインの符号とを含む音声符号を入力し、音声を合成する符号駆動線形予測(Code-Excited Linear Prediction:CELP)音声復号化方法において、
 過去の駆動音源信号を記憶する適応符号帳へ適応符号を入力し、入力した適応符号に応じて過去の駆動音源信号に対応する時系列ベクトルを上記適応符号帳から出力し、
 複数の予め定められた駆動音源信号に対応する複数の時系列ベクトルを駆動符号帳へ記憶し、
 上記駆動符号帳へ駆動符号を入力し、入力した駆動符号に応じて駆動音源信号に対応する時系列ベクトルを上記駆動符号帳から出力し、
 ゲインの符号を入力し、入力したゲインの符号を用いて、復号化区間における音声のゲインを復号化し、
 復号化したゲインを入力し、入力したゲインを用いて上記復号化区間における音声の雑音性の度合いを評価し、
 評価結果と上記駆動符号帳から出力された時系列ベクトルとを入力し、上記評価結果に応じて上記駆動符号帳から出力された時系列ベクトルの雑音性の度合いを変化させ、
 上記適応符号帳から出力された時系列ベクトルと上記駆動符号帳から出力された時系列ベクトルと上記復号化したゲインとを入力し、上記適応符号帳から出力された時系列ベクトルと上記駆動符号帳から出力された時系列ベクトルとを上記ゲインを用いて重み付けし、上記ゲインを用いて重み付けした二つの時系列ベクトルを加算し、加算結果を出力し、
 上記線形予測パラメータの符号を入力し、入力した線形予測パラメータの符号から線形予測パラメータを復号化して出力し、
 出力された線形予測パラメータと上記出力された加算結果とを入力し、上記線形予測パラメータと上記加算結果とを用いて音声を合成することを特徴とする音声復号化方法。
In a code-driven linear prediction (CELP) speech decoding method for inputting a speech code including a code of a linear prediction parameter, an adaptive code, a drive code, and a gain code and synthesizing speech,
Input an adaptive code to the adaptive codebook that stores the past drive excitation signal, and output a time-series vector corresponding to the past drive excitation signal from the adaptive codebook according to the input adaptive code,
A plurality of time-series vectors corresponding to a plurality of predetermined drive excitation signals are stored in the drive codebook,
A drive code is input to the drive codebook, and a time-series vector corresponding to the drive excitation signal is output from the drive codebook according to the input drive code,
A gain code is input, and the gain of the audio in the decoding section is decoded using the input gain code,
Input the decoded gain, evaluate the degree of noise of the speech in the decoding section using the input gain,
The evaluation result and the time series vector output from the driving codebook are input, and the degree of noise of the time series vector output from the driving codebook is changed according to the evaluation result,
The time series vector output from the adaptive codebook, the time series vector output from the driving codebook and the decoded gain are input, and the time series vector output from the adaptive codebook and the driving codebook are input. Weighting the time series vector output from the above using the gain, adding the two time series vectors weighted using the gain, outputting the addition result,
Input the sign of the linear prediction parameter, decode and output the linear prediction parameter from the input sign of the linear prediction parameter,
A speech decoding method comprising: inputting the output linear prediction parameter and the output result, and synthesizing a speech using the linear prediction parameter and the addition result.
JP2003312063A 1997-12-24 2003-09-04 Audio decoding device and audio decoding method Expired - Lifetime JP3563400B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003312063A JP3563400B2 (en) 1997-12-24 2003-09-04 Audio decoding device and audio decoding method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP35475497 1997-12-24
JP2003312063A JP3563400B2 (en) 1997-12-24 2003-09-04 Audio decoding device and audio decoding method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2002202211A Division JP3736801B2 (en) 1997-12-24 2002-07-11 Speech decoding method and speech decoding apparatus

Publications (2)

Publication Number Publication Date
JP2004046232A true JP2004046232A (en) 2004-02-12
JP3563400B2 JP3563400B2 (en) 2004-09-08

Family

ID=31719167

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003312063A Expired - Lifetime JP3563400B2 (en) 1997-12-24 2003-09-04 Audio decoding device and audio decoding method

Country Status (1)

Country Link
JP (1) JP3563400B2 (en)

Also Published As

Publication number Publication date
JP3563400B2 (en) 2004-09-08

Similar Documents

Publication Publication Date Title
JP4916521B2 (en) Speech decoding method, speech encoding method, speech decoding apparatus, and speech encoding apparatus
JP3180762B2 (en) Audio encoding device and audio decoding device
JP3746067B2 (en) Speech decoding method and speech decoding apparatus
JP2002268686A (en) Voice coder and voice decoder
JP4800285B2 (en) Speech decoding method and speech decoding apparatus
JP4510977B2 (en) Speech encoding method and speech decoding method and apparatus
JP3319396B2 (en) Speech encoder and speech encoder / decoder
JP3563400B2 (en) Audio decoding device and audio decoding method
JP4170288B2 (en) Speech coding method and speech coding apparatus
JP3736801B2 (en) Speech decoding method and speech decoding apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20031210

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20031216

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20040119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040318

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20040512

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040601

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040602

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080611

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080611

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090611

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100611

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100611

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110611

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120611

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120611

Year of fee payment: 8

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120611

Year of fee payment: 8

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120611

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130611

Year of fee payment: 9

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term