JPS634300A - Voice encoding method and apparatus - Google Patents

Voice encoding method and apparatus

Info

Publication number
JPS634300A
JPS634300A JP61148579A JP14857986A JPS634300A JP S634300 A JPS634300 A JP S634300A JP 61148579 A JP61148579 A JP 61148579A JP 14857986 A JP14857986 A JP 14857986A JP S634300 A JPS634300 A JP S634300A
Authority
JP
Japan
Prior art keywords
sound source
parameter
pulse train
pitch
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP61148579A
Other languages
Japanese (ja)
Other versions
JP2508002B2 (en
Inventor
一範 小澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP61148579A priority Critical patent/JP2508002B2/en
Publication of JPS634300A publication Critical patent/JPS634300A/en
Application granted granted Critical
Publication of JP2508002B2 publication Critical patent/JP2508002B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は音声符号化方法とその装置に関し1%に音声信
号を4.8Kb/s(キロビット/抄)程匿の低ビ、ト
レイトの少な゛い演′X雪によって高品質符号化するた
めの音声符号化方法とその装置に関する。
[Detailed Description of the Invention] [Industrial Application Field] The present invention relates to a voice encoding method and an apparatus therefor, which can suppress audio signals by 1% to 4.8 Kb/s (kilobits/segment), have a low bit rate, and have few traits. The present invention relates to a speech encoding method and apparatus for high-quality encoding using high performance.

〔従来の技術〕[Conventional technology]

音声信号を、4.8Kb/s程度の低い伝送ピットレイ
トで高品質に符号化する方式としては、たとえば%願昭
59−272435(文献1)や%願昭6O−1789
11(文献2)等に記載されている如く、有声区間では
】フレームの音源信号を1つのピッチ区間(代表区間)
のパルス列で表現しこのパルス列を伝送する方法が知ら
れている。この方法によれば4.8Kb/s程度の低ビ
、トレイトでも自然性を損なわない良好な音質を得るこ
とができる。
Examples of methods for encoding audio signals with high quality at a low transmission pit rate of about 4.8 Kb/s include %Gan 59-272435 (Reference 1) and %Gan 6O-1789.
11 (Reference 2), etc., in a voiced section, the sound source signal of the frame is divided into one pitch section (representative section).
A method of expressing this pulse train as a pulse train and transmitting this pulse train is known. According to this method, it is possible to obtain good sound quality without impairing naturalness even with low Vibration and Trait of about 4.8 Kb/s.

第3図は有声区間における代表区間のパルス列を求める
従来方式の一例を示すパルス処理説明図である。第3図
において(a)は17レームの音声波形であ勺、(b)
はta)の音声波形をピッチ周期P’ dに対応するサ
ブフレームに分割した例であり、ピッチ周期P’ dと
第り番目のパルスglの位置を利用して1フレームをサ
ブフレーム区間に分割している。また(C)はサブフレ
ームごとにパルス列を求めた例で、さらにfd)は探索
して求めた代表区間とこの代表区間におけるパルス列の
例で代表区間としては■〜■のサブフレームのうち■が
該当する。この場合の代表区間は、フレーム全体で良好
な音声を再生できるようなサブフレーム区間を探索する
方法や絶対値の大きいパルスを含む区間を選択する方法
によって求めることができる。音源情報としては、この
ような代表区間の位置、すなわち第3図の場合にはサブ
フレーム■の位置とフレーム内罠おけるサブフレームの
開始点の時間情報Tとを伝送している。
FIG. 3 is an explanatory diagram of pulse processing showing an example of a conventional method for determining a pulse train of a representative section in a voiced section. In Figure 3, (a) is a 17-frame audio waveform, and (b) is a 17-frame audio waveform.
is an example in which the audio waveform of ta) is divided into subframes corresponding to the pitch period P' d, and one frame is divided into subframe sections using the pitch period P' d and the position of the th pulse gl. are doing. In addition, (C) is an example in which a pulse train is obtained for each subframe, and fd) is an example of the representative section found by searching and the pulse train in this representative section. Applicable. In this case, the representative section can be found by searching for a subframe section that can reproduce good audio over the entire frame or by selecting a section that includes pulses with large absolute values. As sound source information, the position of such a representative section, that is, the position of subframe (2) in the case of FIG. 3, and time information T of the start point of the subframe in the intra-frame trap are transmitted.

〔発明が解決しようとする問題点〕[Problem that the invention seeks to solve]

しかしながら上述した従来のこの種の方法では、パルス
列の探索や代表区間を捜すのに喪する演算量が多いうえ
代表区間の位置やフレーム内でのサブフレームの開始点
の情報などの補助情報が必妥であシ、従って机在市場に
出廻っている汎用のシグナルプロセッテなどを用いてハ
ードウェアを実現しようとした場合、咎に前者の理由に
より簡単な装置構成での実現が国難であるという欠点が
ある0 本発明の目的は上述した欠点を除去し、少ない演算量と
簡単な装置m成によって4. B Kb/s程健の低い
伝送とットレイトでも為品質な音声を合成しうる音声符
号化方法とその装置を提供すること(ある。
However, in this type of conventional method described above, a large amount of calculation is required to search for a pulse train or a representative section, and additionally, auxiliary information such as the position of the representative section and the starting point of a subframe within a frame is required. Therefore, if you try to implement hardware using a general-purpose signal processor etc. that is available on the desk market, the former reason would mean that it would be a national problem to implement it with a simple device configuration. 4. Disadvantages: 0. The purpose of the present invention is to eliminate the above-mentioned disadvantages, and to reduce the amount of calculations and simplify the configuration of the device. B. To provide a speech encoding method and apparatus capable of synthesizing high-quality speech even at low transmission and data rates of Kb/s.

〔問題点を解決するための手段〕[Means for solving problems]

不発明の音声符号化方法は、送信側では離散的な音声信
号を入力し前記音声信号から短時間スペクトル包絡を表
わすスペクトルパラメータとピッチを表わすピッチバフ
メータとを抽出してあらかじめ定めた時間区間に区切っ
た前記音声信号を表わすための音源情報を前記時間区間
をあらかじめ設定する複数に分割したうちの1つのピッ
チ区間のパルス列もしくは雑音とパルス列との組合せで
表視し前記音源信号を表わす情報と前記ピッチパラメー
タと前aaスペクトルパラメータとを組合せて出力し受
信側では前記ピッチパラメータと前記音源情報とくもと
づいて音源情報が前記パルス列の場合はこのパルス列を
もとにして駆動音源信号を復元し音源情報が前iピ雑音
とパルス列の組合せの場合は前記音源情報にもとづいて
駆動音源信号を復元して前記スペクトルパラメータとの
併用によシ音声信号を合成する手段を備えて構成される
The uninvented audio encoding method inputs a discrete audio signal on the transmitting side, extracts a spectral parameter representing a short-time spectrum envelope and a pitch buff meter representing a pitch from the audio signal, and encodes the data into a predetermined time interval. The sound source information representing the divided audio signal is displayed as a pulse train or a combination of noise and pulse train of one pitch interval of which the time interval is divided into a plurality of predetermined parts, and the information representing the sound source signal and the The pitch parameter and the front aa spectrum parameter are combined and output, and on the receiving side, based on the pitch parameter and the sound source information, if the sound source information is the pulse train, the driving sound source signal is restored based on this pulse train, and the sound source information is In the case of a combination of the front noise and the pulse train, the apparatus is configured to include means for restoring the drive sound source signal based on the sound source information and synthesizing the sound signal by using it in combination with the spectrum parameter.

また本発明の装置の音声符号化装置は、入力した音声信
号から短時間スペクトル包絡を表わすスペクトルパラメ
ータとピッチを表わすピッチパラメータとを抽出し符号
化するパラメータ計算回路と、あらかじめ定めた時間区
間に分割した前記音声信号と前記ピッチパラメータと前
記スペクトルパラメータとにもとづいて前記ピッチ区間
のパルス列もしくは雑音とパルス列との組合せを求めて
前6d音源情報を符号化する駆動信号計算回路と。
The audio encoding device of the device of the present invention also includes a parameter calculation circuit that extracts and encodes a spectral parameter representing a short-time spectrum envelope and a pitch parameter representing a pitch from an input audio signal, and divides the input audio signal into predetermined time intervals. a drive signal calculation circuit that calculates a pulse train in the pitch section or a combination of noise and a pulse train based on the voice signal, the pitch parameter, and the spectrum parameter, and encodes the previous 6d sound source information.

前記パラメータ計算回路の出力符号と前記駆動信号計算
回路の出力符号とを組合せて出力するマルチプレクサ回
路とを備えて構成される。
A multiplexer circuit that combines and outputs the output code of the parameter calculation circuit and the output code of the drive signal calculation circuit.

さらに本発明の装置の音声復号化装置は、ビ。Furthermore, the audio decoding device of the device of the present invention includes a video signal.

チパラメータを表わす符号とスペクトルパラメータを表
わす符号と音源情報を表わす符号とが組合わされてた符
号系列を入力し前記ピッチパラメータを表わす符号と前
記ピッチパラメータを表わす符号と前記音源情報を表わ
す符号とを分離して復号するデマルチプレクサ回路と、
前記復号されたピッチパラメータと前記復号された音源
情報にもとづいて前記ピッチ区間のパルス列が音(2@
情報のときはこのパルス列にもとづいて駆動音源信号を
復元し雑音とパルス列との組合せが音源情報のときはこ
の音源情報にもとづいてパルス列と雑音とを発生して駆
動音源を復元する駆動音源復元回路と、前記駆動音源信
号と前記復号されたスペクトルパラメータとにもとづき
音声信号を合成し出力する合成フィルタ回路とを備えて
構成される。
A code sequence in which a code representing a pitch parameter, a code representing a spectral parameter, and a code representing sound source information are combined is input, and the code representing the pitch parameter, the code representing the pitch parameter, and the code representing the sound source information are input. a demultiplexer circuit that separates and decodes;
Based on the decoded pitch parameter and the decoded sound source information, the pulse train in the pitch section is a sound (2@
A driving sound source restoration circuit that restores the driving sound source signal based on this pulse train when it is information, and generates a pulse train and noise based on this sound source information to restore the driving sound source when the combination of noise and pulse train is sound source information. and a synthesis filter circuit that synthesizes and outputs an audio signal based on the driving sound source signal and the decoded spectrum parameter.

〔実施例〕〔Example〕

次に図面を参照して本発明の詳細な説明する0第1(a
)図は本発明による音声符号化方法とその装置の送信側
の一実施例を示すプロ、り図、第1(b)図は本発明に
よる音角付号化方法とその装置の受信側の一実施例を示
すプロ、り図である。
Next, a detailed explanation of the present invention will be given with reference to the drawings.
) Figure 1(b) is a diagram showing an embodiment of the speech encoding method according to the present invention and the transmitting side of the apparatus, and Figure 1(b) is a diagram showing an embodiment of the speech encoding method according to the present invention and the receiving side of the apparatus. It is a professional diagram showing one example.

第1(a)図に示す送信側は、バッファメモり110 
The sending side shown in FIG. 1(a) has a buffer memory 110.
.

ピッチ分析回路130.にパラメータ計算回路140、
ピッチ符号化回路150.にパラメータ符号北回′kI
160.イ/パルス応答駐算回路170゜自己相関関数
計算回路180 e’ fiみ付は回′#!!200゜
ルナプレクサ260等を備えて構成され、また1−(b
)図に示す受信側は、デマルチプレクサ290゜復号回
′Mt300.雑音メモリ310.ピッチ復号回路32
0.にパラメータ復号回路330.駆動信号復元回路3
40.補間回路3359合成フィルタ回路350等を備
えて構成される。
Pitch analysis circuit 130. a parameter calculation circuit 140,
Pitch encoding circuit 150. The parameter sign north ′kI
160. i/Pulse response parking circuit 170° Autocorrelation function calculation circuit 180 e' fi fitting is times'#! ! 200° Lunaplexer 260, etc., and 1-(b
) The receiving side shown in the figure includes a demultiplexer 290° decoding circuit 'Mt300. Noise memory 310. Pitch decoding circuit 32
0. and a parameter decoding circuit 330. Drive signal restoration circuit 3
40. It is configured to include an interpolation circuit 3359, a synthesis filter circuit 350, and the like.

これら送信側および受信側によって行なわれる本発明の
基本的処理内容は久のとおりである0すなわち、本発明
は、有声区間では音声信号の周期性を利用してフレーム
内のあらかじめ定めたピッチ区間をそのフレームを代表
する代表区間としてこのピッチ区間のパルス列を用いて
音源信号を表わし、無声区間ではパルス列と雑音との組
合わせによって音源信号を表わす。この場合、有声区間
では代表区間の位置をあらかじめ定めておきその区間に
ついてのみパルス列を求めることによυパルス探索や代
表区間の探索に資する演算菫を大幅に1な6スしている
。また、代表区間の位置を示す情報やフレーム内のサブ
フレームの開始点な表わす情報などの補助情報が不安と
なり、この分パルス列に付与すべき情報を増大すること
ができ、少ない演算鴛で高品質の音声を再生することが
でき、コ/バクトな装置構成で・・−ドウエアの実机を
はかるものである。
The basic processing contents of the present invention performed by the transmitting side and the receiving side are as described above.In other words, the present invention utilizes the periodicity of the audio signal to adjust the predetermined pitch interval within the frame during the voiced interval. The pulse train in this pitch interval is used as a representative interval representing the frame to represent the sound source signal, and in the unvoiced interval, the sound source signal is represented by a combination of the pulse train and noise. In this case, in the voiced section, the position of the representative section is determined in advance and the pulse train is determined only for that section, thereby greatly reducing the number of computations that contribute to the υ pulse search and the search for the representative section. In addition, since auxiliary information such as information indicating the position of a representative section or information indicating the start point of a subframe within a frame becomes insecure, it is possible to increase the amount of information to be added to the pulse train, resulting in high quality with fewer calculations. It is possible to reproduce the sound of the computer, and with a compact device configuration, it is an actual machine of Doware.

パルス列の振鳴と位置とを求める方法としては、前記文
献fl)、 (2)に記載の方法のほかに、たとえばア
ナリ7スーバイーシンセシス(ANALYSIS−by
 −8YNTHE8I8:A−b−8)  の手法を用
いる方法が知られており、その件細についてはビー・ニ
スφアタル(B −5−ATAL)らによる1ア ニュ
ー モデル オプ エルピーシーエクサイテイショ/ 
フォー グロデューシ/グナチュラル サク/ディノグ
 スピーチ ア、トロク ビットレイツー (A  N
EW  MOL)ELOFLPCEXCITATION
  P(JB  PルUDUC−ING  NATUI
(、AL  80UNDINGSPEEC)IAT  
L(、JW  BIT  RATES)と題した論文(
PROC,i、C,A、8.S、P+、pp  614
〜617.1982)(文献3)等に詳述されている0 一刀、無音区間においてパルス列と雑音との組合せによ
る音源の求め刀は、前記(文献2)の方法に詳述δれて
いる0 さて、第1(a)図において、音声信号X(n)が入力
端子100を介して入力され、あらかじめ設定されたす
/プル数ずつバッファメモリ110に蓄積される。
As a method for determining the vibration and position of a pulse train, in addition to the method described in the above-mentioned document fl), (2), for example, ANALYSIS-by-Synthesis (ANALYSIS-by-Synthesis) is used.
-8YNTHE8I8:A-b-8) is known, and its details are described in 1A New Model Op LPC Excitement by B-5-ATAL et al.
Four Grodusi/Gnatural Saku/Dinog Speech A, Trok Bitley Two (A N
EW MOL)ELOFLPCEXCITATION
P (JB PruUDUC-ING NATUI
(,AL 80UNDINGSPEEC)IAT
A paper entitled L (, JW BIT RATES) (
PROC,i,C,A,8. S, P+, pp 614
~617.1982) (Reference 3) etc., and the method of finding the sound source by combining a pulse train and noise in a silent interval is described in detail in the method of (Reference 2). Now, in FIG. 1(a), the audio signal X(n) is input through the input terminal 100, and is stored in the buffer memory 110 by a preset number of pulls/pulls.

K /<ラメータ計算回路140は、バッファメモリ1
】0からあらかじめ設定したサンプル数ずつ音声信号を
入力し音声信号のスペクトル包絡を表わすにパラメータ
を計算する。このにパラメータはPA几CO凡(偏自己
相関)係数である0このにパラメータの計算法としては
自己相関法がよく知られており、七の詳細はジ、ノ マ
コール (John  MAKHOUL )らによる1
クオ7タイゼイシW/ グロバティズ オプ トラ7ス
ミ、ショ/ パラメータズ イ/ リニア グリディク
ティフシステムス(QUANTIZATIONPROP
ERTIES  OF  TRANSMI8SIONP
ARAMETER8IN  LINE几 PREDIC
−TIVE  8YSTEMS)と題した論文(IEE
ETRAN8.A、S、S、P、pp  309〜32
1゜1983)(文献4)寺に詳述されている。ふたた
び第1(a)図に戻って実施例の説明を続行する。
K /< The parameter calculation circuit 140 has a buffer memory 1
] An audio signal is input in units of a preset number of samples starting from 0, and parameters representing the spectral envelope of the audio signal are calculated. The autocorrelation method is a well-known method for calculating this parameter, which is the partial autocorrelation coefficient.
QUANTIZATION PROP
ERTIES OF TRANSMI8SIONP
ARAMETER8IN LINE PREDIC
- TIVE 8YSTEMS) (IEE
ETRAN8. A, S, S, P, pp 309-32
1゜1983) (Reference 4) Temple. Returning again to FIG. 1(a), the description of the embodiment will be continued.

K ハフメータ計算回路140から出力されるi次のに
パラメータにロzKパラメータ符号化回路】60に出力
されあらかじめ設定した量子化と。
K The i-th parameter outputted from the Huff meter calculation circuit 140 is outputted to the zK parameter encoding circuit 60 and quantized in advance.

ト数にもとづいて符号化され符号JKiとしてマルチグ
レクt260に出力される。またにパラメータ符号化回
路160はlKiを一旦復号化して得たにパラメータ復
号化Kiを利用しこれから線形予測係数値a′iを得て
これをインパルス応答計算回路170と重み付は回路2
00に出力する0ピ、チ分析回路130は、バッファメ
モ9回路110の出力を用いてピッチ周期P’ d を
計算するOP′d の計算法は、たとえば、アール ブ
イコックス(a、v、cox)らによる1リアルタイム
 イングリメノティショ7 オプ タイムドメイン ハ
ーモニ、り スケイリング オプスピーチ−(REAL
−TIME  IMPLEMEN−TATION  O
F  TIME  l)OMAIN  HAI(、−M
(JNIC5CALING  OF  5PEECH5
−IGNALS)と題した一文(IEEE  TRAN
S、A、S、S、P6.pp、258〜272.198
3)(文献5)等に述べられている方法を用いることが
できる。この場合、ピッチ絢期離れた位置の自己相関係
数を用いてフレームの音声信号が有声か無声化を判別す
る。もし無声の場合はピッチ周期を0とする。
The encoded signal is encoded based on the number of signals and outputted to the multi-grain t260 as a code JKi. Furthermore, the parameter encoding circuit 160 once decodes lKi and uses the parameter decoding Ki obtained from it to obtain a linear prediction coefficient value a'i, which is sent to the impulse response calculation circuit 170 and the weighting circuit 2.
The 0 pitch, chi analysis circuit 130 that outputs 0 to 0 calculates the pitch period P' d using the output of the buffer memo 9 circuit 110. 1 Real Time Ingrimenotice 7 Op Time Domain Harmony, Ri Scaling Op Speech (REAL
-TIME IMPLEMEN-TATION O
F TIME l)OMAIN HAI(, -M
(JNIC5CALING OF 5PEECH5
-IGNALS) (IEEE TRAN)
S, A, S, S, P6. pp, 258-272.198
3) (Reference 5) and the like can be used. In this case, it is determined whether the audio signal of the frame is voiced or unvoiced using an autocorrelation coefficient at a position far away from the pitch. If there is no voice, the pitch period is set to 0.

ピッチ符号化回路150は、ピッチ周期P’dをあらか
じめ定められた量子化ビット数で重子化符号化し、符号
1dとしてマルチブレフサ260へ出力する。このとき
、無声の場合は0に対応する符号を出力する。また復号
化して得たP’dを駆動信号計算回路220へ出力する
0 インパルス応答計算回路170は、Kパラメータ符号化
回路160から予測係数旭a’iを入力し、lみすけさ
れた合成フィルタの伝達関数を表わすインパルス応答h
w(n)を計算する。ここで、hw(n) (7:) 
it W K it 、別えは日本国出龜荷ff1%績
昭59−042305”(文献6)の第4図fa)に記
載のインパルス応答Pttn回路210と同一の方法を
用いることができる。インパルス応答hw(n)は、自
己相関関数計算回路180と相互相圓関数訂鼻回路21
0に出力される。
The pitch encoding circuit 150 performs multiplex encoding on the pitch period P'd using a predetermined number of quantization bits, and outputs it to the multi-blephr 260 as a code 1d. At this time, if there is no voice, a code corresponding to 0 is output. In addition, the impulse response calculation circuit 170 that outputs the decoded P'd to the drive signal calculation circuit 220 inputs the prediction coefficient Asahi a'i from the K parameter encoding circuit 160 and inputs the prediction coefficient Asahi a'i from the K parameter encoding circuit 160, and outputs the P'd obtained by decoding to the drive signal calculation circuit 220. The impulse response h representing the transfer function of
Calculate w(n). Here, hw(n) (7:)
Apart from that, the same method as the impulse response Pttn circuit 210 described in FIG. The response hw(n) is calculated by the autocorrelation function calculation circuit 180 and the mutual correlation function correction circuit 21.
Output to 0.

自己相関関数計算回路180は、イノパルス応答計算回
路170からインパルス応答hw(n)を入力し、自己
相関係数几hh−を計算して柩動信号酊算回1%220
へ出力する。ここでRhh−の計算には飼えば前ムd(
文献6)にad載の自己相関関数計算回路180と同一
の方法を用いることができる0 重み付は回路200は、フレームのサンプル数だけx 
(n)を入力し、またにパラメータ符号化回路160か
ら予測係数a′iを入力し、xtn)に対しlみずけを
施して求めたxw(n)を出力する。この計算には、例
えば前記文献6の第4図(a)に記載の重み付は回路4
10と同一の方法を用いることができる0 駆動信号計算回路220では、まずピッチ周期P’dを
用い−Cフレームが有声か無声かを判別する。
The autocorrelation function calculation circuit 180 inputs the impulse response hw(n) from the innopulse response calculation circuit 170, calculates the autocorrelation coefficient 几hh-, and calculates the rectangular signal fluctuation calculation time 1%220.
Output to. Here, to calculate Rhh-, if you keep it,
The same method as the autocorrelation function calculation circuit 180 described in document 6) can be used.0 The weighting circuit 200 calculates
(n), the prediction coefficient a'i from the parameter encoding circuit 160 is input, xtn) is multiplied by l, and the obtained xw(n) is output. For this calculation, for example, the weighting described in FIG.
The drive signal calculation circuit 220 first uses the pitch period P'd to determine whether the -C frame is voiced or unvoiced.

そして音声信号を表わす音源信号として、 7ffP。And as a sound source signal representing an audio signal, 7ffP.

フレームでは、あらかじめ定められたピッチ区間(代表
区間)におけるパルス列を計算する〇−刀、無声のフレ
ームでは、パルス列と雑音の組合わせによる音源信号を
計算する。
In a frame, a pulse train in a predetermined pitch interval (representative interval) is calculated, and in a silent frame, a sound source signal is calculated by a combination of a pulse train and noise.

第2図は第1(a)図における有声のフレームでの代表
区間とその区間内パルス列の求め刀を示すパルス処理説
明図である。(a)は】フレームの音声波形を示す。ま
ず最初に、分割サブフレーム(b)に示すようにフレー
ムをピッチ周期P’dごとのサブフレームに分割する。
FIG. 2 is an explanatory diagram of pulse processing showing a representative section in a voiced frame in FIG. 1(a) and how to obtain a pulse train within the section. (a) shows the audio waveform of the frame. First, the frame is divided into subframes each having a pitch period P'd, as shown in divided subframes (b).

この分割には、1つ前のフレーム(Nl−1)の最慄の
ナプフレーム分mJ AT Sを記憶しておき、この点
をP’dだけずらしながらサブフレーム分割をすること
ができる。1つ前のフレームが無声のはあいは、例えば
フレームの左端の点からサブフレーム分割する方法や信
号の立ち上がり点を求めて分割する方法など、池の艮好
な′73fi:を用いることかでざる。次に代表区間の
パルス列(C)に示すように、あらかじめ定められたピ
ッチ区間に対して、あらかじめ定められた個数のパルス
列を計算する。ここではフレームのほぼ中央のサブフレ
ーム区間を代表区間としている(図ではサブフレーム区
間■)が、他の良好な方法を用いることもできる。代表
区間でのパルス列の計算には、サブフレーム境界でパル
スが隣接して求まることを防ぎ能率良くパルスを求める
ために次のように行なう。まずとのサブフレーム区間の
両@KLサンプル追加した(P’d+2L)?ノプルに
ついて((b)のNcの区間)相互相関関数Rhx(ホ
)を計算する。ここでLは自己相関関数計算回路180
で求めた自己相@圓数ahh(ホ)の最大遅延時間を示
す。几hx(至)、Rhh(ホ)の計算には前記(文献
6)の第1図(a)の相互相関関数計算回路210、自
己相関関数計算回路180での計算法を参照することが
できる。Rhx(ホ)と几hh−を用いてパルス列の探
索を行ない、代表区間にあらかじめ定められた個数のパ
ルス列を求める。パルス探索には前記(文献2)の第1
図(a)の駆動信号計算回路220に記載のパルス探索
法を参照することができる。このようにして求めた代表
区間のバき、代表区間の分割の仕方によっては、大撤暢
のパルスが削れてしまう恐れがあるので、代表区間もよ
い。
For this division, the worst nap frame mJ AT S of the previous frame (Nl-1) is stored, and subframe division can be performed by shifting this point by P'd. If the previous frame is silent, you can use Ike's excellent '73fi: method, such as dividing the frame into subframes from the leftmost point or dividing by finding the rising point of the signal. Colander. Next, as shown in pulse train (C) of representative section, a predetermined number of pulse trains are calculated for a predetermined pitch section. Here, the subframe section approximately in the center of the frame is used as the representative section (subframe section ■ in the figure), but other suitable methods may also be used. The calculation of the pulse train in the representative section is performed as follows in order to prevent pulses from being found adjacent to each other at subframe boundaries and to efficiently find the pulses. First, did you add both @KL samples in the subframe section (P'd+2L)? Calculate the cross-correlation function Rhx (e) for the nozzle (in the section of Nc in (b)). Here, L is the autocorrelation function calculation circuit 180
Indicates the maximum delay time of the self-phase@field number ahh (e) obtained by. For calculation of 几hx (to) and Rhh (e), the calculation method in the cross-correlation function calculation circuit 210 and autocorrelation function calculation circuit 180 in FIG. 1(a) of the above-mentioned (Reference 6) can be referred to. . A pulse train search is performed using Rhx(e) and 几hh-, and a predetermined number of pulse trains are found in the representative section. For pulse search, the first method of the above (Reference 2) is used.
The pulse search method described in the drive signal calculation circuit 220 in Figure (a) can be referred to. Depending on the size of the representative section obtained in this way and the way the representative section is divided, there is a risk that the pulse of the great cancellation may be lost, so the representative section is also good.

一方、無声7レームではパルス列と雑音の組み合わせで
音源信号を求める。これ(は、前述の(文献2)等に記
述の方法を参照することができる。
On the other hand, in the unvoiced 7 frames, the sound source signal is determined by a combination of a pulse train and noise. For this, the method described in the above-mentioned (Reference 2) can be referred to.

またこの方法以外にも、フレームを一定区間毎のいくつ
かのサブフレーム(分割し、このウチの1つの区間に対
してのみパルス列を求め、残シのサブフレーム区間では
音源信号を雑音で表わすようニシテモヨい。パルス列を
求めるサブフレーム区間は、原音声信号や原音声信号を
予測した予測残差信号の勢力の大きなサブフレーム区間
を選ぶようにすることができる。
In addition to this method, it is also possible to divide the frame into several subframes (each of a certain section), obtain the pulse train for only one section, and represent the sound source signal with noise in the remaining subframe sections. The subframe section for obtaining the pulse train can be selected from a subframe section in which the original audio signal or the prediction residual signal predicted from the original audio signal has a large influence.

符号化回路230は、パルス列が入力された場合にはパ
ルス列の振幅、位置を符号化し、これらの符号ヲマルチ
プレクテ260へ出力する。
When a pulse train is input, the encoding circuit 230 encodes the amplitude and position of the pulse train, and outputs these codes to the multiplexer 260.

ス列の符号化法には、例えば前記(文献6)に記載の符
号化回路230と同一の77云を用いることができる。
For example, the same 77-coding method as the encoding circuit 230 described in Document 6 can be used as the encoding method for the sequence.

パルス列と雑音の情報が入力された場合には、パルス列
に対しては上述の方法と同じ方法を用いて符号化し、雑
音に対しては、像幅、位相をあらかじめ定められたビッ
ト数で符号化して符号をマルチブレフサへ出力する。
When pulse train and noise information is input, the pulse train is encoded using the same method as described above, and the noise is encoded using a predetermined number of bits for image width and phase. and outputs the code to the multi-blefsa.

マルチブレクチ回路260は、Kパラメータ符号化回路
】60の符号Jkiとピッチ符号化回路150の符号l
dと符号化回路230の符号を入力し、これらを組合せ
て送信側出力端子270から出力する。
The multi-branch circuit 260 is a K-parameter encoding circuit]60 code Jki and a pitch encoding circuit 150 code l.
d and the code of the encoding circuit 230 are input, and these are combined and output from the transmission side output terminal 270.

以上で本発明罠よる音声符号化方法の送信側の説明を終
了する。
This concludes the explanation of the transmission side of the speech encoding method according to the present invention.

次に、本発明による音声符号化方法の受信側の病成につ
いて、第1(b)図を参照して説明する。
Next, the pathology on the receiving side of the speech encoding method according to the present invention will be explained with reference to FIG. 1(b).

デマルチプレクサ290は、受信側入力端子280から
入力した符号のうち、Kパラメータを表わす符号と、ピ
ッチ周期を表わす符号と、音源情報を表わす符号とを分
離して、それぞれにパラメータ復号回路330、ピッチ
復号回路320゜復号回路300へ出力する。
The demultiplexer 290 separates the code representing the K parameter, the code representing the pitch period, and the code representing the sound source information from among the codes inputted from the receiving side input terminal 280, and separates the code into a code representing the K parameter, a code representing the pitch period, and a code representing the sound source information. The decoding circuit 320° outputs to the decoding circuit 300.

Kパラメータ復号回路330は、Kパラメータを復号し
て後号値に′iを補間回路335へ出力する0 ピッチ後号回路320は、ピッチ周期P’dを復号して
、駆動信号復元回路340および補間回路335へ出力
する。
The K-parameter decoding circuit 330 decodes the K-parameter and outputs the post-coded value 'i to the interpolation circuit 335. The pitch post-coding circuit 320 decodes the pitch period P'd and outputs the post-coded value 'i' to the interpolation circuit 335. It is output to the interpolation circuit 335.

復号回路300は音源情報を復号し、駆動信号復元回路
340へ出力する。
The decoding circuit 300 decodes the sound source information and outputs it to the drive signal restoration circuit 340.

駆動信号復元回路340は、ピッチ周期復号値P’dを
用いて、これがO以外の値であれば、有声フレームであ
って音源としてパルス列が利用できると判別して、送信
側の駆動信号計算回路220と同じ75法を用いてフレ
ームをピッチ周期P’dごとのサブフレームに分割する
0そうしてフレーム内のあらかじめ定めた代表区間の位
置で表わされるサブフレーム区間に対して、受信したパ
ルス情報を用いてパルス列を発生させる。次に、代表区
1司のパルス列と隣接フレームのバルスタリを用イてパ
ルス列を補間して1フレームの音源パルス列を発生させ
駆動音源信号を復元し、合成フィルタ回路350へ出力
する。
The drive signal restoration circuit 340 uses the pitch period decoded value P'd, and if it is a value other than O, determines that it is a voiced frame and a pulse train can be used as a sound source, and converts it to the drive signal calculation circuit on the transmission side. Divide the frame into subframes for each pitch period P'd using the same 75 method as in 220. Then, the received pulse information is divided into subframes for each subframe section represented by the position of a predetermined representative section within the frame. generate a pulse train using Next, the pulse train is interpolated using the pulse train of the first representative section and the pulse string of the adjacent frame to generate a sound source pulse train of one frame, restore the drive sound source signal, and output it to the synthesis filter circuit 350.

この補間法には前記(文献6)に記載の駆動信号復元回
路340と則し方法を用いることができる。
For this interpolation method, a method similar to the drive signal restoration circuit 340 described in the above (Reference 6) can be used.

−刀、パルス列と雑音の組み合わせが音源として用いら
れる場合は、前記(文献2)に記載の駆動信号復元回路
340と同じ処理を施して駆動電源信号を求め合成フィ
ルタ回路350へ出力する。
- When a combination of a sword, a pulse train, and noise is used as a sound source, the same processing as the drive signal restoration circuit 340 described in (Reference 2) is performed to obtain a drive power signal and output it to the synthesis filter circuit 350.

補間回路335は、復号されたにパラメータをピッチ周
期ごとに補間し、補間されたにパラメータを合成フィル
タ回路350へ出力する。
The interpolation circuit 335 interpolates the decoded parameters for each pitch period, and outputs the interpolated parameters to the synthesis filter circuit 350.

合成フィルタ回路350は、駆動音源信号、補間された
にパラメータを入力し、送信側の合成フィルタ回路25
0と同一の動作をして1フレ一ム分の合成音声信号X(
n)を計算し受信側出力端子360かも出力する。
The synthesis filter circuit 350 inputs the driving sound source signal and the interpolated parameters, and sends the signal to the synthesis filter circuit 25 on the transmission side.
The synthesized audio signal X (
n) is calculated and outputted from the receiving side output terminal 360 as well.

以上で本発明による旨声符号化方法の受(!$111の
説明をおえる。
This concludes the explanation of the voice encoding method according to the present invention (!$111).

上述した実施例はあくまで本発明の一実施例に過ぎずそ
の変形例も檀櫨考見られる。
The embodiment described above is merely one embodiment of the present invention, and modifications thereof are also contemplated.

たとえば、駆動信号計算回路220においては、無声区
間での榛々の音声を良好に表わすとともに、無声区間と
有声区間との闇で良好な遷移を実現するために、音源を
パルス列と雑音の組み合せで表わす場合に、パルス列と
雑音の組み合せとして、パルス数をO(つまり雑音のみ
)から数個まで適応的にかえるようにしてもよい。この
ようにした場合はパルス数を表わすt*報を伝送する必
要がある(例えばフレームあたり2ビ、ト程度)0また
、パルス列の計n法としては、本実施例でのべた方法の
他に、拙々の方法を用いることができる。例えばパルス
を1つ求めるごとに過去に求めたパルスの振幅を副搬す
る方法を用いることができる。この方法の詳細について
は小野その他による゛マルチパルス駆動型音声符号化法
における音源パルス係累法の検討”と題した論文(日本
音響学会gI■論文集]57.1983)(文献7)等
を参照することができる。
For example, the drive signal calculation circuit 220 uses a combination of a pulse train and noise as a sound source in order to better represent the voice of Haruna in the unvoiced section and to achieve a good transition between the unvoiced section and the voiced section. When representing a combination of a pulse train and noise, the number of pulses may be adaptively changed from 0 (that is, only noise) to several. In this case, it is necessary to transmit t* information representing the number of pulses (for example, about 2 bits per frame). In addition, as the n method for counting the pulse train, there are other methods other than the method described in this example. , you can use my unsophisticated method. For example, a method may be used in which the amplitude of a previously determined pulse is propagated each time one pulse is determined. For details of this method, see the paper entitled ``Study of source pulse accumulation method in multi-pulse-driven speech coding method'' by Ono et al. (Acoustical Society of Japan gI Volume 57, 1983) (Reference 7), etc. can do.

また、雑音源を計算する別な方法としては、例えば、サ
ブフレーム毎に雑音信号を発生させ、雑音信号から合成
した信号とサブフレーム区間の音声信号との誤差電力を
最小化するような雑音を選択する方法が知られている。
Another method for calculating the noise source is, for example, to generate a noise signal for each subframe, and to generate noise that minimizes the error power between the signal synthesized from the noise signal and the audio signal in the subframe section. The method of selection is known.

この方法の詳細については、ビー ニス アタル(B、
S、ATAL)らによる1ストキヤステイツク コーデ
ィングオプ スピーチ シグナルズ アット ベリイロ
ウ ビット レイン”(5TOCH13TICCODI
NG  OF  5PEECH5IGNALSAT  
VERY  LOW  BIT  R,ATES)と題
した論文(PR,QCl、ICC84,pp、1610
〜1613.1984)(文献8)等を参照することが
できる。また、他の方法としては、音声信号を予測した
予測残差信号から雑音源の振幅と位相を求める方法が知
られている0この方法は音声信号を合成しなくてもよい
ので演14−菫を低減することはできるが品質は劣化す
る0この方法の詳細については犬山による1残差を雑音
でモデル化した駆動音源による線形予測分析合成方式”
と題した論文(日本音響学会講演論文集、昭和59年1
0月165−166)(文献9)を参照することができ
る。
For more information on this method, please refer to Beenis Atal (B.
``1 Stroke Stuck Coding Op Speech Signals at Very Low Bit Rain'' (5TOCH13TICCODI) by S, ATAL) et al.
NG OF 5PEECH5IGNALSAT
VERY LOW BIT R, ATES) (PR, QCl, ICC84, pp, 1610
~1613.1984) (Reference 8). Another known method is to obtain the amplitude and phase of the noise source from the prediction residual signal obtained by predicting the speech signal. This method does not require synthesis of the speech signal, so can be reduced, but the quality will deteriorate.For details on this method, see Inuyama's 1Linear predictive analysis synthesis method using a driving sound source in which the residual is modeled with noise.
A paper entitled (Proceedings of the Acoustical Society of Japan, 1981)
165-166) (Reference 9).

またパルス列を求めるときに、Kパラメータの値はフレ
ーム内で一定(つまシ合成フィルタの特性がフレーム内
で変化しない)としていたが、Kパラメータの値をサブ
フレーム毎になめらかに変化δせながらパルスを求めて
もよい。具体的には、Kパラメータの値を前後のフレー
ムのにパラメータの値を用いてサブフレーム毎に補間し
、この値を予測係数に変換して、重み付は回路200、
イアパルス応答計算回路170に出力し、代表区間のイ
ノパルス応答を用いて相互相関関数、自己相関関数を計
算してパルス列を求める。このようにしたほうが時間的
に滑らかなスペクトル変化が得られ、品質のより高い音
声を合成できる。
In addition, when calculating the pulse train, the value of the K parameter was assumed to be constant within a frame (the characteristics of the filter synthesis filter do not change within a frame), but while the value of the K parameter was smoothly changed δ for each subframe, You may also ask for Specifically, the value of the K parameter is interpolated for each subframe using the parameter values of the previous and subsequent frames, this value is converted into a prediction coefficient, and the weighting is performed by the circuit 200.
The signal is output to the ear pulse response calculation circuit 170, and a cross-correlation function and an autocorrelation function are calculated using the ear pulse response of the representative section to obtain a pulse train. In this way, temporally smoother spectrum changes can be obtained, and higher quality speech can be synthesized.

また、パルス列及びにパラメータの補間は、代表的など
、チ区閤を基準としてピッチ周期に同期させて補間して
もよいし、あらかじめ定められたピッチ区間(例えば、
フレームの中央付近のビ。
In addition, the interpolation of the pulse train and the parameters may be performed in synchronization with the pitch period based on the typical pitch period, or may be interpolated in synchronization with the pitch period in a predetermined pitch period (for example,
Bi near the center of the frame.

チ区間)を基準として補間を施してもよい。Interpolation may be performed based on the

また、ピッチ周期についてもにパラメータと同様な処理
を施すこともできる。
Further, the pitch period can also be subjected to the same processing as the parameters.

これらのパラメータの補間法シス、直線補間以外の方法
も考えられる。例えば、パルス列やピッチ周期について
は、対数補間等も考えられる0また、合成フィルタのパ
ラメータの補間は、たとえば、線形予641J保数(た
だし、この場合はフィルタの安定性をチエ、りする心安
がある)、対数断面積関数、フォルマットパラメータや
自己相関関数を補間する方法等を用いることもできる。
Methods of interpolating these parameters other than linear interpolation may also be considered. For example, for pulse trains and pitch periods, logarithmic interpolation etc. can be considered.Also, interpolation of parameters of a synthesis filter can be performed using, for example, a linear pre- 641 ), a method of interpolating a logarithmic cross section function, a format parameter, an autocorrelation function, etc. can also be used.

これらの具体的な方法は、ビー ニス アクル(B、S
These specific methods are
.

ATAL)らKよる1スピーチ アナリシス ア7ド 
シ7セ7ス バイ リニアー プリディクンョ7 オグ
 ザ スピーチ ウェイグー(SP−EECHANAL
YSIS  AND  5YNTHE  −5Is  
BY  LINEIL  PREDIC’l”l0NO
F  THE  5PEECHWAVE)と111i1
.た論文(J、ACOUST、SOC,AM、、p、9
.637−655.1971)(文献10)等を参照す
ることができる。
1 speech analysis by K ATAL) et al.
Shi7se7su By Linear Pridi Kunyo 7 Og The Speech Waygu (SP-EECHANAL
YSIS AND 5YNTHE-5Is
BY LINEIL PREDIC'l0NO
F THE 5PEECHWAVE) and 111i1
.. paper (J, ACOUST, SOC, AM, p. 9)
.. 637-655.1971) (Reference 10).

さら罠代表ピッチ区き」の選択法としては、他の方法を
用いることもできる。
Other methods can also be used to select the Saratra representative pitch section.

本冥厖例では、フレーム長は一定としてにパラメータの
分析および音源パルス列の計算をしたが、フレーム長を
;可変とし曵もよい。このようにした場合には、音声の
変化部では、フレーム長を短くし、定常部で;まフレー
ム長を長くできるので、伝送ビットレイトを低減するこ
とができる。
In this example, the parameters were analyzed and the sound source pulse train was calculated assuming that the frame length was constant, but it is also possible to make the frame length variable. In this case, the frame length can be shortened in the voice changing portion and lengthened in the constant portion, so that the transmission bit rate can be reduced.

なお、ディジタル信号処理の分yrでよく知られている
ように、自己相関関数はパワスペクトルから訂鼻するこ
ともできる。また、相互相関関数はりoスパワスベクト
ルから計算することもできる。
Note that, as is well known in digital signal processing, the autocorrelation function can also be corrected from the power spectrum. Moreover, the cross-correlation function can also be calculated from the spatial vector.

これらの対応開法については、ニー ブイ オツペノハ
イム(A、■、υPPENHEIM)らによる1ディジ
タル信号処理””DIGITAL  8IG−NAL 
 PROCESSING”と題した単行本(文献1])
寺の第8章にて詳細に説明されているので、ここでは説
明を省略する。
Regarding these corresponding methods, please refer to the 1 digital signal processing “DIGITAL 8IG-NAL” by Nie Bui Otspenheim (A, ■, υPPENHEIM) et al.
A book titled “PROCESSING” (Reference 1])
It is explained in detail in Chapter 8 of the temple, so I will omit the explanation here.

以上はすべて本発明の趣旨を損なうことなく、いずれも
容易に実施できるものである。
All of the above can be easily implemented without detracting from the spirit of the present invention.

(発明の効果) 以上述べたように本発明によれば、音源信号として、有
声区間では音声信号の周期性を第1」用しあらかじめ定
められたピッチ区間についてパルス列を探索し、これを
用い曵1フレームの音源信号を表わしているので、パル
ス探索や代表区間の探索に螢する演μ量を大幅に低減す
ることができる。
(Effects of the Invention) As described above, according to the present invention, a pulse train is searched for a predetermined pitch interval using the periodicity of the audio signal as the sound source signal in the voiced interval, Since the sound source signal of one frame is represented, the amount of calculation required for pulse search and representative section search can be significantly reduced.

また、代表区間の位置やフレーム内のサブフレームの開
始点を表わすための補助情報を送る心安がないのでその
分パルス列に情報を割り当てることができる。したがっ
て少ない演算−で低いビットレートでも非常に高品負な
音声を合成でき、ハード化が極めて容易であるという効
果がある。
Furthermore, since there is no need to worry about sending auxiliary information to indicate the position of a representative section or the starting point of a subframe within a frame, it is possible to allocate information to the pulse train accordingly. Therefore, very high-quality speech can be synthesized even at a low bit rate with a small number of calculations, and it has the advantage of being extremely easy to implement in hardware.

−力、無声区間ではパルス列と雑音の組み合わせによシ
音源信号を表わしているため、糧々の子音波形や過渡的
な音7j11波形でも極めて良好に表現することができ
るという効果がある0まだ、有声、無声の判別を過まり
た場合でも音質の劣化が著しく少なくなるという効果も
ある。
- In the silent section, the sound source signal is represented by a combination of pulse train and noise, so even the consonant waveforms and transient sound waveforms can be expressed extremely well. There is also the effect that the deterioration in sound quality is significantly reduced even if the voiced/unvoiced sound is not discriminated.

【図面の簡単な説明】[Brief explanation of drawings]

第1(a)図は本発明くよる音声符号化方法とその装置
の送信側の一実施例の酵成を示すプロ、り図、第1(b
)図は本発明による音声符号化方法とその装置の受信側
の一実施例の構成を示すブロック図、第2図は第1(a
)図における有声のフレームでの代表区間と区間内パル
ス列の求め刀を示すパルス処理説明図、第3図は有声区
間における代表区間のパルス列を求める従来方式の一例
を示すパルス処理説明図である。 110・・・・・・バッファメモリ、130・・・・・
・ピ、テ分析回路、140・・・・・・Kパラメータ計
算回路、150・・−・・・ピッチ符号化回路、160
・・・・・・K /<ラメータ符号化回路、170・・
・・・・インパルス応答計算回路、】80・・・・・・
自己相関関数計算回路、220・・・・・・駆動信号&
i銖回路、225・・・・・・雑音メモリ、230・・
・・・・符号北回r4.260・・・・・・マルチプレ
クサ、290・・・・・・デマルチブレフサ、300・
・・・・・復号回路、310・・・・・・雑音メ七IJ
、320・・・・・・ビ。
FIG. 1(a) is a professional diagram showing the implementation of an embodiment of the speech encoding method and apparatus on the transmitting side according to the present invention;
) is a block diagram showing the configuration of an embodiment of the speech encoding method and apparatus on the receiving side according to the present invention, and FIG.
FIG. 3 is an explanatory diagram of pulse processing showing an example of a conventional method for determining a pulse train of a representative interval in a voiced interval. 110...Buffer memory, 130...
・Pi, Te analysis circuit, 140...K parameter calculation circuit, 150...Pitch encoding circuit, 160
...K /< parameter encoding circuit, 170...
...Impulse response calculation circuit, ]80...
Autocorrelation function calculation circuit, 220... Drive signal &
i-circuit, 225... Noise memory, 230...
... Code northbound r4.260 ... Multiplexer, 290 ... Demultiplexer, 300.
...Decoding circuit, 310...Noise mecha IJ
, 320...bi.

Claims (3)

【特許請求の範囲】[Claims] (1)送信側では離散的な音声信号を入力し前記音声信
号から短時間スペクトル包絡を表わすスペクトルパラメ
ータとピッチを表わすピッチパラメータとを抽出してあ
らかじめ定めた時間区間に区切った前記音声信号を表わ
すための音源情報を前記時間区間をあらかじめ設定する
複数に分割したうちの1つのピッチ区間のパルス列もし
くは雑音とパルス列との組合せで表現し前記音源信号を
表わす情報と前記ピッチパラメータと前記スペクトルパ
ラメータとを組合せて出力し、受信側では前記ピッチパ
ラメータと前記音源情報とにもとづいて音源情報が前記
パルス列の場合はこのパルス列をもとにして駆動音源信
号を復元し音源情報が前記雑音とパルス列の組合せの場
合は前記音源情報にもとづいて駆動音源信号を復元して
前記スペクトルパラメータとの併用により音声信号を合
成することを特徴とする音声符号化方法。
(1) On the transmitting side, a discrete audio signal is input, and a spectrum parameter representing a short-time spectrum envelope and a pitch parameter representing a pitch are extracted from the audio signal to represent the audio signal divided into predetermined time intervals. The sound source information for the sound source signal is expressed as a pulse train of one pitch interval of a plurality of predetermined divisions of the time interval or a combination of noise and a pulse train, and information representing the sound source signal, the pitch parameter, and the spectrum parameter are expressed. On the receiving side, based on the pitch parameter and the sound source information, if the sound source information is the pulse train, the driving sound source signal is restored based on this pulse train, and the sound source information is determined based on the combination of the noise and the pulse train. If the sound source information is used, the driving sound source signal is restored based on the sound source information, and the sound signal is synthesized by combining the sound source signal with the spectral parameter.
(2)入力した音声信号から短時間スペクトル包絡を表
わすスペクトルパラメータとピッチを表わすピッチパラ
メータとを抽出し符号化するパラメータ計算回路と、あ
らかじめ定めた時間区間に分割した前記音声信号と前記
ピッチパラメータと前記スペクトルパラメータとにもと
づいて前記ピッチ区間のパルス列もしくは雑音とパルス
列との組合せを求めて前記音源情報を符号化する駆動信
号計算回路と、前記パラメータ計算回路の出力符号と前
記駆動信号計算回路の出力符号とを組合せて出力するマ
ルチプレクサ回路とを有することを特徴とする音声符号
化装置。
(2) A parameter calculation circuit that extracts and encodes a spectral parameter representing a short-time spectral envelope and a pitch parameter representing a pitch from an input audio signal; a drive signal calculation circuit that encodes the sound source information by determining a pulse train in the pitch section or a combination of noise and pulse train based on the spectral parameter; an output code of the parameter calculation circuit; and an output of the drive signal calculation circuit. and a multiplexer circuit that combines and outputs a code.
(3)ピッチパラメータを表わす符号とスペクトルパラ
メータを表わす符号と音源情報を表わす符号とが組合わ
された符号系列を入力し前記ピッチパラメータを表わす
符号と前記音源情報を表わす符号とを分離して復号する
デマルチプレクサ回路と、前記復号されたピッチパラメ
ータと前記復号された音源情報にもとづいて前記ピッチ
区間のパルス列が音源情報のときはこのパルス列にもと
づいて駆動音源信号を復元し雑音とパルス列との組合せ
が音源情報のときはこの音源情報にもとづいてパルス列
と雑音とを発生して駆動音源を復元する駆動音源復元回
路と、前記駆動音源信号と前記復号されたスペクトルパ
ラメータとにもとづき音声信号を合成し出力する合成フ
ィルタ回路とを有することを特徴とする音声復号化装置
(3) Input a code sequence in which a code representing a pitch parameter, a code representing a spectrum parameter, and a code representing sound source information are combined, and separate and decode the code representing the pitch parameter and the code representing the sound source information. A demultiplexer circuit, based on the decoded pitch parameter and the decoded sound source information, restores the driving sound source signal based on the pulse train when the pulse train in the pitch section is sound source information, and combines the noise and the pulse train. In the case of sound source information, a driving sound source restoration circuit generates a pulse train and noise based on this sound source information to restore the driving sound source, and a sound signal is synthesized and output based on the driving sound source signal and the decoded spectral parameter. 1. A speech decoding device comprising a synthesis filter circuit.
JP61148579A 1986-06-24 1986-06-24 Speech coding method and apparatus thereof Expired - Lifetime JP2508002B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP61148579A JP2508002B2 (en) 1986-06-24 1986-06-24 Speech coding method and apparatus thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61148579A JP2508002B2 (en) 1986-06-24 1986-06-24 Speech coding method and apparatus thereof

Publications (2)

Publication Number Publication Date
JPS634300A true JPS634300A (en) 1988-01-09
JP2508002B2 JP2508002B2 (en) 1996-06-19

Family

ID=15455897

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61148579A Expired - Lifetime JP2508002B2 (en) 1986-06-24 1986-06-24 Speech coding method and apparatus thereof

Country Status (1)

Country Link
JP (1) JP2508002B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0284699A (en) * 1988-09-21 1990-03-26 Mitsubishi Electric Corp Voice analyzing and synthesizing device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5632197A (en) * 1978-04-28 1981-04-01 Texas Instruments Inc Electronic language converter
JPS6053999A (en) * 1983-09-05 1985-03-28 日本電気株式会社 Voice synthesizer
JPS6162100A (en) * 1984-09-04 1986-03-29 日本電気株式会社 Multipulse type encoder/decoder
JPS61107400A (en) * 1984-10-31 1986-05-26 日本電気株式会社 Voice synthesizer

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5632197A (en) * 1978-04-28 1981-04-01 Texas Instruments Inc Electronic language converter
JPS6053999A (en) * 1983-09-05 1985-03-28 日本電気株式会社 Voice synthesizer
JPS6162100A (en) * 1984-09-04 1986-03-29 日本電気株式会社 Multipulse type encoder/decoder
JPS61107400A (en) * 1984-10-31 1986-05-26 日本電気株式会社 Voice synthesizer

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0284699A (en) * 1988-09-21 1990-03-26 Mitsubishi Electric Corp Voice analyzing and synthesizing device

Also Published As

Publication number Publication date
JP2508002B2 (en) 1996-06-19

Similar Documents

Publication Publication Date Title
JP2940005B2 (en) Audio coding device
KR101441896B1 (en) Method and apparatus for encoding/decoding audio signal using adaptive LPC coefficient interpolation
JP2002268686A (en) Voice coder and voice decoder
JP2615548B2 (en) Highly efficient speech coding system and its device.
JPS61148500A (en) Method and apparatus for encoding voice signal
JPS634300A (en) Voice encoding method and apparatus
JP2829978B2 (en) Audio encoding / decoding method, audio encoding device, and audio decoding device
JP2946525B2 (en) Audio coding method
JP3299099B2 (en) Audio coding device
JPH0738116B2 (en) Multi-pulse encoder
JP2956068B2 (en) Audio encoding / decoding system
JP2560682B2 (en) Speech signal coding / decoding method and apparatus
JP2658438B2 (en) Audio coding method and apparatus
JP2001142499A (en) Speech encoding device and speech decoding device
JP3249144B2 (en) Audio coding device
JPS6162100A (en) Multipulse type encoder/decoder
JP2844590B2 (en) Audio coding system and its device
JPS63127299A (en) Voice signal encoding/decoding system and apparatus
JP3144244B2 (en) Audio coding device
JPS617899A (en) Multipulse type encoder/decoder
JPS62133498A (en) Voice signal coding system and apparatus
JPH0481199B2 (en)
JPS62207036A (en) Voice coding system and its apparatus
JPH0632035B2 (en) Speech coding method and apparatus thereof
JPH0632030B2 (en) Speech coding method

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term