JP3362471B2 - Audio signal encoding method and decoding method - Google Patents

Audio signal encoding method and decoding method

Info

Publication number
JP3362471B2
JP3362471B2 JP24575893A JP24575893A JP3362471B2 JP 3362471 B2 JP3362471 B2 JP 3362471B2 JP 24575893 A JP24575893 A JP 24575893A JP 24575893 A JP24575893 A JP 24575893A JP 3362471 B2 JP3362471 B2 JP 3362471B2
Authority
JP
Japan
Prior art keywords
pitch
phase
peak
audio signal
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP24575893A
Other languages
Japanese (ja)
Other versions
JPH0792998A (en
Inventor
ジョセフ チャン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP24575893A priority Critical patent/JP3362471B2/en
Publication of JPH0792998A publication Critical patent/JPH0792998A/en
Application granted granted Critical
Publication of JP3362471B2 publication Critical patent/JP3362471B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、入力音声信号をブロッ
ク単位で区分し、区分されたブロックを単位として符号
化処理を行い、合成側では正弦波等の周期的な基本波及
びその高調波を用いて音声信号を合成するような音声信
号の符号化方法及び復号化方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention divides an input speech signal into blocks and performs an encoding process in units of the divided blocks. On the synthesis side, a periodic fundamental wave such as a sine wave and its harmonics are generated. The present invention relates to an audio signal encoding method and an audio signal decoding method for synthesizing an audio signal by using.

【0002】[0002]

【従来の技術】オーディオ信号(音声信号や音響信号を
含む)の時間領域や周波数領域における統計的性質と人
間の聴感上の特性を利用して信号圧縮を行うような符号
化方法が種々知られている。この符号化方法としては、
大別して時間領域での符号化、周波数領域での符号化、
分析合成符号化等が挙げられる。
2. Description of the Related Art Various coding methods are known in which signal compression is performed by utilizing the statistical properties of audio signals (including voice signals and acoustic signals) in the time domain and frequency domain and human auditory characteristics. ing. As this encoding method,
Broadly speaking, time domain coding, frequency domain coding,
Examples include analysis and synthesis coding.

【0003】音声信号等の高能率符号化の例として、M
BE(Multiband Excitation: マルチバンド励起)符号
化、SBE(Singleband Excitation:シングルバンド励
起)符号化、ハーモニック(Harmonic)符号化、SBC
(Sub-band Coding:帯域分割符号化)、LPC(Linear
Predictive Coding: 線形予測符号化)、あるいはDC
T(離散コサイン変換)、MDCT(モデファイドDC
T)、FFT(高速フーリエ変換)等において、スペク
トル振幅やそのパラメータ(LSPパラメータ、αパラ
メータ、kパラメータ等)のような各種情報データを量
子化する場合に、従来においてはスカラ量子化を行うこ
とが多い。
As an example of high-efficiency encoding of a voice signal or the like, M
BE (Multiband Excitation) coding, SBE (Singleband Excitation) coding, Harmonic coding, SBC
(Sub-band Coding), LPC (Linear
Predictive Coding: Linear predictive coding) or DC
T (Discrete Cosine Transform), MDCT (Modified DC)
In T), FFT (Fast Fourier Transform), etc., when quantizing various information data such as spectrum amplitude and its parameters (LSP parameter, α parameter, k parameter, etc.), conventionally, scalar quantization is performed. There are many.

【0004】上記PARCOR法等の音声分析・合成系
では、励振源を切り換えるタイミングは時間軸上のブロ
ック(フレーム)毎であるため、同一フレーム内では有
声音と無声音とを混在させることができず、結果として
高品質な音声は得られなかった。
In the voice analysis / synthesis system such as the PARCOR method, since the excitation source is switched at each block (frame) on the time axis, voiced sound and unvoiced sound cannot be mixed in the same frame. , As a result, high quality voice was not obtained.

【0005】これに対して、上記MBE符号化において
は、1ブロック(フレーム)内の音声に対して、周波数
スペクトルの各ハーモニクス(高調波)や2〜3ハーモ
ニクスをひとまとめにした各バンド(帯域)毎に、又は
固定の帯域幅(例えば300〜400Hz)で分割された
各バンド毎に、そのバンド中のスペクトル形状に基づい
て有声音/無声音判別(V/UV判別)を行っているた
め、音質の向上が認められる。この各バンド毎のV/U
V判別は、主としてバンド内のスペクトルがいかに強く
ハーモニクス構造を有しているかを見て行っている。
On the other hand, in the above MBE coding, for each voice in one block (frame), each harmonic (harmonic) of the frequency spectrum or each band (band) in which a few harmonics are grouped together. Since voiced / unvoiced sound discrimination (V / UV discrimination) is performed for each band divided for each band or for each band divided by a fixed bandwidth (for example, 300 to 400 Hz), sound quality Is recognized. V / U for each band
V discrimination mainly looks at how strongly the spectrum in the band has a harmonic structure.

【0006】このMBE符号化の分析側で得られたピッ
チ情報、バンド毎のV/UV判別情報、及び振幅情報を
合成側に送り、合成側でこれらの情報に基づいて正弦波
(あるいは余弦波等)信号やノイズ信号を処理すること
により元の音声波形を合成している。なお、情報伝送の
際に、各高調波成分の位相情報については、データ伝送
量(ビットレート)が非常に高くなるため送っていな
い。
The pitch information, the V / UV discrimination information for each band, and the amplitude information obtained on the analysis side of this MBE encoding are sent to the synthesis side, and the sine wave (or cosine wave) is sent on the synthesis side based on these information. Etc.) The original speech waveform is synthesized by processing signals and noise signals. When transmitting information, the phase information of each harmonic component is not transmitted because the amount of data transmission (bit rate) becomes very high.

【0007】[0007]

【発明が解決しようとする課題】ところで、合成側で正
弦波や余弦波等を用いて元の音声波形を合成する際に、
各高調波成分についての位相情報は特に送られていない
ことから、いわゆる最小位相推移法や、ゼロ位相法のよ
うな手法により位相を決定している。
By the way, when synthesizing an original speech waveform using a sine wave, a cosine wave, etc. on the synthesizer side,
Since the phase information about each harmonic component is not sent in particular, the phase is determined by a method such as the so-called minimum phase transition method or zero phase method.

【0008】ところが、これらの方法により位相決定さ
れて合成された音声信号波形においては、元の音声信号
波形にピッチ周期のピークの中間位置(1/2ピッチ位
置)にもピークが存在する場合に、上記合成波形にはこ
の中間ピークが表れないことがある。このような合成音
は、元の音に比べて耳障りな感じが強い。この耳障り感
の原因の一つとしては、中間ピークのエネルギがピッチ
周期のピークに加算されてピークレベルが上昇すること
が考えられている。
However, in the voice signal waveform which is phase-determined and synthesized by these methods, when the original voice signal waveform also has a peak at the intermediate position (1/2 pitch position) of the peaks of the pitch period. The intermediate peak may not appear in the composite waveform. Such a synthesized sound has a stronger offensive sensation than the original sound. As one of the causes of this harshness, it is considered that the energy of the intermediate peak is added to the peak of the pitch cycle and the peak level rises.

【0009】本発明は、このような実情に鑑みてなされ
たものであり、ピッチ周期の各ピークの中間位置にもピ
ークが生じているような音声信号波形の伝送や再生が良
好に行い得るような音声信号の符号化方法及び復号化方
法の提供を目的とする。
The present invention has been made in view of the above circumstances, and it is possible to favorably perform transmission and reproduction of an audio signal waveform having a peak at an intermediate position of each peak of the pitch period. It is an object of the present invention to provide a method for encoding and decoding a simple voice signal.

【0010】[0010]

【課題を解決するための手段】本発明に係る音声信号の
符号化方法は、入力音声信号を時間軸上でブロック単位
で区分する工程と、この区分されたブロック内で基本ピ
ッチ周期を検出する工程と、上記ブロック内の最大ピー
ク位置を含む上記基本ピッチ周期のピーク位置であるピ
ッチピーク位置を検出する工程と、上記ブロック内で上
記ピッチピーク位置に対して1/2ピッチ周期離れた中
間位置近傍の中間ピークを検出し、該中間ピークの値の
統計量e2 を求める工程と、上記ブロック内で各ピッチ
ピーク位置と上記中間ピークの位置との中間位置近傍の
1/4ピッチピークを検出し、該1/4ピッチピークの
値の統計量e3 を求める工程と、上記各統計量e2 、e
3の大小関係に基づいて位相情報を求める工程とを有す
ることにより、上述の課題を解決する。
A method of encoding a voice signal according to the present invention comprises a step of dividing an input voice signal into blocks on a time axis, and detecting a basic pitch period in the divided blocks. A step of detecting a pitch peak position which is a peak position of the basic pitch cycle including a maximum peak position in the block, and an intermediate position in the block which is ½ pitch cycle away from the pitch peak position. A step of detecting an intermediate peak in the vicinity and obtaining a statistic e 2 of the value of the intermediate peak; and detecting a quarter pitch peak near the intermediate position between each pitch peak position and the position of the intermediate peak in the block. Then, the step of obtaining the statistic e 3 of the value of the ¼ pitch peak and the above-mentioned statistic e 2 and e
The problem described above is solved by having a step of obtaining phase information based on the magnitude relationship of 3 .

【0011】より具体的には、入力音声信号を時間軸上
でブロック単位で区分する工程と、この区分されたブロ
ック内で基本ピッチ周期を検出する工程と、上記ブロッ
ク内の最大ピーク位置を検出する工程と、上記最大ピー
ク位置及び上記基本ピッチ周期に基づいて上記ブロック
内で1以上の(あるいはブロック内の全ての)ピッチピ
ーク位置を検出する工程と、上記ブロック内で求められ
た複数のピッチピーク位置の中間位置近傍のピークであ
る中間ピークを検出し、これらの中間ピークの値の統計
量(例えば平均値や累積加算値)e2 を求める工程と、
上記各ピッチピーク位置とそれぞれ対応する上記各中間
ピークの位置との中間位置近傍の1/4ピッチピークを
検出し、これらの1/4ピッチピークの値の統計量e3
を求める工程と、上記各統計量e2 、e3 の大小関係に
基づく位相情報を求める工程とを有する。
More specifically, a step of dividing the input audio signal into blocks on the time axis, a step of detecting a basic pitch period in the divided blocks, and a detection of a maximum peak position in the block. And a step of detecting one or more (or all of) pitch peak positions in the block based on the maximum peak position and the basic pitch period, and a plurality of pitches determined in the block. A step of detecting an intermediate peak which is a peak near the intermediate position of the peak position and obtaining a statistic (for example, an average value or a cumulative addition value) e 2 of the values of these intermediate peaks;
The 1/4 pitch peaks near the intermediate position between the respective pitch peak positions and the corresponding intermediate peak positions are detected, and the statistic e 3 of the values of these 1/4 pitch peaks is detected.
And a step of obtaining phase information based on the magnitude relation between the statistics e 2 and e 3 .

【0012】ここで、上記位相情報は1ビットでも2ビ
ット以上でもよい。上記統計量e2、e3 が小さいとき
には上記位相情報を送らないようにしてもよい。また、
上記ブロック内での上記複数のピッチピークの値の統計
量e1 を検出し、上記各統計量e2 、e3 との比率e2
/e1 、e3 /e1 の大小関係に応じた位相情報を求め
るようにしてもよい。
The phase information may be 1 bit or 2 bits or more. The phase information may not be sent when the statistics e 2 and e 3 are small. Also,
A statistic e 1 of the values of the plurality of pitch peaks in the block is detected, and a ratio e 2 to each statistic e 2 or e 3 is detected.
It is also possible to obtain the phase information according to the magnitude relationship between / e 1 and e 3 / e 1 .

【0013】次に、本発明に係る音声信号の復号化方法
は、周期的な基本波とその高調波成分とを用いて音声信
号を合成する音声信号の復号化方法において、基本ピッ
チ周期のピークの中間位置のピークと、1/4ピッチ位
置のピークとに基づいて得られた位相情報が供給され、
この位相情報に応じて上記ブロックの終端位相を変化さ
せることにより、上述の課題を解決する。
Next, a voice signal decoding method according to the present invention is a voice signal decoding method for synthesizing a voice signal using a periodic fundamental wave and its harmonic components, wherein the peak of the fundamental pitch period is used. The phase information obtained based on the peak at the intermediate position and the peak at the ¼ pitch position is supplied,
The above problem is solved by changing the terminal phase of the block according to the phase information.

【0014】ここで、上記基本波とその高調波成分とを
合成する際に、上記位相情報に応じて奇数次高調波の終
端位相のみを基準位相に対してずらすことが考えられ、
具体的には、上記奇数次高調波の終端位相を基準位相に
対してずらせばよく、上記位相情報が1ビットのときに
はπ/4だけずらし、2ビットのときには該位相情報に
応じてπ/8の整数倍だけずらすことが好ましい。
Here, when synthesizing the fundamental wave and its harmonic components, it is conceivable to shift only the termination phase of the odd harmonics with respect to the reference phase according to the phase information.
Specifically, the termination phase of the odd harmonics may be shifted with respect to the reference phase. When the phase information is 1 bit, it is shifted by π / 4, and when it is 2 bits, it is π / 8 according to the phase information. It is preferable to shift by an integer multiple of.

【0015】[0015]

【作用】ピッチ周期のピークの中間位置にもピークが生
じているような音声信号の場合でも、上記位相情報によ
りこの中間ピークを再現するような合成処理が行われ、
従来の合成処理で生じていた耳障りな感じを抑え、良好
な再生音(合成音)を得ることができる。
[Effect] Even in the case of an audio signal in which a peak also occurs at the middle position of the peak of the pitch period, the synthesis processing is performed to reproduce the middle peak by the phase information,
It is possible to suppress the unpleasant sensation that has occurred in the conventional synthesis processing and obtain a good reproduced sound (synthesized sound).

【0016】[0016]

【実施例】以下、本発明に係る音声信号の符号化方法及
び復号化方法の実施例について説明する。この音声信号
の符号化方法及び復号化方法には、後述するMBE(Mu
ltibandExcitation: マルチバンド励起)符号化等のよ
うに、ブロック毎の信号を周波数軸上に変換し、複数帯
域に分割して各帯域毎にV(有声音)かUV(無声音)
かを判別するような音声信号分析/合成方法を用いるこ
とができる。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of a voice signal encoding method and a voice decoding method according to the present invention will be described below. This audio signal encoding method and decoding method includes MBE (Mu
ltibandExcitation: Multiband excitation (encoding), etc., the signal for each block is converted on the frequency axis, divided into multiple bands, and V (voiced sound) or UV (unvoiced sound) for each band.
It is possible to use a voice signal analysis / synthesis method for determining whether or not.

【0017】すなわち、本発明が適用される一般的な音
声信号の符号化方法及び復号化方法としては、音声信号
を一定サンプル数(例えば256サンプル)毎にブロッ
ク化して、FFT等の直交変換により周波数軸上のスペ
クトルデータに変換すると共に、該ブロック内の音声の
ピッチを抽出し、このピッチに応じた間隔で周波数軸上
のスペクトルを帯域分割し、分割された各帯域について
V(有声音)/UV(無声音)の判別を行っている。こ
のV/UV判別情報を上記ピッチ情報やスペクトルの振
幅データと共に符号化して伝送し、合成(デコード)側
では、これらの情報に基づいて音声信号波形合成処理を
行うわけである。
That is, as a general audio signal encoding method and decoding method to which the present invention is applied, an audio signal is divided into blocks every fixed number of samples (for example, 256 samples), and orthogonal transformation such as FFT is performed. While converting to spectrum data on the frequency axis, the pitch of the voice in the block is extracted, the spectrum on the frequency axis is band-divided at intervals according to this pitch, and V (voiced sound) for each divided band. / UV (unvoiced sound) is discriminated. The V / UV discrimination information is encoded and transmitted together with the pitch information and the spectrum amplitude data, and the synthesizing (decoding) side performs the audio signal waveform synthesizing process based on these information.

【0018】ここで、例えばMBEボコーダ等の音声分
析/合成系を想定する場合、入力される時間軸上の音声
信号に対するサンプリング周波数fs は、通常8kHz
で、全帯域幅は3.4kHz(ただし有効帯域は200〜
3400Hz)であり、女声の高い方から男声の低い方ま
でのピッチラグ(ピッチ周期に相当するサンプル数)
は、20〜147程度である。従って、ピッチ周波数
は、8000/147≒54(Hz)から 8000/20=400(Hz)
程度までの間で変動することになる。従って、周波数軸
上で上記3.4kHzまでの間に約8〜63本のピッチパ
ルス(ハーモニックス)が立つことになる。
Here, assuming a voice analysis / synthesis system such as an MBE vocoder, the sampling frequency fs for the voice signal input on the time axis is usually 8 kHz.
The total bandwidth is 3.4 kHz (the effective bandwidth is 200-
3400Hz), the pitch lag from the higher female voice to the lower male voice (the number of samples corresponding to the pitch period)
Is about 20 to 147. Therefore, the pitch frequency is 8000/147 ≒ 54 (Hz) to 8000/20 = 400 (Hz)
It will fluctuate within the range. Therefore, about 8 to 63 pitch pulses (harmonics) stand up to 3.4 kHz on the frequency axis.

【0019】このように、ピッチに応じた間隔で帯域分
割すると、ブロック(フレーム)毎に分割帯域数(バン
ド数)が約8〜63個の間で変化することになることを
考慮して、分割バンド数を一定の個数(例えば12個程
度)に低減あるいは縮退させておくことが好ましい。
In this way, considering that the number of divided bands (the number of bands) for each block (frame) changes between about 8 and 63 when the bands are divided at intervals according to the pitch, It is preferable to reduce or reduce the number of divided bands to a fixed number (for example, about 12).

【0020】また本発明の実施例においては、入力音声
信号の時間波形中で、ピッチ周期の各ピークの中間位置
(1/2ピッチ周期位置)にもある程度のピークが存在
するか否かを検出し、この中間ピークの存在の有無に応
じた1ビットの位相情報である位相コードを送ってい
る。合成側では、この位相コードに応じて、波形合成に
使用される基本波及び高調波のブロック(フレーム)毎
の終端位相を変化させている。具体的には、中間ピーク
が存在するときには、奇数次高調波を基準位相に対して
π/4だけずらし、中間ピークが存在しないときには、
従来と同様のゼロ位相や最小位相推移による位相決定法
を用いている。
Further, in the embodiment of the present invention, it is detected whether or not there is a certain amount of peak at the intermediate position (1/2 pitch period position) of each peak of the pitch period in the time waveform of the input voice signal. However, a phase code, which is 1-bit phase information depending on the presence or absence of the intermediate peak, is sent. On the synthesizing side, the terminal phase of each block (frame) of the fundamental wave and the harmonic wave used for synthesizing the waveform is changed according to this phase code. Specifically, when there is an intermediate peak, the odd harmonics are shifted by π / 4 with respect to the reference phase, and when there is no intermediate peak,
The same phase determination method as the conventional zero phase and minimum phase transition is used.

【0021】次に、上述したような音声信号の符号化方
法及び復号化方法が適用可能な、音声信号の分析/合成
装置(いわゆるボコーダ)の一種であるMBE(Multib
andExcitation: マルチバンド励起)ボコーダの具体例
について、図面を参照しながら説明する。
Next, an MBE (Multib) which is a kind of an audio signal analyzing / synthesizing device (so-called vocoder) to which the above audio signal encoding method and audio signal decoding method can be applied.
andExcitation: Multiband Excitation) A specific example of a vocoder will be described with reference to the drawings.

【0022】以下に説明するMBEボコーダは、D.W. G
riffin and J.S. Lim, "MultibandExcitation Vocode
r," IEEE Trans.Acoustics,Speech,and Signal Process
ing,vol.36, No.8, pp.1223-1235, Aug. 1988 に開示さ
れているものであり、従来のPARCOR(PARtial au
to-CORrelation: 偏自己相関)ボコーダ等では、音声の
モデル化の際に有声音区間と無声音区間とをブロックあ
るいはフレーム毎に切り換えていたのに対し、MBEボ
コーダでは、同時刻(同じブロックあるいはフレーム
内)の周波数軸領域に有声音(Voiced)区間と無声音
(Unvoiced)区間とが存在するという仮定でモデル化し
ている。
The MBE vocoder described below is a DW G
riffin and JS Lim, "MultibandExcitation Vocode
r, "IEEE Trans.Acoustics, Speech, and Signal Process
ing, vol.36, No.8, pp.1223-1235, Aug. 1988, the conventional PARCOR (PARtial au
In a to-CORrelation (partial autocorrelation) vocoder or the like, a voiced sound section and an unvoiced sound section were switched for each block or frame when modeling a voice, whereas in the MBE vocoder, at the same time (same block or frame). The model is based on the assumption that there are voiced and unvoiced intervals in the frequency domain of (in).

【0023】図1は、上記MBEボコーダのエンコーダ
に本発明に係る音声信号の符号化方法を適用した実施例
の全体の概略構成を示すブロック図である。この図1に
おいて、入力端子11には音声信号が供給されるように
なっており、この入力音声信号は、HPF(ハイパスフ
ィルタ)等のフィルタ12に送られて、いわゆるDC
(直流)オフセット分の除去や帯域制限(例えば200
〜3400Hzに制限)のための少なくとも低域成分(2
00Hz以下)の除去が行われる。このフィルタ12を介
して得られた信号は、ピッチ抽出部13及び窓かけ処理
部14にそれぞれ送られる。ピッチ抽出部13では、入
力音声信号データが所定サンプル数N(例えばN=25
6)単位でブロック分割され(あるいは方形窓による切
り出しが行われ)、このブロック内の音声信号について
のピッチ抽出が行われる。このような切り出しブロック
(256サンプル)を、例えば図2のAに示すようにL
サンプル(例えばL=160)のフレーム間隔で時間軸
方向に移動させており、各ブロック間のオーバラップは
N−Lサンプル(例えば96サンプル)となっている。
また、窓かけ処理部14では、1ブロックNサンプルに
対して所定の窓関数、例えばハミング窓をかけ、この窓
かけブロックを1フレームLサンプルの間隔で時間軸方
向に順次移動させている。
FIG. 1 is a block diagram showing the overall schematic configuration of an embodiment in which the audio signal encoding method according to the present invention is applied to the encoder of the MBE vocoder. In FIG. 1, an audio signal is supplied to an input terminal 11, and the input audio signal is sent to a filter 12 such as an HPF (high-pass filter) to be a so-called DC signal.
Removal of (DC) offset and band limitation (for example, 200
At least low frequency component (2)
(Less than 00 Hz) is removed. The signal obtained through the filter 12 is sent to the pitch extraction unit 13 and the windowing processing unit 14, respectively. In the pitch extraction unit 13, the input voice signal data has a predetermined sample number N (for example, N = 25
6) It is divided into blocks in units (or is cut out by a rectangular window), and pitch extraction is performed on the voice signal in this block. Such a cut-out block (256 samples) is converted into, for example, L as shown in FIG.
Samples (eg, L = 160) are moved in the time axis direction at frame intervals, and the overlap between blocks is NL samples (eg, 96 samples).
In addition, the windowing processing unit 14 applies a predetermined window function, for example, a Hamming window, to one block of N samples, and sequentially moves the windowed block in the time axis direction at intervals of one frame of L samples.

【0024】このような窓かけ処理を数式で表すと、 xw (k,q) =x(q) w(kL-q) ・・・(1) となる。この(1)式において、kはブロック番号を、
qはデータの時間インデックス(サンプル番号)を表
し、処理前の入力信号のq番目のデータx(q) に対して
第kブロックの窓(ウィンドウ)関数w(kL-q)により窓
かけ処理されることによりデータxw (k,q) が得られる
ことを示している。ピッチ抽出部13での図2のAに示
すような方形窓の場合の窓関数wr (r) は、 wr (r) =1 0≦r<N ・・・(2) =0 r<0,N≦r また、上記窓かけ処理部14での図2のBに示すような
ハミング窓の場合の窓関数wh (r) は、 wh (r) = 0.54 − 0.46 cos(2πr/(N-1)) 0≦r<N ・・・(3) =0 r<0,N≦r である。このような窓関数wr (r) あるいはwh (r) を
用いるときの上記(1)式の窓関数w(r) (=w(kL-
q))の否零区間は、 0≦kL−q<N これを変形して、 kL−N<q≦kL 従って例えば上記方形窓の場合に窓関数wr (kL-q)=1
となるのは、図3に示すように、kL−N<q≦kLの
ときとなる。また、上記(1)〜(3)式は、長さN
(=256)サンプルの窓が、L(=160)サンプル
ずつ前進してゆくことを示している。以下、上記(2)
式、(3)式の各窓関数で切り出された各N点(0≦r
<N)の否零サンプル列を、それぞれxwr(k,r) 、xwh
(k,r) と表すことにする。
When this windowing process is expressed by a mathematical expression, x w (k, q) = x (q) w (kL-q) (1) In this equation (1), k is a block number,
q represents the time index (sample number) of the data, and the q-th data x (q) of the input signal before processing is windowed by the window function (w (kL-q)) of the kth block. It is shown that the data x w (k, q) can be obtained by doing so. The window function w r (r) in the case of the rectangular window as shown in A of FIG. 2 in the pitch extraction unit 13 is w r (r) = 1 0 ≦ r <N (2) = 0 r < 0, N ≦ r Further, the window function w h in the case of Hamming window as shown in B of FIG. 2 in the windowing processing section 14 (r) is, w h (r) = 0.54 - 0.46 cos (2πr / (N-1)) 0 ≦ r <N (3) = 0 r <0, N ≦ r. Such a window function w r (r) or w (1) when using the h (r) formula of the window function w (r) (= w (KL-
q)), the zero-zero interval is 0 ≦ kL−q <N, and is modified as follows: kL−N <q ≦ kL Therefore, for example, in the case of the above rectangular window, the window function w r (kL−q) = 1
This is when kL−N <q ≦ kL, as shown in FIG. In addition, the above formulas (1) to (3) have a length N
It shows that the window of (= 256) samples advances by L (= 160) samples. Below, above (2)
N points (0≤r
The non-zero sample sequences of <N) are respectively x wr (k, r) and x wh
We will denote it as (k, r).

【0025】窓かけ処理部14では、図4に示すよう
に、上記(3)式のハミング窓がかけられた1ブロック
256サンプルのサンプル列xwh(k,r) に対して179
2サンプル分の0データが付加されて(いわゆる0詰め
されて)2048サンプルとされ、この2048サンプ
ルの時間軸データ列に対して、直交変換部15により例
えばFFT(高速フーリエ変換)等の直交変換処理が施
される。
In the windowing processing section 14, as shown in FIG. 4, 179 is applied to the sample sequence x wh (k, r) of one block of 256 samples to which the Hamming window of the equation (3) is applied.
Two samples of 0 data are added (so-called zero padding) to form 2048 samples, and the orthogonal transform unit 15 performs orthogonal transform such as FFT (Fast Fourier Transform) on the time-axis data sequence of 2048 samples. Processing is performed.

【0026】あるいは、0詰めなしで256点のままで
FFTを施して、処理量を減らす方法もある。
Alternatively, there is also a method of reducing the amount of processing by performing FFT with 256 points as it is without zero padding.

【0027】ピッチ抽出部13では、上記xwr(k,r) の
サンプル列(1ブロックNサンプル)に基づいてピッチ
抽出が行われる。このピッチ抽出法には、時間波形の周
期性や、スペクトルの周期的周波数構造や、自己相関関
数を用いるもの等が知られているが、本実施例では、セ
ンタクリップ波形の自己相関法を採用している。このと
きのブロック内でのセンタクリップレベルについては、
1ブロックにつき1つのクリップレベルを設定してもよ
いが、ブロックを細分割した各部(各サブブロック)の
信号のピークレベル等を検出し、これらの各サブブロッ
クのピークレベル等の差が大きいときに、ブロック内で
クリップレベルを段階的にあるいは連続的に変化させる
ようにしている。このセンタクリップ波形の自己相関デ
ータのピーク位置に基づいてピッチ周期を決めている。
このとき、現在フレームに属する自己相関データ(自己
相関は1ブロックNサンプルのデータを対象として求め
られる)から複数のピークを求めておき、これらの複数
のピークの内の最大ピークが所定の閾値以上のときには
該最大ピーク位置をピッチ周期とし、それ以外のときに
は、現在フレーム以外のフレーム、例えば前後のフレー
ムで求められたピッチに対して所定の関係を満たすピッ
チ範囲内、例えば前フレームのピッチを中心として±2
0%の範囲内にあるピークを求め、このピーク位置に基
づいて現在フレームのピッチを決定するようにしてい
る。このピッチ抽出部13ではオープンループによる比
較的ラフなピッチのサーチが行われ、抽出されたピッチ
データは高精度(ファイン)ピッチサーチ部16に送ら
れて、クローズドループによる高精度のピッチサーチ
(ピッチのファインサーチ)が行われる。
In the pitch extraction unit 13, pitch extraction is performed based on the sample string of x wr (k, r) (one block N samples). The pitch extraction method is known to use periodicity of time waveform, periodic frequency structure of spectrum, autocorrelation function, etc. In this embodiment, the autocorrelation method of center clip waveform is adopted. is doing. For the center clip level in the block at this time,
One clip level may be set for each block, but when the peak level of the signal of each part (each sub-block) obtained by subdividing the block is detected, and the difference in peak level between these sub-blocks is large, In addition, the clip level is changed stepwise or continuously within the block. The pitch period is determined based on the peak position of the autocorrelation data of this center clip waveform.
At this time, a plurality of peaks are obtained from the autocorrelation data belonging to the current frame (the autocorrelation is obtained for the data of N samples of one block), and the maximum peak of the plurality of peaks is equal to or larger than a predetermined threshold value. In the case of, the maximum peak position is set as the pitch cycle, and in other cases, the pitch is within the pitch range that satisfies a predetermined relationship with the pitch other than the current frame, for example, the pitch of the previous frame and the pitch of the previous frame. As ± 2
The peak within the range of 0% is obtained, and the pitch of the current frame is determined based on this peak position. In this pitch extraction unit 13, a relatively rough pitch search is performed by an open loop, and the extracted pitch data is sent to a high precision (fine) pitch search unit 16 and a closed loop high precision pitch search (pitch) is performed. Fine search) is performed.

【0028】なお、センタクリップ波形ではなく、入力
波形をLPC分析した残差波形の自己相関からピッチを
求める方法を用いてもよい。
A method of obtaining the pitch from the autocorrelation of the residual waveform obtained by LPC analysis of the input waveform instead of the center clip waveform may be used.

【0029】高精度(ファイン)ピッチサーチ部16に
は、ピッチ抽出部13で抽出された整数(インテジャ
ー)値の粗(ラフ)ピッチデータと、直交変換部15に
より例えばFFTされた周波数軸上のデータとが供給さ
れている。この高精度ピッチサーチ部16では、上記粗
ピッチデータ値を中心に、0.2〜0.5きざみで±数サン
プルずつ振って、最適な小数点付き(フローティング)
のファインピッチデータの値へ追い込む。このときのフ
ァインサーチの手法として、いわゆる合成による分析
(Analysis by Synthesis)法を用い、合成されたパワー
スペクトルが原音のパワースペクトルに最も近くなるよ
うにピッチを選んでいる。
The high-precision (fine) pitch search section 16 includes coarse (rough) pitch data of integer (integer) values extracted by the pitch extraction section 13 and, for example, FFT-processed on the frequency axis by the orthogonal transformation section 15. And the data of. In this high-precision pitch search unit 16, with the coarse pitch data value as the center, ± several samples are shaken in increments of 0.2 to 0.5 to give an optimum decimal point (floating).
To the value of the fine pitch data of. As a fine search method at this time, so-called synthesis analysis
Using the (Analysis by Synthesis) method, the pitch is selected so that the synthesized power spectrum is closest to the power spectrum of the original sound.

【0030】このピッチのファインサーチについて説明
する。先ず、上記MBEボコーダにおいては、上記FF
T等により直交変換された周波数軸上のスペクトルデー
タとしてのS(j) を S(j) =H(j) |E(j) | 0<j<J ・・・(4) と表現するようなモデルを想定している。ここで、Jは
ωs /4π=fs /2に対応し、サンプリング周波数f
s =ωs /2πが例えば8kHzのときには4kHzに対応
する。上記(4)式中において、周波数軸上のスペクト
ルデータS(j) が図5のAに示すような波形のとき、H
(j) は、図5のBに示すように、元のスペクトルデータ
S(j) のスペクトル包絡線(エンベロープ)を示し、E
(j) は、図5のCに示すような等レベルで周期的な励起
信号(エクサイテイション)のスペクトルを示してい
る。すなわち、FFTスペクトルS(j) は、スペクトル
エンベロープH(j) と励起信号のパワースペクトル|E
(j) |との積としてモデル化される。
The fine search of the pitch will be described. First, in the MBE vocoder, the FF
Let S (j) as spectrum data on the frequency axis orthogonally transformed by T etc. be expressed as S (j) = H (j) | E (j) | 0 <j <J (4) It is assumed that the model. Here, J corresponds to ω s / 4π = f s / 2, and the sampling frequency f
When s = ω s / 2π is, for example, 8 kHz, it corresponds to 4 kHz. In the equation (4), when the spectrum data S (j) on the frequency axis has a waveform as shown in FIG.
(j) indicates the spectrum envelope (envelope) of the original spectrum data S (j) as shown in B of FIG.
(j) shows the spectrum of the excitation signal (excitation) which is periodic at the same level as shown in C of FIG. That is, the FFT spectrum S (j) is the spectrum envelope H (j) and the power spectrum | E of the excitation signal.
(j) | is modeled as |.

【0031】上記励起信号のパワースペクトル|E(j)
|は、上記ピッチに応じて決定される周波数軸上の波形
の周期性(ピッチ構造)を考慮して、1つの帯域(バン
ド)の波形に相当するスペクトル波形を周波数軸上の各
バンド毎に繰り返すように配列することにより形成され
る。この1バンド分の波形は、例えば上記図4に示すよ
うな256サンプルのハミング窓関数に1792サンプ
ル分の0データを付加(0詰め)した波形を時間軸信号
と見なしてFFTし、得られた周波数軸上のある帯域幅
を持つインパルス波形を上記ピッチに応じて切り出すこ
とにより形成することができる。
Power spectrum of the above excitation signal | E (j)
| Is a spectral waveform corresponding to the waveform of one band (band) for each band on the frequency axis in consideration of the periodicity (pitch structure) of the waveform on the frequency axis determined according to the pitch. It is formed by arranging it repeatedly. The waveform for one band is obtained by FFT by regarding a waveform obtained by adding (filling with 0) 1792 samples of 0 data to a Hamming window function of 256 samples as shown in FIG. 4 as a time axis signal. It can be formed by cutting out an impulse waveform having a certain bandwidth on the frequency axis according to the pitch.

【0032】次に、上記ピッチに応じて分割された各バ
ンド毎に、上記H(j) を代表させるような(各バンド毎
のエラーを最小化するような)値(一種の振幅)|Am
|を求める。ここで、例えば第mバンド(第m高調波の
帯域)の下限、上限の点をそれぞれam 、bm とすると
き、この第mバンドのエラーεm は、
Next, for each band divided according to the above pitch, a value (a kind of amplitude) | A that represents the above H (j) (minimizes the error for each band) | A m
Ask for |. Here, for example, when the lower limit point and the upper limit point of the m-th band (band of the m-th harmonic) are a m and b m , respectively, the error ε m of the m-th band is

【0033】[0033]

【数1】 [Equation 1]

【0034】で表せる。このエラーεm を最小化するよ
うな|Am |は、
It can be represented by | A m | that minimizes this error ε m is

【0035】[0035]

【数2】 [Equation 2]

【0036】となり、この(6)式の|Am |のとき、
エラーεm を最小化する。
Thus, when | A m | in the equation (6),
Minimize the error ε m .

【0037】このような振幅|Am |を各バンド毎に求
め、得られた各振幅|Am |を用いて上記(5)式で定
義された各バンド毎のエラーεm を求める。次に、この
ような各バンド毎のエラーεm の全バンドの総和値Σε
m を求める。さらに、このような全バンドのエラー総和
値Σεm を、いくつかの微小に異なるピッチについて求
め、エラー総和値Σεm が最小となるようなピッチを求
める。
Such an amplitude | A m | is obtained for each band, and the obtained amplitude | A m | is used to obtain the error ε m for each band defined by the above equation (5). Next, the sum Σε of all the bands of the error ε m for each band as described above.
Find m . Further, such an error sum value Σε m of all bands is obtained for some slightly different pitches, and a pitch that minimizes the error sum value Σε m is obtained.

【0038】すなわち、上記ピッチ抽出部13で求めら
れたラフピッチを中心として、例えば 0.25 きざみで上
下に数種類ずつ用意する。これらの複数種類の微小に異
なるピッチの各ピッチに対してそれぞれ上記エラー総和
値Σεm を求める。この場合、ピッチが定まるとバンド
幅が決まり、上記(6)式より、周波数軸上データのパ
ワースペクトル|S(j) |と励起信号スペクトル|E
(j) |とを用いて上記(5)式のエラーεm を求め、そ
の全バンドの総和値Σεm を求めることができる。この
エラー総和値Σεm を各ピッチ毎に求め、最小となるエ
ラー総和値に対応するピッチを最適のピッチとして決定
するわけである。以上のようにして高精度ピッチサーチ
部で最適のファイン(例えば 0.25 きざみ)ピッチが求
められ、この最適ピッチに対応する振幅|Am |が決定
される。このときの振幅値の計算は、有声音の振幅評価
部18Vにおいて行われる。
That is, with the rough pitch obtained by the pitch extraction unit 13 as the center, several types are prepared up and down in steps of, for example, 0.25. The error sum value Σε m is obtained for each of these plural kinds of slightly different pitches. In this case, if the pitch is determined, the bandwidth is determined, and from the above formula (6), the power spectrum | S (j) |
(j) | can be used to find the error ε m in the above equation (5), and the total sum Σε m of all the bands can be found. This error sum total value Σε m is obtained for each pitch, and the pitch corresponding to the minimum error sum value is determined as the optimum pitch. As described above, the high-precision pitch search unit obtains the optimum fine (for example, 0.25 step) pitch, and the amplitude | A m | corresponding to this optimum pitch is determined. The calculation of the amplitude value at this time is performed in the voiced sound amplitude evaluation unit 18V.

【0039】以上ピッチのファインサーチの説明におい
ては、説明を簡略化するために、全バンドが有声音(Vo
iced)の場合を想定しているが、上述したようにMBE
ボコーダにおいては、同時刻の周波数軸上に無声音(Un
voiced)領域が存在するというモデルを採用しているこ
とから、上記各バンド毎に有声音/無声音の判別を行う
ことが必要とされる。
In the above description of the pitch fine search, in order to simplify the explanation, all bands are voiced (Vo
Assuming the case of iced), MBE as described above
In the vocoder, unvoiced sound (Un
Since a model in which a voiced) region exists is used, it is necessary to distinguish voiced sound / unvoiced sound for each band.

【0040】上記高精度ピッチサーチ部16からの最適
ピッチ及び振幅評価部(有声音)18Vからの振幅|A
m |のデータは、有声音/無声音判別部17に送られ、
上記各バンド毎に有声音/無声音の判別が行われる。こ
の判別のためにNSR(ノイズtoシグナル比)を利用
する。すなわち、第mバンドのNSRであるNSR
mは、
Optimal pitch from the high precision pitch search section 16 and amplitude from amplitude evaluation section (voiced sound) 18V | A
The data of m | is sent to the voiced sound / unvoiced sound discrimination unit 17,
The voiced sound / unvoiced sound is discriminated for each band. NSR (noise to signal ratio) is used for this determination. That is, the NSR that is the NSR of the m-th band
m is

【0041】[0041]

【数3】 [Equation 3]

【0042】と表せ、このNSRm が所定の閾値Th1
(例えばTh1 =0.2)より大のとき(すなわちエラー
が大きいとき)には、そのバンドでの|Am ||E(j)
|による|S(j) |の近似が良くない(上記励起信号|
E(j) |が基底として不適当である)と判断でき、当該
バンドをUV(Unvoiced、無声音)と判別する。これ以
外のときは、近似がある程度良好に行われていると判断
でき、そのバンドをV(Voiced、有声音)と判別する。
This NSR m is a predetermined threshold value Th 1
When larger than (for example, Th 1 = 0.2) (that is, when the error is large), | A m || E (j) in that band
The approximation of | S (j) | by | is not good (the above excitation signal |
E (j) | is unsuitable as a base) and the band is determined to be UV (Unvoiced). In other cases, it can be determined that the approximation is performed to a certain extent, and the band is determined to be V (Voiced, voiced sound).

【0043】ところで、上述したように基本ピッチ周波
数で分割されたバンドの数(ハーモニックスの数)は、
声の高低(ピッチの大小)によって約8〜63程度の範
囲で変動するため、各バンド毎のV/UVフラグの個数
も同様に変動してしまう。そこで、本実施例において
は、固定的な周波数帯域で分割した一定個数のバンド毎
にV/UV判別結果をまとめる(あるいは縮退させる)
ようにしている。具体的には、音声帯域を含む所定帯域
(例えば0〜4000Hz)をNB 個(例えば12個)の
バンドに分割し、各バンド内の上記NSR値に従って、
例えば重み付き平均値を所定の閾値Th2 で弁別して、
当該バンドのV/UVを判断している。
By the way, as described above, the number of bands divided by the fundamental pitch frequency (the number of harmonics) is
The number of V / UV flags for each band similarly varies because the voice varies in the range of about 8 to 63 depending on the pitch (the size of the pitch). Therefore, in this embodiment, the V / UV discrimination results are collected (or degenerated) for each fixed number of bands divided by a fixed frequency band.
I am trying. Specifically, a predetermined band (for example, 0 to 4000 Hz) including a voice band is divided into N B (for example, 12) bands, and according to the NSR value in each band,
For example, the weighted average value is discriminated by a predetermined threshold Th 2 ,
The V / UV of the band is judged.

【0044】次に、無声音の振幅評価部18Uには、直
交変換部15からの周波数軸上データ、ピッチサーチ部
16からのファインピッチデータ、有声音振幅評価部1
8Vからの振幅|Am |のデータ、及び上記有声音/無
声音判別部17からのV/UV(有声音/無声音)判別
データが供給されている。この振幅評価部(無声音)1
8Uでは、有声音/無声音判別部17において無声音
(UV)と判別されたバンドに関して、再度振幅を求め
て(振幅再評価を行って)いる。このUVのバンドにつ
いての振幅|Am UVは、
Next, in the unvoiced sound amplitude evaluation unit 18U, the frequency axis data from the orthogonal transformation unit 15, the fine pitch data from the pitch search unit 16, and the voiced sound amplitude evaluation unit 1 are included.
Data of amplitude | A m | from 8 V and V / UV (voiced sound / unvoiced sound) discrimination data from the voiced sound / unvoiced sound discrimination unit 17 are supplied. This amplitude evaluation section (unvoiced sound) 1
In 8U, the amplitude is obtained again (amplitude re-evaluation is performed) with respect to the band that is determined to be unvoiced sound (UV) by the voiced sound / unvoiced sound determination unit 17. The amplitude | A m | UV for this UV band is

【0045】[0045]

【数4】 [Equation 4]

【0046】にて求められる。It is calculated by

【0047】この振幅評価部(無声音)18Uからのデ
ータは、データ数変換(一種のサンプリングレート変
換)部19に送られる。このデータ数変換部19は、上
記ピッチに応じて周波数軸上での分割帯域数が異なり、
データ数(特に振幅データの数)が異なることを考慮し
て、一定の個数にするためのものである。すなわち、例
えば有効帯域を3400kHzまでとすると、この有効帯
域が上記ピッチに応じて、8バンド〜63バンドに分割
されることになり、これらの各バンド毎に得られる上記
振幅|Am |(UVバンドの振幅|Am UVも含む)デ
ータの個数mMX+1も8〜63と変化することになる。
このためデータ数変換部19では、この可変個数mMX
1の振幅データを一定個数M(例えば44個)のデータ
に変換している。
The data from the amplitude evaluation unit (unvoiced sound) 18U is sent to the data number conversion (a kind of sampling rate conversion) unit 19. The data number conversion unit 19 has a different number of divided bands on the frequency axis according to the pitch,
This is for keeping the number constant, considering that the number of data (especially the number of amplitude data) is different. That is, for example, when the effective band is set to 3400 kHz, the effective band is divided into 8 bands to 63 bands according to the pitch, and the amplitude | A m | (UV The number of data m MX +1 including the band amplitude | A m | UV also changes from 8 to 63.
Therefore, in the data number conversion unit 19, this variable number m MX +
One amplitude data is converted into a fixed number M (for example, 44) of data.

【0048】ここで本実施例においては、例えば、周波
数軸上の有効帯域1ブロック分の振幅データに対して、
ブロック内の最後のデータからブロック内の最初のデー
タまでの値を補間するようなダミーデータを付加してデ
ータ個数をNF 個に拡大した後、帯域制限型のOS
(例えば8倍)のオーバーサンプリングを施すことによ
りOS 倍の個数の振幅データを求め、このOS 倍の個数
((mMX+1)×OS 個)の振幅データを直線補間して
さらに多くのNM 個(例えば2048個)に拡張し、こ
のNM 個のデータを間引いて上記一定個数M(例えば4
4個)のデータに変換している。
Here, in the present embodiment, for example, for amplitude data of one block of the effective band on the frequency axis,
After adding dummy data that interpolates the values from the last data in the block to the first data in the block to increase the number of data to N F , the bandwidth-limited type OS times (for example, 8 times) The amplitude data of the number of O S times is obtained by performing the oversampling of the number of (A), and the number of the amplitude data of the number of O S times ((m MX +1) × O S number) is linearly interpolated to obtain a larger number of N M ( For example, the number of data is expanded to 2048, and the N M pieces of data are thinned out to obtain the fixed number M (for example, 4 pieces).
4) data.

【0049】このデータ数変換部19からのデータ(上
記一定個数M個の振幅データ)がベクトル量子化部20
に送られて、所定個数のデータ毎にまとめられてベクト
ルとされ、ベクトル量子化が施される。ベクトル量子化
部20からの量子化出力データ(の主要部)は、上記高
精度のピッチサーチ部16からの高精度(ファイン)ピ
ッチデータ及び上記有声音/無声音判別部17からの有
声音/無声音(V/UV)判別データ、さらに、後述す
る位相コードデータと共に、符号化部21に送られて符
号化される。
The data from the data number conversion unit 19 (the above-mentioned fixed number M of amplitude data) is the vector quantization unit 20.
To a vector, and a predetermined number of pieces of data are combined into a vector, and vector quantization is performed. The quantized output data from the vector quantizer 20 (main part thereof) is the high-precision (fine) pitch data from the high-precision pitch search unit 16 and the voiced / unvoiced sound from the voiced / unvoiced sound discrimination unit 17. The (V / UV) discrimination data and the phase code data described later are sent to the encoding unit 21 and encoded.

【0050】なお、これらの各データは、上記Nサンプ
ル(例えば256サンプル)のブロック内のデータに対
して処理を施すことにより得られるものであるが、ブロ
ックは時間軸上を上記Lサンプルのフレームを単位とし
て前進することから、伝送するデータは上記フレーム単
位で得られる。すなわち、上記フレーム周期でピッチデ
ータ、V/UV判別データ、振幅データ及び位相コード
データが更新されることになる。また、上記有声音/無
声音判別部17からのV/UV判別データについては、
上述したように、必要に応じて12バンド程度に低減
(縮退)され、全バンド中で1箇所以下の有声音(V)
領域と無声音(UV)領域との区分位置を有すると共
に、所定条件を満足する場合に低域側のV(有声音)が
高域側にまで拡張されたV/UV判別データパターンを
表すものである。
Each of these data is obtained by processing the data in the block of N samples (for example, 256 samples), but the block is the frame of L samples on the time axis. , The data to be transmitted is obtained in the frame unit. That is, the pitch data, the V / UV discrimination data, the amplitude data, and the phase code data are updated at the frame cycle. Further, regarding the V / UV discrimination data from the voiced sound / unvoiced sound discrimination section 17,
As mentioned above, if necessary, it is reduced (degenerated) to about 12 bands, and voiced sound (V) at one place or less in all bands.
A V / UV discrimination data pattern in which a region and an unvoiced sound (UV) region are separated and V (voiced sound) on the low frequency side is expanded to the high frequency side when a predetermined condition is satisfied. is there.

【0051】上記符号化部21においては、例えばCR
C付加及びレート1/2畳み込み符号付加処理が施され
る。すなわち、上記位相コードデータ、上記ピッチデー
タ、上記有声音/無声音(V/UV)判別データ、及び
上記量子化出力データの内の重要なデータについてはC
RC誤り訂正符号化が施された後、畳み込み符号化が施
される。符号化部21からの符号化出力データは、フレ
ームインターリーブ部22に送られ、ベクトル量子化部
20からの一部(例えば重要度の低い)データと共にイ
ンターリーブ処理されて、出力端子23から取り出さ
れ、合成側(デコード側)に伝送(あるいは記録再生)
される。
In the encoding unit 21, for example, CR
C addition and rate 1/2 convolutional code addition processing is performed. That is, C is the important data of the phase code data, the pitch data, the voiced / unvoiced (V / UV) discrimination data, and the quantized output data.
After RC error correction coding is performed, convolutional coding is performed. The encoded output data from the encoding unit 21 is sent to the frame interleaving unit 22, is subjected to interleave processing together with some (for example, low importance) data from the vector quantization unit 20, and is extracted from the output terminal 23. Transmission (or recording / playback) to the synthesis side (decoding side)
To be done.

【0052】次に、入力音声信号のブロック内の時間波
形上で、基本ピッチ周期の各ピークの中間位置に、ある
程度の大きさのピーク(中間ピーク)が存在するか否か
を表す位相コードデータについて説明する。以下の説明
中では、この中間ピークが存在しないものをタイプIの
音声信号、中間ピークが存在するものをタイプIIの音
声信号という。
Next, on the time waveform in the block of the input audio signal, phase code data indicating whether or not there is a peak (intermediate peak) of a certain size at the intermediate position of each peak of the basic pitch period. Will be described. In the following description, a signal having no intermediate peak will be referred to as a type I audio signal, and a signal having an intermediate peak will be referred to as a type II audio signal.

【0053】上記フィルタ12からの出力信号は、ピー
クサーチ部26に送られて、ブロック(例えば256サ
ンプル)内で最も値の大きなピーク(最大ピーク)が検
出される。
The output signal from the filter 12 is sent to the peak search section 26, and the peak having the largest value (maximum peak) in the block (for example, 256 samples) is detected.

【0054】ピッチピーク位置検出部27では、上記ブ
ロック内の最大ピークの位置(時間軸上の位置)と、上
記高精度ピッチサーチ部16からの基本ピッチ情報(あ
るいはピッチ抽出部13からのピッチ情報でもよい)と
に基づいて、ピッチ周期p毎に繰り返すピーク(ピッチ
ピーク)を検出する。これは、上記最大ピーク位置に対
して上記基本ピッチ周期pの整数倍だけ離れた位置の近
傍(数サンプル程度)の内で最大となるサンプル値m1
を検出すればよい。一般にこのサンプル値m1は1ブロ
ック内で複数個求められ、これらをm11 、m12 、・
・・とする。
In the pitch peak position detecting section 27, the position of the maximum peak in the block (position on the time axis) and the basic pitch information from the high precision pitch searching section 16 (or the pitch information from the pitch extracting section 13). However, the peaks (pitch peaks) that repeat every pitch period p are detected. This is the maximum sample value m1 in the vicinity (a few samples) of a position distant from the maximum peak position by an integer multiple of the basic pitch period p.
Should be detected. Generally, a plurality of sample values m1 are obtained in one block, and these sample values m1 1 , m1 2 , ...
・ ・

【0055】次の局所最大検出部28では、上記ブロッ
ク内において、上記各ピッチピーク位置の中間位置(各
ピッチピーク位置からそれぞれ1/2ピッチ周期だけ離
れた位置)の近傍や、さらに各ピッチピーク位置と上記
各中間位置とのそれぞれ中間の位置(各ピッチピーク位
置からそれぞれ1/4ピッチ周期だけ離れた位置)の近
傍での最大値となるピーク(いわゆる極大)を検出す
る。
In the next local maximum detection unit 28, in the block, in the vicinity of the intermediate position of each pitch peak position (positions apart from each pitch peak position by 1/2 pitch period), and further each pitch peak. A peak (so-called maximum) in the vicinity of a position intermediate between the position and each of the intermediate positions (positions separated from each pitch peak position by ¼ pitch cycle) is detected.

【0056】ここで、上記各ピッチピークm11 、m1
2 、・・・の各位置tp1、tp2、・・・に対して、それ
ぞれ1/2ピッチ周期(p/2)だけ離れた位置の近傍
のピークである中間ピークをm21 、m22 、・・・と
し、それぞれ1/4ピッチ周期(p/4)だけ離れた位
置の近傍のピークである1/4ピッチピークをm31
m32 、・・・とする。これらのピークと入力信号波形
との関係の一例を図6に示す。
Here, the above pitch peaks m1 1 and m1
2 , the intermediate peaks which are peaks in the vicinity of the positions ½ pitch period (p / 2) apart from the respective positions t p1 , t p2 , ... Of m2 1 , m2 2 , ..., and the 1/4 pitch peaks, which are peaks in the vicinity of positions separated by 1/4 pitch period (p / 4), are m3 1 ,
m3 2 , ... An example of the relationship between these peaks and the input signal waveform is shown in FIG.

【0057】ここで上記ピッチピークm11 、m12
・・・の統計量として、所定の閾値Thm より大きい条
件を満たすピッチピークm1k の集合についての総和e
1 を求める。すなわち、m1k >Thm を満たすkの集
合のm1k の総和値がe1 である。同じく、中間ピーク
m21 、m22 、・・・について、上記条件を満足する
kの集合に対応する中間ピークm2k の総和値e2 を求
め、1/4ピッチピークm31 、m32 、・・・につい
ても、上記条件を満足するkの集合に対応する1/4ピ
ッチピークm2k の総和値e3 を求める。なお、統計量
としては、上記総和値の他にも、平均値や、RMS値等
を用いることもできる。
Here, the pitch peaks m1 1 , m1 2 ,
As the statistic amount of ..., the sum e of the set of pitch peaks m1 k satisfying a condition larger than a predetermined threshold Th m
Ask for 1 . That is, the sum total value of m1 k of the set of k satisfying m1 k > Th m is e 1 . Similarly, for the intermediate peaks m2 1 , m2 2 , ..., The sum value e 2 of the intermediate peaks m2 k corresponding to the set of k satisfying the above conditions is obtained, and the quarter pitch peaks m3 1 , m3 2 ,. for even ..., obtaining the sum value e 3 1/4 pitch peak m @ 2 k corresponding to the set of k that satisfies the above conditions. As the statistic, an average value, an RMS value or the like can be used in addition to the above sum value.

【0058】次の分類部29では、これらの統計量(総
和値)e1 、e2 、e3 を用いて、上記タイプIとタイ
プIIとの分類を行う。すなわち、上記ピッチピークの
総和値e1 と、上記各総和値e2 、e3 との比率r1
2 として、 r1 =e2 /e1 、 r2 =e3 /e1 を用い、例えば、 (c1) r1 >0.4 かつ r1 >r2 ×1.5 (c2) r1 >0.5 かつ r1 >r2 ×1.3 (c3) r1 <1.5 かつ r2 <1.5 の3つの条件(c1)、(c2)、(c3)について、 ((c1)又は(c2)) かつ (c3) を満足するとき、上記タイプIIに分類、すなわち上記
中間ピークが顕著に存在すると判断する。
The next classification unit 29 classifies the type I and the type II using the statistics (sum values) e 1 , e 2 and e 3 . That is, the ratio r 1 of the total sum value e 1 of the pitch peaks to the total sum values e 2 and e 3 ,
As r 2 , r 1 = e 2 / e 1 and r 2 = e 3 / e 1 are used. For example, (c1) r 1 > 0.4 and r 1 > r 2 × 1.5 (c2) r 1 > 0.5 and r 1 > r 2 × 1.3 (c3) For three conditions (c1), (c2), and (c3) of r 1 <1.5 and r 2 <1.5, ((c1 ) Or (c2)) and (c3) are satisfied, it is determined that the above-mentioned type II classification, that is, the above intermediate peak is significantly present.

【0059】上記条件(c3)は、ノイズやエラーの多
い場合を除外するためである。上記条件(c1)、(c
2)は、強い1/2ピッチ周期ピーク(中間ピーク)が
存在することを検出するためのものである。このような
タイプIIの波形の信号は、上記中間ピークがない、あ
るいは小さい上記タイプIの波形の信号とは異なってい
る。
The above condition (c3) is for excluding cases where there are many noises and errors. The above conditions (c1), (c
2) is for detecting the presence of a strong 1/2 pitch period peak (intermediate peak). The signal of the type II waveform is different from the signal of the type I waveform having no or a small intermediate peak.

【0060】分類部29からは、上記タイプIのとき
0、上記タイプIIのとき1となるような1ビットの位
相コードデータが出力され、符号化部21に送られてい
る。なお符号化部21以降の動作は、上述した通りであ
るため、説明を省略する。
The classifying unit 29 outputs 1-bit phase code data which is 0 for the type I and 1 for the type II, and is sent to the encoding unit 21. Note that the operation of the encoding unit 21 and thereafter is the same as described above, and thus the description thereof is omitted.

【0061】次に、伝送されて(あるいは記録再生され
て)得られた上記各データに基づき音声信号を合成する
ための合成側(デコード側)の概略構成について、図7
を参照しながら説明する。
Next, FIG. 7 shows a schematic configuration of a synthesis side (decoding side) for synthesizing an audio signal based on the above-mentioned respective data obtained by being transmitted (or recorded / reproduced).
Will be described with reference to.

【0062】この図7において、入力端子31には、上
記図1に示すエンコーダ側の出力端子23から取り出さ
れたデータ信号に略々等しい(伝送や記録再生による信
号劣化を無視して)データ信号が供給される。この入力
端子31からのデータは、フレームデインターリーブ部
32に送られて、上記図1のインターリーブ処理の逆処
理となるデインターリーブ処理が施され、主要部(エン
コーダ側でCRC及び畳み込み符号化された部分で、一
般に重要度の高いデータ部分)は復号化部33で復号化
処理されてバッドフレームマスク処理部34に、残部
(符号化処理の施されていない重要度の低いもの)はそ
のままバッドフレームマスク処理部34に、それぞれ送
られる。復号化部33においては、例えばいわゆるビタ
ビ復号化処理やCRCチェックコードを用いたエラー検
出処理が施される。バッドフレームマスク処理部34
は、エラーの多いフレームのパラメータを補間で求める
ような処理を行うと共に、上記ピッチデータ、有声音/
無声音(V/UV)データ、及びベクトル量子化された
振幅データを分離して取り出す。さらに、バッドフレー
ムマスク処理部34からは、上記信号波形上の中間ピッ
チ位置でのピーク(中間ピーク)の存在、あるいは上記
タイプIかIIかを示す位相コードデータが取り出され
る。
In FIG. 7, a data signal at the input terminal 31 is substantially equal to the data signal taken out from the output terminal 23 on the encoder side shown in FIG. 1 (ignoring signal deterioration due to transmission and recording / reproduction). Is supplied. The data from the input terminal 31 is sent to the frame deinterleave unit 32, subjected to deinterleave processing which is the reverse processing of the interleave processing of FIG. 1 above, and subjected to CRC and convolutional coding on the main portion (encoder side). In the portion, generally, the data portion having high importance) is subjected to decoding processing by the decoding unit 33, and the remaining portion (data of low importance not subjected to the encoding processing) is directly subjected to bad frame mask processing in the bad frame mask processing unit 34. To the section 34. In the decoding unit 33, for example, so-called Viterbi decoding processing or error detection processing using a CRC check code is performed. Bad frame mask processing unit 34
Performs processing such as obtaining a parameter of a frame with many errors by interpolation, and also performs the above pitch data, voiced sound /
Unvoiced sound (V / UV) data and vector-quantized amplitude data are separated and extracted. Further, phase code data indicating the presence of a peak (intermediate peak) at the intermediate pitch position on the signal waveform or the type I or II is extracted from the bad frame mask processing unit 34.

【0063】バッドフレームマスク処理部34からの上
記ベクトル量子化された振幅データは、逆ベクトル量子
化部35に送られて逆量子化され、データ数逆変換部3
6に送られて逆変換される。このデータ数逆変換部36
では、上述した図1のデータ数変換部19と対照的な逆
変換が行われ、得られた振幅データが有声音合成部37
及び無声音合成部38に送られる。マスク処理部34か
らの上記ピッチデータは、有声音合成部37及び無声音
合成部38に送られる。またマスク処理部34からの上
記V/UV判別データも、有声音合成部37及び無声音
合成部38に送られる。さらに有声音合成部37には、
マスク処理部34からの上記位相コードデータも送られ
ている。
The vector-quantized amplitude data from the bad frame mask processing unit 34 is sent to the inverse vector quantization unit 35 and inversely quantized, and the data number inverse conversion unit 3
It is sent to 6 and is inversely transformed. This data number inverse conversion unit 36
Then, the inverse conversion, which is in contrast to the above-described data number conversion unit 19 of FIG.
And the unvoiced sound synthesizer 38. The pitch data from the mask processing unit 34 is sent to the voiced sound synthesis unit 37 and the unvoiced sound synthesis unit 38. The V / UV discrimination data from the mask processing section 34 is also sent to the voiced sound synthesis section 37 and the unvoiced sound synthesis section 38. Furthermore, the voiced sound synthesis unit 37
The phase code data from the mask processing unit 34 is also sent.

【0064】有声音合成部37では例えば余弦(cosine)
波合成により時間軸上の有声音波形を合成し、無声音合
成部38では例えばホワイトノイズをバンドパスフィル
タでフィルタリングして時間軸上の無声音波形を合成
し、これらの各有声音合成波形と無声音合成波形とを加
算部41で加算合成して、出力端子42より取り出すよ
うにしている。この場合、上記振幅データ、ピッチデー
タ及びV/UV判別データは、上記分析時の1フレーム
(Lサンプル、例えば160サンプル)毎に更新されて
与えられるが、フレーム間の連続性を高める(円滑化す
る)ために、上記振幅データやピッチデータの各値を1
フレーム中の例えば中心位置における各データ値とし、
次のフレームの中心位置までの間(合成時の1フレー
ム)の各データ値を補間により求める。すなわち、合成
時の1フレーム(例えば上記分析フレームの中心から次
の分析フレームの中心まで)において、先端サンプル点
での各データ値と終端(次の合成フレームの先端)サン
プル点での各データ値とが与えられ、これらのサンプル
点間の各データ値を補間により求めるようにしている。
In the voiced sound synthesizer 37, for example, cosine
The voiced sound waveform on the time axis is synthesized by wave synthesis, and the unvoiced sound synthesis unit 38 synthesizes the unvoiced sound waveform on the time axis by filtering white noise, for example, with a bandpass filter, and synthesizes each voiced sound waveform and unvoiced sound. The waveform and the waveform are added and synthesized by the adder 41 and output from the output terminal 42. In this case, the amplitude data, the pitch data, and the V / UV discrimination data are updated and given for each frame (L sample, for example, 160 samples) at the time of the analysis, but the continuity between the frames is improved (smoothed). To set each value of the above amplitude data and pitch data to 1
For example, each data value at the center position in the frame,
Each data value up to the center position of the next frame (one frame at the time of composition) is obtained by interpolation. That is, in one frame at the time of composition (for example, from the center of the above analysis frame to the center of the next analysis frame), each data value at the leading end sample point and each data value at the end (leading edge of the next composition frame) sample point Are given, and each data value between these sample points is obtained by interpolation.

【0065】また、V/UV判別データに応じて全バン
ドを1箇所の区分位置で有声音(V)領域と無声音(U
V)領域とに区分することができ、この区分に応じて、
各バンド毎のV/UV判別データを得ることができる。
ここで、分析側(エンコーダ側)で一定数(例えば12
程度)のバンドに低減(縮退)されている場合には、こ
れを解いて(復元して)、元のピッチに応じた間隔で可
変個数のバンドとすることは勿論である。
Further, according to the V / UV discrimination data, the voiced sound (V) region and the unvoiced sound (U
V) area, and according to this division,
V / UV discrimination data for each band can be obtained.
Here, a fixed number (for example, 12
When the number of bands is reduced (degenerated), the number of bands is solved (restored) to obtain a variable number of bands at intervals according to the original pitch.

【0066】以下、有声音合成部37における合成処理
を詳細に説明する。先ず、上記位相コードデータが0の
とき、すなわち、上記中間ピークのない(あるいは小さ
い)上記タイプIの音声信号の合成の場合について説明
する。
The synthesis processing in the voiced sound synthesis unit 37 will be described in detail below. First, a case will be described in which the phase code data is 0, that is, the type I audio signal without the intermediate peak (or small) is synthesized.

【0067】上記V(有声音)と判別された第mバンド
(第m高調波の帯域)における時間軸上の上記1合成フ
レーム(Lサンプル、例えば160サンプル)分の有声
音をVm (n) とするとき、この合成フレーム内の時間イ
ンデックス(サンプル番号)nを用いて、 Vm (n) =Am (n) cos(θm (n)) 0≦n<L ・・・(9) と表すことができる。全バンドの内のV(有声音)と判
別された全てのバンドの有声音を加算(ΣVm (n) )し
て最終的な有声音V(n) を合成する。
The voiced sound corresponding to the above-mentioned one composite frame (L samples, for example, 160 samples) on the time axis in the m-th band (band of the m-th harmonic) determined to be V (voiced sound) is V m (n ), V m (n) = A m (n) cos (θ m (n)) 0 ≦ n <L (9) by using the time index (sample number) n in this combined frame ) It can be expressed as. The final voiced sound V (n) is synthesized by adding (ΣV m (n)) the voiced sounds of all bands that are determined to be V (voiced sound) of all bands.

【0068】この(9)式中のAm (n) は、上記合成フ
レームの先端から終端までの間で補間された第m高調波
の振幅である。最も簡単には、フレーム単位で更新され
る振幅データの第m高調波の値を直線補間すればよい。
すなわち、上記合成フレームの先端(n=0)での第m
高調波の振幅値をA0m、該合成フレームの終端(n=
L:次の合成フレームの先端)での第m高調波の振幅値
をALmとするとき、 Am (n) = (L-n)A0m/L+nALm/L ・・・(10) の式によりAm (n) を計算すればよい。
A m (n) in the equation (9) is the amplitude of the m-th harmonic wave interpolated from the beginning to the end of the composite frame. The simplest way is to linearly interpolate the value of the m-th harmonic of the amplitude data updated in frame units.
That is, the m-th frame at the tip (n = 0) of the composite frame
The amplitude value of the harmonic is A 0m , the end of the composite frame (n =
L: the amplitude value of the m-th harmonic at the next composite frame) is A Lm, and the following equation is used: A m (n) = (Ln) A 0m / L + nA Lm / L (10) It suffices to calculate A m (n).

【0069】次に、上記(9)式中の位相θm (n) は、 θm (n) =mωO1n+n2 m(ωL1−ω01)/2L+φ0m+Δωn ・・・(11) により求めることができる。この(11)式中で、φ0m
上記合成フレームの先端(n=0)での第m高調波の位
相(フレーム初期位相)を示し、ω01は合成フレーム先
端(n=0)での基本角周波数、ωL1は該合成フレーム
の終端(n=L:次の合成フレーム先端)での基本角周
波数をそれぞれ示している。上記(11)式中のΔωは、
n=Lにおける位相φLmがθm (L) に等しくなるような
最小のΔωを設定する。
Next, the phase θ m (n) in the above equation (9) is calculated by θ m (n) = mω O1 n + n 2 m (ω L1 −ω 01 ) / 2L + φ 0 m + Δω n (11) You can ask. In the equation (11), φ 0m represents the phase of the m-th harmonic (frame initial phase) at the tip (n = 0) of the composite frame, and ω 01 is at the tip of the composite frame (n = 0). The fundamental angular frequency, ω L1, indicates the fundamental angular frequency at the end of the composite frame (n = L: leading end of the next composite frame). Δω in the above equation (11) is
Set a minimum Δω such that the phase φ Lm at n = L is equal to θ m (L).

【0070】以下、任意の第mバンドにおいて、それぞ
れn=0、n=LのときのV/UV判別結果に応じた上
記振幅Am (n) 、位相θm (n) の求め方を説明する。
Hereinafter, how to obtain the amplitude A m (n) and the phase θ m (n) according to the V / UV discrimination result when n = 0 and n = L in an arbitrary m-th band will be described. To do.

【0071】第mバンドが、n=0、n=Lのいずれも
V(有声音)とされる場合に、振幅Am (n) は、上述し
た(10)式により、伝送された振幅値A0m、ALmを直線
補間して振幅Am (n) を算出すればよい。位相θm (n)
は、n=0でθm (0) =φ0mからn=Lでθm (L) がφ
LmとなるようにΔωを設定する。
When the m-th band is V (voiced sound) for both n = 0 and n = L, the amplitude A m (n) is the amplitude value transmitted by the above equation (10). The amplitude A m (n) may be calculated by linearly interpolating A 0m and A Lm . Phase θ m (n)
From n 0, θ m (0) = φ 0 m to n = L, θ m (L) is φ
Set Δω to be Lm .

【0072】次に、n=0のときV(有声音)で、n=
LのときUV(無声音)とされる場合に、振幅Am (n)
は、Am (0) の伝送振幅値A0mからAm (L) で0となる
ように直線補間する。n=Lでの伝送振幅値ALmは無声
音の振幅値であり、後述する無声音合成の際に用いられ
る。位相θm (n) は、θm (0) =φ0mとし、かつΔω=
0とする。
Next, when n = 0, V (voiced sound) and n =
Amplitude A m (n) when UV (unvoiced sound) when L
Is linearly interpolated so that 0 A m (L) from the transmission amplitude value A 0 m of A m (0). The transmission amplitude value A Lm when n = L is the amplitude value of unvoiced sound and is used in unvoiced sound synthesis described later. The phase θ m (n) is θ m (0) = φ 0 m , and Δω =
Set to 0.

【0073】さらに、n=0のときUV(無声音)で、
n=LのときV(有声音)とされる場合には、振幅Am
(n) は、n=0での振幅Am (0) を0とし、n=Lで伝
送された振幅値ALmとなるように直線補間する。位相θ
m (n) については、n=0での位相θm (0) として、フ
レーム終端での位相値φLmを用いて、 θm (0) =φLm−m(ωO1+ωL1)L/2 ・・・(12) とし、かつΔω=0とする。
Further, when n = 0, UV (unvoiced sound)
When n = L, when V (voiced sound) is used, the amplitude A m
(n) is linearly interpolated so that the amplitude A m (0) at n = 0 is 0 and the transmitted amplitude value A Lm is obtained at n = L. Phase θ
For m (n), using the phase value φ Lm at the end of the frame as the phase θ m (0) at n = 0, θ m (0) = φ Lm −m (ω O1 + ω L1 ) L / 2 ... (12) and Δω = 0.

【0074】上記n=0、n=LのいずれもV(有声
音)とされる場合に、θm (L) がφLmとなるようにΔω
を設定する手法について説明する。上記(11)式で、n
=Lと置くことにより、 θm (L) =mωO1L+L2 m(ωL1−ω01)/2L+φ0m+ΔωL =m(ωO1+ωL1)L/2+φ0m+ΔωL =φLm となり、これを整理すると、Δωは、 Δω=(mod2π((φLm−φ0m) − mL(ωO1+ωL1)/2)/L ・・・(13) となる。この(13)式でmod2π(x) とは、xの主値を−
π〜+πの間の値で返す関数である。例えば、x=1.3
πのときmod2π(x) =−0.7π、x=2.3πのときmod2
π(x) =0.3π、x=−1.3πのときmod2π(x) =0.7
π、等である。
When both n = 0 and n = L are V (voiced sound), Δω is set so that θ m (L) becomes φ Lm.
A method of setting will be described. In the above formula (11), n
= L, then θ m (L) = mω O1 L + L 2 m (ω L1 − ω 01 ) / 2L + φ 0m + ΔωL = m (ω O1 + ω L1 ) L / 2 + φ 0m + ΔωL = φ Lm . Then, Δω becomes Δω = (mod2π ((φ Lm −φ 0m ) −mL (ω O1 + ω L1 ) / 2) / L (13). In this equation (13), mod 2π (x) Is the principal value of x
It is a function that returns a value between π and + π. For example, x = 1.3
mod2 π (x) = -0.7π when π, mod2 when x = 2.3π
When π (x) = 0.3π and x = -1.3π, mod2π (x) = 0.7
π, and so on.

【0075】以上の有声音合成は、信号波形のピッチ周
期のピーク(ピッチピーク)の中間位置近傍にピーク
(中間ピーク)が存在しないか、あっても小さい場合、
すなわち上記タイプI(位相コードが0)の場合の例で
あるが、上記中間ピークが存在する場合、すなわち上記
タイプII(位相コードが1)の場合には、上記フレー
ム(ブロック)終端の位相値φLmをずらすような処理を
行っている。
In the above voiced sound synthesis, when there is no peak (intermediate peak) in the vicinity of the intermediate position of the peak (pitch peak) of the pitch period of the signal waveform, or if it is small,
That is, this is an example of the case of type I (phase code is 0), but in the case where the intermediate peak exists, that is, in the case of type II (phase code is 1), the phase value at the end of the frame (block) Processing is performed to shift φ Lm .

【0076】すなわち、この位相調整操作あるいは位相
操作処理の具体例について、図8を参照しながら説明す
る。
That is, a specific example of this phase adjustment operation or phase operation processing will be described with reference to FIG.

【0077】この処理の最初のステップ51において
は、伝送されてきた位相コードを判別し、1(タイプI
I、中間ピークあり)のときはステップ52に進み、0
(タイプI)のときはステップ55に進んでいる。ステ
ップ52では、現在の位相フラグ(前フレームで送られ
てきた位相コードの内容)が0か1かを判別し、0のと
きにはステップ53に進み、1のときには上記ステップ
51に戻っている。ステップ53では、位相調整操作を
行い、次のステップ54に進んで、位相フラグを1に設
定している。すなわち、位相コードが0から1に変化し
たとき、ステップ53で位相調整操作が行われる。
In the first step 51 of this processing, the transmitted phase code is discriminated and 1 (type I
I, with intermediate peak), proceed to step 52, 0
If it is (type I), the process proceeds to step 55. In step 52, it is determined whether the current phase flag (contents of the phase code sent in the previous frame) is 0 or 1, and when it is 0, the process proceeds to step 53, and when it is 1, the process returns to step 51. In step 53, the phase adjustment operation is performed, and the process proceeds to the next step 54 to set the phase flag to 1. That is, when the phase code changes from 0 to 1, the phase adjustment operation is performed in step 53.

【0078】この位相調整操作としては、基準位相に対
してフレーム(ブロック)終端位相をずらす操作が挙げ
られ、より具体的には、上記フレーム終端の位相値φLm
を奇数次高調波(m=1、3、5、・・・)のみπ/4
だけずらしている。 φLm=φLm+π/4 ・・・(18) ただし、m=1、3、5、・・・
The phase adjusting operation includes an operation of shifting the frame (block) end phase with respect to the reference phase, and more specifically, the phase value φ Lm of the frame end.
Is an odd harmonic (m = 1, 3, 5, ...) Only π / 4
It just shifts. φ Lm = φ Lm + π / 4 (18) where m = 1, 3, 5, ...

【0079】このように、奇数次高調波をπ/4だけ進
ませることにより、ピッチピーク間の中間ピークを効果
的に付加するような信号合成が行える。
As described above, by advancing the odd harmonics by π / 4, it is possible to perform signal synthesis that effectively adds an intermediate peak between pitch peaks.

【0080】ステップ55では、位相フラグを判別して
おり、0のときは上記ステップ51に戻り、1のときは
ステップ56に進んでいる。ステップ56では、元の通
常の音声合成処理、すなわち、ゼロ位相や最小位相推移
を用いた方法に復帰させている。具体的には、上記(1
8)式の逆の操作として、 φLm=φLm−π/4 ・・・(19) ただし、m=1、3、5、・・・を行っている。
In step 55, the phase flag is discriminated. When it is 0, the process returns to step 51, and when it is 1, the process proceeds to step 56. In step 56, the original normal speech synthesis process, that is, the method using the zero phase or the minimum phase transition is restored. Specifically, (1
.Phi.Lm = .phi.Lm- .pi. / 4 (19), where m = 1, 3, 5, ...

【0081】このステップ56で位相復帰操作が施され
た後、ステップ57に進み、位相フラグを0に設定して
いる。このように、位相コードが1から0に変化したと
き、ステップ56で位相を元の状態に戻す位相復帰処理
が行われる。
After the phase restoring operation is performed in step 56, the process proceeds to step 57 and the phase flag is set to 0. In this way, when the phase code changes from 1 to 0, the phase restoring process for returning the phase to the original state is performed in step 56.

【0082】以下、無声音合成部38における無声音合
成処理を説明する。ホワイトノイズ発生部43からの時
間軸上のホワイトノイズ信号波形を窓かけ処理部44に
送って、所定の長さ(例えば256サンプル)で適当な
窓関数(例えばハミング窓)により窓かけをし、STF
T処理部45によりSTFT(ショートタームフーリエ
変換)処理を施すことにより、ホワイトノイズの周波数
軸上のパワースペクトルを得る。このSTFT処理部4
5からのパワースペクトルをバンド振幅処理部46に送
り、上記UV(無声音)とされたバンドについて上記振
幅|Am UVを乗算し、他のV(有声音)とされたバン
ドの振幅を0にする。このバンド振幅処理部46には上
記振幅データ、ピッチデータ、V/UV判別データが供
給されている。
The unvoiced sound synthesizing process in the unvoiced sound synthesizing section 38 will be described below. The white noise signal waveform on the time axis from the white noise generation unit 43 is sent to the windowing processing unit 44, and windowed by a suitable window function (for example, Hamming window) with a predetermined length (for example, 256 samples), STF
A power spectrum on the frequency axis of white noise is obtained by performing STFT (Short Term Fourier Transform) processing by the T processing unit 45. This STFT processing unit 4
The power spectrum from No. 5 is sent to the band amplitude processing unit 46, the above UV (unvoiced sound) band is multiplied by the above amplitude | A m | UV, and the amplitude of the other V (voiced sound) band is set to 0. To The band amplitude processing section 46 is supplied with the amplitude data, the pitch data, and the V / UV discrimination data.

【0083】バンド振幅処理部46からの出力は、IS
TFT処理部47に送られ、位相は元のホワイトノイズ
の位相を用いて逆STFT処理を施すことにより時間軸
上の信号に変換する。ISTFT処理部47からの出力
は、オーバーラップ加算部48に送られ、時間軸上で適
当な(元の連続的なノイズ波形を復元できるように)重
み付けをしながらオーバーラップ及び加算を繰り返し、
連続的な時間軸波形を合成する。このオーバーラップ加
算部48からの出力信号が上記加算部41に送られる。
The output from the band amplitude processing unit 46 is IS
The signal is sent to the TFT processing unit 47, and the phase is converted into a signal on the time axis by performing inverse STFT processing using the phase of the original white noise. The output from the ISTFT processing unit 47 is sent to the overlap adding unit 48, and the overlap and addition are repeated while appropriate weighting (so that the original continuous noise waveform can be restored) on the time axis,
Synthesize continuous time axis waveforms. The output signal from the overlap adder 48 is sent to the adder 41.

【0084】このように、各合成部37、38において
合成されて時間軸上に戻された有声音部及び無声音部の
各信号は、加算部41により適当な固定の混合比で加算
して、出力端子42より再生された音声信号を取り出
す。
As described above, the signals of the voiced sound portion and the unvoiced sound portion which have been synthesized by the respective synthesis units 37 and 38 and have been returned to the time axis are added by the addition unit 41 at an appropriate fixed mixing ratio, The reproduced audio signal is taken out from the output terminal 42.

【0085】以上は上記位相情報を1ビットとした場合
の実施例であるが、2ビット以上として振幅情報(ピー
クの強さの情報)も送るようにしてもよい。この場合に
は、前述したピッチピークの総和値e1 に対する中間ピ
ークの総和値e2 の比率e2/e1 に応じて位相情報を
表し、合成側(デコード側)で奇数次高調波の位相の強
弱を調節して中間ピークの強さを可変とすればよい。
The above is the embodiment in which the phase information is 1 bit, but the amplitude information (information of the peak intensity) may be sent with 2 bits or more. In this case, the phase information is represented according to the ratio e 2 / e 1 of the total sum value e 2 of the intermediate peaks to the total sum value e 1 of the pitch peaks described above, and the phase of the odd harmonics on the synthesis side (decoding side). The strength of the intermediate peak can be made variable by adjusting the strength of.

【0086】以下、位相情報(位相コードデータ)とし
て2ビットを用いる実施例について説明する。
An embodiment using 2 bits as the phase information (phase code data) will be described below.

【0087】2ビットの位相コードPCの具体例とし
て、次の条件のα、βの値に応じて位相コードデータを
決定している。すなわち、 (e2 /e1 ≧α)かつ(e2 /e1 <β)かつ(e2
>e3 ×1.3 ) の条件において、α、βの値に対する位相コードPC及
び合成側でのフレーム終端位相値φLmの奇数次高調波
(m=1、3、5、・・・)についての位相ずらし量δ
を、 α=0.25、β=0.5 のとき、PC=1、δ=π/8 α=0.5 、β=0.75 のとき、PC=2、δ=π/4 α=0.75、β=1.5 のとき、PC=3、δ=3π/8 としている。これらの条件に入らないときには、位相コ
ードPC=0とし、フレーム終端位相をずらさない(あ
るいはδ=0)ようにしている。
As a specific example of the 2-bit phase code PC, the phase code data is determined according to the values of α and β under the following conditions. That is, (e 2 / e 1 ≧ α) and (e 2 / e 1 <β) and (e 2
> E 3 × 1.3), the phase code PC for the values of α and β and the odd harmonics (m = 1, 3, 5, ...) Of the frame end phase value φ Lm on the combining side Phase shift amount δ
When α = 0.25, β = 0.5, PC = 1, δ = π / 8 α = 0.5, β = 0.75, PC = 2, δ = π / 4 α = 0.75, β = 1.5, PC = 3 and δ = 3π / 8. When these conditions are not met, the phase code PC = 0 and the frame end phase is not shifted (or δ = 0).

【0088】このような2ビットの位相コードPCが伝
送される音声合成側(デコード側)では、各フレーム毎
に、フレーム終端位相φLm(ただしm=1、3、5、・
・・の奇数次高調波)に対して位相誤差分(位相調整
値)ψを加算するようにしている。この位相差ψは、例
えば図9に示すような構成により求めることができる。
この図9において、位相コードPCは入力端子61を介
して加算器62に送られ、この加算出力は、遅延素子
(1フレーム遅延用)63に送られ、位相フラグPFと
なって加算器62に減算入力として送られる。また、遅
延素子63からの出力は、π/8乗算器64でπ/8が
乗算され、位相誤差分ψとなって出力端子65から取り
出される。従って、位相誤差分(位相調整値)ψは、 ψ=(PC−PF)×(π/8) として求められ、この位相誤差分を、奇数次高調波のフ
レーム終端位相φLm(m=1、3、5、・・・)に加算
して、 φLm=φLm+ψ のように位相調整操作あるいは位相操作処理を行ってい
る。
On the voice synthesizing side (decoding side) where such a 2-bit phase code PC is transmitted, a frame end phase φ Lm (where m = 1, 3, 5, ...
The phase error (phase adjustment value) ψ is added to the odd harmonics of. This phase difference ψ can be obtained by the configuration as shown in FIG. 9, for example.
In FIG. 9, the phase code PC is sent to the adder 62 via the input terminal 61, and the addition output is sent to the delay element (for one frame delay) 63, and becomes the phase flag PF to the adder 62. Sent as a subtraction input. Further, the output from the delay element 63 is multiplied by π / 8 by the π / 8 multiplier 64, and becomes the phase error component ψ and is taken out from the output terminal 65. Therefore, the phase error component (phase adjustment value) ψ is obtained as ψ = (PC-PF) × (π / 8), and this phase error component is calculated as the frame termination phase φ Lm (m = 1) of the odd harmonics. 3, 5, ...), and the phase adjustment operation or the phase operation processing is performed as φ Lm = φ Lm + φ.

【0089】なお、本発明は上記実施例のみに限定され
るものではなく、例えば、上記図1の音声分析側(エン
コード側)の構成や図7の音声合成側(デコード側)の
構成については、各部をハードウェア的に記載している
が、いわゆるDSP(ディジタル信号プロセッサ)等を
用いてソフトウェアプログラムにより実現することも可
能である。また、上記高調波(ハーモニクス)毎のバン
ドをまとめて(縮退させて)一定個数のバンドにするこ
とは、必要に応じて行えばよく、縮退バンド数も12バ
ンドに限定されない。さらに、本発明が適用されるもの
は上記マルチバンド励起音声分析/合成方法に限定され
ず、サイン波合成を用いる種々の音声分析/合成方法に
容易に適用でき、また、用途としても、信号の伝送や記
録再生のみならず、ピッチ変換や、スピード変換や、雑
音抑制等の種々の用途に応用できるものである。
The present invention is not limited to the above-mentioned embodiment, and for example, regarding the configuration of the voice analysis side (encoding side) of FIG. 1 and the configuration of the voice synthesis side (decoding side) of FIG. Although each unit is described as hardware, it can be realized by a software program using a so-called DSP (digital signal processor) or the like. Further, it is sufficient to collectively (degenerate) a band for each harmonic (harmonic) into a certain number of bands, and the number of degenerate bands is not limited to 12 bands. Further, the application of the present invention is not limited to the above-mentioned multi-band excitation speech analysis / synthesis method, and can be easily applied to various speech analysis / synthesis methods using sine wave synthesis. It can be applied not only to transmission and recording / reproduction, but also to various applications such as pitch conversion, speed conversion, noise suppression, and the like.

【0090】[0090]

【発明の効果】以上説明したことからも明らかなよう
に、本発明に係る音声信号の符号化方法によれば、入力
音声信号を時間軸上でブロック単位で区分して基本ピッ
チ周期を検出し、上記ブロック内の最大ピーク位置を含
む上記基本ピッチ周期のピーク位置であるピッチピーク
位置を検出し、上記ブロック内で上記ピッチピーク位置
に対して1/2ピッチ周期離れた中間位置近傍での中間
ピークと、各ピッチピーク位置と上記中間ピークの位置
との中間位置近傍の1/4ピッチピークとに基づいて、
上記中間ピークがある程度以上の大きさがあるか否かを
判別して、位相情報を求めて伝送しているため、合成側
での再生音質を高めることができる。
As is apparent from the above description, according to the audio signal encoding method of the present invention, the input audio signal is divided into blocks on the time axis to detect the basic pitch period. , A pitch peak position which is a peak position of the basic pitch period including the maximum peak position in the block is detected, and an intermediate position in the vicinity of an intermediate position ½ pitch period away from the pitch peak position in the block is detected. Based on the peak and the ¼ pitch peak near the intermediate position between each pitch peak position and the position of the intermediate peak,
Since it is determined whether or not the intermediate peak has a certain size or more and the phase information is obtained and transmitted, the reproduction sound quality on the combining side can be improved.

【0091】また、本発明に係る音声信号の復号化方法
によれば、周期的な基本波とその高調波成分とを用いて
音声信号を合成する音声信号の復号化方法において、基
本ピッチ周期のピークの中間位置近傍の中間ピークの存
在に応じて求められた位相情報に応じて上記ブロックの
終端位相を変化させているため、ピッチ周期のピークの
中間位置にもピークが生じているような音声信号の場合
でも、上記位相情報によりこの中間ピークを再現するよ
うな合成処理が行われ、従来の合成処理で生じていた耳
障りな感じを抑え、良好な再生音(合成音)を得ること
ができる。
Further, according to the audio signal decoding method of the present invention, in the audio signal decoding method of synthesizing an audio signal using a periodic fundamental wave and its harmonic components, Since the end phase of the block is changed according to the phase information obtained according to the existence of the intermediate peak near the intermediate position of the peak, the voice in which the peak also occurs at the intermediate position of the peak of the pitch period Even in the case of a signal, synthesis processing is performed to reproduce this intermediate peak by the phase information, and it is possible to suppress annoying sensation that has occurred in conventional synthesis processing and obtain a good reproduced sound (synthesized sound). .

【0092】さらに、位相情報を2ビット以上として、
合成側で中間ピークの強さを可変制御することにより、
きめ細かな中間ピークの再現が可能となり、再生音の音
質をより高めることができる。
Furthermore, if the phase information is 2 bits or more,
By variably controlling the intensity of the intermediate peak on the synthesis side,
It is possible to reproduce fine intermediate peaks, and to improve the quality of the reproduced sound.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る音声信号の符号化方法が適用され
る装置の具体例としての音声信号の分析/合成符号化装
置の分析側(エンコード側)の概略構成を示す機能ブロ
ック図である。
FIG. 1 is a functional block diagram showing a schematic configuration of an analysis side (encoding side) of a speech signal analysis / synthesis coding apparatus as a specific example of an apparatus to which a speech signal coding method according to the present invention is applied. .

【図2】窓かけ処理を説明するための図である。FIG. 2 is a diagram for explaining a windowing process.

【図3】窓かけ処理と窓関数との関係を説明するための
図である。
FIG. 3 is a diagram for explaining a relationship between windowing processing and a window function.

【図4】直交変換(FFT)処理対象としての時間軸デ
ータを示す図である。
FIG. 4 is a diagram showing time axis data as an object of orthogonal transform (FFT) processing.

【図5】周波数軸上のスペクトルデータ、スペクトル包
絡線(エンベロープ)及び励起信号のパワースペクトル
を示す図である。
FIG. 5 is a diagram showing spectrum data on a frequency axis, a spectrum envelope (envelope), and a power spectrum of an excitation signal.

【図6】入力音声信号中のピッチ周期のピークの中間位
置近傍の中間ピークを説明するための図である。
FIG. 6 is a diagram for explaining an intermediate peak in the vicinity of an intermediate position of a peak of a pitch period in an input audio signal.

【図7】本発明に係る音声信号の復号化方法が適用され
る装置の具体例としての音声信号の分析/合成符号化装
置の合成側(デコード側)の概略構成を示す機能ブロッ
ク図である。
FIG. 7 is a functional block diagram showing a schematic configuration of a synthesis side (decoding side) of a speech signal analysis / synthesis coding apparatus as a specific example of an apparatus to which a speech signal decoding method according to the present invention is applied. .

【図8】位相コード情報に基づく音声信号合成時の位相
調整操作を説明するためのフローチャートである。
FIG. 8 is a flowchart for explaining a phase adjustment operation when synthesizing an audio signal based on phase code information.

【図9】2ビットの位相コード情報に基づく音声信号合
成時の位相調整操作を説明するための図である。
FIG. 9 is a diagram for explaining a phase adjustment operation when synthesizing an audio signal based on 2-bit phase code information.

【符号の説明】[Explanation of symbols]

13・・・・・ピッチ抽出部 14・・・・・窓かけ処理部 15・・・・・直交変換(FFT)部 16・・・・・高精度(ファイン)ピッチサーチ部 17・・・・・有声音/無声音(V/UV)判別部 18V・・・・・有声音の振幅評価部 18U・・・・・無声音の振幅評価部 19・・・・・データ数変換(データレートコンバー
ト)部 20・・・・・ベクトル量子化部 26・・・・・ピークサーチ部 27・・・・・ピッチピーク位置検出部 28・・・・・局所最大検出部 29・・・・・分類部 37・・・・・有声音合成部 38・・・・・無声音合成部
13 Pitch extraction unit 14 Windowing processing unit 15 Orthogonal transform (FFT) unit 16 High precision (fine) pitch search unit 17 Voiced sound / unvoiced sound (V / UV) discrimination unit 18V: Voiced sound amplitude evaluation unit 18U: Unvoiced sound amplitude evaluation unit 19: Data number conversion (data rate conversion) unit 20. Vector quantizer 26. Peak search unit 27. Pitch peak position detector 28. Local maximum detector 29. Sorting unit 37. .... Voiced sound synthesizer 38 ... Unvoiced sound synthesizer

Claims (9)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 入力音声信号を時間軸上でブロック単位
で区分する工程と、 この区分されたブロック内で基本ピッチ周期を検出する
工程と、 上記ブロック内の最大ピーク位置を含む上記基本ピッチ
周期のピーク位置であるピッチピーク位置を検出する工
程と、 上記ブロック内で上記ピッチピーク位置に対して1/2
ピッチ周期離れた中間位置近傍での中間ピークを検出
し、該中間ピークの値の統計量e2を求める工程と、 上記ブロック内で各ピッチピーク位置と上記中間ピーク
の位置との中間位置近傍の1/4ピッチピークを検出
し、該1/4ピッチピークの値の統計量e3を求める工
程と、 上記各統計量e2、e3の大小関係に基づいて位相情報を
求める工程とを有することを特徴とする音声信号の符号
化方法。
1. A step of partitioning an input audio signal in block units on a time axis, a step of detecting a basic pitch cycle in the partitioned block, and a basic pitch cycle including a maximum peak position in the block. The step of detecting the pitch peak position which is the peak position of
A step of detecting an intermediate peak in the vicinity of an intermediate position separated by a pitch cycle and obtaining a statistic e 2 of the value of the intermediate peak; and a step of detecting the intermediate value of each pitch peak position and the intermediate peak position in the block. The method includes a step of detecting a quarter pitch peak and obtaining a statistic e 3 of the value of the quarter pitch peak, and a step of obtaining phase information based on the magnitude relation between the above statistics e 2 and e 3. An audio signal encoding method characterized by the above.
【請求項2】 上記位相情報は1ビットであることを特
徴とする請求項1記載の音声信号の符号化方法。
2. The audio signal encoding method according to claim 1, wherein the phase information is 1 bit.
【請求項3】 上記各統計量e2、e3 大小関係に基づ
いてピークの強さも考慮した2ビット以上の位相情報を
求めることを特徴とする請求項1記載の音声信号の符号
化方法。
3. The method of encoding a voice signal according to claim 1, wherein phase information of 2 bits or more is calculated in consideration of peak intensity based on the magnitude relation between the statistics e 2 and e 3 .
【請求項4】 上記統計量e2、e3が小さいときには上
記位相情報を送らないことを特徴とする請求項1記載の
音声信号の符号化方法。
4. The audio signal encoding method according to claim 1, wherein the phase information is not transmitted when the statistics e 2 and e 3 are small.
【請求項5】 上記ブロック内での上記複数のピッチピ
ークの値の統計量e1を検出し、上記各統計量e2、e3
の比率e2/e1、e3/e1の大小関係に応じた位相情報
を求めることを特徴とする請求項1記載の音声信号の符
号化方法。
5. The statistic e 1 of the values of the plurality of pitch peaks in the block is detected, and the statistic e 2 and e 3 are detected.
Ratio e 2 / e 1, e 3 / e coding method according to claim 1, wherein the sound signal and obtains the phase information corresponding to the magnitude of the first.
【請求項6】 周期的な基本波とその高調波成分とを用
いて音声信号を合成する音声信号の復号化方法におい
て、 基本ピッチ周期のピークの中間位置近傍の中間ピークの
存在に応じて求められた位相情報が供給され、 この位相情報に応じて上記ブロックの終端位相を変化さ
せることを特徴とする音声信号の復号化方法。
6. A method for decoding an audio signal, which synthesizes an audio signal using a periodic fundamental wave and its harmonic components, the method being determined according to the presence of an intermediate peak near the intermediate position of the peak of the fundamental pitch period. A method for decoding an audio signal, characterized in that the terminal phase of the block is changed in accordance with the supplied phase information.
【請求項7】 上記基本波とその高調波成分とを合成す
る際に、上記位相情報に応じて奇数次高調波の終端位相
のみを基準位相に対してずらすことを特徴とする請求項
6記載の音声信号の復号化方法。
7. The method according to claim 6, wherein, when synthesizing the fundamental wave and its harmonic component, only the termination phase of the odd-order harmonic wave is shifted from the reference phase in accordance with the phase information. Method for decoding the audio signal of.
【請求項8】 上記位相情報として1ビットを用い、こ
の位相情報に応じて上記奇数次高調波の終端位相を基準
位相に対してπ/4だけずらすことを特徴とする請求項
7記載の音声信号の復号化方法。
8. The voice according to claim 7, wherein 1 bit is used as the phase information, and the termination phase of the odd-order harmonic is shifted by π / 4 with respect to the reference phase according to the phase information. Signal decoding method.
【請求項9】 上記位相情報として2ビットを用い、こ
の位相情報に応じて上記奇数次高調波の終端位相を基準
位相に対してπ/8の整数倍だけずらすことを特徴とす
る請求項7記載の音声信号の復号化方法。
9. The method according to claim 7, wherein 2 bits are used as the phase information, and the termination phase of the odd-order harmonic is shifted by an integral multiple of π / 8 with respect to the reference phase according to the phase information. A method for decoding an audio signal as described.
JP24575893A 1993-07-27 1993-09-30 Audio signal encoding method and decoding method Expired - Fee Related JP3362471B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP24575893A JP3362471B2 (en) 1993-07-27 1993-09-30 Audio signal encoding method and decoding method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP5-204665 1993-07-27
JP20466593 1993-07-27
JP24575893A JP3362471B2 (en) 1993-07-27 1993-09-30 Audio signal encoding method and decoding method

Publications (2)

Publication Number Publication Date
JPH0792998A JPH0792998A (en) 1995-04-07
JP3362471B2 true JP3362471B2 (en) 2003-01-07

Family

ID=26514582

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24575893A Expired - Fee Related JP3362471B2 (en) 1993-07-27 1993-09-30 Audio signal encoding method and decoding method

Country Status (1)

Country Link
JP (1) JP3362471B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005532585A (en) * 2002-07-08 2005-10-27 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Audio coding
JP2006317610A (en) * 2005-05-11 2006-11-24 Sharp Corp Audio reproducing apparatus, audio reproducing method and audio reproduction program
JP5111430B2 (en) * 2009-04-24 2013-01-09 パナソニック株式会社 Speech coding apparatus, speech decoding apparatus, and methods thereof
JP5328883B2 (en) * 2011-12-02 2013-10-30 パナソニック株式会社 CELP speech decoding apparatus and CELP speech decoding method
CN104321814B (en) * 2012-05-23 2018-10-09 日本电信电话株式会社 Frequency domain pitch period analysis method and frequency domain pitch period analytical equipment

Also Published As

Publication number Publication date
JPH0792998A (en) 1995-04-07

Similar Documents

Publication Publication Date Title
JP3475446B2 (en) Encoding method
KR100427753B1 (en) Method and apparatus for reproducing voice signal, method and apparatus for voice decoding, method and apparatus for voice synthesis and portable wireless terminal apparatus
JP3277398B2 (en) Voiced sound discrimination method
JPH06149296A (en) Speech encoding method and decoding method
JP3680374B2 (en) Speech synthesis method
JP3297751B2 (en) Data number conversion method, encoding device and decoding device
JP3362471B2 (en) Audio signal encoding method and decoding method
JP3297749B2 (en) Encoding method
JP3237178B2 (en) Encoding method and decoding method
JP3218679B2 (en) High efficiency coding method
JPH0651800A (en) Data quantity converting method
JP3731575B2 (en) Encoding device and decoding device
JP3321933B2 (en) Pitch detection method
JP3297750B2 (en) Encoding method
JP3218681B2 (en) Background noise detection method and high efficiency coding method
JP3271193B2 (en) Audio coding method
JP3223564B2 (en) Pitch extraction method
JP3218680B2 (en) Voiced sound synthesis method
JP3221050B2 (en) Voiced sound discrimination method
JPH07104793A (en) Encoding device and decoding device for voice
JPH07104777A (en) Pitch detecting method and speech analyzing and synthesizing method
JPH0744194A (en) High-frequency encoding method
JPH05265486A (en) Speech analyzing and synthesizing method
JPH06202695A (en) Speech signal processor
JPH05265489A (en) Pitch extracting method

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20020924

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091025

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees