JPH07104777A - Pitch detecting method and speech analyzing and synthesizing method - Google Patents

Pitch detecting method and speech analyzing and synthesizing method

Info

Publication number
JPH07104777A
JPH07104777A JP24575793A JP24575793A JPH07104777A JP H07104777 A JPH07104777 A JP H07104777A JP 24575793 A JP24575793 A JP 24575793A JP 24575793 A JP24575793 A JP 24575793A JP H07104777 A JPH07104777 A JP H07104777A
Authority
JP
Japan
Prior art keywords
pitch
block
larger
current block
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP24575793A
Other languages
Japanese (ja)
Inventor
Atsushi Matsumoto
淳 松本
Masayuki Nishiguchi
正之 西口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP24575793A priority Critical patent/JPH07104777A/en
Publication of JPH07104777A publication Critical patent/JPH07104777A/en
Withdrawn legal-status Critical Current

Links

Abstract

PURPOSE:To make it possible to properly detect pitch for a voice which contains the original pitch component and a pitch component twice as large as it almost to the same extent and to prevent a synthesized sound from deteriorating in quality by judging the pitch of a current block being twice as large as the original pitch when specific conditions are met. CONSTITUTION:It is judged that the pitch P of the current block is twice as large as the original pitch when at least one of the condition, that is., the pitch P of the current block P is more than twice as large as the typical pitch and the block mean level is larger than a specific threshold value, and the typical pitch is larger than the typical pitch of the last block and the pitch P is larger than the specific threshold value, etc. Namely, it is judged whether or not a value is a half as large as the pitch extracted by a pitch extraction part 13 at the time of voice pitch extraction should be used. According to the judgement result, a P/2 selection part 26 sends pitch data P from a high-precision pitch search part 16 to an encoding part 21 as they are or after halving them.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、入力音声信号をブロッ
ク単位で区分して、区分されたブロックを単位として音
声分析処理を行う際の入力音声信号からピッチを検出す
るピッチ検出方法、及びこのピッチ検出方法を用いた音
声分析合成方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention divides an input voice signal into blocks, and a pitch detecting method for detecting a pitch from an input voice signal when performing voice analysis processing in units of the divided blocks, and a method for detecting the pitch. The present invention relates to a speech analysis / synthesis method using a pitch detection method.

【0002】[0002]

【従来の技術】オーディオ信号(音声信号や音響信号を
含む)の時間領域や周波数領域における統計的性質と人
間の聴感上の特性を利用して信号圧縮を行うような符号
化方法が種々知られている。この符号化方法としては、
大別して時間領域での符号化、周波数領域での符号化、
分析合成符号化等が挙げられる。
2. Description of the Related Art Various coding methods are known in which signal compression is performed by utilizing the statistical properties of audio signals (including voice signals and acoustic signals) in the time domain and frequency domain and human auditory characteristics. ing. As this encoding method,
Broadly speaking, time domain coding, frequency domain coding,
Examples include analysis and synthesis coding.

【0003】音声信号等の高能率符号化の例として、M
BE(Multiband Excitation: マルチバンド励起)符号
化、SBE(Singleband Excitation:シングルバンド励
起)符号化、ハーモニック(Harmonic)符号化、SBC
(Sub-band Coding:帯域分割符号化)、LPC(Linear
Predictive Coding: 線形予測符号化)、あるいはDC
T(離散コサイン変換)、MDCT(モデファイドDC
T)、FFT(高速フーリエ変換)等において、スペク
トル振幅やそのパラメータ(LSPパラメータ、αパラ
メータ、kパラメータ等)のような各種情報データを量
子化する場合に、従来においてはスカラ量子化を行うこ
とが多い。
As an example of high-efficiency encoding of a voice signal or the like, M
BE (Multiband Excitation) coding, SBE (Singleband Excitation) coding, Harmonic coding, SBC
(Sub-band Coding), LPC (Linear
Predictive Coding: Linear predictive coding) or DC
T (Discrete Cosine Transform), MDCT (Modified DC)
In T), FFT (Fast Fourier Transform), etc., when quantizing various information data such as spectrum amplitude and its parameters (LSP parameter, α parameter, k parameter, etc.), conventionally, scalar quantization is performed. There are many.

【0004】上記PARCOR法等の音声分析・合成系
では、励振源を切り換えるタイミングは時間軸上のブロ
ック(フレーム)毎であるため、同一フレーム内では有
声音と無声音とを混在させることができず、結果として
高品質な音声は得られなかった。
In the voice analysis / synthesis system such as the PARCOR method, since the excitation source is switched at each block (frame) on the time axis, voiced sound and unvoiced sound cannot be mixed in the same frame. , As a result, high quality voice was not obtained.

【0005】これに対して、上記MBE符号化において
は、1ブロック(フレーム)内の音声に対して、周波数
スペクトルの各ハーモニクス(高調波)や2〜3ハーモ
ニクスをひとまとめにした各バンド(帯域)毎に、又は
固定の帯域幅(例えば300〜400Hz)で分割された
各バンド毎に、そのバンド中のスペクトル形状に基づい
て有声音/無声音判別(V/UV判別)を行っているた
め、音質の向上が認められる。この各バンド毎のV/U
V判別は、主としてバンド内のスペクトルがいかに強く
ハーモニクス構造を有しているかを見て行っている。
On the other hand, in the above MBE coding, for each voice in one block (frame), each harmonic (harmonic) of the frequency spectrum or each band (band) in which a few harmonics are grouped together. Since voiced / unvoiced sound discrimination (V / UV discrimination) is performed for each band divided for each band or for each band divided by a fixed bandwidth (for example, 300 to 400 Hz), sound quality Is recognized. V / U for each band
V discrimination mainly looks at how strongly the spectrum in the band has a harmonic structure.

【0006】上記有声音の波形は一般に周期的構造を有
しており、この基本周期をピッチ周期、その逆数をピッ
チ周波数という。このピッチを入力音声信号から検出あ
るいは抽出することは、一般の音声符号化処理、特に音
声を分析し合成する音声分析合成において重要とされ
る。音声分析合成におけるピッチのデータとしては、ピ
ッチ周期をサンプル数で表したいわゆるピッチラグを用
いることが多い。
The voiced sound waveform generally has a periodic structure. This basic period is called a pitch period, and its reciprocal is called a pitch frequency. Detecting or extracting this pitch from the input speech signal is important in general speech coding processing, particularly in speech analysis and synthesis for analyzing and synthesizing speech. As pitch data in speech analysis and synthesis, a so-called pitch lag, which represents the pitch period by the number of samples, is often used.

【0007】[0007]

【発明が解決しようとする課題】ところで、同一話者が
発声する音声において、話者が意図的に短時間(例えば
約100ms程度)に亘って突然ピッチ(ピッチラグ)
を2倍にする(1オクターブ下げる)ことはあまり考え
られないが、言語(例えば英語)によっては無意識のう
ちにこれとほぼ等価なことが起きることが認められてい
る。この状態を周波数分析すると、本来のピッチに同期
して表れるスペクトルのピークの他に、ピークとピーク
との谷間において新たな小ピークが存在していることが
確認されている。この谷間のピークが大きくなった場合
には、ピッチは2倍になったものと解釈できるが、その
後、スペクトルエンベロープをベクトル量子化するよう
な場合に、この状態に対応するコードブックがない場合
には、量子化の結果として谷間のピークが本来のピーク
とほぼ同等になってしまい、合成音の品質を劣化させる
原因となっている。
By the way, in the voice uttered by the same speaker, the speaker intentionally suddenly pitches (pitch lag) for a short time (for example, about 100 ms).
It is not very possible to double (decrease by one octave), but it has been acknowledged that some language (eg English) unknowingly happens to be approximately equivalent to this. Frequency analysis of this state has confirmed that, in addition to the peak of the spectrum that appears in synchronism with the original pitch, a new small peak exists in the valley between the peaks. When the peak of this valley becomes large, it can be interpreted that the pitch is doubled. However, when the spectrum envelope is vector-quantized after that, and there is no codebook corresponding to this state. As a result of the quantization, the peaks of the valleys become almost the same as the original peaks, which causes the quality of the synthesized sound to deteriorate.

【0008】すなわち、通常の音声は、そのピッチに対
応する基本周波数とその整数倍の点のピークを持つ周波
数構造を持っている。ところが、話者によってはある条
件の下でこれ以外にもピークを持つ音声、例えば図10
に示すような周波数構造を有する音声を発することが認
められている。この図10は音声パワースペクトルを示
す図であり、図中の実線の矢印位置のピークが本来のピ
ッチ成分に対応するピークを、破線の矢印位置のピーク
が2倍のピッチ成分に対応するピークをそれぞれ示して
いる。
That is, normal voice has a frequency structure having a fundamental frequency corresponding to the pitch and a peak at a point that is an integral multiple thereof. However, some speakers may have other peaks under certain conditions, for example, as shown in FIG.
It is recognized that a voice having a frequency structure as shown in FIG. This FIG. 10 is a diagram showing a voice power spectrum, in which the peak at the position indicated by the solid line arrow is the peak corresponding to the original pitch component, and the peak at the position indicated by the broken line arrow is the peak corresponding to the double pitch component. Shown respectively.

【0009】この本来のピーク以外のピークがある程度
大きくなると、時間軸でのピッチ抽出法においては完全
に2倍のピッチになったと推定せざるを得ない状態にな
る。ここで、このスペクトル(のピークのエンベロー
プ)を例えばベクトル量子化する場合、上記図10に対
応するようなコードベクトルは用意されていないのが通
常であり、最も近似したスペクトルのピークエンベロー
プのコードベクトルが選ばれてベクトル量子化されるか
ら、逆量子化して得られる音声パワースペクトルは例え
ば図11のようになり、谷間のピーク(上記2倍のピッ
チ成分に対応するピーク)が大きくなってしまう。
When the peaks other than the original peaks become large to some extent, it is inevitable that the pitch extraction method on the time axis has a completely doubled pitch. Here, in the case of vector quantization of (the peak envelope of) this spectrum, for example, it is usual that no code vector corresponding to FIG. 10 is prepared, and the code vector of the peak envelope of the most approximate spectrum. Is selected and vector-quantized, the voice power spectrum obtained by inverse-quantization becomes, for example, as shown in FIG. 11, and the valley peak (the peak corresponding to the double pitch component) becomes large.

【0010】このような状態となった合成音は、特に位
相を伝送しない場合に、不要な成分が全てピッチに同期
してエネルギの集中を引き起こすため、非常に聞きにく
い音(いわゆる buzzyな音)となっている。
The synthesized sound in such a state is a very hard-to-hear sound (so-called buzzy sound) because unnecessary components all cause energy concentration in synchronization with the pitch, especially when the phase is not transmitted. Has become.

【0011】本発明は、このような実情に鑑みてなされ
たものであり、本来のピッチ成分とさらにその2倍のピ
ッチ成分とが同程度に含まれているような音声について
適当なピッチ検出が行え、合成音の品質劣化を防止でき
るようなピッチ検出方法及び音声分析合成方法の提供を
目的とする。
The present invention has been made in view of such a situation, and an appropriate pitch detection can be performed for a voice in which an original pitch component and a pitch component twice as much as the original pitch component are included in the same degree. An object of the present invention is to provide a pitch detection method and a voice analysis / synthesis method that can be performed and can prevent quality deterioration of synthesized speech.

【0012】[0012]

【課題を解決するための手段】本発明に係るピッチ検出
方法は、音声分析の際の音声の基本周期に相当するピッ
チを検出するピッチ検出方法において、入力音声信号を
時間軸上でブロック単位で区分する工程と、この区分さ
れた各ブロックの信号毎に発声者が固有に有する典型的
ピッチPtと現在ブロックのピッチPとをそれぞれ検出
する工程と、現在ブロックのピッチPが本来のピッチの
倍となっていると判断する工程とを有し、この倍ピッチ
判断工程は、(c1)上記現在ブロックのピッチPが上
記典型的ピッチPtの2倍近傍の値以上でありかつブロ
ック平均レベルLVが所定の閾値LVt1より大きい、(c
2)上記典型的ピッチPtが前ブロックでの典型的ピッ
チPt’より大きくかつ上記現在ブロックのピッチPが
所定の閾値thp1より大きい、(c3)上記現在ブロック
のピッチPが前ブロックのピッチP’より大きくかつ上
記現在ブロックのピッチPが所定の閾値thp2より大きく
かつブロック平均レベルLVが所定の閾値LVt2より大き
い、の3つの条件(c1)〜(c3)の内の少なくとも
1つを満足するとき、現在ブロックのピッチPが本来の
ピッチの倍となっていると判断することにより、上述の
課題を解決する。
A pitch detecting method according to the present invention is a pitch detecting method for detecting a pitch corresponding to a fundamental period of a voice in a voice analysis, in which an input voice signal is divided into blocks on a time axis. The step of dividing, the step of detecting the typical pitch Pt unique to the speaker and the pitch P of the current block for each signal of each divided block, and the pitch P of the current block being twice the original pitch. This double pitch determination step includes (c1) the pitch P of the current block is equal to or larger than a value in the vicinity of twice the typical pitch Pt, and the block average level LV is Greater than a predetermined threshold LV t1 , (c
2) The typical pitch Pt is larger than the typical pitch Pt 'in the previous block and the pitch P of the current block is larger than a predetermined threshold th p1 , (c3) The pitch P of the current block is the pitch P of the previous block. At least one of the three conditions (c1) to (c3) that is greater than a predetermined threshold value th p2 and the block average level LV is greater than a predetermined threshold value LV t2. When satisfied, the above problem is solved by determining that the pitch P of the current block is twice the original pitch.

【0013】また、本発明に係る音声分析合成方法は、
上記ピッチ検出方法の倍ピッチ判断工程にて上記現在ブ
ロックのピッチPが本来のピッチの倍となっていると判
断されたときには、上記ピッチPの半分のピッチP/2
に基づいて合成を行うことにより、上述の課題を解決す
る。
The speech analysis and synthesis method according to the present invention is
When it is determined in the double pitch determination step of the pitch detection method that the pitch P of the current block is twice the original pitch, the pitch P / 2 is half the pitch P.
The above-mentioned problem is solved by performing the synthesis based on.

【0014】ここで、本発明が適用される音声分析合成
方法の具体例としては、マルチバンドエクサイテイショ
ンを用いた音声符号化方法が挙げられる。このマルチバ
ンド励起符号化においては、帯域毎にV/UV(有声音
/無声音)を判別し、これらの帯域毎に判別されたV/
UVに応じて、Vと判別された部分は正弦波等の合成に
より有声音を合成し、UVと判別された部分はノイズ信
号の周波数成分を変形処理することにより無声音を合成
している。このような音声分析合成方法における音声信
号の分析の際には、上記現在ブロックのピッチPに基づ
いて上記入力信号をバンド分割し、この分割されたバン
ド毎にV/UVの判別を行うことが好ましい。
Here, as a specific example of the speech analysis / synthesis method to which the present invention is applied, there is a speech coding method using multi-band excitation. In this multi-band excitation coding, V / UV (voiced sound / unvoiced sound) is discriminated for each band, and V / UV discriminated for each of these bands.
Depending on UV, the portion determined to be V synthesizes voiced sound by synthesizing a sine wave or the like, and the portion determined to be UV synthesizes unvoiced sound by transforming the frequency component of the noise signal. When analyzing a voice signal in such a voice analysis / synthesis method, the input signal may be divided into bands based on the pitch P of the current block, and V / UV determination may be performed for each of the divided bands. preferable.

【0015】[0015]

【作用】本来のピッチとさらにその2倍のピッチが同程
度含まれているような音声か否かの判別が確実に行え、
このような状態が生じたときの対処を有効にとることが
できる。また、P/2をピッチデータとして音声合成を
行わせているため、2倍のピッチによる分析・合成にて
生じるエネルギの強い集中をピッチを半分にして行うこ
とで緩和させ、合成音声の品質を高めることができる。
[Function] It is possible to surely determine whether or not the voice has the same pitch as the original pitch and twice the pitch.
It is possible to effectively take measures when such a state occurs. In addition, since P / 2 is used as pitch data for voice synthesis, strong concentration of energy generated by analysis / synthesis with a double pitch is reduced by halving the pitch to improve the quality of synthesized voice. Can be increased.

【0016】[0016]

【実施例】以下、本発明に係るピッチ検出方法が適用さ
れる音声分析合成方法の一実施例となる高能率符号化方
法について説明する。高能率符号化方法には、後述する
MBE(Multiband Excitation: マルチバンド励起)符
号化等のように、ブロック毎の信号を周波数軸上に変換
し、複数帯域に分割して各帯域毎にV(有声音)かUV
(無声音)かを判別するような符号化方法を用いること
ができる。
DESCRIPTION OF THE PREFERRED EMBODIMENTS A high efficiency coding method which is an embodiment of a voice analysis / synthesis method to which the pitch detection method according to the present invention is applied will be described below. The high-efficiency coding method is, for example, MBE (Multiband Excitation) coding described later, in which a signal for each block is converted on a frequency axis, divided into a plurality of bands, and V ( Voiced sound) or UV
It is possible to use an encoding method for determining whether or not (unvoiced sound).

【0017】すなわち、本発明が適用される一般的な音
声分析合成方法としては、音声信号を一定サンプル数
(例えば256サンプル)毎にブロック化して、FFT
等の直交変換により周波数軸上のスペクトルデータに変
換すると共に、該ブロック内の音声のピッチを抽出し、
このピッチに応じた間隔で周波数軸上のスペクトルを帯
域分割し、分割された各帯域についてV(有声音)/U
V(無声音)の判別を行っている。このV/UV判別情
報をスペクトルの振幅データと共に符号化して伝送する
わけである。ただし、本発明の実施例においては、後述
するフレーム(例えば160サンプル)単位でV/UV
判別情報やスペクトルの振幅データ等の各種情報を伝送
するようにしている。
That is, as a general speech analysis / synthesis method to which the present invention is applied, the speech signal is divided into blocks for every fixed number of samples (for example, 256 samples), and the FFT is performed.
While converting to spectrum data on the frequency axis by orthogonal transformation such as, to extract the pitch of the voice in the block,
The spectrum on the frequency axis is band-divided at intervals according to this pitch, and V (voiced sound) / U is obtained for each of the divided bands.
V (unvoiced sound) is discriminated. This V / UV discrimination information is encoded and transmitted together with spectrum amplitude data. However, in the embodiment of the present invention, V / UV is performed in units of frames (for example, 160 samples) described later
Various information such as discrimination information and spectrum amplitude data is transmitted.

【0018】ここで、例えばMBEボコーダのような音
声合成分析系を想定する場合、入力される時間軸上の音
声信号に対するサンプリング周波数fs は、通常8kHz
で、全帯域幅は3.4kHz(ただし有効帯域は200〜
3400Hz)であり、女声の高い方から男声の低い方ま
でのピッチラグ(ピッチ周期に相当するサンプル数)
は、20〜147程度である。従って、ピッチ周波数
は、8000/147≒54(Hz)から 8000/20=400(Hz)
程度までの間で変動することになる。従って、周波数軸
上で上記3.4kHzまでの間に約8〜63本のピッチパ
ルス(ハーモニックス)が立つことになる。
Here, when a speech synthesis analysis system such as an MBE vocoder is assumed, the sampling frequency fs for the speech signal on the input time axis is usually 8 kHz.
The total bandwidth is 3.4 kHz (the effective bandwidth is 200-
3400Hz), the pitch lag from the higher female voice to the lower male voice (the number of samples corresponding to the pitch period)
Is about 20 to 147. Therefore, the pitch frequency is 8000/147 ≒ 54 (Hz) to 8000/20 = 400 (Hz)
It will fluctuate within the range. Therefore, about 8 to 63 pitch pulses (harmonics) stand up to 3.4 kHz on the frequency axis.

【0019】このように、ピッチに応じた間隔で帯域分
割すると、ブロック(フレーム)毎に分割帯域数(バン
ド数)が約8〜63個の間で変化することになることを
考慮して、分割バンド数を一定の個数(例えば12個程
度)に低減あるいは縮退させておくことが好ましい。
In this way, considering that the number of divided bands (the number of bands) for each block (frame) changes between about 8 and 63 when the bands are divided at intervals according to the pitch, It is preferable to reduce or reduce the number of divided bands to a fixed number (for example, about 12).

【0020】さらに、本発明の実施例においては、音声
分析の際の音声の基本周期に相当するピッチを検出する
際に、上記各ブロック(フレーム)の信号毎に発声者が
固有に有する典型的ピッチPtと現在ブロックのピッチ
Pとをそれぞれ検出した後、(c1)上記現在ブロック
のピッチPが上記典型的ピッチPtの2倍近傍の値以上
でありかつブロック平均レベルLVが所定の閾値LVt1より
大きい、(c2)上記典型的ピッチPtが前ブロックで
の典型的ピッチPt’より大きくかつ上記現在ブロック
のピッチPが所定の閾値thp1より大きい、(c3)上記
現在ブロックのピッチPが前ブロックのピッチP’より
大きくかつ上記現在ブロックのピッチPが所定の閾値th
p2より大きくかつブロック平均レベルLVが所定の閾値LV
t2より大きい、の3つの条件(c1)〜(c3)の内の
少なくとも1つを満足するとき、現在ブロックのピッチ
Pが本来のピッチの倍となっていると判断している。
Further, in the embodiment of the present invention, when detecting the pitch corresponding to the basic period of the voice in the voice analysis, a typical voice signal is unique to the speaker for each signal of each block (frame). After detecting the pitch Pt and the pitch P of the current block, respectively, (c1) the pitch P of the current block is equal to or more than twice the typical pitch Pt and the block average level LV is a predetermined threshold value LV t1. Greater than (c2) the typical pitch Pt is greater than the typical pitch Pt 'in the previous block and the pitch P of the current block is greater than a predetermined threshold th p1 , (c3) the pitch P of the current block is It is larger than the block pitch P ′ and the current block pitch P is a predetermined threshold value th.
Greater than p2 and the block average level LV is a predetermined threshold LV
When at least one of the three conditions (c1) to (c3) that is larger than t2 is satisfied, it is determined that the pitch P of the current block is double the original pitch.

【0021】次に、上述したような音声分析合成方法が
適用可能な、音声信号の合成分析符号化装置(いわゆる
ボコーダ)の一種のMBE(Multiband Excitation: マ
ルチバンド励起)ボコーダの具体例について、図面を参
照しながら説明する。
Next, a specific example of a kind of MBE (Multiband Excitation) vocoder of a speech signal synthesis analysis coding apparatus (so-called vocoder) to which the above speech analysis synthesis method can be applied will be described. Will be described with reference to.

【0022】以下に説明するMBEボコーダは、D.W. G
riffin and J.S. Lim, "MultibandExcitation Vocode
r," IEEE Trans.Acoustics,Speech,and Signal Process
ing,vol.36, No.8, pp.1223-1235, Aug. 1988 に開示さ
れているものであり、従来のPARCOR(PARtial au
to-CORrelation: 偏自己相関)ボコーダ等では、音声の
モデル化の際に有声音区間と無声音区間とをブロックあ
るいはフレーム毎に切り換えていたのに対し、MBEボ
コーダでは、同時刻(同じブロックあるいはフレーム
内)の周波数軸領域に有声音(Voiced)区間と無声音
(Unvoiced)区間とが存在するという仮定でモデル化し
ている。
The MBE vocoder described below is a DW G
riffin and JS Lim, "MultibandExcitation Vocode
r, "IEEE Trans.Acoustics, Speech, and Signal Process
ing, vol.36, No.8, pp.1223-1235, Aug. 1988, the conventional PARCOR (PARtial au
In a to-CORrelation (partial autocorrelation) vocoder or the like, a voiced sound section and an unvoiced sound section were switched for each block or frame when modeling a voice, whereas in the MBE vocoder, at the same time (same block or frame). The model is based on the assumption that there are voiced and unvoiced intervals in the frequency domain of (in).

【0023】図1は、上記MBEボコーダに本発明を適
用した実施例の全体の概略構成を示すブロック図であ
る。この図1において、入力端子11には音声信号が供
給されるようになっており、この入力音声信号は、HP
F(ハイパスフィルタ)等のフィルタ12に送られて、
いわゆるDC(直流)オフセット分の除去や帯域制限
(例えば200〜3400Hzに制限)のための少なくと
も低域成分(200Hz以下)の除去が行われる。このフ
ィルタ12を介して得られた信号は、ピッチ抽出部13
及び窓かけ処理部14にそれぞれ送られる。ピッチ抽出
部(ピッチ検出部)13では、入力音声信号データが所
定サンプル数N(例えばN=256)単位でブロック分
割され(あるいは方形窓による切り出しが行われ)、こ
のブロック内の音声信号についてのピッチ抽出が行われ
る。このような切り出しブロック(256サンプル)
を、例えば図2のAに示すようにLサンプル(例えばL
=160)のフレーム間隔で時間軸方向に移動させてお
り、各ブロック間のオーバラップはN−Lサンプル(例
えば96サンプル)となっている。また、窓かけ処理部
14では、1ブロックNサンプルに対して所定の窓関
数、例えばハミング窓をかけ、この窓かけブロックを1
フレームLサンプルの間隔で時間軸方向に順次移動させ
ている。
FIG. 1 is a block diagram showing an overall schematic configuration of an embodiment in which the present invention is applied to the MBE vocoder. In FIG. 1, an audio signal is supplied to the input terminal 11, and the input audio signal is HP
Sent to a filter 12 such as F (high-pass filter),
The so-called DC (direct current) offset is removed and at least the low frequency component (200 Hz or less) is removed for band limitation (for example, 200-3400 Hz). The signal obtained through this filter 12 is output to the pitch extraction unit 13
And the windowing processing unit 14, respectively. In the pitch extraction unit (pitch detection unit) 13, the input voice signal data is divided into blocks in units of a predetermined number N (for example, N = 256) (or cut out by a rectangular window), and the voice signals in this block are divided. Pitch extraction is performed. Such a cut block (256 samples)
, For example, as shown in A of FIG.
(= 160) frame intervals, the blocks are moved in the time axis direction, and the overlap between blocks is NL samples (96 samples, for example). In addition, the windowing processing unit 14 applies a predetermined window function, for example, a Hamming window, to one block of N samples, and sets this windowing block to 1
The frames are sequentially moved in the time axis direction at intervals of L samples.

【0024】このような窓かけ処理を数式で表すと、 xw (k,q) =x(q) w(kL-q) ・・・(1) となる。この(1)式において、kはブロック番号を、
qはデータの時間インデックス(サンプル番号)を表
し、処理前の入力信号のq番目のデータx(q) に対して
第kブロックの窓(ウィンドウ)関数w(kL-q)により窓
かけ処理されることによりデータxw (k,q) が得られる
ことを示している。ピッチ抽出部13での図2のAに示
すような方形窓の場合の窓関数wr (r) は、 wr (r) =1 0≦r<N ・・・(2) =0 r<0,N≦r また、上記窓かけ処理部14での図2のBに示すような
ハミング窓の場合の窓関数wh (r) は、 wh (r) = 0.54 − 0.46 cos(2πr/(N-1)) 0≦r<N ・・・(3) =0 r<0,N≦r である。このような窓関数wr (r) あるいはwh (r) を
用いるときの上記(1)式の窓関数w(r) (=w(kL-
q))の否零区間は、 0≦kL−q<N これを変形して、 kL−N<q≦kL 従って例えば上記方形窓の場合に窓関数wr (kL-q)=1
となるのは、図3に示すように、kL−N<q≦kLの
ときとなる。また、上記(1)〜(3)式は、長さN
(=256)サンプルの窓が、L(=160)サンプル
ずつ前進してゆくことを示している。以下、上記(2)
式、(3)式の各窓関数で切り出された各N点(0≦r
<N)の否零サンプル列を、それぞれxwr(k,r) 、xwh
(k,r) と表すことにする。
When this windowing process is expressed by a mathematical expression, x w (k, q) = x (q) w (kL-q) (1) In this equation (1), k is a block number,
q represents the time index (sample number) of the data, and the q-th data x (q) of the input signal before processing is windowed by the window function (w (kL-q)) of the kth block. It is shown that the data x w (k, q) can be obtained by doing so. The window function w r (r) in the case of the rectangular window as shown in A of FIG. 2 in the pitch extraction unit 13 is w r (r) = 1 0 ≦ r <N (2) = 0 r < 0, N ≦ r Further, the window function w h in the case of Hamming window as shown in B of FIG. 2 in the windowing processing section 14 (r) is, w h (r) = 0.54 - 0.46 cos (2πr / (N-1)) 0 ≦ r <N (3) = 0 r <0, N ≦ r. Such a window function w r (r) or w (1) when using the h (r) formula of the window function w (r) (= w (KL-
q)), the zero-zero interval is 0 ≦ kL−q <N, and is modified as follows: kL−N <q ≦ kL Therefore, for example, in the case of the above rectangular window, the window function w r (kL−q) = 1
This is when kL−N <q ≦ kL, as shown in FIG. In addition, the above formulas (1) to (3) have a length N
It shows that the window of (= 256) samples advances by L (= 160) samples. Below, above (2)
N points (0≤r
The non-zero sample sequences of <N) are respectively x wr (k, r) and x wh
We will denote it as (k, r).

【0025】窓かけ処理部14では、図4に示すよう
に、上記(3)式のハミング窓がかけられた1ブロック
256サンプルのサンプル列xwh(k,r) に対して179
2サンプル分の0データが付加されて(いわゆる0詰め
されて)2048サンプルとされ、この2048サンプ
ルの時間軸データ列に対して、直交変換部15により例
えばFFT(高速フーリエ変換)等の直交変換処理が施
される。あるいは、0詰めなしで256点のままでFF
Tを施して処理量を減らす方法もある。
In the windowing processing section 14, as shown in FIG. 4, 179 is applied to the sample sequence x wh (k, r) of one block of 256 samples to which the Hamming window of the equation (3) is applied.
Two samples of 0 data are added (so-called zero padding) to form 2048 samples, and the orthogonal transform unit 15 performs orthogonal transform such as FFT (Fast Fourier Transform) on the time-axis data sequence of 2048 samples. Processing is performed. Alternatively, FF with 256 points without zero padding
There is also a method of applying T to reduce the processing amount.

【0026】ピッチ抽出部(ピッチ検出部)13では、
上記xwr(k,r) のサンプル列(1ブロックNサンプル)
に基づいてピッチ抽出が行われる。このピッチ抽出法に
は、時間波形の周期性や、スペクトルの周期的周波数構
造や、自己相関関数を用いるもの等が知られているが、
本実施例では、センタクリップ波形の自己相関法を採用
している。このときのブロック内でのセンタクリップレ
ベルについては、1ブロックにつき1つのクリップレベ
ルを設定してもよいが、ブロックを細分割した各部(各
サブブロック)の信号のピークレベル等を検出し、これ
らの各サブブロックのピークレベル等の差が大きいとき
に、ブロック内でクリップレベルを段階的にあるいは連
続的に変化させるようにしている。このセンタクリップ
波形の自己相関データのピーク位置に基づいてピッチ周
期を決めている。このとき、現在フレームに属する自己
相関データ(自己相関は1ブロックNサンプルのデータ
を対象として求められる)から複数のピークを求めてお
き、これらの複数のピークの内の最大ピークが所定の閾
値以上のときには該最大ピーク位置をピッチ周期とし、
それ以外のときには、現在フレーム以外のフレーム、例
えば前後のフレームで求められたピッチに対して所定の
関係を満たすピッチ範囲内、例えば前フレームのピッチ
を中心として±20%の範囲内にあるピークを求め、こ
のピーク位置に基づいて現在フレームのピッチを決定す
るようにしている。このピッチ抽出部13ではオープン
ループによる比較的ラフなピッチのサーチが行われ、抽
出されたピッチデータは高精度(ファイン)ピッチサー
チ部16に送られて、クローズドループによる高精度の
ピッチサーチ(ピッチのファインサーチ)が行われる。
なお、センタクリップ波形ではなく、入力波形をLPC
分析した残差波形の自己相関からピッチを求める方法を
用いてもよい。
In the pitch extraction section (pitch detection section) 13,
Sample sequence of x wr (k, r) above (1 block N samples)
Pitch extraction is performed based on The pitch extraction method is known to include periodicity of time waveform, periodic frequency structure of spectrum, and one using autocorrelation function,
In this embodiment, the center correlation waveform autocorrelation method is adopted. Regarding the center clip level in the block at this time, one clip level may be set for each block, but the peak level of the signal of each part (each sub-block) obtained by subdividing the block is detected and When there is a large difference in peak level between the sub-blocks, the clip level is changed stepwise or continuously within the block. The pitch period is determined based on the peak position of the autocorrelation data of this center clip waveform. At this time, a plurality of peaks are obtained from the autocorrelation data belonging to the current frame (the autocorrelation is obtained for the data of N samples of one block), and the maximum peak of the plurality of peaks is equal to or larger than a predetermined threshold value. When, the maximum peak position is the pitch period,
In other cases, peaks within a pitch range that satisfies a predetermined relationship with the pitches obtained in frames other than the current frame, for example, the preceding and following frames, for example, within a range of ± 20% centered on the pitch of the previous frame. The pitch of the current frame is determined based on the obtained peak position. In this pitch extraction unit 13, a relatively rough pitch search is performed by an open loop, and the extracted pitch data is sent to a high precision (fine) pitch search unit 16 and a closed loop high precision pitch search (pitch) is performed. Fine search) is performed.
Note that the input waveform is LPC
A method of obtaining the pitch from the autocorrelation of the analyzed residual waveform may be used.

【0027】また、このピッチ抽出部(ピッチ検出部)
13においては、前述したような、一定話者の発声の中
でピッチが瞬間的に2倍になった(音声パワースペクト
ルの本来のピークの谷間のピークが大きくなった)こと
の検出も行っている。この検出方法について、以下に説
明する。この検出方法の説明においては、現在分析対象
としているフレーム(現フレーム)で抽出されたピッチ
をP、前フレームでのピッチをP’、上記現フレームで
の典型的(typical )ピッチをPt、前フレームでの典
型的ピッチをPt’とし、現フレームでの入力音声レベ
ルをLVとしている。
Further, this pitch extraction section (pitch detection section)
In No. 13, it was also detected that the pitch was momentarily doubled (the peak of the original peak of the voice power spectrum was increased) in the utterance of a constant speaker as described above. There is. This detection method will be described below. In the description of this detection method, the pitch extracted in the frame currently being analyzed (current frame) is P, the pitch in the previous frame is P ′, the typical pitch in the current frame is Pt, and the previous pitch is Pt. The typical pitch in the frame is Pt ', and the input voice level in the current frame is LV.

【0028】ここで、基本的なピッチである上記典型的
ピッチPtとは、本件発明者が先に特願平4−9226
1号の明細書及び図面において開示したものである。す
なわち、ピッチ抽出のために、1フレームの音声信号の
自己相関を求め、この自己相関に表れる複数のピークの
最大値が所定値kを超えたとき、この最大ピークに対応
するピッチを典型的なピッチPtとして登録する。ま
た、この典型的ピッチPtが現フレームのピッチPとな
る。上記自己相関の最大ピーク値が上記所定値kを超え
ない場合には、前フレームのピッチや最大ピーク値の大
きさ等に基づいて、現フレームのピッチPを決定する
が、これを典型的ピッチPtとして登録はしない。この
ときの典型的ピッチPtとしては、既に登録されている
典型的ピッチが用いられる。
Here, the typical pitch Pt, which is the basic pitch, is referred to by the present inventor in Japanese Patent Application No. 4-9226.
No. 1 is disclosed in the specification and drawings. That is, in order to extract the pitch, the autocorrelation of the voice signal of one frame is obtained, and when the maximum value of a plurality of peaks appearing in this autocorrelation exceeds a predetermined value k, the pitch corresponding to this maximum peak is typically set. It is registered as the pitch Pt. Also, this typical pitch Pt becomes the pitch P of the current frame. If the maximum peak value of the autocorrelation does not exceed the predetermined value k, the pitch P of the current frame is determined based on the pitch of the previous frame and the size of the maximum peak value. Do not register as Pt. As the typical pitch Pt at this time, a typical pitch already registered is used.

【0029】このような各ピッチP、P’、Pt、P
t’及び入力音声レベルLVの値に対して、次のような
条件を定める。(c1)現フレームのピッチPが上記典
型的ピッチPtの2倍近傍の値以上でありかつフレーム
平均レベルLVが所定の閾値LVt1より大きい、(c2)上
記典型的ピッチPtが前フレームの典型的ピッチPt’
より大きくかつ上記現フレームのピッチPが所定の閾値
thp1より大きい、(c3)上記現フレームのピッチPが
前フレームのピッチP’より大きくかつ上記現フレーム
のピッチPが所定の閾値thp2より大きくかつフレーム平
均レベルLVが所定の閾値LVt2より大きい、の3つの条件
(c1)〜(c3)の内の少なくとも1つを満足すると
き、現フレームのピッチPが本来のピッチの2倍となっ
ていると判断している。
Such pitches P, P ', Pt, P
The following conditions are set for the values of t ′ and the input sound level LV. (C1) The pitch P of the current frame is equal to or larger than twice the typical pitch Pt and the frame average level LV is larger than a predetermined threshold value LV t1 , (c2) the typical pitch Pt is typical of the previous frame. Pitch Pt '
The pitch P of the current frame is larger than the predetermined threshold value.
larger than th p1 , (c3) the pitch P of the current frame is larger than the pitch P ′ of the previous frame, the pitch P of the current frame is larger than a predetermined threshold th p2 , and the frame average level LV is larger than a predetermined threshold LV t2 . When at least one of the three large conditions (c1) to (c3) is satisfied, it is determined that the pitch P of the current frame is twice the original pitch.

【0030】具体例として、thp1を60、thp2を100
としたときの上記条件は、(c1)P>PtかつLV>LV
t1、(c2)Pt>Pt’かつP>60(=thp1)、
(c3)P>1.5P’かつP>100(=thp2)かつ
LV>LVt2となり、これらのいずれかが成立した場合、現
在検出されているピッチPの半分のピッチP/2が本来
のピッチであると判断する。
As a specific example, th p1 is 60 and th p2 is 100.
And the above condition is (c1) P> Pt and LV> LV
t1 , (c2) Pt> Pt 'and P> 60 (= th p1 ),
(C3) P> 1.5P 'and P> 100 (= th p2 ) and
If LV> LV t2 and either of these is satisfied, it is determined that the half pitch P / 2 of the currently detected pitch P is the original pitch.

【0031】なお、上記3条件(c1)〜(c3)のい
ずれかが成立しかつP>1.5P’が成立している場
合、次のフレームでの上記条件P>1.5P’は、現フ
レームの同条件を継承し、真となる。逆に、上記3条件
(c1)〜(c3)の全てが成立しない場合、上記条件
P>1.5P’は偽となり、次のフレームでは新たにP
とP’とにより条件P>1.5P’の判定を行う。
When any of the above three conditions (c1) to (c3) is satisfied and P> 1.5P 'is satisfied, the condition P>1.5P' in the next frame is as follows: It becomes true by inheriting the same conditions of the current frame. On the contrary, when all of the above three conditions (c1) to (c3) are not satisfied, the above condition P> 1.5P ′ becomes false, and P is newly added in the next frame.
And P ′, the condition P> 1.5P ′ is determined.

【0032】このPかP/2かの判定結果は、P、P/
2選択部26に送られており、このP、P/2選択部2
6では、後述する高精度(ファイン)ピッチサーチ部1
6からのピッチデータについて、そのまま伝送するか、
半分(P/2)にして伝送するかを選択している。
The determination result of P or P / 2 is P, P /
2 is sent to the 2 selection unit 26, and the P, P / 2 selection unit 2
6, the high-precision (fine) pitch search unit 1 described later
Transmit pitch data from 6 as it is,
It is selected whether to transmit by half (P / 2).

【0033】高精度(ファイン)ピッチサーチ部16に
は、ピッチ抽出部13で抽出された整数(インテジャ
ー)値の粗(ラフ)ピッチデータと、直交変換部15に
より例えばFFTされた周波数軸上のデータとが供給さ
れている。この高精度ピッチサーチ部16では、上記粗
ピッチデータ値を中心に、0.2〜0.5きざみで±数サン
プルずつ振って、最適な小数点付き(フローティング)
のファインピッチデータの値へ追い込む。このときのフ
ァインサーチの手法として、いわゆる合成による分析
(Analysis by Synthesis)法を用い、合成されたパワー
スペクトルが原音のパワースペクトルに最も近くなるよ
うにピッチを選んでいる。
The high-precision (fine) pitch search section 16 includes coarse (rough) pitch data of integer (integer) values extracted by the pitch extraction section 13 and, for example, on the frequency axis FFTed by the orthogonal transformation section 15. And the data of. In this high-precision pitch search unit 16, with the coarse pitch data value as the center, ± several samples are shaken in increments of 0.2 to 0.5 to give an optimum decimal point (floating).
To the value of the fine pitch data of. As a fine search method at this time, so-called synthesis analysis
Using the (Analysis by Synthesis) method, the pitch is selected so that the synthesized power spectrum is closest to the power spectrum of the original sound.

【0034】このピッチのファインサーチについて説明
する。先ず、上記MBEボコーダにおいては、上記FF
T等により直交変換された周波数軸上のスペクトルデー
タとしてのS(j) を S(j) =H(j) |E(j) | 0<j<J ・・・(4) と表現するようなモデルを想定している。ここで、Jは
ωs /4π=fs /2に対応し、サンプリング周波数f
s =ωs /2πが例えば8kHzのときには4kHzに対応
する。上記(4)式中において、周波数軸上のスペクト
ルデータS(j) が図5のAに示すような波形のとき、H
(j) は、図5のBに示すように、元のスペクトルデータ
S(j) のスペクトル包絡線(エンベロープ)を示し、E
(j) は、図5のCに示すような等レベルで周期的な励起
信号(エクサイテイション)のスペクトルを示してい
る。すなわち、FFTスペクトルS(j) は、スペクトル
エンベロープH(j) と励起信号のパワースペクトル|E
(j) |との積としてモデル化される。
The fine search of the pitch will be described. First, in the MBE vocoder, the FF
Let S (j) as spectrum data on the frequency axis orthogonally transformed by T etc. be expressed as S (j) = H (j) | E (j) | 0 <j <J (4) It is assumed that the model. Here, J corresponds to ω s / 4π = f s / 2, and the sampling frequency f
When s = ω s / 2π is, for example, 8 kHz, it corresponds to 4 kHz. In the equation (4), when the spectrum data S (j) on the frequency axis has a waveform as shown in FIG.
(j) indicates the spectrum envelope (envelope) of the original spectrum data S (j) as shown in B of FIG.
(j) shows the spectrum of the excitation signal (excitation) which is periodic at the same level as shown in C of FIG. That is, the FFT spectrum S (j) is the spectrum envelope H (j) and the power spectrum | E of the excitation signal.
(j) | is modeled as |.

【0035】上記励起信号のパワースペクトル|E(j)
|は、上記ピッチに応じて決定される周波数軸上の波形
の周期性(ピッチ構造)を考慮して、1つの帯域(バン
ド)の波形に相当するスペクトル波形を周波数軸上の各
バンド毎に繰り返すように配列することにより形成され
る。この1バンド分の波形は、例えば上記図4に示すよ
うな256サンプルのハミング窓関数に1792サンプ
ル分の0データを付加(0詰め)した波形を時間軸信号
と見なしてFFTし、得られた周波数軸上のある帯域幅
を持つインパルス波形を上記ピッチに応じて切り出すこ
とにより形成することができる。
Power spectrum of the excitation signal | E (j)
| Is a spectral waveform corresponding to the waveform of one band (band) for each band on the frequency axis in consideration of the periodicity (pitch structure) of the waveform on the frequency axis determined according to the pitch. It is formed by arranging it repeatedly. The waveform for one band is obtained by FFT by regarding a waveform obtained by adding (filling with 0) 1792 samples of 0 data to a Hamming window function of 256 samples as shown in FIG. 4 as a time axis signal. It can be formed by cutting out an impulse waveform having a certain bandwidth on the frequency axis according to the pitch.

【0036】次に、上記ピッチに応じて分割された各バ
ンド毎に、上記H(j) を代表させるような(各バンド毎
のエラーを最小化するような)値(一種の振幅)|Am
|を求める。ここで、例えば第mバンド(第m高調波の
帯域)の下限、上限の点をそれぞれam 、bm とすると
き、この第mバンドのエラーεm は、
Next, for each band divided according to the above pitch, a value (a kind of amplitude) | A that represents the above H (j) (minimizes the error for each band) | A m
Ask for |. Here, for example, when the lower limit point and the upper limit point of the m-th band (band of the m-th harmonic) are a m and b m , respectively, the error ε m of the m-th band is

【0037】[0037]

【数1】 [Equation 1]

【0038】で表せる。このエラーεm を最小化するよ
うな|Am |は、
Can be expressed as | A m | that minimizes this error ε m is

【0039】[0039]

【数2】 [Equation 2]

【0040】となり、この(6)式の|Am |のとき、
エラーεm を最小化する。
Thus, when | A m | in this equation (6),
Minimize the error ε m .

【0041】このような振幅|Am |を各バンド毎に求
め、得られた各振幅|Am |を用いて上記(5)式で定
義された各バンド毎のエラーεm を求める。次に、この
ような各バンド毎のエラーεm の全バンドの総和値Σε
m を求める。さらに、このような全バンドのエラー総和
値Σεm を、いくつかの微小に異なるピッチについて求
め、エラー総和値Σεm が最小となるようなピッチを求
める。
Such an amplitude | A m | is obtained for each band, and an error ε m for each band defined by the above equation (5) is obtained using the obtained amplitude | A m |. Next, the sum Σε of all the bands of the error ε m for each band as described above.
Find m . Further, such an error sum value Σε m of all bands is obtained for some slightly different pitches, and a pitch that minimizes the error sum value Σε m is obtained.

【0042】すなわち、上記ピッチ抽出部13で求めら
れたラフピッチを中心として、例えば 0.25 きざみで上
下に数種類ずつ用意する。これらの複数種類の微小に異
なるピッチの各ピッチに対してそれぞれ上記エラー総和
値Σεm を求める。この場合、ピッチが定まるとバンド
幅が決まり、上記(6)式より、周波数軸上データのパ
ワースペクトル|S(j) |と励起信号スペクトル|E
(j) |とを用いて上記(5)式のエラーεm を求め、そ
の全バンドの総和値Σεm を求めることができる。この
エラー総和値Σεm を各ピッチ毎に求め、最小となるエ
ラー総和値に対応するピッチを最適のピッチとして決定
するわけである。以上のようにして高精度ピッチサーチ
部で最適のファイン(例えば 0.25 きざみ)ピッチが求
められ、この最適ピッチに対応する振幅|Am |が決定
される。このときの振幅値の計算は、有声音の振幅評価
部18Vにおいて行われる。
That is, with the rough pitch determined by the pitch extraction unit 13 as the center, several types are prepared in the upper and lower portions, for example, in steps of 0.25. The error sum value Σε m is obtained for each of these plural kinds of slightly different pitches. In this case, if the pitch is determined, the bandwidth is determined, and from the above formula (6), the power spectrum | S (j) |
(j) | can be used to find the error ε m in the above equation (5), and the total sum Σε m of all the bands can be found. This error sum total value Σε m is obtained for each pitch, and the pitch corresponding to the minimum error sum value is determined as the optimum pitch. As described above, the high-precision pitch search unit obtains the optimum fine (for example, 0.25 step) pitch, and the amplitude | A m | corresponding to this optimum pitch is determined. The calculation of the amplitude value at this time is performed in the voiced sound amplitude evaluation unit 18V.

【0043】以上ピッチのファインサーチの説明におい
ては、説明を簡略化するために、全バンドが有声音(Vo
iced)の場合を想定しているが、上述したようにMBE
ボコーダにおいては、同時刻の周波数軸上に無声音(Un
voiced)領域が存在するというモデルを採用しているこ
とから、上記各バンド毎に有声音/無声音の判別を行う
ことが必要とされる。
In the above description of the pitch fine search, in order to simplify the description, all bands are voiced (Vo
Assuming the case of iced), MBE as described above
In the vocoder, unvoiced sound (Un
Since a model in which a voiced) region exists is used, it is necessary to distinguish voiced sound / unvoiced sound for each band.

【0044】上記高精度ピッチサーチ部16からの最適
ピッチ及び振幅評価部(有声音)18Vからの振幅|A
m |のデータは、有声音/無声音判別部17に送られ、
上記各バンド毎に有声音/無声音の判別が行われる。こ
の判別のためにNSR(ノイズtoシグナル比)を利用
する。すなわち、第mバンドのNSRであるNSR
mは、
The optimum pitch from the high precision pitch search section 16 and the amplitude from the amplitude evaluation section (voiced sound) 18V | A
The data of m | is sent to the voiced sound / unvoiced sound discrimination unit 17,
The voiced sound / unvoiced sound is discriminated for each band. NSR (noise to signal ratio) is used for this determination. That is, the NSR that is the NSR of the m-th band
m is

【0045】[0045]

【数3】 [Equation 3]

【0046】と表せ、このNSRm が所定の閾値Th1
(例えばTh1 =0.2)より大のとき(すなわちエラー
が大きいとき)には、そのバンドでの|Am ||E(j)
|による|S(j) |の近似が良くない(上記励起信号|
E(j) |が基底として不適当である)と判断でき、当該
バンドをUV(Unvoiced、無声音)と判別する。これ以
外のときは、近似がある程度良好に行われていると判断
でき、そのバンドをV(Voiced、有声音)と判別する。
This NSR m is a predetermined threshold value Th 1
When larger than (for example, Th 1 = 0.2) (that is, when the error is large), | A m || E (j) in that band
The approximation of | S (j) | by | is not good (the above excitation signal |
E (j) | is unsuitable as a base) and the band is determined to be UV (Unvoiced). In other cases, it can be determined that the approximation is performed to a certain extent, and the band is determined to be V (Voiced, voiced sound).

【0047】ところで、上述したように基本ピッチ周波
数で分割されたバンドの数(ハーモニックスの数)は、
声の高低(ピッチの大小)によって約8〜63程度の範
囲で変動するため、各バンド毎のV/UVフラグの個数
も同様に変動してしまう。
By the way, as described above, the number of bands divided by the fundamental pitch frequency (the number of harmonics) is
The number of V / UV flags for each band similarly varies because the voice varies in the range of about 8 to 63 depending on the pitch (the size of the pitch).

【0048】そこで、本実施例においては、固定的な周
波数帯域で分割した一定個数のバンド毎にV/UV判別
結果をまとめる(あるいは縮退させる)ようにしてい
る。具体的には、音声帯域を含む所定帯域(例えば0〜
4000Hz)をNB 個(例えば12個)のバンドに分割
し、各バンド内の上記NSR値に従って、例えば重み付
き平均値を所定の閾値Th2 (例えばTh2 =0.2)で
弁別して、当該バンドのV/UVを判断している。
Therefore, in this embodiment, the V / UV discrimination results are put together (or degenerated) for each of a fixed number of bands divided by a fixed frequency band. Specifically, a predetermined band including a voice band (for example, 0 to
4000 Hz) is divided into N B (for example, 12) bands, and the weighted average value is discriminated by a predetermined threshold value Th 2 (for example, Th 2 = 0.2) according to the NSR value in each band, The V / UV of the band is judged.

【0049】次に、無声音の振幅評価部18Uには、直
交変換部15からの周波数軸上データ、ピッチサーチ部
16からのファインピッチデータ、有声音振幅評価部1
8Vからの振幅|Am |のデータ、及び上記有声音/無
声音判別部17からのV/UV(有声音/無声音)判別
データが供給されている。この振幅評価部(無声音)1
8Uでは、有声音/無声音判別部17において無声音
(UV)と判別されたバンドに関して、再度振幅を求め
て(振幅再評価を行って)いる。このUVのバンドにつ
いての振幅|Am UVは、
Next, in the unvoiced sound amplitude evaluation unit 18U, the on-frequency data from the orthogonal transformation unit 15, the fine pitch data from the pitch search unit 16, and the voiced sound amplitude evaluation unit 1 are included.
Data of amplitude | A m | from 8 V and V / UV (voiced sound / unvoiced sound) discrimination data from the voiced sound / unvoiced sound discrimination unit 17 are supplied. This amplitude evaluation section (unvoiced sound) 1
In 8U, the amplitude is obtained again (amplitude re-evaluation is performed) with respect to the band that is determined to be unvoiced sound (UV) by the voiced sound / unvoiced sound determination unit 17. The amplitude | A m | UV for this UV band is

【0050】[0050]

【数4】 [Equation 4]

【0051】にて求められる。It is calculated by

【0052】この振幅評価部(無声音)18Uからのデ
ータは、データ数変換(一種のサンプリングレート変
換)部19に送られる。このデータ数変換部19は、上
記ピッチに応じて周波数軸上での分割帯域数が異なり、
データ数(特に振幅データの数)が異なることを考慮し
て、一定の個数にするためのものである。すなわち、例
えば有効帯域を3400kHzまでとすると、この有効帯
域が上記ピッチに応じて、8バンド〜63バンドに分割
されることになり、これらの各バンド毎に得られる上記
振幅|Am |(UVバンドの振幅|Am UVも含む)デ
ータの個数mMX+1も8〜63と変化することになる。
このためデータ数変換部19では、この可変個数mMX
1の振幅データを一定個数M(例えば44個)のデータ
に変換している。
The data from the amplitude evaluation unit (unvoiced sound) 18U is sent to the data number conversion (a kind of sampling rate conversion) unit 19. The data number conversion unit 19 has a different number of divided bands on the frequency axis according to the pitch,
This is for keeping the number constant, considering that the number of data (especially the number of amplitude data) is different. That is, for example, when the effective band is set to 3400 kHz, the effective band is divided into 8 bands to 63 bands according to the pitch, and the amplitude | A m | (UV The number of data m MX +1 including the band amplitude | A m | UV also changes from 8 to 63.
Therefore, in the data number conversion unit 19, this variable number m MX +
One amplitude data is converted into a fixed number M (for example, 44) of data.

【0053】ここで、本実施例においては、例えば、周
波数軸上の有効帯域1ブロック分の振幅データに対し
て、ブロック内の最後のデータからブロック内の最初の
データまでの値を補間するようなダミーデータを付加し
てデータ個数をNF 個に拡大した後、帯域制限型のOS
倍(例えば8倍)のオーバーサンプリングを施すことに
よりOS 倍の個数の振幅データを求め、このOS 倍の個
数((mMX+1)×OS個)の振幅データを直線補間し
てさらに多くのNM 個(例えば2048個)に拡張し、
このNM 個のデータを間引いて上記一定個数M(例えば
44個)のデータに変換している。
Here, in the present embodiment, for example, for the amplitude data of one block of the effective band on the frequency axis, values from the last data in the block to the first data in the block are interpolated. After adding the dummy data to increase the number of data to N F , the band-limited O S
By multiplying (e.g., 8 times) oversampling, the amplitude data of O S times is obtained, and the amplitude data of this O S times ((m MX +1) × O S ) are linearly interpolated. Expand to many N M (eg 2048),
The N M pieces of data are thinned out and converted into the fixed number M of data (for example, 44 pieces).

【0054】このデータ数変換部19からのデータ(上
記一定個数M個の振幅データ)がベクトル量子化部20
に送られて、所定個数のデータ毎にまとめられてベクト
ルとされ、ベクトル量子化が施される。ベクトル量子化
部20からの量子化出力データ(の主要部)は、上記高
精度のピッチサーチ部16から上記P、P/2選択部2
6を介して得られた高精度(ファイン)ピッチデータ及
び上記有声音/無声音判別部17からの有声音/無声音
(V/UV)判別データと共に、符号化部21に送られ
て符号化される。
The data from the data number conversion unit 19 (the above-mentioned fixed number M of amplitude data) is the vector quantization unit 20.
To a vector, and a predetermined number of pieces of data are combined into a vector, and vector quantization is performed. The quantized output data from the vector quantizer 20 (main part of the quantized output data) is transmitted from the highly accurate pitch search unit 16 to the P, P / 2 selector 2
The high precision (fine) pitch data obtained via 6 and the voiced sound / unvoiced sound (V / UV) discrimination data from the voiced sound / unvoiced sound discrimination unit 17 are sent to the encoding unit 21 for encoding. .

【0055】なお、これらの各データは、上記Nサンプ
ル(例えば256サンプル)のブロック内のデータに対
して処理を施すことにより得られるものであるが、ブロ
ックは時間軸上を上記Lサンプルのフレームを単位とし
て前進することから、伝送するデータは上記フレーム単
位で得られる。すなわち、上記フレーム周期でピッチデ
ータ、V/UV判別データ、振幅データが更新されるこ
とになる。また、上記有声音/無声音判別部17からの
V/UV判別データについては、上述したように、必要
に応じて12バンド程度に低減(縮退)され、全バンド
中で1箇所以下の有声音(V)領域と無声音(UV)領
域との区分位置を有すると共に、所定条件を満足する場
合に低域側のV(有声音)が高域側にまで拡張されたV
/UV判別データパターンを表すものである。
Each of these data is obtained by processing the data in the block of N samples (for example, 256 samples), but the block is a frame of L samples on the time axis. , The data to be transmitted is obtained in the frame unit. That is, the pitch data, the V / UV discrimination data, and the amplitude data are updated at the above frame period. The V / UV discrimination data from the voiced sound / unvoiced sound discrimination unit 17 is reduced (degenerated) to about 12 bands as necessary as described above, and one or less voiced sounds in all bands ( V) and V are unvoiced (UV) regions, and V (voiced sound) on the low frequency side is expanded to the high frequency side when a predetermined condition is satisfied.
/ UV discrimination data pattern.

【0056】ここで、P、P/2選択部26は、上述し
たような条件(c1)〜(c3)のいずれか1つが成立
し、現在検出されているピッチPの半分のピッチP/2
が本来のピッチであると判断されたとき、高精度ピッチ
サーチ部16からのピッチデータPを1/2にし(P/
2)、これを符号化部21に送るようにしている。
Here, the P / P / 2 selection unit 26 satisfies one of the conditions (c1) to (c3) described above, and the pitch P / 2 is half the pitch P currently detected.
Is determined to be the original pitch, the pitch data P from the high-precision pitch search unit 16 is halved (P /
2), this is sent to the encoding unit 21.

【0057】このような半分のピッチP/2を伝送する
理由について説明すると、先ず上記条件(c1)〜(c
3)の1つが成立するときには、時間波形においては、
図6のAに示すように、ピッチPに対応するピークとピ
ークとの間に小さなピークがあると解釈できる。この図
6のAに対応する図6のBのスペクトルに対してピッチ
Pで分析を行った場合、前述したようにベクトル量子化
して伝送し、逆量子化した後の合成音においては、図6
のC、Dに示すように、上記小ピークが消滅し、その代
わりにエネルギが全てピッチPのピークに集中してしま
うことになる。従って、この小ピークを再現するため
に、上記Pを半分(P/2)にして用いるものである。
Explaining the reason why such a half pitch P / 2 is transmitted, first, the above conditions (c1) to (c).
When one of 3) is established, in the time waveform,
As shown in A of FIG. 6, it can be interpreted that there is a small peak between the peaks corresponding to the pitch P. When the spectrum of B of FIG. 6 corresponding to A of FIG. 6 is analyzed at the pitch P, vector quantization is performed and transmission is performed as described above, and the synthesized voice after dequantization has the result of FIG.
As shown in C and D, the small peak disappears, and instead, all the energy concentrates on the peak of the pitch P. Therefore, in order to reproduce this small peak, the above P is halved (P / 2) and used.

【0058】ここで注意すべきことは、ピッチPをP/
2に変更するタイミングである。すなわち、上記V/U
Vの判別を行う前にこの置き換えをしてしまうと、本来
の(オリジナル)スペクトルと基底(ベース)スペクト
ルのマッチングをとる際に、谷間のピークを含めての評
価となるため、殆どがUV(無声音)と判断されてしま
うからである。例えば、図7はピッチPに対応する角周
波数ω0 でバンド分割してV/UV判別を行う場合の音
声パワースペクトルの具体例を示し、各バンド(少なく
ともω5 まで)は全てV(有声音)と判別されている。
これに対して、P/2に対応する角周波数2ω0 でバン
ド分割してV/UV判別を行うと、図8に示すようにU
V(無声音)と判別されてしまう。これらの図7、図8
において、実線がオリジナルスペクトルを、破線がベー
ススペクトルをそれぞれ示している。
It should be noted that the pitch P is P / P
It is the timing to change to 2. That is, the above V / U
If this replacement is performed before the determination of V, the peak including a valley is evaluated when matching the original (original) spectrum and the base (base) spectrum. This is because it is judged as unvoiced sound). For example, FIG. 7 shows a specific example of a voice power spectrum in the case of performing V / UV discrimination by band division at an angular frequency ω 0 corresponding to the pitch P. All bands (at least up to ω 5 ) are V (voiced sound). ) Has been determined.
On the other hand, when V / UV discrimination is performed by band division at an angular frequency 2ω 0 corresponding to P / 2, as shown in FIG.
It is determined to be V (unvoiced sound). These FIG. 7 and FIG.
In, the solid line shows the original spectrum and the broken line shows the base spectrum.

【0059】従って、一旦元のPのままでV/UV判別
を行い、量子化を施した後、分析の最終段にてPをP/
2に置き換え、これを合成側に伝送する。図1の例で
は、有声音/無声音(V/UV)判別部17やベクトル
量子化部20では、高精度ピッチサーチ部16からのピ
ッチデータ(P)をそのまま用いて処理を行っており、
これらの系とは別に、高精度ピッチサーチ部16からの
ピッチデータをP、P/2選択部26に送って上記条件
成立時にのみP/2に置き換えて符号化部21に送って
いるため、何ら問題はない。
Therefore, once V / UV discrimination is performed with the original P as it is, and after quantization, P is set to P / P at the final stage of analysis.
It is replaced with 2, and this is transmitted to the combining side. In the example of FIG. 1, the voiced sound / unvoiced sound (V / UV) discrimination unit 17 and the vector quantization unit 20 use the pitch data (P) from the high precision pitch search unit 16 as they are to perform processing.
Separately from these systems, the pitch data from the high-precision pitch search unit 16 is sent to the P / P / 2 selection unit 26 and is replaced with P / 2 only when the above condition is satisfied and sent to the encoding unit 21. There is no problem.

【0060】上記符号化部21においては、例えばCR
C付加及びレート1/2畳み込み符号付加処理が施され
る。すなわち、上記ピッチデータ、上記有声音/無声音
(V/UV)判別データ、及び上記量子化出力データの
内の重要なデータについてはCRC誤り訂正符号化が施
された後、畳み込み符号化が施される。符号化部21か
らの符号化出力データは、フレームインターリーブ部2
2に送られ、ベクトル量子化部20からの一部(例えば
重要度の低い)データと共にインターリーブ処理され
て、出力端子23から取り出され、合成側(デコード
側)に伝送(あるいは記録再生)される。
In the encoding unit 21, for example, CR
C addition and rate 1/2 convolutional code addition processing is performed. That is, important data among the pitch data, the voiced sound / unvoiced sound (V / UV) discrimination data, and the quantized output data is subjected to CRC error correction coding and then convolutional coding. It The encoded output data from the encoding unit 21 is the frame interleave unit 2
2, is interleaved with part (eg, less important) data from the vector quantizer 20, extracted from the output terminal 23, and transmitted (or recorded / reproduced) to the combining side (decoding side). .

【0061】以上のように、一定話者の発声の中でピッ
チが瞬間的に2倍になったことの判断は、上記(c1)
〜(c3)のような比較的単純な条件判断で行え、また
倍のピッチであると判断されたときには、高精度ピッチ
サーチ部16からのピッチデータ(P)を半分のデータ
(P/2)に置き換えて伝送するだけで済むため、処理
が簡単であり、実時間処理が容易である。
As described above, the judgment that the pitch is momentarily doubled in the utterance of a certain speaker is made in the above (c1).
~ (C3) can be performed by a relatively simple condition determination, and when it is determined that the pitch is doubled, the pitch data (P) from the high precision pitch search unit 16 is halved (P / 2). Therefore, the processing is simple and real-time processing is easy.

【0062】次に、伝送されて(あるいは記録再生され
て)得られた上記各データに基づき音声信号を合成する
ための合成側(デコード側)の概略構成について、図9
を参照しながら説明する。
Next, FIG. 9 shows a schematic structure of a synthesizing side (decoding side) for synthesizing an audio signal based on the above-mentioned respective data obtained by being transmitted (or recorded / reproduced).
Will be described with reference to.

【0063】この図9において、入力端子31には、上
記図1に示すエンコーダ側の出力端子23から取り出さ
れたデータ信号に略々等しい(伝送や記録再生による信
号劣化を無視して)データ信号が供給される。この入力
端子31からのデータは、フレームデインターリーブ部
32に送られて、上記図1のインターリーブ処理の逆処
理となるデインターリーブ処理が施され、主要部(エン
コーダ側でCRC及び畳み込み符号化された部分で、一
般に重要度の高いデータ部分)は復号化部33で復号化
処理されてバッドフレームマスク処理部34に、残部
(符号化処理の施されていない重要度の低いもの)はそ
のままバッドフレームマスク処理部34に、それぞれ送
られる。復号化部33においては、例えばいわゆるビタ
ビ復号化処理やCRCチェックコードを用いたエラー検
出処理が施される。バッドフレームマスク処理部34
は、エラーの多いフレームのパラメータを補間で求める
ような処理を行うと共に、上記ピッチデータ、有声音/
無声音(V/UV)データ、及びベクトル量子化された
振幅データを分離して取り出す。
In FIG. 9, a data signal at the input terminal 31 is substantially equal to the data signal taken out from the output terminal 23 on the encoder side shown in FIG. 1 (ignoring signal deterioration due to transmission and recording / reproduction). Is supplied. The data from the input terminal 31 is sent to the frame deinterleave unit 32, subjected to deinterleave processing which is the reverse processing of the interleave processing of FIG. 1 above, and subjected to CRC and convolutional coding on the main portion (encoder side). In the portion, generally, the data portion having high importance) is subjected to decoding processing by the decoding unit 33, and the remaining portion (data of low importance not subjected to the encoding processing) is directly subjected to bad frame mask processing in the bad frame mask processing unit 34. To the section 34. In the decoding unit 33, for example, so-called Viterbi decoding processing or error detection processing using a CRC check code is performed. Bad frame mask processing unit 34
Performs processing such as obtaining a parameter of a frame with many errors by interpolation, and also performs the above pitch data, voiced sound /
Unvoiced sound (V / UV) data and vector-quantized amplitude data are separated and extracted.

【0064】ここで、上記ピッチデータは、上述したよ
うに、図1の高精度ピッチサーチ部16から上記P、P
/2選択部26を介して得られたデータであり、通常時
は高精度ピッチサーチ部16からのピッチPが、また上
記条件(c1)〜(c3)のいずれか1つが成立すると
きにはP/2がそれぞれ伝送されて、バッドフレームマ
スク処理部34からピッチデータとして取り出される。
Here, as described above, the pitch data is obtained from the high precision pitch search section 16 of FIG.
Data obtained through the / 2 selection unit 26, and the pitch P from the high-precision pitch search unit 16 under normal conditions, and P / when any one of the above conditions (c1) to (c3) is satisfied. 2 are transmitted and taken out as pitch data from the bad frame mask processing unit 34.

【0065】バッドフレームマスク処理部34からの上
記ベクトル量子化された振幅データは、逆ベクトル量子
化部35に送られて逆量子化され、データ数逆変換部3
6に送られて逆変換される。このデータ数逆変換部36
では、上述した図1のデータ数変換部19と対照的な逆
変換が行われ、得られた振幅データが有声音合成部37
及び無声音合成部38に送られる。マスク処理部34か
らの上記ピッチデータは、有声音合成部37及び無声音
合成部38に送られる。またマスク処理部34からの上
記V/UV判別データも、有声音合成部37及び無声音
合成部38に送られる。
The vector-quantized amplitude data from the bad frame mask processing unit 34 is sent to the inverse vector quantization unit 35 and inversely quantized, and the data number inverse transform unit 3
It is sent to 6 and is inversely transformed. This data number inverse conversion unit 36
Then, the inverse conversion, which is in contrast to the above-described data number conversion unit 19 of FIG.
And the unvoiced sound synthesizer 38. The pitch data from the mask processing unit 34 is sent to the voiced sound synthesis unit 37 and the unvoiced sound synthesis unit 38. The V / UV discrimination data from the mask processing section 34 is also sent to the voiced sound synthesis section 37 and the unvoiced sound synthesis section 38.

【0066】有声音合成部37では例えば余弦(cosine)
波合成により時間軸上の有声音波形を合成し、無声音合
成部38では例えばホワイトノイズをバンドパスフィル
タでフィルタリングして時間軸上の無声音波形を合成
し、これらの各有声音合成波形と無声音合成波形とを加
算部41で加算合成して、出力端子42より取り出すよ
うにしている。この場合、上記振幅データ、ピッチデー
タ及びV/UV判別データは、上記分析時の1フレーム
(Lサンプル、例えば160サンプル)毎に更新されて
与えられるが、フレーム間の連続性を高める(円滑化す
る)ために、上記振幅データやピッチデータの各値を1
フレーム中の例えば中心位置における各データ値とし、
次のフレームの中心位置までの間(合成時の1フレー
ム)の各データ値を補間により求める。すなわち、合成
時の1フレーム(例えば上記分析フレームの中心から次
の分析フレームの中心まで)において、先端サンプル点
での各データ値と終端(次の合成フレームの先端)サン
プル点での各データ値とが与えられ、これらのサンプル
点間の各データ値を補間により求めるようにしている。
In the voiced sound synthesizer 37, for example, cosine
The voiced sound waveform on the time axis is synthesized by wave synthesis, and the unvoiced sound synthesis unit 38 synthesizes the unvoiced sound waveform on the time axis by filtering white noise, for example, with a bandpass filter, and synthesizes each voiced sound waveform and unvoiced sound. The waveform and the waveform are added and synthesized by the adder 41 and output from the output terminal 42. In this case, the amplitude data, the pitch data, and the V / UV discrimination data are updated and given for each frame (L sample, for example, 160 samples) at the time of the analysis, but the continuity between the frames is improved (smoothed). To set each value of the above amplitude data and pitch data to 1
For example, each data value at the center position in the frame,
Each data value up to the center position of the next frame (one frame at the time of composition) is obtained by interpolation. That is, in one frame at the time of composition (for example, from the center of the above analysis frame to the center of the next analysis frame), each data value at the leading end sample point and each data value at the end (leading edge of the next composition frame) sample point Are given, and each data value between these sample points is obtained by interpolation.

【0067】また、V/UV判別データに応じて全バン
ドを1箇所の区分位置で有声音(V)領域と無声音(U
V)領域とに区分することができ、この区分に応じて、
各バンド毎のV/UV判別データを得ることができる。
この区分位置については、上述したように、低域側のV
が高域側に拡張されていることがある。ここで、分析側
(エンコーダ側)で一定数(例えば12程度)のバンド
に低減(縮退)されている場合には、これを解いて(復
元して)、元のピッチに応じた間隔で可変個数のバンド
とすることは勿論である。
In addition, according to the V / UV discrimination data, the voiced sound (V) region and the unvoiced sound (U
V) area, and according to this division,
V / UV discrimination data for each band can be obtained.
Regarding this division position, as described above, V on the low frequency side
May be expanded to the high frequency side. If the analysis side (encoder side) reduces (degenerates) the number of bands to a certain number (for example, about 12), it is solved (restored) and changed at intervals according to the original pitch. Of course, the number of bands is set.

【0068】以下、有声音合成部37における合成処理
を詳細に説明する。上記V(有声音)と判別された第m
バンド(第m高調波の帯域)における時間軸上の上記1
合成フレーム(Lサンプル、例えば160サンプル)分
の有声音をVm (n) とするとき、この合成フレーム内の
時間インデックス(サンプル番号)nを用いて、 Vm (n) =Am (n) cos(θm (n)) 0≦n<L ・・・(9) と表すことができる。全バンドの内のV(有声音)と判
別された全てのバンドの有声音を加算(ΣVm (n) )し
て最終的な有声音V(n) を合成する。
The synthesis processing in the voiced sound synthesis section 37 will be described in detail below. M-th discriminated as V (voiced sound)
1 on the time axis in the band (band of the mth harmonic)
When a voiced sound for a synthetic frame (L samples, for example 160 samples) is V m (n), V m (n) = A m (n) using the time index (sample number) n in this synthetic frame ) cos (θ m (n)) 0 ≦ n <L (9) The final voiced sound V (n) is synthesized by adding (ΣV m (n)) the voiced sounds of all bands that are determined to be V (voiced sound) of all bands.

【0069】この(9)式中のAm (n) は、上記合成フ
レームの先端から終端までの間で補間された第m高調波
の振幅である。最も簡単には、フレーム単位で更新され
る振幅データの第m高調波の値を直線補間すればよい。
すなわち、上記合成フレームの先端(n=0)での第m
高調波の振幅値をA0m、該合成フレームの終端(n=
L:次の合成フレームの先端)での第m高調波の振幅値
をALmとするとき、 Am (n) = (L-n)A0m/L+nALm/L ・・・(10) の式によりAm (n) を計算すればよい。
A m (n) in the equation (9) is the amplitude of the m-th harmonic wave which is interpolated from the beginning to the end of the composite frame. The simplest way is to linearly interpolate the value of the m-th harmonic of the amplitude data updated in frame units.
That is, the m-th frame at the tip (n = 0) of the composite frame
The amplitude value of the harmonic is A 0m , the end of the composite frame (n =
L: the amplitude value of the m-th harmonic at the next composite frame) is A Lm, and the following equation is used: A m (n) = (Ln) A 0m / L + nA Lm / L (10) It suffices to calculate A m (n).

【0070】次に、上記(9)式中の位相θm (n) は、 θm (n) =mωO1n+n2 m(ωL1−ω01)/2L+φ0m+Δωn ・・・(11) により求めることができる。この(11)式中で、φ0m
上記合成フレームの先端(n=0)での第m高調波の位
相(フレーム初期位相)を示し、ω01は合成フレーム先
端(n=0)での基本角周波数、ωL1は該合成フレーム
の終端(n=L:次の合成フレーム先端)での基本角周
波数をそれぞれ示している。上記(11)式中のΔωは、
n=Lにおける位相φLmがθm (L) に等しくなるような
最小のΔωを設定する。
Next, the phase θ m (n) in the above equation (9) is calculated by θ m (n) = mω O1 n + n 2 m (ω L1 −ω 01 ) / 2L + φ 0 m + Δω n (11) You can ask. In the equation (11), φ 0m represents the phase of the m-th harmonic (frame initial phase) at the tip (n = 0) of the composite frame, and ω 01 is at the tip of the composite frame (n = 0). The fundamental angular frequency, ω L1, indicates the fundamental angular frequency at the end of the composite frame (n = L: leading end of the next composite frame). Δω in the above equation (11) is
Set a minimum Δω such that the phase φ Lm at n = L is equal to θ m (L).

【0071】以下、任意の第mバンドにおいて、それぞ
れn=0、n=LのときのV/UV判別結果に応じた上
記振幅Am (n) 、位相θm (n) の求め方を説明する。
Hereinafter, a method of obtaining the amplitude A m (n) and the phase θ m (n) according to the V / UV discrimination result when n = 0 and n = L in an arbitrary m-th band will be described. To do.

【0072】第mバンドが、n=0、n=Lのいずれも
V(有声音)とされる場合に、振幅Am (n) は、上述し
た(10)式により、伝送された振幅値A0m、ALmを直線
補間して振幅Am (n) を算出すればよい。位相θm (n)
は、n=0でθm (0) =φ0mからn=Lでθm (L) がφ
LmとなるようにΔωを設定する。
When the m-th band is V (voiced sound) for both n = 0 and n = L, the amplitude A m (n) is the amplitude value transmitted by the above equation (10). The amplitude A m (n) may be calculated by linearly interpolating A 0m and A Lm . Phase θ m (n)
From n 0, θ m (0) = φ 0 m to n = L, θ m (L) is φ
Set Δω to be Lm .

【0073】次に、n=0のときV(有声音)で、n=
LのときUV(無声音)とされる場合に、振幅Am (n)
は、Am (0) の伝送振幅値A0mからAm (L) で0となる
ように直線補間する。n=Lでの伝送振幅値ALmは無声
音の振幅値であり、後述する無声音合成の際に用いられ
る。位相θm (n) は、θm (0) =φ0mとし、かつΔω=
0とする。
Next, when n = 0, V (voiced sound) and n =
Amplitude A m (n) when UV (unvoiced sound) when L
Is linearly interpolated so that 0 A m (L) from the transmission amplitude value A 0 m of A m (0). The transmission amplitude value A Lm when n = L is the amplitude value of unvoiced sound and is used in unvoiced sound synthesis described later. The phase θ m (n) is θ m (0) = φ 0 m , and Δω =
Set to 0.

【0074】さらに、n=0のときUV(無声音)で、
n=LのときV(有声音)とされる場合には、振幅Am
(n) は、n=0での振幅Am (0) を0とし、n=Lで伝
送された振幅値ALmとなるように直線補間する。位相θ
m (n) については、n=0での位相θm (0) として、フ
レーム終端での位相値φLmを用いて、 θm (0) =φLm−m(ωO1+ωL1)L/2 ・・・(12) とし、かつΔω=0とする。
Further, when n = 0, UV (unvoiced sound)
When n = L, when V (voiced sound) is used, the amplitude A m
(n) is linearly interpolated so that the amplitude A m (0) at n = 0 is 0 and the transmitted amplitude value A Lm is obtained at n = L. Phase θ
For m (n), using the phase value φ Lm at the end of the frame as the phase θ m (0) at n = 0, θ m (0) = φ Lm −m (ω O1 + ω L1 ) L / 2 ... (12) and Δω = 0.

【0075】上記n=0、n=LのいずれもV(有声
音)とされる場合に、θm (L) がφLmとなるようにΔω
を設定する手法について説明する。上記(11)式で、n
=Lと置くことにより、 θm (L) =mωO1L+L2 m(ωL1−ω01)/2L+φ0m+ΔωL =m(ωO1+ωL1)L/2+φ0m+ΔωL =φLm となり、これを整理すると、Δωは、 Δω=(mod2π((φLm−φ0m) − mL(ωO1+ωL1)/2)/L ・・・(13) となる。この(13)式でmod2π(x) とは、xの主値を−
π〜+πの間の値で返す関数である。例えば、x=1.3
πのときmod2π(x) =−0.7π、x=2.3πのときmod2
π(x) =0.3π、x=−1.3πのときmod2π(x) =0.7
π、等である。
When both n = 0 and n = L are V (voiced sound), Δω is set so that θ m (L) becomes φ Lm.
A method of setting will be described. In the above formula (11), n
= L, then θ m (L) = mω O1 L + L 2 m (ω L1 − ω 01 ) / 2L + φ 0m + ΔωL = m (ω O1 + ω L1 ) L / 2 + φ 0m + ΔωL = φ Lm . Then, Δω becomes Δω = (mod2π ((φ Lm −φ 0m ) −mL (ω O1 + ω L1 ) / 2) / L (13). In this equation (13), mod 2π (x) Is the principal value of x
It is a function that returns a value between π and + π. For example, x = 1.3
mod2 π (x) = -0.7π when π, mod2 when x = 2.3π
When π (x) = 0.3π and x = -1.3π, mod2π (x) = 0.7
π, and so on.

【0076】以下、無声音合成部38における無声音合
成処理を説明する。ホワイトノイズ発生部43からの時
間軸上のホワイトノイズ信号波形を窓かけ処理部44に
送って、所定の長さ(例えば256サンプル)で適当な
窓関数(例えばハミング窓)により窓かけをし、STF
T処理部45によりSTFT(ショートタームフーリエ
変換)処理を施すことにより、ホワイトノイズの周波数
軸上のパワースペクトルを得る。このSTFT処理部4
5からのパワースペクトルをバンド振幅処理部46に送
り、上記UV(無声音)とされたバンドについて上記振
幅|Am UVを乗算し、他のV(有声音)とされたバン
ドの振幅を0にする。このバンド振幅処理部46には上
記振幅データ、ピッチデータ、V/UV判別データが供
給されている。
The unvoiced sound synthesizing process in the unvoiced sound synthesizing section 38 will be described below. The white noise signal waveform on the time axis from the white noise generation unit 43 is sent to the windowing processing unit 44, and windowed by a suitable window function (for example, Hamming window) with a predetermined length (for example, 256 samples), STF
A power spectrum on the frequency axis of white noise is obtained by performing STFT (Short Term Fourier Transform) processing by the T processing unit 45. This STFT processing unit 4
The power spectrum from No. 5 is sent to the band amplitude processing unit 46, the above UV (unvoiced sound) band is multiplied by the above amplitude | A m | UV, and the amplitude of the other V (voiced sound) band is set to 0. To The band amplitude processing section 46 is supplied with the amplitude data, the pitch data, and the V / UV discrimination data.

【0077】バンド振幅処理部46からの出力は、IS
TFT処理部47に送られ、位相は元のホワイトノイズ
の位相を用いて逆STFT処理を施すことにより時間軸
上の信号に変換する。ISTFT処理部47からの出力
は、オーバーラップ加算部48に送られ、時間軸上で適
当な(元の連続的なノイズ波形を復元できるように)重
み付けをしながらオーバーラップ及び加算を繰り返し、
連続的な時間軸波形を合成する。このオーバーラップ加
算部48からの出力信号が上記加算部41に送られる。
The output from the band amplitude processing unit 46 is IS
The signal is sent to the TFT processing unit 47, and the phase is converted into a signal on the time axis by performing inverse STFT processing using the phase of the original white noise. The output from the ISTFT processing unit 47 is sent to the overlap adding unit 48, and the overlap and addition are repeated while appropriate weighting (so that the original continuous noise waveform can be restored) on the time axis,
Synthesize continuous time axis waveforms. The output signal from the overlap adder 48 is sent to the adder 41.

【0078】このように、各合成部37、38において
合成されて時間軸上に戻された有声音部及び無声音部の
各信号は、加算部41により適当な固定の混合比で加算
して、出力端子42より再生された音声信号を取り出
す。
As described above, the signals of the voiced sound portion and the unvoiced sound portion which are synthesized by the synthesis units 37 and 38 and are returned to the time axis are added by the addition unit 41 at an appropriate fixed mixing ratio, The reproduced audio signal is taken out from the output terminal 42.

【0079】なお、本発明は上記実施例のみに限定され
るものではなく、例えば、上記図1の音声分析側(エン
コード側)の構成や図9の音声合成側(デコード側)の
構成については、各部をハードウェア的に記載している
が、いわゆるDSP(ディジタル信号プロセッサ)等を
用いてソフトウェアプログラムにより実現することも可
能である。また、上記高調波(ハーモニクス)毎のバン
ドをまとめて(縮退させて)一定個数のバンドにするこ
とは、必要に応じて行えばよく、縮退バンド数も12バ
ンドに限定されない。また、全バンドを1箇所以下の区
分位置で低域側V領域と高域側UV領域とに分割する処
理も必要に応じて行えばよく、行わなくともよい。さら
に、本発明が適用されるものは上記マルチバンド励起音
声分析/合成方法に限定されず、サイン波合成を用いる
種々の音声分析/合成方法に容易に適用でき、また、用
途としても、信号の伝送や記録再生のみならず、ピッチ
変換や、スピード変換や、雑音抑制等の種々の用途に応
用できるものである。
The present invention is not limited to the above-described embodiment. For example, regarding the configuration of the speech analysis side (encoding side) of FIG. 1 and the configuration of the speech synthesis side (decoding side) of FIG. Although each unit is described as hardware, it can be realized by a software program using a so-called DSP (digital signal processor) or the like. Further, it is sufficient to collectively (degenerate) a band for each harmonic (harmonic) into a certain number of bands, and the number of degenerate bands is not limited to 12 bands. Further, the process of dividing the entire band into the low-frequency side V region and the high-frequency side UV region at one or less division positions may be performed as necessary, and need not be performed. Further, the application of the present invention is not limited to the above-mentioned multi-band excitation speech analysis / synthesis method, and can be easily applied to various speech analysis / synthesis methods using sine wave synthesis. It can be applied not only to transmission and recording / reproduction, but also to various applications such as pitch conversion, speed conversion, noise suppression, and the like.

【0080】[0080]

【発明の効果】以上の説明から明らかなように、本発明
に係るピッチ検出方法によれば、音声分析の際の音声の
基本周期に相当するピッチを検出するピッチ検出方法に
おいて、入力音声信号を時間軸上でブロック単位で区分
する工程と、この区分された各ブロックの信号毎に発声
者が固有に有する典型的ピッチPtと現在ブロックのピ
ッチPとをそれぞれ検出する工程と、(c1)上記現在
ブロックのピッチPが上記典型的ピッチPtの2倍近傍
の値以上でありかつブロック平均レベルLVが所定の閾値
LVt1より大きい、(c2)上記典型的ピッチPtが前ブ
ロックでの典型的ピッチPt’より大きくかつ上記現在
ブロックのピッチPが所定の閾値thp1より大きい、(c
3)上記現在ブロックのピッチPが前ブロックのピッチ
P’より大きくかつ上記現在ブロックのピッチPが所定
の閾値thp2より大きくかつブロック平均レベルLVが所定
の閾値LVt2より大きい、の3つの条件(c1)〜(c
3)の内の少なくとも1つを満足するとき、現在ブロッ
クのピッチPが本来のピッチの倍となっていると判断す
る倍ピッチ判断工程とを有しているため、本来のピッチ
とさらにその2倍のピッチが同程度含まれているような
音声か否かの判別が確実に行え、このような状態が生じ
たときの対処を有効にとることができる。
As is apparent from the above description, according to the pitch detecting method of the present invention, in the pitch detecting method for detecting the pitch corresponding to the fundamental period of the voice in the voice analysis, the input voice signal is detected. (C1) The step of classifying the blocks on the time axis, and the step of detecting the typical pitch Pt unique to the speaker and the pitch P of the current block for each of the signals of the partitioned blocks. The pitch P of the current block is equal to or larger than a value near twice the typical pitch Pt and the block average level LV is a predetermined threshold value.
Larger than LV t1 , (c2) the typical pitch Pt is larger than the typical pitch Pt ′ in the previous block, and the pitch P of the current block is larger than a predetermined threshold th p1 (c
3) Three conditions: the pitch P of the current block is larger than the pitch P ′ of the previous block, the pitch P of the current block is larger than a predetermined threshold th p2 , and the block average level LV is larger than a predetermined threshold LV t2. (C1) to (c
When at least one of 3) is satisfied, there is a double pitch determination step of determining that the pitch P of the current block is double the original pitch. It is possible to surely determine whether or not the voice has the same double pitch, and it is possible to effectively take measures when such a state occurs.

【0081】また、本発明に係る音声分析合成方法によ
れば、上記ピッチ検出方法の倍ピッチ判断工程によって
現在ブロックのピッチPが本来のピッチの倍となってい
ると判別されたとき、P/2をピッチデータとして音声
合成を行わせているため、2倍のピッチによる分析・合
成にて生じるエネルギの強い集中をピッチを半分にして
行うことで緩和させ、合成音声の品質を高めることがで
きる。また、通常の処理に比較して、単純な条件判断処
理と、PをP/2に置き換えるだけの簡単な処理を付加
するだけで済むため、実時間処理が容易に行える。
Further, according to the voice analysis / synthesis method of the present invention, when the pitch P of the current block is judged to be double the original pitch in the double pitch judgment step of the above pitch detection method, P / Since the voice synthesis is performed using 2 as the pitch data, the strong concentration of the energy generated by the analysis / synthesis with the double pitch can be alleviated by halving the pitch to improve the quality of the synthesized voice. . Further, as compared with the normal processing, it is only necessary to add a simple condition determination processing and a simple processing of replacing P with P / 2, so that real-time processing can be easily performed.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係るピッチ検出方法が適用される音声
分析合成方法の具体例としての音声信号の分析/合成符
号化装置の分析側(エンコード側)の概略構成を示す機
能ブロック図である。
FIG. 1 is a functional block diagram showing a schematic configuration of an analysis side (encoding side) of a speech signal analysis / synthesis coding apparatus as a specific example of a speech analysis / synthesis method to which a pitch detection method according to the present invention is applied. .

【図2】窓かけ処理を説明するための図である。FIG. 2 is a diagram for explaining a windowing process.

【図3】窓かけ処理と窓関数との関係を説明するための
図である。
FIG. 3 is a diagram for explaining a relationship between windowing processing and a window function.

【図4】直交変換(FFT)処理対象としての時間軸デ
ータを示す図である。
FIG. 4 is a diagram showing time axis data as an object of orthogonal transform (FFT) processing.

【図5】周波数軸上のスペクトルデータ、スペクトル包
絡線(エンベロープ)及び励起信号のパワースペクトル
を示す図である。
FIG. 5 is a diagram showing spectrum data on a frequency axis, a spectrum envelope (envelope), and a power spectrum of an excitation signal.

【図6】倍ピッチによるエネルギの集中を説明するため
の図である。
FIG. 6 is a diagram for explaining energy concentration due to a double pitch.

【図7】ピッチPに対応する角周波数ω0 でバンド分割
したときのV/UV判別を説明するための図である。
FIG. 7 is a diagram for explaining V / UV discrimination when band division is performed at an angular frequency ω 0 corresponding to a pitch P.

【図8】ピッチPに対応する角周波数ω0 でバンド分割
したときのV/UV判別を説明するための図である。
FIG. 8 is a diagram for explaining V / UV discrimination when band division is performed at an angular frequency ω 0 corresponding to a pitch P.

【図9】本発明に係るピッチ検出方法が適用される音声
分析合成方法の具体例としての音声信号の分析/合成符
号化装置の合成側(デコード側)の概略構成を示す機能
ブロック図である。
FIG. 9 is a functional block diagram showing a schematic configuration of a synthesis side (decoding side) of a speech signal analysis / synthesis coding apparatus as a specific example of a speech analysis / synthesis method to which a pitch detection method according to the present invention is applied. .

【図10】2倍ピッチ成分を有する音声パワースペクト
ルを示す図である。
FIG. 10 is a diagram showing an audio power spectrum having a double pitch component.

【図11】図10のスペクトル構造を有する信号をベク
トル量子化し、逆量子化して得られた信号のパワースペ
クトルを示す図である。
11 is a diagram showing a power spectrum of a signal obtained by vector-quantizing and dequantizing a signal having the spectrum structure of FIG.

【符号の説明】[Explanation of symbols]

13・・・・・ピッチ抽出部 14・・・・・窓かけ処理部 15・・・・・直交変換(FFT)部 16・・・・・高精度(ファイン)ピッチサーチ部 17・・・・・有声音/無声音(V/UV)判別部 18V・・・・・有声音の振幅評価部 18U・・・・・無声音の振幅評価部 19・・・・・データ数変換(データレートコンバー
ト)部 20・・・・・ベクトル量子化部 26・・・・・P、P/2選択部 37・・・・・有声音合成部 38・・・・・無声音合成部
13 Pitch extraction unit 14 Window processing unit 15 Orthogonal transform (FFT) unit 16 High precision (fine) pitch search unit 17 Voiced / unvoiced (V / UV) discriminating unit 18V: Voiced sound amplitude evaluation unit 18U: Unvoiced amplitude evaluation unit 19: Data number conversion (data rate conversion) unit 20: Vector quantizer 26: P, P / 2 selector 37: Voiced sound synthesizer 38: Unvoiced sound synthesizer

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 音声分析の際の音声の基本周期に相当す
るピッチを検出するピッチ検出方法において、 入力音声信号を時間軸上でブロック単位で区分する工程
と、 この区分された各ブロックの信号毎に発声者が固有に有
する典型的ピッチPtと現在ブロックのピッチPとをそ
れぞれ検出する工程と、 (c1)上記現在ブロックのピッチPが上記典型的ピッ
チPtの2倍近傍の値以上でありかつブロック平均レベ
ルLVが所定の閾値LVt1より大きい、 (c2)上記典型的ピッチPtが前ブロックでの典型的
ピッチPt’より大きくかつ上記現在ブロックのピッチ
Pが所定の閾値thp1より大きい、 (c3)上記現在ブロックのピッチPが前ブロックのピ
ッチP’より大きくかつ上記現在ブロックのピッチPが
所定の閾値thp2より大きくかつブロック平均レベルLVが
所定の閾値LVt2より大きい、の3つの条件(c1)〜
(c3)の内の少なくとも1つを満足するとき、現在ブ
ロックのピッチPが本来のピッチの倍となっていると判
断する工程とを有することを特徴とするピッチ検出方
法。
1. A pitch detecting method for detecting a pitch corresponding to a fundamental period of a voice in a voice analysis, a step of dividing an input voice signal into blocks on a time axis, and a signal of each divided block. Detecting a typical pitch Pt unique to the utterer and the pitch P of the current block for each of them, and (c1) the pitch P of the current block is equal to or larger than twice the typical pitch Pt. And the block average level LV is larger than a predetermined threshold LV t1 , (c2) the typical pitch Pt is larger than the typical pitch Pt ′ in the previous block, and the current block pitch P is larger than a predetermined threshold th p1 . (C3) The pitch P of the current block is larger than the pitch P ′ of the previous block, the pitch P of the current block is larger than a predetermined threshold th p2 , and the block average is Three conditions (c1) that level LV is greater than a predetermined threshold LV t2 ~
And a step of determining that the pitch P of the current block is twice the original pitch when at least one of (c3) is satisfied.
【請求項2】 入力音声信号を時間軸上でブロック単位
で区分し、各ブロック毎に音声の基本周期に相当するピ
ッチを検出し、このピッチに基づいて各ブロック単位で
音声信号を分析し、この分析結果に基づいて音声信号を
合成する音声信号の分析合成方法において、 上記ピッチ検出は、 上記各ブロックの信号毎に発声者が固有に有する典型的
ピッチPtと現在ブロックのピッチPとをそれぞれ検出
する工程と、 (c1)上記現在ブロックのピッチPが上記典型的ピッ
チPtの2倍近傍の値以上でありかつブロック平均レベ
ルLVが所定の閾値LVt1より大きい、 (c2)上記典型的ピッチPtが前ブロックでの典型的
ピッチPt’より大きくかつ上記現在ブロックのピッチ
Pが所定の閾値thp1より大きい、 (c3)上記現在ブロックのピッチPが前ブロックのピ
ッチP’より大きくかつ上記現在ブロックのピッチPが
所定の閾値thp2より大きくかつブロック平均レベルLVが
所定の閾値LVt2より大きい、の3つの条件(c1)〜
(c3)の内の少なくとも1つを満足するとき、現在ブ
ロックのピッチPが本来のピッチの倍となっていると判
断する工程とを有してなり、 このピッチ検出の際の倍ピッチ判断工程にて上記現在ブ
ロックのピッチPが本来のピッチの倍となっていると判
断されたときには、上記ピッチPの半分のピッチP/2
に基づいて合成を行うことを特徴とする音声分析合成方
法。
2. The input voice signal is divided into blocks on the time axis, the pitch corresponding to the fundamental period of the voice is detected for each block, and the voice signal is analyzed for each block based on this pitch, In the voice signal analysis / synthesis method for synthesizing a voice signal based on this analysis result, in the pitch detection, a typical pitch Pt unique to the speaker for each signal of each block and a pitch P of the current block are respectively detected. (C1) The pitch P of the current block is equal to or larger than a value in the vicinity of twice the typical pitch Pt, and the block average level LV is larger than a predetermined threshold value LV t1 , (c2) the typical pitch Pt is larger than the typical pitch Pt ′ in the previous block and the pitch P of the current block is larger than a predetermined threshold th p1 , (c3) the pitch P of the current block is Three conditions (c1) that are larger than the pitch P ′ of the previous block, the pitch P of the current block is larger than a predetermined threshold th p2 , and the block average level LV is larger than a predetermined threshold LV t2.
And a step of determining that the pitch P of the current block is twice the original pitch when at least one of (c3) is satisfied, and a double pitch determining step in the pitch detection. When it is determined that the pitch P of the current block is double the original pitch, the half pitch P / 2 of the pitch P / 2 is determined.
A speech analysis and synthesis method characterized in that synthesis is performed based on.
【請求項3】 上記音声信号の分析の際には、上記現在
ブロックのピッチPに基づいて上記入力信号をバンド分
割し、この分割されたバンド毎に有声音/無声音の判別
を行うことを特徴とする請求項2記載の音声分析合成方
法。
3. When analyzing the voice signal, the input signal is divided into bands based on the pitch P of the current block, and a voiced sound / unvoiced sound is discriminated for each of the divided bands. The speech analysis and synthesis method according to claim 2.
JP24575793A 1993-09-30 1993-09-30 Pitch detecting method and speech analyzing and synthesizing method Withdrawn JPH07104777A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP24575793A JPH07104777A (en) 1993-09-30 1993-09-30 Pitch detecting method and speech analyzing and synthesizing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24575793A JPH07104777A (en) 1993-09-30 1993-09-30 Pitch detecting method and speech analyzing and synthesizing method

Publications (1)

Publication Number Publication Date
JPH07104777A true JPH07104777A (en) 1995-04-21

Family

ID=17138351

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24575793A Withdrawn JPH07104777A (en) 1993-09-30 1993-09-30 Pitch detecting method and speech analyzing and synthesizing method

Country Status (1)

Country Link
JP (1) JPH07104777A (en)

Similar Documents

Publication Publication Date Title
JP3277398B2 (en) Voiced sound discrimination method
JP3475446B2 (en) Encoding method
EP0981816B9 (en) Audio coding systems and methods
JPH0869299A (en) Voice coding method, voice decoding method and voice coding/decoding method
JP3680374B2 (en) Speech synthesis method
McLoughlin et al. LSP-based speech modification for intelligibility enhancement
JP3297751B2 (en) Data number conversion method, encoding device and decoding device
JP3297749B2 (en) Encoding method
JP3218679B2 (en) High efficiency coding method
JP3237178B2 (en) Encoding method and decoding method
JP3362471B2 (en) Audio signal encoding method and decoding method
JP3321933B2 (en) Pitch detection method
JP3271193B2 (en) Audio coding method
JP3218681B2 (en) Background noise detection method and high efficiency coding method
JP3297750B2 (en) Encoding method
JP3223564B2 (en) Pitch extraction method
JPH0651800A (en) Data quantity converting method
JP3398968B2 (en) Speech analysis and synthesis method
JPH07104777A (en) Pitch detecting method and speech analyzing and synthesizing method
Kassim et al. Compressive sensing based low bit rate speech encoder
JPH07104793A (en) Encoding device and decoding device for voice
JP2003216189A (en) Encoder and decoder
JP3218680B2 (en) Voiced sound synthesis method
JP3221050B2 (en) Voiced sound discrimination method
JPH06202695A (en) Speech signal processor

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20001226