JP3440500B2 - デコーダ - Google Patents

デコーダ

Info

Publication number
JP3440500B2
JP3440500B2 JP18532593A JP18532593A JP3440500B2 JP 3440500 B2 JP3440500 B2 JP 3440500B2 JP 18532593 A JP18532593 A JP 18532593A JP 18532593 A JP18532593 A JP 18532593A JP 3440500 B2 JP3440500 B2 JP 3440500B2
Authority
JP
Japan
Prior art keywords
data
sound
block
pitch
unvoiced
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP18532593A
Other languages
English (en)
Other versions
JPH0744194A (ja
Inventor
正之 西口
淳 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP18532593A priority Critical patent/JP3440500B2/ja
Publication of JPH0744194A publication Critical patent/JPH0744194A/ja
Application granted granted Critical
Publication of JP3440500B2 publication Critical patent/JP3440500B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

【発明の詳細な説明】 【0001】 【産業上の利用分野】本発明は、入力音声信号がブロッ
ク単位で区分され、区分されたブロックを単位として符
号化処理が施された信号を復号するためのデコーダに関
する。 【0002】 【従来の技術】オーディオ信号(音声信号や音響信号を
含む)の時間領域や周波数領域における統計的性質と人
間の聴感上の特性を利用して信号圧縮を行うような符号
化方法が種々知られている。この符号化方法としては、
大別して時間領域での符号化、周波数領域での符号化、
分析合成符号化等が挙げられる。 【0003】音声信号等の高能率符号化の例として、M
BE(Multiband Excitation: マルチバンド励起)符号
化、SBE(Singleband Excitation:シングルバンド励
起)符号化、ハーモニック(Harmonic)符号化、SBC
(Sub-band Coding:帯域分割符号化)、LPC(Linear
Predictive Coding: 線形予測符号化)、あるいはDC
T(離散コサイン変換)、MDCT(モデファイドDC
T)、FFT(高速フーリエ変換)等において、スペク
トル振幅やそのパラメータ(LSPパラメータ、αパラ
メータ、kパラメータ等)のような各種情報データを量
子化する場合に、従来においてはスカラ量子化を行うこ
とが多い。 【0004】上記PARCOR法等の音声分析・合成系
では、励振源を切り換えるタイミングは時間軸上のブロ
ック(フレーム)毎であるため、同一フレーム内では有
声音と無声音とを混在させることができず、結果として
高品質な音声は得られなかった。 【0005】これに対して、上記MBE符号化において
は、1ブロック(フレーム)内の音声に対して、周波数
スペクトルの各ハーモニクス(高調波)や2〜3ハーモ
ニクスをひとまとめにした各バンド(帯域)毎に、又は
固定の帯域幅(例えば300〜400Hz)で分割された
各バンド毎に、そのバンド中のスペクトル形状に基づい
て有声音/無声音判別(V/UV判別)を行っているた
め、音質の向上が認められる。この各バンド毎のV/U
V判別は、主としてバンド内のスペクトルがいかに強く
ハーモニクス構造を有しているかを見て行っている。 【0006】 【発明が解決しようとする課題】ところで、上記MBE
符号化において、当該ブロック(フレーム)全体が無声
音(UV)と判別された場合には、例えばホワイトノイ
ズをバンドパスフィルタカラーリング(色付け)した
ものを、時間軸でオーバーラップ加算し、音声を合成し
ている。 【0007】このとき、時間軸上の窓の形状としては、
ハミング又はハニング等の固定の窓形状のものを使用し
ている。このため、無声部はもとより、無声から有声
へ、あるいは有声から無声への変化部(トランジェント
部)での時間分解能が不足することになる。例えば、8
kHzサンプリングで1ブロック256サンプルでは、1
ブロック32msecのノイズパターンがいつもほぼ同じ形
状(平均レベルが違うだけ)となってしまい、特に、子
音のs、t、p、k等の音が不明瞭となってしまう。さ
らに、残響感が強かったり、又は複数の話者が喋ってい
るように聞こえたりすることが頻繁に起こり、合成音質
低下のような悪影響を与えることになる。 【0008】本発明は、このような実情に鑑みてなされ
たものであり、無声音入力時の再生音(合成音)の不明
瞭感や残響感を有効に抑え得るようなデコーダを提供す
ることを目的とする。 【0009】 【課題を解決するための手段】本発明に係るデコーダ
は、音声信号を時間軸上でブロック単位で区分し、各ブ
ロックごとに有声音か無声音かを判別し、無声音と判別
されたブロック内の音声信号の時間波形を示す特徴量を
抽出し、上記有声音か無声音かの判別結果と上記特徴量
を含むデータ信号を受け取って、音声を合成するデコー
ダにおいて、無声音と判別された部分はノイズ信号の周
波数成分を変形処理すると共に上記特徴量に応じて時間
波形に変形を加えることにより無声音合成を行うことに
より、上述の課題を解決する。 【0010】ここで、上記有声音/無声音の判別工程に
て得られた判別結果及び上記特徴量を合成側に伝送し、
有声音と判別された部分は正弦波合成により有声音合成
を行い、無声音と判別された部分はノイズ信号の周波数
成分を変形処理すると共に上記特徴量に応じて時間波形
に変形を加えるようにすればよい。このような本発明が
適用される高能率符号化方法としては、マルチバンドエ
クサイテイションを用いた音声分析/合成方法が挙げら
れる。 【0011】上記特徴量としては、上記1ブロック内の
入力信号の時間波形のエンベロープ情報を用いることが
考えられる。 【0012】 【課題を解決するための手段】本発明に係るデコーダ
は、音声信号を時間軸上でブロック単位で区分し、各ブ
ロック毎に有声音か無声音かを判別し、無声音と判別さ
れたブロック内の音声信号の時間波形のエンベロープ情
報を示す、上記1ブロック内を複数の小ブロックに分割
した各小ブロックの1サンプル当たりの平均レベルと、
1ブロック内の全サンプルでの1サンプル当たりの平均
レベルとの比率を特徴量として抽出し、上記有声音か無
声音かの判別結果と上記特徴量を含むベクトル量子化し
て得られたデータ信号を受け取って、音声を合成するデ
コーダにおいて、無声音と判別された部分はノイズ信号
の周波数成分を変形処理すると共に上記特徴量に応じて
時間波形に変形を加えることにより無声音合成を行うこ
とにより、上述の課題を解決する。 【0013】 【作用】ブロック化された入力信号の内の無声音(U
V)と判別されたブロックの時間波形の特徴量を抽出し
て伝送しているため、ブロックの時間間隔よりも短い時
間での波形変化を合成側で知ることができ、子音等の不
明瞭感や残響感の発生を未然に防止することができる。
また、無声音(UV)と判別されたブロックでは、ピッ
チ情報を送る必要がないことから、このピッチ情報を送
るためのスロットに上記無声音の時間波形の特徴量抽出
情報を入れ込んで送ることにより、データ伝送量を増や
すことなく、再生音(合成音)の質を高めることができ
る。 【0014】 【実施例】以下、本発明に係るデコーダの好ましい実施
例の説明に先立ち、該デコーダに対応する符号化側に用
いられる高能率符号化方法について、図面を参照しなが
ら説明する。この高能率符号化方法には、後述するMB
E(Multiband Excitation:マルチバンド励起)符号化
等のように、ブロック毎の信号を周波数軸上に変換し、
複数帯域に分割して各帯域毎にV(有声音)かUV(無
声音)かを判別するような符号化方法を用いることがで
きる。 【0015】すなわち、本発明が適用される一般的な高
能率符号化方法としては、音声信号を一定サンプル数
(例えば256サンプル)毎にブロック化して、FFT
等の直交変換により周波数軸上のスペクトルデータに変
換すると共に、該ブロック内の音声のピッチを抽出し、
このピッチに応じた間隔で周波数軸上のスペクトルを帯
域分割し、分割された各帯域についてV(有声音)/U
V(無声音)の判別を行っている。このV/UV判別情
報をスペクトルの振幅データと共に符号化して伝送する
わけである。 【0016】ここで、例えばMBEボコーダ等の音声合
成分析系を想定する場合、入力される時間軸上の音声信
号に対するサンプリング周波数fs は、通常8kHzで、
全帯域幅は3.4kHz(ただし有効帯域は200〜34
00Hz)であり、女声の高い方から男声の低い方までの
ピッチラグ(ピッチ周期に相当するサンプル数)は、2
0〜147程度である。従って、ピッチ周波数は、8000
/147≒54(Hz)から8000/20=400(Hz)程度まで
の間で変動することになる。従って、周波数軸上で上記
3.4kHzまでの間に約8〜63本のピッチパルス(ハ
ーモニックス)が立つことになる。 【0017】このように、ピッチに応じた間隔で帯域分
割すると、ブロック(フレーム)毎に分割帯域数(バン
ド数)が約8〜63個の間で変化することになることを
考慮して、分割バンド数を一定の個数(例えば12個程
度)に低減あるいは縮退させておくことが好ましい。 【0018】さらに、本発明の実施例においては、ブロ
ック(フレーム)の全バンドが無声音(UV)と判別さ
れたときに、当該無声音ブロックの時間波形からその特
徴量(短時間RMSのシーケンスやエンベロープ)を
出し、この特徴量を符号化して伝送し、再生側(デコー
ダ)にて、類似の特徴量を有する波形をノイズ源より生
成して無音声部分の信号を合成するようにしている。 【0019】具体的には、UV(無音声)とされたブロ
ック(例えば256サンプル)を複数の(例えば8個
の)小ブロック(サブブロック、例えば32サンプル)
に分割して各サブブロック毎の1サンプル当りの平均パ
ワー(又は短時間RMS値)を求め、元のブロック内の
全サンプルについての1サンプル当りの平均パワー(
は短時間RMS値)との比率(レシオ)を上記特徴量と
して抽出する。これを、V(有声音)を含むブロックの
データの伝送時にのみ用いられるデータ項目、例えばピ
ッチ情報を伝送するためのスロットに配置して、デコー
ダに送るようにする。 【0020】次に、上述したような高能率符号化方法が
適用可能な、音声信号の合成分析符号化装置(いわゆる
ボコーダ)の一種のMBE(Multiband Excitation: マ
ルチバンド励起)ボコーダの具体例について、図面を参
照しながら説明する。 【0021】以下に説明するMBEボコーダは、D.W. G
riffin and J.S. Lim, ∧MultibandExcitation Vocode
r," IEEE Trans.Acoustics,Speech,and Signal Process
ing,vol.36, No.8, pp.1223-1235, Aug. 1988 に開示さ
れているものであり、従来のPARCOR(PARtial au
to-CORrelation: 偏自己相関)ボコーダ等では、音声の
モデル化の際に有声音区間と無声音区間とをブロックあ
るいはフレーム毎に切り換えていたのに対し、MBEボ
コーダでは、同時刻(同じブロックあるいはフレーム
内)の周波数軸領域に有声音(Voiced)区間と無声音
(Unvoiced)区間とが存在するという仮定でモデル化し
ている。 【0022】図1は、上記MBEボコーダに本発明を適
用した実施例の全体の概略構成を示すブロック図であ
る。この図1において、入力端子11には音声信号が供
給されており、この入力音声信号は、HPF(ハイパス
フィルタ)を含むフィルタ12に送られて、いわゆるD
C(直流)オフセット分の除去や帯域制限(例えば20
0〜3400Hzに制限)のための少なくとも低域成分
(200Hz以下)の除去が行われる。このフィルタ12
を介して得られた信号は、ピッチ抽出部13、窓かけ処
理部14、及び後述するサブブロックパワー計算部26
にそれぞれ送られる。 【0023】ピッチ抽出部13では、入力音声信号デー
タが所定サンプル数N(例えばN=256)単位でブロ
ック分割され(あるいは方形窓による切り出しが行わ
れ)、このブロック内の音声信号についてのピッチ抽出
が行われる。このような切り出しブロック(256サン
プル)を、例えば図2のAに示すようにLサンプル(例
えばL=160)のフレーム間隔で時間軸方向に移動さ
せており、各ブロック間のオーバラップはN−Lサンプ
ル(例えば96サンプル)となっている。また、窓かけ
処理部14では、1ブロックNサンプルに対して所定の
窓関数、例えばハミング窓をかけ、この窓かけブロック
を1フレームLサンプルの間隔で時間軸方向に順次移動
させている。さらに、サブブロックパワー計算部26で
は、ブロック内の全バンドが無声音(UV)と判別され
たときに、該ブロックの無声音信号の時間波形を示す特
徴量を抽出する処理が行われる。 【0024】ここで、上記窓かけ処理部14での窓かけ
処理を数式で表すと、 xw (k,q) =x(q) w(kL-q) ・・・(1) となる。この(1)式において、kはブロック番号を、
qはデータの時間インデックス(サンプル番号)を表
し、処理前の入力信号のq番目のデータx(q) に対して
第kブロックの窓(ウィンドウ)関数w(kL-q)により窓
かけ処理されることによりデータxw (k,q) が得られる
ことを示している。ピッチ抽出部13での図2のAに示
すような方形窓の場合の窓関数wr (r) は、 wr (r) =1 0≦r<N ・・・(2) =0 r<0,N≦r また、上記窓かけ処理部14での図2のBに示すような
ハミング窓の場合の窓関数wh (r) は、 wh (r) = 0.54 − 0.46 cos(2πr/(N-1)) 0≦r<N ・・・(3) =0 r<0,N≦r である。このような窓関数wr (r) あるいはwh (r) を
用いるときの上記(1)式の窓関数w(r) (=w(kL-
q))の否零区間は、 0≦kL−q<N これを変形して、 kL−N<q≦kL 従って例えば上記方形窓の場合に窓関数wr (kL-q)=1
となるのは、図3に示すように、kL−N<q≦kLの
ときとなる。また、上記(1)〜(3)式は、長さN
(=256)サンプルの窓が、L(=160)サンプル
ずつ前進してゆくことを示している。以下、上記(2)
式、(3)式の各窓関数で切り出された各N点(0≦r
<N)の否零サンプル列を、それぞれxwr(k,r) 、xwh
(k,r) と表すことにする。 【0025】窓かけ処理部14では、図4に示すよう
に、上記(3)式のハミング窓がかけられた1ブロック
256サンプルのサンプル列xwh(k,r) に対して179
2サンプル分の0データが付加されて(いわゆる0詰め
されて)2048サンプルとされ、この2048サンプ
ルの時間軸データ列に対して、直交変換部15により例
えばFFT(高速フーリエ変換)等の直交変換処理が施
される。 【0026】あるいは0詰めなしで256点のままでF
FTを施して処理量を減らす方法もある。 【0027】ピッチ抽出部13では、上記xwr(k,r) の
サンプル列(1ブロックNサンプル)に基づいてピッチ
抽出が行われる。このピッチ抽出法には、時間波形の周
期性や、スペクトルの周期的周波数構造や、自己相関関
数を用いるもの等が知られているが、本実施例では、セ
ンタクリップ波形の自己相関法を採用している。このと
きのブロック内でのセンタクリップレベルについては、
1ブロックにつき1つのクリップレベルを設定してもよ
いが、ブロックを細分割した各部(各サブブロック)の
信号のピークレベル等を検出し、これらの各サブブロッ
クのピークレベル等の差が大きいときに、ブロック内で
クリップレベルを段階的にあるいは連続的に変化させる
ようにしている。このセンタクリップ波形の自己相関デ
ータのピーク位置に基づいてピッチ周期を決めている。
このとき、現在フレームに属する自己相関データ(自己
相関は1ブロックNサンプルのデータを対象として求め
られる)から複数のピークを求めておき、これらの複数
のピークの内の最大ピークが所定の閾値以上のときには
該最大ピーク位置をピッチ周期とし、それ以外のときに
は、現在フレーム以外のフレーム、例えば前後のフレー
ムで求められたピッチに対して所定の関係を満たすピッ
チ範囲内、例えば前フレームのピッチを中心として±2
0%の範囲内にあるピークを求め、このピーク位置に基
づいて現在フレームのピッチを決定するようにしてい
る。このピッチ抽出部13ではオープンループによる比
較的ラフなピッチのサーチが行われ、抽出されたピッチ
データは高精度(ファイン)ピッチサーチ部16に送ら
れて、クローズドループによる高精度のピッチサーチ
(ピッチのファインサーチ)が行われる。 【0028】なお、センタクリップ波形ではなく入力波
形をLPC分析して得た残差波形、すなわちLPC残差
の自己相関からピッチを求めてもよい。 【0029】高精度(ファイン)ピッチサーチ部16に
は、ピッチ抽出部13で抽出された整数(インテジャ
ー)値の粗(ラフ)ピッチデータと、直交変換部15に
より例えばFFTされた周波数軸上のデータとが供給さ
れている。この高精度ピッチサーチ部16では、上記粗
ピッチデータ値を中心に、0.2〜0.5きざみで±数サン
プルずつ振って、最適な小数点付き(フローティング)
のファインピッチデータの値へ追い込む。このときのフ
ァインサーチの手法として、いわゆる合成による分析
(Analysis by Synthesis)法を用い、合成されたパワー
スペクトルが原音のパワースペクトルに最も近くなるよ
うにピッチを選んでいる。 【0030】このピッチのファインサーチについて説明
する。先ず、上記MBEボコーダにおいては、上記FF
T等により直交変換された周波数軸上のスペクトルデー
タとしてのS(j) を S(j) =H(j)|E(j)| 0<j<J ・・・(4) と表現するようなモデルを想定している。ここで、Jは
ωs /4π=fs /2に対応し、サンプリング周波数f
s =ωs /2πが例えば8kHzのときには4kHzに対応
する。上記(4)式中において、周波数軸上のスペクト
ルデータS(j) が図5のAに示すような波形のとき、H
(j) は、図5のBに示すように、元のスペクトルデータ
S(j) のスペクトル包絡線(エンベロープ)を示し、E
(j) は、図5のCに示すような等レベルで周期的な励起
信号(エクサイテイション)のスペクトルを示してい
る。すなわち、FFTスペクトルS(j) は、スペクトル
エンベロープH(j) と励起信号のパワースペクトル|E
(j) |との積としてモデル化される。 【0031】上記励起信号のパワースペクトル|E(j)
|は、上記ピッチに応じて決定される周波数軸上の波形
の周期性(ピッチ構造)を考慮して、1つの帯域(バン
ド)の波形に相当するスペクトル波形を周波数軸上の各
バンド毎に繰り返すように配列することにより形成され
る。この1バンド分の波形は、例えば上記図4に示すよ
うな256サンプルのハミング窓関数に1792サンプ
ル分の0データを付加(0詰め)した波形を時間軸信号
と見なしてFFTし、得られた周波数軸上のある帯域幅
を持つインパルス波形を上記ピッチに応じて切り出すこ
とにより形成することができる。 【0032】次に、上記ピッチに応じて分割された各バ
ンド毎に、上記H(j) を代表させるような(各バンド毎
のエラーを最小化するような)値(一種の振幅)|Am
|を求める。ここで、例えば第mバンド(第m高調波の
帯域)の下限、上限の点をそれぞれam 、bm とすると
き、この第mバンドのエラーεm は、 【0033】 【数1】 で表せる。このエラーεm を最小化するような|Am
は、 【0034】 【数2】 となり、この(6)式の|Am |のとき、エラーεm
最小化する。 【0035】このような振幅|Am |を各バンド毎に求
め、得られた各振幅|Am |を用いて上記(5)式で定
義された各バンド毎のエラーεm を求める。次に、この
ような各バンド毎のエラーεm の全バンドの総和値Σε
m を求める。さらに、このような全バンドのエラー総和
値Σεm を、いくつかの微小に異なるピッチについて求
め、エラー総和値Σεm が最小となるようなピッチを求
める。 【0036】すなわち、上記ピッチ抽出部13で求めら
れたラフピッチを中心として、例えば 0.25 きざみで上
下に数種類ずつ用意する。これらの複数種類の微小に異
なるピッチの各ピッチに対してそれぞれ上記エラー総和
値Σεm を求める。この場合、ピッチが定まるとバンド
幅が決まり、上記(6)式より、周波数軸上データのパ
ワースペクトル|S(j) |と励起信号スペクトル|E
(j) |とを用いて上記(5)式のエラーεm を求め、そ
の全バンドの総和値Σεm を求めることができる。この
エラー総和値Σεm を各ピッチ毎に求め、最小となるエ
ラー総和値に対応するピッチを最適のピッチとして決定
するわけである。以上のようにして高精度ピッチサーチ
部で最適のファイン(例えば 0.25 きざみ)ピッチが求
められ、この最適ピッチに対応する振幅|Am |が決定
される。このときの振幅値の計算は、有声音の振幅評価
部18Vにおいて行われる。 【0037】以上ピッチのファインサーチの説明におい
ては、説明を簡略化するために、全バンドが有声音(Vo
iced)の場合を想定しているが、上述したようにMBE
ボコーダにおいては、同時刻の周波数軸上に無声音(Un
voiced)領域が存在するというモデルを採用しているこ
とから、上記各バンド毎に有声音/無声音の判別を行う
ことが必要とされる。 【0038】上記高精度ピッチサーチ部16からの最適
ピッチ及び振幅評価部(有声音)18Vからの振幅|A
m |のデータは、有声音/無声音判別部17に送られ、
上記各バンド毎に有声音/無声音の判別が行われる。こ
の判別のためにNSR(ノイズtoシグナル比)を利用
する。すなわち、第mバンドのNSRであるNSR
mは、 【0039】 【数3】 と表せ、このNSRm が所定の閾値Th1 (例えば0.2、
あるいは0.3)より大のとき(すなわちエラーが大きい
とき)には、そのバンドでの|Am ||E(j) |による
|S(j) |の近似が良くない(上記励起信号|E(j) |
が基底として不適当である)と判断でき、当該バンドを
UV(Unvoiced、無声音)と判別する。これ以外のとき
は、近似がある程度良好に行われていると判断でき、そ
のバンドをV(Voiced、有声音)と判別する。 【0040】ところで、上述したように基本ピッチ周波
数で分割されたバンドの数(ハーモニックスの数)は、
声の高低(ピッチの大小)によって約8〜63程度の範
囲で変動するため、各バンド毎のV/UVフラグの個数
も同様に変動してしまう。そこで、本実施例において
は、固定的な周波数帯域で分割した一定個数のバンド毎
にV/UV判別結果をまとめる(あるいは縮退させる)
ようにしている。具体的には、音声帯域を含む所定帯域
(例えば0〜4000Hz)をNB 個(例えば12個)の
バンドに分割し、各バンド内の上記NSR値に従って、
例えば重み付き平均値を所定の閾値Th2 で弁別して、当
該バンドのV/UVを判断している。 【0041】次に、無声音の振幅評価部18Uには、直
交変換部15からの周波数軸上データ、ピッチサーチ部
16からのファインピッチデータ、有声音振幅評価部1
8Vからの振幅|Am |のデータ、及び上記有声音/無
声音判別部17からのV/UV(有声音/無声音)判別
データが供給されている。この振幅評価部(無声音)1
8Uでは、有声音/無声音判別部17において無声音
(UV)と判別されたバンドに関して、再度振幅を求め
て(振幅再評価を行って)いる。このUVのバンドにつ
いての振幅|Am UVは、 【0042】 【数4】 にて求められる。 【0043】この振幅評価部(無声音)18Uからのデ
ータは、データ数変換(一種のサンプリングレート変
換)部19に送られる。このデータ数変換部19は、上
記ピッチに応じて周波数軸上での分割帯域数が異なり、
データ数(特に振幅データの数)が異なることを考慮し
て、一定の個数にするためのものである。すなわち、例
えば有効帯域を3400kHzまでとすると、この有効帯
域が上記ピッチに応じて、8バンド〜63バンドに分割
されることになり、これらの各バンド毎に得られる上記
振幅|Am |(UVバンドの振幅|Am UVも含む)デ
ータの個数mMX+1も8〜63と変化することになる。
このためデータ数変換部19では、この可変個数mMX
1の振幅データを一定個数M(例えば44個)のデータ
に変換している。 【0044】ここで、本実施例においては、例えば、周
波数軸上の有効帯域1ブロック分の振幅データに対し
て、ブロック内の最後のデータからブロック内の最初の
データまでの値を補間するようなダミーデータを付加し
てデータ個数をNF 個に拡大した後、帯域制限型のOS
倍(例えば8倍)のオーバーサンプリングを施すことに
よりOS 倍の個数の振幅データを求め、このOS 倍の個
数((mMX+1)×OS個)の振幅データを直線補間し
てさらに多くのNM 個(例えば2048個)に拡張し、
このNM 個のデータを間引いて上記一定個数M(例えば
44個)のデータに変換している。 【0045】このデータ数変換部19からのデータ(上
記一定個数M個の振幅データ)がベクトル量子化部20
に送られて、所定個数のデータ毎にまとめられてベクト
ルとされ、ベクトル量子化が施される。ベクトル量子化
部20からの量子化出力データ(の主要部)は、上記高
精度のピッチサーチ部16からの高精度(ファイン)ピ
ッチデータ及び上記有声音/無声音判別部17からの有
声音/無声音(V/UV)判別データと共に、符号化部
21に送られて符号化される。 【0046】ただし、高精度のピッチサーチ部16から
のピッチデータについては、切換スイッチ28の被選択
端子aを介して符号化部21に送っている。これは、後
述するように、ブロック内の全バンドがUV(無声音)
となってピッチ情報が不要となる場合に、無声音信号の
時間波形を示す特徴量の情報をピッチ情報と切り換えて
送っているものである。 【0047】なお、これらの各データは、上記Nサンプ
ル(例えば256サンプル)のブロック内のデータに対
して処理を施すことにより得られるものであるが、ブロ
ックは時間軸上を上記Lサンプルのフレームを単位とし
て前進することから、伝送するデータは上記フレーム単
位で得られる。すなわち、上記フレーム周期でピッチデ
ータ、V/UV判別データ、振幅データが更新されるこ
とになる。また、上記有声音/無声音判別部17からの
V/UV判別データについては、上述したように、必要
に応じて12バンド程度に低減(縮退)したデータを用
いてもよく、全バンド中で1箇所以下の有声音(V)領
域と無声音(UV)領域との区分位置を表すデータを用
いるようにしてもよい。 【0048】上記符号化部21においては、例えばCR
C付加及びレート1/2畳み込み符号付加処理が施され
る。すなわち、上記ピッチデータ(あるいは後述する無
声音信号の時間波形の特徴抽出データ)、上記有声音/
無声音(V/UV)判別データ、及び上記量子化出力デ
ータの内の重要なデータについてはCRC誤り訂正符号
化が施された後、畳み込み符号化が施される。符号化部
21からの符号化出力データは、フレームインターリー
ブ部22に送られ、ベクトル量子化部20からの一部
(例えば重要度の低い)データと共にインターリーブ処
理されて、出力端子23から取り出され、合成側(デコ
ード側)に伝送(あるいは記録再生)される。 【0049】ここで、ブロック全体がUV(無声音)と
判別された場合には、ブロック内の時間波形を表す特徴
量を抽出するために、1ブロック(例えば256サンプ
ル)を、複数個(8個)の小ブロック(サブブロック、
例えば32サンプル)に分割して、サブブロックパワー
計算部26に送っている。このブロックとサブブロック
との関係の一例を、図6のAに示している。 【0050】サブブロックパワー計算部26において
は、各サブブロック毎の1サンプル当りの平均パワー、
あるいはいわゆる平均RMS(Root Mean Square)値に
ついての、ブロック内全サンプル(例えば256サンプ
ル)の平均パワーあるいは平均RMS値に対する割合
(比率、レシオ)を算出している。すなわち、入力音声
信号をフィルタ12により適切にハイパス処理し、不要
な低域成分(例えば200Hz以下)をカットした音声信
号の1サンプルをx(n) として、 【0051】 【数5】 を求める。この(9)式において、UVL は上記サブブロ
ック(小ブロック)内のサンプル数で例えば UVL=3
2、UVNUM は1ブロック内のサブブロックの個数で例え
ば UVNUM=8である。また、0≦k<UVNUM である。こ
の(9)式のp(k)は、k番目のサブブロックの平均パ
ワーを表している。 【0052】次に、1ブロック全体の平均パワーPOW を
求める。 【0053】 【数6】 【0054】この(10)式においてNは1ブロック内の
サンプル数(ブロック長)を示し、N= UVL×UVNUM で
あり、例えばN=256である。この(10)式により、
Nサンプルにわたる平均パワーPOW が求められる。 【0055】次に、この1ブロックの平均パワーPOW と
上記k番目のサブブロックの平均パワーp(k) との比の
平方根、すなわち、 【0056】 【数7】 ただし、0≦k<UVNUM を定義する。 【0057】このUV_w(k) が各サブブロックの平均RM
Sの相対値(ブロックの平均RMSで正規化されてい
る)となる。このUV_w(k) の一例を図6のBに示す。 【0058】なお、微小ノイズによる誤動作を防止する
ために、 POW1/2 <ThP のときには強制的に UV_w(k)
=1.0とすることが好ましい。このときの閾値ThP
としては例えばThP =300とすればよい。また、UV
_w(k) の値にリミッタをかけて、極端にパルシブなノイ
ズの発生を防止してもよい。具体的なリミッタの例とし
ては、 UV_w(k)>1.5 のとき、 UV_w(k)=1.5 又は、 UV_w(k)>1.0 のとき、 UV_w(k)=1.0 + (UV_w(k)-1.
0)×0.7 といったものが考えられる。これらの式でkは、0≦k
<UVNUM である。 【0059】このような処理を施した UV_w(k)を、UVNU
M 次元ベクトルとみなし、次のベクトル量子化部27に
おいてベクトル量子化を行う。 【0060】このベクトル量子化部27では、例えば、
8次元8ビット(コードブックサイズ=256)のスト
レートベクトル量子化を行う。このベクトル量子化の出
力インデクス(代表ベクトルのコード)UV_Eを、切換ス
イッチ28の被選択端子bに送っている。この切換スイ
ッチ28の被選択端子aには、上記高精度ピッチサーチ
部16からのピッチデータが送られており、切換スイッ
チ28からの出力は、符号化部21に送られている。こ
の切換スイッチ28は、有声音/無声音判別部17から
の判別出力信号により切換制御されるようになってお
り、通常の有声音伝送時、すなわち上記ブロック内の全
バンドの内の1つでもV(有声音)と判別されたときに
は被選択端子aに、ブロック内の全バンドがUV(無声
音)と判別されたときには被選択端子bに、それぞれ切
換接続される。 【0061】従って、上記サブブロック毎の正規化され
た平均RMS値のベクトル量子化出力UV_Eは、本来はピ
ッチ情報を伝送していたスロットに入れ込んで伝送され
ることになる。すなわち、ブロック内の全バンドがUV
(無声音)と判別されたときにはピッチ情報は不要であ
り、上記有声音/無声音判別部17からのV/UV判別
フラグを見て、全てUVのときに限って、ベクトル量子
化出力インデクスUV_Eをピッチ情報の代わりに伝送する
ようにしている。 【0062】次に、上述したような符号化側から伝送さ
れて(あるいは記録再生されて)得られた上記各データ
に基づき音声信号を合成するための合成側(デコード
側)における、本発明の実施例となるデコーダの概略構
成について、図7を参照しながら説明する。 【0063】この図7において、入力端子31には、上
記図1に示すエンコーダ側の出力端子23から取り出さ
れたデータ信号に略々等しい(伝送や記録再生による信
号劣化を無視して)データ信号が供給される。この入力
端子31からのデータは、フレームデインターリーブ部
32に送られて、上記図1のインターリーブ処理の逆処
理となるデインターリーブ処理が施され、主要部(エン
コーダ側でCRC及び畳み込み符号化された部分で、一
般に重要度の高いデータ部分)は複合化部33で複合化
処理されてバッドフレームマスク処理部34に、残部
(符号化処理の施されていない重要度の低いもの)はそ
のままバッドフレームマスク処理部34に、それぞれ送
られる。複合化部33においては、例えばいわゆるビタ
ビ複合化処理やCRCチェックコードを用いたエラー検
出処理が施される。バッドフレームマスク処理部34
は、エラーの多いフレームのパラメータを補間で求める
ような処理を行うと共に、上記ピッチデータ、有声音/
無声音(V/UV)データ、及びベクトル量子化された
振幅データを分離して取り出す。 【0064】バッドフレームマスク処理部34からの上
記ベクトル量子化された振幅データは、逆ベクトル量子
化部35に送られて逆量子化され、データ数逆変換部3
6に送られて逆変換される。このデータ数逆変換部36
では、上述した図1のデータ数変換部19と対照的な逆
変換が行われ、得られた振幅データが有声音合成部37
及び無声音合成部38に送られる。マスク処理部34か
らの上記ピッチデータは、有声音合成部37及び無声音
合成部38に送られる。またマスク処理部34からの上
記V/UV判別データも、有声音合成部37及び無声音
合成部38に送られる。 【0065】ここで上記ピッチデータ(ピッチ情報伝送
スロット内のデータ)については、ブロック内の全バン
ドがUV(無声音)とされたときには、上述した無声音
信号波形の特徴量抽出情報がピッチ情報の代わりに送ら
れていることより、切換スイッチ51に送られており、
この切換スイッチ51は、被選択端子aからの出力が有
声音合成部37に、被選択端子bからの出力が逆ベクト
ル量子化部52に送られるようになっている。逆ベクト
ル量子化部52以降の構成及び動作については後述す
る。 【0066】有声音合成部37では例えば余弦(cosine)
波合成あるいは正弦(sine)波合成により時間軸上の有声
音波形を合成し、無声音合成部38では例えばホワイト
ノイズをバンドパスフィルタでフィルタリングして時間
軸上の無声音波形を合成し、これらの各有声音合成波形
と無声音合成波形とを加算部41で加算合成して、出力
端子42より取り出すようにしている。この場合、上記
振幅データ、ピッチデータ及びV/UV判別データは、
上記分析時の1フレーム(Lサンプル、例えば160サ
ンプル)毎に更新されて与えられるが、フレーム間の連
続性を高める(円滑化する)ために、上記振幅データや
ピッチデータの各値を1フレーム中の例えば中心位置に
おける各データ値とし、次のフレームの中心位置までの
間(合成時の1フレーム)の各データ値を補間により求
める。すなわち、合成時の1フレーム(例えば上記分析
フレームの中心から次の分析フレームの中心まで)にお
いて、先端サンプル点での各データ値と終端(次の合成
フレームの先端)サンプル点での各データ値とが与えら
れ、これらのサンプル点間の各データ値を補間により求
めるようにしている。 【0067】また、V/UV判別データとして上記V/
UVコードが伝送された場合には、このV/UVコード
に応じて全バンドを1箇所の区分位置で有声音(V)領
域と無声音(UV)領域とに区分することができ、この
区分に応じて、各バンド毎のV/UV判別データを得る
ことができる。ここで、分析側(エンコーダ側)で一定
数(例えば12程度)のバンドに低減(縮退)されてい
る場合には、これを解いて(復元して)、元のピッチに
応じた間隔で可変個数のバンドとすることは勿論であ
る。 【0068】以下、有声音合成部37における合成処理
を詳細に説明する。上記V(有声音)と判別された第m
バンド(第m高調波の帯域)における時間軸上の上記1
合成フレーム(Lサンプル、例えば160サンプル)分
の有声音をVm (n) とするとき、この合成フレーム内の
時間インデックス(サンプル番号)nを用いて、 Vm (n) =Am (n) cos(θm (n)) 0≦n<L ・・・(12) と表すことができる。全バンドの内のV(有声音)と判
別された全てのバンドの有声音を加算(ΣVm (n) )し
て最終的な有声音V(n) を合成する。 【0069】この(12)式中のAm (n) は、上記合成フ
レームの先端から終端までの間で補間された第m高調波
の振幅である。最も簡単には、フレーム単位で更新され
る振幅データの第m高調波の値を直線補間すればよい。
すなわち、上記合成フレームの先端(n=0)での第m
高調波の振幅値をA0m、該合成フレームの終端(n=
L:次の合成フレームの先端)での第m高調波の振幅値
をALmとするとき、 Am (n) = (L-n)A0m/L+nALm/L ・・・(13) の式によりAm (n) を計算すればよい。 【0070】次に、上記(12)式中の位相θm (n) は、 θm (n) =mωO1n+n2 m(ωL1−ω01)/2L+φ0m+Δωn ・・・(14) により求めることができる。この(14)式中で、φ0m
上記合成フレームの先端(n=0)での第m高調波の位
相(フレーム初期位相)を示し、ω01は合成フレーム先
端(n=0)での基本角周波数、ωL1は該合成フレーム
の終端(n=L:次の合成フレーム先端)での基本角周
波数をそれぞれ示している。上記(11)式中のΔωは、
n=Lにおける位相φLmがθm (L) に等しくなるような
最小のΔωを設定する。 【0071】以下、任意の第mバンドにおいて、それぞ
れn=0、n=LのときのV/UV判別結果に応じた上
記振幅Am (n) 、位相θm (n) の求め方を説明する。 【0072】第mバンドが、n=0、n=Lのいずれも
V(有声音)とされる場合に、振幅Am (n) は、上述し
た(13)式により、伝送された振幅値A0m、ALmを直線
補間して振幅Am (n) を算出すればよい。位相θm (n)
は、n=0でθm (0) =φ0mからn=Lでθm (L) がφ
LmとなるようにΔωを設定する。 【0073】次に、n=0のときV(有声音)で、n=
LのときUV(無声音)とされる場合に、振幅Am (n)
は、Am (0) の伝送振幅値A0mからAm (L) で0となる
ように直線補間する。n=Lでの伝送振幅値ALmは無声
音の振幅値であり、後述する無声音合成の際に用いられ
る。位相θm (n) は、θm (0) =φ0mとし、かつΔω=
0とする。 【0074】さらに、n=0のときUV(無声音)で、
n=LのときV(有声音)とされる場合には、振幅Am
(n) は、n=0での振幅Am (0) を0とし、n=Lで伝
送された振幅値ALmとなるように直線補間する。位相θ
m (n) については、n=0での位相θm (0) として、フ
レーム終端での位相値φLmを用いて、 θm (0) =φLm−m(ωO1+ωL1)L/2 ・・・(15) とし、かつΔω=0とする。 【0075】上記n=0、n=LのいずれもV(有声
音)とされる場合に、θm (L) がφLmとなるようにΔω
を設定する手法について説明する。上記(14)式で、n
=Lと置くことにより、 θm (L) =mωO1L+L2 m(ωL1−ω01)/2L+φ0m+ΔωL =m(ωO1+ωL1)L/2+φ0m+ΔωL =φLm となり、これを整理すると、Δωは、 Δω=(mod2π((φLm−φ0m) − mL(ωO1+ωL1)/2)/L ・・・(16) となる。この(16)式でmod2π(x) とは、xの主値を−
π〜+πの間の値で返す関数である。例えば、x=1.3
πのときmod2π(x) =−0.7π、x=2.3πのときmod2
π(x) =0.3π、x=−1.3πのときmod2π(x) =0.7
π、等である。 【0076】以下、無声音合成部38における無声音合
成処理を説明する。ホワイトノイズ発生部43からの時
間軸上のホワイトノイズ信号波形を窓かけ処理部44に
送って、所定の長さ(例えば256サンプル)で適当な
窓関数(例えばハミング窓)により窓かけをし、STF
T処理部45によりSTFT(ショートタームフーリエ
変換)処理を施すことにより、ホワイトノイズの周波数
軸上のパワースペクトルを得る。このSTFT処理部4
5からのパワースペクトルをバンド振幅処理部46に送
り、上記UV(無声音)とされたバンドについて上記振
幅|Am UVを乗算し、他のV(有声音)とされたバン
ドの振幅を0にする。このバンド振幅処理部46には上
記振幅データ、ピッチデータ、V/UV判別データが供
給されている。 【0077】バンド振幅処理部46からの出力は、IS
TFT処理部47に送られ、位相は元のホワイトノイズ
の位相を用いて逆STFT処理を施すことにより時間軸
上の信号に変換する。ISTFT処理部47からの出力
は、パワー分布整形部56を介し、乗算部57を介し
て、オーバーラップ加算部48に送られ、時間軸上で適
当な(元の連続的なノイズ波形を復元できるように)重
み付けをしながらオーバーラップ及び加算を繰り返し、
連続的な時間軸波形を合成する。このオーバーラップ加
算部48からの出力信号が上記加算部41に送られる。 【0078】このように、各合成部37、38において
合成されて時間軸上に戻された有声音部及び無声音部の
各信号は、加算部41により適当な固定の混合比で加算
して、出力端子42より再生された音声信号を取り出
す。 【0079】ブロック内のバンドの少なくとも1つがV
(有声音)の場合には、上述したような処理が各合成部
37、38にて行われるわけであるが、ブロック内の全
バンドがUV(無音声)と判別されたときには、切換ス
イッチ51が被選択端子b側に切換接続され、ピッチ情
報の代わりに無声音信号の時間波形に関する情報が逆ベ
クトル量子化部52に送られる。 【0080】すなわち、逆ベクトル量子化部52には、
上記図1のベクトル量子化部20からの上記出力インデ
ックスUV_Eに相当するデータが供給される。これを逆ベ
クトル量子化することにより、上記UV_w(k) に相当する
データ、あるいは各サブブロック毎のRMS値に相当す
るデータが取り出される。 【0081】ここで、ISTFT処理部47からの出力
は、伝送されてきたスペクトルエンベロープ、V/U
V、及びピッチに基づき、周波数軸上で色付けをされた
バンドパスノイズであるが、このバンドパスノイズは、
1ブロック(256サンプル)内の時間軸上でのエネル
ギ分布を見ると、厳密にはハミング窓の分布とは一致し
ない。これは、今回のような時間軸上でのエネルギ分布
を原音の分布に近付けることを行わない場合には問題と
ならないが、今回のように、オーバーラップ加算部48
での処理後の分布を元の信号の時間軸上のエネルギ分布
に近付けるため、上記オーバーラップ加算での重み付け
で前提とされているハミング窓のエネルギ分布に対し
て、ISTFT処理出力信号の時間軸上のエネルギ分布
が似通っていることが好ましい。この点を考慮して、パ
ワー分布整形部56により、時間軸方向のエネルギ分布
の整形処理を行っている。このパワー分布整形部56に
おける処理内容を以下に説明する。 【0082】ここで、ISTFT処理部47からの出力
波形をy(n) とする。ただし、0≦n<Nであり、例え
ばN=256とする。この出力y(n) のブロック全体N
サンプルにわたるエネルギE、すなわち、 【0083】 【数8】 を求める。次に、各サブブロック毎のエネルギe(k) を
求める。 【0084】 【数9】 【0085】これらのE、e(k) に基づいて、スケーリ
ングファクタs(k) を求める。 【0086】 【数10】 【0087】ここで、kは、0≦k<UVNUM であり、例
えば UVNUM=8である。上記(19)式中で、hr(k)
は、予め定めたハミング窓の標準エネルギ分布を示す配
列である。すなわち、ハミング窓ham(n)を、 【0088】 【数11】 によって予め算出しておく。 【0089】これは、ハミング窓のサブブロック単位の
エネルギの割合を示す。この標準的な分布からのずれを
補正するためのスケーリングファクタがs(k) である。
よって、 【0090】 【数12】 によってy(n) を補正してy'(n)を得ることができる。 【0091】以上が時間軸上のパワー分布整形部56に
おける処理であるが、これは厳密にはあった方がよい
が、省略してもかまわない。 【0092】次に、逆ベクトル量子化部52からの出力
は、スムージング部(スムージング処理部)53を介し
て、無声音合成部38内の乗算部57に送られている。
このスムージング部53での処理について説明する。 【0093】逆ベクトル量子化部52からの出力波形と
上記パワー分布整形部56からの出力波形y'(n)とを直
接乗算してもよいが、上記スムージング処理を施すこと
で、耳障りな急激なゲイン変化を抑えることができる。 【0094】すなわち、逆ベクトル量子化部52からの
出力波形の UVNUM次元(例えば8次元)ベクトルを上記
1ブロックのN(例えば256)サンプルの配列に拡張
したものをW(n) (ただし、0≦n<N)とする。逆ベ
クトル量子化によって得られた出力のRMS波形をUV_
w'(k)とすると、上記W(n) は、 【0095】 【数13】 として求められる。 【0096】次に、このW(n) をスムージング処理する
わけであるが、例えば、移動平均フィルタを用いて平滑
化すればよい。すなわち、フィルタ処理後のW(n) をWS
(n)として、LFを奇数長のフィルタ長とするとき、WS(n)
は、 【0097】 【数14】 となる。 【0098】このようにして平滑化したWS(n) と上記
y'(n)とを乗算部57で乗じて得られる出力波形x'(n)
は、 x'(n)= WS(n)・y'(n) ・・・ (25) となる。この乗算出力を、オーバーラップ加算部48に
送る。このオーバーラップ加算部48では、重み付きの
重畳加算を行っており、所定の窓関数Win(n) を用いて
重み付けを行ってオーバーラップ加算を行っている。 【0099】すなわち、重み付きのオーバーラップ加算
部48においては、現フレーム(現ブロック)の上記
(25)のx'(n)をxc'(n)とし、前フレーム(前ブロッ
ク)の同じくx'(n)をxp'(n)とする。重み付き重畳加算
した出力波形をSuv(i) は、 【0100】 【数15】 【0101】となる。ここで、0≦n<Nとし、その外
の区間においては、xp'(n)=xc'(n)=0とする。 【0102】ただしiは0≦i<L、Lは1フレーム長
(例えば160サンプル)である。また、iの区間は、
前フレームの中心から現フレームの中心までとする。 【0103】以上のようにして合成された無声音信号が
無声音合成部38から取り出され、上記加算部41に送
られて、有声音合成部37からの信号と加算され、出力
端子42より最終的な音声信号が取り出される。 【0104】なお、上記図1の音声分析側(エンコード
側)の構成や図7の音声合成側(デコード側)の構成に
ついては、各部をハードウェア的に記載しているが、い
わゆるDSP(ディジタル信号プロセッサ)等を用いて
ソフトウェアプログラムにより実現することも可能であ
る。 【0105】なお、本発明は上記実施例のみに限定され
るものではなく、例えば、上記図1の音声分析側(エン
コード側)の構成や図7の音声合成側(デコード側)の
構成については、各部をハードウェア的に記載している
が、いわゆるDSP(ディジタル信号プロセッサ)等を
用いてソフトウェアプログラムにより実現することも可
能である。また、本発明が適用される高能率符号化方法
は、上記マルチバンド励起を用いた音声分析/合成方法
に限定されるものではなく、有声音部分に正弦波合成を
用いたり、無声音部分をノイズ信号に基づいて合成する
ような種々の音声分析/合成方法に適用でき、用途とし
ても、伝送や記録再生に限定されず、ピッチ変換やスピ
ード変換、あるいは雑音抑圧のような種々の用途に応用
できることは勿論である。 【0106】以上の説明から明らかなように、本発明に
係るデコーダによれば、音声信号を時間軸上でブロック
単位で区分し、各ブロックごとに有声音か無声音かを判
別し、無声音と判別されたブロック内の音声信号の時間
波形を示す特徴量を抽出し、上記有声音か無声音かの判
別結果と上記特徴量を含むデータ信号を受け取って、音
声を合成するデコーダにおいて、無声音と判別された部
分はノイズ信号の周波数成分を変形処理すると共に上記
特徴量に応じて時間波形に変形を加えることにより無声
音合成を行っているため、ブロックの時間間隔よりも短
い時間での波形変化を知ることができ、子音などの不明
瞭感や残響感の発生を未然に防止することができる。 【0107】また、無声音(UV)と判別されたブロッ
クでは、ピッチ情報を送る必要がないことから、このピ
ッチ情報を送るためのスロットに上記無声音の時間波形
の特徴量抽出情報を入れ込んで送っているため、伝送デ
ータ量を増やすことなく、高い品質の、例えば子音が明
瞭な再生音(合成音)を得ることができる。
【図面の簡単な説明】 【図1】本発明に係るデコーダの一実施例に対応する符
号化側に用いられる高能率符号化装置の概略的な構成を
示す機能ブロック図である。 【図2】窓かけ処理を説明するための図である。 【図3】窓かけ処理と窓関数との関係を説明するための
図である。 【図4】直交変換(FFT)処理対象としての時間軸デ
ータを示す図である。 【図5】周波数軸上のスペクトルデータ、スペクトル包
絡線(エンベロープ)及び励起信号のパワースペクトル
を示す図である。 【図6】入力信号を時間軸方向に分割して得られたブロ
ックをさらに小ブロック(サブブロック)で分割するこ
とを説明するための波形図である。 【図7】本発明に係るデコーダの一実施例の概略的な構
成を示す機能ブロック図である。 【符号の説明】 13 ピッチ抽出部 14 窓かけ処理部 15 直交変換(FFT)部 16 高精度(ファイン)ピッチサーチ部 17 有声音/無声音(V/UV)判別部 18V 有声音の振幅評価部 18U 無声音の振幅評価部 19 データ数変換(データレートコンバート)部 20、27 ベクトル量子化部 27 サブブロックパワー計算部 28、51 切換スイッチ 35、52 逆ベクトル量子化部 37 有声音合成部 38 無声音合成部 41 加算部 43 ホワイトノイズ発生部 44 窓かけ処理部 46 バンド振幅処理部 53 スムージング(処理)部 56 (時間軸)パワー分布整形部 57 乗算部 48 オーバーラップ加算部
───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平2−146100(JP,A) 特開 平4−346502(JP,A) 特開 昭56−81900(JP,A) 特開 昭57−139799(JP,A) 特開 昭58−111999(JP,A) 特開 昭62−139598(JP,A) Masayuki Nishiguc hi,Jun Matsumoto,R yoji Wakatsuki,Shi nobu Ono,Vector Qu antized MBE with S implified V/UV Div ision at 3.0Kbps,I EEE ICASSP,米国,IEE E,Vol.1993 No.Vo12 ,I I−151−II−154 (58)調査した分野(Int.Cl.7,DB名) G10L 19/02

Claims (1)

  1. (57)【特許請求の範囲】 【請求項1】 音声信号を時間軸上でブロック単位で区
    分し、各ブロック毎に有声音か無声音かを判別し、無声
    音と判別されたブロック内の音声信号の時間波形のエン
    ベロープ情報を示す、上記1ブロック内を複数の小ブロ
    ックに分割した各小ブロックの1サンプル当たりの平均
    レベルと、1ブロック内の全サンプルでの1サンプル当
    たりの平均レベルとの比率を特徴量として抽出し、上記
    有声音か無声音かの判別結果と上記特徴量を含むベクト
    ル量子化して得られたデータ信号を受け取って、音声を
    合成するデコーダにおいて、 無声音と判別された部分はノイズ信号の周波数成分を変
    形処理すると共に上記特徴量に応じて時間波形に変形を
    加えることにより無声音合成を行うことを特徴とするデ
    コーダ。
JP18532593A 1993-07-27 1993-07-27 デコーダ Expired - Fee Related JP3440500B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP18532593A JP3440500B2 (ja) 1993-07-27 1993-07-27 デコーダ

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP18532593A JP3440500B2 (ja) 1993-07-27 1993-07-27 デコーダ

Publications (2)

Publication Number Publication Date
JPH0744194A JPH0744194A (ja) 1995-02-14
JP3440500B2 true JP3440500B2 (ja) 2003-08-25

Family

ID=16168858

Family Applications (1)

Application Number Title Priority Date Filing Date
JP18532593A Expired - Fee Related JP3440500B2 (ja) 1993-07-27 1993-07-27 デコーダ

Country Status (1)

Country Link
JP (1) JP3440500B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999059138A2 (en) * 1998-05-11 1999-11-18 Koninklijke Philips Electronics N.V. Refinement of pitch detection

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Masayuki Nishiguchi,Jun Matsumoto,Ryoji Wakatsuki,Shinobu Ono,Vector Quantized MBE with Simplified V/UV Division at 3.0Kbps,IEEE ICASSP,米国,IEEE,Vol.1993 No.Vo12 ,II−151−II−154

Also Published As

Publication number Publication date
JPH0744194A (ja) 1995-02-14

Similar Documents

Publication Publication Date Title
EP0640952B1 (en) Voiced-unvoiced discrimination method
US5809455A (en) Method and device for discriminating voiced and unvoiced sounds
JP3707116B2 (ja) 音声復号化方法及び装置
US5787387A (en) Harmonic adaptive speech coding method and system
KR100427753B1 (ko) 음성신호재생방법및장치,음성복호화방법및장치,음성합성방법및장치와휴대용무선단말장치
US5749065A (en) Speech encoding method, speech decoding method and speech encoding/decoding method
JP3680380B2 (ja) 音声符号化方法及び装置
US20150302859A1 (en) Scalable And Embedded Codec For Speech And Audio Signals
US6023671A (en) Voiced/unvoiced decision using a plurality of sigmoid-transformed parameters for speech coding
JP3680374B2 (ja) 音声合成方法
JPH10214100A (ja) 音声合成方法
JP3297749B2 (ja) 符号化方法
JP3237178B2 (ja) 符号化方法及び復号化方法
JP3297751B2 (ja) データ数変換方法、符号化装置及び復号化装置
JP3218679B2 (ja) 高能率符号化方法
JP3440500B2 (ja) デコーダ
JP3362471B2 (ja) 音声信号の符号化方法及び復号化方法
JP3321933B2 (ja) ピッチ検出方法
JP3731575B2 (ja) 符号化装置及び復号装置
JPH0651800A (ja) データ数変換方法
JP3218680B2 (ja) 有声音合成方法
JP3398968B2 (ja) 音声分析合成方法
JP3218681B2 (ja) 背景雑音検出方法及び高能率符号化方法
JP4826580B2 (ja) 音声信号の再生方法及び装置
JP3297750B2 (ja) 符号化方法

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20030204

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030520

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080620

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090620

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100620

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100620

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110620

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120620

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120620

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130620

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees