JPH05297896A - 背景雑音検出方法及び高能率符号化方法 - Google Patents

背景雑音検出方法及び高能率符号化方法

Info

Publication number
JPH05297896A
JPH05297896A JP4121464A JP12146492A JPH05297896A JP H05297896 A JPH05297896 A JP H05297896A JP 4121464 A JP4121464 A JP 4121464A JP 12146492 A JP12146492 A JP 12146492A JP H05297896 A JPH05297896 A JP H05297896A
Authority
JP
Japan
Prior art keywords
block
background noise
data
band
bands
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP4121464A
Other languages
English (en)
Other versions
JP3218681B2 (ja
Inventor
Atsushi Matsumoto
淳 松本
Masayuki Nishiguchi
正之 西口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP12146492A priority Critical patent/JP3218681B2/ja
Publication of JPH05297896A publication Critical patent/JPH05297896A/ja
Application granted granted Critical
Publication of JP3218681B2 publication Critical patent/JP3218681B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

(57)【要約】 【構成】 ステップS2でブロック内のUV(無声音)
バンドの個数NUVが所定値Nth以上で、ステップS3で
ブロック内の信号のパワーPW が所定値Pth以上である
ときに、ステップS4は、当該ブロックが背景雑音であ
ると判断し、このブロックをカウントしていく。このカ
ウント値ADUが所定値Athu 以上であるか否かをステッ
プS5が判別する。ステップS6では、上記ステップS
5でADUが所定値Athu 以上であると判別されたとき、
入力音声信号に背景雑音が含まれていると判断する。そ
して、ステップS7では、V(有声音)バンドの個数を
増やしたり、UVバンドの信号レベルを減少せて雑音抑
圧処理を行う。 【効果】 雑音環境下においても、明瞭度を失わずか
つ、雑音レベルを抑えた状態での音声符号化が可能とな
る。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、入力音声信号をブロッ
ク単位で区分して周波数軸に変換して得られた周波数軸
上データから背景雑音を検出する背景雑音検出方法及び
該周波数軸上データを符号化する高能率符号化方法に関
する。
【0002】
【従来の技術】音声信号の時間領域や周波数領域におけ
る統計的性質と人間の聴感上の特性を利用して信号圧縮
を行うような符号化方法が種々知られている。この符号
化方法としては、大別して時間領域での符号化、周波数
領域での符号化、分析合成符号化等が挙げられる。
【0003】音声信号等の高能率符号化の例として、M
BE(Multiband Excitation: マルチバンド励起)符号
化、SBE(Singleband Excitation:シングルバンド励
起)符号化、ハーモニクス(Harmonic) 符号化、SBC
(Sub-band Coding:帯域分割符号化) 、LPC(Linear
Predictive Coding:線形予測符号化)、あるいはDCT
(離散コサイン変換)、MDCT(モデファイドDC
T)、FFT(高速フーリエ変換)等がある。
【0004】上記MBE符号化等においては、1ブロッ
ク(フレーム)内の音声に対して帯域(バンド)を複数
に分割し、各バンド毎に有声音/無声音の判断を行って
おり、音質の向上が認められる。
【0005】
【発明が解決しようとする課題】ところで、上記PAR
COR方等の音声分析・合成系では、励振源を切り換え
るタイミングは時間軸上のブロック(フレーム)毎であ
るため、同一フレーム内では有声音と無声音とを混在さ
せることができず、結果として高品質な音声は得られな
かった。
【0006】しかしながら、上記MBE符号化等におい
ては、1ブロック(フレーム)内の音声に対して帯域
(バンド)を複数に分割し、各バンド毎に有声音/無声
音の判断を行っているため、音質の向上が見られた。こ
こで、上記MBE等の符号化方法等のスペクトルマッチ
ングによる音声符号化は、比較的背景雑音に対して体制
が強いものであるが、背景雑音の検出及び背景雑音を抑
圧するための処理は何も施していなかった。そのため、
合成側(復号化側)で得られる音声は、聞き取りにくか
ったり、異音を発することが生じていた。
【0007】本発明は、このような実情に鑑みてなされ
たものであり、雑音環境化において、背景雑音を確実に
検出する背景雑音検出方法及び背景雑音を抑えた状態で
明瞭度を失うことなく音声の符号化が可能となる高能率
符号化方法の提供を目的とする。
【0008】
【課題を解決するための手段】本発明に係る背景雑音検
出方法は、入力された音声信号をブロック単位で区分し
て周波数軸に変換して周波数軸上データを求める工程
と、このブロック単位の周波数軸上データを複数の帯域
に分割する工程と、上記分割されたブロック内の各帯域
毎に有声音か無声音かを判別する工程と、上記ブロック
内で無声音と判別された帯域の個数を求める工程と、上
記ブロック内の信号パワーを求める工程と、上記ブロッ
ク内の無声音の帯域個数が所定値以上でかつ上記ブロッ
ク内の信号パワーが所定値以上のとき上記ブロックに区
分された入力音声信号に背景雑音が有ると判断する工程
とを有することを特徴として上記課題を解決する。
【0009】ここで、上記ブロックに区分された入力音
声信号に背景雑音があると判断するのは、ブロック内の
各帯域毎に有声音と判別された各帯域毎の対数領域での
信号対雑音特性(具体的にはS/N値)が所定値以下の
ときとしてもよい。また、複数に分割された帯域の数
(バンド数)は、予め低減(縮退)して一定個数として
おいてもよい。
【0010】また、本発明に係る高能率符号化方法は、
入力された音声信号をブロック単位で区分して周波数軸
に変換して求められた周波数軸上データを符号化する高
能率符号化方法において、上記ブロック内の背景雑音の
有無を判断する工程と、上記工程で背景雑音有りと判断
されたときに有声音の帯域の個数を増やす工程とを有す
ることを特徴として上記課題を解決する。
【0011】さらに、上記ブロック内で背景雑音有りと
判断されたときに無声音の帯域の信号レベルを減少させ
てもよい。
【0012】
【作用】ブロック内の無声音の帯域の個数が所定値以上
でかつブロック内の信号パワーが所定値以上のとき、ブ
ロック内の入力音声信号に背景雑音が有るとすることで
確実に背景雑音を検出でき、さらにブロック内で背景雑
音を検出したときには、有声音の帯域の個数を増やし、
無声音の帯域の信号レベルを減少することで雑音レベル
を抑えた状態での音声符号化が可能となる。
【0013】
【実施例】以下、本発明に係る背景雑音検出方法及び高
能率符号化方法について説明する。ここで、本発明に係
る背景雑音検出方法の実施例は、音声信号を一定サンプ
ル数(例えば256サンプル)毎にブロック化して、F
FT等の直交変換により周波数軸上のスペクトルデータ
に変換すると共に、該ブロック内の音声のピッチを抽出
し、このピッチに応じた間隔で周波数軸上のスペクトル
を帯域分割し、分割された各帯域についてV(有声音)
/UV(無声音)の判別を行い、UVと判別された帯域
の個数と上記ブロック内の全帯域の信号パワーを求め、
このUV帯域の個数とブロック内の全帯域の信号パワー
とに応じて背景雑音を検出する。
【0014】また、本発明に係る高能率符号化方法の実
施例は、上記背景雑音検出方法の実施例で検出された背
景雑音に応じて音声信号を符号化する。
【0015】ここでは、背景雑音検出方法と高能率符号
化方法をまとめた実施例で本発明を説明する。つまり、
ブロックに区分した入力音声信号内の背景雑音を本発明
に係る背景雑音検出方法で検出し、そこで、ブロック内
に背景雑音があるとされた時に、本発明の高能率符号化
方法を用いるような実施例で本発明を説明する。
【0016】ここで、例えばMBEボコーダ等の音声合
成分析系を想定する場合、入力された時間軸上の音声信
号に対するサンプリング周波数fs は、通常8kHz で、
全帯域幅は3.4 kHz(ただし有効帯域は200〜3400
Hz) であり、女声の高い方から男声の低い方までのピッ
チラグ( ピッチ周期に相当するサンプル数) は、20〜
147程度である。従って、ピッチ周波数は、8000/147
≒54(Hz)から8000/20 =400(Hz)程度までの間で変
動することになる。従って、周波数軸上で上記3.4 kHz
までの間に約8〜63本のピッチパルス(ハーモニク
ス)が立つことになる。
【0017】このように、ピッチに応じた間隔で帯域分
割すると、ブロック(フレーム)毎に分割帯域数(バン
ド数)が約8〜63個の間で変化することになることを
考慮して、分割バンド数を一定の個数(例えば12個程
度)に低減あるいは縮退させておくことが好ましい。
【0018】本発明の実施例においては、このように縮
退させられた、あるいはピッチに応じて分割された複数
のバンド(帯域)毎になされたV/UVの判別情報に基
づいて、全バンド中のUV(無声音)バンドの数を求
め、その数が所定値以上でかつ全バンドの信号パワーが
所定値以上のとき等に入力された音声信号に背景雑音が
含まれていることを判断し、この背景雑音を含むブロッ
ク内の有声音を増やしたり、無声音の帯域の信号レベル
を減少させる等の背景雑音抑圧処理を施す。
【0019】この実施例について、図1に示すフローチ
ャートと、図2に示すスペクトル波形を参照しながら説
明する。以下の説明では、分割バンド(帯域)数が上述
したように縮退されて例えば12バンドとされているも
のを想定しているが、元のピッチに応じて分割された可
変のバンド数の場合にも同様に背景雑音の検出が行える
ものである。
【0020】図1において、最初のステップS1におい
ては、全てのバンドのV/UV判別データを入力する。
例えば図2のAに示すように、第0バンドから第11バ
ンドまでの12バンドに縮退されている場合には、これ
ら全12バンドの各V/UV判別データを取り込む。
【0021】次のステップS2では、UVバンドの個数
UVが所定値Nth以上か否かを判別する。図2のAの例
では、第3、4、5、6、7、8、9、10、11バン
ドの9バンドがUVとなっているから、NUV=9であ
る。ここで所定値(閾値)Nthを例えば8とすると、Y
ESを判別することになり、ステップS3に進む。
【0022】ステップS3では、ブロック内の信号のパ
ワーPw が所定値Pth以上か否かを判別する。ここで、
YESを判別するとステップS4に進む。
【0023】ステップS4では、上記ステップS3の判
別結果を受けて、当該ブロックが背景雑音であると判断
し、この背景雑音であるブロックをカウントしていく。
そして、ステップS5に進む。
【0024】ステップS5では、上記ステップS4での
背景雑音であるブロックのカウント値ADUが所定値A
thu 以上か否かを判別する。ここで、YES(Athu
DU)を判別するとステップS6に進む。
【0025】ステップS6では、上記ステップS5の判
別結果より、入力音声信号に背景雑音が含まれていると
判断する。
【0026】上記ステップS4、S5を通してからステ
ップS6の判断を導くようにしたのは、上記ステップS
3の判別結果、すなわち、当該1ブロックが背景雑音で
あるから入力音声信号に背景雑音が含まれているとする
判断での誤りを防ぐためである。例えば、会話が途絶え
て背景雑音であるブロックが何ブロックか続いた場合、
すなわち、ある一定時間背景雑音が続いた場合に入力音
声信号である会話の中に背景雑音が含まれているとする
誤りのない判断をするためである。
【0027】ステップS7では、上記ステップS6の入
力音声信号には、背景雑音が含まれているという判断を
受けて、例えば、背景雑音と有声音が混じったような例
えば会話の雑音抑圧処理を開始する。
【0028】ここで、上記ステップS2でNO(NUV
th)が判別されるとステップS8に進み、当該ブロッ
クは、背景雑音でないと判断し、次のブロックへ進む。
(新たなブロックの背景雑音の検出に進む。)
【0029】また、上記ステップS3でNO(Pw <P
th)が判別されるとステップS9に進み、当該ブロック
は、背景雑音でないとして、この背景雑音でないブロッ
クをカウントしていく。そして、ステップS10に進
む。
【0030】ステップS10では、背景雑音でないとさ
れたブロックのカウントによる合計ADVが所定値AthV
以上か否かを判別する。ここで、YES(AthV
DV)を判別するとステップS11に進む。
【0031】ステップS11では、上記ステップS10
の判別結果(AthV ≦ADV)より、入力音声信号に背景
雑音が含まれていないと判断する。そして新たなブロッ
クの背景雑音の検出に進む。あるいは、雑音抑圧処理を
停止させる。
【0032】上記ステップS5でNOを判別(ADU<A
thU )すると次のブロックへ進む。(新たなブロックの
背景雑音の検出に進む。)また、上記ステップS10で
NOを判別(ADV<AthV ) すると次のブロックへ進
む。(新たなブロックの背景雑音の検出に進む。)
【0033】上記ステップS7で行われる雑音抑圧処理
について説明する。この雑音抑圧処理は、上記ステップ
S6で入力音声信号に背景雑音が含まれているとされた
ときに行われる。例えば、ステップS1に図2のAに示
すスペクトル波形のV/UV判別データが入力されたと
し、ステップS2、S3、S4及びS5を通じてステッ
プS6で背景雑音が含まれているとされたとする。する
とこのステップS7では、図2のAの第0バンドから第
2バンドまでの例えば3バンドのV領域vold を図2の
Bに示すように第0バンドから第6バンドまでの例えば
7バンドに渡る領域k・vold (k>1)に拡張する。
すなわち、Vのバンドである聴きやすい帯域を広くとる
という雑音抑圧処理が行われるのである。また、図2の
Aの第3、4、5、6、7、8、9、10、11バンド
に渡るUV領域の信号レベルAmiを減少させ、P・Ami
(P<1)とすることによっても雑音抑圧をすることが
できる。図2のBに示した例は、先ず、Vバンドの領域
を拡張した後、12−k・vold となったUVの領域の
信号レベルを減少させたものである。
【0034】ここで、上記ステップS2及びS3を用い
た方法と異なる方法で背景雑音を検出する方法を説明す
る。この方法は、入力音声信号に雑音が加わったことに
よるスペクトルの乱れを強調するような尺度でスペクト
ルを解析し、背景雑音を検出するものであり、対数領域
での信号対雑音特性(S/N値)に応じて背景雑音を検
出する。
【0035】例えば、通常のリニアデータによる信号対
雑音特性では、はっきりと出なかった差でも、 S/N=Σ{log s(n) }2 /Σ{log s(n) −log e (n) }2 で示すような対数領域での信号対雑音特性(S/N)に
よれば、スペクトルの乱れを強調するような尺度でその
差を表す。ここで、nはバンド内のサンプル数であり、
eは励起信号を表す。
【0036】したがって、本発明に係る背景雑音検出方
法及び高能率符号化方法の実施例は、背景雑音を確実に
検出でき、明瞭度を失わずかつ雑音レベルを抑えた状態
での音声符号化が可能となる。
【0037】この本発明に係る背景雑音検出方法によ
り、背景雑音が検出されたときには、この本発明に係る
高能率符号化方法により、MBE等のボコーダの分析側
で明瞭度を失わず、かつ雑音レベルを抑えた状態での音
声符号化が可能となる。
【0038】以下本発明に係る背景雑音検出方法及び高
能率符号化方法が適用可能となる音声信号の合成分析符
号化装置(いわゆるボコーダ)の一種のMBE(Multib
andExcitation: マルチバンド励起)ボコーダの具体例
について、図面を参照しながら説明する。このMBEボ
コーダは、D. W. Griffin and J. S. Lim,"MultibandEx
citation Vocoder," IEEE Trans.Acoustics,Speech,and
Signal Processing,vol.36, No.8, pp.1223-1235, Au
g.1988 に開示されているものであり、従来のPARC
OR(PARtial auto-CORrelation: 偏自己相関)ボコー
ダ等では、音声のモデル化の際に有声音区間と無声音区
間とをブロックあるいはフレーム毎に切り換えていたの
に対し、MBEボコーダでは、同時刻(同じブロックあ
るいはフレーム内)の周波数軸領域に有声音(Voiced)
区間と無声音(Unvoiced)区間とが存在するという仮定
でモデル化している。
【0039】図3は、上記MBEボコーダの実施例の全
体の概略構成を示すブロック図である。この図3におい
て、入力端子101には音声信号が供給されるようにな
っており、この入力音声信号は、HPF(ハイパスフィ
ルタ)等のフィルタ102に送られて、いわゆるDC
(直流)オフセット分の除去や帯域制限(例えば200
〜3400Hzに制限)のための少なくとも低域成分(2
00Hz以下)の除去が行われる。このフィルタ102を
介して得られた信号は、ピッチ抽出部103及び窓かけ
処理部104にそれぞれ送られる。ピッチ抽出部103
では、入力音声信号データが所定サンプル数N(例えば
N=256)単位でブロック分割され(あるいは方形窓
による切り出しが行われ)、このブロック内の音声信号
についてのピッチ抽出が行われる。このような切り出し
ブロック(256サンプル)を、例えば図4のAに示す
ようにLサンプル(例えばL=160)のフレーム間隔
で時間軸方向に移動させており、各ブロック間のオーバ
ラップはN−Lサンプル(例えば96サンプル)となっ
ている。また、窓かけ処理部104では、1ブロックN
サンプルに対して所定の窓関数、例えばハミング窓をか
け、この窓かけブロックを1フレームLサンプルの間隔
で時間軸方向に順次移動させている。
【0040】このような窓かけ処理を数式で表すと、 xw (k,q) =x(q) w(kL-q) ・・・(1) となる。この(1)式において、kはブロック番号を、
qはデータの時間インデックス(サンプル番号)を表
し、処理前の入力信号のq番目のデータx(q) に対して
第kブロックの窓(ウィンドウ)関数w(kL-q)により窓
かけ処理されることによりデータxw (k,q) が得られる
ことを示している。ピッチ抽出部103内での図4のA
に示すような方形窓の場合の窓関数wr (r) は、 wr (r) =1 0≦r<N ・・・(2) =0 r<0,N≦r また、窓かけ処理部104での図4のBに示すようなハ
ミング窓の場合の窓関数wh (r) は、 wh (r) = 0.54 − 0.46 cos(2πr/(N-1)) 0≦r<N ・・・(3) =0 r<0,N≦r である。このような窓関数wr (r) あるいはwh (r) を
用いるときの上記(1)式の窓関数w(r) (=w(kL-
q))の否零区間は、 0≦kL−q<N これを変形して、 kL−N<q≦kL 従って、例えば上記方形窓の場合に窓関数wr (kL-q)=
1となるのは、図5に示すように、kL−N<q≦kL
のときとなる。また、上記(1)〜(3)式は、長さN
(=256)サンプルの窓が、L(=160)サンプル
ずつ前進してゆくことを示している。以下、上記(2)
式、(3)式の各窓関数で切り出された各N点(0≦r
<N)の否零サンプル列を、それぞれxwr(k,r) 、xwh
(k,r) と表すことにする。
【0041】窓かけ処理部104では、図6に示すよう
に、上記(3)式のハミング窓がかけられた1ブロック
256サンプルのサンプル列xwh(k,r) に対して179
2サンプル分の0データが付加されて(いわゆる0詰め
されて)2048サンプルとされ、この2048サンプ
ルの時間軸データ列に対して、直交変換部105により
例えばFFT(高速フーリエ変換)等の直交変換処理が
施される。
【0042】ピッチ抽出部103では、上記xwr(k,r)
のサンプル列(1ブロックNサンプル)に基づいてピッ
チ抽出が行われる。このピッチ抽出法には、時間波形の
周期性や、スペクトルの周期的周波数構造や、自己相関
関数を用いるもの等が知られているが、本実施例では、
センタクリップ波形の自己相関法を採用している。この
ときのブロック内でのセンタクリップレベルについて
は、1ブロックにつき1つのクリップレベルを設定して
もよいが、ブロックを細分割した各部(各サブブロッ
ク)の信号のピークレベル等を検出し、これらの各サブ
ブロックのピークレベル等の差が大きいときに、ブロッ
ク内でクリップレベルを段階的にあるいは連続的に変化
させるようにしている。このセンタクリップ波形の自己
相関データのピーク位置に基づいてピーク周期を決めて
いる。このとき、現在フレームに属する自己相関データ
(自己相関は1ブロックNサンプルのデータを対象とし
て求められる)から複数のピークを求めておき、これら
の複数のピークの内の最大ピークが所定の閾値以上のと
きには該最大ピーク位置をピッチ周期とし、それ以外の
ときには、現在フレーム以外のフレーム、例えば前後の
フレームで求められたピッチに対して所定の関係を満た
すピッチ範囲内、例えば前フレームのピッチを中心とし
て±20%の範囲内にあるピークを求め、このピーク位
置に基づいて現在フレームのピッチを決定するようにし
ている。このピッチ抽出部103ではオープンループに
よる比較的ラフなピッチのサーチが行われ、抽出された
ピッチデータは高精度(ファイン)ピッチサーチ部10
6に送られて、クローズドループによる高精度のピッチ
サーチ(ピッチのファインサーチ)が行われる。
【0043】高精度(ファイン)ピッチサーチ部106
には、ピッチ抽出部103で抽出された整数(インテジ
ャー)値の粗(ラフ)ピッチデータと、直交変換部10
5により例えばFFTされた周波数軸上のデータとが供
給されている。この高精度ピッチサーチ部106では、
上記粗ピッチデータ値を中心に、0.2〜0.5きざみで±
数サンプルずつ振って、最適な小数点付き(フローティ
ング)のファインピッチデータの値へ追い込む。このと
きのファインサーチの手法として、いわゆる合成による
分析 (Analysis by Synthesis)法を用い、合成されたパ
ワースペクトルが原音のパワースペクトルに最も近くな
るようにピッチを選んでいる。
【0044】このピッチのファインサーチについて説明
する。先ず、上記MBEボコーダにおいては、上記FF
T等により直交変換された周波数軸上のスペクトルデー
タとしてのS(j) を S(j) =H(j) |E(j) | 0<j<J ・・・(4) と表現するようなモデルを想定している。ここで、Jは
πωs =fs /2に対応し、サンプリング周波数fs
2πωs が例えば8kHzのときには4kHzに対応する。
上記(4)式中において、周波数軸上のスペクトルデー
タS(j) が図7のAに示すような波形のとき、H(j)
は、図7のBに示すような元のスペクトルデータS(j)
のスペクトル包絡線(エンベロープ)を示し、E(j)
は、図7のCに示すような等レベルで周期的な励起信号
(エキサイテイション)のスペクトルを示している。す
なわち、FFTスペクトルS(j) は、スペクトルエンベ
ロープH(j) と励起信号のパワースペクトル|E(j) |
との積としてモデル化される。
【0045】上記励起信号のパワースペクトル|E(j)
|は、上記ピッチに応じて決定される周波数軸上の波形
の周期性(ピッチ構造)を考慮して、1つの帯域(バン
ド)の波形に相当するスペクトル波形を周波数軸上の各
バンド毎に繰り返すように配列することにより形成され
る。この1バンド分の波形は、例えば上記図6に示すよ
うな256サンプルのハミング窓関数に1792サンプ
ル分の0データを付加(0詰め)した波形を時間軸信号
と見なしてFFTし、得られた周波数軸上のある帯域幅
を持つインパルス波形を上記ピッチに応じて切り出すこ
とにより形成することができる。
【0046】次に、上記ピッチに応じて分割された各バ
ンド毎に、上記H(j) を代表させるような(各バンド毎
のエラーを最小化するような)値(一種の振幅)|Am
|を求める。ここで、例えば第mバンド(第m高調波の
帯域)の下限、上限の点をそれぞれam 、bm とすると
き、この第mバンドのエラーεm は、
【0047】
【数1】 で表せる。このエラーεm を最小化するような|Am
は、
【0048】
【数2】 となり、この(6)式の|Am |のとき、エラーεm
最小化する。このような振幅|Am |を各バンド毎に求
め、得られた各振幅|Am |を用いて上記(5)式で定
義された各バンド毎のエラーεm を求める。次に、この
ような各バンド毎のエラーεm の全バンドの総和値Σε
m を求める。さらに、このような全バンドのエラー総和
値Σεm を、いくつかの微小に異なるピッチについて求
め、エラー総和値Σεm が最小となるようなピッチを求
める。
【0049】すなわち、上記ピッチ抽出部103で求め
られたラフピッチを中心として、例えば 0.25 きざみで
上下に数種類ずつ用意する。これらの複数種類の微小に
異なるピッチの各ピッチに対してそれぞれ上記エラー総
和値Σεm を求める。この場合、ピッチが定まるとバン
ド幅が決まり、上記(6)式より、周波数軸上データの
パワースペクトル|S(j) |と励起信号スペクトル|E
(j) |とを用いて上記(5)式のエラーεm を求め、そ
の全バンドの総和値Σεm を求めることができる。この
エラー総和値Σεm を各ピッチ毎に求め、最小となるエ
ラー総和値に対応するピッチを最適のピッチとして決定
するわけである。以上のようにして高精度ピッチサーチ
部106で最適のファイン(例えば 0.25 きざみ)ピッ
チが求められ、この最適ピッチに対応する振幅|Am
が決定される。
【0050】以上ピッチのファインサーチの説明におい
ては、説明を簡略化するために、全バンドが有声音(Vo
iced)の場合を想定しているが、上述したようにMBE
ボコーダにおいては、同時刻の周波数軸上に無声音(Un
voiced)領域が存在するというモデルを採用しているこ
とから、上記各バンド毎に有声音/無声音の判別を行う
ことが必要とされる。
【0051】上記高精度ピッチサーチ部106からの最
適ピッチ及び振幅|Am |のデータは、有声音/無声音
判別部107に送られ、上記各バンド毎に有声音/無声
音の判別が行われる。この判別のために、NSR(ノイ
ズtoシグナル比)を利用する。すなわち、第mバンド
のNSRは、
【0052】
【数3】 と表せ、このNSR値が所定の閾値(例えば0.3)より
大のとき(エラーが大きい)ときには、そのバンドでの
|Am ||E(j) |による|S(j) |の近似が良くない
(上記励起信号|E(j) |が基底として不適当である)
と判断でき、当該バンドをUV(Unvoiced、無声音)と
判別する。これ以外のときは、近似がある程度良好に行
われていると判断でき、そのバンドをV(Voiced、有声
音)と判別する。
【0053】次に、振幅再評価部108には、直交変換
部105からの周波数軸上データ、高精度ピッチサーチ
部106からのファインピッチと評価された振幅|Am
|との各データ、及び上記有声音/無声音判別部107
からのV/UV(有声音/無声音)判別データが供給さ
れている。この振幅再評価部108では、有声音/無声
音判別部107において無声音(UV)と判別されたバ
ンドに関して、再度振幅を求めている。このUVのバン
ドについての振幅|Am UVは、
【0054】
【数4】 にて求められる。
【0055】この振幅再評価部108からのデータは、
データ数変換(一種のサンプリングレート変換)部10
9に送られる。このデータ数変換部109は、上記ピッ
チに応じて周波数軸上での分割帯域数が異なり、データ
数(特に振幅データの数)が異なることを考慮して、一
定の個数にするためのものである。すなわち、例えば有
効帯域を3400kHzまでとすると、この有効帯域が上
記ピッチに応じて、8バンド〜63バンドに分割される
ことになり、これらの各バンド毎に得られる上記振幅|
m |(UVバンドの振幅|Am UVも含む)データの
個数mMX+1も8〜63と変化することになる。このた
めデータ数変換部109では、この可変個数mMX+1の
振幅データを一定個数NC (例えば44個)のデータに
変換している。
【0056】ここで本実施例においては、周波数軸上の
有効帯域1ブロック分の振幅データに対して、ブロック
内の最後のデータからブロック内の最初のデータまでの
値を補間するようなダミーデータを付加してデータ個数
をNF 個に拡大した後、帯域制限型のKOS倍(例えば8
倍)のオーバーサンプリングを施すことによりKOS倍の
個数の振幅データを求め、このKOS倍の個数(( mMX
1) ×KOS個)の振幅データを直線補間してさらに多く
のNM 個(例えば2048個)に拡張し、このNM 個の
データを間引いて上記一定個数NC (例えば44個)の
データに変換する。
【0057】このデータ数変換部109からのデータ
(上記一定個数NC の振幅データ)がベクトル量子化部
110に送られて、所定個数のデータ毎にまとめられて
ベクトルとされ、ベクトル量子化が施される。ベクトル
量子化部110からの量子化出力データは、出力端子1
11を介して取り出される。また、上記高精度のピッチ
サーチ部106からの高精度(ファイン)ピッチデータ
は、ピッチ符号化部115で符号化され、出力端子11
2を介して取り出される。さらに、上記有声音/無声音
判別部107からの有声音/無声音(V/UV)判別デ
ータは、出力端子113を介して取り出される。これら
の各出力端子111〜113からのデータは、所定の伝
送フォーマットの信号とされて伝送される。
【0058】なお、これらの各データは、上記Nサンプ
ル(例えば256サンプル)のブロック内のデータに対
して処理を施すことにより得られるものであるが、ブロ
ックは時間軸上を上記Lサンプルのフレームを単位とし
て前進することから、伝送するデータは上記フレーム単
位で得られる。すなわち、上記フレーム周期でピッチデ
ータ、V/UV判別データ、振幅データが更新されるこ
とになる。
【0059】次に、伝送されて得られた上記各データに
基づき音声信号を合成するための合成側(デコード側)
の概略構成について、図8を参照しながら説明する。こ
の図8において、入力端子121には上記ベクトル量子
化された振幅データが、入力端子122には上記符号化
されたピッチデータが、また入力端子123には上記V
/UV判別データがそれぞれ供給される。入力端子12
1からの量子化振幅データは、逆ベクトル量子化部12
4に送られて逆量子化され、データ数逆変換部125に
送られて逆変換され、得られた振幅データが有声音合成
部126及び無声音合成部127に送られる。入力端子
122からの符号化ピッチデータは、ピッチ復号化部1
28で復号化され、データ数逆変換部125、有声音合
成部126及び無声音合成部127に送られる。また入
力端子123からのV/UV判別データは、有声音合成
部126及び無声音合成部127に送られる。
【0060】有声音合成部126では例えば余弦(cosin
e)波合成により時間軸上の有声音波形を合成し、無声音
合成部127では例えばホワイトノイズをバンドパスフ
ィルタでフィルタリングして時間軸上の無声音波形を合
成し、これらの各有声音合成波形と無声音合成波形とを
加算部129で加算合成して、出力端子130より取り
出すようにしている。この場合、上記振幅データ、ピッ
チデータ及びV/UV判別データは、上記分析時の1フ
レーム(Lサンプル、例えば160サンプル)毎に更新
されて与えられるが、フレーム間の連続性を高める(円
滑化する)ために、上記振幅データやピッチデータの各
値を1フレーム中の例えば中心位置における各データ値
とし、次のフレームの中心位置までの間(合成時の1フ
レーム)の各データ値を補間により求める。すなわち、
合成時の1フレーム(例えば上記分析フレームの中心か
ら次の分析フレームの中心まで)において、先端サンプ
ル点での各データ値と終端(次の合成フレームの先端)
サンプル点での各データ値とが与えられ、これらのサン
プル点間の各データ値を補間により求めるようにしてい
る。
【0061】以下、有声音合成部126における合成処
理を詳細に説明する。上記V(有声音)と判別された第
mバンド(第m高調波の帯域)における時間軸上の上記
1合成フレーム(Lサンプル、例えば160サンプル)
分の有声音をVm (n) とするとき、この合成フレーム内
の時間インデックス(サンプル番号)nを用いて、 Vm (n) =Am (n) cos(θm (n)) 0≦n<L ・・・(9) と表すことができる。全バンドの内のV(有声音)と判
別された全てのバンドの有声音を加算(ΣVm (n) )し
て最終的な有声音V(n) を合成する。
【0062】この(9)式中のAm (n) は、上記合成フ
レームの先端から終端までの間で補間された第m高調波
の振幅である。最も簡単には、フレーム単位で更新され
る振幅データの第m高調波の値を直線補間すればよい。
すなわち、上記合成フレームの先端(n=0)での第m
高調波の振幅値をA0m、該合成フレームの終端(n=
L:次の合成フレームの先端)での第m高調波の振幅値
をALmとするとき、 Am (n) = (L-n)A0m/L+nALm/L ・・・(10) の式によりAm (n) を計算すればよい。
【0063】次に、上記(9)式中の位相θm (n) は、 θm (0) =mωO1n+n2 m(ωL1−ω01)/2L+φ0m+Δωn ・・・(11) により求めることができる。この(11)式中で、φ0m
上記合成フレームの先端(n=0)での第m高調波の位
相(フレーム初期位相)を示し、ω01は合成フレーム先
端(n=0)での基本角周波数、ωL1は該合成フレーム
の終端(n=L:次の合成フレーム先端)での基本角周
波数をそれぞれ示している。上記(11)式中のΔωは、
n=Lにおける位相φLmがθm (L) に等しくなるような
最小のΔωを設定する。
【0064】以下、任意の第mバンドにおいて、それぞ
れn=0、n=LのときのV/UV判別結果に応じた上
記振幅Am (n) 、位相θm (n) の求め方を説明する。第
mバンドが、n=0、n=LのいずれもV(有声音)と
される場合に、振幅Am (n) は、上述した(10)式によ
り、伝送された振幅値A0m、ALmを直線補間して振幅A
m (n) を算出すればよい。位相θm (n) は、n=0でθ
m (0) =φ0mからn=Lでθm (L) がφLmとなるように
Δωを設定する。
【0065】次に、n=0のときV(有声音)で、n=
LのときUV(無声音)とされる場合に、振幅Am (n)
は、Am (0) の伝送振幅値A0mからAm (L) で0となる
ように直線補間する。n=Lでの伝送振幅値ALmは無声
音の振幅値であり、後述する無声音合成の際に用いられ
る。位相θm (n) は、θm (0) =φ0mとし、かつΔω=
0とする。
【0066】さらに、n=0のときUV(無声音)で、
n=LのときV(有声音)とされる場合には、振幅Am
(n) は、n=0での振幅Am (0) を0とし、n=Lで伝
送された振幅値ALmとなるように直線補間する。位相θ
m (n) については、n=0での位相θm (0) として、フ
レーム終端での位相値φLmを用いて、 θm (0) =φLm−m(ωO1+ωL1)L/2 ・・・(12) とし、かつΔω=0とする。
【0067】上記n=0、n=LのいずれもV(有声
音)とされる場合に、θm (L) がφLmとなるようにΔω
を設定する手法について説明する。上記(11)式で、n
=Lと置くことにより、 θm (L) =mωO1L+L2 m(ωL1−ω01)/2L+φ0m+ΔωL =m(ωO1+ωL1)L/2+φ0m+ΔωL =φLm となり、これを整理すると、Δωは、 Δω=(mod2π((φLm−φ0m) − mL(ωO1+ωL1)/2)/L ・・・(13) となる。この(13)式でmod2π(x) とは、xの主値を−
π〜+πの間の値で返す関数である。例えば、x=1.3
πのときmod2π(x) =−0.7π、x=2.3πのときmod2
π(x) =0.3π、x=−1.3πのときmod2π(x) =0.7
π、等である。
【0068】ここで、図9のAは、音声信号のスペクト
ルの一例を示しており、バンド番号(ハーモニクスナン
バ)mが8、9、10の各バンドがUV(無声音)とさ
れ、他のバンドはV(有声音)とされている。このV
(有声音)のバンドの時間軸信号が上記有声音合成部1
26により合成され、UV(無声音)のバンドの時間軸
信号が無声音合成部127で合成されるわけである。
【0069】以下、無声音合成部127における無声音
合成処理を説明する。ホワイトノイズ発生部131から
の時間軸上のホワイトノイズ信号波形を、所定の長さ
(例えば256サンプル)で適当な窓関数(例えばハミ
ング窓)により窓かけをし、STFT処理部132によ
りSTFT(ショートタームフーリエ変換)処理を施す
ことにより、図9のBに示すようなホワイトノイズの周
波数軸上のパワースペクトルを得る。このSTFT処理
部132からのパワースペクトルをバンド振幅処理部1
33に送り、図9のCに示すように、上記UV(無声
音)とされたバンド(例えばm=8、9、10)につい
て上記振幅|Am UVを乗算し、他のV(有声音)とさ
れたバンドの振幅を0にする。このバンド振幅処理部1
33には上記振幅データ、ピッチデータ、V/UV判別
データが供給されている。バンド振幅処理部133から
の出力は、ISTFT処理部134に送られ、位相は元
のホワイトノイズの位相を用いて逆STFT処理を施す
ことにより時間軸上の信号に変換する。ISTFT処理
部134からの出力は、オーバーラップ加算部135に
送られ、時間軸上で適当な(元の連続的なノイズ波形を
復元できるように)重み付けをしながらオーバーラップ
及び加算を繰り返し、連続的な時間軸波形を合成する。
オーバーラップ加算部135からの出力信号が上記加算
部129に送られる。
【0070】このように、各合成部126、127にお
いて合成されて時間軸上に戻された有声音部及び無声音
部の各信号は、加算部129により適当な固定の混合比
で加算して、出力端子130より再生された音声信号を
取り出す。
【0071】なお、上記図3の音声分析側(エンコード
側)の構成や図8の音声合成側(デコード側)の構成に
ついては、各部をハードウェア的に記載しているが、い
わゆるDSP(ディジタル信号プロセッサ)等を用いて
ソフトウェアプログラムにより実現することも可能であ
る。
【0072】また、本発明に係る背景雑音検出方法は、
上記高能率符号化方法に利用されるだけでなく、例え
ば、自動車電話の送信側で環境雑音を落としたいような
とき、背景雑音を検出する手段としても用いられる。す
なわち、雑音に乱された低品質の音声を処理し、雑音の
影響を取り除き、聴きやすい音にするようなときの雑音
検出にも利用される。
【0073】
【発明の効果】本発明に係る背景雑音検出方法及び高能
率符号化方法は、入力音声信号をブロック単位で区分し
て周波数軸に変換してデータを複数の帯域に分割し、分
割された各帯域毎に有声音か無声音かを判別し、ブロッ
ク内の無声音の帯域の個数が所定値以上でかつブロック
内の信号パワーが所定値以上のとき、ブロック内の入力
音声信号に背景雑音が有るとすることで確実に背景雑音
を検出でき、さらにブロック内で背景雑音を検出したと
きには、有声音の帯域の個数を増やし、無声音の帯域の
信号レベルを減少することで雑音環境下においても、明
瞭度を失わずかつ、雑音レベルを抑えた状態での音声符
号化が可能となる。また、本発明をMBEボコーダに適
用することで、従来のMBEが背景雑音等のピッチの無
い入力をいかにもピッチがある出力としてしまうような
聴感上の雑音の出力を防ぐことができる。
【図面の簡単な説明】
【図1】本発明に係る背景雑音検出方法及び高能率符号
化方法の実施例を説明するためのフローチャート図であ
る。
【図2】高能率符号化方法の背景雑音抑圧処理を説明す
るための波形図である。
【図3】本発明に係る背景雑音検出方法及び高能率符号
化方法が適用される具体例としての音声信号の合成分析
符号化装置の分析側(エンコード側)の概略構成を示す
機能ブロック図である。
【図4】窓かけ処理を説明するための図である。
【図5】窓かけ処理と窓関数との関係を説明するための
図である。
【図6】直交変換(FFT)処理対象としての時間軸デ
ータを示す図である。
【図7】周波数軸上のスペクトルデータ、スペクトル包
絡線(エンペロープ)及び励起信号のパワースペクトル
を示す図である。
【図8】本発明に係る背景雑音検出方法及び高能率符号
化方法が適用される具体例としての音声信号の合成分析
符号化装置の合成側(デコード側)の概略構成を示す機
能ブロック図である。
【図9】音声信号を合成する際の無声音合成を説明する
ための図である。
【符号の説明】 103・・・・・ピッチ抽出部 104・・・・・窓かけ処理部 105・・・・・直交変換(FFT)部 106・・・・・高精度(ファイン)ピッチサーチ部 107・・・・・有声音/無声音判別部 108・・・・・振幅再評価部 109・・・・・データ数変換部 110・・・・・ベクトル量子化部
─────────────────────────────────────────────────────
【手続補正書】
【提出日】平成5年5月19日
【手続補正1】
【補正対象書類名】明細書
【補正対象項目名】全文
【補正方法】変更
【補正内容】
【書類名】 明細書
【発明の名称】 背景雑音検出方法及び高能率符号化方
【特許請求の範囲】
【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、入力音声信号をブロッ
ク単位で区分して周波数軸に変換して得られた周波数軸
上データから背景雑音を検出する背景雑音検出方法及び
該周波数軸上データを符号化する高能率符号化方法に関
する。
【0002】
【従来の技術】音声信号の時間領域や周波数領域におけ
る統計的性質と人間の聴感上の特性を利用して信号圧縮
を行うような符号化方法が種々知られている。この符号
化方法としては、大別して時間領域での符号化、周波数
領域での符号化、分析合成符号化等が挙げられる。
【0003】音声信号等の高能率符号化の例として、M
BE(Multiband Excitation: マルチバンド励起)符号
化、SBE(Singleband Excitation:シングルバンド励
起)符号化、ハーモニクス(Harmonic) 符号化、SBC
(Sub-band Coding:帯域分割符号化) 、LPC(Linear
Predictive Coding:線形予測符号化)、あるいはDCT
(離散コサイン変換)、MDCT(モデファイドDC
T)、FFT(高速フーリエ変換)等がある。
【0004】上記MBE符号化等においては、1ブロッ
ク(フレーム)内の音声に対して帯域(バンド)を複数
に分割し、各バンド毎に有声音/無声音の判断を行って
おり、音質の向上が認められる。
【0005】
【発明が解決しようとする課題】ところで、上記PAR
COR方等の音声分析・合成系では、励振源を切り換え
るタイミングは時間軸上のブロック(フレーム)毎であ
るため、同一フレーム内では有声音と無声音とを混在さ
せることができず、結果として高品質な音声は得られな
かった。
【0006】しかしながら、上記MBE符号化等におい
ては、1ブロック(フレーム)内の音声に対して帯域
(バンド)を複数に分割し、各バンド毎に有声音/無声
音の判断を行っているため、音質の向上が見られた。こ
こで、上記MBE等の符号化方法等のスペクトルマッチ
ングによる音声符号化は、比較的背景雑音に対して耐性
が強いものであるが、背景雑音の検出及び背景雑音を抑
圧するための処理は何も施していなかった。そのため、
合成側(復号化側)で得られる音声は、聞き取りにくか
ったり、異音を発することが生じていた。
【0007】本発明は、このような実情に鑑みてなされ
たものであり、雑音環境化において、背景雑音を確実に
検出する背景雑音検出方法及び背景雑音を抑えた状態で
明瞭度を失うことなく音声の符号化が可能となる高能率
符号化方法の提供を目的とする。
【0008】
【課題を解決するための手段】本発明に係る背景雑音検
出方法は、入力された音声信号をブロック単位で区分し
て周波数軸に変換して周波数軸上データを求める工程
と、このブロック単位の周波数軸上データを複数の帯域
に分割する工程と、上記分割されたブロック内の各帯域
毎に有声音か無声音かを判別する工程と、上記ブロック
内で無声音と判別された帯域の個数を求める工程と、上
記ブロック内の信号パワーを求める工程と、上記ブロッ
ク内の無声音の帯域個数が所定値以上でかつ上記ブロッ
ク内の信号パワーが所定値以上のとき上記ブロックに区
分された入力音声信号に背景雑音が有ると判断する工程
とを有することを特徴として上記課題を解決する。
【0009】ここで、上記ブロックに区分された入力音
声信号に背景雑音があると判断するのは、ブロック内の
各帯域毎に有声音と判別された各帯域毎の対数領域での
信号対雑音特性(具体的にはS/N値)が所定値以下の
ときとしてもよい。また、複数に分割された帯域の数
(バンド数)は、予め低減(縮退)して一定個数として
おいてもよい。
【0010】また、本発明に係る高能率符号化方法は、
入力された音声信号をブロック単位で区分して周波数軸
に変換して求められた周波数軸上データを符号化する高
能率符号化方法において、上記ブロック内の背景雑音の
有無を判断する工程と、上記工程で背景雑音有りと判断
されたときに有声音の帯域の個数を増やす工程とを有す
ることを特徴として上記課題を解決する。
【0011】さらに、上記ブロック内で背景雑音有りと
判断されたときに無声音の帯域の信号レベルを減少させ
てもよい。
【0012】
【作用】ブロック内の無声音の帯域の個数が所定値以上
でかつブロック内の信号パワーが所定値以上のとき、ブ
ロック内の入力音声信号に背景雑音が有るとすることで
確実に背景雑音を検出でき、さらにブロック内で背景雑
音を検出したときには、有声音の帯域の個数を増やし、
無声音の帯域の信号レベルを減少することで雑音レベル
を抑えた状態での音声符号化が可能となる。
【0013】
【実施例】以下、本発明に係る背景雑音検出方法及び高
能率符号化方法について説明する。ここで、本発明に係
る背景雑音検出方法の実施例は、音声信号を一定サンプ
ル数(例えば256サンプル)毎にブロック化して、F
FT等の直交変換により周波数軸上のスペクトルデータ
に変換すると共に、該ブロック内の音声のピッチを抽出
し、このピッチに応じた間隔で周波数軸上のスペクトル
を帯域分割し、分割された各帯域についてV(有声音)
/UV(無声音)の判別を行い、UVと判別された帯域
の個数と上記ブロック内の全帯域の信号パワーを求め、
このUV帯域の個数とブロック内の全帯域の信号パワー
とに応じて背景雑音を検出する。
【0014】また、本発明に係る高能率符号化方法の実
施例は、上記背景雑音検出方法の実施例で検出された背
景雑音に応じて音声信号を符号化する。
【0015】ここでは、背景雑音検出方法と高能率符号
化方法をまとめた実施例で本発明を説明する。つまり、
ブロックに区分した入力音声信号内の背景雑音を本発明
に係る背景雑音検出方法で検出し、そこで、ブロック内
に背景雑音があるとされた時に、本発明の高能率符号化
方法を用いるような実施例で本発明を説明する。
【0016】ここで、例えばMBEボコーダ等の音声合
成分析系を想定する場合、入力された時間軸上の音声信
号に対するサンプリング周波数fs は、通常8kHz で、
全帯域幅は3.4 kHz(ただし有効帯域は200〜3400
Hz) であり、女声の高い方から男声の低い方までのピッ
チラグ( ピッチ周期に相当するサンプル数) は、20〜
147程度である。従って、ピッチ周波数は、8000/147
≒54(Hz)から8000/20 =400(Hz)程度までの間で変
動することになる。従って、周波数軸上で上記3.4 kHz
までの間に約8〜63本のピッチパルス(ハーモニク
ス)が立つことになる。
【0017】このように、ピッチに応じた間隔で帯域分
割すると、ブロック(フレーム)毎に分割帯域数(バン
ド数)が約8〜63個の間で変化することになることを
考慮して、分割バンド数を一定の個数(例えば12個程
度)に低減あるいは縮退させておくことが好ましい。
【0018】本発明の実施例においては、このように縮
退させられた、あるいはピッチに応じて分割された複数
のバンド(帯域)毎になされたV/UVの判別情報に基
づいて、全バンド中のUV(無声音)バンドの数を求
め、その数が所定値以上でかつ全バンドの信号パワーが
所定値以上のとき等に入力された音声信号に背景雑音が
含まれていることを判断し、この背景雑音を含むブロッ
ク内の有声音を増やしたり、無声音の帯域の信号レベル
を減少させる等の背景雑音抑圧処理を施す。
【0019】この実施例について、図1に示すフローチ
ャートと、図2に示すスペクトル波形を参照しながら説
明する。以下の説明では、分割バンド(帯域)数が上述
したように縮退されて例えば12バンドとされているも
のを想定しているが、元のピッチに応じて分割された可
変のバンド数の場合にも同様に背景雑音の検出が行える
ものである。
【0020】図1において、最初のステップS1におい
ては、全てのバンドのV/UV判別データを入力する。
例えば図2のAに示すように、第0バンドから第11バ
ンドまでの12バンドに縮退されている場合には、これ
ら全12バンドの各V/UV判別データを取り込む。
【0021】次のステップS2では、UVバンドの個数
UVが所定値Nth以上か否かを判別する。図2のAの例
では、第3、4、5、6、7、8、9、10、11バン
ドの9バンドがUVとなっているから、NUV=9であ
る。ここで所定値(閾値)Nthを例えば8とすると、Y
ESを判別することになり、ステップS3に進む。
【0022】ステップS3では、ブロック内の信号のパ
ワーPw が所定値Pth以上か否かを判別する。ここで、
YESを判別するとステップS4に進む。
【0023】ステップS4では、上記ステップS3の判
別結果を受けて、当該ブロックが背景雑音であると判断
し、この背景雑音であるブロックをカウントしていく。
そして、ステップS5に進む。
【0024】ステップS5では、上記ステップS4での
背景雑音であるブロックのカウント値ADUが所定値A
thu 以上か否かを判別する。ここで、YES(Athu
DU)を判別するとステップS6に進む。
【0025】ステップS6では、上記ステップS5の判
別結果より、入力音声信号に背景雑音が含まれていると
判断する。
【0026】上記ステップS4、S5を通してからステ
ップS6の判断を導くようにしたのは、上記ステップS
3の判別結果、すなわち、当該1ブロックが背景雑音で
あるから入力音声信号に背景雑音が含まれているとする
判断での誤りを防ぐためである。例えば、会話が途絶え
て背景雑音であるブロックが何ブロックか続いた場合、
すなわち、ある一定時間背景雑音が続いた場合に入力音
声信号である会話の中に背景雑音が含まれているとする
誤りのない判断をするためである。
【0027】ステップS7では、上記ステップS6の入
力音声信号には、背景雑音が含まれているという判断を
受けて、例えば、背景雑音と有声音が混じったような例
えば会話の雑音抑圧処理を開始する。
【0028】ここで、上記ステップS2でNO(NUV
th)が判別されるとステップS8に進み、当該ブロッ
クは、背景雑音でないと判断し、次のブロックへ進む。
(新たなブロックの背景雑音の検出に進む。)
【0029】また、上記ステップS3でNO(Pw <P
th)が判別されるとステップS9に進み、当該ブロック
は、背景雑音でないとして、この背景雑音でないブロッ
クをカウントしていく。そして、ステップS10に進
む。
【0030】ステップS10では、背景雑音でないとさ
れたブロックのカウントによる合計ADVが所定値AthV
以上か否かを判別する。ここで、YES(AthV
DV)を判別するとステップS11に進む。
【0031】ステップS11では、上記ステップS10
の判別結果(AthV ≦ADV)より、入力音声信号に背景
雑音が含まれていないと判断する。そして新たなブロッ
クの背景雑音の検出に進む。あるいは、雑音抑圧処理を
停止させる。
【0032】上記ステップS5でNOを判別(ADU<A
thU )すると次のブロックへ進む。(新たなブロックの
背景雑音の検出に進む。)また、上記ステップS10で
NOを判別(ADV<AthV ) すると次のブロックへ進
む。(新たなブロックの背景雑音の検出に進む。)
【0033】上記ステップS7で行われる雑音抑圧処理
について説明する。この雑音抑圧処理は、上記ステップ
S6で入力音声信号に背景雑音が含まれているとされた
ときに行われる。例えば、ステップS1に図2のAに示
すスペクトル波形のV/UV判別データが入力されたと
し、ステップS2、S3、S4及びS5を通じてステッ
プS6で背景雑音が含まれているとされたとする。する
とこのステップS7では、図2のAの第0バンドから第
2バンドまでの例えば3バンドのV領域vold を図2の
Bに示すように第0バンドから第6バンドまでの例えば
7バンドに渡る領域k・vold (k>1)に拡張する。
すなわち、Vのバンドである聴きやすい帯域を広くとる
という雑音抑圧処理が行われるのである。また、図2の
Aの第3、4、5、6、7、8、9、10、11バンド
に渡るUV領域の信号レベルAmiを減少させ、P・Ami
(P<1)とすることによっても雑音抑圧をすることが
できる。図2のBに示した例は、先ず、Vバンドの領域
を拡張した後、12−k・vold となったUVの領域の
信号レベルを減少させたものである。
【0034】ここで、上記ステップS2及びS3を用い
た方法と異なる方法で背景雑音を検出する方法を説明す
る。この方法は、入力音声信号に雑音が加わったことに
よるスペクトルの乱れを強調するような尺度でスペクト
ルを解析し、背景雑音を検出するものであり、対数領域
での信号対雑音特性(S/N値)に応じて背景雑音を検
出する。
【0035】例えば、通常のリニアデータによる信号対
雑音特性では、はっきりと出なかった差でも、 S/N=Σ{log s(n) }2 /Σ{log s(n) −log e (n) }2 で示すような対数領域での信号対雑音特性(S/N)に
よれば、スペクトルの乱れを強調するような尺度でその
差を表す。ここで、nはバンド内のサンプル数であり、
eは励起信号を表す。
【0036】したがって、本発明に係る背景雑音検出方
法及び高能率符号化方法の実施例は、背景雑音を確実に
検出でき、明瞭度を失わずかつ雑音レベルを抑えた状態
での音声符号化が可能となる。
【0037】この本発明に係る背景雑音検出方法によ
り、背景雑音が検出されたときには、この本発明に係る
高能率符号化方法により、MBE等のボコーダの分析側
で明瞭度を失わず、かつ雑音レベルを抑えた状態での音
声符号化が可能となる。
【0038】以下本発明に係る背景雑音検出方法及び高
能率符号化方法が適用可能となる音声信号の合成分析符
号化装置(いわゆるボコーダ)の一種のMBE(Multib
andExcitation: マルチバンド励起)ボコーダの具体例
について、図面を参照しながら説明する。このMBEボ
コーダは、D. W. Griffin and J. S. Lim,"MultibandEx
citation Vocoder," IEEE Trans.Acoustics,Speech,and
Signal Processing,vol.36, No.8, pp.1223-1235, Au
g.1988 に開示されているものであり、従来のPARC
OR(PARtial auto-CORrelation: 偏自己相関)ボコー
ダ等では、音声のモデル化の際に有声音区間と無声音区
間とをブロックあるいはフレーム毎に切り換えていたの
に対し、MBEボコーダでは、同時刻(同じブロックあ
るいはフレーム内)の周波数軸領域に有声音(Voiced)
区間と無声音(Unvoiced)区間とが存在するという仮定
でモデル化している。
【0039】図3は、上記MBEボコーダの具体例の全
体の概略構成を示すブロック図である。この図3におい
て、入力端子101には音声信号が供給されるようにな
っており、この入力音声信号は、HPF(ハイパスフィ
ルタ)等のフィルタ102に送られて、いわゆるDC
(直流)オフセット分の除去や帯域制限(例えば200
〜3400Hzに制限)のための少なくとも低域成分(2
00Hz以下)の除去が行われる。このフィルタ102を
介して得られた信号は、ピッチ抽出部103及び窓かけ
処理部104にそれぞれ送られる。ピッチ抽出部103
では、入力音声信号データが所定サンプル数N(例えば
N=256)単位でブロック分割され(あるいは方形窓
による切り出しが行われ)、このブロック内の音声信号
についてのピッチ抽出が行われる。このような切り出し
ブロック(256サンプル)を、例えば図4のAに示す
ようにLサンプル(例えばL=160)のフレーム間隔
で時間軸方向に移動させており、各ブロック間のオーバ
ラップはN−Lサンプル(例えば96サンプル)となっ
ている。また、窓かけ処理部104では、1ブロックN
サンプルに対して所定の窓関数、例えばハミング窓をか
け、この窓かけブロックを1フレームLサンプルの間隔
で時間軸方向に順次移動させている。
【0040】このような窓かけ処理を数式で表すと、 xw (k,q) =x(q) w(kL-q) ・・・(1) となる。この(1)式において、kはブロック番号を、
qはデータの時間インデックス(サンプル番号)を表
し、処理前の入力信号のq番目のデータx(q) に対して
第kブロックの窓(ウィンドウ)関数w(kL-q)により窓
かけ処理されることによりデータxw (k,q) が得られる
ことを示している。ピッチ抽出部103内での図4のA
に示すような方形窓の場合の窓関数wr (r) は、 wr (r) =1 0≦r<N ・・・(2) =0 r<0,N≦r また、窓かけ処理部104での図4のBに示すようなハ
ミング窓の場合の窓関数wh (r) は、 wh (r) = 0.54 − 0.46 cos(2πr/(N-1)) 0≦r<N ・・・(3) =0 r<0,N≦r である。このような窓関数wr (r) あるいはwh (r) を
用いるときの上記(1)式の窓関数w(r) (=w(kL-
q))の否零区間は、 0≦kL−q<N これを変形して、 kL−N<q≦kL 従って、例えば上記方形窓の場合に窓関数wr (kL-q)=
1となるのは、図5に示すように、kL−N<q≦kL
のときとなる。また、上記(1)〜(3)式は、長さN
(=256)サンプルの窓が、L(=160)サンプル
ずつ前進してゆくことを示している。以下、上記(2)
式、(3)式の各窓関数で切り出された各N点(0≦r
<N)の否零サンプル列を、それぞれxwr(k,r) 、xwh
(k,r) と表すことにする。
【0041】窓かけ処理部104では、図6に示すよう
に、上記(3)式のハミング窓がかけられた1ブロック
256サンプルのサンプル列xwh(k,r) に対して179
2サンプル分の0データが付加されて(いわゆる0詰め
されて)2048サンプルとされ、この2048サンプ
ルの時間軸データ列に対して、直交変換部105により
例えばFFT(高速フーリエ変換)等の直交変換処理が
施される。
【0042】ピッチ抽出部103では、上記xwr(k,r)
のサンプル列(1ブロックNサンプル)に基づいてピッ
チ抽出が行われる。このピッチ抽出法には、時間波形の
周期性や、スペクトルの周期的周波数構造や、自己相関
関数を用いるもの等が知られているが、本実施例では、
センタクリップ波形の自己相関法を採用している。この
ときのブロック内でのセンタクリップレベルについて
は、1ブロックにつき1つのクリップレベルを設定して
もよいが、ブロックを細分割した各部(各サブブロッ
ク)の信号のピークレベル等を検出し、これらの各サブ
ブロックのピークレベル等の差が大きいときに、ブロッ
ク内でクリップレベルを段階的にあるいは連続的に変化
させるようにしている。このセンタクリップ波形の自己
相関データのピーク位置に基づいてピッチ周期を決めて
いる。このとき、現在フレームに属する自己相関データ
(自己相関は1ブロックNサンプルのデータを対象とし
て求められる)から複数のピークを求めておき、これら
の複数のピークの内の最大ピークが所定の閾値以上のと
きには該最大ピーク位置をピッチ周期とし、それ以外の
ときには、現在フレーム以外のフレーム、例えば前後の
フレームで求められたピッチに対して所定の関係を満た
すピッチ範囲内、例えば前フレームのピッチを中心とし
て±20%の範囲内にあるピークを求め、このピーク位
置に基づいて現在フレームのピッチを決定するようにし
ている。このピッチ抽出部103ではオープンループに
よる比較的ラフなピッチのサーチが行われ、抽出された
ピッチデータは高精度(ファイン)ピッチサーチ部10
6に送られて、クローズドループによる高精度のピッチ
サーチ(ピッチのファインサーチ)が行われる。
【0043】高精度(ファイン)ピッチサーチ部106
には、ピッチ抽出部103で抽出された整数(インテジ
ャー)値の粗(ラフ)ピッチデータと、直交変換部10
5により例えばFFTされた周波数軸上のデータとが供
給されている。この高精度ピッチサーチ部106では、
上記粗ピッチデータ値を中心に、0.2〜0.5きざみで±
数サンプルずつ振って、最適な小数点付き(フローティ
ング)のファインピッチデータの値へ追い込む。このと
きのファインサーチの手法として、いわゆる合成による
分析 (Analysis by Synthesis)法を用い、合成されたパ
ワースペクトルが原音のパワースペクトルに最も近くな
るようにピッチを選んでいる。
【0044】このピッチのファインサーチについて説明
する。先ず、上記MBEボコーダにおいては、上記FF
T等により直交変換された周波数軸上のスペクトルデー
タとしてのS(j) を S(j) =H(j) |E(j) | 0<j<J ・・・(4) と表現するようなモデルを想定している。ここで、Jは
ωs /4π=fs /2に対応し、サンプリング周波数f
s ωs /2πが例えば8kHzのときには4kHzに対応
する。上記(4)式中において、周波数軸上のスペクト
ルデータS(j) が図7のAに示すような波形のとき、H
(j) は、図7のBに示すような元のスペクトルデータS
(j) のスペクトル包絡線(エンベロープ)を示し、E
(j) は、図7のCに示すような等レベルで周期的な励起
信号(エキサイテイション)のスペクトルを示してい
る。すなわち、FFTスペクトルS(j) は、スペクトル
エンベロープH(j) と励起信号のパワースペクトル|E
(j) |との積としてモデル化される。
【0045】上記励起信号のパワースペクトル|E(j)
|は、上記ピッチに応じて決定される周波数軸上の波形
の周期性(ピッチ構造)を考慮して、1つの帯域(バン
ド)の波形に相当するスペクトル波形を周波数軸上の各
バンド毎に繰り返すように配列することにより形成され
る。この1バンド分の波形は、例えば上記図6に示すよ
うな256サンプルのハミング窓関数に1792サンプ
ル分の0データを付加(0詰め)した波形を時間軸信号
と見なしてFFTし、得られた周波数軸上のある帯域幅
を持つインパルス波形を上記ピッチに応じて切り出すこ
とにより形成することができる。
【0046】次に、上記ピッチに応じて分割された各バ
ンド毎に、上記H(j) を代表させるような(各バンド毎
のエラーを最小化するような)値(一種の振幅)|Am
|を求める。ここで、例えば第mバンド(第m高調波の
帯域)の下限、上限の点をそれぞれam 、bm とすると
き、この第mバンドのエラーεm は、
【0047】
【数1】
【0048】で表せる。このエラーεm を最小化するよ
うな|Am |は、
【0049】
【数2】
【0050】となり、この(6)式の|Am |のとき、
エラーεm を最小化する。このような振幅|Am |を各
バンド毎に求め、得られた各振幅|Am |を用いて上記
(5)式で定義された各バンド毎のエラーεm を求め
る。次に、このような各バンド毎のエラーεm の全バン
ドの総和値Σεm を求める。さらに、このような全バン
ドのエラー総和値Σεm を、いくつかの微小に異なるピ
ッチについて求め、エラー総和値Σεm が最小となるよ
うなピッチを求める。
【0051】すなわち、上記ピッチ抽出部103で求め
られたラフピッチを中心として、例えば 0.25 きざみで
上下に数種類ずつ用意する。これらの複数種類の微小に
異なるピッチの各ピッチに対してそれぞれ上記エラー総
和値Σεm を求める。この場合、ピッチが定まるとバン
ド幅が決まり、上記(6)式より、周波数軸上データの
パワースペクトル|S(j) |と励起信号スペクトル|E
(j) |とを用いて上記(5)式のエラーεm を求め、そ
の全バンドの総和値Σεm を求めることができる。この
エラー総和値Σεm を各ピッチ毎に求め、最小となるエ
ラー総和値に対応するピッチを最適のピッチとして決定
するわけである。以上のようにして高精度ピッチサーチ
部106で最適のファイン(例えば 0.25 きざみ)ピッ
チが求められ、この最適ピッチに対応する振幅|Am
が決定される。
【0052】以上ピッチのファインサーチの説明におい
ては、説明を簡略化するために、全バンドが有声音(Vo
iced)の場合を想定しているが、上述したようにMBE
ボコーダにおいては、同時刻の周波数軸上に無声音(Un
voiced)領域が存在するというモデルを採用しているこ
とから、上記各バンド毎に有声音/無声音の判別を行う
ことが必要とされる。
【0053】上記高精度ピッチサーチ部106からの最
適ピッチ及び振幅|Am |のデータは、有声音/無声音
判別部107に送られ、上記各バンド毎に有声音/無声
音の判別が行われる。この判別のために、NSR(ノイ
ズtoシグナル比)を利用する。すなわち、第mバンド
のNSRは、
【0054】
【数3】
【0055】と表せ、このNSR値が所定の閾値(例え
ば0.3)より大のとき(エラーが大きい)ときには、そ
のバンドでの|Am ||E(j) |による|S(j) |の近
似が良くない(上記励起信号|E(j) |が基底として不
適当である)と判断でき、当該バンドをUV(Unvoice
d、無声音)と判別する。これ以外のときは、近似があ
る程度良好に行われていると判断でき、そのバンドをV
(Voiced、有声音)と判別する。
【0056】次に、振幅再評価部108には、直交変換
部105からの周波数軸上データ、高精度ピッチサーチ
部106からのファインピッチと評価された振幅|Am
|との各データ、及び上記有声音/無声音判別部107
からのV/UV(有声音/無声音)判別データが供給さ
れている。この振幅再評価部108では、有声音/無声
音判別部107において無声音(UV)と判別されたバ
ンドに関して、再度振幅を求めている。このUVのバン
ドについての振幅|Am UVは、
【0057】
【数4】
【0058】にて求められる。
【0059】この振幅再評価部108からのデータは、
データ数変換(一種のサンプリングレート変換)部10
9に送られる。このデータ数変換部109は、上記ピッ
チに応じて周波数軸上での分割帯域数が異なり、データ
数(特に振幅データの数)が異なることを考慮して、一
定の個数にするためのものである。すなわち、例えば有
効帯域を3400Hzまでとすると、この有効帯域が上記
ピッチに応じて、8バンド〜63バンドに分割されるこ
とになり、これらの各バンド毎に得られる上記振幅|A
m |(UVバンドの振幅|Am UVも含む)データの個
数mMX+1も8〜63と変化することになる。このため
データ数変換部109では、この可変個数mMX+1の振
幅データを一定個数NC (例えば44個)のデータに変
換している。
【0060】ここで本実施例においては、周波数軸上の
有効帯域1ブロック分の振幅データに対して、ブロック
内の最後のデータからブロック内の最初のデータまでの
値を補間するようなダミーデータを付加してデータ個数
をNF 個に拡大した後、帯域制限型のKOS倍(例えば8
倍)のオーバーサンプリングを施すことによりKOS倍の
個数の振幅データを求め、このKOS倍の個数(( mMX
1) ×KOS個)の振幅データを直線補間してさらに多く
のNM 個(例えば2048個)に拡張し、このNM 個の
データを間引いて上記一定個数NC (例えば44個)の
データに変換する。
【0061】このデータ数変換部109からのデータ
(上記一定個数NC の振幅データ)がベクトル量子化部
110に送られて、所定個数のデータ毎にまとめられて
ベクトルとされ、ベクトル量子化が施される。ベクトル
量子化部110からの量子化出力データは、出力端子1
11を介して取り出される。また、上記高精度のピッチ
サーチ部106からの高精度(ファイン)ピッチデータ
は、ピッチ符号化部115で符号化され、出力端子11
2を介して取り出される。さらに、上記有声音/無声音
判別部107からの有声音/無声音(V/UV)判別デ
ータは、出力端子113を介して取り出される。これら
の各出力端子111〜113からのデータは、所定の伝
送フォーマットの信号とされて伝送される。
【0062】なお、これらの各データは、上記Nサンプ
ル(例えば256サンプル)のブロック内のデータに対
して処理を施すことにより得られるものであるが、ブロ
ックは時間軸上を上記Lサンプルのフレームを単位とし
て前進することから、伝送するデータは上記フレーム単
位で得られる。すなわち、上記フレーム周期でピッチデ
ータ、V/UV判別データ、振幅データが更新されるこ
とになる。
【0063】次に、伝送されて得られた上記各データに
基づき音声信号を合成するための合成側(デコード側)
の概略構成について、図8を参照しながら説明する。こ
の図8において、入力端子121には上記ベクトル量子
化された振幅データが、入力端子122には上記符号化
されたピッチデータが、また入力端子123には上記V
/UV判別データがそれぞれ供給される。入力端子12
1からの量子化振幅データは、逆ベクトル量子化部12
4に送られて逆量子化され、データ数逆変換部125に
送られて逆変換され、得られた振幅データが有声音合成
部126及び無声音合成部127に送られる。入力端子
122からの符号化ピッチデータは、ピッチ復号化部1
28で復号化され、データ数逆変換部125、有声音合
成部126及び無声音合成部127に送られる。また入
力端子123からのV/UV判別データは、有声音合成
部126及び無声音合成部127に送られる。
【0064】有声音合成部126では例えば余弦(cosin
e)波合成により時間軸上の有声音波形を合成し、無声音
合成部127では例えばホワイトノイズをバンドパスフ
ィルタでフィルタリングして時間軸上の無声音波形を合
成し、これらの各有声音合成波形と無声音合成波形とを
加算部129で加算合成して、出力端子130より取り
出すようにしている。この場合、上記振幅データ、ピッ
チデータ及びV/UV判別データは、上記分析時の1フ
レーム(Lサンプル、例えば160サンプル)毎に更新
されて与えられるが、フレーム間の連続性を高める(円
滑化する)ために、上記振幅データやピッチデータの各
値を1フレーム中の例えば中心位置における各データ値
とし、次のフレームの中心位置までの間(合成時の1フ
レーム)の各データ値を補間により求める。すなわち、
合成時の1フレーム(例えば上記分析フレームの中心か
ら次の分析フレームの中心まで)において、先端サンプ
ル点での各データ値と終端(次の合成フレームの先端)
サンプル点での各データ値とが与えられ、これらのサン
プル点間の各データ値を補間により求めるようにしてい
る。
【0065】以下、有声音合成部126における合成処
理を詳細に説明する。上記V(有声音)と判別された第
mバンド(第m高調波の帯域)における時間軸上の上記
1合成フレーム(Lサンプル、例えば160サンプル)
分の有声音をVm (n) とするとき、この合成フレーム内
の時間インデックス(サンプル番号)nを用いて、 Vm (n) =Am (n) cos(θm (n)) 0≦n<L ・・・(9) と表すことができる。全バンドの内のV(有声音)と判
別された全てのバンドの有声音を加算(ΣVm (n) )し
て最終的な有声音V(n) を合成する。
【0066】この(9)式中のAm (n) は、上記合成フ
レームの先端から終端までの間で補間された第m高調波
の振幅である。最も簡単には、フレーム単位で更新され
る振幅データの第m高調波の値を直線補間すればよい。
すなわち、上記合成フレームの先端(n=0)での第m
高調波の振幅値をA0m、該合成フレームの終端(n=
L:次の合成フレームの先端)での第m高調波の振幅値
をALmとするとき、 Am (n) = (L-n)A0m/L+nALm/L ・・・(10) の式によりAm (n) を計算すればよい。
【0067】次に、上記(9)式中の位相θm (n) は、 θm (n) =mωO1n+n2 m(ωL1−ω01)/2L+φ0m+Δωn ・・・(11) により求めることができる。この(11)式中で、φ0m
上記合成フレームの先端(n=0)での第m高調波の位
相(フレーム初期位相)を示し、ω01は合成フレーム先
端(n=0)での基本角周波数、ωL1は該合成フレーム
の終端(n=L:次の合成フレーム先端)での基本角周
波数をそれぞれ示している。上記(11)式中のΔωは、
n=Lにおける位相φLmがθm (L) に等しくなるような
最小のΔωを設定する。
【0068】以下、任意の第mバンドにおいて、それぞ
れn=0、n=LのときのV/UV判別結果に応じた上
記振幅Am (n) 、位相θm (n) の求め方を説明する。第
mバンドが、n=0、n=LのいずれもV(有声音)と
される場合に、振幅Am (n) は、上述した(10)式によ
り、伝送された振幅値A0m、ALmを直線補間して振幅A
m (n) を算出すればよい。位相θm (n) は、n=0でθ
m (0) =φ0mからn=Lでθm (L) がφLmとなるように
Δωを設定する。
【0069】次に、n=0のときV(有声音)で、n=
LのときUV(無声音)とされる場合に、振幅Am (n)
は、Am (0) の伝送振幅値A0mからAm (L) で0となる
ように直線補間する。n=Lでの伝送振幅値ALmは無声
音の振幅値であり、後述する無声音合成の際に用いられ
る。位相θm (n) は、θm (0) =φ0mとし、かつΔω=
0とする。
【0070】さらに、n=0のときUV(無声音)で、
n=LのときV(有声音)とされる場合には、振幅Am
(n) は、n=0での振幅Am (0) を0とし、n=Lで伝
送された振幅値ALmとなるように直線補間する。位相θ
m (n) については、n=0での位相θm (0) として、フ
レーム終端での位相値φLmを用いて、 θm (0) =φLm−m(ωO1+ωL1)L/2 ・・・(12) とし、かつΔω=0とする。
【0071】上記n=0、n=LのいずれもV(有声
音)とされる場合に、θm (L) がφLmとなるようにΔω
を設定する手法について説明する。上記(11)式で、n
=Lと置くことにより、 θm (L) =mωO1L+L2 m(ωL1−ω01)/2L+φ0m+ΔωL =m(ωO1+ωL1)L/2+φ0m+ΔωL =φLm となり、これを整理すると、Δωは、 Δω=(mod2π((φLm−φ0m) − mL(ωO1+ωL1)/2)/L ・・・(13) となる。この(13)式でmod2π(x) とは、xの主値を−
π〜+πの間の値で返す関数である。例えば、x=1.3
πのときmod2π(x) =−0.7π、x=2.3πのときmod2
π(x) =0.3π、x=−1.3πのときmod2π(x) =0.7
π、等である。
【0072】ここで、図9のAは、音声信号のスペクト
ルの一例を示しており、バンド番号(ハーモニクスナン
バ)mが8、9、10の各バンドがUV(無声音)とさ
れ、他のバンドはV(有声音)とされている。このV
(有声音)のバンドの時間軸信号が上記有声音合成部1
26により合成され、UV(無声音)のバンドの時間軸
信号が無声音合成部127で合成されるわけである。
【0073】以下、無声音合成部127における無声音
合成処理を説明する。ホワイトノイズ発生部131から
の時間軸上のホワイトノイズ信号波形を、所定の長さ
(例えば256サンプル)で適当な窓関数(例えばハミ
ング窓)により窓かけをし、STFT処理部132によ
りSTFT(ショートタームフーリエ変換)処理を施す
ことにより、図9のBに示すようなホワイトノイズの周
波数軸上のパワースペクトルを得る。このSTFT処理
部132からのパワースペクトルをバンド振幅処理部1
33に送り、図9のCに示すように、上記UV(無声
音)とされたバンド(例えばm=8、9、10)につい
て上記振幅|Am UVを乗算し、他のV(有声音)とさ
れたバンドの振幅を0にする。このバンド振幅処理部1
33には上記振幅データ、ピッチデータ、V/UV判別
データが供給されている。バンド振幅処理部133から
の出力は、ISTFT処理部134に送られ、位相は元
のホワイトノイズの位相を用いて逆STFT処理を施す
ことにより時間軸上の信号に変換する。ISTFT処理
部134からの出力は、オーバーラップ加算部135に
送られ、時間軸上で適当な(元の連続的なノイズ波形を
復元できるように)重み付けをしながらオーバーラップ
及び加算を繰り返し、連続的な時間軸波形を合成する。
オーバーラップ加算部135からの出力信号が上記加算
部129に送られる。
【0074】このように、各合成部126、127にお
いて合成されて時間軸上に戻された有声音部及び無声音
部の各信号は、加算部129により適当な固定の混合比
で加算して、出力端子130より再生された音声信号を
取り出す。
【0075】なお、上記図3の音声分析側(エンコード
側)の構成や図8の音声合成側(デコード側)の構成に
ついては、各部をハードウェア的に記載しているが、い
わゆるDSP(ディジタル信号プロセッサ)等を用いて
ソフトウェアプログラムにより実現することも可能であ
る。
【0076】また、本発明に係る背景雑音検出方法は、
上記高能率符号化方法に利用されるだけでなく、例え
ば、自動車電話の送信側で環境雑音を落としたいような
とき、背景雑音を検出する手段としても用いられる。す
なわち、雑音に乱された低品質の音声を処理し、雑音の
影響を取り除き、聴きやすい音にするようなときの雑音
検出にも利用される。
【0077】
【発明の効果】本発明に係る背景雑音検出方法及び高能
率符号化方法は、入力音声信号をブロック単位で区分し
て周波数軸に変換してデータを複数の帯域に分割し、分
割された各帯域毎に有声音か無声音かを判別し、ブロッ
ク内の無声音の帯域の個数が所定値以上でかつブロック
内の信号パワーが所定値以上のとき、ブロック内の入力
音声信号に背景雑音が有るとすることで確実に背景雑音
を検出でき、さらにブロック内で背景雑音を検出したと
きには、有声音の帯域の個数を増やし、無声音の帯域の
信号レベルを減少することで雑音環境下においても、明
瞭度を失わずかつ、雑音レベルを抑えた状態での音声符
号化が可能となる。また、本発明をMBEボコーダに適
用することで、従来のMBEが背景雑音等のピッチの無
い入力をいかにもピッチがある出力としてしまうような
聴感上の雑音の出力を防ぐことができる。
【図面の簡単な説明】
【図1】本発明に係る背景雑音検出方法及び高能率符号
化方法の実施例を説明するためのフローチャート図であ
る。
【図2】高能率符号化方法の背景雑音抑圧処理を説明す
るための波形図である。
【図3】本発明に係る背景雑音検出方法及び高能率符号
化方法が適用される具体例としての音声信号の合成分析
符号化装置の分析側(エンコード側)の概略構成を示す
機能ブロック図である。
【図4】窓かけ処理を説明するための図である。
【図5】窓かけ処理と窓関数との関係を説明するための
図である。
【図6】直交変換(FFT)処理対象としての時間軸デ
ータを示す図である。
【図7】周波数軸上のスペクトルデータ、スペクトル包
絡線(エンペロープ)及び励起信号のパワースペクトル
を示す図である。
【図8】本発明に係る背景雑音検出方法及び高能率符号
化方法が適用される具体例としての音声信号の合成分析
符号化装置の合成側(デコード側)の概略構成を示す機
能ブロック図である。
【図9】音声信号を合成する際の無声音合成を説明する
ための図である。
【符号の説明】 103・・・・・ピッチ抽出部 104・・・・・窓かけ処理部 105・・・・・直交変換(FFT)部 106・・・・・高精度(ファイン)ピッチサーチ部 107・・・・・有声音/無声音判別部 108・・・・・振幅再評価部 109・・・・・データ数変換部 110・・・・・ベクトル量子化部

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】 入力された音声信号をブロック単位で区
    分して周波数軸に変換して周波数軸上データを求める工
    程と、 このブロック単位の周波数軸上データを複数の帯域に分
    割する工程と、 上記分割されたブロック内の各帯域毎に有声音か無声音
    かを判別する工程と、 上記ブロック内で無声音と判別された帯域の個数を求め
    る工程と、 上記ブロック内の信号パワーを求める工程と、 上記ブロック内の無声音の帯域個数が所定値以上でかつ
    上記ブロック内の信号パワーが所定値以上のとき上記ブ
    ロックに区分された入力音声信号に背景雑音が有ると判
    断する工程とを有することを特徴とする背景雑音検出方
    法。
  2. 【請求項2】 入力された音声信号をブロック単位で区
    分して周波数軸に変換して周波数軸上データを求める工
    程と、 このブロック単位の周波数軸上データを複数の帯域に分
    割する工程と、 上記分割されたブロック内の各帯域毎に有声音か否かを
    判別する工程と、 上記ブロック内で有声音と判別された帯域の対数領域で
    の信号対雑音特性を求める工程と、 上記信号対雑音特性が所定値以下のとき上記ブロックに
    区分された入力音声信号に背景雑音が有ると判断する工
    程とを有することを特徴とする背景雑音検出方法。
  3. 【請求項3】 入力された音声信号をブロック単位で区
    分して周波数軸に変換して求められた周波数軸上データ
    を符号化する高能率符号化方法において、 上記ブロック内の背景雑音の有無を判断する工程と、 上記工程で背景雑音有りと判断されたときに有声音の帯
    域の個数を増やす工程とを有することを特徴とする高能
    率符号化方法。
  4. 【請求項4】 入力された音声信号をブロック単位で区
    分して周波数軸に変換して求められた周波数軸上データ
    を符号化する高能率符号化方法において、 上記ブロック内の背景雑音の有無を判断する工程と、 上記工程で背景雑音有りと判断されたときに無声音の帯
    域の信号レベルを減少する工程とを有することを特徴と
    する高能率符号化方法。
JP12146492A 1992-04-15 1992-04-15 背景雑音検出方法及び高能率符号化方法 Expired - Fee Related JP3218681B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP12146492A JP3218681B2 (ja) 1992-04-15 1992-04-15 背景雑音検出方法及び高能率符号化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP12146492A JP3218681B2 (ja) 1992-04-15 1992-04-15 背景雑音検出方法及び高能率符号化方法

Publications (2)

Publication Number Publication Date
JPH05297896A true JPH05297896A (ja) 1993-11-12
JP3218681B2 JP3218681B2 (ja) 2001-10-15

Family

ID=14811791

Family Applications (1)

Application Number Title Priority Date Filing Date
JP12146492A Expired - Fee Related JP3218681B2 (ja) 1992-04-15 1992-04-15 背景雑音検出方法及び高能率符号化方法

Country Status (1)

Country Link
JP (1) JP3218681B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008245040A (ja) * 2007-03-28 2008-10-09 Kddi Corp 動画像分類装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5381982B2 (ja) 2008-05-28 2014-01-08 日本電気株式会社 音声検出装置、音声検出方法、音声検出プログラム及び記録媒体

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008245040A (ja) * 2007-03-28 2008-10-09 Kddi Corp 動画像分類装置

Also Published As

Publication number Publication date
JP3218681B2 (ja) 2001-10-15

Similar Documents

Publication Publication Date Title
JP3475446B2 (ja) 符号化方法
JP3277398B2 (ja) 有声音判別方法
KR100427753B1 (ko) 음성신호재생방법및장치,음성복호화방법및장치,음성합성방법및장치와휴대용무선단말장치
JPH08123495A (ja) 広帯域音声復元装置
JPH0869299A (ja) 音声符号化方法、音声復号化方法及び音声符号化復号化方法
KR100406674B1 (ko) 음성합성방법 및 장치
JPH05281996A (ja) ピッチ抽出装置
JP3297751B2 (ja) データ数変換方法、符号化装置及び復号化装置
JPH07199997A (ja) 音声信号の処理システムにおける音声信号の処理方法およびその処理における処理時間の短縮方法
JP3218679B2 (ja) 高能率符号化方法
JPH05265499A (ja) 高能率符号化方法
JP3362471B2 (ja) 音声信号の符号化方法及び復号化方法
JPH05265487A (ja) 高能率符号化方法
JP3218681B2 (ja) 背景雑音検出方法及び高能率符号化方法
JPH0651800A (ja) データ数変換方法
JP3321933B2 (ja) ピッチ検出方法
JP3271193B2 (ja) 音声符号化方法
JP3297750B2 (ja) 符号化方法
JP3223564B2 (ja) ピッチ抽出方法
JP3398968B2 (ja) 音声分析合成方法
JP2003216189A (ja) 符号化装置及び復号装置
Kassim et al. Compressive sensing based low bit rate speech encoder
JPH06202695A (ja) 音声信号処理装置
JP3218680B2 (ja) 有声音合成方法
JP3221050B2 (ja) 有声音判別方法

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20010710

LAPS Cancellation because of no payment of annual fees