JP2001022368A - Speech discrimination device and method therefor - Google Patents
Speech discrimination device and method thereforInfo
- Publication number
- JP2001022368A JP2001022368A JP2000188987A JP2000188987A JP2001022368A JP 2001022368 A JP2001022368 A JP 2001022368A JP 2000188987 A JP2000188987 A JP 2000188987A JP 2000188987 A JP2000188987 A JP 2000188987A JP 2001022368 A JP2001022368 A JP 2001022368A
- Authority
- JP
- Japan
- Prior art keywords
- noise level
- threshold
- value
- frame
- power
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Abstract
Description
【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION
【0001】[0001]
【発明の属する技術分野】この発明は、音声をディジタ
ル伝送あるいは蓄積する場合に用いられる音声符号化復
号化装置の有声音・無声音判別装置(音声判別装置)及
びその判別方法に関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a voiced / unvoiced sound discriminating apparatus (speech discriminating apparatus) used for digitally transmitting or storing speech, and to a discriminating method thereof.
【0002】[0002]
【従来の技術】従来のこの種の有声音・無声音判別装置
(音声判別装置)として、例えば特開昭61−2780
0に示されたものがあり、上記装置では、有声音、無声
音の判別パラメータとしてケプストラムの低次項の和を
用い、判別結果は有声音と無声音の2値である。2. Description of the Related Art A conventional voiced / unvoiced sound discriminating apparatus (speech discriminating apparatus) of this kind is disclosed in, for example, Japanese Patent Application Laid-Open No. 61-2780.
In the above-mentioned apparatus, the sum of the low-order terms of the cepstrum is used as a discrimination parameter for voiced and unvoiced sounds, and the discrimination result is a binary value of a voiced sound and an unvoiced sound.
【0003】図6は上記文献に示された従来の有声音・
無声音判別装置(音声判別装置)の構成ブロック図であ
り、図7は図6の有声音・無声音判別装置(音声判別装
置)の判別パラメータ20の分布を例示する図である。
図中、18はケプストラム、19は加算回路、20は判
別パラメータ、21は閾値比較回路、22は判別結果で
ある。FIG. 6 shows a conventional voiced sound shown in the above document.
FIG. 7 is a block diagram illustrating a configuration of an unvoiced sound discriminating apparatus (speech discriminating apparatus). FIG. 7 is a diagram illustrating a distribution of discriminating parameters 20 of the voiced / unvoiced sound discriminating apparatus (speech discriminating apparatus) in FIG.
In the figure, 18 is a cepstrum, 19 is an addition circuit, 20 is a discrimination parameter, 21 is a threshold value comparison circuit, and 22 is a discrimination result.
【0004】以下、図6の有声音・無声音判別装置(音
声判別装置)の動作について図6,7を参照して説明す
る。先ず、加算回路19は入力されたケプストラム18
の低次項の和を求め、これを判別パラメータ20として
出力する。閾値比較回路21は入力された判別パラメー
タ20が所定の固定閾値未満の場合は無声音、上記の固
定閾値以上の場合は有声音と判別し、判別結果22を出
力する。The operation of the voiced / unvoiced sound discriminating apparatus (speech discriminating apparatus) shown in FIG. 6 will be described below with reference to FIGS. First, the addition circuit 19 receives the input cepstrum 18.
, And outputs the sum as a discrimination parameter 20. The threshold comparing circuit 21 determines that the input discrimination parameter 20 is unvoiced when it is less than a predetermined fixed threshold, and that it is voiced when it is not less than the fixed threshold, and outputs a discrimination result 22.
【0005】図7は背景雑音のパワーが音声信号のパワ
ーに比べて無視できない程大きい、即ち雑音レベルが高
い場合と、背景雑音のパワーが音声信号のパワーに比べ
て無視できる程小さい、即ち雑音レベルが低い場合の判
別パラメータ20の分布のモデルを示したものである。
図中、曲線Aは雑音レベルが低い場合の無声音、曲線C
は雑音レベルが高い場合の無声音、曲線Dは曲線Aと曲
線Cとを合わせた分布で、曲線Bは有声音の分布であ
る。有声音における判別パラメータ20の分布は雑音レ
ベルの高低によって大きく変化しない。いま、雑音レベ
ルが低い場合に無声音Aと有声音Bを最適に分離する固
定閾値をE1とした場合、雑音レベルが高い場合に無声
音Cを有声音Bと判別する判別誤りが増加する。一方、
雑音レベルが高い場合に無声音Cと有声音Bを最適に分
離する固定閾値をE2とした場合、雑音レベルが低い場
合に有声音Bを無声音Aと判別する判別誤りが増加す
る。また、E3を無声音Dと有声音Bを最適に分離する
固定閾値とすると、雑音レベルが小さい場合にE1を、
雑音レベルが大きい場合にE2を固定閾値に用いた場合
に比べて、判別誤りが増加するのは明かである。また、
以上のどの閾値を使う場合でも、判別パラメータ20が
その閾値近辺の値のときは判別誤りが多く、信頼性が低
くなる。FIG. 7 shows the case where the power of the background noise is so large as to be insignificant as compared with the power of the speech signal, that is, the noise level is high, and the case where the power of the background noise is so small as to be negligible as compared with the power of the speech signal, that is, the noise. 9 shows a model of the distribution of the discrimination parameters 20 when the level is low.
In the figure, a curve A is an unvoiced sound when the noise level is low, and a curve C
Is the unvoiced sound when the noise level is high, curve D is the distribution of curves A and C combined, and curve B is the distribution of voiced sounds. The distribution of the discrimination parameter 20 in the voiced sound does not change significantly depending on the level of the noise level. Now, when the fixed threshold for optimally separating the unvoiced sound A and the voiced sound B is E1 when the noise level is low, the number of erroneous determinations for discriminating the unvoiced sound C from the voiced sound B when the noise level is high increases. on the other hand,
When the fixed threshold for optimally separating the unvoiced sound C and the voiced sound B is E2 when the noise level is high, the number of errors in determining the voiced sound B as the unvoiced sound A increases when the noise level is low. Further, if E3 is a fixed threshold value for optimally separating the unvoiced sound D and the voiced sound B, when the noise level is low, E1 is
It is clear that the discrimination error increases when the noise level is large as compared with the case where E2 is used as the fixed threshold. Also,
Regardless of which threshold value is used, when the discrimination parameter 20 is a value near the threshold value, there are many discrimination errors and the reliability is low.
【0006】[0006]
【発明が解決しようとする課題】従来の有声音・無声音
判別装置(音声判別装置)は以上のように構成されてお
り、ケプストラムの低次項の和だけを判別パラメータと
しているために、判別パラメータが判別閾値近辺の値の
ときは判別誤りが多く、また、有声音と無声音を判別す
る判別閾値を設定するとき想定した背景雑音レベルと異
なった雑音レベルを持つ音声の場合に判別誤りが増加す
るという課題がある。The conventional voiced / unvoiced sound discriminating apparatus (speech discriminating apparatus) is configured as described above, and since only the sum of the low-order terms of the cepstrum is used as the discriminating parameter, the discriminating parameter is When the value is close to the discrimination threshold, there are many discrimination errors, and when a discrimination threshold for discriminating voiced and unvoiced sounds is set, the discrimination error increases when the speech has a noise level different from the background noise level assumed. There are issues.
【0007】本発明は上記のような課題を解決するため
になされたもので、背景雑音レベルの高低に依存せず判
別誤りが少ない有声音・無声音判別装置(音声判別装
置)及びその判別方法を得ることを目的としている。SUMMARY OF THE INVENTION The present invention has been made to solve the above-described problems, and an object of the present invention is to provide a voiced / unvoiced sound discriminating apparatus (speech discriminating apparatus) which does not depend on the level of the background noise level and has few discrimination errors, and a discriminating method thereof. The purpose is to get.
【0008】[0008]
【課題を解決するための手段】この発明に係る音声判別
装置は、入力音声フレームを複数個のサブフレームに分
割し、入力音声パワーと雑音パワーの比較に基づいて雑
音レベルをサブフレーム毎に求める雑音レベル判定手段
と、サブフレーム毎に求められた雑音レベルを入力し、
サブフレーム毎に、音声区間を検出するための閾値を求
める閾値算出手段と、サブフレーム毎に求められた各閾
値を用いて、入力音声フレームが音声区間であるか否か
の決定を行う照合手段とを備えたことを特徴とする。A speech discriminating apparatus according to the present invention divides an input speech frame into a plurality of subframes, and obtains a noise level for each subframe based on a comparison between the input speech power and the noise power. Noise level determination means and a noise level determined for each subframe are input,
Threshold calculation means for determining a threshold for detecting a voice section for each subframe, and matching means for determining whether an input voice frame is a voice section using each threshold obtained for each subframe And characterized in that:
【0009】上記雑音レベル判定手段は、2値化した雑
音レベルを出力し、上記閾値算出手段は、この2値判定
の各値に対応する2つの定数を予め記憶しておき、上記
2つの定数の中から2値化した雑音レベルの値に対応す
る定数を選択し、選択した定数を用いて閾値を算出する
ことを特徴とする。The noise level determination means outputs a binarized noise level, and the threshold value calculation means stores two constants corresponding to each value of the binary determination in advance, and stores the two constants. , A constant corresponding to the binarized noise level value is selected, and a threshold value is calculated using the selected constant.
【0010】上記雑音レベル判定手段は、3以上の多値
化した雑音レベルを出力し、上記閾値算出手段は、この
多値判定の各値に対応する複数の定数を予め記憶してお
き、上記複数の定数の中から多値化した雑音レベルの値
に対応する定数を選択し、選択した定数を用いて閾値を
算出することを特徴とする。The noise level judging means outputs three or more multi-valued noise levels, and the threshold value calculating means previously stores a plurality of constants corresponding to each value of the multi-value judgment. A constant corresponding to the multilevel noise level value is selected from a plurality of constants, and a threshold value is calculated using the selected constant.
【0011】この発明に係る音声判別方法は、入力音声
フレームを複数個のサブフレームに分割し、入力音声パ
ワーと雑音パワーの比較に基づいて雑音レベルをサブフ
レーム毎に求める雑音レベル判定工程と、サブフレーム
毎に求められた雑音レベルを入力し、サブフレーム毎
に、音声区間を検出するための閾値を求める閾値算出工
程と、サブフレーム毎に求められた各閾値を用いて、入
力音声フレームが音声区間であるか否かの決定を行う照
合工程とを備えたことを特徴とする。[0011] A speech discriminating method according to the present invention includes: a noise level discriminating step of dividing an input speech frame into a plurality of subframes and obtaining a noise level for each subframe based on a comparison between the input speech power and the noise power; By inputting the noise level obtained for each sub-frame, and for each sub-frame, a threshold calculation step of obtaining a threshold for detecting a voice section, and using each threshold obtained for each sub-frame, A collation step of determining whether or not the section is a voice section.
【0012】上記雑音レベル判定工程は、2値化した雑
音レベルを出力し、上記閾値算出工程は、この2値判定
の各値に対応する2つの定数を予め記憶しておき、上記
2つの定数の中から2値化した雑音レベルの値に対応す
る定数を選択し、選択した定数を用いて閾値を算出する
ことを特徴とする。The noise level determination step outputs a binarized noise level. The threshold value calculation step stores two constants corresponding to each value of the binary determination in advance, and stores the two constants. , A constant corresponding to the binarized noise level value is selected, and a threshold value is calculated using the selected constant.
【0013】上記雑音レベル判定工程は、3以上の多値
化した雑音レベルを出力し、上記閾値算出工程は、この
多値判定の各値に対応する複数の定数を予め記憶してお
き、上記複数の定数の中から多値化した雑音レベルの値
に対応する定数を選択し、選択した定数を用いて閾値を
算出することを特徴とする。The noise level determining step outputs a multi-valued noise level of 3 or more, and the threshold value calculating step stores a plurality of constants corresponding to each value of the multi-level determination in advance. A constant corresponding to the multilevel noise level value is selected from a plurality of constants, and a threshold value is calculated using the selected constant.
【0014】[0014]
【作用】この発明の以下に述べる実施例では、音声信号
の有声音、無声音の判別をする有声音・無声音判別装置
(音声判別装置)において、入力音声フレームを分析し
て得る判別パラメータの値に基づいて、有声音、無声
音、無音を判別する判別条件を複数の異なる判別条件の
中から選択し、さらに、上記の選択した判別条件に従っ
て、パワー、正規化自己相関のピーク値、零交差数、第
1次の線形予測係数、過去の音声フレームの判別結果、
ケプストラムの低次項の中から少なくとも一つを判別パ
ラメータとして用い、所定の閾値と照合して、上記有声
音、無声音、無音の判別結果を出力する照合手段が動作
することにより、有声音、無声音、無音判別の判別誤り
を少なくすることができる。In the following embodiment of the present invention, in a voiced / unvoiced sound discriminating apparatus (speech discriminating apparatus) for discriminating voiced sound and unvoiced sound of a voice signal, a discrimination parameter value obtained by analyzing an input voice frame is determined. Based on the voiced sound, unvoiced sound, and a plurality of different discriminating conditions for discriminating between noisy conditions, a power, a normalized autocorrelation peak value, a number of zero crossings, First-order linear prediction coefficients, the result of discriminating past speech frames,
By using at least one of the lower-order terms of the cepstrum as a discrimination parameter, collating with a predetermined threshold, and performing the above-mentioned voiced sound, unvoiced sound, and a collation unit that outputs a result of the discrimination between voiced, voiced sound, unvoiced sound, It is possible to reduce the erroneous determination of the silent determination.
【0015】この発明の以下に述べる実施例では、音声
信号の有声音、無声音の判別をする有声音・無声音判別
装置(音声判別装置)において、入力音声フレームを分
析して得る判別パラメータを有声音、無声音、無音判別
の判別条件と照合し、いずれかの区分に入る場合は有声
音、無声音、または無音を判別結果として出力し、いず
れの区分にも確実に入らぬ場合、有声音的特徴を有する
ときは準有声音として、無音的特徴を有するときは準無
音として判別結果を出力するよう照合手段が動作するこ
とにより、有声音、無声音、または無音の他に中間的な
準有声音、準無音を判別結果として出力することができ
る。In an embodiment described below of the present invention, in a voiced / unvoiced sound discriminating apparatus (speech discriminating apparatus) for discriminating between a voiced sound and an unvoiced sound of a voice signal, a discrimination parameter obtained by analyzing an input voice frame is a voiced sound. , Unvoiced sound, collate with the discrimination conditions of discrimination, and output voiced sound, unvoiced sound, or no sound as a discrimination result if it falls into any of the categories, and if it does not fall into any of the categories, voiced sound characteristics The matching means operates to output a determination result as a quasi-voiced sound when it has a sound, and as a quasi-silent when it has a silent feature, so that an intermediate quasi-voiced sound, a quasi-voiced sound, Silence can be output as a determination result.
【0016】この発明の以下に述べる実施例では、音声
信号の有声音、無声音の判別をする有声音・無声音判別
装置(音声判別装置)において、入力音声フレームの背
景雑音レベルを求め雑音レベルとして出力するよう雑音
レベル判定手段が動作することにより、上記の雑音レベ
ルの値により、有声音、無声音、無音を判別する判別条
件を複数の異なる判別条件の中から選択し、入力音声の
フレームを分析して得られた判別パラメータと所定の閾
値とを照合して有声音、無声音、無音判別を行うよう照
合手段が動作することにより、雑音レベルの値により、
有声音、無声音、無音判別の閾値を変化させることがで
きる。In an embodiment described below of the present invention, in a voiced / unvoiced sound discriminating apparatus (speech discriminating apparatus) for discriminating voiced sound and unvoiced sound of a voice signal, a background noise level of an input voice frame is obtained and output as a noise level. The noise level determining means operates to select a voiced sound, an unvoiced sound, or a non-voiced discriminating condition from a plurality of different discriminating conditions based on the value of the noise level, and analyze a frame of the input voice. Voiced sound, unvoiced sound, by operating the matching means to perform a silent determination by comparing the obtained determination parameter and a predetermined threshold, by the value of the noise level,
The threshold for voiced sound, unvoiced sound, and silence discrimination can be changed.
【0017】この発明の以下に述べる実施例では、雑音
レベル判定手段が、入力音声フレームと過去の音声フレ
ームの、判別結果、パワー、正規化自己相関のピーク値
の中から少なくとも一つを判別パラメータとして用い、
所定の閾値と照合することにより、入力音声フレームと
過去の音声フレームについて有声音区間と無音区間に該
当する区間を決定し、上記の有声音区間と無音区間のパ
ワーの平均を算出して、それぞれ有声音平均パワーと無
音平均パワーとし、上記の有声音平均パワーと上記無音
平均パワーとを比較することにより、雑音レベルの高低
を判定し出力することができる。In an embodiment described below of the present invention, the noise level determining means determines at least one of a discrimination result, power, and a peak value of normalized autocorrelation between an input speech frame and a past speech frame as a discrimination parameter. Used as
By comparing with a predetermined threshold, a section corresponding to a voiced section and a silent section is determined for the input voice frame and the past voice frame, and the average of the power of the voiced section and the silent section is calculated, and By comparing the voiced sound average power and the silent average power as the voiced sound average power and the silent average power, the noise level can be determined and output.
【0018】この発明の以下に述べる実施例では、雑音
レベル判定手段が、過去の音声フレームの平均パワーよ
り入力音声のフレームのパワーが大きいフレームのパワ
ーの平均を入力音声のフレーム毎に更新しながら算出し
て有声音平均パワーとし、且つ、過去の音声フレームの
平均パワーより入力音声のフレームのパワーが小さいフ
レームのパワーの平均を入力音声のフレーム毎に更新し
ながら算出して無音平均パワーとして、上記有声音平均
パワーと上記無音平均パワーとを比較することにより、
雑音レベルの高低を判定し出力することができる。In the embodiment described below of the present invention, the noise level determining means updates the average of the power of the frame of the input voice larger than the average power of the past voice frame for each frame of the input voice. Calculated as voiced sound average power, and calculated while updating the average power of frames of input voice frames smaller than the average power of past voice frames for each frame of input voice as silent average power, By comparing the voiced sound average power and the silent average power,
The level of the noise level can be determined and output.
【0019】[0019]
【実施例】実施例1.図1は本発明に係わる有声音・無
声音判別装置(音声判別装置)及びその判別方法の実施
例1を示す構成ブロック図である。図1において、1は
入力音声のフレームを分析して得る判別パラメータとし
てのパワー、2は正規化自己相関のピーク値、3は零交
差数、4は第1次の線形予測係数、5は雑音レベル判定
手段、6は雑音レベル、7は無音平均パワー、8は有声
音平均パワー、9は閾値算出手段、10はパワー判別閾
値、11は照合手段、12は判別結果、13はレジス
タ、14は過去の音声フレームのパワー、15は過去の
音声フレームの正規化自己相関ピーク値、16は過去の
音声フレームの判別結果、17はケプストラムの低次項
である。[Embodiment 1] FIG. 1 is a configuration block diagram showing a voiced / unvoiced sound discriminating apparatus (speech discriminating apparatus) and a discriminating method according to a first embodiment of the present invention. In FIG. 1, 1 is power as a discrimination parameter obtained by analyzing a frame of an input voice, 2 is a peak value of normalized autocorrelation, 3 is the number of zero crossings, 4 is a first-order linear prediction coefficient, and 5 is noise. Level determining means, 6 is noise level, 7 is silent average power, 8 is voiced sound average power, 9 is threshold calculating means, 10 is power determination threshold, 11 is matching means, 12 is determination result, 13 is register, 14 is The power of the past speech frame, 15 is the normalized autocorrelation peak value of the past speech frame, 16 is the result of the discrimination of the past speech frame, and 17 is the lower order term of the cepstrum.
【0020】以下、図1の有声音・無声音判別装置(音
声判別装置)及びその判別方法の動作について図を参照
して説明する。 先ず、雑音レベル判定手段5では、入
力音声のフレームの正規化自己相関ピーク値2と、レジ
スタ13に格納されている過去の正規化自己相関ピーク
値15と、過去の音声フレームの判別結果16に対して
予め設定している無音区間の判別条件(例えば、10フ
レーム連続で正規化自己相関ピーク値2が所定の閾値P1
を下回り、かつ無音と判別されている)を満足する区間
の平均パワーを、入力音声のフレームのパワー1と過去
の音声フレームのパワー14とより求め、無音平均パワ
ー7として出力する。一方、有声音区間の判別条件(例
えば、5フレーム連続で正規化自己相関のピーク値が所
定の閾値P2以上である)を満足する区間の平均パワー
有声音区間の判別条件を、入力音声のフレームのパワー
1と過去の音声フレームのパワー14とより求め、有声
音平均パワー8として出力する。上記の無音平均パワー
7と上記の有声音平均パワー8との差が、所定の閾値D1
より小さい場合は、雑音レベルが高いと判定し、雑音レ
ベル判定手段5の出力である雑音レベル6として“1”
を出力し、一方、上記所定の閾値D1より大きい場合
は、雑音レベルが低いと判定し、雑音レベル判定手段5
の出力である雑音レベル6として“0”を出力する。The operation of the voiced / unvoiced sound discriminating apparatus (speech discriminating apparatus) shown in FIG. 1 and the operation of the discriminating method will be described below with reference to the drawings. First, the noise level determination means 5 calculates the normalized auto-correlation peak value 2 of the frame of the input voice, the past normalized auto-correlation peak value 15 stored in the register 13, and the determination result 16 of the past voice frame. On the other hand, a predetermined condition for determining a silent section (for example, the normalized autocorrelation peak value 2 is set to a predetermined threshold P1 for 10 consecutive frames)
Is determined from the power 1 of the input speech frame and the power 14 of the past speech frame, and is output as the silence average power 7. On the other hand, the condition for determining the average power voiced sound section of the section satisfying the voiced sound section determination condition (for example, the peak value of the normalized autocorrelation is equal to or greater than the predetermined threshold value P2 for five consecutive frames) is defined as the input voice frame. , And the power 14 of the past speech frame, and outputs as the voiced sound average power 8. The difference between the silent average power 7 and the voiced average power 8 is equal to a predetermined threshold D1.
If it is smaller, it is determined that the noise level is high, and the noise level 6 output from the noise level determination means 5 is “1”.
If the noise level is larger than the predetermined threshold value D1, it is determined that the noise level is low.
"0" is output as the noise level 6 which is the output of.
【0021】次に、閾値算出手段9では、入力された雑
音レベル6が“0”の場合は式(1)により、“1”の
場合を式(2)により、雑音レベル判定手段5から入力
された無音平均パワー7をPUV、有声音平均パワー8
をPVとして、上記入力音声のフレームのパワーの判別
閾値を決定し、式(1)および式(2)に示す閾値算出
手段9の出力であるパワー判別閾値10を照合手段11
に送出する。Next, in the threshold value calculating means 9, when the input noise level 6 is “0”, the noise level is input from the noise level determining means 5 according to equation (1). Averaged silent power 7 is PUV, voiced average power 8
Is used as the PV, a threshold for determining the power of the frame of the input voice is determined, and the power determination threshold 10 output from the threshold calculator 9 shown in the equations (1) and (2) is compared with the comparator 11.
To send to.
【0022】[0022]
【数1】 (Equation 1)
【0023】但し、TH1,TH2,TH3はパワーの
判別閾値、PUVは無音平均パワー、PVは有声音平均
パワーを表す。Here, TH1, TH2, and TH3 are power determination thresholds, PUV is a silent average power, and PV is a voiced average power.
【0024】次に、照合手段11では、入力音声フレー
ムのパワー1、正規化自己相関のピーク値2、零交差数
3、第1次の線形予測係数4、ケプストラムの低次項の
和17、雑音レベル判定手段5からの雑音レベル6、閾
値算出手段9からのパワー判別閾値10、レジスタ13
からの過去の音声フレームの判別結果16を、入力と
し、例えば、先ず、下記のaもしくは、b〜eの区分の
いずれかを選択する。aの場合、即ち判別条件の式
(3)のいずれかの論理積を満足する場合は無声音と判
別して判別結果12を出力する。b〜eの場合、b〜e
の区分のいずれの区分を選択するかは、閾値算出手段9
からのパワー判別閾値10であるTHの値と、入力音声
フレームのパワー1であるPOWの値の大小関係により
決める。以上において、aは無声音と判別できる場合、
bは有声音の確率が高い場合、cは有声音の確率がやや
高い場合、dは無音の確率がやや高い場合、eは無音の
確率が高い場合に相当する。Next, the collating means 11 outputs the power 1 of the input speech frame, the peak value 2 of the normalized autocorrelation, the number of zero crossings 3, the first-order linear prediction coefficient 4, the sum 17 of the low-order terms of the cepstrum, the noise Noise level 6 from level determination means 5, power determination threshold value 10 from threshold value calculation means 9, register 13
As an input, the determination result 16 of the past speech frame from is input. For example, first, any of the following categories a or b to e is selected. In the case of a, that is, when any of the logical products of the equation (3) of the determination condition is satisfied, the voice signal is determined to be unvoiced and the determination result 12 is output. In the case of b to e, be to e
Which of the sections is selected is determined by the threshold value calculating means 9.
Is determined based on the magnitude relationship between the value of TH, which is the power discrimination threshold value 10, and the value of POW, which is power 1 of the input speech frame. In the above, when a can be determined to be unvoiced,
b corresponds to a case where the probability of a voiced sound is high, c corresponds to a case where the probability of a voiced sound is slightly high, d corresponds to a case where the probability of silence is slightly high, and e corresponds to a case where the probability of silence is high.
【0025】次に、上記のb〜eの区分のいずれの区分
を選択したかにより、それぞれ図2,図3,図4,図5
の判別フローに従い、有声音、準有声音、準無音、無音
のいずれかを判別し、判別結果12を出力する。なお、
a〜eの区分において、有声音、無声音、無音と判別で
きる判別条件はそれぞれ異なっているため、判別条件は
それぞれの区分において個別的に設定する必要が有り、
この判別条件は実験的に決定している。ここで、準有声
音とは有声音と判別される条件のいくつかが欠けている
場合を指し、また準無音とは無音と判別される条件のい
くつかが欠けている場合を指すものと定義する。Next, FIG. 2, FIG. 3, FIG. 4, FIG.
According to the determination flow, any of voiced sound, semi-voiced sound, semi-silent sound, and silent sound is determined, and a determination result 12 is output. In addition,
In the categories a to e, the discriminating conditions that can be distinguished from voiced sound, unvoiced sound, and no sound are different from each other. Therefore, the discriminating conditions need to be set individually in each section.
This determination condition is experimentally determined. Here, quasi-voiced sound is defined as the case where some of the conditions that are determined to be voiced are missing, and quasi-silent is defined as the case where some of the conditions that are determined to be silent are missing. I do.
【0026】[0026]
【数2】 (Equation 2)
【0027】 b:POW>TH1の場合、図2により判別する。 c:TH1≧POW>TH2の場合、図3により判別す
る。 d:TH2≧POW>TH3の場合、図4により判別す
る。 e:POW≦TH3の場合、図5により判別する。 但し、上記のa区分の判別式、b〜e区分の図2,3,
4,5において、TH1,TH2,TH3はパワー判別
閾値10(但し、TH1>TH2>TH3)、PUVは
無音平均パワー7、PVは有声音平均パワー8、POW
はパワー1、ACは正規化自己相関のピーク値2、Cは
ケプストラムの低次項の和17、CMINはケプストラ
ムの低次項の和の判別閾値、Zは零交差数3、A1は第
1次の線形予測係数4、NLは雑音レベル6、VOは過
去の音声フレームの判別結果16、T1,T11,T12,T2,T21,
T22,T23,T24,T3,T31,T32,T33,T34,T4,T41,T42,T43,T44
は全て固定閾値を表す。B: When POW> TH1, the determination is made according to FIG. c: When TH1 ≧ POW> TH2, the determination is made according to FIG. d: When TH2 ≧ POW> TH3, the determination is made according to FIG. e: In the case of POW ≦ TH3, determination is made according to FIG. However, the discriminant of the above-mentioned section a, FIGS.
In 4 and 5, TH1, TH2, and TH3 are power discrimination thresholds 10 (however, TH1>TH2> TH3), PUV is silent average power 7, PV is voiced average power 8, POW.
Is the power 1, AC is the peak value 2 of the normalized autocorrelation, C is the sum 17 of the low-order terms of the cepstrum, CMIN is the determination threshold of the sum of the low-order terms of the cepstrum, Z is the number of zero crossings 3, and A1 is the first order. Linear prediction coefficient 4, NL: noise level 6, VO: past speech frame discrimination result 16, T1, T11, T12, T2, T21,
T22, T23, T24, T3, T31, T32, T33, T34, T4, T41, T42, T43, T44
All represent fixed thresholds.
【0028】次に、レジスタ13では、入力音声のフレ
ームのパワー1、正規化自己相関のピーク値2、蓄積さ
れた過去の10フレームのパワー、正規化自己相関ピー
ク値、照合手段の判別結果を更新する。Next, the register 13 stores the power 1 of the input speech frame, the peak value 2 of the normalized autocorrelation, the accumulated power of the past 10 frames, the normalized autocorrelation peak value, and the result of the discrimination by the matching means. Update.
【0029】実施例2.実施例1では、無音平均パワー
と有声音平均パワーによりパワーの判別閾値を決定して
いるが、過去の音声フレームのパワーの最大値よりパワ
ー判別閾値を、例えば、式(4)によって決定すること
も可能である。Embodiment 2 FIG. In the first embodiment, the power determination threshold value is determined based on the silent average power and the voiced average power. However, the power determination threshold value is determined based on, for example, Expression (4) from the maximum value of the power of the past voice frame. Is also possible.
【0030】[0030]
【数3】 (Equation 3)
【0031】但し、式(4)において、TH1,TH
2,TH3はパワーの判別閾値、Pmax は例えば、過去
30フレームにおけるパワーの最大値を表す。また、過
去の音声フレームにおけるパワーの最大値を用い、無音
平均パワーと有声音平均パワーより求められたパワー判
別閾値を補正する、または有声音、無声音、無音の判別
結果を補正することも可能である。However, in the equation (4), TH1, TH
2, TH3 are power determination thresholds, and Pmax is, for example, the maximum value of power in the past 30 frames. It is also possible to use the maximum value of the power in the past voice frame to correct the power discrimination threshold calculated from the average unvoiced power and the average voiced voice power, or to correct the voiced, unvoiced, and non-voiced discrimination results. is there.
【0032】実施例3.実施例1では、図2に従い正規
化自己相関関数のピーク値、過去の音声フレームの判別
結果、雑音レベルによって無音判別をしているが、例え
ばケプストラム係数の低次項を用いて過去に無音と判別
されたフレームのスペクトル概形を求め、このスペクト
ル概形と入力音声のフレームのスペクトルの距離とによ
り無音判別を行うことも可能である。Embodiment 3 FIG. In the first embodiment, silence is determined based on the peak value of the normalized auto-correlation function, the determination result of the past speech frame, and the noise level according to FIG. 2. For example, it is determined that no sound has occurred in the past by using a low-order term of the cepstrum coefficient. It is also possible to obtain a spectrum outline of the obtained frame and determine silence based on the spectrum outline and the distance of the spectrum of the frame of the input voice.
【0033】実施例4.実施例1では、入力音声のフレ
ーム毎に分析して得られる判別パラメータを用いて判別
をしているが、入力音声のフレームを複数個のサブフレ
ームに分割し、サブフレーム毎に分析して得られるパラ
メータを用いて判別を行う、または判別結果を補正する
ことも可能である。Embodiment 4 FIG. In the first embodiment, the discrimination is performed using the discrimination parameters obtained by analyzing each frame of the input voice. However, the frame of the input voice is divided into a plurality of subframes, and the analysis is performed for each subframe. It is also possible to make a determination using the parameters obtained or to correct the result of the determination.
【0034】実施例5.実施例1では、判別条件の区分
をするのに判別パラメータとして入力音声のフレームの
パワーを用いているが、ケプストラムの低次項の和を用
いることも可能である。Embodiment 5 FIG. In the first embodiment, the power of the frame of the input speech is used as the discrimination parameter to classify the discrimination conditions. However, the sum of the low-order terms of the cepstrum may be used.
【0035】実施例6.実施例1では、雑音レベルを2
値判別しているが、これを多値または連続的な数値とす
ることも可能である。Embodiment 6 FIG. In the first embodiment, the noise level is set to 2
Although the value is determined, it can be a multi-valued or continuous numerical value.
【0036】実施例7.実施例1において、フレーム内
最大振幅値を判別パラメータに含めることも可能であ
る。Embodiment 7 FIG. In the first embodiment, the maximum amplitude value in the frame can be included in the determination parameter.
【0037】[0037]
【発明の効果】以上のようにこの発明によれば、入力音
声のフレームを分析して得る判別パラメータの判別閾値
近辺においても、判別誤りが少なく、また、背景雑音レ
ベルの高低に依存せず、判別誤りが少ない有声音・無声
音判別装置(音声判別装置)及びその判別方法を得るこ
とができる。また、有声音的な特徴と無声音的な特徴を
合わせ持つ中間的な状態の音声フレームも判別できる有
声音・無声音判別装置(音声判別装置)及びその判別方
法を得ることができる。As described above, according to the present invention, there is little discrimination error near the discrimination threshold of a discrimination parameter obtained by analyzing a frame of an input voice, and it does not depend on the background noise level. A voiced / unvoiced sound discriminating device (speech discriminating device) with few discrimination errors and a discriminating method thereof can be obtained. Further, it is possible to obtain a voiced / unvoiced sound discriminating apparatus (speech discriminating apparatus) capable of discriminating a voice frame in an intermediate state having both voiced and unvoiced features, and a discriminating method thereof.
【図1】 本発明の実施例1を示す有声音・無声音判別
装置(音声判別装置)の構成ブロック図である。FIG. 1 is a configuration block diagram of a voiced / unvoiced sound discriminating apparatus (speech discriminating apparatus) according to a first embodiment of the present invention.
【図2】 図1の有声音・無声音判別装置(音声判別装
置)の判別条件を例示する図である。FIG. 2 is a diagram exemplifying discrimination conditions of a voiced / unvoiced sound discriminating apparatus (speech discriminating apparatus) in FIG. 1;
【図3】 図1の有声音・無声音判別装置(音声判別装
置)の判別条件を例示する図である。FIG. 3 is a diagram exemplifying discrimination conditions of a voiced / unvoiced sound discriminating apparatus (speech discriminating apparatus) in FIG. 1;
【図4】 図1の有声音・無声音判別装置(音声判別装
置)の判別条件を例示する図である。FIG. 4 is a diagram exemplifying discrimination conditions of a voiced / unvoiced sound discriminating apparatus (speech discriminating apparatus) of FIG. 1;
【図5】 図1の有声音・無声音判別装置(音声判別装
置)の判別条件を例示する図である。FIG. 5 is a diagram exemplifying discrimination conditions of a voiced / unvoiced sound discriminating apparatus (speech discriminating apparatus) in FIG. 1;
【図6】 従来の有声音・無声音判別装置(音声判別装
置)を示す構成図である。FIG. 6 is a configuration diagram showing a conventional voiced / unvoiced sound discriminating apparatus (speech discriminating apparatus).
【図7】 図6の有声音・無声音判別装置(音声判別装
置)の判別パラメータの分布を示す図である。FIG. 7 is a diagram showing distribution of discrimination parameters of the voiced / unvoiced sound discrimination device (speech discrimination device) of FIG. 6;
1 入力音声のフレームのパワー、2 正規化自己相関
のピーク値、3 零交差数、4 第1次の線形予測係
数、5 雑音レベル判定手段、6 雑音レベル、7 無
音平均パワー、8 有声音平均パワー、9 閾値算出手
段、10 パワー判別閾値、11 照合手段、12 判
別結果、13 レジスタ、14 過去の音声フレームの
パワー、15 過去の音声フレームの正規化自己相関ピ
ーク値、16 過去の音声フレームの判別結果、17
ケプストラムの低次項、18 ケプストラム、19 加
算回路、20 判別パラメータ、21 閾値比較回路、
2判別結果。1 Input speech frame power, 2 Peak value of normalized autocorrelation, 3 Zero crossing number, 4th linear prediction coefficient, 5 Noise level judgment means, 6 Noise level, 7 Silent average power, 8 Voiced sound average Power, 9 threshold calculating means, 10 power discriminating threshold, 11 matching means, 12 discrimination result, 13 register, 14 power of past speech frame, 15 normalized autocorrelation peak value of past speech frame, 16 past speech frame Determination result, 17
Low order term of cepstrum, 18 cepstrum, 19 addition circuit, 20 discrimination parameter, 21 threshold value comparison circuit,
2 Determination result.
Claims (6)
ムに分割し、入力音声パワーと雑音パワーの比較に基づ
いて雑音レベルをサブフレーム毎に求める雑音レベル判
定手段と、 サブフレーム毎に求められた雑音レベルを入力し、サブ
フレーム毎に、音声区間を検出するための閾値を求める
閾値算出手段と、 サブフレーム毎に求められた各閾値を用いて、入力音声
フレームが音声区間であるか否かの決定を行う照合手段
とを備えたことを特徴とする音声判別装置。An input speech frame is divided into a plurality of subframes, and a noise level determining means for obtaining a noise level for each subframe based on a comparison between the input speech power and the noise power; A threshold level calculating means for inputting a noise level and determining a threshold for detecting a voice section for each sub-frame; and using each threshold determined for each sub-frame to determine whether or not the input voice frame is a voice section. A voice discriminating device, comprising: a matching unit for determining
雑音レベルを出力し、 上記閾値算出手段は、この2値判定の各値に対応する2
つの定数を予め記憶しておき、上記2つの定数の中から
2値化した雑音レベルの値に対応する定数を選択し、選
択した定数を用いて閾値を算出することを特徴とする請
求項1記載の音声判別装置。2. The noise level judging means outputs a binarized noise level, and the threshold value calculating means outputs a binarized noise level corresponding to each value of the binary judgment.
2. A method according to claim 1, wherein two constants are stored in advance, a constant corresponding to a binarized noise level value is selected from the two constants, and a threshold value is calculated using the selected constant. The voice discriminating apparatus described in the above.
値化した雑音レベルを出力し、 上記閾値算出手段は、この多値判定の各値に対応する複
数の定数を予め記憶しておき、上記複数の定数の中から
多値化した雑音レベルの値に対応する定数を選択し、選
択した定数を用いて閾値を算出することを特徴とする請
求項1記載の音声判別装置。3. The noise level judging means outputs three or more multi-valued noise levels, and the threshold value calculating means stores a plurality of constants corresponding to each value of the multi-value judgment in advance. 2. The speech discriminating apparatus according to claim 1, wherein a constant corresponding to the multilevel noise level value is selected from the plurality of constants, and a threshold value is calculated using the selected constant.
ムに分割し、入力音声パワーと雑音パワーの比較に基づ
いて雑音レベルをサブフレーム毎に求める雑音レベル判
定工程と、 サブフレーム毎に求められた雑音レベルを入力し、サブ
フレーム毎に、音声区間を検出するための閾値を求める
閾値算出工程と、 サブフレーム毎に求められた各閾値を用いて、入力音声
フレームが音声区間であるか否かの決定を行う照合工程
とを備えたことを特徴とする音声判別方法。4. A noise level determining step of dividing an input voice frame into a plurality of subframes and determining a noise level for each subframe based on a comparison between the input voice power and the noise power; A threshold calculation step of inputting a noise level and calculating a threshold for detecting a voice section for each subframe; and using each threshold calculated for each subframe to determine whether an input voice frame is a voice section. And a collating step for determining the sound.
雑音レベルを出力し、 上記閾値算出工程は、この2値判定の各値に対応する2
つの定数を予め記憶しておき、上記2つの定数の中から
2値化した雑音レベルの値に対応する定数を選択し、選
択した定数を用いて閾値を算出することを特徴とする請
求項4記載の音声判別方法。5. The noise level determining step outputs a binarized noise level, and the threshold value calculating step includes a step of calculating a binary noise level corresponding to each value of the binary determination.
5. A method according to claim 4, wherein two constants are stored in advance, a constant corresponding to a binarized noise level value is selected from the two constants, and a threshold value is calculated using the selected constant. The described sound discrimination method.
値化した雑音レベルを出力し、 上記閾値算出工程は、この多値判定の各値に対応する複
数の定数を予め記憶しておき、上記複数の定数の中から
多値化した雑音レベルの値に対応する定数を選択し、選
択した定数を用いて閾値を算出することを特徴とする請
求項4記載の音声判別方法。6. The noise level determining step outputs a multi-level noise level of 3 or more, and the threshold calculating step stores a plurality of constants corresponding to each value of the multi-level determination in advance. 5. The voice discriminating method according to claim 4, wherein a constant corresponding to a multilevel noise level value is selected from the plurality of constants, and a threshold value is calculated using the selected constant.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000188987A JP3394506B2 (en) | 1993-08-17 | 2000-06-23 | Voice discrimination device and voice discrimination method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP20324893A JP3297156B2 (en) | 1993-08-17 | 1993-08-17 | Voice discrimination device |
JP2000188987A JP3394506B2 (en) | 1993-08-17 | 2000-06-23 | Voice discrimination device and voice discrimination method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP20324893A Division JP3297156B2 (en) | 1993-08-17 | 1993-08-17 | Voice discrimination device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001022368A true JP2001022368A (en) | 2001-01-26 |
JP3394506B2 JP3394506B2 (en) | 2003-04-07 |
Family
ID=26513820
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000188987A Expired - Lifetime JP3394506B2 (en) | 1993-08-17 | 2000-06-23 | Voice discrimination device and voice discrimination method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3394506B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009128496A (en) * | 2007-11-21 | 2009-06-11 | Nippon Telegr & Teleph Corp <Ntt> | Acoustic model generation device and method, and program and its recording medium |
JP2009198892A (en) * | 2008-02-22 | 2009-09-03 | Yamaha Corp | Sound processing device and program |
JP2011053427A (en) * | 2009-09-01 | 2011-03-17 | Nippon Telegr & Teleph Corp <Ntt> | Devoicing position-detecting device and method and segmentation device and method using the same, and program |
-
2000
- 2000-06-23 JP JP2000188987A patent/JP3394506B2/en not_active Expired - Lifetime
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009128496A (en) * | 2007-11-21 | 2009-06-11 | Nippon Telegr & Teleph Corp <Ntt> | Acoustic model generation device and method, and program and its recording medium |
JP2009198892A (en) * | 2008-02-22 | 2009-09-03 | Yamaha Corp | Sound processing device and program |
JP2011053427A (en) * | 2009-09-01 | 2011-03-17 | Nippon Telegr & Teleph Corp <Ntt> | Devoicing position-detecting device and method and segmentation device and method using the same, and program |
Also Published As
Publication number | Publication date |
---|---|
JP3394506B2 (en) | 2003-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9009048B2 (en) | Method, medium, and system detecting speech using energy levels of speech frames | |
EP2089877B1 (en) | Voice activity detection system and method | |
US6535850B1 (en) | Smart training and smart scoring in SD speech recognition system with user defined vocabulary | |
US11527259B2 (en) | Learning device, voice activity detector, and method for detecting voice activity | |
US7626110B2 (en) | Energy-based audio pattern recognition | |
US7563971B2 (en) | Energy-based audio pattern recognition with weighting of energy matches | |
KR101862982B1 (en) | Voiced/Unvoiced Decision Method Using Deep Neural Network for Linear Predictive Coding-10e Vocoder | |
JP3298858B2 (en) | Partition-based similarity method for low-complexity speech recognizers | |
JP3297156B2 (en) | Voice discrimination device | |
US6865529B2 (en) | Method of estimating the pitch of a speech signal using an average distance between peaks, use of the method, and a device adapted therefor | |
US8849662B2 (en) | Method and system for segmenting phonemes from voice signals | |
Jaiswal | Performance analysis of voice activity detector in presence of non-stationary noise | |
Yarra et al. | A mode-shape classification technique for robust speech rate estimation and syllable nuclei detection | |
JP2001022368A (en) | Speech discrimination device and method therefor | |
Ney | An optimization algorithm for determining the endpoints of isolated utterances | |
JP3328642B2 (en) | Voice discrimination device and voice discrimination method | |
JP2002258881A (en) | Device and program for detecting voice | |
JP2014092750A (en) | Acoustic model generating device, method for the same, and program | |
US20010029447A1 (en) | Method of estimating the pitch of a speech signal using previous estimates, use of the method, and a device adapted therefor | |
AU612737B2 (en) | A phoneme recognition system | |
JP5089651B2 (en) | Speech recognition device, acoustic model creation device, method thereof, program, and recording medium | |
JPH11133997A (en) | Equipment for determining presence or absence of sound | |
JP2006010739A (en) | Speech recognition device | |
Deshmukh et al. | A novel method for computation of periodicity, aperiodicity and pitch of speech signals | |
JPH0683384A (en) | Automatic detecting and identifying device for vocalization section of plural speakers in speech |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20030121 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080131 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090131 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100131 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100131 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110131 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120131 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120131 Year of fee payment: 9 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120131 Year of fee payment: 9 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130131 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130131 Year of fee payment: 10 |
|
EXPY | Cancellation because of completion of term |