JPH02205897A - 有音検出装置 - Google Patents
有音検出装置Info
- Publication number
- JPH02205897A JPH02205897A JP1025540A JP2554089A JPH02205897A JP H02205897 A JPH02205897 A JP H02205897A JP 1025540 A JP1025540 A JP 1025540A JP 2554089 A JP2554089 A JP 2554089A JP H02205897 A JPH02205897 A JP H02205897A
- Authority
- JP
- Japan
- Prior art keywords
- consonant
- detector
- vowel
- detection
- sound
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 claims abstract description 35
- 230000005236 sound signal Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 9
- 239000013598 vector Substances 0.000 description 8
- 238000000034 method Methods 0.000 description 7
- 238000005311 autocorrelation function Methods 0.000 description 5
- 238000010606 normalization Methods 0.000 description 5
- 238000001228 spectrum Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 206010019133 Hangover Diseases 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000491 multivariate analysis Methods 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Landscapes
- Data Exchanges In Wide-Area Networks (AREA)
- Time-Division Multiplex Systems (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
[発明の目的]
(産業上の利用分野)
本発明は、A T M (Asynchronous
Transfer)1ode)通信、D S I (D
lgltal 5peech Interplatio
n ) 、パケット通信等で、音声信号中の有音区間を
検出するために用いらたり、音声4宜等で音声の始端を
検出するための有音検出装置に関する。
Transfer)1ode)通信、D S I (D
lgltal 5peech Interplatio
n ) 、パケット通信等で、音声信号中の有音区間を
検出するために用いらたり、音声4宜等で音声の始端を
検出するための有音検出装置に関する。
(従来の技術)
従来の語頭検出器としては第7図に示すようなものがあ
る。
る。
音声信号分析器102は入力端子101に入力された音
声信号の電力、零交差数、自己相関関数、スペクトル等
の特徴パラメータを計算する。判定器103は音声信号
分析器102の出力をしきい値Taと比較し、語頭・無
音の判定を行う。
声信号の電力、零交差数、自己相関関数、スペクトル等
の特徴パラメータを計算する。判定器103は音声信号
分析器102の出力をしきい値Taと比較し、語頭・無
音の判定を行う。
判定器103で用いるしきい値は、予め語頭と背最雑音
の特徴パラメータの分布を測定し、その分布により語頭
と背策雑音が分離するように設定される。
の特徴パラメータの分布を測定し、その分布により語頭
と背策雑音が分離するように設定される。
このような語頭検出器では、音声信号分析器102で音
声信号の電力Pを特徴パラメータとして計算した場合、
判定器103では、しきい値Ta≦電力Pならば、語頭
、そうでなければ、無音と判定する。
声信号の電力Pを特徴パラメータとして計算した場合、
判定器103では、しきい値Ta≦電力Pならば、語頭
、そうでなければ、無音と判定する。
ところで一般に、子音は音声と異なり電力(パワー)が
小さく、しかも、子音の性質は破裂音、摩擦音、破擦音
等の子音の種類、また、同じ子音でも後続の母音によっ
て大きく異なる。そのため、音声全体の特徴の細部まで
表現できない特徴バラメータ(たとえば電力、零交差数
(ある一定時間内に信号の値が零となる回数)、自己相
関関数等)では、子音と背景雑音の境界があいまいとな
るため、識別が困難である。
小さく、しかも、子音の性質は破裂音、摩擦音、破擦音
等の子音の種類、また、同じ子音でも後続の母音によっ
て大きく異なる。そのため、音声全体の特徴の細部まで
表現できない特徴バラメータ(たとえば電力、零交差数
(ある一定時間内に信号の値が零となる回数)、自己相
関関数等)では、子音と背景雑音の境界があいまいとな
るため、識別が困難である。
また、子音の特徴を細部まで表現できるパラメータを用
いると、各子音によって特徴の現れ方が大きく異なるた
め、子音/雑音の判定を行うためには、各子音毎にマツ
チングをとる必要があり、子音/雑音の判定が複雑にな
る。
いると、各子音によって特徴の現れ方が大きく異なるた
め、子音/雑音の判定を行うためには、各子音毎にマツ
チングをとる必要があり、子音/雑音の判定が複雑にな
る。
そのため、有音検出を行うにあたり、子音部分の検出は
困難であり、子音の検出誤りが多く、音質の劣化の原因
になっていた。
困難であり、子音の検出誤りが多く、音質の劣化の原因
になっていた。
(発明が解決しようとする課題)
このように従来の有音検出では、子音の検出誤りが多く
、検出の精度が劣るという問題が有った。
、検出の精度が劣るという問題が有った。
本発明はこのような問題に鑑みてなされたもので、その
目的とするところは検出精度の高い有音検出装置を提供
することにある。
目的とするところは検出精度の高い有音検出装置を提供
することにある。
[発明の構成]
(課題を解決するための手段)
前記目的を達成するために本発明は、有音区間から子音
を検出する子音検出器と、前記有音区間から母音を検出
する母音検出器と、前記子音検出器と母音検出器の結果
を総合して、有音であるか無音であるかを判定する有音
無音判定器と、を具備することを特徴とする。
を検出する子音検出器と、前記有音区間から母音を検出
する母音検出器と、前記子音検出器と母音検出器の結果
を総合して、有音であるか無音であるかを判定する有音
無音判定器と、を具備することを特徴とする。
(作用)
本発明によれば、子音検出器で子音の特徴をよく捉える
ことができる特徴パラメータおよび子音検出に適した検
出アルゴリズムにより、子音を検出する。
ことができる特徴パラメータおよび子音検出に適した検
出アルゴリズムにより、子音を検出する。
また同様に、母音検出器で母音の特徴をよく捉ることか
できる特徴パラメータおよび母音検出に適した検出アル
ゴリズムにより、母音を検出することができる。なお、
母音はその電力、零交差数、自己相関関数、スペクトル
、線形予測係数等のどれをとっても、その特徴は捉え易
い。
できる特徴パラメータおよび母音検出に適した検出アル
ゴリズムにより、母音を検出することができる。なお、
母音はその電力、零交差数、自己相関関数、スペクトル
、線形予測係数等のどれをとっても、その特徴は捉え易
い。
その後、両者の検出結果を総合して、有音無音判定器で
有音、無音の判定を行う。
有音、無音の判定を行う。
そのため、検出の困難な子音を検出するための子音検出
器には、高精度な検出機能を、検出の比較的容易な母音
を検出するための母音検出器には、簡易な検出機能を備
えることにより、十分な性能を持ち、かつオーバースペ
ックにならない有音検出器を構成することができる。
器には、高精度な検出機能を、検出の比較的容易な母音
を検出するための母音検出器には、簡易な検出機能を備
えることにより、十分な性能を持ち、かつオーバースペ
ックにならない有音検出器を構成することができる。
(実施例)
以下図面にもとずいて本発明の一実施例を詳細に説明す
る。以下では、音声信号をフレーム単位に分析し、有音
・無音の判定を行っていく。たとえば、音声信号を8
K Hzでサンプリングし、160サンプルづつまとめ
て1フレームとする。但し、フレーム長は常に一定長で
ある必要はない。
る。以下では、音声信号をフレーム単位に分析し、有音
・無音の判定を行っていく。たとえば、音声信号を8
K Hzでサンプリングし、160サンプルづつまとめ
て1フレームとする。但し、フレーム長は常に一定長で
ある必要はない。
第1図は本発明の一実施例にかかる有音検出装置の構成
を示すブロック図であり、同図に示されるようにこの有
音検出装置は子音検出器2、母音検出器3、有音無音判
定器4からなる。なお、符号1は入力端子、符号5は出
力端子を表わす。
を示すブロック図であり、同図に示されるようにこの有
音検出装置は子音検出器2、母音検出器3、有音無音判
定器4からなる。なお、符号1は入力端子、符号5は出
力端子を表わす。
第2図は子音検出器2の構成を示すブロック図であり、
この子音検出器2は、特徴パラメータ計算器21、標準
パターンマツチング器22、変化量測定器24、子音判
定器25からなる。
この子音検出器2は、特徴パラメータ計算器21、標準
パターンマツチング器22、変化量測定器24、子音判
定器25からなる。
特徴パラメータ計算器21では、フレーム単位にDur
bln法等を用いて線形予測係数を計算する。
bln法等を用いて線形予測係数を計算する。
ここで、線形予測係数を変換して、PARCOR係数、
LPCケプストラム、メルケブストラム等を計算し、特
徴パラメータとしてもよい。また、電力、自己相関関数
、零交差数等も計算してもよいJ (その詳細はデジタ
ル音声処理、吉日、東海大学出版会を参照。) 標準パターンマツチング器22は、標準パターン作成部
とマツチング部とからなり、子音の標準パターンからの
距離を測定する。
LPCケプストラム、メルケブストラム等を計算し、特
徴パラメータとしてもよい。また、電力、自己相関関数
、零交差数等も計算してもよいJ (その詳細はデジタ
ル音声処理、吉日、東海大学出版会を参照。) 標準パターンマツチング器22は、標準パターン作成部
とマツチング部とからなり、子音の標準パターンからの
距離を測定する。
第3図は標準パターンマツチング器22の標準パターン
作成部を示すものである。
作成部を示すものである。
子音データ作成部26aは標準パターンを作成するため
に、予め子音データを作成する。これは音声信号のうち
、子音フレームのみを集めたものである。
に、予め子音データを作成する。これは音声信号のうち
、子音フレームのみを集めたものである。
その作成方法は、まず、複数の被験者に日本語の全ての
音韻を発音してもらい、それを録音する。
音韻を発音してもらい、それを録音する。
このとき必要に応じて、他の言語の音韻も付は加えてい
く。そのようにして録音された音声信号に対し、フレー
ム単位に、子音と雑音の区別をつけるためのラベルを付
けていく。ラベル付けは、音声信号の波形やスペクトル
をCRTに表示して、それを見ながらフレーム単位にラ
ベルを付けていく。
く。そのようにして録音された音声信号に対し、フレー
ム単位に、子音と雑音の区別をつけるためのラベルを付
けていく。ラベル付けは、音声信号の波形やスペクトル
をCRTに表示して、それを見ながらフレーム単位にラ
ベルを付けていく。
ラベル付けされた音声信号のうち、子音フレームのみを
集めたものを、子音データとする。その時の子音データ
の総フレーム数をNとする。
集めたものを、子音データとする。その時の子音データ
の総フレーム数をNとする。
このように作成した子音データの特徴パラメータを、特
徴パラメータ計算器21と同じ構成の特徴パラメータ計
算器26でフレーム単位に計算する。
徴パラメータ計算器21と同じ構成の特徴パラメータ計
算器26でフレーム単位に計算する。
主成分分析器27は特徴パラメータ計算器26より得ら
れた特徴パラメータより、子音データの特徴パラメータ
の固有値、固有ベクトル等を計算する。(主成分分析に
ついては、改訂版多変量解析、奥野、久米、芳賀、古注
、日科技遅出版を参照。) 主成分メモリ28は主成分分析器27により計算された
固有値、固有ベクトル等を、記憶する。
れた特徴パラメータより、子音データの特徴パラメータ
の固有値、固有ベクトル等を計算する。(主成分分析に
ついては、改訂版多変量解析、奥野、久米、芳賀、古注
、日科技遅出版を参照。) 主成分メモリ28は主成分分析器27により計算された
固有値、固有ベクトル等を、記憶する。
子音データの特徴パラメータの固有値、固有ベクトル等
を計算し、主成分メモリ28に記憶した後に、全てのフ
レームの特徴パラメータに対して以下の処理を行う。
を計算し、主成分メモリ28に記憶した後に、全てのフ
レームの特徴パラメータに対して以下の処理を行う。
特徴パラメータ計算器26により、もう−度特徴パラメ
ータを計算し、主成分メモリ28の固有ベクトルを座標
とする空間に座標変換器29で写像する。
ータを計算し、主成分メモリ28の固有ベクトルを座標
とする空間に座標変換器29で写像する。
その方法を以下に示す。
特徴パラメータCをp次のベクトルとする。
また、p個の主成分ベクトルEiを
E” (eit’ 12’ ”’ eip)とする
。主成分ベクトルの添字iは、固有値の大きなものから
、1.2、・・・と付けていくものとする。
。主成分ベクトルの添字iは、固有値の大きなものから
、1.2、・・・と付けていくものとする。
特徴パラメータCの各成分の平均値をMlとすると、平
均値を引いた特徴パラメータC′を以下のように計算す
る。
均値を引いた特徴パラメータC′を以下のように計算す
る。
C’ ” (C’ 1、C’ 2、・・・ C′ )=
((c −M )、(C−M2)、・・・(c
−M )) p 主成分ベクトルのうちE からEkを座標とす■ る空間に、写像された特徴パラメータをz−<z 、
z2、−zk)(1≦に≦p)■ とすると、zlは z −(E ・ C’ ) I となる。ここで、(X、Y)はベクトルXとベクトルY
の内積である。
((c −M )、(C−M2)、・・・(c
−M )) p 主成分ベクトルのうちE からEkを座標とす■ る空間に、写像された特徴パラメータをz−<z 、
z2、−zk)(1≦に≦p)■ とすると、zlは z −(E ・ C’ ) I となる。ここで、(X、Y)はベクトルXとベクトルY
の内積である。
このとき、kをpより小さくとることにより、p次元の
特徴パラメータCをに次元の特徴パラメータZに圧縮す
ることができる。
特徴パラメータCをに次元の特徴パラメータZに圧縮す
ることができる。
確率密度関数計算器30は座標変換器29により変換さ
れ特徴パラメータZの確率密度関数を計算する。
れ特徴パラメータZの確率密度関数を計算する。
その方法を以下に示す。
確率密度関数Prob (Z)(=Prob (zl、
z2、・・・、zk))を浮動小数点のに次元配列とす
る。その添字の範囲は1からMとする。
z2、・・・、zk))を浮動小数点のに次元配列とす
る。その添字の範囲は1からMとする。
固有値をλ 、λ 、・・・ λ とする。
12 p
l/2
q −1nt ((z /(3xλ ))X
(M/2))+(M/2) ここでInt()は、()の中の値の整数部分をとるも
のとする。
(M/2))+(M/2) ここでInt()は、()の中の値の整数部分をとるも
のとする。
もし、全てのq が1≦qI≦Mならば■
Prob(q %q2、・・・ qk)=P rob
(Q −Q2、− Qk) + 1■ 全ての子音データ11の各フレームに対し以上の処理が
終わった後、 Prob(Q sq2、・・・ qk)−Prob(
q SQ2、− qk)/N■ とすることで、確率密度関数Prob(Z)を計算でき
る。
(Q −Q2、− Qk) + 1■ 全ての子音データ11の各フレームに対し以上の処理が
終わった後、 Prob(Q sq2、・・・ qk)−Prob(
q SQ2、− qk)/N■ とすることで、確率密度関数Prob(Z)を計算でき
る。
第4図は標準パターンマツチング器22のマツチング部
の構成を示すブロック図である。
の構成を示すブロック図である。
座標変換器32は、特徴パラメータ計算器21により計
算された音声の特徴パラメータの座標変換を行う。その
方法は、座標変換器29と同じである。
算された音声の特徴パラメータの座標変換を行う。その
方法は、座標変換器29と同じである。
確率計算器33は座標変換器29により座標変換され特
徴パラメータの出現確率が計算される。
徴パラメータの出現確率が計算される。
すなわちこの確率計算器33は確率密度関数メモリ31
に記憶されているマツチングをとる対象となる子音の特
徴パラメータの確率密度関数と、主成分メモリ28に記
憶されている特徴パラメータの固有値より、確率計算器
で以下のように出現確率を計算する。
に記憶されているマツチングをとる対象となる子音の特
徴パラメータの確率密度関数と、主成分メモリ28に記
憶されている特徴パラメータの固有値より、確率計算器
で以下のように出現確率を計算する。
主成分ベクトルのうちElからEkを座標とする空間に
、写像された特徴パラメータをZ ”” (Z t S
Z 2 、”’ Z k) (1≦に≦p)固有値
をλ 、λ2、・・・ λ とする。
、写像された特徴パラメータをZ ”” (Z t S
Z 2 、”’ Z k) (1≦に≦p)固有値
をλ 、λ2、・・・ λ とする。
p
1/2
q −1nt((z /(3xλ ))x (
M/2))t t
i+(M/2) もし、全てのqt(1≦i≦k)が1≦ql≦Mならば
、 確率p (Z)−Prob (q 、q2、− q
t K) そうでなければ p (Z) =0 第5図は変化量nj定器24の構成を示すブロック図で
ある。
M/2))t t
i+(M/2) もし、全てのqt(1≦i≦k)が1≦ql≦Mならば
、 確率p (Z)−Prob (q 、q2、− q
t K) そうでなければ p (Z) =0 第5図は変化量nj定器24の構成を示すブロック図で
ある。
バッファ34は、バッファ34内で蓄積される順序関係
を保存するために、特徴パラメータがバッファに入力さ
れた順番で、バッファ34のヘッドからテイルに向かっ
て蓄積する。
を保存するために、特徴パラメータがバッファに入力さ
れた順番で、バッファ34のヘッドからテイルに向かっ
て蓄積する。
すなわち、一番新しい特徴パラメータ(現在判定すべき
フレームの特徴パラメータ)をバッファ34のヘッドに
、一番過去の特徴パラメータをテイルに蓄積する。
フレームの特徴パラメータ)をバッファ34のヘッドに
、一番過去の特徴パラメータをテイルに蓄積する。
正規化係数計算器36は、バッファ34に蓄積された特
徴パラメータのうち、現在判定すべきフレームのにフレ
ーム前(バッファのヘッドからにフレーム目)からバッ
ファ34のティルに向がってNフレーム分の特徴パラメ
ータを取出し、その平均・標準偏差等の正規化係数を計
算する。その方法を以下に示す。
徴パラメータのうち、現在判定すべきフレームのにフレ
ーム前(バッファのヘッドからにフレーム目)からバッ
ファ34のティルに向がってNフレーム分の特徴パラメ
ータを取出し、その平均・標準偏差等の正規化係数を計
算する。その方法を以下に示す。
現在判定すべきフレームのにフレーム前がら数えてnフ
レーム過去の特徴パラメータC(n)の1番目の要素を
C(n)1 各要素の平均値をMl 各要素の標準偏差をDI とすると、 Mi −(ΣC(n)I)/N DI −((Σ(C(n)I−Ml ) 2) /N”
2n=1 f−1、2、・・・P ロー112 、 ・・・N また、Dlを分散 Di −(1(C(n)1−Ml ) 2 )
/Nrl i−i 、 2 、・・・P n=1 、 2 、・・・N としでも、 Di −1 としでもよい。
レーム過去の特徴パラメータC(n)の1番目の要素を
C(n)1 各要素の平均値をMl 各要素の標準偏差をDI とすると、 Mi −(ΣC(n)I)/N DI −((Σ(C(n)I−Ml ) 2) /N”
2n=1 f−1、2、・・・P ロー112 、 ・・・N また、Dlを分散 Di −(1(C(n)1−Ml ) 2 )
/Nrl i−i 、 2 、・・・P n=1 、 2 、・・・N としでも、 Di −1 としでもよい。
正規化器35は、正規化係数計算器36で計算した正規
化係数Ml 、Diにより音声信号分析器の出力特徴パ
ラメータCを以下のように変換する。
化係数Ml 、Diにより音声信号分析器の出力特徴パ
ラメータCを以下のように変換する。
特徴パラメータCの要素をaxSciを正規化係数で変
換したものをC′1とすると C’ 1 膳 (CI −Ml ) /D1
1−1 .2 、 ・・・PC’ fはノルム計
算器37に出力する。
換したものをC′1とすると C’ 1 膳 (CI −Ml ) /D1
1−1 .2 、 ・・・PC’ fはノルム計
算器37に出力する。
ノルム計算器37は、ベクトルC′の
ノルムlIc’llを次のように計算する。
11c’11−(Σ(:′I 2 ) 172または、
11c’11−(Σ lc’ll)
このようにして得られたllc’llは、特徴パラメー
タのフレーム間変化量となる。また、ノルム計算器37
を用いず、変化量をC′というベクトルとしてもよい。
タのフレーム間変化量となる。また、ノルム計算器37
を用いず、変化量をC′というベクトルとしてもよい。
子音判定器25は、標準パターンマツチング器22と変
化量測定器24の出力より、子音の判定を行う。
化量測定器24の出力より、子音の判定を行う。
まず、標準パターンマツチング器22で得られた確率p
(Z)としきい値Tal、Ta2および変化量測定器
24で得られた変化ff1llc’l+としきい値Tr
i、Tr2により、 if p(Z)≧Talならば子音 1fllc’ll≧Tr2ならば子音 i f (Tal< p (Z)≦T a2)かつ
(T「1≦II C’ tl < Tr2)ならば子
音そのほかは、無音区間とする。
(Z)としきい値Tal、Ta2および変化量測定器
24で得られた変化ff1llc’l+としきい値Tr
i、Tr2により、 if p(Z)≧Talならば子音 1fllc’ll≧Tr2ならば子音 i f (Tal< p (Z)≦T a2)かつ
(T「1≦II C’ tl < Tr2)ならば子
音そのほかは、無音区間とする。
もし、子音ならば「1」、そうでなければ「0」を有音
無音判定器4に出力する。
無音判定器4に出力する。
第6図は母音検出器の構成を示すブロック図である。
母音検出器3は、電力測定器38で測定された電力を、
電力比較器39でしきい値と比較し、母音の検出を行う
。その方法を以下に示す。
電力比較器39でしきい値と比較し、母音の検出を行う
。その方法を以下に示す。
電力測定器38では、フレーム単位に、以下の式で電力
Pを11#1定する。
Pを11#1定する。
音声信号のサンプルをa(t)、1フレームのサンプル
数をNとすると、 P−Σ l a(t)I /N t Cframe P−Σa(t)2/ N t Cframc また、零交差数、自己相関関数、線形予測係数などのパ
ラメータを、電力に置換えたり、電力と併用してもよい
。
数をNとすると、 P−Σ l a(t)I /N t Cframe P−Σa(t)2/ N t Cframc また、零交差数、自己相関関数、線形予測係数などのパ
ラメータを、電力に置換えたり、電力と併用してもよい
。
電力比較器39では、予め与えられているしきい値Tと
電力測定器でn1定した電力Pと比較する・。
電力測定器でn1定した電力Pと比較する・。
もし、P≧Tならば母音と判定し「1」を有音無音判定
器に出力する。
器に出力する。
そうでなければ、雑音と判定し「0」を有音無音判定器
に出力する。
に出力する。
また、電力測定器38で測定した特徴パラメタがP個あ
るときはP次元空間の中で線形識別関数などを用いて判
定してもよい。
るときはP次元空間の中で線形識別関数などを用いて判
定してもよい。
有音無音判定器4では、子音判定器25と電力比較器3
9との出力の論理和をとる。
9との出力の論理和をとる。
もし、その結果が「1」ならば有音、「0」ならば無音
とする。
とする。
さらに、ハングオーバーを付加してもよい。
一般に有音区間の子音と母音を比べると、子音は背景雑
音に埋もれてしまいがちであり、その検出は非常に困難
である。これに対して、母音の特徴は雑音とは大きく異
なるため、その検出は子音に比べて容易である。
音に埋もれてしまいがちであり、その検出は非常に困難
である。これに対して、母音の特徴は雑音とは大きく異
なるため、その検出は子音に比べて容易である。
そこで本実施例では、子音検出と母音検出の処理を分け
、特徴パラメータを抽出し、標準パターンを作成し、領
域の設定等により子音を検出し、母音を電力のみで検出
することにより、母音、子音をそれぞれに適した処理で
検出することが出来る。
、特徴パラメータを抽出し、標準パターンを作成し、領
域の設定等により子音を検出し、母音を電力のみで検出
することにより、母音、子音をそれぞれに適した処理で
検出することが出来る。
よって、有音検出のためのトータルの処理量が同じなら
ば、検出の容易な母音をその母音の電力のみで、検出す
ることにより、子音の検出のための処理量を増加させる
ことができ、検出精度の向上が可能となる。
ば、検出の容易な母音をその母音の電力のみで、検出す
ることにより、子音の検出のための処理量を増加させる
ことができ、検出精度の向上が可能となる。
[発明の効果]
以上詳細に説明したように本発明によれば、検出精度の
高い有音検出装置を提供することができる。
高い有音検出装置を提供することができる。
第1図は本発明の一実施例に係る有音検出装置の構成を
示すブロック図、第2図は子音検出器2の構成を示すブ
ロック図、第3図は標準パターンマツチング器22の標
準パターン作成部の構成を示すブロック図、第4図は標
準パターンマツチング部22のマツチング部の構成を示
すブロック図、第5図は変化量測定器の構成を示すブロ
ック図、第6図は母音検出器3の構成を示すブロック図
、第7図は従来の語頭検出器の構成を示すブロック図で
ある。 2・・・・・・・・・子音検出器 3・・・・・・・・・母音検出器 4・・・・・・・・・有音無音判定器
示すブロック図、第2図は子音検出器2の構成を示すブ
ロック図、第3図は標準パターンマツチング器22の標
準パターン作成部の構成を示すブロック図、第4図は標
準パターンマツチング部22のマツチング部の構成を示
すブロック図、第5図は変化量測定器の構成を示すブロ
ック図、第6図は母音検出器3の構成を示すブロック図
、第7図は従来の語頭検出器の構成を示すブロック図で
ある。 2・・・・・・・・・子音検出器 3・・・・・・・・・母音検出器 4・・・・・・・・・有音無音判定器
Claims (1)
- 【特許請求の範囲】 有音区間から子音を検出する子音検出器と、前記有音区
間から母音を検出する母音検出器と、前記子音検出器と
母音検出器の結果を総合して、有音であるか無音である
かを判定する有音無音判定器と、 を具備することを特徴とする有音検出装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP1025540A JPH02205897A (ja) | 1989-02-03 | 1989-02-03 | 有音検出装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP1025540A JPH02205897A (ja) | 1989-02-03 | 1989-02-03 | 有音検出装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH02205897A true JPH02205897A (ja) | 1990-08-15 |
Family
ID=12168831
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP1025540A Pending JPH02205897A (ja) | 1989-02-03 | 1989-02-03 | 有音検出装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH02205897A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5270476A (en) * | 1990-03-12 | 1993-12-14 | Roland Corporation | Electronic musical instrument |
JP2014512572A (ja) * | 2011-04-01 | 2014-05-22 | 株式会社ソニー・コンピュータエンタテインメント | 聴覚注意手がかりを用いた音声の音節/母音/音素の境界の検出 |
US9031293B2 (en) | 2012-10-19 | 2015-05-12 | Sony Computer Entertainment Inc. | Multi-modal sensor based emotion recognition and emotional interface |
US9672811B2 (en) | 2012-11-29 | 2017-06-06 | Sony Interactive Entertainment Inc. | Combining auditory attention cues with phoneme posterior scores for phone/vowel/syllable boundary detection |
-
1989
- 1989-02-03 JP JP1025540A patent/JPH02205897A/ja active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5270476A (en) * | 1990-03-12 | 1993-12-14 | Roland Corporation | Electronic musical instrument |
JP2014512572A (ja) * | 2011-04-01 | 2014-05-22 | 株式会社ソニー・コンピュータエンタテインメント | 聴覚注意手がかりを用いた音声の音節/母音/音素の境界の検出 |
US9251783B2 (en) | 2011-04-01 | 2016-02-02 | Sony Computer Entertainment Inc. | Speech syllable/vowel/phone boundary detection using auditory attention cues |
JP2016128935A (ja) * | 2011-04-01 | 2016-07-14 | 株式会社ソニー・インタラクティブエンタテインメント | 聴覚注意手がかりを用いた音声の音節/母音/音素の境界の検出 |
US9031293B2 (en) | 2012-10-19 | 2015-05-12 | Sony Computer Entertainment Inc. | Multi-modal sensor based emotion recognition and emotional interface |
US9672811B2 (en) | 2012-11-29 | 2017-06-06 | Sony Interactive Entertainment Inc. | Combining auditory attention cues with phoneme posterior scores for phone/vowel/syllable boundary detection |
US10049657B2 (en) | 2012-11-29 | 2018-08-14 | Sony Interactive Entertainment Inc. | Using machine learning to classify phone posterior context information and estimating boundaries in speech from combined boundary posteriors |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Dusan et al. | On the relation between maximum spectral transition positions and phone boundaries | |
Liu | Landmark detection for distinctive feature‐based speech recognition | |
US5692104A (en) | Method and apparatus for detecting end points of speech activity | |
Pfau et al. | Estimating the speaking rate by vowel detection | |
US5596680A (en) | Method and apparatus for detecting speech activity using cepstrum vectors | |
Zhang et al. | An overview of speech endpoint detection algorithms | |
Wightman et al. | Automatic recognition of prosodic phrases | |
Obin et al. | Syll-O-Matic: An adaptive time-frequency representation for the automatic segmentation of speech into syllables | |
US5677991A (en) | Speech recognition system using arbitration between continuous speech and isolated word modules | |
Wilpon et al. | An investigation on the use of acoustic sub-word units for automatic speech recognition | |
Schuller et al. | Static and dynamic modelling for the recognition of non-verbal vocalisations in conversational speech | |
Thomson et al. | Use of periodicity and jitter as speech recognition features | |
US6055499A (en) | Use of periodicity and jitter for automatic speech recognition | |
JPH02205897A (ja) | 有音検出装置 | |
Ananthakrishna et al. | Kannada word recognition system using HTK | |
JPS6138479B2 (ja) | ||
Svendsen et al. | Automatic alignment of phonemic labels with continuous speech. | |
Nakagawa et al. | A new speech recognition method based on VQ-distortion measure and HMM | |
KR100391123B1 (ko) | 피치 단위 데이터 분석을 이용한 음성인식 방법 및 시스템 | |
Sharma et al. | Speech recognition of Punjabi numerals using synergic HMM and DTW approach | |
Kirchhoff et al. | Statistical acoustic indications of coarticulation | |
Tripathi et al. | VOP detection for read and conversation speech using CWT coefficients and phone boundaries | |
Laleye et al. | Automatic text-independent syllable segmentation using singularity exponents and rényi entropy | |
Laleye et al. | Automatic boundary detection based on entropy measures for text-independent syllable segmentation | |
Gujral et al. | Various Issues In Computerized Speech Recognition Systems |