JPH067357B2 - 音声認識装置 - Google Patents

音声認識装置

Info

Publication number
JPH067357B2
JPH067357B2 JP57184233A JP18423382A JPH067357B2 JP H067357 B2 JPH067357 B2 JP H067357B2 JP 57184233 A JP57184233 A JP 57184233A JP 18423382 A JP18423382 A JP 18423382A JP H067357 B2 JPH067357 B2 JP H067357B2
Authority
JP
Japan
Prior art keywords
syllable
pattern
frame
phoneme
symbol
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP57184233A
Other languages
English (en)
Other versions
JPS5972500A (ja
Inventor
厚夫 田中
徹 上田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP57184233A priority Critical patent/JPH067357B2/ja
Priority to DE8383304074T priority patent/DE3378384D1/de
Priority to EP83304074A priority patent/EP0109140B1/en
Publication of JPS5972500A publication Critical patent/JPS5972500A/ja
Publication of JPH067357B2 publication Critical patent/JPH067357B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L25/87Detection of discrete points within a voice signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition

Description

【発明の詳細な説明】 <技術分野> 本発明は連続的に発声された音声から音節部を抽出して
識別を行う音声認識装置の改良に関するものである。
<従来技術> 従来より知られている音節音声認識装置は主として、パ
ワーレベル等の単純な情報のみで音節部を抽出してパタ
ーンマッチングを行うものである。
しかしながら、認識の性能は音節部の抽出の正確さによ
って大きく影響を受けるため、簡単な音節部抽出法では
高い認識性能は期待できない。また外部の雑音の重畳に
対して、音節部の抽出が不正確になる。
一方、ある程度以上速く(例えば3音節/1秒以上の速
さ)音節を発生した場合には、音節間が区切れず、つな
がってしまうことが多くなる。
<目的> 本発明は上記諸点に鑑みて成されたものであり音声の音
韻的特徴(例えば有声性,無声性、鼻音性等の特徴)で
音声の一定時間長(時間長は数ミリ秒から数十ミリ秒程
度)のセグメント(以下、このセグメントをフレームと
呼ぶ)を分類し、この分類結果を用いて音節部を抽出す
るようにして上記従来の問題点を除去し得る音声認識装
置を提供することを目的としたものである。
<実施例> 以下、本発明を一実施例を示す図面を参照しつつ詳細に
説明するが、この一実施例の詳細説明に先立って、その
基本認識原理を説明する。
以下に示す本発明の実施例によれば、音声の音韻的特徴
(例えば有声性,無声性,鼻音性等の特徴)で音声の一
定時間長(時間長はミリ秒から数十ミリ秒程度)のセグ
メント(フレーム)を分類し、その分類結果を用いて音
節部が抽出される。
即ち、音声の各フレームはまず音韻的特徴で分類(以下
音韻分類と呼ぶ)して記号(・,B,N,M等)にして
表わされる。
この各記号が表わすべき音韻的性質を第1表に示す。
第1図は/hanaga/と発声した音声を音韻分類記号系列
にして表わした例である。
第1図において/ha/の前に4フレームの無声部があ
るが、この無声部の後に4フレームの無音区間があるの
で、この無声部は雑音として取り扱われ、音声部の抽出
から除外される。
一方/ha/の前半の子音部は摩擦性のフレームから成
っているが、母音部への遷移部分に1フレームの無音区
間がある。このような場合には、前半の摩擦性の部分か
ら、この1フレームの無音区間を含めて、後半の母音部
までを音節部とする。
一般に、無声破裂部の破裂部の後に数フレームの無音部
が現われることが多いが、ンの場合にも無音部を含めた
破裂部と母音部を音節部として抽出しなければならな
い。又、/na/の音節部は鼻音性の記号Nの最初から
母音部を含めて抽出する。有声破裂音の破裂部の前には
バスバー部と呼ばれる低周波成分のみから成る音声音が
しばしば検出されるが、この部分は音韻分類記号Bが続
くことによって分る。音節分類記号Bのフレームは音声
区間として扱わず、第1図で/ga/の先行フレームの
Bの部分を除外して音節部を抽出する。
このように音韻分類記号系列から音節部を抽出するため
に、無音区間の処理、雑音部の処理、音節境界部での母
音部と子音部の分類等の処理が行なわれる。
一方、音韻分類に用いた特徴パラメータの種類や数、分
類の方法によっては音韻分類記号の出現の仕方が不安定
になる場合があるので、上記の処理の他に記号レベルで
のスムージングが必要となることもある。更に発声速度
が速くなれば、音韻分類記号系列のみでは音節部の抽出
の一意に行なえない場合が生じる。このような場合に
は、スペクトルの時間変化量やパワーの時間変化パター
ン内に現われる凹部の存在(以下、パワーディップと呼
ぶ)の情報等を付加情報として用いる必要が生じる。
第2図は本発明を実施した音声認識装置の構成を示すブ
ロック図であり、以下、本発明を一実施例を挙げて詳細
に説明する。
第2図において、マイク(図示せず)から入力された音
声はアンプ,プリエンファシス回路(図示せず)を通っ
た後、サンプリングされAD変換される。量子化された
ディジタル音声信号は端子1を通じて音声分析部2に入
力される。
音声分析部2では一定時間毎(数m〜数10m秒)に音
声の大略的特徴を得るためのパラメータと音節パターン
を構成するパラメータ(例えば、線形予測分析で得られ
るパラメータやスペクトルを表わすパラメータ等)を求
める。音節パターンを構成するパラメータはパターンメ
モリ3に記憶される。
一方、音韻分類部5では上記のパラメータに基いて、各
一定時間間隔毎に音韻的分類を行い、上記の音韻分類記
号系列を出力する。音節部抽出部6では、この記号系列
に基いて上記第1図の説明で述べたように、音節部の始
端及び終端を検出してパターンメモリ3上のアドレスを
パターン作成部4に送る。
パターン作成部4はパターンメモリ3上で選ばれた音節
部のパターンを時間的に伸縮したり、時間的に平滑化す
る処理等を施してパターンを作成する。標準音声の入力
による音声登録時にはこのパターンは図中破線で示す標
準パターンメモリ7に記憶される。
一方、認識すべき音声の入力時にはパターン作成部4で
作成されたパターンはマッチング部8に送られる。マッ
チング部8は、パターン作成部4から送られてきたパタ
ーンと標準パターンメモリ7の各標準パターンとの距離
や尤度を計算して判定部9へ送る。例えば、距離として
ユークリッド距離、 等がある。ただし、パターンは1フレームI個のデータ
から成り、Jフレーム分で構成されるIJ次元ベクトル
である。また{Xij}は入力された未知パターンであ
り、{Yij}は標準パターンの一つである。この場
合、{Xij},{Yij}はJフレームに時間正規化
がなされている。
距離としては、この他にDPマッチングを用いた場合
等、各種の処理を施した場合での距離を用いることが可
能である。
力された未知パターンがどの標準パターンと最も類似し
ているかを判定し、判定結果を出力部10に出力する。
通常、標準パターンはある音節に対して複数個ある場合
が多いので、ある音節に対する類似度の尺度として、そ
の複数個の標準パターンとの平均 類似度の大きかった標準パターンに対する距離や スペクトル変化を表わす量やパワーディップを付加情報
として使う場合、これらの量はフレーム間の情報である
ので、音声分析部2か音節部抽出部6である着目するフ
レームの前部か前後のフレームのパラメータを記憶しな
がらこれらの量を計算する。
スペクトル変化を表わす量として例えば、ケプストラム
係数、線形予測分析で得られるパラメータやフィルタバ
ンク出力値の時間変化量を用いることが出来る。又、パ
ワーディップとしては例えば、ある周波数帯域のパワ
ー,差分等の処理波形のパワーの時間変化にみられる極
小値の有無が考えられる。スペクトル変化やパワーディ
ップの情報の利用の仕方として、例えば、有声音(音韻
分類記号がN,M,V)のフレームがある数以上続いて
いたが、それ迄の間に音節部の始端の検出がなされなか
った場合にこれらの情報を用いても始端検出を行うこと
等がある。
各フレームの音声信号から音韻分類記号を求める方法に
ついては、例えば、音声研究会資料S81−76(連続
音声認識の検討:田中厚夫,金原真司,山下一美:S5
7.1.27発表)の方法等を用いて実現することがで
きる。
次に、本発明に係る音節部抽出の方法について説明す
る。
第3図の音節部抽出の一方法をフロー図にして示してい
る。
なお、ここでは説明を簡単にするため第1表でで示した
音韻分類記号を・,C,N,Vの4記号にまとめてい
る。ただし、・は・とBをまとめて無音部を、CはCと
Fをまとめて摩擦部等を、Nはそのままで、VはMとV
をまとめて母音部をそれぞれ表わすものとする。
以下に示す第2表はこれらの音韻分類記号系列の例を示
しており、この例に基いて音節部抽出の方法を説明す
る。
第3図のステップnにおいて無音区間検出は今着目し
ているフレーム(第2表中矩形枠で囲んだフレーム)と
それ以前のフレームが・であるかを検出する。もし第2
表(a)のように無音区間であれば、以下の処理は行わ
ず、ステップnに移行して着目しているフレームを更
新して次のフレームに移る。ステップnの過渡的無音
部検出は、今着目しているフレームが破裂部(第2表
(b)参照破裂部が検出された場合を記号上で一で示して
いる)や摩擦部(第2表(c)参照)の後の無音部(数フ
レーム)であるかを検出する。もし、過渡的無音部であ
れば、以下の処理は行わず、ステップnに戻り着目し
ているフレームを更新して、次のフレームに移る。この
場合には後で述べるカウンタ更新を行わないので、過渡
的無音部の特徴ベクトルは音節部のパターンに含まれな
いことになる。即ち、過渡的無音部を無視してパターン
を作成している。
ステップnの記号遷移検出は、音韻分類記号が時間的
に変化したかどうかを検出する。例えば第2表(d)で
は、今着目しているフレームの前後で無音区間から有音
区間へ変化しており(音節始端部と考えられる)、記号
変化を検出したとして処理はステップnの音節端点部
検出へ移る。第2表(e),(f),(g)においても同様に記
号変化有りとみなしてステップnの音節端点部検出へ
移る。
次のステップnのパワーディップ検出は前後のフレー
ムに対して、今着目しているフレームでパワーの極小が
起ったかを検出する。パワーディップには、時間的にゆ
るやかなディップと急峻なディップがあり、又、どのよ
うなパワーを用いるかによって種々のものを用いること
が出来る。用いるパワーとしては、特定の周波数帯域の
パワー,プリエンファシス(例えば、高域強調や低域強
調)を行った波形のパワー等種々のものが考えられ、
又、それらを組み合わせて判定することも可能である。
このディップは深いものもあれば浅いものもある。従っ
て、あるパワーのディップがある閾値以上になったと
き、ディップの深さや時間的急峻さとどのパワーによる
ものかの情報を音節端点検出では用いて端部点検出を行
う。
次のステップnのスペクトル変化検出でも上記と同様
にスペクトルの時間変化の急峻さ,強さ,及びスペクト
ル変化を表わすための物理量の定義により種々のものを
用いることが可能であり、組み合わせることができる。
スペクトル変化を表わす物理量としては、自己相関係
数,ケプストラム係数,線形予測分析で得られるパラメ
ータ(例えば、αパラメータ,kパラメータ等)等の時
間変化量やフィルタバンク出力の時間変化量等を用いる
ことが出来る。変化量としては、例えば、次式のよう
に、時間的に数m秒〜数十m秒離れた部分のフレーム間
の距離で与えることもできる。ただしパラメータcij
はケプストラム係数で、iは次数,jはフレーム番号を
表わしている。又、Iはケプストラム係数の最大次数,
Jは変化を計算するフレーム数,kは変化を求める時間
間隔である。即ち、kフレーム離れたJフレーム間のパ
ターンのユークリッド距離である。
ステップnの音節端点部検出は上記の音韻分類記号系
列、パワーディップ情報,スペクトル変化情報に基い
て、次の5状態に分類する。(1)始端部(第2表(d)参
照)、(2)過渡部(第2表(e)参照)、(3)音節境界(第
2表(f)参照)、(4)始端部(第2表(g)参照)、(5)音節
境界で過渡部を除去(第2表(h)参照)の各場合であ
る。ただし、第2表の例は音韻分類記号の変化のみを用
いた場合である。(5)の場合では、下線部は既に音節部
として抽出されパターンマッチングを終っていて太い下
線部が過渡部として現われている。この状態でカウンタ
(後述)をリセットすると、この太い下線部のフレーム
は除外されることになる(第2表(h)参照)。
カウンタは・,C,N,Vの各記号の数と音節始端部か
らのフレーム数を計数する。(2)の場合(第2表(e)参
照)、無音区間から有音区間へ変化した明らかな、音節
始端部の後数フレームで有声音間での記号変化が検出さ
れている。この場合、今着目しているフレームを音節始
端部とは考えられないので、そのまま先のフレームに移
動する。このとき、ステップnにおいて有声音N,V
のカウンタが参照される。又、第2表(c)の場合では記
号Cのカウンタとフレーム数のカウンタのみが値をもっ
ているので、この場合には、今着目している無音のフレ
ームは音節内の過渡的無音部とみなすことができる。こ
のように、第3図に示すフロー図の中の各検出では、カ
ウンタの内容を参照して判定を行うことができる。
なお、音韻分類記号系列の並びが不規則であったり、同
じ記号の列の中に音節境界が有るような場合がある。こ
のような場合、音節端点部検出ではカウンタの内容を参
照しながら、パワーディップやスペクトル変化の情報を
用いて音節境界がどうかを判定する。一方、記号変化も
パワーディップもスペクトル変化も検出されずにフレー
ム数がある閾値を越えた場合にはカウンタの内容を参照
して、ステップnの音節端部検出へ移ることができ
る。
第2図に示した音韻分類部5としては、単に音声スペク
トルの概形的な特徴のみでフレームを分類するだけでな
く、更に詳細な情報を用いて分類することも可能であ
る。例えば、各フレームの特徴パラメータとして音節パ
ターンの構成に用いているパラメータから成る特徴ベク
トルのパターンマッチングを行うものを用いても良い。
24次迄のケプストラム係数をパラメータとして用いて
いる場合には、特徴ベクトルは24次元ベクトルとなり
このベクトルでフレームの特徴を表わすことができる。
予め登録用の音声で得られた音節パターンの中の母音部
に相当する特徴ベクトルを集めて、各母音/a/,/i
/,/u/,/e/,/o/の標準的な特徴ベクトルを
作成する。この標準的な特徴ベクトルを以下では音素標
準パターンと呼ぶ。音素標準パターンの作成方法として
は、後続母音が/a/の音節パターンの母音部の特徴ベ
クトルを集めて平均化することによって/a/の音素標
準パターンとすることもできるし、クラスタリング手法
によって/a/の音素標準パターンを小数個にしぼって
もつこともできる。このように、予め作成された音素標
準パターンと入力音声の各フレームの特徴ベクトルのマ
ッチングにより、各フレームの特徴ベクトルがどの音素
標準パターンと最も類似しているかを判定することによ
っても音素記号系列を得ることができる。従って、この
音素記号系列や、音素標準パターンとのマッチング距離
等を利用することによって更に詳細な情報を得ることが
できる。
ただし、音素標準パターンとして、5母音のみならず他
の音素に対応する音素標準パターンをもつこともでき
る。例えば、鼻音や摩擦音等の音素標準パターンを音韻
分類記号が鼻音性Nや摩擦性F(第1表参照)と記号付
けされた鼻子音や摩擦音の子音部の特徴ベクトルを集め
てきて母音と同様に各子音音素標準パターンを作成する
ことができる。
一方多数の話者の音素標準パターンを収集してクラスタ
リング手法により各音素毎に小数個の音素標準パターン
を持つことも可能である。これらの音素標準パターンを
用いることにより、不特定話者向けの記号付けが可能と
なる。音韻分類記号(第1表参照)は話者に依らない記
号として扱っているので、不特定話者用の音素標準パタ
ーンとのマッチングを組み合わせて、不特定話者にも適
用できる記号付けも可能である。又、不特定話者としな
くとも、例えば、男性,女性,子供,老人等といった範
ちゅうでの音素標準パターン作成も同様に行うことが出
来る。
このように音韻分類部は、音韻分類記号のみならず更に
他の情報を用いることによって詳細な音韻的特徴を抽出
して記号付けすることができる。
音韻分類部は、フレーム毎に記号化の処理を行っている
が、更に前後のフレームの情報を用いることによって改
良することができる。これによりスムージングを行うだ
けでなく時間的な変化特徴を利用することができる。
例えば、/aia/をゆっくり発声した場合には音素記
号系列は AAAAAAAAEEEIIIIIIEEEEAAAAAAAAAAAAという出現の仕方
をするが、更に速く発声していくとAAAAAAAAAAAEEEEEEE
EEAAAAAAAAAAAという出力をするようになる。この場
合、EEEE…の位置で/i/の音韻標準パターンとの距離
は極小値をもつことがあり、これを利用して記号EをI
に書き換えることによって、聴こえに相当した記号付け
に修正することができる。
又、第3図のステップnの記号遷移検出としては、単
に記号の変化を検出したときだけ音節端点部検出に移る
よりも音節部の始端部として適した位置になったとき記
号遷移検出ができたとして音節端点部検出に移った方が
よいことがある。例えば/iya/と発声した場合、母
音音素記号系列は という出力をすることが多い。このとき、IからEの変
化点を音節始端部とするよりも、 で示したフレームを始端部とした方が識別性能が高くな
ることがある。従って、このフレームでも記号遷移を検
出したとして音節端点部検出に移るようにできる。
従って、詳細な記号系列を用いた場合には、記号遷移検
出は単なる記号変化点検出というより音節境界検出も含
めた機能をもたせることによってより性能を上げること
ができる。
上記の実施例では音節部の始端及び終端は一意的に定ま
る場合を規定しているが、実際の連続音声ではある時間
間隔内に始端及び終端の候補時点を一意に定められない
場合がよく起こる。第4図に「電訳機」と発声(図はそ
の一部)した場合の記号系列の例を示す。これを、スペ
クトル変化やパワーディップの情報を用いないで音節部
の候補区間を求めた場合の例を記号系列の下に矩形で示
す。NからAの間で矩形中の番号で示すような候補区間
が得られたとすれば、音節区間の系列の候補として
(2,3,4),(2,3,8),(2,6),(2,
7),(2,8),(5,4),(5,6)等が得られ
る。1から9の各区間候補のパターンのパターンマッチ
ングによる結果(第1候補)がそれぞれデ(1),ン(2),
イ(3),ア(4),ニ(5),ヤ(6),ヤ(7),ヤ(8),ク(9)で
あったとする(カッコ内の数字は図の音節区間候補の番
号)。ただし、図に示されていないが、キ(10)が得られ
たとすると、第1候補から成る音節例として、デンイア
クキ、デンイヤクキ、デンヤクキ、デニアクキ、デニヤ
クキが得られる。単語認識に本方式が用いられ、単語辞
書に登録されている単語の内上記の音節列としてデンヤ
クキしかなければ(他の音節列は一般的でない)、この
場合の認識結果は「デンヤクキ」となる。
<効果> 以上の如く、本発明によれば、音声の波形から特徴パラ
メータを抽出し、このパラメータを用いて音声の音韻的
特徴を求めて音声波形のセグメントを符号化し、この符
号の時系列から音節部の始端及び終端を判定することに
よって音節部を抽出するように成しているため、音節部
の抽出を正確に行なうことが出来、結果として連続的に
発声された音声の認識性能を向上させることが出来る。
【図面の簡単な説明】
第1図は音声を音韻分類記号系列にして表わした一例を
示す図、第2図は本発明の音声認識方式を実施した音声
認識装置の構成を示すブロック図、第3図は本発明に係
る音節部抽出処理を示したフロー図、第4図は「電訳
機」と発声した場合の記号系列の一例を示す図である。 2…音声分析部、3…パターンメモリ、 4…パターン作成部、5…音韻分類部、 6…音節部抽出部、7…標準パターンメモリ、 8…マッチング部、9…判定部。
フロントページの続き (56)参考文献 特開 昭51−41903(JP,A) 特開 昭53−26505(JP,A) 日本音響学会講演論文集 3−2−22 (昭47−5)P.401〜402 日本音響学会講演論文集 3−2−19 (昭47−5)P.395〜396 日本音響学会講演論文集 2−4−8 (昭51−10)P.333〜334

Claims (1)

    【特許請求の範囲】
  1. 【請求項1】音声の波形から特徴パラメータを抽出する
    手段と、このパラメータを用いて音声の音韻的特徴を求
    めて音声波形のセグメントを符号化する手段と、この符
    号の時系列から音節部の始端と終端を判定することによ
    って音節部を抽出する手段と、抽出した音節部のパター
    ンを作成し、パターンマッチングにより音節単位の識別
    で入力音声の認識を行う手段とを備えたことを特徴とす
    る音声認識装置。
JP57184233A 1982-10-19 1982-10-19 音声認識装置 Expired - Lifetime JPH067357B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP57184233A JPH067357B2 (ja) 1982-10-19 1982-10-19 音声認識装置
DE8383304074T DE3378384D1 (en) 1982-10-19 1983-07-13 Recognition of continuous speech
EP83304074A EP0109140B1 (en) 1982-10-19 1983-07-13 Recognition of continuous speech

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP57184233A JPH067357B2 (ja) 1982-10-19 1982-10-19 音声認識装置

Publications (2)

Publication Number Publication Date
JPS5972500A JPS5972500A (ja) 1984-04-24
JPH067357B2 true JPH067357B2 (ja) 1994-01-26

Family

ID=16149698

Family Applications (1)

Application Number Title Priority Date Filing Date
JP57184233A Expired - Lifetime JPH067357B2 (ja) 1982-10-19 1982-10-19 音声認識装置

Country Status (3)

Country Link
EP (1) EP0109140B1 (ja)
JP (1) JPH067357B2 (ja)
DE (1) DE3378384D1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9737301B2 (en) 2014-09-05 2017-08-22 Ethicon Llc Monitoring device degradation based on component evaluation

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6256999A (ja) * 1985-09-06 1987-03-12 株式会社リコー パタ−ン登録方式
US4833713A (en) * 1985-09-06 1989-05-23 Ricoh Company, Ltd. Voice recognition system
JPS62235998A (ja) * 1986-04-05 1987-10-16 シャープ株式会社 音節識別方式
US4908864A (en) * 1986-04-05 1990-03-13 Sharp Kabushiki Kaisha Voice recognition method and apparatus by updating reference patterns
JP4659556B2 (ja) * 2005-08-11 2011-03-30 富士通株式会社 音源方向検出装置
CN105529025B (zh) * 2014-09-28 2019-12-24 联想(北京)有限公司 一种语音操作输入方法及电子设备

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
日本音響学会講演論文集2−4−8(昭51−10)P.333〜334
日本音響学会講演論文集3−2−19(昭47−5)P.395〜396
日本音響学会講演論文集3−2−22(昭47−5)P.401〜402

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9737301B2 (en) 2014-09-05 2017-08-22 Ethicon Llc Monitoring device degradation based on component evaluation

Also Published As

Publication number Publication date
JPS5972500A (ja) 1984-04-24
DE3378384D1 (en) 1988-12-08
EP0109140A1 (en) 1984-05-23
EP0109140B1 (en) 1988-11-02

Similar Documents

Publication Publication Date Title
Zwicker et al. Automatic speech recognition using psychoacoustic models
JPS6336676B2 (ja)
JPH07146699A (ja) 音声認識方法
JP2001166789A (ja) 初頭/末尾の音素類似度ベクトルによる中国語の音声認識方法及びその装置
JPH067357B2 (ja) 音声認識装置
JPS6138479B2 (ja)
JPH07191696A (ja) 音声認識装置
RU2047912C1 (ru) Способ распознавания изолированных слов речи с адаптацией к диктору
JP2798919B2 (ja) 音声区間検出方式
Elghonemy et al. Speaker independent isolated Arabic word recognition system
JP3357752B2 (ja) パターンマッチング装置
JPS6295597A (ja) 連続音声認識装置
JPS607492A (ja) 単音節音声認識方式
JPH0114600B2 (ja)
JPS5885495A (ja) 音声認識装置
JPH0316039B2 (ja)
JPS61180300A (ja) 音声認識装置
JPS6180298A (ja) 音声認識装置
JPH026078B2 (ja)
JPS6310437B2 (ja)
JPS6069695A (ja) 語頭子音のセグメンテ−ション法
JPH11175085A (ja) 単語音声認識方法及び音声認識用単語辞書
JPS6120879B2 (ja)
JPS6237797B2 (ja)
KR19990066557A (ko) 음성 인식시 천이 구간의 음성 식별 방법