JP2008058503A - 音声認識装置及びコンピュータプログラム - Google Patents

音声認識装置及びコンピュータプログラム Download PDF

Info

Publication number
JP2008058503A
JP2008058503A JP2006233935A JP2006233935A JP2008058503A JP 2008058503 A JP2008058503 A JP 2008058503A JP 2006233935 A JP2006233935 A JP 2006233935A JP 2006233935 A JP2006233935 A JP 2006233935A JP 2008058503 A JP2008058503 A JP 2008058503A
Authority
JP
Japan
Prior art keywords
word
speech recognition
hypotheses
hypothesis
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006233935A
Other languages
English (en)
Other versions
JP4947545B2 (ja
Inventor
Takatoshi Sanehiro
貴敏 實廣
Hiromi Kosaku
浩美 小作
Tomoji Toriyama
朋二 鳥山
Kiyoshi Kogure
潔 小暮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2006233935A priority Critical patent/JP4947545B2/ja
Publication of JP2008058503A publication Critical patent/JP2008058503A/ja
Application granted granted Critical
Publication of JP4947545B2 publication Critical patent/JP4947545B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Accommodation For Nursing Or Treatment Tables (AREA)

Abstract

【課題】発話者と他者との会話が存在し得る環境下で、発話者の発話部分のみを信頼性高く音声認識する。
【解決手段】音声認識装置40は、音響モデル記憶部64と、予め想定された発話に対応するテキストDB44から作成されたバイグラム、トライグラム言語モデルをそれぞれ記憶する記憶部66、68と、音響モデル及び言語モデルを用いた統計的手法で音声認識を行ない、N−ベスト仮説を出力する音声認識部42と、N−ベスト仮説に含まれる各単語につき、一般化単語事後確率(GWPP)を算出するGWPP計算処理部76と、GWPP計算処理部76により算出されたGWPPがしきい値以下の単語を削除する単語削除部78と、単語が削除された後の各仮説に含まれる単語の一般化単語事後確率に基づいた再スコアリングを各仮説に対し行ない、上位の所定個数の仮説を音声認識結果として出力する再スコアリング部82とを含む。
【選択図】 図3

Description

この発明は音声認識分野に関し、特に、会話の多い環境において、発話者の特定の種類の発話について選択的に音声認識を行なう技術に関する。
キーワードを含んだ定型文を含んだ発話を音声認識するときに、従来はキーワードだけを抽出するような文法や、定型文を認識できる文法を構築し、それに沿う音声認識を行なっていた。この種の技術として、非特許文献1に開示されたものがある。
非特許文献1に開示されたものは、文法によるキーワードスポッティングと呼ばれるものであり、文法に沿った発話から、キーワードを抽出するものである。
特開2005-164837号公報 J.G.ウィルポン、L.R.ラビナー、C.H.リー、E.ゴールドマン、「隠れマルコフモデルを用いた、非拘束発話内のキーワードの自動認識」、IEEE音響、音声及び信号処理トランザクション、第38巻第11号、1870−1878ページ、1990年11月("J.G. Wilpon, L.R. Rabiner, C.H. Lee, E. Goldman, "Automatic recognition of keywords in unconstrained speech using Hidden Markov Models," IEEE Trans. on Acoustics, Speech, and Signal Processing, Vol. 38, No. 11, pp. 1870-1878, Nov. 1990)
しかし、キーワードだけの音声認識は一般的に難しい。また、定型文認識は発話者に文法に沿った発話を強く要求するため、一般的なユーザを対象にするときには、精度向上が困難であるという問題がある。さらに、音声認識対象以外の発話が音声データに含まれている場合には、そこからのわき出し誤り(音声認識の対象となる発話には存在していなかった単語が認識される誤り)が存在した。
非特許文献1による技術では、文法に沿った発話にのみ対応するため、対象が複雑になると文法も複雑になり、文法を構築し整備するのが困難であるという問題がある。さらに、発話中で使用される語彙数が大きくなると、精度の向上が困難であるという問題もある。
一方、例えば病院で勤務する看護師の一日の作業を細かく記録したい、という需要がある。これは、看護師の作業環境改善のためのデータを集めたり、万が一医療事故が発生した場合に、その原因をつきとめ、そうした事故を繰返さないようにするためのデータを集めたりすることを目的とする。
しかし看護師は多忙であるため、そうした記録を行なうためにはできるだけ手間を少なくする必要がある。当然、作業記録を付けることよりも実際の作業をすることが優先されるため、記録を付けるための作業量が多くなると、記録を付ける事を避ける看護師が多くなり、得られるデータの信頼性が低下してしまうという問題がある。
そこで、音声認識を用いて看護師の作業を記録することが提案されている。看護師は、看護のための作業をしながらでも発話をすることができ、そのための負担は小さい。しかも、看護師が記録する必要のある作業のバリエーションは一般的な会話と比較すると狭い。したがって、作業の内容について看護師に短く発話してもらい、その内容を記録しておいて、後にキーワードスポッティング法によってキーワードを抽出し、どのような作業が行なわれたかの記録を生成するというシステムを設けることにより、詳細な記録が得られる可能性が高い。
ところが、看護師の作業環境には、その看護師だけでなく、患者、医者、他の看護師等が存在しており、それらの間の会話が発話中に混在している。看護師自身、記録のための発話だけではなく、患者、医者、他の看護師と会話をしながら作業をする。そのため、看護師の発話を常に録音すると、作業記録のための発話と、不要な発話との双方が含まれ、必要な発話部分のみの切出しが難しいという問題がある。
前述した非特許文献1に開示の技術は、対象となる音声部分が明確に区分されていれば有効と考えられるが、上述のように、発話者自身の発話から得られた音声認識結果のうち、採用する部分を決定する必要がある場合には適用がむずかしい。また、文法に沿った発話のみを求めるため、看護師にとっては負担となるという問題がある。
こうした問題は、単に看護師の作業記録を目的とした場合だけではなく、例えば音声による操作が可能なカーナビゲーションシステムにおいて、車内に複数の人間がいるときに、それらの間の会話と、カーナビゲーションシステムに対する命令との切分け等にも生じる問題である。
それゆえに本発明の目的は、音声認識の対象となる発話者と他者との会話が常時存在し得る環境下で、発話者の発話部分のみをある程度の信頼性をもって音声認識可能な音声認識装置を提供することである。
本発明の第1の局面に係る音声認識装置は、統計的音響モデルを記憶するための第1の記憶手段と、予め想定された発話に対応するテキストから作成された統計的言語モデルを記憶するための第2の記憶手段と、音声データに対し、第1及び第2の記憶手段にそれぞれ記憶された音響モデル及び言語モデルを用いた統計的手法により音声認識を行ない、音声認識の信頼度が上位の所定個数の仮説を出力するための音声認識手段と、所定個数の仮説の各々に含まれる単語の各々について、信頼尺度を算出するための算出手段と、所定個数の仮説において、算出手段により算出された信頼尺度が所定のしきい値以下の単語を削除するための削除手段と、削除手段により単語が削除された後の各仮説について、各仮説に含まれる単語の信頼尺度に基づいた再スコアリングを行ない、スコアが上位の所定個数の仮説を音声認識結果として出力するための再スコアリング手段とを含む。
統計的手法により音声認識をして所定個数の仮説を得た後、算出手段が各仮説に含まれる各単語について信頼尺度を算出する。削除手段が、所定のしきい値以下の信頼尺度を持つ単語を各仮説から削除する。再スコアリング手段は、各仮説について、残った単語の信頼尺度に基づいた再スコアリングを行ない、スコアが上位の所定個数、例えば一個の仮説を音声認識結果として出力する。
音声認識手段の出力する仮説中には、業務内容発話以外の発話も含まれている。しかしそうした発話は一般には予め想定された発話以外であることが多いので言語尤度も低く、かつ処理の対象とされる発話とそれ以外の発話とは発話内容が異なるので、それら単語に対する信頼尺度は低くなる。その結果、削除手段による削除によって、予め想定された発話以外の発話に属する単語は削除される可能性が高く、対象音声のみについての音声認識結果が得られる。さらに、残った単語に対する信頼尺度に基づいて各仮説を再スコアリングしてスコアが上位の仮説を音声認識結果とすることで、対象音声に対する認識精度の向上が得られる。
好ましくは、再スコアリング手段は、削除手段により単語が削除された後の各仮説について、各仮説に含まれる単語の信頼尺度の積の値を各仮説のスコアとする再スコアリングを行ない、スコアが上位の所定個数の仮説を音声認識結果として出力するための手段を含む。
仮説を構成する単語列のスコアとしては、その単語列を構成する各単語の一般化単語事後確率の積を用いるのが合理的である。このようにして算出されたスコアが上位の所定の個数の仮説を音声認識結果として出力することにより、対象音声に対する認識精度の向上が得られる。
より好ましくは、音声認識手段は、音声データに対し、第1及び第2の記憶手段にそれぞれ記憶された音響モデル及び言語モデルを用いた統計的手法により音声認識を行ない、音声認識により得られる単語列事後確率の値が上位の所定個数の仮説を出力するための手段を含む。
統計的音響モデル及び統計的言語モデルを用いた統計的手法による音声認識では、認識結果の単語列の信頼度尺度として、数学的に扱いやすく、かつ統計的に好ましいものを採用すべきであり、単語列事後確率はそうした性質を満たし、かつ自然である。また各単語の信頼尺度を算出する際に、音声認識で算出した単語列事後確率を用いることができ、計算量を比較的少なくすることができる。
さらに好ましくは、音声認識装置は、削除手段により参照される、しきい値を記憶するためのしきい値記憶手段と、しきい値記憶手段に記憶されるしきい値の値を設定するためのしきい値設定手段とをさらに含む。
環境により、信頼尺度のしきい値を調整することにより、最終的な音声認識精度の向上を図ることができる。
さらに好ましくは、信頼尺度は、一般化単語事後確率である。
信頼尺度として一般化単語事後確率を用いると、各単語に対して音声認識の際に算出された音響尤度と言語尤度とに、それぞれの重みをかけて統合する。信頼尺度の算出の際の音響尤度と言語尤度との重み比率を調整することが可能になり、精度の高い音声認識が可能になる。
本発明の第2の局面にかかるコンピュータプログラムは、統計的音響モデルを記憶するための第1の記憶手段と、予め想定された発話に対応するテキストから作成された統計的言語モデルを記憶するための第2の記憶手段とを備えたコンピュータにより実行されると、当該コンピュータを、音声データに対し、第1及び第2の記憶手段にそれぞれ記憶された音響モデル及び言語モデルを用いた統計的手法により音声認識を行ない、音声認識の信頼度が上位の所定個数の仮説を出力するための音声認識手段と、所定個数の仮説の各々に含まれる単語の各々について、信頼尺度を算出するための算出手段と、所定個数の仮説において、算出手段により算出された信頼尺度が所定のしきい値以下の単語を削除するための削除手段と、削除手段により単語が削除された後の各仮説について、各仮説に含まれる単語の信頼尺度に基づいた再スコアリングを行ない、スコアが上位の所定個数の仮説を音声認識結果として出力するための手段として機能させる。
このコンピュータプログラムをコンピュータによって実行させることにより、コンピュータが上記した音声認識装置として機能する。したがって、上記したのと同様の効果を得ることができる。
以下、本発明の一実施の形態について説明する。以下の説明及び関連する図面では、同じ部品には同じ参照番号を付してある。それらの名称及び機能も同一である。したがってそれらについての詳細な説明は繰返さない。
なお、以下の実施の形態は、病院で看護師の作業を記録するためのシステムに関するものである。
<構成>
本実施の形態では、キーワードを含んだ定型文を含んだ発話を音声認識する場合に、大語彙連続音声認識で用いられるNグラムベースの音声認識系を用い、比較的ゆるやかな制約のみを課した定型文的発話を精度よく音声認識することを目的とする。
なお、NグラムとはN個の単語からなる単語列のことをいう。Nグラムの例として、ユニグラム、バイグラム、及びトライグラムがある。ユニグラムとは一単語からなる単語列のことをいい、単語と同義である。バイグラムは、連続する二つの単語からなる単語列のことをいう。トライグラムとは、連続する三つの単語からなる単語列のことをいう。
統計的言語モデルとは、あるコーパス(テキストデータベース)内におけるユニグラム、バイグラム、トライグラムの出現確率を統計的に算出したものである。ユニグラム言語モデルは、ある単語がそのコーパス内で出現する確率を表す。バイグラム言語モデルは、二つの単語からなる単語列がそのコーパス内で出現する確率を表す。トライグラム言語モデルは、三つの単語からなる単語列がそのコーパス内で出現する確率を表す。
図1及び図2に、本実施の形態に係るシステムにおいて、看護師の発話を記録するための音声収録装置を示す。図1及び図2を参照して、この音声収録装置は、看護師の衣服の胸ポケットにクリップにより装着される、イベントボタン付きのマイク20と、マイク20に接続され、マイク20のイベントボタンが押されたときにビープ音を鳴らすブザーを備えた中間制御ボックス22と、中間制御ボックス22に接続され、中間制御ボックス22により制御されて、マイク20のイベントボタンが押された以後の、マイク20からの10秒間の音声をデジタル録音するためのICレコーダ24とを含む。中間制御ボックス22及びICレコーダ24はいずれも格納用のバッグ26に入れられ、さらに看護師の衣服の胸ポケット中に入れられる。
看護師は、作業の開始時等に簡単なメモとして、主に、作業の対象となる患者名と、看護行為と、開始/作業中/終了等のイベントの種類について簡潔に発話する。以後、この発話を「業務内容発話」と呼ぶ。看護師は、入力時には、マイク20のイベントボタンを押し、中間制御ボックス22によりビープ音が発生された後、10秒の間に発話する。この発話内容がICレコーダ24に記録される。こうしてICレコーダ24に記録された音声は、例えば一日の一定時刻に集積され、音声認識システムに入力される。
図3に、ICレコーダ24に記録された音声に対する音声認識を行なうための音声認識システム40のブロック図を示す。図3を参照して、音声認識システム40は、録音された音声データを格納するための録音音声格納部62と、ICレコーダ24に格納されたデジタル録音音声を、録音音声格納部62に複写するための複写部60と、録音音声格納部62に格納された録音音声に対し、後述する音響モデル及び言語モデルを用いた音声認識を行なって複数の仮説を生成し、信頼度の高い上位のN個の仮説を出力するための音声認識部42と、音声認識部42から出力されるN個の仮説の各々に含まれる単語の各々について、後述する信頼尺度(Generalized Word Posterior Priority:GWPP)を算出するためのGWPP計算処理部76と、音声認識部42から出力されたN個の仮説において、GWPP計算処理部76により算出されたGWPPが所定のしきい値以下の単語を削除するための単語削除部78と、単語削除部78により単語が削除された後の各仮説について、各仮説に含まれる単語のGWPPの積に基づいた再スコアリングを行ない、スコアが上位のM個(M<N)の仮説を音声認識結果48として出力するための再スコアリング部82とを含む。
音声認識システム40はさらに、単語削除部78が単語を削除する際に参照するしきい値を格納するためのしきい値記憶部80と、GWPP計算処理部76がGWPPを算出する際に使用する、音響尤度に対する重みと、言語尤度に対する重みとの比率を特定するための値を記憶するための重み比率記憶部86と、しきい値記憶部80に記憶されるしきい値及び重み比率記憶部86に記憶される重み比率を設定するための設定部84とを含む。
音声認識部42は、音響モデルを記憶するための音響モデル記憶部64と、テキストデータベース(以下データベースを「DB」と呼ぶ。)44に記憶された、看護師の発話として想定される文を含むテキストから作成されたバイグラム言語モデル及びトライグラム言語モデルをそれぞれ記憶するためのバイグラム言語モデル記憶部66及びトライグラム言語モデル記憶部68とを含む。なお、看護師の発話内には患者名等の固有名詞が含まれるが、テキストDB44に記憶されたテキストには、必要な固有名詞が全て含まれているものとする。なお、バイグラム言語モデル及びトライグラム言語モデルは、いずれも同じテキストDBに基づき、言語モデル作成部46によって予め作成されている。
音声認識部42はさらに、音響モデル記憶部64に格納された音響モデル及びバイグラム言語モデル記憶部66に格納されたバイグラム言語モデルを用い、録音音声格納部62に格納された各発話に対する音声認識を行ない、発話ごとに、尤度の高い所定個数の単語パスからなる単語ラティスを出力するための音声認識処理部70と、音声認識処理部70から出力される単語ラティスを構成する各パスの言語モデル尤度をトライグラム言語モデル記憶部68に記憶されたトライグラム言語モデルを使用して再計算し、再計算後の尤度が付された単語ラティスを出力するための再計算部72と、再計算部72から出力される単語ラティスの各パスのうち、言語尤度と音響尤度との双方の関数である単語列事後確率の大きな所定個数(N個)のパスを選択し、それらパスに対応する単語列をを含むN個の仮説を出力するためのN−ベスト選択部74とを含む。
単語ラティスの概念について図4を参照して説明する。図4を参照して単語ラティス90は、音声認識処理部70による音声認識の結果得られる単語列の候補を、ラティス形式で表したものである。このラティスは、単語をアーク、単語と単語との結合部をノードとするものである。発話中で開始時刻及び終了時刻をほぼ共通にし、かつ同じ単語として認識された部分は、共通のアークとしてまとめられている。例えば、図4において、「w」というラベルが付されたアークはいずれも同じ単語として認識された部分であるが、その開始時刻又は終了時刻が互いに異なっているため、一つのアークにはまとめられていない。
本実施の形態では、音声認識部42により出力されたN個の仮説中の単語を削除するか否かを判定するという問題を、注目単語の位置の特定という考え方を導入することで解決する。注目単語以外の単語(非注目単語)については、互いに区別せずいずれも単にそれぞれの場所を占めるだけのものとして取り扱って、注目単語の事後確率を算出する。この技術の基本的考え方は、特許文献1に開示されているが、以下、簡単に説明する。
以下のように注目単語/非注目単語という二分法を採用することにより、動的計画法に基づく文字列のアライメント等の複雑な処理を行なう必要が回避できる。
まず、以下の概念を導入し、それらについて説明する。すなわち、それらは、(1)音声認識結果の単語ラティス(又はN‐ベストリスト)中における、注目単語の位置決定を行なうための、仮説(候補)となる文字列の探索空間の削減、(2)ある候補単語の複数の出現個所における事後確率をグループ化する際の時間的制約の緩和、及び(3)音響モデル及び言語モデルによる寄与に対する適切な重み付け、である。
‐文字列と単語の事後確率‐
HMM(Hidden Markov Model:隠れマルコフモデル)を用いる音声認識装置では、所与の音響観測データx1 T=x1,…,xTに対する、最適な単語シーケンスw1 M*=w1 *,…,wM *を、以下に示すように、可能な全ての単語シーケンスからなる空間を探索して、最大事後確率(MAP)を与えるものとして求める。
Figure 2008058503

ただし、p(x1 T|w1 M)は音響モデルの確率、p(w1 M)は言語モデルによる確率、p(x1 T)は音響の観測確率である。
トレーニング環境とテスト環境、話者、ノイズ等の相違により「最適な」単語シーケンスであっても誤りを含むことがある。そこで、数学的に扱いやすく、かつ統計的に好ましい何らかの信頼度尺度を採用すべきである。
単語列の事後確率p(w1 M|x1 T)は、観測された音響x1 Tに対し、認識された単語列w1 Mの尤度を測るものであるが、これは対応する時間的セグメンテーション
Figure 2008058503

を仮定することで算出される。ただし、s及びtは単語wの始点及び終点の時刻を示し、s1=1、tM=T、1≦m≦M−1のmに対しtm+1=sm+1である。
これを用いて、式(2)を次のように書き換えることができる。
Figure 2008058503

認識された単語列の全体の信頼性を測るためには、この単語列事後確率p(w1 M|x1 T)を採用するのが自然である。
単語の信頼性を測るために適切な信頼度尺度は、単語事後確率p([wm;sm,tm]|x1 T)である。これは特定の単語を含む単語列の事後確率を全て合計することにより算出される。
Figure 2008058503
この単語事後確率を実際に有効な信頼度尺度として用いるためには、さらにいくつかの問題を解決する必要がある。
‐考慮すべき仮説数‐
大語彙の連続音声認識装置(LVCSR)においては、可能な単語列の探索空間は膨大である。しかし、各単語列の事後確率の値には大きな相違があり、比較的低い尤度の単語列については刈込みしても差し支えない。このようにして得た、単語列の仮説の部分集合のみを用いて単語ラティス(又はN‐ベスト単語列リスト)を得ることができる。本実施の形態では、そのように部分集合を用いて得た単語ラティスを使用するものとする。
‐仮説内の単語の時間的なレジストレーション‐
単語の時間的位置決め(レジストレーション)を[w;s,t]で表わす。別々の仮説中にある同一の単語が出現する場合でも、その位置は仮説によって多少異なることがあり得る。自動音声認識(ASR)の最終的目標は発話中の単語からなる内容を認識することであるから、厳密な時間的制約を多少緩和することにする。ここでは、ある単語がある単語列中において出現する期間が、基準となる単語の期間[s,t]と重なっており(オーバーラップしている)、かつその単語が基準となる単語と一致しているような単語を検索し、それら単語をその基準となる単語の事後確率の計算に含める。その結果式(7)は以下のように書き換えられる。
Figure 2008058503
‐音響尤度と言語尤度との比重‐
本実施の形態では、音響尤度と言語尤度とには、それぞれα及びβで示される重みによって指数的な重み付けがなされる。式(8)にこれを適用すると次式となる。
Figure 2008058503
重みα、βは、GWPPに対する音響尤度と言語尤度とによる寄与の割合を示し、本実施の形態では図3に示す重み比率記憶部86に記憶されている。その適切な割合についてはテストにより定める必要がある。前述した特許文献1に、α及びβの値の組合わせによる分類器の性能に関するテスト結果が示されている。特許文献1によると、あるトレーニングセットを用いて得られた最適なα及びβの組を、別のテストセットに適用しても性能低下はわずかであったこと、及び最適点の近傍でα及びβを変化させたときも、性能は比較的安定している、と記載されている。音声認識システム40を使用する環境にあわせて最適なα及びβの値を求めるために、設定部84を用いて重み比率記憶部86に記憶される種々の重みを変化させることができる。
‐注目単語の抽出‐
ここで、本実施の形態に係る単語抽出方式により抽出された注目単語の受入/拒否の際に使用する一般化単語事後確率の算出について検討する。
図4を参照して、本実施例で使用する単語ラティス90では、一般化単語事後確率を算出する際には、注目単語(「w」で示す。)以外の単語については個々の単語ラベルを付さず、いずれも単に「*」というラベルを付してあるだけのものとして取り扱う。
次に、仮説内に出てくる単語の各々について、一般化単語事後確率を算出する。より具体的には、最初に全ての仮説に含まれる単語を抽出する。各単語に対し、一般化単語事後確率の算出フラグを設け、初期値として0(未算出)を算出フラグに設定する。まだ一般化単語事後確率が算出されていない(対応の算出フラグの値が0である)単語wを選択し、以下の処理を行なう。
単語ラティス90内のこの単語wの出現個所の各々に対し、フォワード・バックワード・アルゴリズムを用いて単語事後確率を効率的に計算できる。その後、この特定の単語w(たとえば単語100、102、104)を通るパスの全てについての尤度を合計し、その合計をこの単語ラティス90内の全てのパスの尤度の合計で除算し正規化することによって、単語wに関する一般化単語事後確率が算出できる。この際、単語の時間的レジストレーション(単語開始及び終了時刻の一致)の条件を緩和する。すなわち、各パスの単語wの期間が正確に一致する必要はなく、時間的にオーバーラップしているものでも、事後確率の合計に加算する。一般化単語事後確率の算出が終わった単語wについては、対応する算出フラグの値を1に設定する。
こうした処理を繰返し、全ての算出フラグの値が1となれば、仮説内の各単語の一般化単語事後確率の算出が終了したということになる。
同様の処理は、単語ラティスではなくN‐ベストリストを使用する際にも行なうことができることが特許文献1に記載されている。
このようにして注目単語を抽出して一般化単語事後確率を計算する場合、単語のアライメントは不要である。また動的プログラム法により仮説のアライメントを求める必要もない。
図5に、試験的に実際の病院で収集した業務内容発話の例を示す。ビープ音(Beep)に続いて、「午前中の業務調整終了」と対象音声発話があった後、すぐに続いて同僚と話し合う発話が記録されている。下記に、業務内容発話の特徴をまとめる。
(1)対象音声は短文で1、2文程度である。
(2)対象音声発話の直後に対象外発話が続く場合が多い。音声パワー等の音響特徴量を用いた一般的な音声区間検出の手法で対象音声発話を抽出するのは困難である。
(3)患者等の周囲の音声も十分聞き取れる音量で録音される。
(4)ビープ音と対象音声発話とが重なる場合がある。
(5)衣擦れ音、マイクが服等にこすれたり、ぶつかったりする音、廊下を歩く音、紙をめくる音等、日常行動に付随する雑音が収録されている。
(6)病院特有の機器が発する電子音が混入する。
(7)廊下等で、残響感のある音声が収録されることがある。
(8)言語的特徴として、専門用語の他に看護師が情報伝達に使用する用語が多く含まれる。専門用語を短縮しているものが多い。
(9)対象音声は短文であるが、言い回しや内容も個々の看護師に依存する。すなわち、現状では、文法ですべての発話を網羅することは困難である。
<動作>
上記した構成を有する音声認識システム40を含むシステムは以下のように動作する。予め、しきい値記憶部80には適切なしきい値が設定部84により設定され、重み比率記憶部86にも、適切なα及びβの値が設定部84を用いて設定されているものとする。
図1及び図2を参照して、看護師は、作業の開始時、処理中、終了時等の作業の節目に、マイク20のイベントボタンを押す。すると中間制御ボックス22がビープ音を発生し、ICレコーダ24がその後10秒の間のマイク20からの音声信号をデジタル録音する。こうした処理を作業ごとに繰返し行なう。
ある時刻になるとICレコーダ24は一箇所に集められ、図3に示す音声認識システム40による処理に供せられる。図3を参照して、複写部60は、全てのICレコーダ24から録音音声を録音音声格納部62に複写する。音声認識処理部70は、録音音声格納部62に格納された各録音音声について以下の処理を行なう。
音声認識処理部70はまず、音響モデル記憶部64に記憶された音響モデル及びバイグラム言語モデル記憶部66に記憶されたバイグラム言語モデルを用い、音声認識を行なって、尤度の上位の所定個数のパスからなる単語ラティスを出力する。この単語ラティスの各アーク(単語)には、音声認識の際に算出された音響尤度及び言語尤度が付されている。
再計算部72は、音声認識処理部70の出力する単語ラティス中の各単語について、トライグラム言語モデル記憶部68に格納されたトライグラム言語モデルを用いて言語尤度を再計算し、再計算された言語尤度が付された単語ラティスをN−ベスト選択部74に出力する。
N−ベスト選択部74は、再計算部72により出力された単語ラティスのパスのうちで、単語列事後確率が大きなものからN個に対応する単語列を仮説として選択し、GWPP計算処理部76に与える。
GWPP計算処理部76は、このN個の仮説の各々に含まれる単語の各々について、GWPPを算出し、各単語にGWPPの値を信頼度として付して単語削除部78に出力する。
単語削除部78は、N個の仮説中の各単語に付されたGWPPの値を、しきい値記憶部80に記憶されたしきい値と比較する。そして、しきい値以下のGWPPを持つ単語を各仮説から削除する。したがって各仮説は、しきい値を超えるGWPPの値を持つ単語のみを含む。
再スコアリング部82は、このようにして得られたN個の仮説の各々について、各単語のGWPPの積(対数を採った場合は和)を算出し、その値が最も大きな仮説を認識結果48として選択し、出力する。
本実施の形態によれば、GWPP計算処理部76によって各単語に対しGWPPを算出し、このGWPPの値がしきい値以下のものは削除する。上記したICレコーダ24に記憶された録音音声の場合、業務内容発話の直後に対象外の発話が続くことが多い。そのため、通常の音声認識手法をそのまま用いると、わき出し誤りが生じる。しかし、業務内容発話とそれ以外の発話とは、発話の様式が自ずから異なるため、わき出し語の音声認識の信頼度は低い。GWPPは、そうした信頼度をよく反映する値である。このGWPPの低い単語を各仮説から削除することで、仮説中のわき出し語が排除される可能性が高い。そのようにして単語を削除した後の各仮説について、GWPPに基づくスコア、例えば仮説中の単語のGWPPの積によって仮説の信頼度を算出することで、わき出し誤りが少ない音声認識結果を得ることができる。特に、上記したように業務内容発話の直後に続く対象外の発話、及び背景に存在する発話等の影響はこのGWPPを用いた単語削除によって排除することができ、業務内容発話のみの認識結果を従来よりも高い精度で得ることが可能になる。
しきい値記憶部80に記憶されるしきい値としては、0.4〜0.5の範囲の値が想定されるが、テストの結果によって、設定部84により設定する。また、GWPPの算出の際の音響尤度と言語尤度との重みα、βについては、前述のとおりテストにより最適なものを求める必要がある。
上記した実施の形態では、対象言語は日本語となっている。しかし、当業者には明らかなとおり、この音声認識の原理は言語がどのようなものでも共通に適用できる。使用する音響モデル及び言語モデルを言語にあわせて交換するだけでよい。
<コンピュータによる実現>
[コンピュータによる実現及び動作]
本実施の形態の音声認識システム40の各機能部は、いずれもコンピュータハードウェアと、そのコンピュータハードウェアにより実行されるプログラムと、コンピュータハードウェアに格納されるデータとにより実現される。図6はこのコンピュータシステム450の外観を示し、図7はコンピュータシステム450の内部構成を示す。
図6を参照して、このコンピュータシステム450は、DVD(Digital Versatile Disk)ドライブ470及びICレコーダ24からの音声データの入力が可能な通信ポート472を有するコンピュータ460と、キーボード466と、マウス468と、モニタ462と、マイクロフォン490と、一対のスピーカ458とを含む。スピーカ458は録音音声格納部62に格納された音声を再生する際に用いられる。キーボード466、マウス468、モニタ462及びこれらを入出力として用いるグラフィカル・ユーザ・インタフェース(GUI)プログラムにより、重み比率記憶部86に記憶されるα及びβの値、並びにしきい値記憶部80に記憶されるしきい値を設定することができる。すなわち、そうしたGUIプログラムが図3に示す設定部84に対応する。ある変数の値についてユーザによる入力を受け、それをメモリに格納するためのプログラムは、当業者であれば極めて容易に実現できる。
図7を参照して、コンピュータ460は、通信ポート472及びDVDドライブ470に加えて、ハードディスク474と、CPU(中央処理装置)476と、CPU476、ハードディスク474、通信ポート472、及びDVDドライブ470に接続されたバス486と、ブートアッププログラム等を記憶する読出専用メモリ(ROM)478と、バス486に接続され、プログラム命令、システムプログラム、及び作業データ等を記憶するランダムアクセスメモリ(RAM)480と、バス486に接続され、マイクロフォン490からの音声信号をデジタル信号化したり、CPU476より出力されるデジタル音声信号をアナログ化してスピーカ458を駆動したりするためのサウンドボード488とを含む。ただし本実施の形態ではサウンドボード488は特に必要ではない。コンピュータシステム450はさらに、プリンタを含んでいてもよい。
図3に示すしきい値記憶部80及び重み比率記憶部86は、ハードディスク474により実現される。ただし、しきい値記憶部80及び重み比率記憶部86に記憶された値は音声認識システム40を実現するプログラムの実行開始時にハードディスク474から読出され、RAM480に記憶され、利用される。図3に示す録音音声格納部62、音響モデル記憶部64、バイグラム言語モデル記憶部66、トライグラム言語モデル記憶部68等も同様である。
コンピュータ460はさらに、ローカルエリアネットワーク(LAN)452への接続を提供するネットワークインターフェイス(I/F)496を含む。
コンピュータシステム450に音声認識システム40の各機能部を実現させるためのコンピュータプログラムは、DVDドライブ470に挿入されるDVD482に記憶され、さらにハードディスク474に転送される。又は、プログラムは図示しないネットワークを通じてコンピュータ460に送信されハードディスク474に記憶されてもよい。プログラムは実行の際にRAM480にロードされる。DVD482から、又はネットワークを介して、直接にRAM480にプログラムをロードしてもよい。
このプログラムは、コンピュータ460にこの実施の形態の音声認識システム40の各機能部を実現させるための複数の命令を含む。この機能を実現させるのに必要な基本的機能のいくつかは、コンピュータ460にインストールされる各種ツールキットのモジュール、又はコンピュータ460上で動作するオペレーティングシステム(OS)若しくはサードパーティのプログラムにより提供される。したがって、このプログラムはこの実施の形態のシステム及び方法を実現するのに必要な機能全てを必ずしも含まなくてよい。例えば、図3に示す複写部60は、OSにより一般的に提供されるコピーコマンドを用いて実現することができる。
このプログラムは、命令のうち、所望の結果が得られるように制御されたやり方で適切な機能又は「ツール」を呼出すことにより、上記した音声認識システム40の各機能部が行なう処理を実行する命令のみを含んでいればよい。コンピュータシステム450の動作は周知であるので、ここでは繰返さない。
今回開示された実施の形態は単に例示であって、本発明が上記した実施の形態のみに制限されるわけではない。本発明の範囲は、発明の詳細な説明の記載を参酌した上で、特許請求の範囲の各請求項によって示され、そこに記載された文言と均等の意味及び範囲内でのすべての変更を含む。
本発明の一実施の形態に係るシステムで使用されるマイク20の看護師の装着態様を示す図である。 本発明の一実施の形態に係るシステムで使用される音声収録装置の構成を示す図である。 本発明の一実施の形態に係る音声認識システム40のブロック図である。 GWPP算出のための単語ラティスを模式的に示す図である。 業務内容発話の例を示す図である。 本発明の一実施の形態に係る音声認識システム40を実現するためのコンピュータシステム450の外観図である。 図6に示すコンピュータシステム450の内部構成を示すブロック図である。
符号の説明
20 マイク
22 中間制御ボックス
24 ICレコーダ
40 音声認識システム
42 音声認識部
44 テキストDB
60 複写部
62 録音音声格納部
64 音響モデル記憶部
66 バイグラム言語モデル記憶部
68 トライグラム言語モデル記憶部
70 音声認識処理部
72 再計算部
74 N−ベスト選択部
76 GWPP計算処理部
78 単語削除部
80 しきい値記憶部
82 再スコアリング部
84 設定部
90 単語ラティス

Claims (6)

  1. 統計的音響モデルを記憶するための第1の記憶手段と、
    予め想定された発話に対応するテキストから作成された統計的言語モデルを記憶するための第2の記憶手段と、
    音声データに対し、前記第1及び第2の記憶手段にそれぞれ記憶された音響モデル及び言語モデルを用いた統計的手法により音声認識を行ない、音声認識の信頼度が上位の所定個数の仮説を出力するための音声認識手段と、
    前記所定個数の仮説の各々に含まれる単語の各々について、信頼尺度を算出するための算出手段と、
    前記所定個数の仮説において、前記算出手段により算出された信頼尺度が所定のしきい値以下の単語を削除するための削除手段と、
    前記削除手段により単語が削除された後の各仮説について、各仮説に含まれる単語の信頼尺度に基づいた再スコアリングを行ない、スコアが上位の所定個数の仮説を音声認識結果として出力するための再スコアリング手段とを含む、音声認識装置。
  2. 前記再スコアリング手段は、前記削除手段により単語が削除された後の各仮説について、各仮説に含まれる単語の信頼尺度の積の値を各仮説のスコアとする再スコアリングを行ない、スコアが上位の所定個数の仮説を音声認識結果として出力するための手段を含む、請求項1に記載の音声認識装置。
  3. 前記音声認識手段は、音声データに対し、前記第1及び第2の記憶手段にそれぞれ記憶された音響モデル及び言語モデルを用いた統計的手法により音声認識を行ない、音声認識により得られる単語列事後確率の値が上位の前記所定個数の仮説を出力するための手段を含む、請求項1又は請求項2に記載の音声認識装置。
  4. 前記削除手段により参照される、前記しきい値を記憶するためのしきい値記憶手段と、
    前記しきい値記憶手段に記憶されるしきい値の値を設定するためのしきい値設定手段とをさらに含む、請求項1〜請求項3のいずれかに記載の音声認識装置。
  5. 前記信頼尺度は一般化単語事後確率である、請求項1〜請求項4のいずれかに記載の音声認識装置。
  6. 統計的音響モデルを記憶するための第1の記憶手段と、
    予め想定された発話に対応するテキストから作成された統計的言語モデルを記憶するための第2の記憶手段とを備えたコンピュータにより実行されると、当該コンピュータを、
    音声データに対し、前記第1及び第2の記憶手段にそれぞれ記憶された音響モデル及び言語モデルを用いた統計的手法により音声認識を行ない、音声認識の信頼度が上位の所定個数の仮説を出力するための音声認識手段と、
    前記所定個数の仮説の各々に含まれる単語の各々について、信頼尺度を算出するための算出手段と、
    前記所定個数の仮説において、前記算出手段により算出された信頼尺度が所定のしきい値以下の単語を削除するための削除手段と、
    前記削除手段により単語が削除された後の各仮説について、各仮説に含まれる単語の信頼尺度に基づいた再スコアリングを行ない、スコアが上位の所定個数の仮説を音声認識結果として出力するための手段として機能させる、コンピュータプログラム。
JP2006233935A 2006-08-30 2006-08-30 音声認識装置及びコンピュータプログラム Expired - Fee Related JP4947545B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006233935A JP4947545B2 (ja) 2006-08-30 2006-08-30 音声認識装置及びコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006233935A JP4947545B2 (ja) 2006-08-30 2006-08-30 音声認識装置及びコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2008058503A true JP2008058503A (ja) 2008-03-13
JP4947545B2 JP4947545B2 (ja) 2012-06-06

Family

ID=39241332

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006233935A Expired - Fee Related JP4947545B2 (ja) 2006-08-30 2006-08-30 音声認識装置及びコンピュータプログラム

Country Status (1)

Country Link
JP (1) JP4947545B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014098760A (ja) * 2012-11-13 2014-05-29 Nippon Telegr & Teleph Corp <Ntt> 辞書・言語モデル圧縮方法とその装置とプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005164837A (ja) * 2003-12-01 2005-06-23 Advanced Telecommunication Research Institute International 音声認識結果の信頼度検証装置、コンピュータプログラム、及びコンピュータ
JP2006053683A (ja) * 2004-08-10 2006-02-23 Advanced Telecommunication Research Institute International 音声認識および機械翻訳装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005164837A (ja) * 2003-12-01 2005-06-23 Advanced Telecommunication Research Institute International 音声認識結果の信頼度検証装置、コンピュータプログラム、及びコンピュータ
JP2006053683A (ja) * 2004-08-10 2006-02-23 Advanced Telecommunication Research Institute International 音声認識および機械翻訳装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014098760A (ja) * 2012-11-13 2014-05-29 Nippon Telegr & Teleph Corp <Ntt> 辞書・言語モデル圧縮方法とその装置とプログラム

Also Published As

Publication number Publication date
JP4947545B2 (ja) 2012-06-06

Similar Documents

Publication Publication Date Title
JP4485694B2 (ja) 並列する認識エンジン
US6212498B1 (en) Enrollment in speech recognition
KR100718147B1 (ko) 음성인식용 문법망 생성장치 및 방법과 이를 이용한 대화체음성인식장치 및 방법
US6542866B1 (en) Speech recognition method and apparatus utilizing multiple feature streams
US8639509B2 (en) Method and system for computing or determining confidence scores for parse trees at all levels
US20050091054A1 (en) Method and apparatus for generating and displaying N-Best alternatives in a speech recognition system
JP2005165272A (ja) 多数の音声特徴を利用する音声認識
US20080033720A1 (en) A method and system for speech classification
KR20030076686A (ko) 계층적 언어 모델
JP6031316B2 (ja) 音声認識装置、誤り修正モデル学習方法、及びプログラム
Thimmaraja Yadava et al. Enhancements in automatic Kannada speech recognition system by background noise elimination and alternate acoustic modelling
CA3179063A1 (en) Machine learning systems and methods for multiscale alzheimer&#39;s dementia recognition through spontaneous speech
Qin et al. Automatic speech assessment for aphasic patients based on syllable-level embedding and supra-segmental duration features
JP2013109061A (ja) 音声データ検索システムおよびそのためのプログラム
Chen et al. Automatic pronunciation assessment for Mandarin Chinese
US20040006469A1 (en) Apparatus and method for updating lexicon
JP2013117683A (ja) 音声認識装置、誤り傾向学習方法、及びプログラム
Thennattil et al. Phonetic engine for continuous speech in Malayalam
JP4659541B2 (ja) 音声認識装置及び音声認識プログラム
HaCohen-Kerner et al. Language and gender classification of speech files using supervised machine learning methods
Digalakis et al. Large vocabulary continuous speech recognition in greek: corpus and an automatic dictation system.
Rudzionis et al. Web services based hybrid recognizer of Lithuanian voice commands
JP4947545B2 (ja) 音声認識装置及びコンピュータプログラム
JP3088364B2 (ja) 音声言語理解装置及び音声言語理解システム
Jackson Automatic speech recognition: Human computer interface for kinyarwanda language

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090811

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120207

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120228

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150316

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4947545

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees