JP6019604B2 - 音声認識装置、音声認識方法、及びプログラム - Google Patents

音声認識装置、音声認識方法、及びプログラム Download PDF

Info

Publication number
JP6019604B2
JP6019604B2 JP2012029207A JP2012029207A JP6019604B2 JP 6019604 B2 JP6019604 B2 JP 6019604B2 JP 2012029207 A JP2012029207 A JP 2012029207A JP 2012029207 A JP2012029207 A JP 2012029207A JP 6019604 B2 JP6019604 B2 JP 6019604B2
Authority
JP
Japan
Prior art keywords
field
language model
speech recognition
appearance frequency
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012029207A
Other languages
English (en)
Other versions
JP2013167666A (ja
Inventor
敦典 坂井
敦典 坂井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2012029207A priority Critical patent/JP6019604B2/ja
Priority to US13/766,247 priority patent/US9142211B2/en
Publication of JP2013167666A publication Critical patent/JP2013167666A/ja
Application granted granted Critical
Publication of JP6019604B2 publication Critical patent/JP6019604B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1815Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/253Grammatical analysis; Style critique
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)

Description

本発明は、入力された音声に対して音声認識を実行するための音声認識装置及び音声認識方法に関し、更には、これらを実現するためのプログラムに関する。
従来から、音声認識においては、言語モデルと呼ばれる音声認識用の辞書が用いられる。また、音声認識の認識精度は、現状、辞書の作成に用いられる学習テキストの母数を大きくしていくと相対的に下がっていく傾向にある。従って、どんな言葉でも認識可能な汎用的な辞書はなく、辞書が適用される領域はある程度限定されており、言語モデルは、分野を絞って作成及び利用されている。
そして、このような状況下で認識精度の向上を図るため、特許文献1〜3は、複数の言語モデルを用いて音声認識を行なう技術を開示している。
例えば、特許文献1に開示された技術では、まず、言語モデルに特定の話題の例文を追加することによって複数の言語モデルが作成される。次に、複数の言語モデルを用いて音声認識が行なわれ、その後、各認識結果の中から、尤もらしい認識結果が選択される。
また、特許文献2に開示された技術では、まず、学習用テキストデータに対して木構造クラスタリングが行なわれ、学習用テキストデータは、クラスタ毎に言語的に類似した性質を持つように複数のクラスタに分割される。次に、クラスタ別に言語モデルが作成され、各言語モデルによって音声認識が行なわれ、その後、最も尤度が高い単語列(認識結果)が出力される。
更に、特許文献3に開示された技術では、まず、異なる複数の言語モデルを使用して音声認識が行なわれ、発話単位で発話単位信頼度が算出される。次に、発話単位信頼度が最も高い認識結果が選択され、選択された認識結果が出力される。
特開2001−100783号公報 特開2002−091484号公報 特開2010−170137号公報
しかしながら、上記特許文献1に開示された技術及び上記特許文献2に開示された技術では、前もって分野が分かっている音声に対してしか有用でないという問題がある。このため、入力音声の分野が分からない場合は、人が、予め音声を聞いて分野を確認して、対応する分野の言語モデル又は学習用テキストデータを用意する必要がある。また、分野の異なる音声ファイルが大量にある場合に、これらの音声認識をバッチ処理で実施するためには、前もって分野別に音声ファイルを分類し、その後、対応する各言語モデルを用意する必要がある。
一方、特許文献3に開示された技術では、できるだけ多くの言語モデルを用意すれば、前もって分野が分かっていない音声に対しても対応できると考えられるが、言語モデルの数が増えれば増えるほど、同時に動作させる音声認識エンジンの数が増加してしまう。この結果、音声認識時にシステムにかかる処理負担が増加しすぎる可能性がある。
上述したこれらの問題は、入力音声の分野を自動的に判別し、適切な分野の言語モデルを選択すれば、解決できると考えられるが、入力音声の分野を自動的に判別する技術は存在していないのが現実である。
本発明の目的の一例は、上記問題を解消し、処理負担の増加を抑制しつつ、入力された音声に対して関連する分野の判別を実行し得る、音声認識装置、音声認識方法、及びプログラムを提供することにある。
上記目的を達成するため、本発明の一側面における音声認識装置は、複数の分野それぞれ毎の言語モデルを生成するための、前記分野毎の学習テキストの中から、前記分野毎に、出現頻度が設定条件を満たした単語を含む文を選択し、選択した前記文を用いて、入力された音声の分野を判別するための判別用言語モデルを生成する、判別用言語モデル作成部と、
前記判別用言語モデルを用いて、入力された音声に対して音声認識を実行し、認識結果として、テキストデータと、前記テキストデータに含まれる各単語の信頼度とを出力する、音声認識部と、
テキストデータと、前記各単語の信頼度と、各分野の前記学習テキストに含まれる単語とに基づいて、前記信頼度が設定値以上となる単語が最も多く存在する分野を特定し、特定した分野を前記入力された音声の分野と判定する、分野判定部と、
を備えていることを特徴とする。
また、上記目的を達成するため、本発明の一側面における音声認識方法は、
(a)複数の分野それぞれ毎の言語モデルを生成するための、前記分野毎の学習テキストの中から、前記分野毎に、出現頻度が設定条件を満たした単語を含む文を選択し、選択した前記文を用いて、入力された音声の分野を判別するための判別用言語モデルを生成する、ステップと、
(b)前記判別用言語モデルを用いて、入力された音声に対して音声認識を実行し、認識結果として、テキストデータと、前記テキストデータに含まれる各単語の信頼度とを出力する、ステップと、
(c)テキストデータと、前記各単語の信頼度と、各分野の前記学習テキストに含まれる単語とに基づいて、前記信頼度が設定値以上となる単語が最も多く存在する分野を特定し、特定した分野を前記入力された音声の分野と判定する、ステップと、
を有することを特徴とする。
更に、上記目的を達成するため、本発明の一側面におけるプログラムは、
コンピュータに、
(a)複数の分野それぞれ毎の言語モデルを生成するための、前記分野毎の学習テキストの中から、前記分野毎に、出現頻度が設定条件を満たした単語を含む文を選択し、選択した前記文を用いて、入力された音声の分野を判別するための判別用言語モデルを生成する、ステップと、
(b)前記判別用言語モデルを用いて、入力された音声に対して音声認識を実行し、認識結果として、テキストデータと、前記テキストデータに含まれる各単語の信頼度とを出力する、ステップと、
(c)テキストデータと、前記各単語の信頼度と、各分野の前記学習テキストに含まれる単語とに基づいて、前記信頼度が設定値以上となる単語が最も多く存在する分野を特定し、特定した分野を前記入力された音声の分野と判定する、ステップと、
を実行させることを特徴とする。
以上のように本発明によれば、処理負担の増加を抑制しつつ、入力された音声に対して関連する分野の判別を実行することができる。
図1は、本発明の実施の形態における音声認識装置の概略構成を示すブロック図である。 図2は、本発明の実施の形態における音声認識装置の具体的構成を示すブロック図である。 図3は、図2に示す分野別情報格納に格納されている情報の一例を示す図である。 図4は、本発明の実施の形態における出現頻度リストの一例を示す図である。 図5は、本発明の実施の形態における条件合致文リストの一例を示す図である。 図6は、本発明の実施の形態における音声認識装置の判別用言語モデル作成処理時の動作を示すフロー図である。 図7は、本発明の実施の形態における音声認識装置の音声認識処理時の動作を示すフロー図である。 図8は、本発明の実施の形態における音声認識装置をクラウドで利用する場合の一例を示す図である。 図9は、本発明の実施の形態における音声認識装置を実現するコンピュータの一例を示すブロック図である。
(用語の説明)
最初に、以下の本発明の実施の形態で用いられる主な用語について以下に説明する。まず、「言語モデル」とは、単語とその並び方の情報とを集めた統計的モデルを意味する。統計的モデルの具体例としては、Nグラムモデルが挙げられる。
また、言語モデルは、単語の並び方に関する制約を表したものであり、これにより、次に発声され得る単語が予測され、認識対象の語彙が絞られる。更に、言語モデルは、実際に発話された音声をテキスト化することによって得られた学習テキストに基づいて、作成される。
「出現頻度」とは、上述の言語モデルを作成するために用いられる学習テキスト(テキストデータ)において、それに出現する各単語の出現回数を意味する。
また、認識結果として出力される各単語の「信頼度」は、音の辞書である音響モデルから算出された確率(音の観点から算出された確率)と、言語モデルから算出された確率(文章における各単語の繋がりモデルから算出された確率)との統計確率である(下記文献参照)。音声認識装置は、この2つの確率のうち、最上位の確率を信頼度として出力する。
(参照文献)
・特開2005−275348号公報
・特開2011−017818号公報
・李晃伸、河原達也、鹿野清宏著、「2パス探索アルゴリズムにおける高速な単語事後確率に基づく信頼度算出法」、情報処理学会研究報告、2003-SLP-49-48、2003-12.
(実施の形態)
以下、本発明の実施の形態における、音声認識装置、音声認識方法、及びプログラムについて、図1〜図9を参照しながら説明する。
[装置構成:概略]
最初に、本実施の形態における音声認識装置の概略構成について図1を用いて説明する。図1は、本発明の実施の形態における音声認識装置の概略構成を示すブロック図である。
図1に示すように、本実施の形態における音声認識装置20は、判別用言語モデル作成部21と、音声認識部22と、分野判定部23とを備えている。本実施の形態では、音声認識装置20は、端末10に接続されており、ユーザ50は、端末10に音声を入力する。この場合、端末10は、音声認識装置20に音声データを送信する。
音声認識装置20において、判別用言語モデル作成部21は、まず、複数の分野それぞれ毎の言語モデル(以下「分野別言語モデル」)26を生成するための、分野毎の学習テキスト(以下「分野別学習テキスト」)27の中から、分野毎に、出現頻度が設定条件を満たした単語を含む文(以下「条件合致文」と表記する。)を選択する。そして、判別用言語モデル作成部は、分野毎に選択した条件合致文を用いて、入力された音声の分野を判別するための判別用言語モデル25を生成する。
音声認識部22は、音声が入力されると、判別用言語モデル25と音響モデル30とを用いて、入力された音声に対して音声認識を実行する。そして、音声認識部22は、認識結果として、テキストデータ(以下「認識結果テキスト」と表記する。)と、認識結果テキストに含まれる各単語の信頼度とを出力する。
そして、分野判定部23は、認識結果テキストと、各単語の信頼度と、各分野の学習テキスト(分野別学習テキスト27)に含まれる単語とに基づいて、信頼度が設定値以上となる単語が最も多く存在する分野を特定し、特定した分野を入力された音声の分野と判定する。
具体的には、分野判定部23は、認識結果テキストの各単語の中で信頼度の高い単語と、各分野言語モデルの学習テキスト内の出現頻度の高い単語とを比較し、比較結果に基づいて、一致している単語が多い分野を音声の分野と判定する。
このように、本実施の形態では、音声認識装置20は、信頼度の高い単語がどの分野に多く含まれているのかを判断し、この判断結果から入力音声の分野を判定している。信頼度は、上述したように、入力された音声の音響モデル29による音の確率と判別用言語モデル25による単語の並びから算出される確率とから求められているため、判定結果は適切なものとなる。
また、分野判定用の音声認識に利用される判別用言語モデル25は、分野別言語モデル26に比べると、少ない学習データで作成されている。従って、分野判定用の音声認識における音声認識装置20の処理負担は、分野別言語モデル26のいずれかを用いる場合と比べても小さくなっている。
更に、本実施の形態では、図1に示すように、音声認識装置20は、言語モデル再構築部24を備えることができる。言語モデル再構築部24は、まず、入力音声の分野として判定された分野以外の分野について、判別用言語モデル作成部21が選択した条件合致文を取得する。
そして、言語モデル再構築部24は、取得した条件合致文を、学習テキストとして、入力音声の分野として判定された分野における言語モデルに加え、この分野における言語モデルを再構築する。なお、再構築された言語モデルは、以下「カスタマイズ言語モデル」29と表記する。
この場合、音声認識部22は、言語モデル再構築部24によって再構築されたカスタマイズ言語モデル29を用いて、再度、入力された音声に対して音声認識を実行する。
このように、言語モデル再構築部24によれば、入力された音声により適した理想的な言語モデル(カスタマイズ言語モデル29)が作成されるので、この言語モデルを用いて音声認識を実行すれば、従来(特許文献1〜3参照)に比べて認識精度の向上が図られることになる。
また、本実施の形態では、音声認識部22は、分野別言語モデル25の中から、入力音声の分野として判定された分野の言語モデルを取得し、これを用いて、入力された音声に対して音声認識を行なうこともできる。この場合であっても、間違った分野の言語モデルが選択されてしまう事態が回避されるので、認識精度の向上が図られる。また、この場合は、処理速度の向上が図られる。
更に、本実施の形態では、上述したように音声認識は2回実行されるが、特許文献3に開示された技術と異なり、複数の音声認識エンジンを同時に動作させる必要はないため、特許文献3に開示された技術と比べて、音声認識装置20の処理負担は低減される。
[装置構成:具体例]
続いて、本実施の形態における音声認識装置の構成について図2〜図5を用いて更に具体的に説明する。図2は、本発明の実施の形態における音声認識装置の具体的構成を示すブロック図である。
図2に示すように、本実施の形態における音声認識装置20は、判別用言語モデル作成部21、音声認識部22、分野判定部23、言語モデル作成部24に加えて、音響モデル格納部31と、判別用情報格納部32と、分野別情報格納部33と、カスタマイズ情報格納部34とを備えている。
このうち、音響モデル格納部31は、図1に示した音響モデル30を格納している。カスタマイズ情報格納部34は、図1に示したカスタマイズ言語モデル29を格納している。また、判別用情報格納部32は、図1に示した判別用言語モデル25に加えて、出現頻度リスト214及び条件合致文リスト215を格納している。出現頻度リスト214及び条件合致文リスト215については後述する。
分野別情報格納部33は、図1に示した分野別言語モデル26及び分野別学習テキスト27に加えて、分野別出現頻度情報28を格納している。分野別出現頻度情報28は、分野毎に、学習テキストに出現している各単語の出現頻度を特定する情報である。また、各単語の出現頻度は、通常、言語モデルの作成時に算出され、分野別出現頻度情報28は、分野別言語モデル26の作成の過程で出力される。
ここで、図3を用いて、分野別情報格納部33が格納している各情報について説明する。図3は、図2に示す分野別情報格納に格納されている情報の一例を示す図である。図3に示すように、本実施の形態では、分野別情報格納部33は、分野毎に、言語モデルと、学習テキストと、出現頻度情報とを格納している。
図3では、分野の例として、「医療」、「金融」、「通信」の3つが示されているが、分野の数はこれに限定されるものではない。また、ここでの「分野」は、特に限定されず、分野の設定は自由に行なわれる。例えば、分野は、上述のように、金融、医療、通信といった業界で設定されていても良いし、関西弁、博多弁といった方言で設定されていても良い。
また、図2に示すように、本実施の形態では、判別用言語モデル作成部21は、出現頻度リスト作成部211と、テキスト選択部212と、作成処理部213とを備えている。このうち、出現頻度リスト作成部211は、分野別学習テキスト27を用いて、分野毎に、出現頻度リスト214を生成し、これを判別用情報格納部32に格納させる。
具体的には、出現頻度リスト作成部211は、まず、分野別情報格納部33から、分野別出現頻度情報28(図3参照)を取得し、分野毎に、取得した出現頻度情報で特定される各単語の出現頻度に基づいて、出現頻度リスト214を作成する。
より詳細には、図4に示すように、出現頻度リスト作成部211は、各単語について出現頻度から相対頻度を求め、分野毎に、相対頻度の高い順に単語を配列して、出現頻度リスト214を作成する。なお、相対頻度は、分野内での相対頻度であっても良いし、全分野の相対頻度であっても良い。相対頻度の算出方法は、特に限定されるものではない。図4は、本発明の実施の形態における出現頻度リストの一例を示す図である。
次に、出現頻度リスト作成部211は、作成した各出現頻度リスト214を各分野の特徴的な単語のみのリストとするため、各出現頻度リスト214の単語の中から、助詞、形容詞、副詞、動詞などの品詞の単語を省き、各出現頻度リスト214を名詞(固有名詞等)のみのリストとする(図4参照)。
続いて、出現頻度リスト作成部211は、名詞のみとなった各出現頻度リスト214から、更に、分野の異なる複数の学習テキストで出現している単語を除去し、この除去後の各出現頻度リスト214を判別用情報格納部32に格納させる(図4参照)。なお、除去対象となる単語は、分野の異なる複数の学習テキストで出現している全ての単語でなくても良く、出現頻度リスト214における相対頻度が設定値以上の単語のみであっても良い。また、この場合の設定値は、後述の分野判定が適切となるように設定される。
テキスト選択部212は、まず、判別用情報格納部32から出現頻度リスト214を取得し、更に、分野別情報格納部33から分野別学習テキスト27を取得する。そして、テキスト選択部212は、分野毎に、出現頻度リスト214から、出現頻度が設定条件を満たした単語、例えば、相対頻度が設定値以上となっている単語(以下「上位出現頻度単語」と表記する。)を特定する。なお、この場合の設定値も、後述の分野判定が適切となるように設定される。
続いて、テキスト選択部212は、分野別学習テキスト27を探索して、その中から、分野毎に、特定した上位出現頻度単語を含む文(条件合致文)を選択する。また、テキスト選択部212は、図5に示すように、分野毎に、選択した条件合致文のリスト(以下「条件合致文リスト」と表記する。)215を作成し、これを判別用情報格納部32に格納させる。図5は、本発明の実施の形態における条件合致文リストの一例を示す図である。
作成処理部213は、まず、判別用情報格納部32から分野毎に条件合致文を取得する。続いて、作成処理部213は、取得した条件合致文を学習テキストとして、言語モデルを作成する。具体的には、作成処理部213は、取得した条件合致文を、分野毎の比率が等分となるように混ぜ合わせて、学習テキストとする。
そして、この作成された言語モデルが、判別用言語モデル25となる。作成処理部213は、作成した判別用言語モデル25を、判別用情報格納部32に格納する。
また、図2に示すように、本実施の形態では、ユーザ50の端末10は、音声検出部11と、認識結果表示部12とを備えている。端末10は、具体的には、パーソナルコンピュータ(PC)、スマートフォン、携帯電話といった、通話機能を備えた情報端末である。
音声検出部11は、ユーザ50が端末10に向けて認識させたい文章を発話すると、発話の音声区間を検知する。そして、ユーザ50が、認識終了ボタンを押すなどして、認識させたい文章の発話完了を指示すると、音声検出部11は、インターネット又はLANなどのネットワーク40を介して、検知した発話の音声データを音声認識装置20にストリームで送信する。また、音声検出部11は、発話の音声データから音声ファイルを生成し、生成した音声ファイルを音声認識装置20に送信することもできる。
音声認識部22は、端末10から音声データが入力されると、上述したように、まず、判別用言語モデル25を適用した音声認識エンジンで音声認識を行い、認識結果テキストと、認識結果テキストの各単語の信頼度とを取得する。また、音声認識部22は、取得した認識結果テキストと認識結果テキストの各単語の信頼度とを分野判定部23に渡す。
分野判定部23は、音声認識部22から、認識結果テキストと認識結果テキストの各単語の信頼度とを取得すると、判別用情報格納部32にアクセスし、そこから出現頻度リスト214を取得する。
次に、分野判定部23は、認識結果テキストに含まれる各単語と、各分野の出現頻度リスト214とを比較して、信頼度が設定値以上となる単語を最も多く含む出現頻度リスト214を特定し、特定した出現頻度リスト214の分野を、入力された音声の分野と判定する。また、分野判定部23は、判定結果を言語モデル再構築部24に渡す。
また、このとき、分野判定部23は、出現頻度リスト中の単語に制限を設けても良い。例えば、分野判定部23は、認識結果テキストの各単語うちの信頼度が設定値以上となる単語と、各分野の出現頻度リスト中の順位が設定値以上となっている単語とを照合し、一致している単語数が最も多い分野を、入力された音声の分野と判定しても良い。なお、信頼度の設定値と順位の設定値とは、判定結果が適切となるように設定される。
言語モデル再構築部24は、分野判定部23から判定結果を取得すると、判定結果に基づいて分野を特定し、分野別情報格納部33から、特定した分野の言語モデルを取得する。また、言語モデル再構築部24は、特定した分野以外の分野について、判別用情報格納部32に格納されている条件合致文リスト215から、分野判定部23による照合で一致した単語を含む条件合致文を取得する。
そして、言語モデル再構築部24は、取得した条件合致文を、学習テキストとして、分野別情報格納部33から取得した言語モデルに追加し、言語モデルを再構築する。これにより、入力音声の分野として判定された分野の言語モデルは、カスタマイズされ、カスタマイズ言語モデル29として、カスタマイズ情報格納部29に格納される。
カスタマイズ言語モデル29が作成されると、音声認識部22は、カスタマイズ言語モデル29を適用した認識エンジンによって、再度音声認識を実行する。そして、音声認識部22は、認識結果テキストを、ネットワーク40を介して、端末10に送信する。
この結果、端末10においては、認識結果表示部12が、送信されてきた認識結果テキストを表示パネル(図示せず)の画面に表示する。これにより、ユーザ50は、音声認識の結果を確認する。
また、本実施の形態では、言語モデル再構築部24は、音声認識部22がカスタマイズ言語モデル29を用いて音声認識を実行し、処理が終了すると、カスタマイズ情報格納部29からカスタマイズ言語モデル29を削除することができる。
[装置動作]
次に、本発明の実施の形態における音声認識装置20の動作について図6及び図7を用いて説明する。本実施の形態では、音声認識装置20は、事前準備としての判別用言語モデルの作成処理と、音声認識処理とを実行する。このため、以下においては、処理毎に説明を行なう。
なお、本実施の形態では、音声認識装置20を動作させることによって、音声認識方法が実施される。よって、本実施の形態における音声認識方法の説明は、以下の音声認識装置20の動作説明に代える。また、図2〜図5を適宜参酌する。
[判別用言語モデル作成処理]
最初に、図6を用いて、判別用言語モデル25の作成処理について説明する。図6は、本発明の実施の形態における音声認識装置の判別用言語モデル作成処理時の動作を示すフロー図である。また、本実施の形態では、図6に示す判別用言語モデル25の作成処理は、分野別言語モデル26において、言語モデルの追加、削除、変更等の更新があった場合に実施される。
図6に示すように、最初に、出現頻度リスト作成部211は、分野別言語モデル26の作成の過程で出力された分野別出現頻度情報28から、各分野の学習テキスト内の単語が出現頻度に基づいて並べられた出現頻度リスト214を生成する(ステップS1)。また、出現頻度リスト作成部211は、作成した出現頻度リスト214を、判別用情報格納部32に出力し、これに格納させる。
次に、出現頻度リスト作成部211は、格納されている各分野の出現頻度リスト214の単語のうち、名詞(固有名詞等)以外の品詞(助詞、形容詞、副詞、動詞等)の単語を、各出現頻度リスト211から除去する(ステップS2)。
続いて、出現頻度リスト作成部211は、格納されている各分野の出現頻度リスト214の単語のうち、各分野の出現頻度リストに共通に含まれており、且つ、相対頻度が設定値以上となる単語も、各分野の出現頻度リストから除去する(ステップS3)。
次に、テキスト選択部212は、各分野の出現頻度リスト214から、上位出現頻度単語を特定し、分野別学習テキスト27の中から、特定した上位出現頻度単語を含む条件合致文を選択する(ステップS4)。また、テキスト選択部212は、図5に示すように、分野毎に、条件合致文リスト215を作成し、これを判別用情報格納部32に格納させる。
次に、作成処理部213は、ステップS4で選択された各分野の条件合致文を取得し、取得した条件合致文を分野毎の比率が等分となるように混ぜ合わせ、混ぜ合わせた状態の条件合致文を学習テキストとして、判別用言語モデル25を作成する(ステップS5)。ステップS5の実行後、判別用言語モデル25の作成処理は終了する。
[音声認識処理]
続いて、図7を用いて、音声認識処理について説明する。図7は、本発明の実施の形態における音声認識装置の音声認識処理時の動作を示すフロー図である。また、本実施の形態では、図7に示す音声認識処理は、端末10から音声が送信されてくるたびに実施される。
図7に示すように、最初に、ユーザ50が端末10に向けて認識させたい文章を発話すると、端末10の音声検出部11が、発話を検知し、検知した発話の音声データを音声認識装置20にストリームで送信する(ステップT1)。なお、ステップT1では、端末10は、発話の音声データから生成した音声ファイルを音声認識装置20に送信することもできる。
次に、端末10から音声データが入力されると、音声認識装置20において、音声認識部22は、音声データに対して、判別用言語モデル25が適用された音声認識エンジンにて、音声認識を実施する(ステップT2)。また、ステップT2では、音声認識部22は、認識結果テキストと、認識結果テキストの各単語の信頼度とを、分野判定部23に出力する。
次に、分野判定部23は、音声認識部22から、認識結果テキストと認識結果テキストの各単語の信頼度とを取得すると、判別用情報格納部32にアクセスし、そこから出現頻度リスト214を取得する。そして、分野判定部23は、認識結果テキストに含まれる各単語と、各分野の出現頻度リスト214とを用いて、分野毎に、認識結果テキスト中の信頼度が設定値以上の単語と、出現頻度リスト214中の単語とを比較し、一致する単語数を分野毎に特定する(ステップT3)。
次に、分野判定部23は、ステップT3の結果に基づいて、一致した単語数が最も多い分野が一つであるかどうかを判定する(ステップT4)。
ステップT4の判定の結果、一致した単語数が最も多い分野が一つである場合は、分野判定部23は、一致した単語数が最も多い分野を、入力された音声の分野と判定し、この分野の言語モデルを選択する(ステップT5)。
一方、ステップT4の判定の結果、一致した単語数が最も多い分野が一つでない場合は、分野判定部23は、一致した単語数が最も多い多い分野それぞれについて、一致した単語の中で出現頻度が最も高い単語の一致数を特定する(ステップT10)。
次に、分野判定部23は、ステップT10の結果に基づいて、特定した一致数が最も多い分野が一つであるかどうかを判定する(ステップT11)。
ステップT11の判定の結果、特定した一致数が最も多い分野が一つである場合は、分野判定部23は、ステップT5を実行し、ステップT10で特定した一致数が最も多い分野を、入力された音声の分野と判定する。そして、分野判定部23は、この分野の言語モデルを選択する。
一方、ステップT11の判定の結果、特定した一致数が最も多い分野が一つでない(複数ある)場合は、分野判定部23は、該当する複数の分野において、ステップT10に準じて、基準となる出現頻度の順位を下げながら、一致した単語数が最も多い分野が一つとなるまで、単語の一致数を特定する(ステップT12)。
次に、分野判定部23は、ステップT12の実行後、更に、ステップT5を実行し、一致した単語数が最も多い分野が一つとなったときの分野を、入力された音声の分野と判定する。そして、分野判定部23は、この分野の言語モデルを選択する。
次に、ステップT5が実行されると、言語モデル再構築部24は、ステップT4にて選択された言語モデルの分野以外の分野について、ステップT3で一致するとされた単語を特定する(ステップT6)。
次に、言語モデル再構築部24は、条件合致文リスト215から、ステップT4にて選択された言語モデルの分野以外の分野について、ステップT6で特定された単語を含む条件合致文を取得する。そして、言語モデル再構築部24は、取得した条件合致文を、学習テキストとして、ステップT4にて選択された言語モデルに追加し、言語モデルを再構築する(ステップT7)。
次に、音声認識部22は、ステップT6で再構築されたカスタマイズ言語モデル29を適用した音声認識エンジンで、再度音声認識を実行する(ステップT7)。また、ステップT7では、音声認識部22は、認識結果テキストを、端末10に送信する。
ステップT7によって、認識結果テキストが送信されてくると、端末10においては、認識結果表示部12が、送信されてきた認識結果テキストを表示パネル(図示せず)の画面に表示する(ステップT9)。これにより、ユーザ50は、音声認識の結果を確認する。
以上のように本実施の形態では、入力音声の分野が分からない場合でも、入力音声の分野を自動的に判別できるので、適切な分野の言語モデルを選択することができ、認識精度の向上を図ることができる。また、本実施の形態では、選択した言語モデルをカスタマイズすることができるため、いっそう、認識精度の向上を図ることができる。更に、本実施の形態では、複数の音声認識エンジンを同時に動作させる必要はないため、音声認識装置20の処理負担は低減される。
また、本実施の形態では、ステップT6〜T8の代わりに、音声認識部22が、ステップT4にて選択された言語モデルを用いて、入力された音声に対して音声認識を実行する、ステップが実行されていても良い。この態様では、処理速度の向上が図られるので、処理速度及び処理量が重要視される場合に有用となる。
更に、本実施の形態における音声認識装置20は、入力される音声の分野を判別する機能を備えていることから、入力音声の分類などに利用することも可能である。この場合、分類対象となる分野は、金融、医療などの業界別、方言別、業務別など、どのように設定されていても良く、分類の軸は自由に設定することができる。
また、本実施の形態における音声認識装置20では、判別用言語モデルを適用させた認識エンジンと、分野別言語モデルを適用させた認識エンジンとを、並列に動作させることもできる。この場合は、判別用言語モデルを適用した認識エンジンで、ある値が一定以上の閾値になった場合に、一定以上の閾値の分野に動的に切り替えることが可能となる。
具体的には、例えば、判別用言語モデルを適用させた認識エンジンによる音声認識の実行後、ステップT3において、一致する単語数が閾値以上になったとする。この場合、音声認識部20は、単語数が閾値以上となった分野を特定し、特定した分野の言語モデルを適用した認識エンジンで音声認識を実行する。
[用途例]
本実施の形態における音声認識装置20の用途について説明する。まず、音声認識装置は、様々な話題についてお客様からの相談を受けるコールセンターでお客様側の音声を認識させる場合、複数の分野の音声ファイルを一括で認識させたい場合、及びクラウドでの利用時に入力される音声が分からない場合などにおいて利用される。
ここで、用途例を、図8を用いて説明する。図8は、本発明の実施の形態における音声認識装置をクラウドで利用する場合の一例を示す図である。図8の例では、音声認識装置20は、クラウドで利用されており、パーソナルコンピュータ、スマートフォン、携帯電話といった様々な情報端末から、音声データを受信する。そして、音声認識装置20は、音声データを受信すると、それに基づいて音声の分野を特定し、音声認識を実行する。その後、音声認識装置20は、音声データの送信元の情報端末に認識結果を送信する。
[プログラム]
本実施の形態におけるプログラムは、コンピュータに、図6に示すステップS1〜S5、図7に示すステップT2〜T8、T10〜T12を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態における音声認識装置20と音声認識方法とを実現することができる。
また、上記の場合、コンピュータのCPU(Central Processing Unit)は、判別用言語モデル作成部21、音声認識部22、分野判定部23、及び言語モデル再構築部24として機能し、処理を行なう。更に、コンピュータに備えられたハードディスク等の記憶装置が、音響モデル格納部31、判別用情報格納部32、分野別情報格納部33、及びカスタマイズ情報格納部34として機能する。
ここで、実施の形態におけるプログラムを実行することによって、音声認識装置20を実現するコンピュータについて図9を用いて説明する。図9は、本発明の実施の形態における音声認識装置を実現するコンピュータの一例を示すブロック図である。
図9に示すように、コンピュータ110は、CPU111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。
CPU111は、記憶装置113に格納された、本実施の形態におけるプログラム(コード)をメインメモリ112に展開し、これらを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)等の揮発性の記憶装置である。また、本実施の形態におけるプログラムは、コンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、本実施の形態におけるプログラムは、通信インターフェイス117を介して接続されたインターネット上で流通するものであっても良い。
また、記憶装置113の具体例としては、ハードディスクドライブの他、フラッシュメモリ等の半導体記憶装置が挙げられる。入力インターフェイス114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。表示コントローラ115は、ディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。
データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。通信インターフェイス117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。
また、記録媒体120の具体例としては、CF(Compact Flash(登録商標))及びSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記憶媒体、又はCD−ROM(Compact Disk Read Only Memory)などの光学記憶媒体が挙げられる。
上述した実施の形態の一部又は全部は、以下に記載する(付記1)〜(付記15)によって表現することができるが、以下の記載に限定されるものではない。
(付記1)
複数の分野それぞれ毎の言語モデルを生成するための、前記分野毎の学習テキストの中から、前記分野毎に、出現頻度が設定条件を満たした単語を含む文を選択し、選択した前記文を用いて、入力された音声の分野を判別するための判別用言語モデルを生成する、判別用言語モデル作成部と、
前記判別用言語モデルを用いて、入力された音声に対して音声認識を実行し、認識結果として、テキストデータと、前記テキストデータに含まれる各単語の信頼度とを出力する、音声認識部と、
テキストデータと、前記各単語の信頼度と、各分野の前記学習テキストに含まれる単語とに基づいて、前記信頼度が設定値以上となる単語が最も多く存在する分野を特定し、特定した分野を前記入力された音声の分野と判定する、分野判定部と、
を備えていることを特徴とする、音声認識装置。
(付記2)
前記判別用言語モデル作成部が、
前記分野毎に、当該学習テキストに含まれる単語が出現頻度に基づいて配列され、且つ、名詞以外の単語、及び分野の異なる複数の学習テキストで出現している単語が除去された、出現頻度リストを生成する、出現頻度リスト作成部と、
前記分野毎に、前記出現頻度リストから、出現頻度が設定条件を満たした単語を特定し、前記学習テキストの中から、特定した単語を含む文を選択する、テキスト選択部と、
前記分野毎に選択された前記文を用いて、前記判別用言語モデルを生成する、作成処理部と、を備え、
前記分野判定部が、
前記テキストデータに含まれる各単語と、各分野の前記出現頻度リストとを比較して、前記信頼度が設定値以上となる単語を最も多く含む出現頻度リストを特定し、特定した出現頻度リストの分野を、前記入力された音声の分野と判定する、付記1に記載の音声認識装置。
(付記3)
特定された前記分野以外の分野について、前記判別用言語モデル作成部が選択した前記文を取得し、取得した前記文を、学習テキストとして、特定された前記分野における前記言語モデルに加えて、特定された前記分野における前記言語モデルを再構築する、言語モデル再構築部を更に備え、
前記音声認識部が、前記言語モデル再構築部によって再構築された前記言語モデルを用いて、再度、前記入力された音声に対して音声認識を実行する、
付記1または2に記載の音声認識装置。
(付記4)
前記複数の分野それぞれ毎に予め言語モデルが用意されており、
前記音声認識部が、予め用意されている前記言語モデルのうち、特定された前記分野の前記言語モデルを用いて、再度、前記入力された音声に対して音声認識を実行する、
付記1または2に記載の音声認識装置。
(付記5)
前記作成処理部が、前記分野毎の比率が等分となるように、前記分野毎に選択された前記文を混ぜ合わせて、前記判別用言語モデルの学習テキストとする、
付記2に記載の音声認識装置。
(付記6)
(a)複数の分野それぞれ毎の言語モデルを生成するための、前記分野毎の学習テキストの中から、前記分野毎に、出現頻度が設定条件を満たした単語を含む文を選択し、選択した前記文を用いて、入力された音声の分野を判別するための判別用言語モデルを生成する、ステップと、
(b)前記判別用言語モデルを用いて、入力された音声に対して音声認識を実行し、認識結果として、テキストデータと、前記テキストデータに含まれる各単語の信頼度とを出力する、ステップと、
(c)テキストデータと、前記各単語の信頼度と、各分野の前記学習テキストに含まれる単語とに基づいて、前記信頼度が設定値以上となる単語が最も多く存在する分野を特定し、特定した分野を前記入力された音声の分野と判定する、ステップと、
を有することを特徴とする、音声認識方法。
(付記7)
前記(a)のステップが、
(a1)前記分野毎の学習テキストを用いて、前記分野毎に、当該学習テキストに含まれる単語が出現頻度に基づいて配列され、且つ、名詞以外の単語、及び分野の異なる複数の学習テキストで出現している単語が除去された、出現頻度リストを生成する、ステップと、
(a2)前記分野毎に、前記出現頻度リストから、出現頻度が設定条件を満たした単語を特定し、前記学習テキストの中から、特定した単語を含む文を選択する、ステップと、
(a3)前記分野毎に選択された前記文を用いて、前記判別用言語モデルを生成する、ステップと、を有し、
前記(c)のステップにおいて、
前記テキストデータに含まれる各単語と、各分野の前記出現頻度リストとを比較して、前記信頼度が設定値以上となる単語を最も多く含む出現頻度リストを特定し、特定した出現頻度リストの分野を、前記入力された音声の分野と判定する、
付記6に記載の音声認識方法。
(付記8)
(d)特定された前記分野以外の分野について、前記(a)のステップで選択した前記文を取得し、取得した前記文を、学習テキストとして、特定された前記分野における前記言語モデルに加えて、特定された前記分野における前記言語モデルを再構築する、ステップと、
(e)前記(d)のステップによって再構築された前記言語モデルを用いて、再度、前記入力された音声に対して音声認識を実行する、ステップと、
を更に有している、付記6または7に記載の音声認識方法。
(付記9)
前記複数の分野それぞれ毎に予め言語モデルが用意されており、
(f)予め用意されている前記言語モデルのうち、特定された前記分野の前記言語モデルを用いて、再度、前記入力された音声に対して音声認識を実行する、ステップを、
更に有している、付記6または7に記載の音声認識方法。
(付記10)
前記(a3)のステップにおいて、前記分野毎の比率が等分となるように、前記分野毎に選択された前記文を混ぜ合わせて、前記判別用言語モデルの学習テキストとする、
付記7に記載の音声認識方法。
(付記11)
コンピュータに、
(a)複数の分野それぞれ毎の言語モデルを生成するための、前記分野毎の学習テキストの中から、前記分野毎に、出現頻度が設定条件を満たした単語を含む文を選択し、選択した前記文を用いて、入力された音声の分野を判別するための判別用言語モデルを生成する、ステップと、
(b)前記判別用言語モデルを用いて、入力された音声に対して音声認識を実行し、認識結果として、テキストデータと、前記テキストデータに含まれる各単語の信頼度とを出力する、ステップと、
(c)テキストデータと、前記各単語の信頼度と、各分野の前記学習テキストに含まれる単語とに基づいて、前記信頼度が設定値以上となる単語が最も多く存在する分野を特定し、特定した分野を前記入力された音声の分野と判定する、ステップと、
を実行させる、プログラム。
(付記12)
前記(a)のステップが、
(a1)前記分野毎の学習テキストを用いて、前記分野毎に、当該学習テキストに含まれる単語が出現頻度に基づいて配列され、且つ、名詞以外の単語、及び分野の異なる複数の学習テキストで出現している単語が除去された、出現頻度リストを生成する、ステップと、
(a2)前記分野毎に、前記出現頻度リストから、出現頻度が設定条件を満たした単語を特定し、前記学習テキストの中から、特定した単語を含む文を選択する、ステップと、
(a3)前記分野毎に選択された前記文を用いて、前記判別用言語モデルを生成する、ステップと、を有し、
前記(c)のステップにおいて、
前記テキストデータに含まれる各単語と、各分野の前記出現頻度リストとを比較して、前記信頼度が設定値以上となる単語を最も多く含む出現頻度リストを特定し、特定した出現頻度リストの分野を、前記入力された音声の分野と判定する、
付記11に記載のプログラム。
(付記13)
(d)特定された前記分野以外の分野について、前記(a)のステップで選択した前記文を取得し、取得した前記文を、学習テキストとして、特定された前記分野における前記言語モデルに加えて、特定された前記分野における前記言語モデルを再構築する、ステップと、
(e)前記(d)のステップによって再構築された前記言語モデルを用いて、再度、前記入力された音声に対して音声認識を実行する、ステップと、
を更に前記コンピュータに実行させる、付記11または12に記載のプログラム。
(付記14)
前記複数の分野それぞれ毎に予め言語モデルが用意されており、
(f)予め用意されている前記言語モデルのうち、特定された前記分野の前記言語モデルを用いて、再度、前記入力された音声に対して音声認識を実行する、ステップを、
更に前記コンピュータに実行させる、付記11または12に記載のプログラム。
(付記15)
前記(a3)のステップにおいて、前記分野毎の比率が等分となるように、前記分野毎に選択された前記文を混ぜ合わせて、前記判別用言語モデルの学習テキストとする、
付記12に記載のプログラム。
本発明によれば、処理負担の増加を抑制しつつ、入力された音声に対して関連する分野を判別することができる。本発明は、音声認識を実装するシステム全般に利用することができ、入力音声の分野が分からない場合に有効となる。
10 端末
11 音声検出部
12 認識結果表示部
20 音声認識装置
21 判別用言語モデル作成部
22 音声認識部
23 分野判定部
24 言語モデル再構築部
25 判別用言語モデル
26 分野別言語モデル
27 分野別学習テキスト
28 分野別出現頻度情報
29 カスタマイズ言語モデル
30 音響モデル
31 音響モデル格納部
32 判別用情報格納部
33 分野別情報格納部
34 カスタマイズ情報格納部
40 ネットワーク
50 ユーザ
110 コンピュータ
111 CPU
112 メインメモリ
113 記憶装置
114 入力インターフェイス
115 表示コントローラ
116 データリーダ/ライタ
117 通信インターフェイス
118 入力機器
119 ディスプレイ装置
120 記録媒体
121 バス
211 出現頻度リスト作成部
212 テキスト選択部
213 作成処理部
214 出現頻度リスト
215 条件合致文リスト

Claims (7)

  1. 複数の分野それぞれ毎の言語モデルを生成するための、前記分野毎の学習テキストの中から、前記分野毎に、出現頻度が設定条件を満たした単語を含む文を選択し、選択した前記文を用いて、入力された音声の分野を判別するための判別用言語モデルを生成する、判別用言語モデル作成部と、
    前記判別用言語モデルを用いて、入力された音声に対して音声認識を実行し、認識結果として、テキストデータと、前記テキストデータに含まれる各単語の信頼度とを出力する、音声認識部と、
    テキストデータと、前記各単語の信頼度と、各分野の前記学習テキストに含まれる単語とに基づいて、前記信頼度が設定値以上となる単語が最も多く存在する分野を特定し、特定した分野を前記入力された音声の分野と判定する、分野判定部と、
    を備えていることを特徴とする、音声認識装置。
  2. 前記判別用言語モデル作成部が、
    前記分野毎に、当該学習テキストに含まれる単語が出現頻度に基づいて配列され、且つ、名詞以外の単語、及び分野の異なる複数の学習テキストで出現している単語が除去された、出現頻度リストを生成する、出現頻度リスト作成部と、
    前記分野毎に、前記出現頻度リストから、出現頻度が設定条件を満たした単語を特定し、前記学習テキストの中から、特定した単語を含む文を選択する、テキスト選択部と、
    前記分野毎に選択された前記文を用いて、前記判別用言語モデルを生成する、作成処理部と、を備え、
    前記分野判定部が、
    前記テキストデータに含まれる各単語と、各分野の前記出現頻度リストとを比較して、前記信頼度が設定値以上となる単語を最も多く含む出現頻度リストを特定し、特定した出現頻度リストの分野を、前記入力された音声の分野と判定する、請求項1に記載の音声認識装置。
  3. 特定された前記分野以外の分野について、前記判別用言語モデル作成部が選択した前記文を取得し、取得した前記文を、学習テキストとして、特定された前記分野における前記言語モデルに加えて、特定された前記分野における前記言語モデルを再構築する、言語モデル再構築部を更に備え、
    前記音声認識部が、前記言語モデル再構築部によって再構築された前記言語モデルを用いて、再度、前記入力された音声に対して音声認識を実行する、
    請求項1または2に記載の音声認識装置。
  4. 前記複数の分野それぞれ毎に予め言語モデルが用意されており、
    前記音声認識部が、予め用意されている前記言語モデルのうち、特定された前記分野の前記言語モデルを用いて、再度、前記入力された音声に対して音声認識を実行する、
    請求項1または2に記載の音声認識装置。
  5. 前記作成処理部が、前記分野毎の比率が等分となるように、前記分野毎に選択された前記文を混ぜ合わせて、前記判別用言語モデルの学習テキストとする、
    請求項2に記載の音声認識装置。
  6. (a)複数の分野それぞれ毎の言語モデルを生成するための、前記分野毎の学習テキストの中から、前記分野毎に、出現頻度が設定条件を満たした単語を含む文を選択し、選択した前記文を用いて、入力された音声の分野を判別するための判別用言語モデルを生成する、ステップと、
    (b)前記判別用言語モデルを用いて、入力された音声に対して音声認識を実行し、認識結果として、テキストデータと、前記テキストデータに含まれる各単語の信頼度とを出力する、ステップと、
    (c)テキストデータと、前記各単語の信頼度と、各分野の前記学習テキストに含まれる単語とに基づいて、前記信頼度が設定値以上となる単語が最も多く存在する分野を特定し、特定した分野を前記入力された音声の分野と判定する、ステップと、
    を有することを特徴とする、音声認識方法。
  7. コンピュータに、
    (a)複数の分野それぞれ毎の言語モデルを生成するための、前記分野毎の学習テキストの中から、前記分野毎に、出現頻度が設定条件を満たした単語を含む文を選択し、選択した前記文を用いて、入力された音声の分野を判別するための判別用言語モデルを生成する、ステップと、
    (b)前記判別用言語モデルを用いて、入力された音声に対して音声認識を実行し、認識結果として、テキストデータと、前記テキストデータに含まれる各単語の信頼度とを出力する、ステップと、
    (c)テキストデータと、前記各単語の信頼度と、各分野の前記学習テキストに含まれる単語とに基づいて、前記信頼度が設定値以上となる単語が最も多く存在する分野を特定し、特定した分野を前記入力された音声の分野と判定する、ステップと、
    を実行させる、プログラム。
JP2012029207A 2012-02-14 2012-02-14 音声認識装置、音声認識方法、及びプログラム Active JP6019604B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012029207A JP6019604B2 (ja) 2012-02-14 2012-02-14 音声認識装置、音声認識方法、及びプログラム
US13/766,247 US9142211B2 (en) 2012-02-14 2013-02-13 Speech recognition apparatus, speech recognition method, and computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012029207A JP6019604B2 (ja) 2012-02-14 2012-02-14 音声認識装置、音声認識方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2013167666A JP2013167666A (ja) 2013-08-29
JP6019604B2 true JP6019604B2 (ja) 2016-11-02

Family

ID=48946370

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012029207A Active JP6019604B2 (ja) 2012-02-14 2012-02-14 音声認識装置、音声認識方法、及びプログラム

Country Status (2)

Country Link
US (1) US9142211B2 (ja)
JP (1) JP6019604B2 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5932869B2 (ja) * 2014-03-27 2016-06-08 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation N−gram言語モデルの教師無し学習方法、学習装置、および学習プログラム
US10152298B1 (en) * 2015-06-29 2018-12-11 Amazon Technologies, Inc. Confidence estimation based on frequency
US9858923B2 (en) * 2015-09-24 2018-01-02 Intel Corporation Dynamic adaptation of language models and semantic tracking for automatic speech recognition
US20180025731A1 (en) * 2016-07-21 2018-01-25 Andrew Lovitt Cascading Specialized Recognition Engines Based on a Recognition Policy
CN108062954B (zh) * 2016-11-08 2020-12-08 科大讯飞股份有限公司 语音识别方法和装置
JP6532619B2 (ja) * 2017-01-18 2019-06-19 三菱電機株式会社 音声認識装置
US10748531B2 (en) * 2017-04-13 2020-08-18 Harman International Industries, Incorporated Management layer for multiple intelligent personal assistant services
JP7143665B2 (ja) * 2018-07-27 2022-09-29 富士通株式会社 音声認識装置、音声認識プログラムおよび音声認識方法
CN109410923B (zh) * 2018-12-26 2022-06-10 中国联合网络通信集团有限公司 语音识别方法、装置、系统及存储介质
JP7177348B2 (ja) * 2019-02-06 2022-11-24 日本電信電話株式会社 音声認識装置、音声認識方法およびプログラム
CN116402478B (zh) * 2023-06-07 2023-09-19 成都普朗克科技有限公司 基于语音交互的生成清单的方法和装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3547350B2 (ja) 1999-09-28 2004-07-28 Kddi株式会社 連続音声認識装置
JP4270732B2 (ja) 2000-09-14 2009-06-03 三菱電機株式会社 音声認識装置、音声認識方法、及び音声認識プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2004198597A (ja) * 2002-12-17 2004-07-15 Advanced Telecommunication Research Institute International 音声認識装置および文分類装置としてコンピュータを動作させるコンピュータプログラム、階層化された言語モデルを作成する方法を実現する様にコンピュータを動作させるコンピュータプログラム、および記憶媒体
JP3923513B2 (ja) * 2004-06-08 2007-06-06 松下電器産業株式会社 音声認識装置および音声認識方法
US8719021B2 (en) * 2006-02-23 2014-05-06 Nec Corporation Speech recognition dictionary compilation assisting system, speech recognition dictionary compilation assisting method and speech recognition dictionary compilation assisting program
JP5212910B2 (ja) * 2006-07-07 2013-06-19 日本電気株式会社 音声認識装置、音声認識方法、および音声認識用プログラム
JP5530729B2 (ja) 2009-01-23 2014-06-25 本田技研工業株式会社 音声理解装置
JP5148532B2 (ja) * 2009-02-25 2013-02-20 株式会社エヌ・ティ・ティ・ドコモ 話題判定装置および話題判定方法
US9892730B2 (en) * 2009-07-01 2018-02-13 Comcast Interactive Media, Llc Generating topic-specific language models

Also Published As

Publication number Publication date
US20130211822A1 (en) 2013-08-15
JP2013167666A (ja) 2013-08-29
US9142211B2 (en) 2015-09-22

Similar Documents

Publication Publication Date Title
JP6019604B2 (ja) 音声認識装置、音声認識方法、及びプログラム
US10642577B2 (en) Search and knowledge base question answering for a voice user interface
US10192545B2 (en) Language modeling based on spoken and unspeakable corpuses
KR102315732B1 (ko) 음성 인식 방법, 디바이스, 장치, 및 저장 매체
RU2571608C2 (ru) Создание заметок с использованием голосового потока
US9558741B2 (en) Systems and methods for speech recognition
JP6556575B2 (ja) 音声処理装置、音声処理方法及び音声処理プログラム
US11586689B2 (en) Electronic apparatus and controlling method thereof
JP2019061662A (ja) 情報を抽出する方法及び装置
US10108698B2 (en) Common data repository for improving transactional efficiencies of user interactions with a computing device
CN110335608B (zh) 声纹验证方法、装置、设备及存储介质
JP6980411B2 (ja) 情報処理装置、対話処理方法、及び対話処理プログラム
EP2988298B1 (en) Response generation method, response generation apparatus, and response generation program
JP7058574B2 (ja) 情報処理装置、情報処理方法、およびプログラム
KR20240073984A (ko) 관찰된 쿼리 패턴들에 기초하는 타겟 디바이스에 대한 증류
KR20190074508A (ko) 챗봇을 위한 대화 모델의 데이터 크라우드소싱 방법
US11699430B2 (en) Using speech to text data in training text to speech models
WO2022022049A1 (zh) 文本长难句的压缩方法、装置、计算机设备及存储介质
JP5636309B2 (ja) 音声対話装置および音声対話方法
US20170242845A1 (en) Conversational list management
JP4735958B2 (ja) テキストマイニング装置、テキストマイニング方法およびテキストマイニングプログラム
JP6674876B2 (ja) 補正装置、補正方法及び補正プログラム
US11749270B2 (en) Output apparatus, output method and non-transitory computer-readable recording medium
JP5881157B2 (ja) 情報処理装置、およびプログラム
CN113593523A (zh) 基于人工智能的语音检测方法、装置及电子设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150108

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20150123

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160919

R150 Certificate of patent or registration of utility model

Ref document number: 6019604

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150