JP4542974B2 - 音声認識装置、音声認識方法および音声認識プログラム - Google Patents

音声認識装置、音声認識方法および音声認識プログラム Download PDF

Info

Publication number
JP4542974B2
JP4542974B2 JP2005280593A JP2005280593A JP4542974B2 JP 4542974 B2 JP4542974 B2 JP 4542974B2 JP 2005280593 A JP2005280593 A JP 2005280593A JP 2005280593 A JP2005280593 A JP 2005280593A JP 4542974 B2 JP4542974 B2 JP 4542974B2
Authority
JP
Japan
Prior art keywords
utterance
recognition
speech
voice
recognition candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005280593A
Other languages
English (en)
Other versions
JP2007093789A (ja
Inventor
秀樹 平川
哲朗 知野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2005280593A priority Critical patent/JP4542974B2/ja
Priority to US11/374,976 priority patent/US7983912B2/en
Priority to CNA2006101155289A priority patent/CN1941077A/zh
Publication of JP2007093789A publication Critical patent/JP2007093789A/ja
Application granted granted Critical
Publication of JP4542974B2 publication Critical patent/JP4542974B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Machine Translation (AREA)

Description

この発明は、音声により入力された文字列を認識する音声認識装置、音声認識方法および音声認識プログラムに関するものである。
従来から、入力された音声発話と予め記憶された音声解析情報とをパターン照合することにより、音声情報を文字情報に変換する音声認識技術が開発されている。現状の音声認識技術では、誤認識の発生を完全に排除することはできないため、適切な認識結果を得るための様々な技術が提案され、広く利用されている。
例えば、複数の認識候補から最も確からしい候補を選択して利用者に提示し、選択した候補が誤っている場合には、利用者が発話全体を再入力し、その際に元の発話の認識結果を除外することにより、正しい認識結果を効率的に取得する方法が知られている。しかし、このような方法では発話全体を再度入力するため、利用者の操作負担が増大するという問題があった。
これに対し、特許文献1では、選択した候補が誤っている場合には、利用者が誤認識部分のみを再入力し、再入力した発話で候補を修正して再提示する技術が提案されている。これにより、全文を言い直す負担を軽減し操作性を向上させている。
また、特許文献1では、住所や電話番号などの階層構造を有する情報が入力されることを前提とし、再入力された発話がいずれの階層に相当するかを判定して認識候補を修正している。この際、誤認識されている階層下のパターンだけを照合の対象とすることができるため、認識処理の効率化および高精度化を実現することができる。
また、特許文献2では、利用者が誤認識部分のみを際入力し、再入力した部分の認識候補から、元の発話時に選択した認識候補を削除することにより、再度誤った候補を選択して提示することを回避する技術が提案されている。
ところで、一般に、句や文を入力し認識する音声認識システムでは、音声認識で誤認識が生じる場合として、一部の単語のみに誤認識が生じる場合と、雑音などの影響により発話全体の誤りであるバースト誤りが生じる場合が存在する。誤認識部分が少なく軽微な場合には、一部のみを修正することが効率的である。一方、バースト誤りのように修正箇所が多い場合には、発話全体を修正することが効率的である。
特開2002−287792号公報 特開2003−316386号公報
しかしながら、従来の方法では、原則として発話の全文を再入力して修正するか、または、発話の一部を再入力して修正するかのいずれか一方のみを対象としており、誤認識の内容に応じた修正を行うことができないという問題があった。
また、特許文献2の方法のように、全体修正および部分修正の両方に適用できる技術も存在するが、それぞれの修正で修正方法は同一であるため、利用者が発話全体を再入力したか、一部のみを再入力したかという、利用者の修正入力方法に応じた修正を行うことができないという問題があった。
本発明は、上記に鑑みてなされたものであって、利用者の修正入力方法に応じた音声認識結果の修正を行うことにより、利便性が高く、高精度な音声認識結果を出力することができる音声認識装置、音声認識方法および音声認識プログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、音声認識装置において、入力された音声発話を認識し、少なくとも1つの認識結果の候補と前記候補の確からしさを示す尤度とを対応づけた認識候補を生成する認識候補生成手段と、前記認識候補生成手段が生成した前記認識候補を記憶する認識候補記憶手段と、先に入力された第1の音声発話のうち、前記第1の音声発話の音声情報と後に入力された第2の音声発話の音声情報との類似度が予め定められた閾値より大きい部分である類似部分を検出し、前記類似部分が前記第1の音声発話の全体と一致する場合に前記第2の音声発話は前記第1の音声発話の全体を言い直した音声発話であると判断し、前記類似部分が前記第1の音声発話の一部と一致し、かつ、前記類似部分が前記第2の音声発話の全体と一致する場合に前記第2の音声発話は前記第1の音声発話の一部を言い直した音声発話であると判断し、前記第1の音声発話のうち前記類似部分以外の部分である不一致部分における前記第1の音声発話の前記認識候補と前記第2の音声発話の前記認識候補との間に予め定められた関係が存在する場合に、前記第2の音声発話は前記第1の音声発話の一部を異なる音声発話で置き換えて全体を言い直した音声発話であると判断する発話関係判定手段と、前記発話関係判定手段が、前記第2の音声発話は前記第1の音声発話の全体を言い直した音声発話であると判断した場合に、前記第2の音声発話に基づいて前記第1の音声発話の全体の前記認識候補を修正して前記認識候補記憶手段に出力し、前記発話関係判定手段が、前記第2の音声発話が前記第1の音声発話の一部を異なる音声発話で置き換えて全体を言い直した音声発話であると判断した場合に、前記第1の音声発話の前記関係が存在する前記認識候補を前記第2の音声発話の前記関係が存在する前記認識候補で置換して前記認識候補記憶手段に出力する全体修正手段と、前記発話関係判定手段が一部を言い直した音声発話であると判断した場合に、前記第1の音声発話の前記類似部分の前記認識候補を、前記第2の音声発話の前記認識候補で置換して前記認識候補記憶手段に出力する部分修正手段と、前記認識候補記憶手段に記憶された前記認識候補から、前記尤度に基づいて認識結果を選択する認識候補選択手段と、を備えたことを特徴とする。
また、本発明は、上記装置を実行することができる音声認識方法および音声認識プログラムである。
本発明によれば、利用者により再入力された音声が全体を修正するための音声か、一部を修正するための音声かを判断し、判断結果に応じて修正方法を変更することができるため、利用者が修正方法を指示する必要がなく、また、入力方法に応じて最適な修正方法を適用することができる。このため、利便性が高く、高精度な音声認識結果を出力することができるという効果を奏する。
以下に添付図面を参照して、この発明にかかる音声認識装置、音声認識方法および音声認識プログラムの最良な実施の形態を詳細に説明する。
(第1の実施の形態)
第1の実施の形態にかかる音声認識装置は、利用者により再入力された音声が全体を修正するための音声か、一部を修正するための音声かを判断し、判断結果に応じて修正方法を変更するものである。また、元の音声の認識候補と修正入力された音声の認識候補とを統合した認識候補から最も確からしい認識候補を選択して出力するものである。
図1は、第1の実施の形態にかかる音声認識装置100の構成を示すブロック図である。同図に示すように、音声認識装置100は、主要なハードウェア構成として、マイク111と、ディスプレイ112と、スピーカ113と、認識候補記憶部121と、変更差分情報記憶部122と、優先情報記憶部123と、抑制情報記憶部124と、を備えている。
また、音声認識装置100は、主要なソフトウェア構成として、入力受付部101と、認識候補生成部102と、発話関係判定部103と、修正部104と、認識候補選択部105と、出力制御部106と、を備えている。
マイク111は、利用者が発話を入力する入力装置である。ディスプレイ112は、認識結果などを利用者に提示するための画面を表示する表示部である。スピーカ113は、正しいと判断された認識候補について音声合成された合成音を出力するものである。なお、音声翻訳システムとして構成する場合は、スピーカ113は、対象言語で音声合成された合成音を出力する。
認識候補記憶部121は、後述する認識候補生成部102が生成した音声認識結果の認識候補を格納するものである。図2は、認識候補記憶部121に格納された認識候補のデータ構造の一例を示す説明図である。
同図に示すように、認識候補記憶部121は、認識結果をラティス(lattice)形式で格納している。なお、同図の上部は、入力された音声に含まれる各音素と、各音素の入力位置を表す数値を対応づけて模式的に表した図である。なお、入力位置を特定できるものであれば数値以外の情報で入力位置を表してもよい。
ラティスは、認識結果を左から右へ時系列に並べたノードを、音声認識用辞書(図示せず)に格納された音声解析パターンと照合したときの類似する度合いを表すスコアを付したアークで結ぶことにより生成される。なお、ノードに対して入力するアーク(以下、入力アークという。)に、当該ノードのスコアを付すものとする。例えば、同図に示す例では、アーク202を表す矢印の下にスコアが付されている。スコアは、認識候補の確からしさを示すものであり、本発明における尤度に相当する。
ノードは、単語などの文字列、アクセント句などの音素列、音素、音節などの入力音声の所定区間ごとに生成される。例えば、同図のノード201は、入力位置が0から2までの区間に発話された3つの音素「WA」「TA」「SHI」からなる日本語の単語「私」を表している。なお、記号“/”の部分は、単語の品詞を表すものである。例えば、ノード201における“/n”は、単語が名詞(noun)であることを表している。
認識候補が複数存在する場合は、対応するノードが複数生成される。複数のノードのうち、最もスコアの大きいノードに対応する認識候補が、最も確からしい候補として選択され出力される。
なお、認識候補記憶部121は、最新の発話に対する認識結果だけでなく、過去の発話に対する認識結果も格納する。後述する発話関係判定部103で、過去の発話と最新の発話との関係を判定する際に参照するためである。
従って、認識候補記憶部121は、いずれの時点で発話された音声に対する認識結果であるか識別する情報を、認識結果と対応づけて格納している。認識候補記憶部121は、いずれの時点で発話された音声に対する認識結果であるか識別する情報として、少なくとも第1発話、現発話、直前発話および直前全体発話のいずれであるかを示す情報を格納する。
ここで、第1発話とは、音声認識装置100が任意の新規な発話を受け入れる状態で入力された発話をいう。また、現発話とは、音声認識装置100に入力された最新の発話をいう。また、直前発話とは、現発話の直前に入力された発話をいう。また、直前全体発話とは、第1発話に対して修正のために発話された現発話を除く全体発話のうち最新の発話をいう。
さらに、認識候補記憶部121は、発話が新規発話、全体修正発話および部分修正発話のいずれであるかを示す情報を格納する。ここで、新規発話とは新規に入力された発話をいい、全体修正発話とは、直前発話全体を言い直した発話をいい、部分修正発話とは、直前発話の一部を言い直した発話をいう。新規発話、全体修正発話および部分修正発話のいずれであるかは、後述する発話関係判定部103により判断され、認識候補記憶部121に記憶される。
変更差分情報記憶部122は、修正部104が認識候補の修正を行ったときの修正内容を記憶するものである。図3は、変更差分情報記憶部122に格納された修正内容のデータ構造の一例を示す説明図である。
同図に示すように、変更差分情報記憶部122は、修正前位置と、修正前内容と、修正後位置と、修正後内容とを対応づけて格納している。
修正前位置とは、修正前の発話における修正部分の入力位置を示す情報である。修正前内容とは、修正部分の修正前の内容を示す情報である。修正後位置とは、修正後の発話における修正部分の入力位置を示す情報である。修正後内容とは、修正部分の修正後の内容を示す情報である。
同図に示す例では、過去の発話における入力位置が0の単語である“名画”が、修正入力された発話における入力位置が0の単語である“映画”に修正されたときの修正内容が格納されている。
変更差分情報記憶部122は、修正部104が、過去の修正内容を参照して認識候補のスコアを更新する際に参照される。
優先情報記憶部123は、修正部104が、過去の修正内容を参照して優先すべきと判断した認識候補の情報である優先情報を格納するものである。図4は、優先情報記憶部123に格納された優先情報のデータ構造の一例を示す説明図である。
同図に示すように、優先情報記憶部123は、過去の発話における優先する部分の入力位置を表す位置と、優先する部分の内容とを対応づけて格納している。
優先情報記憶部123には、例えば、ある部分について修正が行われ、続いて別の部分について修正が行われたときに、最初に修正した部分の修正後の内容が格納される。最初に修正した部分については再度修正が行われていないため、正しく認識されたと判断することができる。従って、その修正後の内容を優先して認識候補を選択すべきだからである。
抑制情報記憶部124は、修正部104が、過去の修正内容を参照して優先すべきでないと判断した認識候補の情報である抑制情報を格納するものである。図5は、抑制情報記憶部124に格納された抑制情報のデータ構造の一例を示す説明図である。
同図に示すように、抑制情報記憶部124は、過去の発話における抑制する部分の入力位置を表す位置と、抑制する部分の内容とを対応づけて格納している。
抑制情報記憶部124には、例えば、ある部分について修正が行われ、続いて同一の部分について修正が行われたときに、最初に修正した部分の修正後の内容が格納される。最初に修正した部分について再度修正が行われたため、最初の修正の内容が誤っていると判断することができる。従って、その修正後の内容を抑制して認識候補を選択すべきだからである。
なお、認識候補記憶部121、変更差分情報記憶部122、優先情報記憶部123および抑制情報記憶部124は、HDD(Hard Disk Drive)、光ディスク、メモリカード、RAM(Random Access Memory)などの一般的に利用されているあらゆる記憶手段により構成することができる。
入力受付部101は、マイク111により利用者が入力した音声を受信し、受信した音を認識候補生成部102が処理可能な電気信号に変換して出力するものである。具体的には、音声を取りこみ、電気信号に変換した後、A/D(アナログデジタル)変換を行い、PCM(パルスコードモジュレーション)形式などにより変換したデジタルデータを出力する。これらの処理は、従来から用いられている音声信号のデジタル化処理と同様の方法によって実現することができる。
出力されたデジタルデータは、記憶部(図示せず)に記憶され、後述する認識候補生成部102が音声認識処理を実行する際に参照される。
なお、入力受付部101は、音声認識装置100がマイク111以外の操作ボタン、キーボード等の入力部(図示せず)を有する場合は、それらの入力部から入力されたボタン押下などの情報を取り込む。
認識候補生成部102は、入力受付部101から出力されたデジタルデータを受取り、音声認識処理を実行してその結果である認識候補を生成するものである。
具体的には、認識候補生成部102は、FFT(高速フーリエ変換)などの処理による周波数分析などを行って、入力音声の所定区間ごとに、各区間についての音声認識のために必要な特徴情報(例えばスペクトルなど)を時系列に出力する。所定区間とは、例えば、単語などの文字列、アクセント句などの音素列、音素、音節など単位をいう。この処理は、従来の音声分析処理技術により実現することができる。
さらに、認識候補生成部102は、特徴情報と、音声認識用辞書(図示せず)格納された音声解析パターンとを照合して類似度を表すスコアを算出し、上述のラティス形式で認識候補を出力する。照合処理は、隠れマルコフモデル(HMM:Hidden Markov Model)、DP(ダイナミックプログラミング)、NN(ニューラルネットワーク)などの、一般的に利用されているあらゆる方法を適用することができる。
発話関係判定部103は、直前発話に対して利用者により入力された現発話が、直前発話全体を言い直した音声であるか、または、直前発話の一部を言い直した音声であるかを判断するものである。
具体的には、発話関係判定部103は、2つの発話の音声情報を比較し、両者の類似度が予め定められた閾値より大きい部分である類似部分を検出し、類似部分が直前発話全体と一致する場合に、現発話は全体修正発話であると判断する。
なお、現発話で直前発話と同じ内容を発話することを意図した場合であっても、語尾表現が異なる場合など、類似部分が発話全体と完全に一致しない場合が生じうる。そこで、類似部分と発話全体とが完全に一致する場合だけでなく、予め定められた割合(例えば85%)以上一致すれば、全体修正発話であると判断するように構成してもよい。
また、発話関係判定部103は、類似部分が直前発話の一部と一致し、かつ、類似部分が現発話の全体と一致する場合に、現発話は部分修正発話であると判断する。また、発話関係判定部103は、現発話が全体修正発話、部分発話のいずれにも該当しないときには、現発話は新規発話であると判断する。
例えば、直前発話が、「映画を見たいのですがどこへ行けばよいですか」を意味する、「E-I-GA-WO-MI-TA-I-NO-DE-SU-GA-DO-KO-E-I-KE-BA-YO-I-DE-SU-KA」と発音される日本語の文であり、現発話が映画を意味する「E-I-GA」と発音される日本語の単語であったとする。この場合、直前発話の認識情報であるラティスに「E-I-GA」に対応するノードが存在し、現発話のラティスにも「E-I-GA」に対応するノードが存在するため、当該ノードの部分が類似部分として認識され、現発話が直前発話の部分修正発話であると判定される。また、現発話が「E-I-GA-WO-MI-TA-I-NO-DE-SU-GA-DO-KO-E-I-KE-BA-YO-I-DE-SU」であったとすると、直前発話に対して語尾の音素である「KA」の部分が一致しないが、一致部分の割合が高いため全体修正発話であると判定される。
なお、発話関係判定部103は、音声認識装置100の動作状態を判断する機能も有する。例えば、音声認識装置100の操作開始時、または、入力受付部101が利用者から指示を受けたときに、新規発話の入力を受け付ける初期状態であると判断する。
初期状態は、認識候補記憶部121に第1発話、現発話、直前発話および最新全体発話のいずれもが格納されていない状態である。初期状態で最初に入力された発話が第1発話であり、第1発話が入力されると、発話関係判定部103は、音声認識装置100が修正待ち状態に遷移したと判断する。
修正待ち状態で音声発話が入力されると、発話関係判定部103は、上述のように現発話と直前発話との関係から、現発話が新規発話、全体修正発話、部分修正発話のいずれであるかを判定する処理を行う。なお、発話関係判定部103が新規発話と判定した場合は、初期状態で入力された場合と同様に処理が行なわれる。この場合、発話関係判定部103は、それまでに認識候補記憶部121に記憶されていた第1発話、現発話、直前発話および最新全体発話をすべて削除し、新規発話を新たに記憶する。
修正部104は、発話関係判定部103により現発話が全体修正発話または部分修正発話であると判定された場合に、認識候補を修正して出力する修正処理を実行するものであり、全体修正部104aと、部分修正部104bとを備えている。
全体修正部104aは、発話関係判定部103により現発話が全体修正発話であると判定された場合に、現発話の認識候補を参照して最新全体発話に対する認識候補を修正して認識候補記憶部121に出力するものである。
部分修正部104bは、発話関係判定部103により現発話が部分修正発話であると判定された場合に、現発話の認識候補を参照して最新全体発話のうち、部分修正された部分の認識候補を修正して認識候補記憶部121に出力するものである。
認識候補選択部105は、認識候補記憶部121に記憶された認識候補から、ラティスのスコアが最大となる認識候補を選択するものである。選択する方法としては、ビタビアルゴリズムなどの一般的に用いられているあらゆる方法を適用することができる。
出力制御部106は、認識候補選択部105により選択された認識候補をディスプレイ112に出力するものである。また、ディスプレイ112に出力された認識候補が、正しい認識結果であると利用者により指示された際に、当該認識候補に対応する文を音声合成した合成音をスピーカ113に出力するものである。
なお、音声合成処理は、音声素片編集音声合成、フォルマント音声合成などを用いたテキストトゥスピーチシステムなどの一般的に利用されているあらゆる方法を適用することができる。
また、音声翻訳システムとして構成する場合、出力制御部106は、認識候補に対応する原言語による文を対象言語で翻訳し、翻訳文を対象言語で音声合成した合成音をスピーカ113に出力するように構成してもよい。
次に、このように構成された第1の実施の形態にかかる音声認識装置100による音声認識処理について説明する。図6は、第1の実施の形態における音声認識処理の全体の流れを示すフローチャートである。
ます、入力受付部101が、マイク111を介して利用者により入力された音声の入力を受付ける(ステップS601)。次に、認識候補生成部102が、受付けた音声を音声認識し、認識候補を生成して認識候補記憶部121に出力する(ステップS602)。
具体的には、認識候補生成部102は、FFTなどの方法により入力音声の周波数分析を行って特徴情報を出力し、特徴情報と音声解析パターンとを照合して類似度を表すスコアを算出し、ラティス形式で認識候補を出力する。
次に、発話関係判定部103が、直前発話と現発話とを比較して両者の関係を判断する発話関係判定処理を実行する(ステップS603)。発話関係判定処理の詳細については後述する。
発話関係判定処理の後、発話関係判定部103は、現発話が新規発話であると判定されたか否かを判断する(ステップS604)。新規発話であると判定されなかった場合は(ステップS604:NO)、発話関係判定部103は、現発話が全体修正発話であると判定されたか否かを判断する(ステップS605)。
全体修正発話であると判定された場合は(ステップS605:YES)、全体修正部104aが全体修正処理を実行する(ステップS607)。また、全体修正発話であると判定されなかった場合(ステップS605:NO)、すなわち、現発話が部分修正発話であった場合は、部分修正部104bが部分修正処理を実行する(ステップS606)。全体修正処理および部分修正処理の詳細については後述する。
ステップS604で現発話が新規発話であると判定された場合(ステップS604:YES)、全体修正処理実行後(ステップS607)または部分修正処理実行後(ステップS606)、認識候補選択部105が、認識候補記憶部121に記憶されている現発話の認識候補から、スコアが最大となる候補を選択する(ステップS608)。
例えば、認識候補が図2に示すようなラティスで示されている場合、3つの候補が存在する入力位置の区間が2から7のノードでは、最大のスコア5を有する最上部のノードが選択される。同様に、3つの候補が存在する入力位置の区間が9から10のノードでは、最大のスコア6を有する最上部のノードが選択される。この結果、認識候補選択部105は、選択したノードを連結した日本語「私は公演に生きたい」を認識候補として選択する。
次に、出力制御部106が、認識候補選択部105により選択された候補を認識結果としてディスプレイ112に出力し(ステップS609)、音声認識処理を終了する。
次に、ステップS603に示した発話関係判定処理の詳細について説明する。図7は、第1の実施の形態における発話関係判定処理の全体の流れを示すフローチャートである。
発話関係判定処理では、直前発話と現発話の類似部分と不一致部分との関係から、現発話が、新規発話、全体修正発話または部分修正発話のいずれであるかを判定する。
まず、発話関係判定部103は、直前発話と現発話とを比較し、類似部分と不一致部分とを算出する(ステップS701)。
類似部分の算出は、例えば、特許文献2に記載された方法を適用することができる。すなわち、2つの入力音声を音声信号に変換した結果であるデジタルデータ、デジタルデータから抽出された特徴情報、または、特徴情報に対してDP(ダイナミックプログラミング)処理などにより求められた各認識候補についての類似度などから類似部分を判定することができる。
また、2つの入力音声の所定区間ごと生成された認識候補である複数の音素列または文字列のうち、両者で共通する音素列あるいは文字列の割合が予め定められた閾値以上であるときに、当該所定区間を類似部分と判定するように構成してもよい。また、両者で共通する音素列あるいは文字列の割合が予め定められた閾値より大きい区間が、予め定められた時間連続して存在するとき、当該連続する時間に相当する区間を類似部分と判定するように構成してもよい。なお、類似部分と判定されなかった区間が不一致部分となる。
次に、発話関係判定部103は、直前発話の一部と現発話のすべての部分が類似するか否かを判断する(ステップS702)。直前発話の一部と現発話のすべての部分が類似する場合は(ステップS702:YES)、発話関係判定部103は、現発話が部分修正発話であると判定する(ステップS703)。
直前発話の一部と現発話のすべての部分が類似しない場合は(ステップS702:NO)、発話関係判定部103は、不一致部分の割合が予め定められた閾値より大きいか否かを判断する(ステップS704)。閾値としては、例えば15%を指定する。
不一致部分の割合が予め定められた閾値より大きい場合は(ステップS704:YES)、発話関係判定部103は、現発話が新規発話であると判定する(ステップS706)。不一致部分の割合が予め定められた閾値より大きくない場合は(ステップS704:NO)、発話関係判定部103は、現発話が全体修正発話であると判定する(ステップS705)。
このように、不一致部分が全く存在しない場合のみ全体修正発話であると判断するのではなく、例えば15%までの不一致が存在しても全体修正発話であると判断する。これにより、語尾のみの相違等の場合でも全体修正発話であると判断することができ、利用者の使用態様を考慮した利便性の高い音声認識装置を実現することができる。
次に、ステップS607に示した全体修正処理の詳細について説明する。図8は、第1の実施の形態における全体修正処理の全体の流れを示すフローチャートである。
まず、全体修正部104aが、直前発話が全体修正発話であるか否かを判断する(ステップS801)。直前発話が全体修正発話であるか否かは、認識候補記憶部121に記憶されている情報を参照して判断する。
直前発話が全体修正発話であると判断した場合は(ステップS801:YES)、直前発話で実行された全体修正処理における変更差分情報の修正後内容を変更差分情報記憶部122から取得し、抑制情報記憶部124に格納する(ステップS802)。
これは、直前発話で全体修正処理を実行したにもかかわらず、再度現発話で全体修正処理が行われていることから、直前発話の全体修正処理における修正は誤っていたと判断することができるためである。従って、直前発話の変更差分情報から、修正後内容を取得し、修正後内容に対応する認識候補のスコアを下げるために抑制情報記憶部124に記憶している。
なお、直前発話が新規発話であった場合、直前発話で選択された認識候補をすべて抑制情報記憶部124に格納するように構成してもよい。同様に、直前発話が全体修正発話であった場合も、変更差分情報だけでなく、すべての認識候補を抑制情報記憶部124に格納するように構成してもよい。全体発話修正が行われるということは、直前発話で選択された認識候補の大部分が正しくないという可能性が高いためである。
ステップS801で直前発話が全体修正発話であると判断されなかった場合は(ステップS801:NO)、全体修正部104aは、直前発話が部分修正発話であるか否かを判断する(ステップS803)。直前発話が部分修正発話であるか否かは、認識候補記憶部121に記憶されている情報を参照して判断する。
直前発話が部分修正発話であると判断した場合は(ステップS803:YES)、直前発話で実行された部分修正処理における変更差分情報の修正後内容を変更差分情報記憶部122から取得し、抑制情報記憶部124に格納する(ステップS804)。
これは、直前発話で部分修正処理を実行したにもかかわらず、再度現発話で全体修正処理が行われていることから、直前発話の部分修正処理における修正は誤っていたと判断することができるためである。従って、直前発話の変更差分情報から、修正後内容を取得し、修正後内容に対応する認識候補のスコアを下げるために抑制情報記憶部124に記憶している。
ステップS803で直前発話が部分修正発話であると判断されなかった場合は(ステップS803:NO)、全体修正部104aは、直前発話の認識候補を参照して現発話の認識候補を修正する全体修正候補生成処理を実行する(ステップS805)。全体修正候補生成処理の詳細については後述する。
全体修正候補生成処理の実行後、全体修正部104aは、修正部分の情報を変更差分情報記憶部122に記憶し(ステップS806)、全体修正処理を終了する。
次に、ステップS805に示した全体修正候補生成処理の詳細について説明する。図9は、第1の実施の形態における全体修正候補生成処理の全体の流れを示すフローチャートである。
まず、全体修正部104aは、直前全体発話を認識候補記憶部121から取得し、直前全体発話のラティス内の未処理のノード(以下、Xという。)を取得する(ステップS901)。次に、全体修正部104aは、全体修正発話のラティス内にXと同じノード(以下、Yという。)が存在するか否かを判断する(ステップS902)。
Xと同じノードYが存在する場合は(ステップS902:YES)、全体修正部104aは、Yの入力アークにXの入力アークのスコアを加算する(ステップS904)。
このように、現発話である全体修正発話で算出された認識候補のスコアだけでなく、直前全体発話で算出された認識候補のスコアも加算し、両者を総合して判断することができるため、より適切な認識候補を選択することが可能となる。
Xと同じノードYが存在しない場合は(ステップS902:NO)、全体修正部104aは、Xとその入力アークを全体修正発話に対するラティスに追加する(ステップS903)。
このように、現発話である全体修正発話で算出された認識候補だけでなく、直前全体発話で算出された認識候補も追加して両者を総合して判断することができるため、より適切な認識候補を選択することが可能となる。
次に、全体修正部104aは、優先情報記憶部123および抑制情報記憶部124を参照し、優先情報および抑制情報をラティスのスコアに反映する(ステップS905)。例えば、複数の認識候補が存在する区間に、優先情報に格納されている内容と同一の認識候補に対応するノードが存在する場合、当該ノードのスコアを、当該区間の最高のスコアに1を加算した値に更新する。また、例えば、複数の認識候補が存在する区間に、抑制情報に格納されている内容と同一の認識候補に対応するノードが存在する場合、当該ノードのスコアを、当該区間の最低のスコアから1を減算した値に更新する。
なお、優先情報および抑制情報をラティスのスコアに反映させる方法はこれに限られるものではなく、優先情報に対応する認識候補のスコアを増加させ、抑制情報に対応する認識候補のスコアを減少させるものであればあらゆる方法を適用することができる。
次に、全体修正部104aは、直前全体発話のラティス内のすべてのノードを処理したか否かを判断し(ステップS906)、すべてのノードを処理していない場合は(ステップS906:NO)、次の未処理のノードを取得して処理を繰り返す(ステップS901)。すべてのノードを処理した場合は(ステップS906:YES)、全体修正候補生成処理を終了する。
次に、ステップS606に示した部分修正処理の詳細について説明する。図10は、第1の実施の形態における部分修正処理の全体の流れを示すフローチャートである。
まず、部分修正部104bが、認識候補記憶部121を参照して、直前発話が新規発話または全体修正発話であるか否かを判断する(ステップS1001)。
直前発話が新規発話または全体修正発話であると判断された場合(ステップS1001:YES)、部分修正部104bは、直前発話の認識候補のうち、現発話である部分修正発話に対応する部分で選択された認識候補を抑制情報記憶部124に格納する(ステップS1007)。
これは、直前発話で選択された候補が誤っていたために利用者が部分修正処理を行ったと判断することができるためである。従って、直前発話の該当部分の認識候補を取得し、取得した認識候補のスコアを下げるために抑制情報記憶部124に記憶している。
直前発話が新規発話または全体修正発話でない場合(ステップS1001:NO)、すなわち、直前発話が部分修正発話である場合は、部分修正部104bが、直前発話の発話位置と現発話の発話位置が等しいか否かを判断する(ステップS1002)。
直前発話の発話位置と現発話の発話位置が等しくない場合は(ステップS1002:NO)、部分修正部104bは、直前の部分修正処理における変更差分情報の修正後内容を優先情報記憶部123に格納する(ステップS1003)。次に、部分修正部104bは、直前の部分修正処理における変更差分情報の修正前内容を抑制情報記憶部124に格納する(ステップS1004)。
これは、直前発話で部分修正処理を実行した部分と異なる部分に、現発話で部分修正処理を行っていることから、直前発話の部分修正処理における修正は正常に行われたと判断することができるためである。従って、直前発話の変更差分情報から、修正後内容を取得し、修正後内容に対応する認識候補のスコアを上げるために優先情報記憶部123に記憶している。また、直前発話の変更差分情報から、修正前内容を取得し、修正前内容に対応する認識候補のスコアを下げるために抑制情報記憶部124に記憶している。
さらに、部分修正部104bは、直前全体発話の認識候補のうち、現発話である部分修正発話に対応する部分で選択された認識候補を抑制情報記憶部124に格納する(ステップS1005)。
これは、直前発話である部分修正発話による部分修正処理は正常に行われたが、直前全体発話の別の部分で選択された候補が誤っていたために利用者が当該別の部分に対して部分修正処理を行ったと判断することができるためである。従って、直前全体発話の該当部分の認識候補を取得し、取得した認識候補のスコアを下げるために抑制情報記憶部124に記憶している。
直前発話の発話位置と現発話の発話位置が等しい場合は(ステップS1002:YES)、部分修正部104bは、直前の部分修正処理における変更差分情報の修正後内容を抑制情報記憶部124に格納する(ステップS1006)。
これは、直前発話で部分修正処理を実行した部分と同じ部分に、現発話で部分修正処理を行っていることから、直前発話の部分修正処理における修正は誤っていたと判断することができるためである。従って、直前発話の変更差分情報から、修正後内容を取得し、修正後内容に対応する認識候補のスコアを下げるために抑制情報記憶部124に記憶している。
ステップS1005、ステップS1006またはステップS1007の実行後、部分修正部104bは、現発話である部分修正発話の認識候補で直前全体発話のラティスの対応部分を置換する(ステップS1008)。
なお、直前全体発話のラティスの対応部分のノードと、部分修正発話の認識候補を示すノードとを統合するように構成してもよい。この場合は、共通する認識候補のノードのスコアを加算する。これにより、現発話だけでなく、直前全体発話で算出されたスコアも考慮し、両者を総合して判断することができるため、より適切な認識候補を選択することが可能となる。
次に、部分修正部104bは、優先情報記憶部123および抑制情報記憶部124を参照し、優先情報および抑制情報をラティスのスコアに反映する(ステップS1009)。
次に、部分修正部104bは、修正部分の情報を変更差分情報記憶部122に記憶し(ステップS1010)、部分修正処理を終了する。
次に、上述した手順に従って実行される音声認識処理の具体例について説明する。図11は、音声認識処理で処理されるデータの一例を示す説明図である。
まず、新規発話として「私は公園に行きたい」を意味する、「WA-TA-SHI-WA-KO-U-E-N-NI-I-KI-TA-I」と発音される日本語の文が入力され(ステップS601)、認識候補生成部102が、認識候補として同図の(a)に示すようなラティスを出力したとする(ステップS602)。
同図の(a)では、入力位置の区間が2から7のノード、および、入力位置の区間が9から10のノードに、それぞれ3つの認識候補が存在する例が示されている。各ノードのスコアはそれぞれ5,3,1および6,2,2である。
この後、認識候補選択部105が、スコアが最大となるノードを選択し、選択したノードを連結した日本語「私は公演に生きたい」を認識候補として選択する(ステップS608)。選択された認識候補は、出力制御部106によりディスプレイ112に表示される(ステップS609)。
表示された認識候補が誤っているため、利用者が「公園」を意味する「KO-U-E-N」と発音される日本語の単語を再度入力したとする(ステップS601)。
また、この入力に対して、認識候補生成部102が、「KO-U-E-N」と発音される音声の認識候補として、4つの日本語の単語「公演」、「公園」、「後援」、「好演」を出力したとする(ステップS602)。なお、ここでは、4つの認識候補のスコアがそれぞれ7,7,5,1であるものとする。
発話関係判定部103は、再度入力された発話が部分修正発話であると判断するため(ステップS603)、部分修正部104bによる部分修正処理が実行される(ステップS606)。
部分修正処理では、直前発話が新規発話であるため(ステップS1001:YES)、
直前発話で選択された単語「公演」に対応するスコアが5の認識候補が、抑制情報記憶部124に格納される(ステップS1007)。
次に、部分修正発話の認識候補で直前全体発話のラティスの対応部分が置換され(ステップS1008)、抑制情報記憶部124に格納された抑制情報の内容が反映される(ステップS1009)。ここでは、抑制情報として単語「公演」に対応する認識候補が格納されているため、この認識候補に対応するノードのスコアが、4つの認識候補のうち最低のスコアである1から1を減算した値である0に設定される。
このときの状態を示したのが同図の(b)に示すラティスである。この結果、認識候補選択部105は、スコアが最大となるノードを選択し、選択したノードを連結した日本語「私は公園に生きたい」を認識候補として選択する(ステップS608)。
同様に、再度利用者が「行きたい」を意味する「I-KI-TA-I」と発音される日本語の単語を入力したとする(ステップS601)。この場合は、直前発話が部分修正発話であるため(ステップS1001:NO)、発話位置が等しいか否かが判断される(ステップS1002)。
この例では発話位置が等しくないため(ステップS1002:NO)、直前の部分修正処理における変更差分情報を参照し、位置が2、内容が単語「公園」である優先情報が優先情報記憶部123に格納される(ステップS1003)。これにより、以降の処理で単語「公園」のスコアを増加させることができる。
また、位置が2、内容が単語「公演」である抑制情報が抑制情報記憶部124に格納される(ステップS1004)。これにより、以降の処理で単語「公演」のスコアを減少させることができる。
さらに、直前全体発話内の再度入力された部分に対応する認識候補を抑制するため、位置が9、内容が単語「生き」である抑制情報が抑制情報記憶部124に格納される(ステップS1005)。これにより、以降の処理で単語「生き」のスコアを減少させることができる。
この結果、認識候補選択部105は、スコアが最大となるノードを選択し、選択したノードを連結した日本語「私は公園に行きたい」を認識候補として選択する(ステップS608)。利用者が、選択された認識候補が正しいと判断し、例えばOKボタンをクリックした場合に音声認識処理を終了する。
次に、音声認識処理の別の具体例について説明する。図12は、音声認識処理で処理されるデータの別の一例を示す説明図である。図11は部分修正処理で処理されるデータの例を示していたが、図12は、全体修正処理で処理されるデータの例を示している。
まず、新規発話として「映画を見たいのですがどこへ行けばよいですか」を意味する、「E-I-GA-WO-MI-TA-I-NO-DE-SU-GA-DO-KO-E-I-KE-BA-YO-I-DE-SU-KA」と発音される日本語の文が入力されたとする(ステップS601)。また、認識候補生成部102が、認識候補として同図の(a)に示すようなラティスを出力したとする(ステップS602)。なお、同図では入力位置が8から15までの区間のノードを省略している。
これに対し、認識候補選択部105が、スコアが最大となるノードを選択し、選択したノードを連結した日本語「名画生みたいのですがどこへ行けばよいですか」を認識候補として選択する(ステップS608)。選択された認識候補は、出力制御部106によりディスプレイ112に表示される(ステップS609)。
表示された認識候補が誤っているため、利用者が「E-I-GA-WO-MI-TA-I-NO-DE-SU-GA-DO-KO-E-I-KE-BA-YO-I-I-KA」と発音される文を再度入力したとする(ステップS601)。また、認識候補生成部102が、同図の(b)に示すようなラティスを出力したとする(ステップS602)。
発話関係判定部103は、直前発話と現発話である全体修正発話とを比較し、類似部分を算出する(ステップS701)。同図の(a)に示すラティスと、同図の(b)に示すラティスとでは、語尾の表現が相違するのみであるため、入力位置が0から18までの区間が類似部分となる。
また、不一致部分の割合は約14%(=(22−19)×100/22))である。閾値が15%に定められていたとすると、不一致部分の割合が閾値より小さいため、発話関係判定部103は、再度入力された発話が全体修正発話であると判断する(ステップS704:NO、ステップS705)。従って、全体修正部104aによる全体修正処理が実行される(ステップS607)。
全体修正処理では、直前発話である新規発話のラティス(同図の(a))と、現発話である全体修正発話のラティス(同図の(b))とを統合したラティス(同図の(c))を出力する(ステップS805)。
例えば、同図(a)の入力位置が4から6の区間に対応するノード1201に対し、同図(b)に同じノード1202が存在するため(ステップS902:YES)、ノード1201のスコア10とノード1202のスコア10とを加算した値である20が、(c)のノード1203のスコアとして算出される(ステップS904)。
また、例えば、同図(a)の入力位置が0から3の区間に対応するノード1204は、同図(b)には存在しないため(ステップS902:NO)、(b)のラティスに当該ノードが追加され、(c)のノード1205が出力される(ステップS903)。
このようにして統合されたラティス(同図の(c))を対象として、認識候補選択部105が、スコアが最大となるノードを選択し、選択したノードを連結した日本語「映画を見たいのですがどこへ行けばよいですか」を認識候補として選択する(ステップS608)。
次に、音声認識処理で利用者に提示される画面例について説明する。図13は、音声認識処理で表示される操作画面の一例を示す説明図である。
同図の中央が、操作画面の表示例と画面遷移を示している。また、同図の左側が、利用者が行った操作の一例を示している。また、同図の右側が、音声認識装置100の動作状態の一例を示している。
画面1301は、音声認識処理の初期画面であり、画面上部の確定結果表示領域1302との認識結果表示領域1303を含んでいる。音声認識の結果が、出力制御部106により認識結果表示領域1303に表示される。この時点の動作状態1304は初期状態である。
利用者が、「映画を見たいのですがどこへ行けば良いでしょうか」を意味する日本語の文を入力する場合を想定する。まず、初期状態で、「映画を見たいのですが」を意味する、「E-I-GA-WO-MI-TA-I-NO-DE-SU-GA」と発音される日本語の音声1305を利用者が入力する。
この入力に対し、認識結果として日本語1306(「名画を見たいのですが」)が画面の認識結果表示領域1303に表示される。この時、動作状態は、修正待ち状態となり、利用者は修正発話または次の新規発話を入力することができる。
認識結果のうち単語「名画」が単語「映画」であるべきである点以外は正しい認識結果であるため、利用者が単語「映画」の音声1307(「E-I-GA」)を入力する。この場合は、発話関係判定部103により部分修正発話であると判定され、部分修正部104bによる部分修正処理が実行される。
部分修正処理により正しく修正が行われたとすると、正しい認識結果として日本語1308(「映画を見たいのですが」)が認識結果表示領域1303に表示される。
続けて利用者が、「どこへ行けば良いでしょうか」を意味する、「DO-KO-E-I-KE-BA-YO-I-DE-SHO-U-KA」と発音される日本語の音声1309を入力する。
発話関係判定部103は、この発話と直前発話とを比較して、発話が新規発話であると判定し、直前発話の認識結果を確定し確定結果表示領域1302に表示する。また、入力音声に対する音声認識を行い、認識結果として日本語1310(「ど声けば胃ですか」)が表示される。
この場合は、バースト的な誤りであるため、利用者は、音声1309と同じ日本語の音声1311を再度入力する。この場合は、発話関係判定部103により全体修正発話であると判定され、全体修正部104aによる全体修正処理が実行される。
全体修正処理により正しく修正が行われたとすると、正しい認識結果として日本語1312(「どこに行けば良いでしょうか」)が認識結果表示領域1303に表示される。
すべての音声入力が正しく認識されたため、利用者がOKボタンを押下すると、出力制御部106は、認識結果表示領域1303に表示されている認識結果を確定結果表示領域1302に移動した画面1313を再表示する。
このように、利用者は音声認識の結果を確認して、部分修正発話と全体修正発話を適宜選択して音声入力を行うことが可能となる。すなわち、誤りが少ない場合は部分の再入力を行い、誤りが多い場合は、全体の再入力を行うという分かりやすい基準で再入力を行うことができる。また、部分修正と全体修正を切り替える操作等が必要ないため、円滑に修正処理の操作を行うことができる。
また、認識結果を確定する際にOKボタンを押下する以外は、音声入力のみによって文の入力または修正を行うことができる。このため、利用者にとって操作性および利便性の高い音声認識装置を提供することができる。
以上のように、第1の実施の形態にかかる音声認識装置では、利用者により再入力された音声が全体を修正するための音声か、一部を修正するための音声かを判断し、判断結果に応じて修正方法を変更することができる。このため、利用者が修正方法を指示する必要がなく、また、入力方法に応じて最適な修正方法を適用することができる。従って、利用者にとって利便性が高く、高精度な音声認識結果を出力することができる。
また、元の音声の認識候補と修正入力された音声の認識候補とを統合した認識候補から最も確からしい認識候補を選択して出力することができるため、元の音声の認識結果が正しかったにもかかわらず誤認識した内容で置き換えて出力するという問題が生じることがない。すなわち、より精度の高い認識結果を得ることが可能となる。
(第2の実施の形態)
第2の実施の形態にかかる音声認識装置は、元の音声の認識結果と修正入力された音声の認識結果に不一致部分が存在する場合であって、不一致部分が予め定められた関係にある認識結果の組が存在する場合に、当該認識結果の組を認識候補として出力するものである。
図14は、第2の実施の形態にかかる音声認識装置1400の構成を示すブロック図である。同図に示すように、音声認識装置1400は、主要なハードウェア構成として、マイク111と、ディスプレイ112と、スピーカ113と、認識候補記憶部121と、変更差分情報記憶部122と、優先情報記憶部123と、抑制情報記憶部124と、同義語辞書記憶部1425と、を備えている。
また、音声認識装置1400は、主要なソフトウェア構成として、入力受付部101と、認識候補生成部102と、発話関係判定部1403と、修正部104と、認識候補選択部105と、出力制御部106と、を備えている。
第2の実施の形態では、同義語辞書記憶部1425を追加したこと、および、発話関係判定部1403の機能が第1の実施の形態と異なっている。その他の構成および機能は、第1の実施の形態にかかる音声認識装置100の構成を表すブロック図である図1と同様であるので、同一符号を付し、ここでの説明は省略する。
同義語辞書記憶部1425は、任意の単語と当該単語に対する同義語とを対応づけた同義語辞書を格納するものである。図15は、同義語辞書記憶部1425に格納された同義語辞書のデータ構造の一例を示す説明図である。
同図に示すように、同義語辞書記憶部1425は、単語と、当該単語の同義語とを対応づけて格納している。同図では、例えば、日本語「映画」と、当該日本語の英語による訳語を片仮名で表した日本語「ムービー」とを対応づけた例が示されている。
発話関係判定部1403は、第1の実施の形態における発話関係判定部103と同様に、直前発話に対して利用者により入力された現発話が、直前発話全体を言い直した音声であるか、または、直前発話の一部を言い直した音声であるかを判断するものである。
それに加えて、発話関係判定部1403は、直前発話に対して利用者により入力された現発話が、直前発話の一部を同義語に置き換えて全体を言い直した音声であるかについて判断する点が、第1の実施の形態における発話関係判定部103と異なっている。
すなわち、発話関係判定部1403は、直前発話と現発話との間に不一致部分が存在する場合であっても、不一致部分における直前発話の認識結果と現発話の認識結果との間に同義語の関係が存在する場合、新規発話ではなく、全体を言い直した音声であると判断する。この場合の全体を言い直した音声を、以下では部分言い換え全体発話という。
なお、直前発話の認識結果と現発話の認識結果との間の関係は同義語の関係に限られるものではなく、任意の言語に翻訳したときに同じ訳語を有する関係(以下、同訳語の関係という。)、または、上位下位概念の関係を判定するように構成してもよい。
例えば、単語「映画」と単語「ムービー」のように英語の訳語として同じ単語「movie」を有する関係が同訳語の関係である。また、例えば、単語「ジェット機」と単語「飛行機」のように単語の表す概念の間に上位/下位関係が成立するような関係が上位下位概念の関係である。この場合は、同義語辞書記憶部1425に相当する辞書として、訳語辞書やシソーラス辞書を記憶するように構成する。
次に、このように構成された第2の実施の形態にかかる音声認識装置1400による音声認識処理について説明する。図16は、第2の実施の形態における音声認識処理の全体の流れを示すフローチャートである。
ステップS1601の音声入力受付処理、および、ステップS1602の音声認識処理は、第1の実施の形態にかかる音声認識装置100におけるステップS601およびステップS602と同様の処理なので、その説明を省略する。
ステップS1603の発話関係判定処理では、発話関係判定部1403は、直前発話と現発話とを比較して、現発話が新規発話、全体修正発話、部分修正発話または部分言い換え全体発話のいずれであるかを判断する発話関係判定処理を実行する。発話関係判定処理の詳細については後述する。
発話関係判定処理の実行後、発話関係判定部1403は、現発話が部分言い換え全体発話であると判定されたか否かを判断する(ステップS1604)。部分言い換え全体発話であると判定された場合は(ステップS1604:YES)、全体修正部104aは、言い換え部分の単語系列の組に対応する認識候補で直前全体発話のラティスの対応部分を置換し、全体修正処理を実行する(ステップS1605)。
言い換え部分の単語系列の組は、発話関係判定処理の中で取得される。すなわち、発話関係判定処理で、直前発話の認識結果と現発話の認識結果との間に同義語の関係が存在するため、現発話が部分言い換え全体発話であると判断されたとすると、同義語の関係にある認識結果の組が、言い換え部分の単語系列の組として取得される。
例えば、直前発話の認識候補として、単語「名画」および単語「映画」が生成され、現発話の認識候補として、単語「ムービー」および単語「マービー」が生成されたとする。この場合、直前発話における単語「映画」と現発話における単語「ムービー」との間に同義語の関係が存在するため、現発話が部分言い換え全体発話であると判断される。同時に、単語「映画」および単語「ムービー」の組が、言い換え部分の単語系列の組として取得される。
なお、ステップS1605における全体修正処理は、直前全体発話のラティスを言い換え部分の単語系列に対応する認識候補で置換する以外は、第1の実施の形態で説明した全体修正処理と同様の処理となるため、その説明を省略する。
ステップS1606からステップS1611までの全体修正処理、部分修正処理、認識候補選択処理、認識結果出力処理は、第1の実施の形態におけるステップS604からステップS609までと同様の処理なので、その説明を省略する。
次に、ステップS1603で示した発話関係判定処理の詳細について説明する。図17は、第2の実施の形態における発話関係判定処理の全体の流れを示すフローチャートである。
ステップS1701からステップS1705までの類似部分算出処理、部分修正発話判定処理、全体修正発話判定処理は、第1の実施の形態におけるステップS701からステップS705までと同様の処理なので、その説明を省略する。
第2の実施の形態では、不一致部分の割合が予め定められた閾値より大きいと判断された場合に、単純に新規発話であると判定するのではなく、不一致部分における認識結果間の関係を考慮して部分言い換え全体発話であると判定する場合がある点が、第1の実施の形態と異なっている。
すなわち、ステップS1704で、不一致部分の割合が予め定められた閾値より大きいと判断された場合(ステップS1704:YES)、発話関係判定部1403は、不一致部分における対応する単語系列の組を取得する(ステップS1706)。
例えば、直前発話の認識候補として、単語「名画」および単語「映画」が生成され、現発話の認識候補として、単語「ムービー」および単語「マービー」が生成され、この部分が不一致部分と判定されたとする。この場合は、対応する単語系列の組として、単語「名画」と単語「ムービー」の組、単語「名画」と単語「マービー」の組、単語「映画」と単語「ムービー」の組、単語「映画」と単語「マービー」の組の4つの組が存在する。ステップS1706では、発話関係判定部1403は、このうちの1つを取得する。
なお、この際に、直前発話で選択された認識候補を含まない組を優先して取得するように構成してもよい。直前発話で選択された認識候補は誤っている可能性が高いため、これを除外して判定処理を行うことにより処理の効率化を実現できるためである。
次に、発話関係判定部1403は、取得した組に含まれる単語系列間に所定の関係が存在するか否かを判断する(ステップS1707)。所定の関係とは、上述のように、同義語の関係、同訳語の関係、上位下位概念の関係などをいう。
所定の関係が存在する場合は(ステップS1707:YES)、発話関係判定部1403は、現発話が部分言い換え全体発話であると判定し(ステップS1708)、発話関係判定処理を終了する。この際、所定の関係が存在する単語系列の組をRAM(図示せず)などの記憶部に記憶しておく。ステップS1605の全体修正処理で参照するためである。
なお、この例では最初に所定の関係を持つと判断された単語系列の組を正解の組として記憶しているが、すべての組について所定の関係が存在するか否かを判定し、所定の関係の確からしさや、単語系列の音響的な類似度などを利用して最適な組を算出するように構成してもよい。
所定の関係が存在しない場合は(ステップS1707:NO)、発話関係判定部1403は、すべての単語系列の組を処理したか否かを判断し(ステップS1709)、すべての単語系列の組を処理していない場合は(ステップS1709:NO)、次の未処理の単語系列の組を取得して処理を繰り返す(ステップS1706)。
すべてのノードを処理した場合は(ステップS1709:YES)、発話関係判定部1403は、現発話が新規発話であると判定して(ステップS1710)、発話関係判定処理を終了する。
次に、上述した手順に従って実行される音声認識処理の具体例について説明する。図18は、音声認識処理で処理されるデータの一例を示す説明図である。
まず、新規発話として「映画を見たいのですが」を意味する、「E-I-GA-WO-MI-TA-I-NO-DE-SU-GA」と発音される日本語の文が入力され(ステップS1601)、認識候補生成部102が、認識候補として同図の(a)に示すようなラティスを出力したとする(ステップS1602)。
これに対し、認識候補選択部105が、スコアが最大となるノードを選択し、選択したノードを連結した日本語「名画生みたいのですが」を認識候補として選択する(ステップS1610)。選択された認識候補は、出力制御部106によりディスプレイ112に表示される(ステップS1611)。
表示された認識候補が誤っているため、利用者が最初の文における単語「映画」の部分を、同義語である単語「ムービー」に置き換えた文であり、「MU-U-BI-I-WO-MI-TA-I-NO-DE-SU-GA」と発音される日本語の文を再度入力したとする(ステップS1601)。
これに対し、認識候補生成部102は、認識候補として同図の(b)に示すようなラティスを出力する(ステップS1602)。
この場合、発話関係判定部1403は、入力位置が4以降の区間が類似部分であり、入力位置が0から3までの区間が不一致部分であると算出する(ステップS1701)。不一致部分の割合は、約33%(=(12−8)×100/12))である。閾値が15%に定められていたとすると、不一致部分の割合が閾値より大きいため(ステップS1706:YES)、発話関係判定部1403は、不一致部分に対応する単語系列の組を取得する(ステップS1706)。
例えば、発話関係判定部1403は、単語「映画」と単語「マービー」の組を取得したとすると(ステップS1706)、同義語辞書記憶部1425には両者間の同義語関係は格納されていないため、所定の関係が存在しないと判断する(ステップS1707:NO)。
次に、単語「映画」と単語「ムービー」の組を取得したとすると(ステップS1706)、両者間の同義語関係が同義語辞書記憶部1425に格納されているため、発話関係判定部1403は、両者間に所定の関係が存在すると判断する(ステップS1707:YES)。従って、発話関係判定部1403は、現発話が部分言い換え全体発話であると判定する(ステップS1708)。
全体修正部104aは、単語「映画」と単語「ムービー」を不一致部分の認識結果とし、直前発話のラティスである同図の(b)のラティスの入力位置が0から3までの区間の認識結果と置換して全体修正処理を実行する(ステップS1605)。
このように、第2の実施の形態にかかる音声認識装置では、元の音声の認識結果と修正入力された音声の認識結果に不一致部分が存在する場合であって、不一致部分が予め定められた関係にある認識結果が存在する場合に、当該認識結果を認識候補として出力することができる。このため、不一致部分の特定と同時に認識候補を決定することができ、音声認識処理を効率的に行うことが可能となる。
第1および第2の実施の形態は、音声翻訳システムにおける音声入力装置に適用することができる。音声翻訳システムは、カーナビゲーションや家電操作などのコマンド入力系の音声システムとは異なり、入力される発話として様々な内容が想定される。また、入力の形態も名詞句などの断片的な語句ではなく、文や句といったある程度の長さを有することに特徴がある。
なお、音声ディクテータにおける認識結果の編集機能に上述した音声認識処理を適用してもよい。音声ディクテータも音声翻訳システムと同様に長い文書が音声により入力され、音声認識の誤認識の修正が行われるためである。一般に、音声ディクテータはPC(Personal Computer)などのハードウェアで使用され、キーボードやマウスなどの音声入力装置以外の入力装置で音声認識結果の編集が可能である。従って、編集方法の一つとして、音声を再入力することによる音声認識結果の修正機能を適用することができる。
一方、音声翻訳システムは、携帯性が求められ、キーボードやマウスといった周辺機器の利用は想定していない。また、画面も小型であり、人間相手のコミュニケーションに利用するため音声による操作が最適である。
なお、本発明は、上記実施の形態に限定されるものではなく、例えば、パソコンの音声入力インタフェースやカーナビゲーション、家電制御などの入力インタフェースなどにも適用することが可能である。
なお、第1または第2の実施の形態にかかる音声認識装置で実行される音声認識プログラムは、ROM(Read Only Memory)等に予め組み込まれて提供される。
第1または第2の実施の形態にかかる音声認識装置で実行される音声認識プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM(Compact Disk Read Only Memory)、フレキシブルディスク(FD)、CD−R(Compact Disk Recordable)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。
さらに、第1または第2の実施の形態にかかる音声認識装置で実行される音声認識プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、第1または第2の実施の形態にかかる音声認識装置で実行される音声認識プログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。
第1または第2の実施の形態にかかる音声認識装置で実行される音声認識プログラムは、上述した各部(入力受付部、認識候補生成部、発話関係判定部、修正部、認識候補選択部、出力制御部)を含むモジュール構成となっており、実際のハードウェアとしてはCPU(Central Processing Unit)が上記ROMから音声認識プログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、各部が主記憶装置上に生成されるようになっている。
以上のように、本発明にかかる音声認識装置、音声認識方法および音声認識プログラムは、入力された音声を音声認識した結果に応じて動作する音声翻訳システム、カーナビゲーションシステム、家電制御システムなどに適している。
第1の実施の形態にかかる音声認識装置の構成を示すブロック図である。 認識候補記憶部に格納された認識候補のデータ構造の一例を示す説明図である。 変更差分情報記憶部に格納された修正内容のデータ構造の一例を示す説明図である。 優先情報記憶部に格納された優先情報のデータ構造の一例を示す説明図である。 抑制情報記憶部に格納された抑制情報のデータ構造の一例を示す説明図である。 第1の実施の形態における音声認識処理の全体の流れを示すフローチャートである。 第1の実施の形態における発話関係判定処理の全体の流れを示すフローチャートである。 第1の実施の形態における全体修正処理の全体の流れを示すフローチャートである。 第1の実施の形態における全体修正候補生成処理の全体の流れを示すフローチャートである。 第1の実施の形態における部分修正処理の全体の流れを示すフローチャートである。 音声認識処理で処理されるデータの一例を示す説明図である。 音声認識処理で処理されるデータの別の一例を示す説明図である。 音声認識処理で表示される操作画面の一例を示す説明図である。 第2の実施の形態にかかる音声認識装置の構成を示すブロック図である。 同義語辞書記憶部に格納された同義語辞書のデータ構造の一例を示す説明図である。 第2の実施の形態における音声認識処理の全体の流れを示すフローチャートである。 第2の実施の形態における発話関係判定処理の全体の流れを示すフローチャートである。 音声認識処理で処理されるデータの一例を示す説明図である。
符号の説明
100 音声認識装置
101 入力受付部
102 認識候補生成部
103 発話関係判定部
104 修正部
104a 全体修正部
104b 部分修正部
105 認識候補選択部
106 出力制御部
111 マイク
112 ディスプレイ
113 スピーカ
121 認識候補記憶部
122 変更差分情報記憶部
123 優先情報記憶部
124 抑制情報記憶部
201 ノード
202 アーク
1201、1202、1203、1204 ノード
1301 画面
1302 確定結果表示領域
1303 認識結果表示領域
1304 動作状態
1305、1307、1309、1311 音声
1306、1308、1310、1312 日本語
1313 画面
1400 音声認識装置
1403 発話関係判定部
1425 同義語辞書記憶部

Claims (11)

  1. 入力された音声発話を認識し、少なくとも1つの認識結果の候補と前記候補の確からしさを示す尤度とを対応づけた認識候補を生成する認識候補生成手段と、
    前記認識候補生成手段が生成した前記認識候補を記憶する認識候補記憶手段と、
    先に入力された第1の音声発話のうち、前記第1の音声発話の音声情報と後に入力された第2の音声発話の音声情報との類似度が予め定められた閾値より大きい部分である類似部分を検出し、前記類似部分が前記第1の音声発話の全体と一致する場合に前記第2の音声発話は前記第1の音声発話の全体を言い直した音声発話であると判断し、前記類似部分が前記第1の音声発話の一部と一致し、かつ、前記類似部分が前記第2の音声発話の全体と一致する場合に前記第2の音声発話は前記第1の音声発話の一部を言い直した音声発話であると判断し、前記第1の音声発話のうち前記類似部分以外の部分である不一致部分における前記第1の音声発話の前記認識候補と前記第2の音声発話の前記認識候補との間に予め定められた関係が存在する場合に、前記第2の音声発話は前記第1の音声発話の一部を異なる音声発話で置き換えて全体を言い直した音声発話であると判断する発話関係判定手段と、
    前記発話関係判定手段が、前記第2の音声発話は前記第1の音声発話の全体を言い直した音声発話であると判断した場合に、前記第2の音声発話に基づいて前記第1の音声発話の全体の前記認識候補を修正して前記認識候補記憶手段に出力し、前記発話関係判定手段が、前記第2の音声発話が前記第1の音声発話の一部を異なる音声発話で置き換えて全体を言い直した音声発話であると判断した場合に、前記第1の音声発話の前記関係が存在する前記認識候補を前記第2の音声発話の前記関係が存在する前記認識候補で置換して前記認識候補記憶手段に出力する全体修正手段と、
    前記発話関係判定手段が一部を言い直した音声発話であると判断した場合に、前記第1の音声発話の前記類似部分の前記認識候補を、前記第2の音声発話の前記認識候補で置換して前記認識候補記憶手段に出力する部分修正手段と、
    前記認識候補記憶手段に記憶された前記認識候補から、前記尤度に基づいて認識結果を選択する認識候補選択手段と、
    を備えたことを特徴とする音声認識装置。
  2. 前記全体修正手段は、前記第1の音声発話に対する前記認識候補と前記第2の音声発話に対する前記認識候補とを統合し、前記第1の音声発話に対する前記認識候補と前記第2の音声発話に対する前記認識候補とが同じであるか否かを判断し、同じであるときは、同じである前記認識候補について前記第1の音声発話に対する前記認識候補に対応づけられた前記尤度と、前記第2の音声発話に対する前記認識候補に対応づけられた前記尤度より新たな前記尤度を算出して前記認識候補記憶手段に出力することを特徴とする請求項1に記載の音声認識装置。
  3. 前記部分修正手段は、前記第1の音声発話に対する前記認識候補のうち前記類似部分の前記認識候補と前記第2の音声発話に対する前記認識候補とが同じであるか否かを判断し、同じである前記認識候補について前記第1の音声発話に対する前記認識候補に対応づけられた前記尤度と前記第2の音声発話に対する前記認識候補に対応づけられた前記尤度より新たな前記尤度を算出して前記認識候補記憶手段に出力することを特徴とする請求項1に記載の音声認識装置。
  4. 前記全体修正手段または前記部分修正手段により修正または置換された前記認識候補を記憶する変更差分情報記憶手段をさらに備え、
    前記全体修正手段は、前記第1の音声発話の直前の音声発話に対して修正され前記変更差分情報記憶手段に記憶された前記認識候補と一致する前記認識候補記憶手段の前記認識候補の前記尤度を減少させることを特徴とする請求項3に記載の音声認識装置。
  5. 前記全体修正手段または前記部分修正手段により修正または置換された前記認識候補を記憶する変更差分情報記憶手段をさらに備え、
    前記部分修正手段は、前記第1の音声発話の直前の音声発話に対して修正され前記変更差分情報記憶手段に記憶された前記認識候補と前記類似部分の前記認識候補とが一致しない場合、前記変更差分情報記憶手段に記憶された前記認識候補と一致する前記認識候補記憶手段の前記認識候補の前記尤度を増加させることを特徴とする請求項4に記載の音声認識装置。
  6. 前記全体修正手段または前記部分修正手段により修正または置換された前記認識候補を記憶する変更差分情報記憶手段をさらに備え、
    前記部分修正手段は、前記第1の音声発話の直前の音声発話に対して修正され前記変更差分情報記憶手段に記憶された前記認識候補と前記類似部分の前記認識候補とが一致する場合、前記変更差分情報記憶手段に記憶された前記認識候補と一致する前記認識候補記憶手段の前記認識候補の前記尤度を減少させることを特徴とする請求項4に記載の音声認識装置。
  7. 前記発話関係判定手段は、前記予め定められた関係として、同義語の関係が存在するか否かを判断する請求項1に記載の音声認識装置。
  8. 前記発話関係判定手段は、前記予め定められた関係として、同じ訳語を有する関係が存在するか否かを判断する請求項1に記載の音声認識装置。
  9. 前記発話関係判定手段は、前記予め定められた関係として、上位下位概念の関係が存在するか否かを判断する請求項1に記載の音声認識装置。
  10. 入力された音声発話を認識し、少なくとも1つの認識結果の候補と前記候補の確からしさを示す尤度とを対応づけた認識候補を生成する認識候補生成ステップと、
    先に入力された第1の音声発話のうち、前記第1の音声発話の音声情報と後に入力された第2の音声発話の音声情報との類似度が予め定められた閾値より大きい部分である類似部分を検出し、前記類似部分が前記第1の音声発話の全体と一致する場合に前記第2の音声発話は前記第1の音声発話の全体を言い直した音声発話であると判断し、前記類似部分が前記第1の音声発話の一部と一致し、かつ、前記類似部分が前記第2の音声発話の全体と一致する場合に前記第2の音声発話は前記第1の音声発話の一部を言い直した音声発話であると判断し、前記第1の音声発話のうち前記類似部分以外の部分である不一致部分における前記第1の音声発話の前記認識候補と前記第2の音声発話の前記認識候補との間に予め定められた関係が存在する場合に、前記第2の音声発話は前記第1の音声発話の一部を異なる音声発話で置き換えて全体を言い直した音声発話であると判断する発話関係判定ステップと、
    前記発話関係判定ステップが、前記第2の音声発話は前記第1の音声発話の全体を言い直した音声発話であると判断した場合に、前記第2の音声発話に基づいて前記第1の音声発話の全体の前記認識候補を修正して、前記認識候補を記憶する認識候補記憶手段に出力し、前記発話関係判定ステップが、前記第2の音声発話が前記第1の音声発話の一部を異なる音声発話で置き換えて全体を言い直した音声発話であると判断した場合に、前記第1の音声発話の前記関係が存在する前記認識候補を前記第2の音声発話の前記関係が存在する前記認識候補で置換して前記認識候補記憶手段に出力する全体修正ステップと、
    前記発話関係判定ステップが一部を言い直した音声発話であると判断した場合に、前記第1の音声発話の前記類似部分の前記認識候補を、前記第2の音声発話の前記認識候補で置換して前記認識候補記憶手段に出力する部分修正ステップと、
    前記認識候補記憶手段に記憶された前記認識候補から、前記尤度に基づいて認識結果を選択する認識候補選択ステップと、
    を備えたことを特徴とする音声認識方法。
  11. 入力された音声発話を認識し、少なくとも1つの認識結果の候補と前記候補の確からしさを示す尤度とを対応づけた認識候補を生成する認識候補生成手順と、
    先に入力された第1の音声発話のうち、前記第1の音声発話の音声情報と後に入力された第2の音声発話の音声情報との類似度が予め定められた閾値より大きい部分である類似部分を検出し、前記類似部分が前記第1の音声発話の全体と一致する場合に前記第2の音声発話は前記第1の音声発話の全体を言い直した音声発話であると判断し、前記類似部分が前記第1の音声発話の一部と一致し、かつ、前記類似部分が前記第2の音声発話の全体と一致する場合に前記第2の音声発話は前記第1の音声発話の一部を言い直した音声発話であると判断し、前記第1の音声発話のうち前記類似部分以外の部分である不一致部分における前記第1の音声発話の前記認識候補と前記第2の音声発話の前記認識候補との間に予め定められた関係が存在する場合に、前記第2の音声発話は前記第1の音声発話の一部を異なる音声発話で置き換えて全体を言い直した音声発話であると判断する発話関係判定手順と、
    前記発話関係判定手順が、前記第2の音声発話は前記第1の音声発話の全体を言い直した音声発話であると判断した場合に、前記第2の音声発話に基づいて前記第1の音声発話の全体の前記認識候補を修正して、前記認識候補を記憶する認識候補記憶手段に出力し、前記発話関係判定手順が、前記第2の音声発話が前記第1の音声発話の一部を異なる音声発話で置き換えて全体を言い直した音声発話であると判断した場合に、前記第1の音声発話の前記関係が存在する前記認識候補を前記第2の音声発話の前記関係が存在する前記認識候補で置換して前記認識候補記憶手段に出力する全体修正手順と、
    前記発話関係判定手順が一部を言い直した音声発話であると判断した場合に、前記第1の音声発話の前記類似部分の前記認識候補を、前記第2の音声発話の前記認識候補で置換して前記認識候補記憶手段に出力する部分修正手順と、
    前記認識候補記憶手段に記憶された前記認識候補から、前記尤度に基づいて認識結果を選択する認識候補選択手順と、
    をコンピュータに実行させる音声認識プログラム。
JP2005280593A 2005-09-27 2005-09-27 音声認識装置、音声認識方法および音声認識プログラム Active JP4542974B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2005280593A JP4542974B2 (ja) 2005-09-27 2005-09-27 音声認識装置、音声認識方法および音声認識プログラム
US11/374,976 US7983912B2 (en) 2005-09-27 2006-03-15 Apparatus, method, and computer program product for correcting a misrecognized utterance using a whole or a partial re-utterance
CNA2006101155289A CN1941077A (zh) 2005-09-27 2006-08-18 识别语音输入中的字符串的语音识别设备和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005280593A JP4542974B2 (ja) 2005-09-27 2005-09-27 音声認識装置、音声認識方法および音声認識プログラム

Publications (2)

Publication Number Publication Date
JP2007093789A JP2007093789A (ja) 2007-04-12
JP4542974B2 true JP4542974B2 (ja) 2010-09-15

Family

ID=37895266

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005280593A Active JP4542974B2 (ja) 2005-09-27 2005-09-27 音声認識装置、音声認識方法および音声認識プログラム

Country Status (3)

Country Link
US (1) US7983912B2 (ja)
JP (1) JP4542974B2 (ja)
CN (1) CN1941077A (ja)

Families Citing this family (192)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
US7865362B2 (en) 2005-02-04 2011-01-04 Vocollect, Inc. Method and system for considering information about an expected response when performing speech recognition
US7949533B2 (en) 2005-02-04 2011-05-24 Vococollect, Inc. Methods and systems for assessing and improving the performance of a speech recognition system
US8200495B2 (en) 2005-02-04 2012-06-12 Vocollect, Inc. Methods and systems for considering information about an expected response when performing speech recognition
US7895039B2 (en) * 2005-02-04 2011-02-22 Vocollect, Inc. Methods and systems for optimizing model adaptation for a speech recognition system
US7827032B2 (en) 2005-02-04 2010-11-02 Vocollect, Inc. Methods and systems for adapting a model for a speech recognition system
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US20090306989A1 (en) * 2006-03-31 2009-12-10 Masayo Kaji Voice input support device, method thereof, program thereof, recording medium containing the program, and navigation device
EP2005418B1 (en) * 2006-04-03 2012-06-27 Vocollect, Inc. Methods and systems for adapting a model for a speech recognition system
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
JP4393494B2 (ja) * 2006-09-22 2010-01-06 株式会社東芝 機械翻訳装置、機械翻訳方法および機械翻訳プログラム
JP4867622B2 (ja) * 2006-11-29 2012-02-01 日産自動車株式会社 音声認識装置、および音声認識方法
JP4791984B2 (ja) * 2007-02-27 2011-10-12 株式会社東芝 入力された音声を処理する装置、方法およびプログラム
US8886540B2 (en) 2007-03-07 2014-11-11 Vlingo Corporation Using speech recognition results based on an unstructured language model in a mobile communication facility application
US8635243B2 (en) 2007-03-07 2014-01-21 Research In Motion Limited Sending a communications header with voice recording to send metadata for use in speech recognition, formatting, and search mobile search application
US10056077B2 (en) 2007-03-07 2018-08-21 Nuance Communications, Inc. Using speech recognition results based on an unstructured language model with a music system
US8886545B2 (en) * 2007-03-07 2014-11-11 Vlingo Corporation Dealing with switch latency in speech recognition
US20080221902A1 (en) * 2007-03-07 2008-09-11 Cerra Joseph P Mobile browser environment speech processing facility
US8838457B2 (en) 2007-03-07 2014-09-16 Vlingo Corporation Using results of unstructured language model based speech recognition to control a system-level function of a mobile communications facility
US8949130B2 (en) 2007-03-07 2015-02-03 Vlingo Corporation Internal and external speech recognition use with a mobile communication facility
US20080312934A1 (en) * 2007-03-07 2008-12-18 Cerra Joseph P Using results of unstructured language model based speech recognition to perform an action on a mobile communications facility
US20080221884A1 (en) 2007-03-07 2008-09-11 Cerra Joseph P Mobile environment speech processing facility
US8949266B2 (en) 2007-03-07 2015-02-03 Vlingo Corporation Multiple web-based content category searching in mobile search application
US8288498B2 (en) 2007-03-30 2012-10-16 Nof Corporation Sugar-alcohol-modified organopolysiloxane compound and processes for producing the same
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
JP4987623B2 (ja) * 2007-08-20 2012-07-25 株式会社東芝 ユーザと音声により対話する装置および方法
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
US8965765B2 (en) * 2008-09-19 2015-02-24 Microsoft Corporation Structured models of repetition for speech recognition
WO2010067118A1 (en) 2008-12-11 2010-06-17 Novauris Technologies Limited Speech recognition involving a mobile device
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US20120309363A1 (en) 2011-06-03 2012-12-06 Apple Inc. Triggering notifications associated with tasks items that represent tasks to perform
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
KR101377459B1 (ko) * 2009-12-21 2014-03-26 한국전자통신연구원 자동 통역 장치 및 그 방법
US8494852B2 (en) 2010-01-05 2013-07-23 Google Inc. Word-level correction of speech input
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
JP5633042B2 (ja) * 2010-01-28 2014-12-03 本田技研工業株式会社 音声認識装置、音声認識方法、及び音声認識ロボット
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US20150279354A1 (en) * 2010-05-19 2015-10-01 Google Inc. Personalization and Latency Reduction for Voice-Activated Commands
US10762293B2 (en) * 2010-12-22 2020-09-01 Apple Inc. Using parts-of-speech tagging and named entity recognition for spelling correction
WO2012093451A1 (ja) * 2011-01-07 2012-07-12 日本電気株式会社 音声認識システム、音声認識方法および音声認識プログラム
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US8914290B2 (en) 2011-05-20 2014-12-16 Vocollect, Inc. Systems and methods for dynamically improving user intelligibility of synthesized speech in a work environment
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US8994660B2 (en) 2011-08-29 2015-03-31 Apple Inc. Text correction processing
JP5799733B2 (ja) * 2011-10-12 2015-10-28 富士通株式会社 認識装置、認識プログラムおよび認識方法
US8965904B2 (en) * 2011-11-15 2015-02-24 Long Van Dinh Apparatus and method for information access, search, rank and retrieval
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
US8577671B1 (en) 2012-07-20 2013-11-05 Veveo, Inc. Method of and system for using conversation state information in a conversational interaction system
US9465833B2 (en) 2012-07-31 2016-10-11 Veveo, Inc. Disambiguating user intent in conversational interaction system for large corpus information retrieval
CN102831894B (zh) * 2012-08-09 2014-07-09 华为终端有限公司 指令处理方法、装置和系统
US9576574B2 (en) 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
US9224387B1 (en) * 2012-12-04 2015-12-29 Amazon Technologies, Inc. Targeted detection of regions in speech processing data streams
CN103871401B (zh) * 2012-12-10 2016-12-28 联想(北京)有限公司 一种语音识别的方法及电子设备
CN103903618B (zh) * 2012-12-28 2017-08-29 联想(北京)有限公司 一种语音输入方法及电子设备
BR112015014830B1 (pt) 2012-12-28 2021-11-16 Sony Corporation Dispositivo e método de processamento de informação, e, meio de armazenamento de memória.
CN103021403A (zh) * 2012-12-31 2013-04-03 威盛电子股份有限公司 基于语音识别的选择方法及其移动终端装置及信息系统
JP6325770B2 (ja) * 2013-02-04 2018-05-16 日本放送協会 音声認識誤り修正装置及びそのプログラム
EP3809407A1 (en) 2013-02-07 2021-04-21 Apple Inc. Voice trigger for a digital assistant
US9368114B2 (en) 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US9978395B2 (en) 2013-03-15 2018-05-22 Vocollect, Inc. Method and system for mitigating delay in receiving audio stream during production of sound from audio stream
WO2014144579A1 (en) 2013-03-15 2014-09-18 Apple Inc. System and method for updating an adaptive speech recognition model
AU2014233517B2 (en) 2013-03-15 2017-05-25 Apple Inc. Training an at least partial voice command system
DK2994908T3 (da) * 2013-05-07 2019-09-23 Veveo Inc Grænseflade til inkrementel taleinput med realtidsfeedback
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
WO2014197336A1 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
KR101922663B1 (ko) 2013-06-09 2018-11-28 애플 인크. 디지털 어시스턴트의 둘 이상의 인스턴스들에 걸친 대화 지속성을 가능하게 하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
JP2016521948A (ja) 2013-06-13 2016-07-25 アップル インコーポレイテッド 音声コマンドによって開始される緊急電話のためのシステム及び方法
AU2014306221B2 (en) 2013-08-06 2017-04-06 Apple Inc. Auto-activating smart responses based on activities from remote devices
JP6260138B2 (ja) * 2013-08-12 2018-01-17 日本電気株式会社 コミュニケーション処理装置、コミュニケーション処理方法、及び、コミュニケーション処理プログラム
JP6223744B2 (ja) * 2013-08-19 2017-11-01 株式会社東芝 方法、電子機器およびプログラム
JP6360484B2 (ja) * 2013-09-03 2018-07-18 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 音声対話制御方法
US9620105B2 (en) 2014-05-15 2017-04-11 Apple Inc. Analyzing audio input for efficient speech and music recognition
US10592095B2 (en) 2014-05-23 2020-03-17 Apple Inc. Instantaneous speaking of content on touch devices
US9502031B2 (en) 2014-05-27 2016-11-22 Apple Inc. Method for supporting dynamic grammars in WFST-based ASR
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US9734193B2 (en) 2014-05-30 2017-08-15 Apple Inc. Determining domain salience ranking from ambiguous words in natural speech
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US9966065B2 (en) 2014-05-30 2018-05-08 Apple Inc. Multi-command single utterance input method
US10289433B2 (en) 2014-05-30 2019-05-14 Apple Inc. Domain specific language for encoding assistant dialog
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
CN105404903B (zh) * 2014-09-15 2020-06-23 联想(北京)有限公司 信息处理方法、装置及电子设备
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
DE102014017384B4 (de) * 2014-11-24 2018-10-25 Audi Ag Kraftfahrzeug-Bedienvorrichtung mit Korrekturstrategie für Spracherkennung
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
US9852136B2 (en) 2014-12-23 2017-12-26 Rovi Guides, Inc. Systems and methods for determining whether a negation statement applies to a current or past query
CN105810188B (zh) * 2014-12-30 2020-02-21 联想(北京)有限公司 一种信息处理方法和电子设备
US9854049B2 (en) 2015-01-30 2017-12-26 Rovi Guides, Inc. Systems and methods for resolving ambiguous terms in social chatter based on a user profile
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
JP6280074B2 (ja) * 2015-03-25 2018-02-14 日本電信電話株式会社 言い直し検出装置、音声認識システム、言い直し検出方法、プログラム
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
EP3089159B1 (en) * 2015-04-28 2019-08-28 Google LLC Correcting voice recognition using selective re-speak
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
DE102015212413A1 (de) 2015-07-02 2017-01-05 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Auswählen eines Bestandteils einer Spracheingabe
DE102015213722B4 (de) 2015-07-21 2020-01-23 Volkswagen Aktiengesellschaft Verfahren zum Betreiben eines Spracherkennungssystems in einem Fahrzeug und Spracherkennungssystem
DE102015213720B4 (de) 2015-07-21 2020-01-23 Volkswagen Aktiengesellschaft Verfahren zum Erfassen einer Eingabe durch ein Spracherkennungssystem und Spracherkennungssystem
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
JP6675078B2 (ja) * 2016-03-15 2020-04-01 パナソニックIpマネジメント株式会社 誤認識訂正方法、誤認識訂正装置及び誤認識訂正プログラム
JP6605995B2 (ja) * 2016-03-16 2019-11-13 株式会社東芝 音声認識誤り修正装置、方法及びプログラム
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179309B1 (en) 2016-06-09 2018-04-23 Apple Inc Intelligent automated assistant in a home environment
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
CN109313894A (zh) 2016-06-21 2019-02-05 索尼公司 信息处理装置与信息处理方法
US10714121B2 (en) 2016-07-27 2020-07-14 Vocollect, Inc. Distinguishing user speech from background speech in speech-dense environments
JP6678545B2 (ja) 2016-09-12 2020-04-08 株式会社東芝 修正システム、修正方法及びプログラム
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US11281993B2 (en) 2016-12-05 2022-03-22 Apple Inc. Model and ensemble compression for metric learning
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
JP7107229B2 (ja) * 2017-01-18 2022-07-27 ソニーグループ株式会社 情報処理装置および情報処理方法、並びにプログラム
JP6672209B2 (ja) 2017-03-21 2020-03-25 株式会社東芝 情報処理装置、情報処理方法、および情報処理プログラム
US20180315415A1 (en) * 2017-04-26 2018-11-01 Soundhound, Inc. Virtual assistant with error identification
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770429A1 (en) 2017-05-12 2018-12-14 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
DK179549B1 (en) 2017-05-16 2019-02-12 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
WO2018228515A1 (en) * 2017-06-15 2018-12-20 Beijing Didi Infinity Technology And Development Co., Ltd. Systems and methods for speech recognition
CN107993653A (zh) * 2017-11-30 2018-05-04 南京云游智能科技有限公司 语音识别设备的错误发音自动纠正更新方法和更新系统
US11170762B2 (en) * 2018-01-04 2021-11-09 Google Llc Learning offline voice commands based on usage of online voice commands
US10832675B2 (en) 2018-08-24 2020-11-10 Denso International America, Inc. Speech recognition system with interactive spelling function
US11430435B1 (en) 2018-12-13 2022-08-30 Amazon Technologies, Inc. Prompts for user feedback
CN112331194A (zh) * 2019-07-31 2021-02-05 北京搜狗科技发展有限公司 一种输入方法、装置和电子设备
US11263198B2 (en) 2019-09-05 2022-03-01 Soundhound, Inc. System and method for detection and correction of a query
KR20210029354A (ko) * 2019-09-06 2021-03-16 삼성전자주식회사 전자장치 및 그 제어방법
JP7111758B2 (ja) * 2020-03-04 2022-08-02 株式会社東芝 音声認識誤り訂正装置、音声認識誤り訂正方法及び音声認識誤り訂正プログラム
US11657814B2 (en) * 2020-10-08 2023-05-23 Harman International Industries, Incorporated Techniques for dynamic auditory phrase completion
US11620993B2 (en) * 2021-06-09 2023-04-04 Merlyn Mind, Inc. Multimodal intent entity resolver
US20230252995A1 (en) * 2022-02-08 2023-08-10 Google Llc Altering a candidate text representation, of spoken input, based on further spoken input

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01237597A (ja) * 1988-03-17 1989-09-22 Fujitsu Ltd 音声認識訂正装置
JPH07248792A (ja) * 1994-03-11 1995-09-26 Ricoh Co Ltd 音声認識装置
JPH11149294A (ja) * 1997-11-17 1999-06-02 Toyota Motor Corp 音声認識装置および音声認識方法
JPH11194793A (ja) * 1997-12-26 1999-07-21 Nec Corp 音声ワープロ
JP2002287792A (ja) * 2001-03-27 2002-10-04 Denso Corp 音声認識装置
JP2003316386A (ja) * 2002-04-24 2003-11-07 Toshiba Corp 音声認識方法および音声認識装置および音声認識プログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5712957A (en) * 1995-09-08 1998-01-27 Carnegie Mellon University Locating and correcting erroneously recognized portions of utterances by rescoring based on two n-best lists
JP3580643B2 (ja) 1996-07-24 2004-10-27 株式会社デンソー 音声認識方法及び音声認識装置
US5829000A (en) * 1996-10-31 1998-10-27 Microsoft Corporation Method and system for correcting misrecognized spoken words or phrases
US5864805A (en) * 1996-12-20 1999-01-26 International Business Machines Corporation Method and apparatus for error correction in a continuous dictation system
DE19709990C2 (de) * 1997-03-11 2000-03-02 Philips Corp Intellectual Pty System zur Erkennung gesprochener Ziffernfolgen
US5970451A (en) * 1998-04-14 1999-10-19 International Business Machines Corporation Method for correcting frequently misrecognized words or command in speech application
US6327566B1 (en) * 1999-06-16 2001-12-04 International Business Machines Corporation Method and apparatus for correcting misinterpreted voice commands in a speech recognition system
US6374214B1 (en) * 1999-06-24 2002-04-16 International Business Machines Corp. Method and apparatus for excluding text phrases during re-dictation in a speech recognition system
US7444286B2 (en) * 2001-09-05 2008-10-28 Roth Daniel L Speech recognition using re-utterance recognition
US7386454B2 (en) * 2002-07-31 2008-06-10 International Business Machines Corporation Natural error handling in speech recognition

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01237597A (ja) * 1988-03-17 1989-09-22 Fujitsu Ltd 音声認識訂正装置
JPH07248792A (ja) * 1994-03-11 1995-09-26 Ricoh Co Ltd 音声認識装置
JPH11149294A (ja) * 1997-11-17 1999-06-02 Toyota Motor Corp 音声認識装置および音声認識方法
JPH11194793A (ja) * 1997-12-26 1999-07-21 Nec Corp 音声ワープロ
JP2002287792A (ja) * 2001-03-27 2002-10-04 Denso Corp 音声認識装置
JP2003316386A (ja) * 2002-04-24 2003-11-07 Toshiba Corp 音声認識方法および音声認識装置および音声認識プログラム

Also Published As

Publication number Publication date
CN1941077A (zh) 2007-04-04
JP2007093789A (ja) 2007-04-12
US20070073540A1 (en) 2007-03-29
US7983912B2 (en) 2011-07-19

Similar Documents

Publication Publication Date Title
JP4542974B2 (ja) 音声認識装置、音声認識方法および音声認識プログラム
JP4734155B2 (ja) 音声認識装置、音声認識方法および音声認識プログラム
JP4481972B2 (ja) 音声翻訳装置、音声翻訳方法及び音声翻訳プログラム
JP4791984B2 (ja) 入力された音声を処理する装置、方法およびプログラム
JP4987623B2 (ja) ユーザと音声により対話する装置および方法
US10140973B1 (en) Text-to-speech processing using previously speech processed data
JP3762327B2 (ja) 音声認識方法および音声認識装置および音声認識プログラム
US6910012B2 (en) Method and system for speech recognition using phonetically similar word alternatives
EP3832643A1 (en) Dynamic wakewords for speech-enabled devices
US20090138266A1 (en) Apparatus, method, and computer program product for recognizing speech
JP2007264471A (ja) 音声認識装置および音声認識方法
JP2008076865A (ja) 機械翻訳装置、機械翻訳方法および機械翻訳プログラム
US20080154591A1 (en) Audio Recognition System For Generating Response Audio by Using Audio Data Extracted
JP2001188781A (ja) 会話処理装置および方法、並びに記録媒体
US5706397A (en) Speech recognition system with multi-level pruning for acoustic matching
JP2008243080A (ja) 音声を翻訳する装置、方法およびプログラム
US20170270923A1 (en) Voice processing device and voice processing method
US20040006469A1 (en) Apparatus and method for updating lexicon
JP2000029492A (ja) 音声翻訳装置、音声翻訳方法、音声認識装置
JP2010197644A (ja) 音声認識システム
JP4966324B2 (ja) 音声翻訳装置、および方法
JP2012003090A (ja) 音声認識装置および音声認識方法
US10854196B1 (en) Functional prerequisites and acknowledgments
US11393451B1 (en) Linked content in voice user interface
JP2007264229A (ja) 対話装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091020

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100601

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100628

R151 Written notification of patent or utility model registration

Ref document number: 4542974

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130702

Year of fee payment: 3