JP2008134502A - 音声認識装置、および音声認識方法 - Google Patents

音声認識装置、および音声認識方法 Download PDF

Info

Publication number
JP2008134502A
JP2008134502A JP2006321295A JP2006321295A JP2008134502A JP 2008134502 A JP2008134502 A JP 2008134502A JP 2006321295 A JP2006321295 A JP 2006321295A JP 2006321295 A JP2006321295 A JP 2006321295A JP 2008134502 A JP2008134502 A JP 2008134502A
Authority
JP
Japan
Prior art keywords
recognition
word
keyword
speech
paraphrase
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006321295A
Other languages
English (en)
Other versions
JP4867622B2 (ja
Inventor
Keiko Katsuragawa
景子 桂川
Minoru Togashi
実 冨樫
Takeshi Ono
健 大野
Daisuke Saito
大介 斎藤
Eiji Tonozuka
英治 外塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2006321295A priority Critical patent/JP4867622B2/ja
Priority to US11/876,348 priority patent/US8108215B2/en
Publication of JP2008134502A publication Critical patent/JP2008134502A/ja
Application granted granted Critical
Publication of JP4867622B2 publication Critical patent/JP4867622B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • G10L15/19Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
    • G10L15/193Formal grammars, e.g. finite state automata, context free grammars or word networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting

Abstract

【課題】使用者の発話内容を音声認識すること。
【解決手段】音声認識処理部113は、認識対象語句に含まれるキーワードを待ち受け単語として、マイク130を介して入力された発話音声に含まれるキーワードを認識する。そして、音声認識処理部113は、認識対象語句を待ち受け単語として、マイク130を介して入力された発話音声を再認識する。理解結果生成部115は、キーワードの認識結果、および再認識結果に基づいて、使用者によって認識対象語句の言い換え語が発話された可能性があるか否かを判断し、言い換え語が発話された可能性があると判断した場合には、言い換え語に対応する認識対象語句を発話音声の音声認識結果として決定する。
【選択図】図1

Description

本発明は、音声を認識するための音声認識装置、および音声認識方法に関する。
次のような音声認識装置が知られている。この音声認識装置は、音声入力された地名を都道府県別に用意した辞書データを用いて音声認識するものである(例えば、特許文献1)。
特開2001−306088号公報
しかしながら、従来の音声認識装置では、音声入力された地名を都道府県別に用意した辞書データを用いて音声認識するため、発話者が辞書データに登録されている地名を異なる呼び方に言い換えて発話した場合には、その地名を音声認識することができない。
本発明は、認識対象語句に含まれるキーワードを待ち受け単語として、入力された発話音声に含まれるキーワードを認識し、認識対象語句を待ち受け単語として、発話音声を認識し、キーワードの認識結果、および発話音声の認識結果に基づいて、使用者によって認識対象語句の言い換え語が発話された可能性があるか否かを判断し、言い換え語が発話されたと判断した場合には、認識したキーワードに基づいて、言い換え語に対応する認識対象語句を特定し、特定した認識対象語句を発話音声の音声認識結果として決定することを特徴とする。
本発明によれば、使用者が認識対象語句を他の呼び方に言い換えて発話した場合でも正しく認識することができる。
図1は、本実施の形態における音声認識装置の一実施の形態の構成を示すブロック図である。音声認識装置100は、例えば、車両に搭載されたナビゲーション装置に搭載され、使用者は、当該音声認識装置100から出力される応答メッセージに従って音声入力を行うことにより、ナビゲーション装置を操作することができる。
音声認識装置100は、使用者が音声認識開始を指示するための発話開始スイッチ120と、使用者の発話音声を入力するマイク130と、マイク130を介して入力された音声データを音声認識し、その内容に応じて使用者へ応答を返す制御装置110と、地図データやガイダンス音声の音声データ、および音声認識処理の際に使用する音声認識用辞書・文法を格納するディスク141を読み取るディスク読取装置140と、ナビゲーション装置が出力する地図やメニュー画面、および音声認識装置100が出力する音声認識結果を表示するモニタ150と、音声を出力するスピーカ160とを備えている。
制御装置110は、CPU、メモリ、およびその他の周辺回路からなり、入力制御部111と、音声バッファ112と、音声認識処理部113と、音声認識用辞書・文法114と、理解結果生成部115と、応答生成部116と、GUI表示制御部117と、音声合成部118とを備えている。
使用者によって音声認識開始スイッチ120が操作され、音声認識開始合図が入力されると、入力制御部111がこれを受け取り、音声認識処理部113に音声取り込み開始を指示する。マイク130から音声の取り込みが開始されると、取り込まれた音声データは音声バッファ112に蓄えられる。さらに、音声認識処理部113は、音声認識用辞書・文法114を使用して取り込まれた音声データの音声認識処理を実行する。なお、音声認識用辞書・文法114は、ディスク141に記録されている音声認識実行時の待ち受け単語を記録するためのメモリである。本実施の形態における音声認識装置100では、以下の(A)〜(D)の4種類の待ち受け単語の少なくともいずれか1つを音声認識用辞書・文法114に記録する。
(A)システム文法
システム文法とは、ナビゲーション装置を操作するための操作コマンド(システムコマンド)、例えば「はい」、「いいえ」、「自宅に帰る」、および「キャンセル」などを音声認識するために用いる待ち受け単語である。
(B)認識対象語句
認識対象語句とは、音声認識の対象となる地名、施設名、道路名などの固有名詞を待ち受けるための待ち受け単語である。
(C)キーワード文法
キーワード文法とは、複数の認識対象語句に共通して含まれる音節であるキーワード、すなわち複数の認識対象単語に共通して含まれる音響的に共通する部分であるキーワードと、それ以外の部分を吸収するGarbageとからなるワードスポット文法である。
(D)再認識用文法
再認識用文法とは、キーワード文法を含む認識対象語句を再認識するために用いる待ち受け単語である。すなわち、上述したキーワード文法を用いてキーワードを音声認識した後、さらにそのキーワードを含む認識対象語句を音声認識するために用いられる。
理解結果生成部115は、音声認識処理部113による音声認識結果に基づいて理解結果生成処理を実行する。応答生成部116は、使用者に対する応答文を生成してGUI表示制御部117および音声合成部118へ出力する。GUI表示制御部117は応答文のGUIデータを生成してモニタ150へ出力し、音声合成部118は応答文の音声データを生成してスピーカ160を介して出力する。なお、入力制御部111〜音声合成部118の各要素は、上述した処理を目的地設定や施設検索など、ナビゲーション装置上での一連のタスクが終了するまで繰り返し実行する。
以下、図2に示すフローチャートに従って、制御装置110によって実行される音声認識処理について説明する。なお、この図2に示す処理は、使用者によって発話開始スイッチ120が操作されて発話の開始が指示されると起動するプログラムとして実行される。
ステップS1において、制御装置110は、上述したキーワード文法をディスク読み取り装置140を介してディスク141から音声認識用辞書・文法114へロードして、ステップS2へ進む。ステップS2では、入力制御部111は、マイク130から入力される音声の取り込みを開始し、音声バッファ112へ音声データを蓄積していく。その後、ステップS3へ進み、入力制御部111は、使用者による発話が完了したか否かを判断する。例えば、入力制御部111は、マイク130からの音声信号の入力状況を監視し、所定時間、音声信号の入力がなかった場合には、発話が完了したと判断する。発話が完了したと判断した場合には、ステップS4へ進む。
ステップS4では、音声認識処理部113は、上述したキーワード文法を使用してキーワード認識処理を実行する。例えば、音声認識用辞書・文法114には、図3(a)に示すように、キーワード文法201として「パーク」、「センター」、「イソゴ」、「ヤクショ」、および「ヨコハマ」が格納されている。このとき、使用者が「磯子区役所(イソゴクヤクショ)」と発話した場合には、音声認識処理部113は、キーワード文法201と使用者の発話音声の音声データとをマッチング処理して音声認識を行う。
例えば、音声認識処理部113は、入力された音声データとキーワード文法201に含まれる各キーワードとの音響的な近さである認識尤度から得られる認識スコアを算出し、そのスコアが高い認識結果から順番に第一位の認識結果、第二位の認識結果というように認識結果に順位をつける。そして、音声認識処理部113は、第一位の認識結果をキーワード認識処理の認識結果として決定する。例えば、認識結果の順位が図3(b)に示すように算出された場合には、音声認識処理部113は、第一位の認識結果である「イソゴ Garbage ヤクショ」をキーワード認識処理の認識結果として決定する。
その後、ステップS5へ進み、音声認識処理部113は、キーワード認識処理の認識結果に基づいて、入力された音声データの再認識が必要であるか否かを判断する。すなわち、入力された音声データに対して、上述した再認識用文法を用いた再認識処理を実行する必要があるか否かを判断する。具体的には、音声認識処理部113は、キーワード認識処理で認識結果が得られた場合には、再認識が必要であると判断し、キーワード認識処理で認識結果が得られなかった場合には、再認識処理は不要であると判断する。
再認識処理が必要でないと判断した場合には、ステップS10へ進み、理解結果生成部115は、キーワード認識処理で認識結果が得られなかった旨を理解結果として生成して応答生成部116へ出力し、後述するステップS11へ進む。これに対して、再認識処理が必要であると判断した場合にはステップS6へ進み、制御装置110は、キーワード認識処理で認識したキーワードを含む認識対象語句を再認識用文法としてディスク読み取り装置140を介してディスク141から音声認識用辞書・文法114へロードする。
図3(a)に示す例では、キーワード認識処理の認識結果である「イソゴ Garbage ヤクショ」に含まれるキーワード、すなわち「イソゴ」と「ヤクショ」とを含む再認識用文法として“イソゴ”文法202と“ヤクショ”文法203とがロードされている。“イソゴ”文法202には、キーワード「イソゴ」を含む認識対象語句、例えば「磯子警察署」、「横浜市磯子区役所」、および「磯子保健所」などの「磯子」を含む施設名が含まれる。また、“ヤクショ”文法203には、キーワード「ヤクショ」を含む認識対象語句、例えば「横浜市役所」、「横浜市磯子区役所」、および「伊勢市役所」などの「役所」を含む施設名が含まれる。
その後、ステップS7へ進み、音声認識処理部113は、音声バッファ112に蓄えておいた音声データを、“イソゴ”文法202と“ヤクショ”文法203とを使って再認識する。具体的には、音声認識処理部113は、音声データと“イソゴ”文法202、および“ヤクショ”文法203に含まれる各待ち受け単語との音響的な近さである認識尤度から得られる認識スコアを算出し、そのスコアが高い認識結果から順番に第一位の認識結果、第二位の認識結果というように認識結果に順位をつける。
そして、音声認識処理部113は、第一位の認識結果をキーワード認識処理の認識結果として決定する。例えば、認識結果の順位が図3(c)に示すように算出された場合には、音声認識処理部113は、第一位の認識結果である「磯子保健所」を再認識処理の認識結果として決定する。音声認識処理部113はキーワード認識処理の認識結果、およびその認識スコアと、再認識処理の認識結果、およびその認識スコアを理解結果生成部115へ出力する。
その後、ステップS8へ進み、理解結果生成部115は、音声認識処理部113からの出力結果に基づいて、使用者によって言い換え語が発話された可能性があるか否かを判断する。言い換え語とは、ある認識対象語句と同じ意味を持つが、音響的に異なる単語のことをいう。例えば、図3に示す例では、使用者が発話した「磯子区役所」は、“イソゴ”文法202と“ヤクショ”文法203とにそれぞれ含まれる「横浜市磯子区役所」の言い換え語に該当する。
本実施の形態では、理解結果生成部115は、再認識処理の認識結果の認識スコアがキーワード認識処理の認識結果の認識スコアよりも所定以上低い場合、例えば半分以下である場合に、言い換え語が発話された可能性があると判断する。例えば、図3(c)においては、再認識処理の認識結果として得られた「磯子保健所」の認識スコアは40であり、これは、図3(b)に示したキーワード認識処理の認識結果である「イソゴ Garbage ヤクショ」のスコア80と比較すると半分のスコアとなっている。このような場合に、理解結果生成部115は、言い換え語が発話された可能性があると判断する。
言い換え語が発話された可能性がないと判断された場合には、ステップS10へ進み、理解結果生成部115は、再認識処理の認識結果を理解結果として生成して応答生成部116へ出力し、後述するステップS11へ進む。これに対して、言い換え語が発話された可能性があると判断された場合には、ステップS9へ進む。ステップS9では、理解結果生成部115は、図4で後述する言い換え対象語句検索処理を実行して、ステップS10へ進み、後述するように、言い換え対象語句検索処理の実行結果に基づいて理解結果を生成する。理解結果生成部115は、生成した理解結果を応答生成部116へ出力し、ステップS11へ進む。
ステップS11では、応答生成部116は、理解結果生成部115から出力された理解結果に応じて、あらかじめ設定されたルールに従って、使用者に対して応答するための応答文を生成する。そして、生成した応答文のデータをGUI表示制御部117および音声合成部118へ出力し、ステップS12へ進む。ステップS12では、GUI表示制御部117は、入力された応答文のデータに基づいて、応答文のGUIデータを生成してモニタ150へ出力する。また、音声合成部118は応答文のデータに基づいて、応答文の音声データを生成してスピーカ160を介して出力する。その後、処理を終了する。
次に、図4を用いてステップS9で実行される言い換え対象語句検索処理について説明する。なお、図4は、再認識用文法として施設名称を待ち受け、使用者が認識対象である施設名称のうち、どの施設名称の言い換え語を発話したかを調べる処理の具体例を示すフローチャートである。再認識用文法の待ち受け単語が施設名称以外である場合には、その待ち受け単語を対象として図4に示す処理を実行すればよい。
図4に示す処理においては、ステップS21〜ステップS25の処理で、まず、言い換え語が発話された可能性が高い施設名(認識対象語句)の候補を音声認識用辞書・文法114から抽出するための検索式を作成する。具体的には、ステップS21において、理解結果生成部115は、今回の発話以前にすでに使用者によって地名が発話されて指定されているか否かを判断する。すでに地名が指定されていると判断した場合には、ステップS22へ進み、指定されている地名に応じた地域で抽出対象の施設名を限定するための条件を検索式に追加する。
次に、ステップS23において、理解結果生成部115は、今回の発話以前にすでに使用者によって施設種別が発話されて指定されているかどうかを判断する。すでに施設種別が指定されていると判断した場合には、ステップS24へ進み、指定されている施設種別で抽出対象の施設名を限定するための条件を検索式に追加する。その後、ステップS25へ進む。
ステップS25では、理解結果生成部115は、キーワード認識処理で認識されたキーワード群(例えば、キーワード認識処理の認識結果が「イソゴ Garbage ヤクショ」の場合には「イソゴ」と「ヤクショ」の2つのキーワードを含む。以下、「認識キーワード群」と呼ぶ)に含まれるキーワードの中から検索にかけるキーワード(KW)の組み合わせを選択する。ここでは、原則として認識キーワード群に関連する認識対象語句を検索するためのキーワードの組み合わせを選択する。すなわち、認識キーワード群に含まれる全てのキーワードに関連する認識対象語句を検索するためのキーワードの組み合わせを選択する。
しかしながら、認識キーワード群に含まれるキーワードの中に、互いに意味的な矛盾を生じさせるキーワードの組が含まれている場合には、その矛盾を生じさせるキーワードが同じ組み合わせに含まれないようにキーワードの組み合わせを選択する。例えば、全く異なる二つの地名が認識された場合には、二つの地名が同一のキーワードの組み合わせ内に含まれないようにする。
具体的には、地名を表すキーワード「トウキョウ」と「キョウト」が、「トショカン」というキーワードとともに一発話の認識で認識された場合について考える。この場合、一般的に、「東京」と「京都」の両方を含む単語はないと考えられるため、「トウキョウ」と「キョウト」が同じ組み合わせに含まれないようにする。すなわち、理解結果生成部115は、認識キーワード群から「キョウト」を除外し「トウキョウ」と「トショカン」の組み合わせ、および「トウキョウ」を除外した「キョウト」と「トショカン」の組み合わせの2つの組み合わせを選択する。
なお、使用者は、施設を限定するために施設名称の前に地名をつけて発話することがある。このため、「キョウト」と「トショカン」が認識された場合には、「キョウト」と「トショカン」の2つのキーワードを含む語の言い換え語である可能性とともに、京都市内にある「トショカン」の言い換え語である可能性もある。
このために、ステップS26では、理解結果生成部115は、ステップS21〜S24で作成した検索式に、選択したキーワードの組み合わせごとの検索条件をそれぞれ追加した検索式を作成する。検索式の具体例については、図5で後述する。そして、理解結果生成部115は、作成した検索式を用いて音声認識用辞書・文法114に記録されている認識対象語句を検索する。なお、認識対象語句は、あらかじめディスク141から音声認識用辞書・文法114へ読み込んでおく。
その後、ステップS27へ進み、理解結果生成部115は、ステップS26で検索を行なった結果、認識対象語句が抽出されたか否かを判断する。認識対象語句が抽出されなかったと判断した場合には、ステップS28へ進み、理解結果生成部115は、認識キーワード群に含まれるキーワードの数を調べる。
その結果、キーワードが2個以上であると判断した場合には、ステップS29に進んで、理解結果生成部115は、キーワードの認識信頼度を計算し、認識キーワード群から信頼度が低いキーワードを取り除く。ここでは、信頼度が所定値以下のキーワードを全て除外するようにしてもよく、最も信頼度が低い1つのキーワードを除外するようにしてもよい。なお、信頼度計算については、例えば特開2001−034292号公報に記載されているように公知の技術であるため、詳細についての説明は省略する。そして、ステップS25へ戻って、信頼度の低いキーワードを取り除いた後の認識キーワード群を対象としてキーワードの組み合わせを再度選択する。
これに対して、キーワードが1個以下であると判断した場合には、図2に示す処理に復帰する。この場合には、図2のステップS11で、理解結果生成部115は、使用者によって言い換え語は発話されなかったと判断して、キーワード認識処理による認識結果を応答生成部116へ出力する。
一方、ステップS27で認識対象語句が抽出されたと判断した場合には、抽出された全ての認識対象語句を言い換え対象語句として、ステップS30へ進む。なお、言い換え対象語句は、使用者が発話した可能性がある言い換え語に対応する認識対象語句に相当する。ステップS30では、理解結果生成部115は、各言い換え対象語句ごとに、認識キーワード群に含まれる各キーワードの出現順序(「イソゴ Garbage ヤクショ」の場合には「イソゴ」が1番目、「ヤクショ」が2番目)と、言い換え対象語句内に含まれるキーワード群(候補キーワード群)における各キーワードの出現順序とを比較する。
そして、認識キーワード群と候補キーワード群とのそれぞれに含まれるキーワードのうち、同じキーワード同士の出現順序が近似している方が重み値が大きくなるように各言い換え対象語句に対して重み付けを行う。すなわち、認識キーワード群に含まれる各キーワードの出現順序に近い順序で各キーワードを含む言い換え対象語句の重み値が大きくなるように重み付けを行う。
その後、ステップS31へ進み、理解結果生成部115は、候補キーワード群に含まれるキーワードの数が、認識キーワード群に含まれるキーワードの数に近い方が、重み値が大きくなるように、各言い換え対象語句に対して重み付けを行う。なお、ステップS30およびステップS31の重み付けの具体例については、図5で後述する。その後、図2に示す処理に復帰し、ステップS10において、理解結果生成部115は、最も重み値が大きい言い換え対象語句を理解結果として生成して応答生成部116へ出力する。
これによって、使用者が発話した言い換え語に対応する認識対象語句(=言い換え対象語句)を特定することができる。換言すれば、使用者は、最も重み値が大きい言い換え対象語句の言い換え語を発話したものと特定することができる。
図5は、言い換え対象語句検索処理の具体例を模式的に示した図である。この図5に示す例では、使用者が施設名としての「那須国際カントリークラブ」の言い換え語として「那須国際ゴルフクラブ」と発話した場合の例を示している。この場合のキーワード認識処理による認識結果401は、「ナス コクサイ ゴルフ クラブ シガ Garbage」となっている。すなわち、キーワード認識処理による認識結果401には、認識キーワード群410として、ナス411、コクサイ412、ゴルフ413、クラブ414、およびシガ415が含まれている。
なお、認識結果401においては、使用者が発話していない「シガ」が発話の語尾に誤認識されて付加されている。これは、キーワード文法201に「シガ」のような短いキーワードが待ち受け単語として記録されている場合には、雑音がこの短いキーワードとして誤認識される可能性があるためである。
図4に示したフローチャートでは、ステップS21〜ステップS24で、今回の発話以前にすでに使用者によって地名や施設種別が発話されていれば、それらに応じて検索式を追加しているが、ここでは説明の簡略化のため、事前にこれらの発話はないものとする。ステップS25において、理解結果生成部115は、認識キーワード群から言い換え対象語句を検索するためのキーワードの組み合わせを選択し、ステップS26で各組み合わせに対応した検索式421〜428をそれぞれ作成する。以下、検索式421〜428についてそれぞれ説明する。
上述したように、原則としては、認識キーワード群に含まれる全てのキーワードに関連する認識対象語句を検索するためのキーワードの組み合わせを選択して検索式を作成する。しかしながら、図5に示す例では、認識キーワード群410に含まれるナス(那須)411とシガ(滋賀)412は、地理条件として矛盾するため、ひとつの検索式ではどちらか一方のみを扱うようにする。すなわち、認識キーワード群410からシガ415を除いたキーワードの組み合わせを選択して検索式421を作成し、認識キーワード群410からナス411を除いた組み合わせを選択して検索式422を作成する。
また、ナス(那須)411とシガ(滋賀)412は地名であるため、施設名に含まれるキーワードではなく、施設名にかかる限定句である可能性もある。よって、これらのキーワードを施設の存在する地域に対する限定句として使用した検索式423および条件式424を作成する。ここで、検索式421は、「ナス」、「コクサイ」、「ゴルフ」、および「クラブ」の4つのキーワードを含む施設名を検索するものであるのに対して、検索式423では、「那須」地域にあって、「コクサイ」、「ゴルフ」、「クラブ」の3つのキーワードを含む施設名を検索するものである。
さらに、「ゴルフ」および「クラブ」で構成される「ゴルフクラブ」という語句は施設種別を表すキーワードであるため、これらのキーワードは施設名に含まれるキーワードではなく、施設名にかかる限定句である可能性もある。このため、「ゴルフ」および「クラブ」というキーワードを「ゴルフクラブ」という施設の種別に関する限定句として使用した検索式425および426を作成する。同様に、地域と施設種別の両方が限定句である場合の検索式427および428を作成する。
これらの検索式を使ってステップS26で検索を行なった結果、検索結果431が得られる。この検索結果431では、検索結果として「那須国際カントリークラブ」および「滋賀国際ゴルフ」の2つの認識対象語句が言い換え対象語句として抽出されている。理解結果生成部115は、この2つの言い換え対象語句に対して、ステップS30およびステップS31で重み付けを行う。
まず、ステップS30では、理解結果生成部115は、各キーワードの出現順序に応じた重み付けを行う。具体的には、1つ目の言い換え対象語句である「那須国際カントリークラブ」のキーワードの出現順序は、「ナス、コクサイ、クラブ」であり、これは認識キーワード群におけるナス411、コクサイ412、およびクラブ414の出現順序と一致している。このように、出現順序が認識キーワード群と一致しているキーワードの重み値は1とする。これに対して、2つ目の言い換え対象語句である「滋賀国際ゴルフ」のキーワードの出現順序は、「シガ、コクサイ、クラブ」であり、これは認識キーワード群におけるコクサイ412、クラブ414、およびシガ411の出現順序と比べると、「シガ」の出現位置が異なっている。このように出現順序が認識キーワード群と一致していないキーワードの重み値は1/2とする。
本実施の形態では、理解結果生成部115は、ステップS30で各言い換え対象語句に含まれるキーワードの重み値の平均値を各言い換え対象語句の重み値として算出する。すなわち、ステップS30における各言い換え対象語句の重み値は次式(1)および(2)のように算出される。
「那須国際カントリークラブ」の重み値=(「ナス」の重み値+「コクサイ」の重み値+「クラブ」の重み値)×1/3=(1+1+1)×1/3=1 ・・・(1)
「滋賀国際ゴルフ」の重み値=(「シガ」の重み値+「コクサイ」の重み値+「ゴルフ」の重み値)×1/3=(1/2+1+1)×1/3=5/6≒0.83 ・・・(2)
また、理解結果生成部115は、ステップS31では、認識キーワード群410に含まれるキーワードの数に対する言い換え対象語句に含まれるキーワードの数の割合を各言い換え対象語句の重み値として算出する。すなわち、認識キーワード群410に含まれるキーワードの数が5であるのに対して、「那須国際カントリークラブ(ナス、コクサイ、クラブ)」および「滋賀国際ゴルフ(シガ、コクサイ、クラブ)」のいずれも言い換え対象語句内に3つのキーワードを含んでいることから、それぞれの重み値は3/5(0.6)となる。
そして、図2のステップS10においては、理解結果生成部115は、ステップS30で算出した重み値とステップS31で算出した重み値とをかけて、その結果得られる判定用重み値が大きい方の言い換え対象語句を理解結果として生成する。例えば、図5の検索結果431においては、次式(3)および(4)によって各言い換え対象語句の判定用重み値を算出する。
「那須国際カントリークラブ」の判定用重み値=1×0.6=0.6・・・(3)
「滋賀国際ゴルフ」の判定用重み値=0.83×0.6≒0.5 ・・・(4)
この式(3)および(4)より、図5に示す例では、理解結果生成部115は、「那須国際カントリークラブ」を理解結果として生成して、応答生成部116へ出力する。すなわち、理解結果生成部115は、使用者によって発話された「那須国際ゴルフクラブ」という言い換え語に対応する認識対象語句「那須国際カントリークラブ」を発話音声の音声認識結果として決定する。これによって、使用者によって言い換え語が発話された場合でも、それに対応する認識対象語句を発話音声の認識結果として正しく認識することができる。
以上説明した本実施の形態によれば、以下のような作用効果を得ることができる。
(1)キーワード認識処理による認識結果と再認識処理による認識結果とに基づいて、使用者によって認識対象語句の言い換え語が発話されたか否かを判断し、言い換え語が発話されたと判断した場合には、キーワード認識処理で認識したキーワードに基づいて、言い換え語に対応する認識対象語句を発話音声の音声認識結果として決定するようにした。これによって、使用者が言い換え語を発話した場合でも正しく音声認識をすることができる。
(2)キーワード認識処理による認識結果に基づいて発話音声の再認識が必要であるか否かを判断し、再認識が必要であると判断した場合には、認識したキーワードを含む認識対象語句を待ち受け単語として再認識処理を行うようにした。これによって、キーワード認識処理の結果に応じて、再認識処理時の待ち受け単語を絞り込むことができ、待ち受け単語を記録するためのメモリ容量を少なくすることができる。
(3)複数の認識対象語句に共通して含まれる音節をキーワードとするようにした。これによって、意味的なキーワードを含まない語、あるいは音節中に含まれる意味的なキーワードと認識対象語句の実態とが一致していない語であっても、キーワードと認識対象語句との対応をとることができる。
(4)再認識処理による認識結果として得られる認識スコアが、キーワード認識処理による認識結果として得られる認識スコアよりも所定以上低い場合に、言い換え語が発話されたと判断するようにした。これによって、発話者が認識対象語句そのものを正しく発話しなかった場合でも、発話内容の一部にキーワードを含んでいれば、言い換え語が発話されたことを検出することができる。
(5)発話音声から複数のキーワードが認識キーワード群として認識された場合には、認識キーワード群に関連する認識対象語句、すなわち複数のキーワードの全てに関連する認識対象語句を使用者が発話した言い換え語に対応する認識対象語句として特定するようにした。これによって、それぞれのキーワードに関連する認識対象語句が複数ある場合でも、全てのキーワードに関連する認識対象語句のみを対象とすればよいため、発話内容を絞り込むことができる。
(6)キーワード認識処理によって発話音声から複数のキーワードが認識されたとき、複数のキーワードの中に意味的な矛盾を生じさせるキーワードの組が含まれている場合には、キーワードの組の中からいずれか1つのキーワード以外を除外した。そして、除外後のキーワード群に関連する認識対象語句、すなわち除外後に残った全てのキーワードに関連する認識対象語句を使用者が発話した言い換え語に対応する認識対象語句として特定するようにした。これによって、誤検出された可能性が高いキーワードを除外することができ、キーワードの誤検出による影響を受けにくくすることができる。
(7)言い換え語に対応する認識対象語句が複数特定された場合には、発話音声に含まれるキーワードの出現順序に近い順序で各キーワードを含む認識対象語句の重み値が高くなるように重み付けを行なった。また、認識キーワード群に含まれるキーワードの数に対する言い換え語に対応する認識対象語句の中に含まれるキーワードの数の割合が高い認識対象語句の重み値が高くなるように重み付けを行なった。そして、それぞれの重み値をかけて1つの認識対象語句を言い換え語に対応する認識対象語句として特定するようにした。これによって、使用者が発話した言い換え語に対応する認識対象語句を精度高く特定することができる。
(8)複数のキーワードの全てに関連する認識対象語句が抽出できない場合には、複数のキーワードの中から1つ以上のキーワードを除外し、残った全てのキーワードに関連する認識対象語句を使用者が発話した言い換え語に対応する認識対象語句として特定するようにした。これによって、全てのキーワードに関連する認識対象語句がない場合には、キーワードの数を減らして対象とする認識対象語句を増やすことができる。
(9)キーワードを除外するに当たっては、各キーワードの認識信頼度を算出し、算出したキーワードが低い1つ以上のキーワードを除外するようにした。これによって、誤検出された可能性が高いキーワードを除外することができ、キーワードの誤検出による影響を受けにくくすることができる。
―変形例―
なお、上述した実施の形態の音声認識装置は、以下のように変形することもできる。
(1)上述した実施の形態では、音声認識装置100をナビゲーション装置に搭載する例について説明した。しかしながら、使用者による発話を受け付けて音声認識を行う他の装置に搭載することも可能である。例えば音声によって操作可能なオーディオ装置などに搭載してもよい。
(2)上述した実施の形態では、キーワード文法に含むキーワードとして、複数の認識対象語句に共通して含まれる音節、すなわち音節キーワードを用いる例について説明した。しかしながら、認識対象語句を表す特徴的な語をキーワードとしてもよい。例えば、地名やジャンル名といった施設を限定するのに使用される特徴的な語をキーワードとしてもよい。これによって、使用者が、認識対象語句と意味的に類似する語句を誤って発話した場合でも、キーワードと認識対象語句との対応をとることができる。
(3)上述した実施の形態では、音声認識処理部113は、キーワード認識処理を行った後、認識したキーワードを含む認識対象語句を再認識用文法として再認識処理を行う例について説明した。しかしながら、認識対象語句の数が少ない場合には、あらかじめ全ての認識対象語句を音声認識用辞書・文法114にロードしておき、キーワード文法201によるキーワード認識処理と並行して全ての認識対象語句を対象とした認識処理を行なってもよい。このように処理を並行して実行することによって、処理にかかる時間を短縮することができる。なお、この場合には、キーワード認識処理の結果として得られる認識スコアと、全ての認識対象語句を対象とした認識処理の結果として得られる認識スコアとを比較することで、言い換え語が発話された可能性があるか否かを判定すればよい。
(4)上述した実施の形態では、理解結果生成部115は、再認識処理の認識結果の認識スコアがキーワード認識処理の認識結果の認識スコアよりも所定以上低い場合に、言い換え語が発話された可能性があると判断する例について説明した。しかしながら、キーワード認識処理の認識結果の認識スコアに関わらず、再認識処理の認識結果の認識スコアが所定の閾値を超えない場合には、言い換え語が発話された可能性があると判断するようにしてもよい。これによって、より正確に言い換え語が発話された可能性を判断することができる。
(5)上述した実施の形態では、理解結果生成部115は、言い換え語に対応する認識対象語句が複数特定された場合には、図4のステップS30でキーワードの出現順序に基づく重み付けを行い、ステップS31でキーワードの数に基づく重み付けを行なった。そして、ステップS30で算出した重み値とステップS31で算出した重み値とをかけて、1つの言い換え語に対応する認識対象語句を特定するようにした。しかしながら、ステップS30およびステップS31のうち、いずれか一方の重み付け処理のみを行って、いずれか一方の重み値に基づいて1つの言い換え語に対応する認識対象語句を特定するようにしてもよい。
なお、本発明の特徴的な機能を損なわない限り、本発明は、上述した実施の形態における構成に何ら限定されない。
特許請求の範囲の構成要素と実施の形態との対応関係について説明する。マイク130は音声入力手段に、音声認識処理部113は第1の認識手段、第2の認識手段、および再認識判断手段に相当する。理解結果生成部115は言い換え語判断手段、および認識結果決定手段に相当する。なお、以上の説明はあくまでも一例であり、発明を解釈する際、上記の実施形態の記載事項と特許請求の範囲の記載事項の対応関係に何ら限定も拘束もされない。
音声認識装置の一実施の形態の構成を示すブロック図である。 音声認識処理のフローチャート図である。 音声認識処理の具体例を模式的に示した図である。 言い換え対象語句検索処理のフローチャート図である。 言い換え対象語句検索処理の具体例を模式的に示した図である。
符号の説明
100 音声認識装置
110 制御装置
111 入力制御部
112 音声バッファ
113 音声認識処理部
114 音声認識用辞書・文法
115 理解結果生成部
116 応答生成部
117 GUI表示制御部
118 音声合成部
120 発話開始スイッチ
130 マイク
140 ディスク読取装置
141 ディスク
150 モニタ
160 スピーカ

Claims (14)

  1. 使用者の発話音声を入力する音声入力手段と、
    認識対象語句に含まれるキーワードを待ち受け単語として、入力された前記発話音声に含まれるキーワードを認識する第1の認識手段と、
    前記認識対象語句を待ち受け単語として、前記発話音声を認識する第2の認識手段と、
    前記第1の認識手段による認識結果、および前記第2の認識手段による認識結果に基づいて、使用者によって前記認識対象語句の言い換え語が発話された可能性があるか否かを判断する言い換え語判断手段と、
    前記言い換え語判断手段で前記言い換え語が発話された可能性があると判断した場合には、前記第1の認識手段で認識したキーワードに基づいて、前記言い換え語に対応する前記認識対象語句を特定し、特定した前記認識対象語句を前記発話音声の音声認識結果として決定する認識結果決定手段とを備えることを特徴とする音声認識装置。
  2. 請求項1に記載の音声認識装置において、
    前記第1の認識手段による認識結果に基づいて、前記発話音声の再認識が必要であるか否かを判断する再認識判断手段をさらに備え、
    前記第2の認識手段は、前記再認識判断手段で再認識が必要であると判断した場合に、前記第1の認識手段で認識したキーワードを含む認識対象語句を待ち受け単語として、前記発話音声を認識することを特徴とする音声認識装置。
  3. 請求項1に記載の音声認識装置において、
    前記第1の認識手段による認識処理、および前記第2の認識手段による認識処理を並行して行なうことを特徴とする音声認識装置。
  4. 請求項1〜3のいずれか一項に記載の音声認識装置において、
    複数の前記認識対象語句に共通して含まれる音節を前記キーワードとすることを特徴とする音声認識装置。
  5. 請求項1〜3のいずれか一項に記載の音声認識装置において、
    前記認識対象語句を表す特徴的な語を前記キーワードとすることを特徴とする音声認識装置。
  6. 請求項1〜5のいずれか一項に記載の音声認識装置において、
    前記言い換え語判断手段は、前記第2の認識手段による認識結果として得られる認識スコアが、前記第1の認識手段による認識結果として得られる認識スコアよりも所定以上低い場合に、前記言い換え語が発話された可能性があると判断することを特徴とする音声認識装置。
  7. 請求項1〜5のいずれか一項に記載の音声認識装置において、
    前記言い換え語判断手段は、前記第2の認識手段による認識結果の認識スコアが所定の閾値を超えない場合に、前記言い換え語が発話された可能性があると判断することを特徴とする音声認識装置。
  8. 請求項1〜7のいずれか一項に記載の音声認識装置において、
    前記認識結果決定手段は、前記第1の認識手段によって前記発話音声から複数のキーワードがキーワード群として認識された場合には、前記キーワード群に関連する前記認識対象語句を前記言い換え語に対応する前記認識対象語句として特定することを特徴とする音声認識装置。
  9. 請求項1〜7のいずれか一項に記載の音声認識装置において、
    前記認識結果決定手段は、前記第1の認識手段によって前記発話音声から複数のキーワードが認識されたとき、前記複数のキーワードの中に意味的な矛盾を生じさせるキーワードの組が含まれている場合には、前記キーワードの組の中からいずれか1つのキーワード以外を除外したキーワード群に関連する前記認識対象語句を前記言い換え語に対応する前記認識対象語句として特定することを特徴とする音声認識装置。
  10. 請求項8または9に記載の音声認識装置において、
    前記認識結果決定手段は、前記言い換え語に対応する前記認識対象語句が複数特定された場合には、前記発話音声に含まれるキーワードの出現順序に近い順序で各キーワードを含む1つの前記認識対象語句を前記言い換え語に対応する前記認識対象語句として特定することを特徴とする音声認識装置。
  11. 請求項8〜10のいずれか一項に記載の音声認識装置において、
    前記認識結果決定手段は、前記言い換え語に対応する前記認識対象語句が複数特定された場合には、前記キーワード群に含まれるキーワードの数に対する前記言い換え語に対応する前記認識対象語句の中に含まれるキーワードの数の割合が高い1つの前記認識対象語句を前記言い換え語に対応する前記認識対象語句として特定することを特徴とする音声認識装置。
  12. 請求項8〜11のいずれか一項に記載の音声認識装置において、
    前記認識結果決定手段は、前記キーワード群に関連する前記認識対象語句を抽出できない場合には、前記キーワード群から1つ以上のキーワードを除外して、除外後のキーワード群に関連する前記認識対象語句を前記言い換え語に対応する前記認識対象語句として特定することを特徴とする音声認識装置。
  13. 請求項12に記載の音声認識装置において、
    前記認識結果決定手段は、前記キーワード群に関連する前記認識対象語句が抽出できない場合には、前記キーワード群に含まれる各キーワードの認識信頼度を算出し、算出した認識信頼度が低い1つ以上のキーワードを前記キーワード群から除外することを特徴とする音声認識装置。
  14. 認識対象語句に含まれるキーワードを待ち受け単語として、入力された発話音声に含まれるキーワードを認識し、
    前記認識対象語句を待ち受け単語として、前記発話音声を認識し、
    前記キーワードの認識結果、および前記発話音声の認識結果に基づいて、使用者によって前記認識対象語句の言い換え語が発話された可能性があるか否かを判断し、
    前記言い換え語が発話されたと判断した場合には、認識した前記キーワードに基づいて、前記言い換え語に対応する前記認識対象語句を特定し、特定した前記認識対象語句を前記発話音声の音声認識結果として決定することを特徴とする音声認識方法。
JP2006321295A 2006-11-29 2006-11-29 音声認識装置、および音声認識方法 Expired - Fee Related JP4867622B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006321295A JP4867622B2 (ja) 2006-11-29 2006-11-29 音声認識装置、および音声認識方法
US11/876,348 US8108215B2 (en) 2006-11-29 2007-10-22 Speech recognition apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006321295A JP4867622B2 (ja) 2006-11-29 2006-11-29 音声認識装置、および音声認識方法

Publications (2)

Publication Number Publication Date
JP2008134502A true JP2008134502A (ja) 2008-06-12
JP4867622B2 JP4867622B2 (ja) 2012-02-01

Family

ID=39559378

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006321295A Expired - Fee Related JP4867622B2 (ja) 2006-11-29 2006-11-29 音声認識装置、および音声認識方法

Country Status (2)

Country Link
US (1) US8108215B2 (ja)
JP (1) JP4867622B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010139744A (ja) * 2008-12-11 2010-06-24 Ntt Docomo Inc 音声認識結果訂正装置および音声認識結果訂正方法
JP2011064969A (ja) * 2009-09-17 2011-03-31 Alpine Electronics Inc 音声認識装置及び音声認識方法
US8073845B2 (en) 2008-03-11 2011-12-06 Xanavi Informatics Corporation Information retrieval apparatus, information retrieval system, and information retrieval method
JP2014006306A (ja) * 2012-06-21 2014-01-16 Sharp Corp 表示装置、テレビジョン受像機、表示装置の制御方法、プログラムおよび記録媒体
KR101863097B1 (ko) * 2016-11-18 2018-05-31 주식회사 인텔로이드 키워드 인식 장치 및 방법
WO2018100705A1 (ja) * 2016-12-01 2018-06-07 三菱電機株式会社 音声認識装置及び音声認識方法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2006083020A1 (ja) * 2005-02-04 2008-06-26 株式会社日立製作所 抽出された音声データを用いて応答音声を生成する音声認識システム
JP2011033680A (ja) * 2009-07-30 2011-02-17 Sony Corp 音声処理装置及び方法、並びにプログラム
JP5146429B2 (ja) * 2009-09-18 2013-02-20 コニカミノルタビジネステクノロジーズ株式会社 画像処理装置、音声認識処理装置、音声認識処理装置の制御方法、およびコンピュータプログラム
JP5942559B2 (ja) * 2012-04-16 2016-06-29 株式会社デンソー 音声認識装置
AU2015271665B2 (en) * 2014-06-05 2020-09-10 Interdev Technologies Systems and methods of interpreting speech data

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63163496A (ja) * 1986-12-26 1988-07-06 日本電信電話株式会社 並列検索照合型認識システム
JPH03200298A (ja) * 1989-12-28 1991-09-02 Clarion Co Ltd 音声制御装置
JPH06118990A (ja) * 1992-10-02 1994-04-28 Nippon Telegr & Teleph Corp <Ntt> ワードスポッティング音声認識装置
JPH06301399A (ja) * 1993-04-16 1994-10-28 Clarion Co Ltd 音声認識装置
JPH11149294A (ja) * 1997-11-17 1999-06-02 Toyota Motor Corp 音声認識装置および音声認識方法
JP2000148181A (ja) * 1998-11-06 2000-05-26 Sony Corp 音声認識装置
JP2000187497A (ja) * 1998-12-22 2000-07-04 Hitachi Ltd 音声による言語入力装置
JP2002023783A (ja) * 2000-07-13 2002-01-25 Fujitsu Ltd 対話処理システム
JP2004133880A (ja) * 2002-04-25 2004-04-30 Mitsubishi Electric Research Laboratories Inc インデックス付き文書のデータベースとで使用される音声認識器のための動的語彙を構成する方法
JP2005043461A (ja) * 2003-07-23 2005-02-17 Canon Inc 音声認識方法及び音声認識装置
JP2005338274A (ja) * 2004-05-25 2005-12-08 Mitsubishi Electric Corp 音声対話装置
JP2006184670A (ja) * 2004-12-28 2006-07-13 Nissan Motor Co Ltd 音声認識装置、方法、およびシステム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6556970B1 (en) * 1999-01-28 2003-04-29 Denso Corporation Apparatus for determining appropriate series of words carrying information to be recognized
JP2001034292A (ja) 1999-07-26 2001-02-09 Denso Corp 単語列認識装置
JP3700533B2 (ja) 2000-04-19 2005-09-28 株式会社デンソー 音声認識装置及び処理システム
WO2004044887A1 (ja) * 2002-11-11 2004-05-27 Matsushita Electric Industrial Co., Ltd. 音声認識用辞書作成装置および音声認識装置
JP4542974B2 (ja) * 2005-09-27 2010-09-15 株式会社東芝 音声認識装置、音声認識方法および音声認識プログラム

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63163496A (ja) * 1986-12-26 1988-07-06 日本電信電話株式会社 並列検索照合型認識システム
JPH03200298A (ja) * 1989-12-28 1991-09-02 Clarion Co Ltd 音声制御装置
JPH06118990A (ja) * 1992-10-02 1994-04-28 Nippon Telegr & Teleph Corp <Ntt> ワードスポッティング音声認識装置
JPH06301399A (ja) * 1993-04-16 1994-10-28 Clarion Co Ltd 音声認識装置
JPH11149294A (ja) * 1997-11-17 1999-06-02 Toyota Motor Corp 音声認識装置および音声認識方法
JP2000148181A (ja) * 1998-11-06 2000-05-26 Sony Corp 音声認識装置
JP2000187497A (ja) * 1998-12-22 2000-07-04 Hitachi Ltd 音声による言語入力装置
JP2002023783A (ja) * 2000-07-13 2002-01-25 Fujitsu Ltd 対話処理システム
JP2004133880A (ja) * 2002-04-25 2004-04-30 Mitsubishi Electric Research Laboratories Inc インデックス付き文書のデータベースとで使用される音声認識器のための動的語彙を構成する方法
JP2005043461A (ja) * 2003-07-23 2005-02-17 Canon Inc 音声認識方法及び音声認識装置
JP2005338274A (ja) * 2004-05-25 2005-12-08 Mitsubishi Electric Corp 音声対話装置
JP2006184670A (ja) * 2004-12-28 2006-07-13 Nissan Motor Co Ltd 音声認識装置、方法、およびシステム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8073845B2 (en) 2008-03-11 2011-12-06 Xanavi Informatics Corporation Information retrieval apparatus, information retrieval system, and information retrieval method
JP2010139744A (ja) * 2008-12-11 2010-06-24 Ntt Docomo Inc 音声認識結果訂正装置および音声認識結果訂正方法
JP2011064969A (ja) * 2009-09-17 2011-03-31 Alpine Electronics Inc 音声認識装置及び音声認識方法
JP2014006306A (ja) * 2012-06-21 2014-01-16 Sharp Corp 表示装置、テレビジョン受像機、表示装置の制御方法、プログラムおよび記録媒体
KR101863097B1 (ko) * 2016-11-18 2018-05-31 주식회사 인텔로이드 키워드 인식 장치 및 방법
WO2018100705A1 (ja) * 2016-12-01 2018-06-07 三菱電機株式会社 音声認識装置及び音声認識方法

Also Published As

Publication number Publication date
JP4867622B2 (ja) 2012-02-01
US20080262843A1 (en) 2008-10-23
US8108215B2 (en) 2012-01-31

Similar Documents

Publication Publication Date Title
JP4867622B2 (ja) 音声認識装置、および音声認識方法
US6185530B1 (en) Apparatus and methods for identifying potential acoustic confusibility among words in a speech recognition system
KR101383552B1 (ko) 다중 명령어가 포함된 단일 문장의 음성인식방법
JP4260788B2 (ja) 音声認識機器制御装置
WO2015151157A1 (ja) 意図理解装置および方法
US20060206331A1 (en) Multilingual speech recognition
US20130231934A1 (en) Speech Recognition on Large Lists Using Fragments
US11295741B2 (en) Dynamic wakewords for speech-enabled devices
US8566091B2 (en) Speech recognition system
JP2022110098A (ja) 音声処理
JP2006189730A (ja) 音声対話方法および音声対話装置
JP2002202797A (ja) 音声認識方法
KR20200072021A (ko) 음성인식시스템의 도메인 관리 방법
JP2008076811A (ja) 音声認識装置、音声認識方法及び音声認識プログラム
JP4661239B2 (ja) 音声対話装置及び音声対話方法
JP4639990B2 (ja) 音声対話装置及び音声理解結果生成方法
KR101945190B1 (ko) 음성인식 작동 시스템 및 방법
US11328713B1 (en) On-device contextual understanding
JP4930014B2 (ja) 音声認識装置、および音声認識方法
JP2003216179A (ja) 音声認識システム
JP4951422B2 (ja) 音声認識装置、および音声認識方法
JP4635743B2 (ja) 音声対話装置及び音声理解結果生成方法
JP4736962B2 (ja) キーワード選択方法、音声認識方法、キーワード選択システム、およびキーワード選択装置
JP6351440B2 (ja) 音声認識装置及びコンピュータプログラム
JP2006184371A (ja) 音声認識装置および音声認識方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110601

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111018

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111031

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141125

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees