JP4042589B2 - Voice input device for vehicles - Google Patents
Voice input device for vehicles Download PDFInfo
- Publication number
- JP4042589B2 JP4042589B2 JP2003050984A JP2003050984A JP4042589B2 JP 4042589 B2 JP4042589 B2 JP 4042589B2 JP 2003050984 A JP2003050984 A JP 2003050984A JP 2003050984 A JP2003050984 A JP 2003050984A JP 4042589 B2 JP4042589 B2 JP 4042589B2
- Authority
- JP
- Japan
- Prior art keywords
- character
- input
- voice
- recognition
- characters
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Navigation (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、車両用音声入力装置にかかり、特に、音声認識によって文字を入力し、認識された文字を同一母音の文字、音声認識スコアの高い文字、または語に該当する文字等の特定の一文字へのみ修正できるようにすることによって、ドライバが画面を注視する時間を減少させて文字を入力する際に安全に運転することができるようにした車両用音声入力装置に関する。
【0002】
【従来の技術】
音声を用いない文字入力としては、タッチパネルを備えた画面に五十音入力パレットを表示し、タッチパネル上の入力したい文字部分に指を接触させることで文字入力を行なう方式が実用化されている。しかしながら、この方式では、タッチパネルを備えた画面が手の届かない距離に配置されている場合(例えば、自動車のセンターパネルに配置されていて、運転中に操作入力しようとする場合)には、使用できない、という問題がある。
【0003】
また、画面に表示した五十音入力パレットとジョイスティックとを用い、カーソルで選択された文字を選択表示しながら、ジョイスティックでカーソルを全方向に移動させることで文字入力を行なう方式も提案されている。しかしながら、この方式では、ジョイスティックが上下左右斜め方向の全方向へ移動可能になっているので、意図しない方向にカーソルが移動し易く、操作ミスが発生し易い、という問題がある。
【0004】
さらに、ジョグダイアルを用いた五十音入力方式も提案されている(例えば、特許文献1)が、一文字を入力するためにジョグダイヤルによる選択と確定という操作を2回行なう必要があり、入力の効率が悪い、という問題がある。
【0005】
一方、車両用文字入力装置として効果的な音声認識による文字入力装置は、種々の方式が提案されている。しかしながら、音声認識誤りが存在し、認識率100%の音声認識は困難なため、文字入力装置を実用化するためには、誤認識時の修正手段が不可欠である。従来では、キーボード等の補助入力手段を用いて前入力を削除し再入力する、という方式が提案されている(例えば、特許文献2)。
【0006】
この方式では、誤認識する度に再度音声入力が必要なため、利便性に欠けると共に、再度同様の誤認識が繰り返されると、入力が不可能になる可能性がある。
【0007】
また、単語の音声認識において、誤認識した音節をカーソルで指示し、該当する音節と同一段の文字を順次一文字ずつ提示することで音節を修正する方法が提案されている(例えば、特許文献3)。さらに、単音節による音声認識装置で単音節語を同一の母音グループ毎に一連のアドレスに各々登録し、アドレスを加減算することでグループ内で認識候補の単音節語を一文字ずつ表示して修正することが記載されている(例えば、特許文献4)。
【0008】
【特許文献1】
特開2000−193475号公報
【特許文献2】
特開平1−189699号公報
【特許文献3】
特開昭61−41199号公報
【特許文献4】
特開昭56−116096号公報
【0009】
【発明が解決しようとする課題】
しかしながら、特許文献3の方法では、修正キーを押して画面を目視し、一文字ずつ修正する必要があるため、画面を注視する時間が長くなる、という問題がある。また、特許文献4の音声認識装置では表示部には一文字しか表示されないので、単音節語の修正方向を一目で確認することが困難であり、上記と同様に画面を注視する時間が長くなる、という問題がある。そして、一般に画面の注視時間が長くなるほど車両のふらつきが増加する等によって、安全性が損なわれることが知られており(H.T.Zwahlen et al:Safety aspects of CRT touch panel controls in automobile, Vision in Vehicles II, A.G.Gale et al (Eds), pp.335-344, North Holland Press, Amsterdam (1998))、ドライバが使用する音声入力装置として画面注視時間の長い方式は不適切である。
【0010】
本発明は、上記問題点を解消すべくなされたもので、入力された音声を音声認識によって文字に変換し、変換された文字を文字入力パレット上の同一母音の文字、音声認識スコアの高い文字、または語に該当する文字等の特定の一文字へのみ修正できるようにすることによって、ドライバが画面を注視する時間を減少させて安全に文字を入力することができるようにした車両用音声入力装置を提供することを目的とする。
【0011】
【課題を解決するための手段】
上記目的を達成するために本発明は、音声を入力する音声入力手段と、前記音声入力手段から入力された音声を認識し、認識結果を認識結果に対応する文字または文字列に変換する音声認識手段と、前記音声認識手段で変換された文字または文字列を、同一母音が同一ライン上に並ぶように五十音の文字、または五十音の文字の一部分を配列して表示しておいて該五十音の文字、または該五十音の文字の一部分の文字の中から選択された一文字を一文字ずつ入力するための五十音入力パレットと共に表示する表示手段と、前記音声認識手段によって変換された文字または文字列に対応した前記五十音入力パレット上の一文字を選択表示すると共に、修正要求に応じて前記同一ライン上でのみ選択表示を変更し、確定要求に応じて選択表示された文字を確定する制御手段と、を含んで構成したものである。
【0012】
本発明によれば、音声入力手段から入力された音声は、音声認識手段によって認識され、認識結果が認識結果に対応する文字または文字列に変換される。音声認識手段で変換された文字または文字列は、同一母音が同一ライン上に並ぶように五十音の文字、または五十音の文字の一部分を配列して表示しておいてこの五十音の文字、または該五十音の文字の一部分の文字の中から選択された一文字を一文字ずつ入力するための五十音入力パレットと共に表示手段に表示される。
【0013】
また、制御手段は、音声認識手段によって変換された文字または文字列に対応した文字入力パレット上の一文字を選択表示する。これによって、音声認識の結果を視覚によって確認することができる。なお、音声認識手段での認識結果を音声で報知するようにすれば、聴覚によっても音声認識の結果を確認することができる。
【0014】
音声認識の結果が正しくない場合に修正を要求すると、制御手段は、修正要求に応じて前記同一ライン上でのみ選択表示を変更する。
【0015】
音声認識では、同一母音の文字の認識率は極めて高い。そこで、修正要求に応じて同一母音の文字へのみ選択表示を変更するようにすることにより、五十音入力パレット上で同一母音の文字へのみ修正することができるため、ドライバの画面を注視する時間が減少し、安全に文字を入力することができるようになる。また、五十音入力パレット上には、複数の文字が表示されているので、選択表示を変更する方向を一目で確認することができる。
【0016】
また、制御手段は、修正要求に応じて同一ライン上であって、音声認識スコアの高い文字、語に該当する文字、または、音声認識スコアの高い文字、及び語に該当する文字のいずれか一つの文字を定めるための条件を組み合わせた条件を満たす文字へのみ変更することができる。
五十音入力パレットにおいて同一ライン上に並ぶ認識候補の別の例として、音声認識スコアの高い文字がある。音声認識では一般に入力された音声に対して認識スコアの高い複数の認識候補が得られるが、それらの中で最もスコアの高い候補を一つの認識結果とする。誤認識が起こる場合でも、正解が認識スコアの高い候補に含まれる場合が多い。そこで、入力時の修正要求に応じて認識スコアの高い候補文字へのみ選択表示を変更することで、上記と同様に安全に文字を入力することができる。
【0017】
また、五十音入力パレットにおいて同一ライン上に並ぶ認識候補の別の例として、語に該当する文字、すなわち入力しようとする語を構成する候補となる文字がある。例えば、本装置を一文字ずつの地名入力に用いる場合を例に説明する。今、「と」「う」まで入力されたとすると、次に入力される文字は、「き」(東京など)や「か」(東海など)等の入力しようとする語を構成する候補となる文字に限られ「ん」は続かない。従って、入力時の修正要求に応じて語に該当する文字(上記の例では、「き」や「か」等)へのみ選択表示を変更することで、上記と同様に安全に文字を入力することができる。
【0019】
そして、制御手段は、確定要求に応じて選択表示された文字を確定する。修正要求及び確定要求は、音声で入力してもよく、スイッチ等の機械的操作手段で入力するようにしてもよい。
【0020】
五十音入力パレットの同一ラインは、左右方向のラインでも上下方向のラインでもよいが、ドライバにとっては左右方向のラインがより好ましい。
【0022】
【発明の実施の形態】
以下、図面を参照して、音声で文字を一文字ずつ発話することで音声認識によって文字列を入力すると共に、音声認識スコアの高い文字の入力候補の文字を左右方向の同一ライン上に表示し、音声認識スコアの高い文字の他の文字へのみ修正可能として文字を入力するカーナビゲーションの音声入力装置(文字列入力装置)に本発明を適用した実施の形態について詳細に説明する。
【0023】
図1に示すように本実施の形態の車両用音声入力装置は、ドライバ等の音声を入力するマイクロホン等で構成された音声入力装置11と、音声入力装置11から入力された音声を予め記憶されている音声認識プログラムによって認識し、認識結果を認識結果に対応する文字または文字列に変換するマイクロコンピュータで構成された音声認識装置12とを備えている。音声認識装置12には、単音節での辞書を含む各種の辞書を記録した辞書データベース17が接続されている。音声認識装置12は、辞書データベース17に記録されたいずれか1つの辞書を選択して音声認識処理を実行する。
【0024】
また、音声認識装置12には、音声認識処理によって認識された音声を出力するスピーカ等で構成された音声出力装置13が接続され、音声出力装置13には判定装置14が接続されている。
【0025】
さらに、音声認識装置12には、液晶表示装置等で構成された補助表示装置16が接続されている。この補助表示装置16には、図2に示すように、音声認識装置12で変換された文字または文字列を単音節毎に表示するウインドウ16A、「違う」、「確定」、「中止」のコマンド名が表示されたコマンド表示部16B、五十音の文字を一文字ずつ入力するための同一母音の文字列を左右方向に配列して構成された文字入力パレットを表示する文字入力パレット部16C、及び文字入力パレットの選択表示を左右に移動するための「左」、「右」のコマンド名、及び文字入力パレットを次の画面に切換えるための「次へ」のコマンド名が表示された切換コマンド部16Dが設けられている。
【0026】
このコマンド部16B、文字入力パレット部16C、切換コマンド部16Dには、タッチパネルが設けられており、指を接触させることにより、表示された文字に対応するコマンドを入力したり、入力候補の選択表示を変更することが可能である。なお、コマンドや入力候補の選択表示の変更は、タッチパネル以外に、後述するように音声によって入力したコマンド、または補助入力装置15から入力した信号によっても変更することができる。
【0027】
本実施の形態の文字入力パレットは、同一母音の複数の文字が左右方向(横方向)に1列並んで表示された1段のパレットで構成されている。この文字入力パレットの同一母音の複数の文字は、音声認識のスコアの高い文字で構成されている。この文字入力パレットによれば、「次へ」のコマンドを入力することにより、表示されている文字入力パレットを次の段の文字入力パレットに切換えて表示することができる。次の段の文字入力パレットも同一母音の文字が横方向に1列並んで表示された1段のパレットで構成されている。また、「左」または「右」のコマンドを入力することにより、修正要求が入力され、文字の選択表示(図2では「にゃ」の単音節文字が選択表示された状態が図示されている)を左または右に移動することができる。したがって、本実施の形態では、音声入力装置11から入力する音声、補助入力装置15の操作によって、修正要求を入力し、文字の選択表示を左または右に移動することができる。
【0028】
なお、文字入力パレットの左端の文字が選択表示された状態で「左」のコマンドが入力されたときに、前段の文字入力パレット(または次段の文字入力パレット)に切換え、文字入力パレットの右端の文字が選択表示された状態で「右」のコマンドが入力されたときに、次段の文字入力パレット(または前段の文字入力パレット)に切換えるようにしてもよい。
【0029】
そして、音声認識装置12には、文字入力パレットの文字の選択表示を手による操作によって文字入力パレットの文字配列方向に移動させたり、文字入力パレットを切換えるための補助入力装置15が接続されている。なお、この補助入力装置15から「違う」、「確定」、「中止」のコマンドを更に入力できるようにしてもよい。
【0030】
以下、音声認識装置12による音声を認識し、修正要求に応じて入力候補の文字の選択表示を変更すると共に、確定要求に応じて入力候補の文字を確定して文字列を入力する処理ルーチンについて図3及び図4を参照して説明する。
【0031】
自動車に搭載されているカーナビゲーションのスイッチがオンされると、図3に示す処理ルーチンが起動され、ステップ100において初期モードに設定される。これによって、音声認識装置12は、辞書データベースの初期モード辞書を選択して音声認識処理を実行する。
【0032】
次のステップ102では、音声入力装置11から音声の入力があったか否かを判断し、音声の入力があった場合には、ステップ104において初期モード辞書を使用して入力された音声を認識し、認識結果を認識結果に対応する文字列に変換する音声認識処理を実行する。ステップ106では、「施設」等のキーワードが入力されたか否かを判断し、キーワードが入力されたと判断された場合のみ、ステップ108において音声出力装置13に認識結果及び動作作業の情報を受け渡す。これによって、音声出力装置13は、単音節での入力要求を音声で報知すると共に、判定装置14に、認識結果情報を受け渡す。
【0033】
認識結果情報を受け取った判定装置14は、辞書データベースを単音節モード辞書に切換えて、キーワードの内容に適した入力モードで音声認識処理を実行するようにモード切換指示を音声認識装置12に出力する。
【0034】
例えば、音声認識されたキーワードが「施設」であった場合には、音声出力装置13では、「施設名を一文字ずつお話ください。」と音声出力して単音節での入力要求を音声で報知し、判定装置14は、施設名入力モードにし、認識辞書データベースを単音節入力モードへ切換える指示を音声認識装置へ出力する。
【0035】
キーワード以外の音声が入力された場合、または誤認識でキーワードが認識されなかった場合にはそのまま初期モードを継続し、キーワード待ち受け状態を継続する。
【0036】
なお、音声出力装置13から認識結果を音声で報知するようにすれば、ドライバが認識結果を聴覚で確認することができるので、ドライバは発話した音声と認識された音声とが同一であるか否かを補助表示装置を目視することなく判断することができる。
【0037】
次のステップ110では、判定装置14からモード切換指示が入力されたか否かを判断し、モード切換指示が入力された場合には、ステップ112において認識辞書データベースを入力されたキーワードに対応する辞書に切換えると共にキーワードに対応する入力モードに切換える。
【0038】
そして、ステップ114において、キーワードに対応する辞書を用いて音声認識処理を行なう単音節入力モード処理を実施し、認識結果を認識結果に対応する文字または文字列に変換する。
【0039】
次に、図4を参照してステップ114の詳細を説明する。ステップ200において音声入力装置11から音声入力があったか否かを判断し、音声入力があった場合には、ステップ201において単音節モードによる音声認識処理を実施し、ステップ202において音声認識結果に基づいて「違う」、「確定」、「左」、「右」等のコマンドが音声で入力されたか否かを判断する。
【0040】
ステップ202においてコマンド以外、すなわち単音節の音声が入力されたと判断されたときは、ステップ204において入力する音声の最初の音節か否かを判断する。最初の音節の場合には、音声出力装置13に認識結果を出力して音声で認識結果を報知すると共に、補助表示装置16のウインドウ16Aに音声認識結果によって変換された文字を表示する。図2では、「役場」の最初の音節「や」が認識されて表示された結果が例示されている。
【0041】
ステップ204で最初の音節でないと判断されたとき、すなわち次の音節が入力されたと判断されたときには、ステップ208において前回音声認識された音節を確定する処理を行ない、ステップ210で音声出力装置13に認識結果を出力して前回認識された音節と今回認識された音節とを連続させた音声が出力されるようにするとと共に、ウインドウ16Aに前回認識された音節と今回認識された音節とを連続させた文字列を表示する。
【0042】
これによって、ドライバは、聴覚によって音声認識の結果を確認することができるので、補助表示装置16のウインドウ16Aを目視しなくても音声認識の結果を確認することができる。
【0043】
ステップ200において、音声入力が無いと判断されたときには、ステップ212において所定時間経過したか否かを判断し、所定時間経過していない場合には音声入力待ち状態とし、所定時間経過しても音声の入力が無い場合には、ステップ214において音声認識処理によって認識されて確定されていない音声が存在するか否かを判断し、認識されて確定されていない音声が存在する場合には、ステップ216で認識されて確定されていない音声を確定して文字に変換する。
【0044】
これによって、所定時間音声の入力が無い場合には、前回認識した音声を自動的に確定することができる。
【0045】
ステップ202においてコマンドが入力されたと判断されたときは、以下で説明するコマンドに応じた処理を実行する。まず、ステップ218で「違う」を表すコマンドが入力されたと判断された場合には、音声認識の結果に基づいて音声出力装置13から音声で報知された音声は、入力を意図した音声と異なるので、認識結果を確定することなくステップ220で認識結果を取り消し、ステップ200に戻って音声入力待ち受け状態とする。
【0046】
ステップ222で「確定」を表すコマンドが入力されたと判断されたときは、音声認識の結果に基づいて音声出力装置13から音声で報知された音声は、入力を意図した音声であるので、ステップ224において認識された音声を確定する処理を行なってステップ200に戻って音声入力待ち受け状態とする。したがって、本実施の形態では、「確定」を表すコマンドを音声で入力することによっても入力候補を確定することができる。すなわち、本実施の形態では、「確定」コマンドの入力、音声を入力した後所定時間以内の次の音声の入力、音声を入力した後所定時間以上の音声無入力状態のいずれかで、確定要求を行なうことができる。
【0047】
次のステップ226で、「右」、「左」、「次へ」等の移動を表すコマンドが入力されたと判断されたときは、ステップ228において「右」を表すコマンド、「左」を表すコマンド、または「次へ」を表すコマンドが入力されたかを判断し、「右」を表すコマンドまたは「左」を表すコマンドが入力された場合は、ステップ230において図2の文字入力パレットの選択表示を段に沿って「右」または「左」に一文字移動する処理を行ないステップ200に戻る。これによって、音声認識の結果、入力候補として文字入力パレット上に選択表示された文字を文字入力パレットの文字配列方向にのみ、すなわち同一母音の文字へのみ一文字移動させて修正することができる。
【0048】
図2では、「や」と音声入力したにも拘わらず、「にゃ」と音声認識され、「にゃ」の文字が文字入力パレット上に選択表示された場合が示されている。この場合は、「右」を表すコマンドを2回入力することで、文字の選択表示が2文字分右に移動し、正しい入力候補である「や」を選択表示し、確定要求によって確定することによってウインドウ16Aに正しい文字を表示することができる。
【0049】
また、ステップ228で、「次へ」を表すコマンドが入力されたと判断されたときは、ステップ232において次の候補を表示するように文字入力パレットを次の文字入力ハレットに切換える処理を行なってステップ200に戻る。
【0050】
また、ステップ226で「中止」を表すコマンドが入力されたと判断されたときは、このルーチン終了す。
【0051】
上記では、音声入力で選択表示を移動させるコマンドを入力する例について説明したが、ドライバが補助入力装置15を操作することによって文字の選択表示を同一母音を表す文字を配列した段に沿って移動させてもよい。
【0052】
なお、上記では、音声認識では複数の認識候補を出力することができ、この認識候補は同一母音の文字であるのが殆どであることを考慮して、音声認識スコアが高い複数の文字のみを配列した1段の文字入力パレットを切換えて使用する例について説明したが、図5に示すように五十音の同一母音の文字を横方向に配列した五十音文字入力パレット、または同一母音の文字を横方向に配列した五十音の一部分を用いた五十音文字入力パレットを用いるようにしてもよい。また、文字入力パレットとして語に該当する文字、すなわち入力しようとする語を構成する候補となる文字を配列したパレットを用いるようにしてもよい。例えば、地名を入力する場合、文字入力パレットには、「と」「う」まで入力された段階で、「と」「う」「き」「か」「ほ」(東京、東海、東北などが語の場合)等が表示される。
【0053】
さらに、上記では、選択表示を横方向に移動させる例について説明したが上下方向に移動させるようにしてもよい。
【0054】
以上説明したように、本実施の形態では、音声で文字を一文字ずつ発話することで文字または文字列を入力すると共に入力候補の文字を特定の他の一文字へのみ修正可能としたので、ドライバの画面を注視する時間を減少させ、安全に文字入力ができるようになる、という効果が得られる。
【0055】
【発明の効果】
以上説明したように本発明によれば、音声認識によって文字を入力し、認識された文字を入力パレット上の特定の一文字へのみ修正できるようにしたので、ドライバが画面を注視する時間を減少させて安全に文字を入力することができる、という効果が得られる。
【図面の簡単な説明】
【図1】本発明の実施の形態のブロック図である。
【図2】本発明の実施の形態の補助表示装置の画面の表示例を示す図である。
【図3】本発明の実施の形態の処理ルーチンを示す流れ図である。
【図4】図3の単音節入力モード処理のルーチンを示す流れ図である。
【図5】五十音の文字を表示した五十音入力パレットを示す平面図である。
【符号の説明】
11 音声入力装置
12 音声認識装置
13 音声出力装置
16 補助表示装置
17 辞書データベース[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a vehicle voice input device, and in particular, a character is input by voice recognition, and the recognized character is a specific character such as a character having the same vowel, a character having a high voice recognition score, or a character corresponding to a word. The present invention relates to an audio input device for a vehicle that allows a driver to drive safely when inputting characters by reducing the time for the driver to gaze at the screen.
[0002]
[Prior art]
As a character input without using a voice, a method has been put into practical use in which a Japanese syllabary input palette is displayed on a screen provided with a touch panel, and a character is input by bringing a finger into contact with a character portion to be input on the touch panel. However, this method is used when a screen with a touch panel is placed at a distance that is out of reach (for example, when it is placed on the center panel of an automobile and an operation is input while driving). There is a problem that it is not possible.
[0003]
Also, a method has been proposed in which a character input is performed by moving the cursor in all directions with the joystick while selecting and displaying the character selected with the cursor using the syllabary input palette and joystick displayed on the screen. . However, this method has a problem that the joystick can move in all directions of up, down, left, and right diagonal directions, so that the cursor can easily move in an unintended direction and an operation error easily occurs.
[0004]
Furthermore, a Japanese syllabary input method using a jog dial has also been proposed (for example, Patent Document 1). However, in order to input a single character, it is necessary to perform selection and confirmation operations twice with the jog dial, and the input efficiency is improved. There is a problem of being bad.
[0005]
On the other hand, various methods have been proposed for a character input device by voice recognition that is effective as a vehicle character input device. However, since speech recognition errors exist and speech recognition with a recognition rate of 100% is difficult, correction means for erroneous recognition is indispensable for putting the character input device into practical use. Conventionally, a method has been proposed in which auxiliary input such as a keyboard is used to delete and re-input previous input (for example, Patent Document 2).
[0006]
This method requires voice input again every time it is erroneously recognized, so that it is not convenient, and if the same erroneous recognition is repeated again, input may become impossible.
[0007]
Also, in speech recognition of words, a method has been proposed in which a syllable is corrected by pointing a misrecognized syllable with a cursor and sequentially presenting characters one step at a time in sequence with the corresponding syllable (for example, Patent Document 3). ). Furthermore, a single syllable word is registered in a series of addresses for each identical vowel group by a single syllable speech recognition device, and a single syllable word of a recognition candidate is displayed and corrected one by one in the group by adding and subtracting the address. (For example, Patent Document 4).
[0008]
[Patent Document 1]
JP 2000-193475 A [Patent Document 2]
JP-A-1-189699 [Patent Document 3]
JP 61-41199 A [Patent Document 4]
Japanese Patent Laid-Open No. 56-1116096
[Problems to be solved by the invention]
However, the method of Patent Document 3 has a problem that it takes a long time to gaze at the screen because it is necessary to visually check the screen by pressing the correction key and to correct each character one by one. In addition, since only one character is displayed on the display unit in the speech recognition device of Patent Document 4, it is difficult to confirm the correction direction of a single syllable word at a glance, and it takes a long time to gaze at the screen as described above. There is a problem. In general, it has been known that the longer the gazing time of the screen, the more the vehicle's wobbling increases. AGGale et al (Eds), pp.335-344, North Holland Press, Amsterdam (1998)), and a method with a long screen gaze time as an audio input device used by a driver is inappropriate.
[0010]
The present invention has been made to solve the above problems, and converts input speech into characters by speech recognition. The converted characters are characters of the same vowel on the character input palette and characters having a high speech recognition score. Or a voice input device for a vehicle that allows a driver to input characters safely by reducing the time for the driver to gaze at the screen by making corrections to only one specific character such as a character corresponding to a word The purpose is to provide.
[0011]
[Means for Solving the Problems]
In order to achieve the above object, the present invention provides a voice input means for inputting voice, and voice recognition for recognizing the voice inputted from the voice input means and converting the recognition result into a character or a character string corresponding to the recognition result. And a character or a character string converted by the voice recognition means are displayed by arranging 50-characters or a part of 50-characters so that the same vowels are arranged on the same line. Display means for displaying one character selected from the characters of the Japanese syllabary or a part of the character of the Japanese syllabary along with a Japanese syllabary input palette , and conversion by the speech recognition unit while characters or selects a character on the alphabetical input palette corresponding to the character string display, change only the selected display on the same line in response to the modification request, the selection display in response to confirmation request And control means for determining the character, which is constituted contains.
[0012]
According to the present invention, the voice input from the voice input unit is recognized by the voice recognition unit, and the recognition result is converted into a character or a character string corresponding to the recognition result. Converted character or character string by voice recognition means, the Japanese syllabary same vowel is allowed to display by arranging syllabary character or a portion of the Japanese syllabary character, so as to line up on the same line Or a character selected from a part of the 50- character character is displayed on the display means together with a 50-character input palette for inputting one character at a time.
[0013]
The control means selectively displays one character on the character input palette corresponding to the character or character string converted by the voice recognition means. Thereby, the result of voice recognition can be visually confirmed. If the recognition result by the voice recognition means is notified by voice, the result of voice recognition can be confirmed by hearing.
[0014]
When the correction is requested when the result of the speech recognition is not correct, the control unit changes the selection display only on the same line in response to the correction request.
[0015]
In the speech recognition, the recognition rate of the same vowel character is very high. Therefore, by changing the selection display only to the characters of the same vowel in response to the correction request, it is possible to correct only the characters of the same vowel on the Japanese syllabary input palette , so watch the driver's screen. Time is reduced and you can enter characters safely. In addition, since a plurality of characters are displayed on the Japanese syllabary input palette , the direction of changing the selection display can be confirmed at a glance.
[0016]
Further, the control means is one of a character having a high speech recognition score, a character corresponding to a word, a character having a high speech recognition score, and a character corresponding to a word on the same line in response to a correction request. It is possible to change only to a character that satisfies a condition combining conditions for defining one character.
As another example of recognition candidates arranged on the same line in the Japanese syllabary input palette, there is a character having a high speech recognition score. In speech recognition, a plurality of recognition candidates having a high recognition score is generally obtained for input speech. Among them, a candidate having the highest score is taken as one recognition result. Even when misrecognition occurs, correct answers are often included in candidates with high recognition scores. Therefore, by changing the selection display only to candidate characters having a high recognition score in response to a correction request at the time of input, it is possible to input characters safely as described above.
[0017]
Another example of recognition candidates arranged on the same line in the Japanese syllabary input palette is a character corresponding to a word, that is, a character that becomes a candidate constituting a word to be input. For example, the case where this apparatus is used for inputting a place name for each character will be described as an example. Assuming that "to" and "u" are entered, the next character to be entered is a candidate for a word to be entered, such as "ki" (such as Tokyo) or "ka" (such as Tokai). It is limited to letters and “n” does not follow. Therefore, according to the correction request at the time of input, by changing the selection display only to the character corresponding to the word (in the above example, “ki”, “ka”, etc.), the character can be safely input as described above. be able to.
[0019]
Then, the control means confirms the character selected and displayed in response to the confirmation request. The correction request and the confirmation request may be input by voice or may be input by a mechanical operation means such as a switch.
[0020]
The same line of the Japanese syllabary input palette may be a horizontal line or a vertical line, but a horizontal line is more preferable for the driver.
[0022]
DETAILED DESCRIPTION OF THE INVENTION
In the following, referring to the drawings, a character string is input by voice recognition by speaking characters one by one by voice , and input candidate characters having a high voice recognition score are displayed on the same line in the left-right direction. An embodiment in which the present invention is applied to a voice input device (character string input device) for car navigation that inputs a character that can be corrected only to other characters having a high voice recognition score will be described in detail.
[0023]
As shown in FIG. 1, the vehicular audio input device according to the present embodiment stores in advance an
[0024]
The
[0025]
Further, an
[0026]
The command unit 16B, the character
[0027]
The character input palette according to the present embodiment includes a one-stage palette in which a plurality of characters of the same vowel are displayed side by side in the left-right direction (horizontal direction). A plurality of characters of the same vowel in this character input palette are composed of characters having a high speech recognition score. According to this character input palette, by inputting the “next” command, the displayed character input palette can be switched to the next character input palette and displayed. The next-stage character input palette is also composed of a one-stage palette in which characters of the same vowel are displayed in a row in the horizontal direction. Further, by inputting a “left” or “right” command, a correction request is input, and a character selection display (FIG. 2 shows a state where a single syllable character “Nya” is selected and displayed). Can move left or right. Therefore, in the present embodiment, the correction request can be input by moving the voice input from the
[0028]
When the “Left” command is entered while the leftmost character of the character input palette is selected and displayed, the character input palette is switched to the previous character input palette (or the next character input palette) and the right end of the character input palette. When the “right” command is input in a state where the character is selected and displayed, the character input palette may be switched to the next character input palette (or the previous character input palette).
[0029]
The
[0030]
Hereinafter, a processing routine for recognizing speech by the
[0031]
When the car navigation switch mounted on the automobile is turned on, the processing routine shown in FIG. 3 is started, and the initial mode is set in
[0032]
In the
[0033]
Upon receiving the recognition result information, the
[0034]
For example, if the recognized keyword is “facility”, the
[0035]
When a voice other than the keyword is input or when the keyword is not recognized due to misrecognition, the initial mode is continued as it is, and the keyword standby state is continued.
[0036]
If the recognition result is notified by voice from the
[0037]
In the
[0038]
In
[0039]
Next, the details of
[0040]
If it is determined in
[0041]
If it is determined in
[0042]
As a result, the driver can confirm the result of the voice recognition by hearing, so that the result of the voice recognition can be confirmed without viewing the
[0043]
If it is determined in
[0044]
Thereby, when there is no voice input for a predetermined time, the voice recognized last time can be automatically determined.
[0045]
When it is determined in
[0046]
If it is determined in
[0047]
When it is determined in the
[0048]
FIG. 2 shows a case in which “Nya” is recognized as a voice and “Nya” is selected and displayed on the character input palette even though “ya” is voiced. In this case, by inputting the command representing “right” twice, the character selection display moves to the right by two characters, and the correct input candidate “ya” is selected and displayed and confirmed by the confirmation request. Thus, correct characters can be displayed in the
[0049]
If it is determined in
[0050]
If it is determined in
[0051]
In the above description, an example of inputting a command for moving the selection display by voice input has been described. However, when the driver operates the
[0052]
In the above description, it is possible to output a plurality of recognition candidates in speech recognition. Considering that the recognition candidates are mostly characters of the same vowel, only a plurality of characters having a high speech recognition score are used. The example of switching and using the arranged one-stage character input palette has been described. However, as shown in FIG. 5, a 50-character input palette in which characters of the same vowel are arranged horizontally, or It is also possible to use a Japanese syllabary character input palette using a part of the Japanese syllabary in which characters are arranged in the horizontal direction. Further, as the character input palette, a palette in which characters corresponding to words, that is, characters that are candidates for configuring the word to be input, are arranged may be used. For example, when entering a place name, “to”, “u”, “ki”, “ka”, “ho” (Tokyo, Tokai, Tohoku, etc.) are entered in the character input palette until “to” and “u” are entered. In the case of words) is displayed.
[0053]
Furthermore, in the above description, an example in which the selection display is moved in the horizontal direction has been described. However, the selection display may be moved in the vertical direction.
[0054]
As described above, in this embodiment, since a character or a character string can be input by uttering characters one by one by voice and the input candidate character can be corrected only to another specific character. The effect of reducing the time for gazing at the screen and enabling safe character input is obtained.
[0055]
【The invention's effect】
As described above, according to the present invention, since characters are input by voice recognition and the recognized characters can be corrected to only one specific character on the input palette, the time for the driver to watch the screen is reduced. Thus, it is possible to input characters safely.
[Brief description of the drawings]
FIG. 1 is a block diagram of an embodiment of the present invention.
FIG. 2 is a diagram showing a display example of a screen of the auxiliary display device according to the embodiment of the present invention.
FIG. 3 is a flowchart showing a processing routine according to the embodiment of the present invention.
4 is a flowchart showing a routine of single syllable input mode processing of FIG. 3;
FIG. 5 is a plan view showing a Japanese syllabary input palette displaying Japanese syllabary characters.
[Explanation of symbols]
11
Claims (2)
前記音声入力手段から入力された音声を認識し、認識結果を認識結果に対応する文字または文字列に変換する音声認識手段と、
前記音声認識手段で変換された文字または文字列を、同一母音が同一ライン上に並ぶように五十音の文字、または五十音の文字の一部分を配列して表示しておいて該五十音の文字、または該五十音の文字の一部分の文字の中から選択された一文字を一文字ずつ入力するための五十音入力パレットと共に表示する表示手段と、
前記音声認識手段によって変換された文字または文字列に対応した前記五十音入力パレット上の一文字を選択表示すると共に、修正要求に応じて前記同一ライン上でのみ選択表示を変更し、確定要求に応じて選択表示された文字を確定する制御手段と、
を含む車両用音声入力装置。Voice input means for inputting voice;
Voice recognition means for recognizing the voice input from the voice input means and converting the recognition result into a character or a character string corresponding to the recognition result;
Characters or character strings converted by the speech recognition means are displayed by arranging 50- characters or parts of 50- characters so that the same vowels are arranged on the same line. Display means for displaying a sound character, or a character selected from a part of the character of the Japanese syllabary, together with a Japanese syllabary input palette for inputting one character at a time;
Select and display one character on the Japanese syllabary input palette corresponding to the character or character string converted by the speech recognition means, change the selection display only on the same line in response to a correction request, A control means for confirming the character selected and displayed in response,
A voice input device for vehicles including the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003050984A JP4042589B2 (en) | 2003-02-27 | 2003-02-27 | Voice input device for vehicles |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003050984A JP4042589B2 (en) | 2003-02-27 | 2003-02-27 | Voice input device for vehicles |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004258480A JP2004258480A (en) | 2004-09-16 |
JP4042589B2 true JP4042589B2 (en) | 2008-02-06 |
Family
ID=33116252
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003050984A Expired - Fee Related JP4042589B2 (en) | 2003-02-27 | 2003-02-27 | Voice input device for vehicles |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4042589B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4983587B2 (en) * | 2007-12-19 | 2012-07-25 | 株式会社デンソー | Single syllable input device |
JPWO2009147745A1 (en) * | 2008-06-06 | 2011-10-20 | 三菱電機株式会社 | Search device |
JP6169864B2 (en) | 2012-03-21 | 2017-07-26 | 株式会社デンソーアイティーラボラトリ | Speech recognition apparatus, speech recognition program, and speech recognition method |
-
2003
- 2003-02-27 JP JP2003050984A patent/JP4042589B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2004258480A (en) | 2004-09-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1307810B1 (en) | User interface for telematics systems | |
US9239829B2 (en) | Speech recognition device | |
US8818816B2 (en) | Voice recognition device | |
US7363224B2 (en) | Method for entering text | |
JP5166255B2 (en) | Data entry system | |
US20100031143A1 (en) | Multimodal interface for input of text | |
WO2004023455A2 (en) | Methods, systems, and programming for performing speech recognition | |
US20070005358A1 (en) | Method for determining a list of hypotheses from a vocabulary of a voice recognition system | |
JP2002116793A (en) | Data input system and method | |
JP2005078211A (en) | Chinese input program | |
JP4042589B2 (en) | Voice input device for vehicles | |
JP7063843B2 (en) | Robot teaching device | |
JPH07319383A (en) | Map display device | |
JP2015158563A (en) | Data input device, data input method, program and on-vehicle apparatus | |
KR100599873B1 (en) | device for input various characters of countrys using hangul letters and method thereof | |
JP3762191B2 (en) | Information input method, information input device, and storage medium | |
JP3718088B2 (en) | Speech recognition correction method | |
US20040015354A1 (en) | Voice recognition system allowing different number-reading manners | |
JP2009250779A (en) | Navigation device, program, and navigation method | |
JP2007212658A (en) | Character input device | |
KR101875440B1 (en) | Vehicle and control method for the same | |
JP2009271835A (en) | Equipment operation controller and program | |
US20190237075A1 (en) | Information processing device and information processing method | |
JP2004333703A (en) | Voice recognition system, and correction and learning method of voice recognition | |
JP4012228B2 (en) | Information input method, information input device, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050316 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070517 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070522 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070706 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20071023 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20071105 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101122 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |