JP5762660B2 - 音声認識装置、認識結果表示装置および表示方法 - Google Patents

音声認識装置、認識結果表示装置および表示方法 Download PDF

Info

Publication number
JP5762660B2
JP5762660B2 JP2015515343A JP2015515343A JP5762660B2 JP 5762660 B2 JP5762660 B2 JP 5762660B2 JP 2015515343 A JP2015515343 A JP 2015515343A JP 2015515343 A JP2015515343 A JP 2015515343A JP 5762660 B2 JP5762660 B2 JP 5762660B2
Authority
JP
Japan
Prior art keywords
operation button
display
unit
stop
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015515343A
Other languages
English (en)
Other versions
JPWO2014188512A1 (ja
Inventor
友紀 古本
友紀 古本
裕生 山下
裕生 山下
井上 譲
譲 井上
政信 大沢
政信 大沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP5762660B2 publication Critical patent/JP5762660B2/ja
Publication of JPWO2014188512A1 publication Critical patent/JPWO2014188512A1/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3608Destination input or retrieval using speech input, e.g. using speech recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/221Announcement of recognition results
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Automation & Control Theory (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Navigation (AREA)

Description

この発明は、ユーザにより発話された音声を認識して認識結果を表示する音声認識装置、音声認識された認識結果を表示する認識結果表示装置およびその認識結果を表示装置に表示させる表示方法に関するものである。
音声認識の方法として、ユーザにより発話された音声を認識してその認識結果を表示する方法が知られている。
例えば特許文献1には、ユーザが発話した音声を認識し、その認識結果を表示する音声認識装置であって、ユーザが発話するとその音声の認識結果であるショートカットボタンが表示画面の左下付近に表示され、当該ショートカットボタンをユーザが押下することで、ショートカット機能が実行されることが記載されている。
特開2008−14818号公報
しかしながら、例えば特許文献1のような従来の音声認識装置では、ショートカットボタンが表示されている際に、ユーザにより新たな発話があると、その新たな認識結果を表示する場合に、先に表示されていたショートカットボタンを消去してから新しいボタンを表示するため、ユーザが所望の認識結果を選択しようとした瞬間にそのボタンが移動したり、消えて別の認識結果のボタンに変わってしまい、ユーザが所望しない動作を招いてしまう、という課題があった。
この発明は、上記のような課題を解決するためになされたものであり、ユーザが画面に表示された認識結果を選択しようとしている場合には、認識結果が更新されてしまうことなく、所望の認識結果を選択できる音声認識装置、認識結果表示装置およびその認識結果を表示装置に表示させる表示方法を提供することを目的とする。
上記目的を達成するため、この発明は、ユーザにより発話された音声を認識して認識結果を表示する音声認識装置において、前記ユーザにより発話された音声を検知して取得する音声取得部と、前記音声認識装置が起動している間は常時、音声認識辞書を参照して、前記音声取得部により取得された音声データを認識し、認識結果を出力する音声認識部と、前記音声認識部により出力された認識結果に対応する機能を有する操作ボタンを生成する操作ボタン生成部と、前記操作ボタン生成部により生成された操作ボタンを表示する表示部と、前記表示部における前記操作ボタンの表示内容を制御する表示制御部と、前記表示部に表示されている操作ボタンを前記ユーザが操作しようとしているか否かに基づいて、前記表示制御部に対して前記操作ボタンの表示内容の更新停止および再開を指示する指示信号を出力する操作ボタン表示更新停止/再開部とを備え、前記操作ボタン表示更新停止/再開部は、前記表示部に表示されている操作ボタンを前記ユーザが操作しようとしていると判断した場合に、前記操作ボタンの表示内容の更新停止を指示する指示信号を出力し、前記表示制御部は、前記操作ボタン表示更新停止/再開部から前記操作ボタンの表示内容の更新停止の指示信号を受けた場合に、前記表示部に表示されている操作ボタンの表示更新を停止するよう前記表示部に対して指示を行うことを特徴とする。
この発明によれば、ユーザが画面に表示された認識結果を選択しようとしていると判断される場合には、表示部における認識結果の表示更新が行われないようにしたことにより、ユーザが認識結果を選択しようとした瞬間に当該認識結果が消えたり、他の認識結果に変わってしまったりすることがないので、ユーザが所望しない動作を招くことを防ぐことができ、ユーザの利便性が向上する。
実施の形態1における音声認識装置の一例を示すブロック図である。 表示部の操作ボタン表示領域に操作ボタンが表示された画面例を示す図である。 操作ボタン表示領域の中に操作ボタンが1つしか表示できない場合の操作ボタンの表示更新方法を示す図である。 操作ボタン表示領域に2個の操作ボタンが表示できる場合の操作ボタンの表示更新方法を示す図である。 操作ボタン表示領域の中に操作ボタンが1つしか表示できない場合の操作ボタンの生成および表示の処理を示すフローチャートである。 操作ボタン表示領域に操作ボタンが複数表示できる場合の操作ボタンの生成および表示の処理を示すフローチャートである。 操作ボタンが生成されない場合であっても、既に表示されている操作ボタンを消去する処理を示すフローチャートである。 操作ボタン表示更新停止/再開部が操作ボタンの表示更新停止/再開の指示出力を行う処理を示すフローチャートである。 実施の形態2における音声認識装置の一例を示すブロック図である。 操作ボタン表示更新停止/再開部が音声認識により操作ボタンの表示更新停止/再開の指示出力を行う処理を示すフローチャートである。 操作ボタン表示領域から消去された操作ボタンをスクロールにより表示させた場合の画面例を示す図である。 表示履歴として記憶されている操作ボタンを表示更新停止中に一覧表示させた画面例を示す図である。 実施の形態3におけるナビゲーションシステムの概要を示す図である。
以下、この発明の実施の形態について、図面を参照しながら詳細に説明する。
この発明は、ユーザにより発話された音声を認識する音声認識装置であり、当該音声認識装置が起動されている場合は常時、音声を認識するものである。なお、以下の実施の形態では、この発明の音声認識装置を車両等の移動体に搭載されるナビゲーション装置に適用した場合を例に挙げて説明するが、車両以外の他の移動体用のナビゲーション装置であってもよいし、ナビゲーションシステムのサーバに適用してもよい。また、スマートフォン、タブレットPC、携帯電話等の携帯情報端末等にインストールされるナビゲーションシステムのアプリケーション等に適用してもよい。
実施の形態1.
図1は、この発明の実施の形態1における音声認識装置の一例を示すブロック図である。この音声認識装置は、制御部1、マイク2、音声取得部3、音声認識辞書4、音声認識部5、操作ボタン生成部6、表示制御部7、表示部8、操作ボタン表示更新停止/再開部9、指示入力部10、カメラ11、視線検出部12、姿勢検出部13を備えている。
マイク2は、ユーザが発話した音声を取得(集音)する。マイク2には、例えば、全指向性(または無指向性)のマイクや、複数の全指向性(または無指向性)のマイクをアレイ状に配列して指向特性を調整可能としたアレイマイクや、一方向のみに指向性を有しており、指向特性を調整できない単一指向性マイクなどがある。
音声取得部3は、マイク2により取得されたユーザ発話、すなわち、入力された音声を取り込み、例えば例えばPCM(Pulse Code Modulation)によりA/D(Analog/Digital)変換する。
音声認識部5は、音声取得部3によりデジタル化された音声信号から、ユーザが発話した内容に該当する音声区間を検出し、該音声区間の音声データの特徴量を抽出し、その特徴量に基づいて音声認識辞書4を用いて認識処理を行い、認識結果を出力する。なお、認識処理としては、例えばHMM(Hidden Markov Model)法のような一般的な方法を用いて行えばよい。
ところで、カーナビゲーションシステム等に搭載されている音声認識機能においては、ユーザが発話の開始をシステムに対して明示(指示)するのが一般的である。そのために、音声認識開始を指示するボタン(以下、「音声認識開始指示部」と呼ぶ)が、タッチパネルに表示されたりハンドルに設置されたりしている。そして、ユーザにより音声認識開始指示部が押下された後に発話された音声を認識する。すなわち、音声認識開始指示部は音声認識開始信号を出力し、音声認識部は当該信号を受けると、当該信号を受けた後に音声取得部により取得された音声データから、ユーザが発話した内容に該当する音声区間を検出し、上述した認識処理を行う。
しかし、この実施の形態1における音声認識部5は、上述したようなユーザによる音声認識開始指示がなくても、常に、ユーザが発話した内容を認識する。すなわち、音声認識部5は、音声認識開始信号を受けなくても、この音声認識装置が組み込まれたナビゲーション装置が起動されている場合は常時、音声取得部3により取得された音声データから、ユーザが発話した内容に該当する音声区間を検出し、該音声区間の音声データの特徴量を抽出し、その特徴量に基づいて音声認識辞書4を用いて認識処理を行い、音声認識結果を出力する処理を繰り返し行う。以下の実施の形態においても同様である。
指示入力部10は、ユーザの手動による指示を入力するもの、すなわち、ユーザによる各種操作の指示を受け付けるものである。当該指示は、ナビゲーション装置に設けられたハードウエアのスイッチ、表示部8に設定され表示されるタッチスイッチ(後述する操作ボタンを含む)、あるいはハンドル等に設置されたリモコンもしくは別体のリモコンによる指示を認識する認識装置によるものが挙げられる。
操作ボタン生成部6は、音声認識部5により出力された認識結果に対応する機能を有する操作ボタンを生成する。
表示制御部7は、操作ボタン生成部6により生成された操作ボタンの表示部8への表示、操作ボタンの表示位置変更、所定時間表示された操作ボタンの削除等の指示出力を行うことで、操作ボタンの表示更新を制御するとともに、表示部8における操作ボタンの表示更新が停止中であるか否かを判定する。また、表示部8に表示されている操作ボタンに関する情報、例えば操作ボタン名称や操作ボタンの表示部8における表示位置などを管理する。
表示部8は、表示一体型のタッチパネルであり、例えばLCD(Liquid Crystal Display)とタッチセンサから構成されており、表示制御部7の指示に基づき画面上に描画を行う。なお、タッチパネルには、感圧方式、電磁誘導方式、静電容量方式、あるいはこれらを組み合わせた方式などのうち、何れを用いてもよい。また、LCDの代わりに有機ELディスプレイを用いてもよい。
制御部1は、音声認識装置全体の動作を制御する。また、指示入力部10から入力されたユーザからの指示や、音声認識部5により出力された認識結果に基づいて、様々な機能を実行する。例えば、表示部8に表示された操作ボタン(認識結果)がユーザにより手動または音声で選択されると、当該選択された操作ボタンに割り当てられている機能を実行する。
以下の説明においては、音声認識部5は、常時、ユーザ発話から例えば「ガソリンスタンド」「コンビニ」のような、施設が属するジャンル名(以下、施設ジャンル名)を認識して認識結果を出力し、操作ボタン生成部6は、当該認識結果のジャンルに属する施設を検索する機能(以下、「ジャンル検索機能」と呼ぶ)を有する操作ボタンを生成する。
当該操作ボタンは表示制御部7によって表示部8の所定の領域(以下、「操作ボタン表示領域」と呼ぶ)に、例えば図2の操作ボタン61,62のように表示される。
図2は、地図等が表示された表示画面(表示部8)の操作ボタン表示領域60に、操作ボタン61,62が表示された画面例を示す図である。そして、ユーザによって当該操作ボタン61または62が選択されると、制御部1は当該選択された操作ボタンに対応するジャンル検索を実行する。なお、音声認識部5では、周知技術であるキーワードスポッティングによって施設ジャンル名の認識が行われるものとする。
なお、キーワードスポッティングによる施設ジャンル名の認識ではなく、認識すべてを大語彙連続音声認識により認識し、認識結果を形態素解析して施設ジャンル名を抽出する方法を用いてもよい。
また、音声認識部5は、例えば、アーティスト名、アルバム名、曲タイトル名、カーナビゲーションシステムを操作するためのコマンドなどを認識するようにしてもよい。この場合、操作ボタンに割り当てられる機能は、例えば、アーティスト名、アルバム名、曲タイトル名で曲を検索する機能であってもよいし、コマンドに対応する機能であってもよい。
ここで、表示制御部7による表示部8への操作ボタンの表示更新方法の一例について、具体例を挙げて説明する。
図3は操作ボタン表示領域60が小さく、その中に操作ボタンは1つしか表示できない場合の操作ボタンの表示更新方法を示す図である。
図3(a)は、操作ボタン表示領域60に操作ボタンが表示されていない状態を示しており、この状態で例えば「コンビニ行きたいね」という発話が認識され、「コンビニ」に対応する操作ボタンが生成されると、表示制御部7は、操作ボタン61を表示するよう表示部8に対して指示出力する(図3(b))。
その後、「銀行にもよらないと」という発話が認識され、「銀行」に対応する操作ボタンが生成されると、表示制御部7は、先に表示されていた「コンビニ」操作ボタン61を消去した後、「銀行」操作ボタン62を表示するよう表示部8に対して指示出力する(図3(c))。また、新たな操作ボタンが生成されていなくても、表示されている操作ボタンに対する操作がないまま、表示開始から所定時間が経過した操作ボタンを消去するよう指示出力する。
また、別の表示更新方法として、操作ボタン表示領域60に複数の操作ボタン(図4を用いた以下の説明では、2個の操作ボタンとする)を表示できる場合について説明する。
図4は、操作ボタン表示領域60に、2個の操作ボタンが表示できる場合の操作ボタンの表示更新方法を示す図である。
操作ボタンが表示されていない状態(図4(a))で、先ほどの例と同様に「コンビニ行きたいね」という発話が認識され、「コンビニ」に対応する操作ボタンが生成されると、表示制御部7は、操作ボタン61を表示するよう表示部8に対して指示出力する(図4(b))。
その後、「銀行にもよらないと」という発話が認識され、「銀行」に対応する操作ボタンが生成されると、操作ボタン62を追加表示するよう表示部8に対して指示出力する(図4(c))。ここでさらに、「近くに駐車場ないかな」という発話が認識され、「駐車場」に対応する操作ボタンが生成されると、最も表示されている時間が長い操作ボタン、ここでは、「コンビニ」操作ボタン61を削除し、「銀行」操作ボタン62を「コンビニ」操作ボタン61が表示されていた場所に移動させ、「駐車場」操作ボタン63を追加表示するよう表示部8に対して指示出力する(図4(d))。
また、新たな操作ボタンが生成されていなくても、表示されている操作ボタンに対する操作がないまま、表示開始から所定時間が経過した操作ボタンを消去するよう指示出力する。図4(e)は、「銀行」操作ボタン62が表示されてから当該「銀行」操作ボタン62に対する操作がないまま所定時間が経過した場合に、「銀行」操作ボタン62が削除され、「駐車場」操作ボタン63が「銀行」操作ボタン62が表示されていた場所に移動した状態を示している。
なお、上記の表示更新方法は一例であってその他の表示更新方法であってもよいことは言うまでもない。
例えば、図4では、操作ボタン表示領域60に操作ボタンが表示される際に、1つ目の操作ボタンが操作ボタン表示領域60の中の下の位置に表示されるようにしているが、上から表示されるようにしてもよい。
また、図4では、表示できる操作ボタンの数を超えるまでは、すなわち、1つ目の操作ボタンが表示された後に2つ目の操作ボタンが表示される際には、図4(c)に示すように、1つ目の操作ボタン61の位置は変わらず下のまま、2つ目の操作ボタン62が上に追加表示されているが、新たに表示される操作ボタンが必ず下に表示されるようにしてもよい。この場合には、図4(b)から図4(c)に移行する際に、1つ目の「コンビニ」操作ボタン61が上に移動され、2つ目の「銀行」操作ボタン62が新たに下に表示される。
ここで、表示されている操作ボタンに対する操作がないままかどうか、すなわち、ユーザが操作ボタンを押下しようとしているか否かを判断する手法について説明する。この判断は、操作ボタン表示更新停止/再開部9により行われる。
ユーザが操作ボタンを押下しようとしているか否かを判断する手法としては、様々なものが考えられるが、ここでは、視線検出部12を用いてユーザの視線を検出して判断するもの、姿勢検出部13を用いてユーザの所定の姿勢を検出して判断するもの、および、指示入力部10を用いてユーザにより所定の操作が行われたことにより判断するもののいずれかを用いることとする。
視線検出部12は、カメラ11により取得された画像を解析して表示部8に向けられるユーザの視線を検出する。ここで、視線検出部12は表示部8の特定の領域、例えば、図2〜図4に示した画面例の操作ボタン表示領域60に向けられている視線を検出するとしてもよい。なお、視線を検出する方法については、公知の技術を用いればよいためここでは説明を省略する。
姿勢検出部13は、カメラ11により取得された画像を解析して、表示部8に表示された操作ボタンを押下しようとしているユーザの所定の姿勢を検出する。ここで、操作ボタンを押下しようとしている所定の姿勢には、例えば、ユーザの腕が表示部8の方向を向いている、ユーザの上半身が表示部8の方向を向いている、ユーザの体が前かがみになっているなどの姿勢が含まれる。なお、姿勢を検出する方法についても、公知の技術を用いればよいためここでは説明を省略する。
そして、操作ボタン表示更新停止/再開部9は、所定の条件を満たす場合、すなわち、上記の視線検出部12、姿勢検出部13、指示入力部10による検出結果に基づいてユーザが操作ボタンを押下しようとしているか否かを判断し、ユーザが操作ボタンを押下しようとしていると判断した場合に、表示制御部7に対して、操作ボタンの表示更新を停止する指示出力を行う。
ここで、所定の条件を満たす場合、すなわち、ユーザが操作ボタンを押下しようとしていると判断した場合とは、具体的には、視線検出部12により表示部8に対するユーザの視線が検出された場合、姿勢検出部13により操作ボタンを押下しようとしているユーザの所定の姿勢が検出された場合、指示入力部10によりユーザが操作ボタンを押下しようとしている所定の操作が受け付けられた場合、のいずれかである場合のことであり、この場合に、操作ボタン表示更新停止/再開部9は、表示制御部7に対して、操作ボタンの表示内容の更新停止を指示する指示信号を出力する。
指示入力部10により所定の操作がなされた場合とは、例えば、リモコンの所定のボタンやステアリングスイッチ等(表示停止のボタンやスイッチ等)が押下された場合、また、タッチセンサが、ユーザの指やその他の物体の接近を検出できる方式、例えば、静電容量方式等のような近接センサである場合は、ユーザの指等の物体がタッチセンサに所定値以下の距離まで近づいた場合のことである。
また、タッチセンサによる場合(近接センサを備える場合)には、操作ボタン表示更新停止/再開部9は、タッチセンサから物体の接近情報を取得し、ユーザの指等の物体とタッチセンサ(近接センサ)との距離を算出し、当該算出された距離が所定値以下の場合(または所定値より小さい場合)に表示更新を停止する指示出力を行うようにすればよい。
ここで、接近する物体のタッチパネル上の位置情報をタッチセンサから取得し、当該位置が、例えば図2の操作ボタン表示領域60内であり、かつ、物体とタッチパネルの距離が所定値以下の場合(または所定値より小さい場合)に、表示更新を停止する指示出力を行うとしてもよい。
なお、ここでは物体の接近を検出するためにタッチセンサからの情報を用いたが、例えば、赤外線センサを備える構成とし、当該センサを用いて表示部8から物体までの距離を算出してもよい。
さらに、操作ボタン表示更新停止/再開部9は、所定の条件を満たさない場合(すなわち、ユーザが操作ボタンを押下しようとしていないと判断された場合)に、表示制御部7に対して、操作ボタンの表示更新を再開する指示出力を行う。
この場合の所定の条件を満たさない場合とは、具体的には、視線検出部12により表示部8に向けられるユーザの視線が検出されなくなった場合、姿勢検出部13により操作ボタンを押下しようとしているユーザの所定の姿勢が検出されなくなった場合、指示入力部10により所定の操作、例えば、リモコンの所定のボタンやステアリングスイッチ等(表示再開のボタンやスイッチ等)の押下がなされた場合、ユーザの指等の物体とタッチパネルとの距離が所定値より大きくなった場合(または所定値以上に場合)のいずれかの場合のことである。
すなわち、操作ボタン表示更新停止/再開部9は、上記の所定の条件を満たさない場合(ユーザが操作ボタンを押下していないと判断された場合)には、表示制御部7に対して操作ボタンの表示更新を再開する指示出力を行う。
また、表示制御部7に対して操作ボタンの表示更新を停止する指示出力を行ってから、表示されている操作ボタンに対する操作がないまま(操作が検出されないまま)所定時間経過した場合に、表示更新を再開する指示出力を行うとしてもよい。
さらに、当該所定時間は、この音声認識装置が搭載されている移動体の走行状態、例えば、走行速度や走行している道路等に応じて変化させてもよい。
例えば、移動体の走行速度が速い場合や走行している道路状況が悪い場合には、ユーザが運転に集中する必要があるため、操作ボタンに対する操作ができないこともあると考え、所定時間を長く設定し、逆に、移動体の走行速度が遅い場合や走行している道路状況が良好である場合には、ユーザは比較的操作ボタンに対する操作がしやすい状況にあると考え、所定時間を短く設定する。
次に図5〜図8に示すフローチャートを用いて、実施の形態1における音声認識装置の処理を説明する。
図5は、例えば図3に示すように、操作ボタン表示領域の中に操作ボタンが1つしか表示できない場合の操作ボタンの生成および表示の処理を示したフローチャートである。
まず初めに、音声取得部3は、マイク2により集音されたユーザ発話、すなわち、入力された音声を取込み、例えばPCMによりA/D変換する(ステップST01)。
次に、音声認識部5は、音声取得部3によりデジタル化された音声信号から、ユーザが発話した内容に該当する音声区間を検出し、該音声区間の音声データの特徴量を抽出し、その特徴量に基づいて音声認識辞書4を参照して認識処理を行い、認識結果を出力する(ステップST02)。
そして、操作ボタン生成部6は、音声認識部5により出力された認識結果に対応する機能を有する操作ボタンを生成する(ステップST03)。
その後、表示制御部7は、表示部8に既に表示されている操作ボタンがあるか否かを判定する(ステップST04)。
既に表示されている操作ボタンがある場合(ステップST04のYESの場合)は、操作ボタンの表示更新が停止中か否かの判定を行う(ステップST05)。そして、表示更新停止中でない場合(ステップST05のNOの場合)、既に表示されている操作ボタンを消去し、ステップST03において操作ボタン生成部6により生成された操作ボタンを表示する指示出力を表示部8に対して行う(ステップST06)。
一方、表示更新停止中の場合(ステップST05のYESの場合)は、生成された操作ボタンを表示することなく、ステップST01の処理へ戻る。
また、ステップST04において、表示されている操作ボタンがない場合(ステップST04のNOの場合)は、ステップST03において操作ボタン生成部6により生成された操作ボタンを表示する指示出力を表示部8に対して行う(ステップST07)。
次に、表示部8の操作ボタン表示領域60に複数の操作ボタンが表示可能な場合について、図6のフローチャートに沿って説明する。
図6は、例えば図4に示すように、操作ボタン表示領域60に操作ボタンが複数(図4の場合には2個)表示できる場合の操作ボタンの生成および表示の処理を示したフローチャートである。
ステップST11〜ST13の処理については、図5に示すフローチャートのステップST01〜ST03と同じであるので、説明を省略する。
ステップST13において操作ボタンを生成した後、表示制御部7は、表示部8の操作ボタン表示領域60に既に表示されている操作ボタンの個数を判定する(ステップST14)。
そして、既に所定個数(操作ボタン表示領域60に表示できる最大個数)の操作ボタンが表示されている場合(ステップST15のYESの場合、例えば図4(c)の場合)、操作ボタンの表示更新が停止中か否かの判定を行う(ステップST16)。
表示更新停止中でない場合(ステップST16のNOの場合)、操作ボタン表示領域60に表示中の操作ボタンのうち、最初に表示された1つ目の操作ボタン(図4(c)の場合の操作ボタン61)を消去し、残りの操作ボタン(図4(c)の場合の操作ボタン62)の場所を1つずつ移動させ(図4(d))、ステップST13において操作ボタン生成部6により生成された操作ボタン(図4(d)の場合の操作ボタン63)を表示する指示出力を表示部8に対して行う(ステップST17)。
一方、表示更新停止中の場合(ステップST16のYESの場合)は、生成された操作ボタンを表示することなく、ステップST11の処理へ戻る。
また、ステップST15において、表示されている操作ボタンが所定個数(操作ボタン表示領域60に表示できる最大個数)より少ない場合(ステップST15のNOの場合、例えば図4(b)の場合)には、操作ボタン表示更新停止/再開部9による操作ボタンの表示内容の更新を停止する指示信号にかかわらず、操作ボタン生成部6により生成された操作ボタン(図4(c)の操作ボタン62)を表示する指示出力を表示部8に対して行う(ステップST18)。
なお、図5,図6のフローチャートにおいて、ステップST04、ステップST14〜ST15の判断を行わないようにしてもよい。すなわち、表示制御部7は、表示されている操作ボタンの有無や個数にかかわらず、表示更新停止中である場合は、ステップST01、ステップST11の処理へ戻るようにしてもよい。
図7は、操作ボタンが生成されない場合であっても、既に表示されている操作ボタンを消去する処理を示したフローチャートである。
まず、表示制御部7は、表示部8の操作ボタン表示領域60に表示されている操作ボタンについて、表示開始から所定時間が経過した操作ボタンがあるか否かを判定する(ステップST21)。表示後、所定時間が経過している操作ボタンがない場合(ステップST21のNOの場合)は、ステップST21の処理へ戻る。
一方、所定時間が経過している操作ボタンがある場合(ステップST21のYESの場合)は、操作ボタンの表示更新が停止中か否かの判定を行う(ステップST22)。表示更新停止中の場合(ステップST22のYESの場合)は、ステップST21の処理へ戻る。表示更新停止中でない場合(ステップST22のNOの場合)は、表示開始から所定時間が経過した操作ボタンを表示部8から消去する指示出力を行い(ステップST23)、ステップST21の処理へ戻る。
また、図8は、操作ボタン表示更新停止/再開部9が操作ボタンの表示更新停止/再開の指示出力を行う処理を示すフローチャートである。
まず、操作ボタン表示更新停止/再開部9は、視線検出部12、姿勢検出部13、指示入力部10から、各種情報を取得する(ステップST31)。各種情報とは、具体的には、視線検出部12からの視線情報、姿勢検出部13からの姿勢情報、指示入力部10からの操作情報、タッチパネルへの物体の接近/接触情報、表示更新が停止されている時間の少なくとも1つ以上のことである。
そして、取得した情報が、前述の所定の条件(表示更新停止の条件)を満たした場合(ステップST32のYESの場合)は、表示制御部7に対して表示更新停止の指示出力を行う(ステップST33)。
一方、所定の条件(表示更新停止の条件)を満たさなくなった場合(ステップST32のNOの場合)は、表示更新再開の指示出力を行う(ステップST34)。
次に動作の一例を、具体例を挙げて説明する。
例えば、図3に示すように、操作ボタン表示領域60の中に操作ボタンが1つしか表示できない場合に、操作ボタンが表示されていない状態(図3(a)の状態)において、ユーザAが「コンビニ行きたいね」と発話すると、音声認識部5によって認識処理が行われ認識結果として「コンビニ」を出力する(図5のステップST01〜ST02)。
そして、操作ボタン生成部6は、認識結果「コンビニ」に対応する機能、すなわち施設ジャンル「コンビニ」に属する施設を検索する機能を有する「コンビニ」という操作ボタン61を生成する(ステップST03)。
ここで、表示部8の操作ボタン表示領域60には操作ボタンが表示されていないので(ステップST04のNOの場合)、表示制御部7は、操作ボタン61を表示するよう表示部8に対して指示出力する(ステップST07)。その結果、図3(b)に示すように操作ボタン61が表示される。
続いて、ユーザBが「銀行にもよらないと」と発話すると、操作ボタン生成部6は、認識結果「銀行」に対応する機能、すなわち施設ジャンル「銀行」に属する施設を検索する機能を有する「銀行」という操作ボタン62を生成する(ステップST01〜ST03)。
このとき、表示部8の操作ボタン表示領域60には、既に「コンビニ」という操作ボタン61が表示されているため(ステップST04のYESの場合)、例えばユーザAが、その「コンビニ」という操作ボタン61を押下しようとしており、指が表示部8に接近しているとすると、操作ボタン表示更新停止/再開部9は、表示制御部7に対して表示更新停止の指示出力を行い、表示更新が停止される。
この結果、操作ボタンの表示更新が停止中であると判定されるので(ステップST05のYESの場合)、「銀行」という操作ボタン62は表示部8に表示されない。
一方、ユーザAが「コンビニ」という操作ボタン61を押そうとしていない場合、例えば、ユーザAの指が表示部8に接近していないときは、操作ボタン表示更新停止/再開部9は、表示制御部7に対して、表示更新停止の指示出力を行わない。
この結果、操作ボタンの表示更新が停止中ではないと判断されるので(ステップST05のNOの場合)、表示制御部7は、「コンビニ」という操作ボタン61を消去して「銀行」という操作ボタン62を表示するよう表示部8に指示出力する(ステップST06、図3(c))。
次に、操作ボタン表示領域60に複数、例えば図4に示すように、2つの操作ボタンを表示可能な場合の動作について説明する。すなわち、この場合の操作ボタン表示領域60に表示可能な操作ボタンの最大個数(所定個数)は2個である。
そして、図4(b)に示すように、既に「コンビニ」という操作ボタン61が1つだけ表示されている場合を例に説明する。この状態で、ユーザBが「銀行にもよらないと」と発話すると、「銀行」という操作ボタン62が生成される(図6のステップST11〜ST13)。
このとき、例えばユーザAが「コンビニ」という操作ボタン61を押下しようとしており、指が表示部8に接近していると、操作ボタン表示更新停止/再開部9は、表示制御部7に対して表示更新停止の指示出力を行う。
しかし、表示部8に表示されている操作ボタンの個数が1つであるため(ステップST14、ステップST15のNOの場合)、表示更新停止中であるか否かにかかわらず、「銀行」という操作ボタン62を表示する指示信号を出力する(ステップST18)。
その結果、図4(c)のように、「銀行」という操作ボタン62が表示される。
次に、この状態において、例えばユーザBが「銀行」という操作ボタン62を押下しようとしており、指が表示部8に接近していると、操作ボタン表示更新停止/再開部9は、表示制御部7に対して表示更新停止の指示出力を行う。
このとき、例えばユーザAが「近くに駐車場ないかな」と発話すると、「駐車場」という操作ボタン63が生成される(ステップST11〜ST13)。
しかし、図4(c)に示すように、操作ボタンが2つ(最大個数(所定個数))表示されており、かつ、表示更新停止中であるので(ステップST15のYES、ステップST16のYESの場合)、表示制御部7は、「駐車場」という操作ボタン63を表示する指示信号を出力しない(表示は図4(c)のまま)。
一方、図4(c)に示す状態において、ユーザの指が表示部8に接近していない場合には、操作ボタン表示更新停止/再開部9は、表示制御部7に対して表示更新再開の指示出力を行うので、この場合の表示更新停止中か否かの判定(ステップST16)はNOになる。
このとき、例えばユーザAが「近くに駐車場ないかな」と発話すると、「駐車場」という操作ボタン63が生成されるところまでは、前述の場合と同様である(ステップST11〜ST13)。
しかし、この場合には、操作ボタンが2つ(最大個数(所定個数))表示されており、かつ、表示更新停止中ではないので(ステップST15のYES、ステップST16のNOの場合)、表示制御部7は、表示中の操作ボタン61,62のうち、1つ目の操作ボタン61を消去して残りの操作ボタン62を移動させ、ステップST13において生成した操作ボタン63を表示する指示出力を行う(ステップST17)。
その結果、図4(d)のように、「駐車場」という操作ボタン63が表示される。
これにより、従来では、例えば図4(c)において、ユーザがコンビニを検索したいため、「コンビニ」という操作ボタン61を押下しようとした瞬間に、他のユーザの発話により当該「コンビニ」という操作ボタン61が「銀行」操作ボタン62に変わってしまい、意図しない操作ボタン62を押下してしまう、すなわち、所望しない「銀行」を検索する機能を実行してしまう、ということを防ぐことができる。
以上のように、この実施の形態1によれば、ユーザの視線や姿勢や所定の操作により、ユーザが操作ボタンを選択(押下)しようとしていると判断される場合は、操作ボタンの表示更新を停止するようにし、表示更新停止中には、新たに認識された音声により生成された操作ボタンを表示しないようにしたので、ユーザが所望の操作ボタンを選択しようとしたタイミングで、当該操作ボタンの位置が変更されたり、他の操作ボタンに変わったり、消滅したりすることがなくなるため、ユーザが所望しない操作ボタンを選択して誤動作を招くことを防ぐことができ、ユーザの利便性が向上する。
実施の形態2.
図9は、この発明の実施の形態2における音声認識装置の一例を示すブロック図である。なお、実施の形態1で説明したものと同様の構成には、同一の符号を付して重複した説明を省略する。以下に示す実施の形態2では、実施の形態1と比べると、表示更新停止表現記憶部14と表示更新再開表現記憶部15を備え、操作ボタン表示更新停止/再開部9が、音声認識部5の音声認識により表示更新の停止/再開を行う点が異なる。
音声認識部5は、実施の形態1に比べ、さらに「ストップ」「停止」「更新停止」「再開」「更新再開」等、操作ボタンの表示更新の停止/再開を意味する単語を認識して認識結果を出力する。
表示更新停止表現記憶部14には、「ストップ」「停止」「更新停止」等、操作ボタンの表示更新停止を意味する単語が記憶されている。
表示更新再開表現記憶部15には、「再開」「更新再開」等、操作ボタンの表示更新再開を意味する単語が記憶されている。
操作ボタン表示更新停止/再開部9は、表示更新停止表現記憶部14および表示更新再開表現記憶部15を参照して、音声認識部5により出力された認識結果が、表示更新停止表現記憶部14に記憶されている表示更新停止を表すものであるか否かを判断する。そして、音声認識部5により出力された認識結果が表示更新停止表現記憶部14に存在すると判断した場合は、表示制御部7に対して操作ボタンの表示更新を停止する指示信号を出力し、表示更新再開表現記憶部15に記憶されている表示更新再開を表すものであると判断した場合は、表示制御部7に対して操作ボタンの表示更新を再開する指示信号を出力する。
次に、図10に示すフローチャートを用いて、実施の形態2における音声認識装置の処理を説明する。
図10は、操作ボタン表示更新停止/再開部9が音声認識により操作ボタンの表示更新停止/再開の指示出力を行う処理を示すフローチャートである。
まず、操作ボタン表示更新停止/再開部9は、音声認識部5により出力された認識結果を取得する(ステップST41)。
次に、操作ボタン表示更新停止/再開判定部9は、当該認識結果が表示更新停止表現記憶部14に存在するか否かを判定する(ステップST42)。存在する場合(ステップST42のYESの場合)には、表示制御部7に対して表示更新停止の指示出力を行う(ステップST43)。
一方、ステップST41で取得した認識結果が表示更新停止表現記憶部14に存在しない場合(ステップST42のNOの場合)は、当該認識結果が表示更新再開表現記憶部15に存在するか否かを判定する(ステップST44)。存在する場合(ステップST44のYESの場合)は、表示制御部7に対して表示更新再開の指示出力を行う(ステップST46)。
また、ステップST41で取得した認識結果が表示更新再開表現記憶部15にも存在しない場合(ステップST44のNOの場合)は、処理を終了する。
このように、この実施の形態2では、操作ボタン表示更新停止/再開部9が、操作ボタンの表示更新停止/再開の指示を行うための条件が、ユーザの視線、姿勢、操作入力によるものではなく、ユーザの発話によるものとした点が実施の形態1とは異なるが、その他の動作処理および画面遷移例については、実施の形態1と同様であるので、図示および説明を省略する。
以上のように、この実施の形態2によれば、ユーザが操作ボタンの表示更新を停止する発話をした場合、操作ボタンの表示更新を停止するようにし、表示更新停止中には、新たに認識された音声により生成されたボタンを表示しないので、ユーザが所望の操作ボタンを選択しようとしたタイミングで、当該操作ボタンの位置が変更されたり、他の操作ボタンに変わったり、消滅したりすることがなくなるため、ユーザが所望しない操作ボタンを選択して誤動作を招くことを防ぐことができ、ユーザの利便性が向上する。
なお、上述した実施の形態1,2において、表示制御部7が、操作ボタン表示更新停止/再開部9から表示更新停止の指示信号を受けた場合は、表示部8に対して、既に表示されている操作ボタンの表示態様を変更するよう指示出力し、操作ボタン表示更新停止/再開部9から表示更新再開の指示信号を受けた場合は、変更された操作ボタンを元に戻す指示出力をするとしてもよい。ここで、表示態様とは、例えば操作ボタンの大きさ、色、文字のフォント等のことである。
すなわち、表示制御部7が、操作ボタン表示更新停止/再開部9から表示更新停止の指示信号を受けた場合は、表示部8に対して、既に表示されている操作ボタンの大きさ、色、文字のフォントの少なくとも1つ以上を変更するよう指示出力し、操作ボタン表示更新停止/再開部9から表示更新再開の指示信号を受けた場合は、変更された操作ボタンを元に戻す指示出力をするとしてもよい。
これにより、ユーザは操作ボタンの表示更新が停止中か否かを視覚的に判断することができる。また、操作ボタンを目立たせることで選択し易くなる。
また、上述した実施の形態1,2において、さらに、表示部8に表示された操作ボタンの表示履歴を記憶する操作ボタン表示履歴記憶部(図示せず)を備えるようにしてもよい。この場合、表示制御部7は、表示更新により操作ボタンが表示部8から消去される度に、操作ボタン表示履歴記憶部に当該操作ボタンに関する情報を記憶する。
そして、表示更新停止中に、ユーザにより操作ボタン表示領域に対してスクロール操作がなされると、操作ボタン表示履歴記憶部に記憶された情報に基づいて、過去に表示された操作ボタンを消去された順に表示するような制御を行う。
具体的には、例えば図4(a)の状態から、ユーザが「コンビニ行きたいね」「銀行によらないと」と発話した場合、図4(c)のように、「コンビニ」「銀行」の操作ボタン61,62が表示される。ここで、操作ボタンの最大表示個数が「2」であるとすると、次にユーザが「近くに駐車場ないかな」と発話した場合、表示されたのが最も古い1つ目の操作ボタンである「コンビニ」の操作ボタン61が消去され、「駐車場」の操作ボタン63が表示される(図4(d))。
このとき、表示制御部7は、消去された「コンビニ」の操作ボタン61に関する情報を操作ボタン表示履歴記憶部に記憶する。そして、表示更新停止中にユーザによる操作ボタン表示領域に対するスクロール操作が行われると、表示制御部7は例えばタッチセンサからの信号に基づいて、表示中の操作ボタンを移動させるとともに、操作ボタン表示履歴記憶部に記憶された情報に基づいて、過去に表示された「コンビニ」の操作ボタン61を表示するよう表示部8に対して指示出力する。
図11は、操作ボタン表示領域60から消去された操作ボタンをスクロールにより表示させた場合の画面例を示す図である。
ここでは、操作ボタン表示領域60に表示可能な操作ボタンの最大個数は「3」とする。図11(a)は、「コンビニ」の操作ボタン61、「銀行」の操作ボタン62、「スーパー」の操作ボタン63が表示された後、さらに「駐車場」の操作ボタン64が表示されたことにより、最初に表示された「コンビニ」の操作ボタン61が消去された状態を示している。
この際、表示制御部7は、消去された「コンビニ」の操作ボタン61に関する情報を、操作ボタン表示履歴記憶部に記憶する。そして、表示更新停止中に、例えば図11(a)の中の上向きの矢印のように、ユーザにより上向きにスクロール操作が行われると、表示制御部7は、表示中の操作ボタン62〜64を上向きに移動させるとともに、操作ボタン表示履歴記憶部に記憶されていた「コンビニ」の操作ボタン61を表示するよう、表示部8に対して指示出力する。その結果、図11(b)に示すように、操作ボタンがスクロールされて表示される。
なお、操作ボタンのスクロールは、例えば、表示一体型のタッチパネル上(表示部8上)をなぞるようなタッチ操作によるものや、ステアリングスイッチ、リモコンの所定のボタン、その他の手動操作用のデバイス等、いずれの操作により行うことができるようにしてもよい。
また、表示制御部7は、表示更新停止の指示信号を受けると、例えば、図12に示すように、その時点で表示している操作ボタンに加えて、表示履歴として記憶されている操作ボタンを一覧表示するよう指示出力するとしてもよい。すなわち、例えば図11(a)に示す状態になった後、表示更新停止中になると、スクロール操作を行うことなく、図12に示すように、操作ボタン表示履歴記憶部に記憶されていた「コンビニ」の操作ボタン61も合わせて表示される。この場合には、操作ボタン表示領域60とは関係なく、表示中だった操作ボタンおよび記憶されていた操作ボタンがすべて表示される。
さらに、表示制御部7は、操作ボタン表示履歴記憶部に操作ボタンに関する情報を記憶する際、既に記憶されているものと同一の情報である場合は、記憶しない(先の情報にマージする)としてもよい。
例えば、操作ボタン表示履歴記憶部に「コンビニ」「銀行」の順で操作ボタンに関する情報が記憶されている場合において、さらに、「コンビニ」の操作ボタンに関する情報が取得されたとしても、これについては既に記憶部に記憶されているので記憶しない。
これにより、同一の操作ボタンが複数表示されることを防止することができる。
また、上述した実施の形態1,2において、さらに、操作ボタン生成部6により生成された操作ボタンに関する情報を記憶する操作ボタン生成履歴記憶部(図示せず)を備えるようにしてもよい。この場合、表示制御部7は、音声認識部5から出力された認識結果に基づいて操作ボタン生成部6により生成された操作ボタンであって、表示更新停止中であるために、表示部8へ表示されなかった操作ボタンに関する情報を、操作ボタン生成履歴記憶部に記憶する。
そして、表示制御部7は、表示更新再開の指示信号を受けると、表示部8に表示中の操作ボタンに代えて、操作ボタン生成履歴記憶部に記憶されている情報に基づく操作ボタンを、表示部8に表示する指示出力を行う。
このとき、操作ボタン表示領域60には関係なく、表示部8に表示可能な最大個数分の操作ボタンを表示するように指示出力してもよいし、最大個数を超えない所定の個数分を表示するように指示出力してもよい。
具体的には、例えば、図4(c)のように操作ボタンが表示されており、表示更新が停止中である場合に、「スーパーにも行かないと」と発話されると、操作ボタン生成部6により、「スーパー」の操作ボタンが生成される。ここで、表示更新が停止中であるため、表示制御部7は、「スーパー」操作ボタンを表示部8に表示する指示出力を行わず、当該操作ボタンに関する情報を操作ボタン生成履歴記憶部に記憶する。
同様に、さらに「近くに駐車場ないかな」と発話されると、表示制御部7は、「駐車場」の操作ボタンに関する情報を操作ボタン生成履歴記憶部に記憶する。その後、表示制御部7は、表示更新再開の指示信号を受けると、操作ボタン生成履歴記憶部に記憶された情報に基づいて、「銀行」の操作ボタンと「コンビニ」の操作ボタンに代えて、表示部8に、「スーパー」の操作ボタンと「駐車場」の操作ボタンを表示するよう指示信号を出力する。
また、上述した実施の形態1,2においては、表示更新停止中に、操作ボタンがユーザにより押下されたら選択されるものとして説明したが、表示更新停止中は、その操作ボタンの名称をユーザが発話することにより、当該操作ボタンを選択できるようにしてもよい。
また、上述した実施の形態1,2において、表示更新停止中に、表示部8に表示されている操作ボタンの名称が読み上げられ、所望の操作ボタンが読み上げられている際に決定することにより、選択できるようにしてもよい。この場合、操作ボタン名称の読み上げ途中または読み上げ後所定時間内に、ユーザによりステアリングスイッチなどの指示入力部によって手動で決定操作が行われたり、「決定」「選択」などの発話音声が認識されたりした場合は、読み上げ対象となっている操作ボタンに対応する機能を実行するとしてもよい。
この場合、文字列から音声を生成する音声合成部(図示せず)と、スピーカなどの音声出力部に対して音声合成部により生成された音声を出力する指示信号を出力する音声制御部(図示せず)を備える。そして、音声制御部は、操作ボタン表示更新停止/再開部9から表示更新停止の信号を受けると、表示制御部7から、表示部8に表示されている操作ボタンの名称を取得し、当該名称に基づいて音声を合成するよう音声合成部に指示出力を行う。音声合成部は、当該指示を受けて音声を合成する。そして、音声制御部は、音声合成部により生成された音声データを出力するよう、音声出力部に指示出力を行う。
なお、読み上げ中または読み上げ後所定時間内に、ユーザによって手動または音声による操作ボタンの決定操作が行われた場合の動作については、公知の技術を利用すればよいため、ここでは説明を省略する。
実施の形態3.
以上の実施の形態1,2では、この発明における音声認識装置を、車両等の移動体に搭載されるナビゲーション装置に適用した場合を例に説明したが、適用するのは車載用のナビゲーション装置に限らず、人、車両、鉄道、船舶または航空機等を含む移動体用のナビゲーション装置であってもよいし、音声認識システムのサーバやナビゲーションシステムのサーバに適用してもよい。また、スマートフォン、タブレットPC、携帯電話等の携帯情報端末等にインストールされる音声認識システムのアプリケーションやナビゲーションシステムのアプリケーション等、どのような形態のものにも適用することができる。
図13は、この発明の実施の形態3におけるナビゲーションシステムの概要を示す図である。このナビゲーションシステムは、車載装置100が、スマートフォンなどの携帯情報端末101およびサーバ102の少なくとも一方と連携して音声認識処理およびナビゲーション処理を行ったり、スマートフォンなどの携帯情報端末101およびサーバ102の少なくとも一方が音声認識処理およびナビゲーション処理を行い、車載装置100に認識結果や地図情報を表示させる等、様々な形態をとることができる。以下、当該ナビゲーションシステムの構成態様について説明する。
実施の形態1,2では、この発明の音声認識装置の機能を、図13に示す車載装置100がすべて備えるものとして説明したが、この実施の形態3におけるナビゲーションシステムでは、サーバ102が音声認識処理を行い、その認識結果を車載装置100に表示させることによりユーザに提供する場合、および、携帯情報端末101がサーバ102と連携して音声認識処理を行い、その認識結果を車載装置100に表示させることによりユーザに提供する場合について説明する。
まず、サーバ102が音声認識処理を行い、その認識結果を車載装置100に表示させる場合、すなわち、音声認識機能を有するサーバ102と連携して、車載装置100が表示装置として機能する場合について説明する。
この構成においては、車載装置100がサーバ102と直接通信するか、または、車載装置100が携帯情報端末101を経由してサーバ102と通信する場合が考えられる。サーバ102は、上記実施の形態1,2で説明した音声認識装置として機能する。また、車載装置100は、サーバ102による認識結果をユーザに提供するための表示部8を少なくとも備える表示装置として機能する。
このとき、(1)サーバ102が音声認識機能のみを有し、その他の構成については車載装置100が備える場合、すなわち、車載装置100が認識結果を取得して表示部に表示させる認識結果表示装置として機能する場合と、(2)車載装置100が音声取得機能、通信機能および表示機能のみを有し、その他の構成についてはサーバ102が備える場合、すなわち、車載装置100は取得した認識結果を表示する表示装置としてのみ機能する場合が考えられる。
まず、(1)サーバ102が音声認識機能のみを有し、その他の構成については車載装置100が備える場合、すなわち、車載装置100が認識結果を取得して表示部に表示させる認識結果表示装置として機能する場合について説明する。
この場合、サーバ102が音声認識辞書4と音声認識部5を備える音声認識サーバであり、認識結果表示装置である車載装置100は、制御部1、音声取得部3、操作ボタン生成部6、表示制御部7、表示部8、操作ボタン表示更新停止/再開部9および通信機能(音声データ送信部、認識結果取得部)を備えている。
そして、通信機能のうちの音声データ送信部(図示せず)が音声取得部3により取得された音声データをサーバ102へ送信し、当該サーバ102において音声認識された認識結果を認識結果取得部(図示せず)がサーバ102から取得する。また、操作ボタン生成部6は、認識結果取得部がサーバ102から取得した認識結果に対応する機能を有する操作ボタンを生成する。その他の機能については、実施の形態1,2における音声認識装置と同様のため、説明を省略する。
次に、(2)車載装置100が音声取得機能、通信機能および表示機能のみを有し、その他の構成についてはサーバ102が備える場合、すなわち、車載装置100は取得した認識結果を表示する表示装置としてのみ機能する場合について説明する。
この場合、車載装置100は基本的に音声取得機能、通信機能および表示機能のみを有し、サーバ102による音声認識結果を受信してユーザに提供する。
すなわち、サーバ102が表示部8以外を備える音声認識装置であり、この音声認識装置であるサーバ102が、ユーザにより発話された音声を認識して認識結果を表示装置である車載装置100に表示させる。
このように構成しても、実施の形態1,2と同様な効果を得ることができる。
また、携帯情報端末101がサーバ102と連携して音声認識処理を行い、その認識結果を車載装置100がユーザに提供する場合について説明する。
この構成においては、車載装置100が携帯情報端末101を経由してサーバ102と通信する場合が考えられ、携帯情報端末101のアプリケーションが、サーバ102と連携して音声認識処理を行う。また、車載装置100は、携帯情報端末101とサーバ102による認識結果をユーザに提供するための表示部8を少なくとも備える表示装置として機能する。
この場合にも、車載装置100は基本的に音声取得機能、通信機能および表示機能のみを有し、携帯情報端末101とサーバ102との連携による音声認識結果を受信してユーザに提供する。
すなわち、携帯情報端末101のアプリケーションにより、ユーザにより発話された音声を認識した認識結果を表示装置である車載装置100に表示させる。
このように構成しても、実施の形態1,2と同様な効果を得ることができる。
なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
この発明の音声認識装置は、車載用のナビゲーション装置に限らず、人、車両、鉄道、船舶または航空機等を含む移動体用のナビゲーション装置、携帯型のナビゲーション装置、携帯型の情報処理装置等、また、車載情報提供システムのサーバや、スマートフォン、タブレットPC、携帯電話等の携帯情報端末等にインストールされるナビゲーションシステムのアプリケーション等に適用することができる。
1 制御部、2 マイク、3 音声取得部、4 音声認識辞書、5 音声認識部、6 操作ボタン生成部、7 表示制御部、8 表示部、9 操作ボタン表示更新停止/再開部、10 指示入力部、11 カメラ、12 視線検出部、13 姿勢検出部、14 表示更新停止表現記憶部、15 表示更新再開表現記憶部、16 自車マーク、60 操作ボタン表示領域、61,62,63,64 操作ボタン、100 車載装置、101 携帯情報端末、102 サーバ。

Claims (18)

  1. ユーザにより発話された音声を認識して認識結果を表示する音声認識装置において、
    前記ユーザにより発話された音声を検知して取得する音声取得部と、
    前記音声認識装置が起動している間は常時、音声認識辞書を参照して、前記音声取得部により取得された音声データを認識し、認識結果を出力する音声認識部と、
    前記音声認識部により出力された認識結果に対応する機能を有する操作ボタンを生成する操作ボタン生成部と、
    前記操作ボタン生成部により生成された操作ボタンを表示する表示部と、
    前記表示部における前記操作ボタンの表示内容を制御する表示制御部と、
    前記表示部に表示されている操作ボタンを前記ユーザが操作しようとしているか否かに基づいて、前記表示制御部に対して前記操作ボタンの表示内容の更新停止および再開を指示する指示信号を出力する操作ボタン表示更新停止/再開部とを備え、
    前記操作ボタン表示更新停止/再開部は、前記表示部に表示されている操作ボタンを前記ユーザが操作しようとしていると判断した場合に、前記操作ボタンの表示内容の更新停止を指示する指示信号を出力し、
    前記表示制御部は、前記操作ボタン表示更新停止/再開部から前記操作ボタンの表示内容の更新停止の指示信号を受けた場合に、前記表示部に表示されている操作ボタンの表示更新を停止するよう前記表示部に対して指示を行う
    ことを特徴とする音声認識装置。
  2. 前記ユーザによる各種操作の指示を受け付ける指示入力部をさらに備え、
    前記操作ボタン表示更新停止/再開部は、前記指示入力部により所定の操作が受け付けられた場合に、前記ユーザが前記操作ボタンを押下しようとしていると判断して前記操作ボタンの表示内容の更新停止を指示する指示信号を出力する
    ことを特徴とする請求項1記載の音声認識装置。
  3. 前記指示入力部は、物体の接近を検知する近接センサを備えるものであり、
    前記所定の操作が受け付けられた場合とは、前記近接センサからの信号に基づいて、前記近接センサと前記物体との距離を算出し、当該算出された距離が所定値以下または所定値より小さい場合のことである
    ことを特徴とする請求項2記載の音声認識装置。
  4. 前記ユーザの視線を検出する視線検出部をさらに備え、
    前記操作ボタン表示更新停止/再開部は、前記視線検出部により前記表示部に対する前記ユーザの視線が検出された場合に、前記ユーザが前記操作ボタンを操作しようとしていると判断して前記操作ボタンの表示内容の更新停止を指示する指示信号を出力する
    ことを特徴とする請求項1記載の音声認識装置。
  5. 前記ユーザの姿勢を検出する姿勢検出部をさらに備え、
    前記操作ボタン表示更新停止/再開部は、前記姿勢検出部により所定の姿勢が検出された場合に、前記ユーザが前記操作ボタンを押下しようとしていると判断して前記操作ボタンの表示内容の更新停止を指示する指示信号を出力する
    ことを特徴とする請求項1記載の音声認識装置。
  6. 前記表示部に表示されている操作ボタンが所定個数より少ない場合は、
    前記操作ボタン表示更新停止/再開部は、前記ユーザが前記操作ボタンを操作しようとしていると判断した場合であっても、前記操作ボタンの表示内容の更新停止を指示しない
    ことを特徴とする請求項1記載の音声認識装置。
  7. 前記操作ボタンの表示更新停止を意味する単語が記憶されている表示更新停止表現記憶部をさらに備え、
    前記操作ボタン表示更新停止/再開部は、前記音声認識部により出力された認識結果が前記表示更新停止表現記憶部に存在すると判断した場合に、前記操作ボタンの表示内容の更新停止を指示する指示信号を出力する
    ことを特徴とする請求項1記載の音声認識装置。
  8. 前記操作ボタン表示更新停止/再開部は、前記操作ボタンを前記ユーザが操作しようとしていると判断しなかった場合には、前記操作ボタンの表示内容の更新再開を指示する指示信号を出力し、
    前記表示制御部は、前記表示部における前記操作ボタンの更新が停止中であって、かつ、前記操作ボタン表示更新停止/再開部から前記操作ボタンの表示内容の更新再開の指示信号を受けた場合は、前記表示部に表示されている操作ボタンの表示更新を再開するよう前記表示部に対して指示を行う
    ことを特徴とする請求項1記載の音声認識装置。
  9. 前記操作ボタン表示更新停止/再開部は、前記操作ボタンの表示内容の更新を停止する指示信号を出力してから、当該操作ボタンに対する操作がされないまま所定時間経過した場合に、前記操作ボタンの表示内容の更新を再開する
    ことを特徴とする請求項1記載の音声認識装置。
  10. 前記音声認識装置は、移動体に搭載されるものであり、
    前記操作ボタン表示更新停止/再開部は、前記移動体の走行状態に応じて、前記所定時間を変更する
    ことを特徴とする請求項9記載の音声認識装置。
  11. 前記表示制御部は、前記操作ボタン表示更新停止/再開部から前記操作ボタンの表示内容の更新停止の指示信号を受けた場合に、前記表示部に表示されている操作ボタンの表示態様を変更する
    ことを特徴とする請求項1記載の音声認識装置。
  12. 前記表示態様とは、前記操作ボタンの大きさ、色、文字フォントの少なくとも1つ以上のことである
    ことを特徴とする請求項11記載の音声認識装置。
  13. 前記表示部に表示された操作ボタンの表示履歴を記憶する操作ボタン表示履歴記憶部をさらに備え、
    前記表示制御部は、前記操作ボタンの表示更新によって前記表示部から前記操作ボタンが消去される度に、当該消去された操作ボタンに関する情報を前記操作ボタン表示履歴記憶部に記憶するとともに、前記操作ボタンの表示更新停止中に、前記操作ボタンに対するスクロール操作が行われると、前記操作ボタン表示履歴記憶部に記憶されている操作ボタンを表示するよう前記表示部に対して指示を行う
    ことを特徴とする請求項1記載の音声認識装置。
  14. 前記表示部に表示された操作ボタンの表示履歴を記憶する操作ボタン表示履歴記憶部をさらに備え、
    前記表示制御部は、前記操作ボタンの表示更新によって前記表示部から前記操作ボタンが消去される度に、当該消去された操作ボタンに関する情報を前記操作ボタン表示履歴記憶部に記憶するとともに、前記操作ボタンの表示更新停止中に、前記操作ボタン表示履歴記憶部に記憶されている操作ボタンを一覧表示するよう前記表示部に対して指示を行う
    ことを特徴とする請求項1記載の音声認識装置。
  15. 前記操作ボタン生成部により生成された操作ボタンに関する情報を記憶する操作ボタン生成履歴記憶部をさらに備え、
    前記表示制御部は、前記操作ボタン生成部により生成された操作ボタンが、前記操作ボタンの表示更新停止中であったために前記表示部に表示されなかった操作ボタンに関する情報を、前記操作ボタン生成履歴記憶部に記憶させるよう指示を行うとともに、前記操作ボタンの表示更新再開の指示信号を受けると、前記表示部に表示中の操作ボタンに代えて、前記操作ボタン生成履歴記憶部に記憶されている情報に基づく操作ボタンを、前記表示部に表示するよう指示出力を行う
    ことを特徴とする請求項1記載の音声認識装置。
  16. ユーザにより発話された音声の認識結果を表示する認識結果表示装置において、
    前記ユーザにより発話された音声を検知して取得する音声取得部と、
    前記認識結果表示装置が起動している間は常時、前記音声取得部により取得された音声データを音声認識サーバへ送信し、当該サーバにおいて音声認識された認識結果を取得する認識結果取得部と、
    前記認識結果取得部により取得された認識結果に対応する機能を有する操作ボタンを生成する操作ボタン生成部と、
    前記操作ボタン生成部により生成された操作ボタンを表示する表示部と、
    前記表示部における前記操作ボタンの表示内容を制御する表示制御部と、
    前記表示部に表示されている操作ボタンを前記ユーザが操作しようとしているか否かに基づいて、前記表示制御部に対して前記操作ボタンの表示内容の更新停止および再開を指示する指示信号を出力する操作ボタン表示更新停止/再開部とを備え、
    前記操作ボタン表示更新停止/再開部は、前記表示部に表示されている操作ボタンを前記ユーザが操作しようとしていると判断した場合に、前記操作ボタンの表示内容の更新停止を指示する指示信号を出力し、
    前記表示制御部は、前記操作ボタン表示更新停止/再開部から前記操作ボタンの表示内容の更新停止の指示信号を受けた場合に、前記表示部に表示されている操作ボタンの表示更新を停止するよう前記表示部に対して指示を行う
    ことを特徴とする認識結果表示装置。
  17. ユーザにより発話された音声を認識して認識結果を表示装置に表示させる音声認識装置であって、
    前記音声認識装置が起動している間は常時、音声認識辞書を参照して、前記ユーザにより発話された音声を認識し、認識結果を出力する音声認識部と、
    前記音声認識部により出力された認識結果に対応する機能を有する操作ボタンを生成する操作ボタン生成部と、
    前記操作ボタン生成部により生成された操作ボタンを前記表示装置に表示する際の表示内容を制御する表示制御部と、
    前記表示装置に表示されている操作ボタンを前記ユーザが操作しようとしているか否かに基づいて、前記表示制御部に対して前記操作ボタンの表示内容の更新停止および再開を指示する指示信号を出力する操作ボタン表示更新停止/再開部とを備え、
    前記操作ボタン表示更新停止/再開部は、前記操作ボタンを前記ユーザが操作しようとしていると判断した場合に、前記操作ボタンの表示内容の更新停止を指示する指示信号を出力し、
    前記表示制御部は、前記操作ボタン表示更新停止/再開部から前記操作ボタンの表示内容の更新停止の指示信号を受けた場合に、前記表示装置に表示されている操作ボタンの表示更新を停止するよう前記表示装置に対して指示を行う
    ことを特徴とする音声認識装置。
  18. 音声認識装置が、ユーザにより発話された音声を認識して認識結果を表示装置に表示させる表示方法であって、
    音声認識部が、前記音声認識装置が起動している間は常時、音声認識辞書を参照して、前記ユーザにより発話された音声を認識し、認識結果を出力するステップと、
    ボタン生成部が、前記音声認識部により出力された認識結果に対応する機能を有する操作ボタンを生成するステップと、
    操作ボタン表示更新停止/再開部が、前記表示装置に表示されている操作ボタンを前記ユーザが操作しようとしていると判断した場合に、前記操作ボタンの表示内容の更新停止を指示する指示信号を出力するステップと、
    表示制御部が、前記操作ボタン表示更新停止/再開部から前記操作ボタンの表示内容の更新停止の指示信号を受けた場合に、前記表示装置に表示されている操作ボタンの表示更新を停止するよう前記表示装置に対して指示を行うステップと
    を備えたことを特徴とする表示方法。
JP2015515343A 2013-05-21 2013-05-21 音声認識装置、認識結果表示装置および表示方法 Expired - Fee Related JP5762660B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/064072 WO2014188512A1 (ja) 2013-05-21 2013-05-21 音声認識装置、認識結果表示装置および表示方法

Publications (2)

Publication Number Publication Date
JP5762660B2 true JP5762660B2 (ja) 2015-08-12
JPWO2014188512A1 JPWO2014188512A1 (ja) 2017-02-23

Family

ID=51933102

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015515343A Expired - Fee Related JP5762660B2 (ja) 2013-05-21 2013-05-21 音声認識装置、認識結果表示装置および表示方法

Country Status (5)

Country Link
US (1) US9767799B2 (ja)
JP (1) JP5762660B2 (ja)
CN (1) CN105246743B (ja)
DE (1) DE112013007103T5 (ja)
WO (1) WO2014188512A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017061300A1 (ja) * 2015-10-05 2017-04-13 パイオニア株式会社 情報処理装置、情報処理方法及び情報処理プログラム

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9786296B2 (en) * 2013-07-08 2017-10-10 Qualcomm Incorporated Method and apparatus for assigning keyword model to voice operated function
JP6642424B2 (ja) * 2014-06-03 2020-02-05 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
KR102301880B1 (ko) * 2014-10-14 2021-09-14 삼성전자 주식회사 전자 장치 및 이의 음성 대화 방법
US9741342B2 (en) * 2014-11-26 2017-08-22 Panasonic Intellectual Property Corporation Of America Method and apparatus for recognizing speech by lip reading
WO2016103465A1 (ja) * 2014-12-26 2016-06-30 三菱電機株式会社 音声認識システム
JP6477123B2 (ja) * 2015-03-25 2019-03-06 株式会社デンソー 操作システム
JP6739907B2 (ja) * 2015-06-18 2020-08-12 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 機器特定方法、機器特定装置及びプログラム
US9898250B1 (en) * 2016-02-12 2018-02-20 Amazon Technologies, Inc. Controlling distributed audio outputs to enable voice output
US9858927B2 (en) * 2016-02-12 2018-01-02 Amazon Technologies, Inc Processing spoken commands to control distributed audio outputs
JP6690484B2 (ja) * 2016-09-15 2020-04-28 富士通株式会社 音声認識用コンピュータプログラム、音声認識装置及び音声認識方法
KR102068182B1 (ko) * 2017-04-21 2020-01-20 엘지전자 주식회사 음성 인식 장치, 및 음성 인식 시스템
KR102552486B1 (ko) * 2017-11-02 2023-07-06 현대자동차주식회사 차량의 음성인식 장치 및 방법
JP2019105756A (ja) * 2017-12-13 2019-06-27 トヨタ自動車株式会社 車載音声出力装置
JP7226332B2 (ja) * 2017-12-20 2023-02-21 ソニーグループ株式会社 情報処理装置、情報処理方法及びプログラム
JP7069795B2 (ja) * 2018-02-15 2022-05-18 京セラドキュメントソリューションズ株式会社 電子機器
JP7281683B2 (ja) * 2018-02-22 2023-05-26 パナソニックIpマネジメント株式会社 音声制御情報出力システム、音声制御情報出力方法およびプログラム
JP7192220B2 (ja) * 2018-03-05 2022-12-20 コニカミノルタ株式会社 画像処理装置、情報処理装置及びプログラム
CN112867985A (zh) 2018-05-07 2021-05-28 谷歌有限责任公司 确定在中断第二会话的中止后是否自动恢复第一自动助理会话
JP7266418B2 (ja) * 2019-02-14 2023-04-28 本田技研工業株式会社 エージェント装置、エージェント装置の制御方法、およびプログラム
CN113067769B (zh) * 2021-03-31 2023-03-10 百度在线网络技术(北京)有限公司 路由器重启方法、装置、设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005311883A (ja) * 2004-04-23 2005-11-04 Alpine Electronics Inc 電話帳システム及び電話装置
WO2006067855A1 (ja) * 2004-12-24 2006-06-29 Navitime Japan Co., Ltd. 先導経路案内システム、携帯型経路先導案内装置およびプログラム
JP2008014818A (ja) * 2006-07-06 2008-01-24 Denso Corp 作動制御装置、プログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ATE391986T1 (de) * 2000-11-23 2008-04-15 Ibm Sprachnavigation in webanwendungen
US20030191629A1 (en) * 2002-02-04 2003-10-09 Shinichi Yoshizawa Interface apparatus and task control method for assisting in the operation of a device using recognition technology
JP2009116769A (ja) * 2007-11-09 2009-05-28 Sony Corp 入力装置、入力装置の制御方法、及びプログラム
CN101158584B (zh) * 2007-11-15 2011-01-26 熊猫电子集团有限公司 车载gps的语音目的地导航实现方法
JP2010205130A (ja) * 2009-03-05 2010-09-16 Denso Corp 制御装置
KR101639383B1 (ko) * 2009-11-12 2016-07-22 삼성전자주식회사 근접 터치 동작 감지 장치 및 방법
DE112010005918B4 (de) * 2010-10-01 2016-12-22 Mitsubishi Electric Corp. Spracherkennungsvorrichtung
US9223461B1 (en) * 2010-12-08 2015-12-29 Wendell Brown Graphical user interface
US8898592B2 (en) * 2011-06-30 2014-11-25 International Business Machines Corporation Grouping expanded and collapsed rows in a tree structure
US9075514B1 (en) * 2012-12-13 2015-07-07 Amazon Technologies, Inc. Interface selection element display
US9639322B2 (en) * 2013-01-09 2017-05-02 Mitsubishi Electric Corporation Voice recognition device and display method
HK1186912A2 (en) * 2013-01-25 2014-03-21 Zhipei Wang Remote control system and device
KR20140110452A (ko) * 2013-03-08 2014-09-17 삼성전자주식회사 전자장치에서 근접 터치를 이용한 사용자 인터페이스 제어 방법 및 장치
JP2014203208A (ja) * 2013-04-03 2014-10-27 ソニー株式会社 情報処理装置、情報処理方法及びコンピュータプログラム
JP6330565B2 (ja) * 2014-08-08 2018-05-30 富士通株式会社 情報処理装置、情報処理方法及び情報処理プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005311883A (ja) * 2004-04-23 2005-11-04 Alpine Electronics Inc 電話帳システム及び電話装置
WO2006067855A1 (ja) * 2004-12-24 2006-06-29 Navitime Japan Co., Ltd. 先導経路案内システム、携帯型経路先導案内装置およびプログラム
JP2008014818A (ja) * 2006-07-06 2008-01-24 Denso Corp 作動制御装置、プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017061300A1 (ja) * 2015-10-05 2017-04-13 パイオニア株式会社 情報処理装置、情報処理方法及び情報処理プログラム

Also Published As

Publication number Publication date
WO2014188512A1 (ja) 2014-11-27
DE112013007103T5 (de) 2016-03-03
CN105246743B (zh) 2017-03-29
US9767799B2 (en) 2017-09-19
JPWO2014188512A1 (ja) 2017-02-23
US20160035352A1 (en) 2016-02-04
CN105246743A (zh) 2016-01-13

Similar Documents

Publication Publication Date Title
JP5762660B2 (ja) 音声認識装置、認識結果表示装置および表示方法
JP5921722B2 (ja) 音声認識装置および表示方法
JP6400109B2 (ja) 音声認識システム
JP5677650B2 (ja) 音声認識装置
JP5925313B2 (ja) 音声認識装置
JP5893217B2 (ja) 音声認識装置および表示方法
WO2013005248A1 (ja) 音声認識装置およびナビゲーション装置
CN105355202A (zh) 语音识别装置、具有语音识别装置的车辆及其控制方法
JP2012213132A (ja) 車両用装置および情報表示システム
JP4466379B2 (ja) 車載音声認識装置
US20100229116A1 (en) Control aparatus
JP6214297B2 (ja) ナビゲーション装置および方法
WO2013069060A1 (ja) ナビゲーション装置および方法
JP6522009B2 (ja) 音声認識システム
JP6536018B2 (ja) 音声制御システム、音声制御方法、及び音声制御プログラム
US20170214778A1 (en) Vehicle and control method for the vehicle
JP2017102320A (ja) 音声認識装置
JP2008233009A (ja) カーナビゲーション装置及びカーナビゲーション装置用プログラム
JPWO2013069060A1 (ja) ナビゲーション装置、方法およびプログラム
JP2014232289A (ja) 誘導音声調整装置、誘導音声調整方法および誘導音声調整プログラム
JP2006195909A (ja) 施設検索装置
JP2010205079A (ja) 手書文字入力システム
JPWO2013005248A1 (ja) 音声認識装置およびナビゲーション装置
JP2001249682A (ja) 登録名称の読み入力装置

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20150501

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150512

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150609

R150 Certificate of patent or registration of utility model

Ref document number: 5762660

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees