JP2010205130A - 制御装置 - Google Patents
制御装置 Download PDFInfo
- Publication number
- JP2010205130A JP2010205130A JP2009051990A JP2009051990A JP2010205130A JP 2010205130 A JP2010205130 A JP 2010205130A JP 2009051990 A JP2009051990 A JP 2009051990A JP 2009051990 A JP2009051990 A JP 2009051990A JP 2010205130 A JP2010205130 A JP 2010205130A
- Authority
- JP
- Japan
- Prior art keywords
- menu item
- menu
- displayed
- shortcut button
- requested function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3605—Destination input or retrieval
- G01C21/3608—Destination input or retrieval using speech input, e.g. using speech recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/038—Indexing scheme relating to G06F3/038
- G06F2203/0381—Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
Abstract
【解決手段】ユーザの発話を音声認識し、認識した単語又は単語列を出力する音声認識手段と、前記単語又は単語列に対応する要求機能を決定し、記憶する要求機能記憶手段と、ユーザの所定の動作を検出する動作検出手段と、前記動作検出手段が前記所定の動作を検出することを条件として、前記要求機能記憶手段が記憶している要求機能の実行を指示するショートカットボタンを画面上に表示するショートカットボタン表示手段と、前記ショートカットボタンに対する操作があった場合、前記要求機能を実行するための制御を行う制御手段と、を備えることを特徴とする制御装置。
【選択図】図5
Description
すなわち、本発明の制御装置は、ユーザが所定の動作を行った場合のみ、ショートカットボタンを画面上に表示するので、ユーザにとって不要なショートカットボタンが次々と画面に表示されてしまうようなことがない。
本発明の制御装置は、例えば、ツリー構造を構成する複数のメニュー項目から成り、各メニュー項目に要求機能を表示するメニューを記憶するメニュー記憶手段と、ユーザのメニュー操作に応じて、所望のメニュー項目を表示するメニュー表示手段と、を備えるものとすることができる。
このとき、本発明の制御装置は、ユーザがメニュー操作を行った場合のみ、ショートカットボタンを表示する。そのため、ユーザにとって不要なショートカットボタンが次々に表示されてしまうようなことがない。
また、ユーザがメニュー操作により表示したメニュー項目の下位階層に属するメニュー項目に表示される要求機能のショートカットボタンのみが表示されるので、ユーザにとって不要なショートカットボタンが画面に表示されてしまうことを、一層効果的に防止できる。
上述したユーザのメニュー操作とは、例えば、音声による特定のメニュー項目の指示とすることができる。また、前記メニュー表示手段とは、例えば、音声による特定のメニュー項目の指示から、前記特定のメニュー項目を音声認識し、そのメニュー項目を表示することとすることができる。
なお、本発明の制御装置は、ショートカットボタンに対する操作があった場合、それに対応する要求機能を実行するための各種制御(例えば、ナビ操作、携帯操作、車両操作、TV操作等)を行う。
1.第1の実施形態
(1)制御装置1の全体構成
制御装置1の構成を図1及び図2に基づき説明する。図1は、制御装置1の全体構成を表すブロック図であり、図2は、主として音声認識関連ユニット21の構成を表すブロック図である。
制御装置1は、車両に搭載され、ナビゲーション機能や、電話を含む外部との情報入出力機能を実行可能な装置である。制御装置1は、車両の現在位置を検出する位置検出器3と、ユーザからの各種指示を入力するための操作スイッチ群5と、操作スイッチ群5と同様に各種指示を入力可能であって制御装置1とは別体となったリモートコントロール端末(以下、リモコンと称す)7と、リモコン7からの信号を入力するリモコンセンサ9と、通信装置11と、地図データや各種の情報を記録した地図記憶媒体から地図データ等を入力する地図データ入力器13と、地図や各種情報の表示を画面に行うための画面表示部15と、各種音声16(例えばガイド音声等)を出力するための音声出力装置17と、音声を入力して音声情報を出力するマイクロフォン19と、音声認識関連の処理を行う音声認識関連ユニット21と、操作スイッチ群5における操作開始ボタン5aの操作開始を検出する操作開始検出部25と、上述した位置検出器3、操作スイッチ群5、リモコンセンサ9、通信装置11、地図データ入力器13、音声認識関連ユニット21、操作開始検出部25からの入力に応じて各種処理を実行し、通信装置11,画面表示部15、音声出力装置17、音声認識関連ユニット21を制御する制御部27とを備えている。
地図データ入力器13は、図示しない地図データ記憶媒体(例えばハードディスクやDVD−ROM等)に記憶された各種データを入力するための装置である。地図データ記憶媒体には、地図データ(ノードデータ、リンクデータ、コストデータ、背景データ、道路データ、名称データ、マークデータ、交差点データ、施設のデータ等)、案内用の音声データ、音声認識データ等が記憶されている。なお、地図データ記憶媒体からこれらのデータを入力する代わりに、通信ネットワークを介してこれらのデータを入力するようになっていてもよい。
画面表示部15の表示画面には、メニューが表示される。そのメニューの構造を図3に基づき説明する。メニューは、複数のメニュー項目(例えば、図3におけるメニュー項目M1〜M20)から構成され、各メニュー項目は、ツリー構造を成している。
画面表示部15には、一度に1つのメニュー項目のみが表示される。画面表示部15に表示されるメニュー項目は、ユーザが操作スイッチ群5のうちのメニュー操作ボタン5bを操作することにより、ツリー構造上を、上位階層から下位階層へ、又は、その逆に順次切り替わる。例えば、画面表示部15に表示されるメニュー項目は、ユーザがメニュー操作ボタン5bを操作することにより、M1→M2→M7→M12→M15→M19のように、切り替わる。また、例えば、M19からM1へ、上述した経路を逆方向に辿って、切り替わる。なお、各メニュー項目は、制御部27のROMに記憶されている。
また、画面表示部15の表示画面には、位置検出器3にて検出した車両の現在位置と地図データ入力器13より入力された地図データとから特定した現在地を示すマーク、目的地までの誘導経路、名称、目印、各種施設のマーク等の付加データとを重ねて表示することができる。また、施設のガイド等も表示できる。
マイクロフォン19は、使用者が音声を入力(発話)するとその入力した音声に基づく電気信号(音声信号)を制御部27に出力するものである。この入力された音声は、音声認識関連ユニット21にて利用される。
音声認識関連ユニット21に関しては、後述する。
(2)音声認識関連ユニット21の構成
図2に示すように、音声認識関連ユニット21は、音声認識部29と、要求機能決定部31と、要求機能記憶部33と、ショートカットボタン作成部35と、ショートカットボタン表示部37と、認識辞書39と、機器操作情報DB(データベース)41とを備えている。
要求機能記憶部33は、要求機能決定部31から入力した要求機能を記憶しておき、所定の条件が充足された場合に、記憶しておいた要求機能をショートカットボタン作成部35に出力する。
ショートカットボタン表示部37は、ショートカットボタン作成部35から入力したショートカットボタンを、画面表示部15に表示する。
制御装置1が実行する処理を図4、図5のフローチャート、及び図6の説明図に基づいて説明する。
(3−1)図4に示す処理は、制御装置1の電源がONである期間中、繰り返し実行される処理である。
ステップ10では、マイクロフォン19から音声認識部29に入力された音声(会話、独り言)を受け付ける。
ステップ20では、音声認識部29にて、前記ステップ10で入力された音声を単語又は単語列に分解する。
ステップ30では、前記ステップ20で分解された単語又は単語列から、要求機能を決定できたか否かを判断する。すなわち、前記ステップ20で分解された単語又は単語列に関連づけられた要求機能が機器操作情報DB41に記憶されていれば、それを要求機能として決定し、ステップ40に進む。一方、前記ステップ20で分解された単語又は単語列に関連づけられた要求機能が機器操作情報DB41に記憶されていなければ、要求機能を決定できなかったと判断し、ステップ10に戻る。
ステップ40では、前記ステップ30で決定した要求機能を、要求機能記憶部33に記憶する。ステップ40が終了すると、ステップ10に戻る。
ステップ110では、操作開始ボタン5aに対する操作を検出したか否かを判断する。検出した場合はステップ120に進み、検出しなかった場合はステップ110に留まる。
ステップ120では、要求機能が要求機能記憶部33に記憶されているか否かを判断する。要求機能が記憶されている場合はステップ130に進み、記憶されていない場合はステップ110に戻る。
ステップ130では、ショートカットボタン作成部35により、前記ステップ120で記憶されていることを確認した要求機能に対応するショートカットボタンを作成する。
ステップ140では、ショートカットボタン表示部37により、前記ステップ130で作成したショートカットボタンを画面表示部15に表示する。
制御装置1は、ユーザが操作開始ボタン5aを押した場合のみ、ショートカットボタンを表示する。そのため、ユーザにとって不要なショートカットボタンが次々に表示されてしまうようなことがない。
また、制御装置1は、常時、ユーザの発話を音声認識し、認識した単語又は単語列を出力し、さらに、出力された単語又は単語列に対応する要求機能を決定し、その要求機能を記憶しておく。そのため、音声認識の開始や、単語又は単語列に対応する要求機能の決定の開始をユーザが個々に指示する必要が無い。
制御装置1は、以下の変形例であっても、略同様の効果を奏することができる。
(5−1)本変形例の制御装置1は、基本的な構成、作用は上述したものと同様であるが、ユーザの視線を認識する視線認識手段を備える。視線認識手段は、例えば、特開2005―296382号公報等に記載された公知の構成とすることができる。制御装置1は、前記ステップ110において、視線認識手段により、ユーザの視線が所定の方向(例えば、制御装置1を向く方向)となったことを検出した場合に、前記ステップ120に進み、検出しなかった場合は前記ステップ110に留まる。
(5−2)本変形例の制御装置1は、基本的な構成、作用は上述したものと同様であるが、ユーザの手が制御装置1に接近したことを検出する接近検出手段を備える。接近検出手段は、周知の近接センサと同様の構成とすることができる。制御装置1は、前記ステップ110において、接近検出手段により、ユーザの手の接近を検出した場合に、前記ステップ120に進み、検出しなかった場合は前記ステップ110に留まる。
(5−3)本変形例の制御装置1は、基本的な構成、作用は上述したものと同様であるが、ユーザの手がリモコン7に触れたことを検出するリモコン接触検出手段を備える。リモコン接触検出手段は、周知の接触センサと同様の構成とすることができる。制御装置1は、前記ステップ110において、リモコン接触検出手段により、リモコン7へのユーザの手の接触を検出した場合に、前記ステップ120に進み、検出しなかった場合は前記ステップ110に留まる。
(1)制御装置1の構成
本実施形態における制御装置1は、前記第1の実施形態と、基本的には同様の構成を有するが、メニューにおいて一部相違する。すなわち、メニューを構成する各メニュー項目(図3参照)には、ショートカットボタンの表示領域を有するものと、有さないものとがある。
(2)制御装置1が実行する処理
制御装置1が実行する処理を図7、図8のフローチャート、及び図9の説明図に基づいて説明する。
ステップ210では、マイクロフォン19から音声認識部29に入力された音声(会話、独り言)を受け付ける。
ステップ220では、音声認識部29にて、前記ステップ210で入力された音声を単語又は単語列に分解する。
ステップ230では、前記ステップ220で分解された単語又は単語列から、要求機能を決定できたか否かを判断する。すなわち、前記ステップ220で分解された単語又は単語列に関連づけられた要求機能が機器操作情報DB41に記憶されていれば、それを要求機能として決定し、ステップ240に進む。一方、前記ステップ220で分解された単語又は単語列に関連づけられた要求機能が機器操作情報DB41に記憶されていなければ、要求機能を決定できなかったと判断し、ステップ210に戻る。
ステップ240では、前記ステップ230で決定した要求機能を、要求機能記憶部33に記憶する。また、要求機能とともに、その要求機能を表示するメニュー項目の、メニューのツリー構造(図3参照)における位置(以下、メニュー項目位置とする)もあわせて記憶する。ステップ240が終了すると、ステップ210に戻る。
ステップ310では、メニュー操作ボタン5bを操作することで、画面表示部15に表示されるメニュー項目が指定されたか否かを判断する。なお、メニュー操作ボタン5bは、画面表示部15に表示されるメニュー項目を、ユーザの所望のものに設定可能な操作ボタンである。メニュー項目が指定された場合はステップ320に進み、指定されていない場合はステップ310に留まる。
ステップ320では、画面表示部15に、前記ステップ310で指定されたメニュー項目を表示する。
ステップ330では、前記ステップ320で表示されたメニュー項目が、ショートカットボタン表示領域を有するものであるか否かを判断する。ショートカットボタン表示領域を有する場合はステップ340に進み、ショートカットボタン表示領域を有さない場合はステップ310に戻る。
ステップ340では、要求機能が要求機能記憶部33に記憶されており、その要求機能を表示するメニュー項目は、メニューのツリー構造において、前記ステップ320で表示されたメニュー項目の下位階層に属すること、という条件が充足されるか否かを判断する。この条件が充足される場合はステップ350に進み、この条件が充足されない場合はステップ310に戻る。
なお、あるメニュー項目が他のメニュー項目の下位階層に属するとは、前者のメニュー項目から、ツリー構造上を上位階層の方向にのみ進むことで、後者のメニュー項目に到達できることを意味する。例えば、図3に示すツリー構造において、メニュー項目M19、M15、M12、M7は、それぞれ、メニュー項目M2の下位階層に属するが、メニュー項目M8、M10等は、メニュー項目M2の下位階層に属さない。
ステップ350では、ショートカットボタン作成部35により、前記ステップ340で記憶されていることを確認した要求機能に対応するショートカットボタンを作成する。
ステップ360では、ショートカットボタン表示部37により、前記ステップ350で作成したショートカットボタンを画面表示部15に表示する。
制御装置1は、ユーザがメニュー操作ボタン5bを操作して表示するメニュー項目を指定した場合のみ、ショートカットボタンを表示する。そのため、ユーザにとって不要なショートカットボタンが次々に表示されてしまうようなことがない。
また、ユーザが指定したメニュー項目の下位階層に属するメニュー項目に表示される要求機能のショートカットボタンのみが表示されるので、ユーザにとって不要なショートカットボタンが表示されてしまうことを、一層効果的に防止できる。
制御装置1は、以下の変形例であってもよい。
(4−1)本変形例の制御装置1は、基本的な構成、作用は上述したものと同様であるが、音声認識した単語又は単語列に対応する要求機能を、複数、要求機能記憶部33に記憶することができる。ユーザの1回の発話から複数の要求機能を決定し、それらを記憶してもよいし、複数回の発話のそれぞれから、要求機能を決定し、それらを順次記憶してもよい。また、制御装置1は、複数の要求機能のそれぞれについて、それらを表示するメニュー項目のメニュー項目位置を要求機能記憶部33に記憶することができる。
制御装置1は、前記ステップ340において、複数の要求機能が要求機能記憶部33に記憶されており、それら複数の要求機能を表示する複数のメニュー項目が、それぞれ、メニューのツリー構造において、前記ステップ320で表示されたメニュー項目の下位階層に属する場合は、複数のメニュー項目のうち、メニュー項目のツリー構造における階層が最下位から所定の階層まで(最下位のみであってもよい)に表示される要求機能のショートカットボタンのみを表示する。
制御装置1が、複数の要求機能のうち、それらを表示するメニュー項目のツリー構造における階層が最下位に属するメニュー項目に表示される要求機能のショートカットボタンのみを表示するものである場合、メニュー項目M7、M12、M15のうちで、メニュー項目のツリー構造における階層が最下位であるのは、メニュー項目M15であるから、それに表示される「ラーメン店の目的地設定」という要求機能のショートカットボタンのみを表示する。
また、制御装置1が、メニュー項目のツリー構造における階層が最下位と、最下位から2番目に属するメニュー項目に表示される要求機能のショートカットボタンのみを表示するものである場合、メニュー項目M7、M12、M15のうちで、メニュー項目のツリー構造における階層が最下位であるメニュー項目M15に表示される「ラーメン店の目的地設定」という要求機能のショートカットボタンと、最下位から2番目であるメニュー項目M12に表示される「食べるの目的地設定」という要求機能のショートカットボタンを表示する。
この変形例の場合、ユーザにとって、有用である可能性が高いショートカットのみを作成することができる。
制御装置1は、前記ステップ340において、複数の要求機能が要求機能記憶部33に記憶されており、それら複数の要求機能を表示する複数のメニュー項目が、それぞれ、メニューのツリー構造において、前記ステップ320で表示されたメニュー項目の下位階層に属する場合は、複数の要求機能のうち、記憶された時刻が最新であるものから、順番に所定個数(例えば、1個、2個、3個・・・)までの要求機能のショートカットボタンのみを表示する。
制御装置1が、複数の要求機能のうち、記憶された時刻が最新である要求機能のショートカットボタンを表示するものである場合、上述した複数の要求機能のうちで、最新に記憶された「ラーメン店の目的地設定」という要求機能のショートカットボタンのみを表示する。
また、制御装置1が、複数の要求機能のうち、記憶された時刻が最新である要求機能から、2番目の要求機能までのショートカットボタンを表示するものである場合、上述した複数の要求機能のうちで、最新に記憶された「ラーメン店の目的地設定」という要求機能と、その一つ前に記憶された「食べるの目的地設定」という要求機能のショートカットボタンを表示する。
この変形例の場合、ユーザにとって、有用である可能性が高いショートカットのみを作成することができる。
制御装置1は、前記ステップ340において、複数の要求機能が要求機能記憶部33に記憶されており、それら複数の要求機能を表示する複数のメニュー項目が、それぞれ、メニューのツリー構造において、前記ステップ320で表示されたメニュー項目の下位階層に属する場合は、複数の要求機能のそれぞれについて、ショートカットボタンを画面表示部15に表示する。
この場合、ショートカットボタンの表示態様は、複数のショートカットボタンを配列したリスト表示とすることができる。
また、複数のショートカットボタンのうち、画面表示部15に同時に表示されるものは1部(例えば1個)のみとして、時間の経過とともに、表示されるショートカットボタンが次々に入れ替わるようにしてもよい。
この変形例の場合、複数のショートカットボタンを表示しても、それらを見やすくすることができる。
また、制御装置1は、要求機能記憶部33に記憶できる要求機能の個数に制限を有している。制限個数に達するまでは、要求機能を要求機能記憶部33に記憶できるが、制限個数に達した後に、新たに要求機能を1個記憶する場合は、既に記憶している要求機能のうち、最も古く記憶されたものが1個消去される。
(4−5)本変形例の制御装置1は、要求機能が要求機能記憶部33に記憶されてから、その要求機能のショートカットボタンが作成することなく、所定期間が経過すると、その要求機能を自動的に消去する手段を備えている。
(4−7)本変形例の制御装置1は、要求機能記憶部33に記憶されている要求記憶のそれぞれについて、ショートカット作成フラグを設定できる。ショートカット作成フラグの値は、0又は1である。また、本変形例の制御装置1は、図8に示す処理の代わりに、図10に示す処理を実行する。この図10に示す処理を説明する。
ステップ410では、メニュー操作ボタン5bを操作することで、画面表示部15に表示されるメニュー項目が指定されたか否かを判断する。メニュー項目が指定された場合はステップ420に進み、指定されていない場合はステップ410に留まる。
ステップ420では、画面表示部15に、前記ステップ410で指定されたメニュー項目を表示する。
ステップ430では、前記ステップ420で表示されたメニュー項目が、ツリー構造における最上位のメニュー項目(図3ではメニュー項目M1)であるか否かを判断する。最上位のメニュー項目である場合は、ステップ440に進み、要求機能記憶部33に記憶されている全ての要求機能について、ショートカット作成フラグを0にする。一方、最上位のメニュー項目でない場合は、ステップ450に進む。
ステップ460では、要求機能記憶部33に記憶されている要求機能であって、それを表示するメニュー項目が、メニューのツリー構造において、前記ステップ420で表示されたメニュー項目の下位階層に属し、且つ対応するショートカット作成フラグが0であるという要求機能が存在するか否かを判断する。このような要求記憶が存在する場合はステップ470に進み、存在しない場合はステップ410に戻る。
ステップ470では、ショートカットボタン作成部35により、前記ステップ460で存在すると判断した要求機能に対応するショートカットボタンを作成する。
ステップ480では、ショートカットボタン表示部37により、前記ステップ470で作成したショートカットボタンを画面表示部15に表示する。
ステップ490では、前記ステップ470で表示したショートカットボタンに対応する要求機能のショートカット作成フラグを1にする。
この変形例では、ある要求機能についてショートカットボタンを表示すると、その要求機能のショートカット作成フラグは1となり(前記ステップ490)、それ以後、前記ステップ460でNOと判断されるので、同じ要求機能についてショートカットボタンが重ねて作成されることを防止できる。
(1)制御装置1の構成
本実施形態における制御装置1の構成を図11に基づいて説明する。制御装置1は、前記第2の実施形態と、基本的には同様の構成を有するが、操作スイッチ群5の一部として、音声認識開始スイッチ5cを備えている。
(2)制御装置1が実行する処理
制御装置1が実行する処理を図12のフローチャート、及び図13の説明図に基づいて説明する。
(2−1)図12に示す処理は、制御装置1の電源がONである期間中、繰り返し実行される処理である。
ステップ520では、マイクロフォン19から音声認識部29に入力された音声(会話、独り言)を受け付ける。
ステップ530では、音声認識部29にて、前記ステップ520で入力された音声を単語又は単語列に分解する。
ステップ540では、前記ステップ530で分解された単語又は単語列から、要求機能を決定できたか否かを判断する。すなわち、前記ステップ530で分解された単語又は単語列に関連づけられた要求機能が機器操作情報DB41に記憶されていれば、それを要求機能として決定し、ステップ550に進む。一方、前記ステップ530で分解された単語又は単語列に関連づけられた要求機能が機器操作情報DB41に記憶されていなければ、要求機能を決定できなかったと判断し、ステップ510に戻る。
ステップ550では、前記ステップ540で決定した要求機能を、要求機能記憶部33に記憶する。また、要求機能とともに、その要求機能を表示するメニュー項目のメニュー項目位置もあわせて記憶する。ステップ550が終了すると、ステップ510に戻る。
ステップ570では、前記ステップ530と同様に、音声認識部29にて、前記ステップ560で入力された音声を単語又は単語列に分解する。そして、メニュー項目決定部43にて、その単語又は単語列から、メニュー項目を決定できたか否かを判断する。すなわち、分解された単語又は単語列に関連づけられたメニュー項目がメニュー項目DB45に記憶されていれば、それをメニュー項目として決定し、ステップ580に進む。一方、分解された単語又は単語列に関連づけられたメニュー項目がメニュー項目DB45に記憶されていなければ、メニュー項目を決定できなかったと判断し、ステップ510に戻る。
ステップ580では、画面表示部15に、前記ステップ570で決定されたメニュー項目を表示する。
ステップ590では、前記ステップ580で表示されたメニュー項目が、ショートカットボタン表示領域を有するものであるか否かを判断する。ショートカットボタン表示領域を有する場合はステップ600に進み、ショートカットボタン表示領域を有さない場合はステップ510に戻る。
ステップ600では、要求機能が要求機能記憶部33に記憶されており、その要求機能を表示するメニュー項目は、メニューのツリー構造において、前記ステップ580で表示されたメニュー項目の下位階層に属すること、という条件が充足されるか否かを判断する。この条件が充足される場合はステップ610に進み、この条件が充足されない場合はステップ510に戻る。
ステップ610では、ショートカットボタン作成部35により、前記ステップ600で記憶されていることを確認した要求機能に対応するショートカットボタンを作成する。
ステップ620では、ショートカットボタン表示部37により、前記ステップ610で作成したショートカットボタンを画面表示部15に表示する。
(2−2)前記(2―1)で説明した処理の具体例を、図13を用いて説明する。
本実施形態の制御装置1は、前記第2の実施形態と略同様の効果を奏することができる。さらに、本実施形態の制御装置1は、表示するメニュー項目の指定を音声で行うことができるので、操作が一層容易である。
(4−1)本変形例の制御装置1は、ショートカットボタンを表示するとともに、それに対応する要求機能を音声出力(トークバック)するようにしてもよい。例えば、「ラーメン店の目的地設定」のショートカットボタンを表示した場合、「ラーメン店の目的地設定でよいですか」とトークバックする。
また、制御装置1は、上記のトークバックを行った後、ユーザからの音声による回答が所定のもの(例えば、「はい」)である場合は、ショートカットボタンに対応する要求機能を実行する手段を備えていてもよい。
(4−2)本変形例の制御装置1は、図12で示す処理の代わりに、図14で示す処理を実行するものであってもよい。この図14の処理を説明する。
ステップ710では、音声認識開始スイッチ5cが押されたか否かを判断する。押されていないと判断した場合はステップ720に進み、押されたと判断した場合はステップ760に進む。
ステップ720では、マイクロフォン19から音声認識部29に入力された音声(会話、独り言)を受け付ける。
ステップ730では、音声認識部29にて、前記ステップ720で入力された音声を単語又は単語列に分解する。
ステップ740では、前記ステップ730で分解された単語又は単語列から、要求機能を決定できたか否かを判断する。すなわち、前記ステップ730で分解された単語又は単語列に関連づけられた要求機能が機器操作情報DB41に記憶されていれば、それを要求機能として決定し、ステップ750に進む。一方、前記ステップ730で分解された単語又は単語列に関連づけられた要求機能が機器操作情報DB41に記憶されていなければ、要求機能を決定できなかったと判断し、ステップ710に戻る。
ステップ750では、前記ステップ740で決定した要求機能を、要求機能記憶部33に記憶する。また、要求機能とともに、その要求機能を表示するメニュー項目のメニュー項目位置もあわせて記憶する。ステップ750が終了すると、ステップ790に進む。
一方、前記ステップ710にて、音声認識開始スイッチ5cが押されたと判断した場合はステップ760に進む。ステップ760では、前記ステップ720と同様に、マイクロフォン19から音声認識部29に入力された音声(会話、独り言)を受け付ける。
ステップ780では、画面表示部15に、前記ステップ770で決定されたメニュー項目を表示する。
ステップ790では、前記ステップ780で表示されたメニュー項目が、ショートカットボタン表示領域を有するものであるか否かを判断する。ショートカットボタン表示領域を有する場合はステップ800に進み、ショートカットボタン表示領域を有さない場合はステップ710に戻る。
ステップ800では、要求機能が要求機能記憶部33に記憶されており、その要求機能を表示するメニュー項目は、メニューのツリー構造において、前記ステップ780で表示されたメニュー項目の下位階層に属すること、という条件が充足されるか否かを判断する。この条件が充足される場合はステップ810に進み、この条件が充足されない場合はステップ710に戻る。
ステップ810では、ショートカットボタン作成部35により、前記ステップ800で記憶されていることを確認した要求機能に対応するショートカットボタンを作成する。
ステップ820では、ショートカットボタン表示部37により、前記ステップ810で作成したショートカットボタンを画面表示部15に表示する。
この変形例における処理の具体例を、図15を用いて説明する。
尚、本発明は前記実施の形態になんら限定されるものではなく、本発明を逸脱しない範囲において種々の態様で実施しうることはいうまでもない。
3b・・・ジャイロスコープ、3c・・・距離センサ、5・・・操作スイッチ群、
5a・・・操作開始ボタン、5b・・・メニュー操作ボタン、
5c・・・音声認識開始スイッチ、7・・・リモコン、9・・・リモコンセンサ、
11・・・通信装置、13・・・地図データ入力器、15・・・画面表示部、
17・・・音声出力装置、19・・・マイクロフォン、21・・・音声認識関連ユニット、
25・・・操作開始検出部、27・・・制御部、29・・・音声認識部、
31・・・要求機能決定部、33・・・要求機能記憶部、
35・・・ショートカットボタン作成部、37・・・ショートカットボタン表示部、
39・・・認識辞書、41・・・機器操作情報DB、43・・・メニュー項目決定部、
45・・・メニュー項目DB、M1〜M20・・・メニュー項目
Claims (3)
- ユーザの発話を音声認識し、認識した単語又は単語列を出力する音声認識手段と、
前記単語又は単語列に対応する要求機能を決定し、記憶する要求機能記憶手段と、
ユーザの所定の動作を検出する動作検出手段と、
前記動作検出手段が前記所定の動作を検出することを条件として、前記要求機能記憶手段が記憶している要求機能の実行を指示するショートカットボタンを画面上に表示するショートカットボタン表示手段と、
前記ショートカットボタンに対する操作があった場合、前記要求機能を実行するための制御を行う制御手段と、
を備えることを特徴とする制御装置。 - ツリー構造を構成する複数のメニュー項目から成り、各メニュー項目に前記要求機能を表示するメニューを記憶するメニュー記憶手段と、
ユーザのメニュー操作に応じて、所望のメニュー項目を表示するメニュー表示手段と、を備え、
前記ショートカットボタン表示手段は、(a)前記動作検出手段が、前記所定の動作として、前記メニュー操作を検出するという条件、及び、(b)前記要求機能記憶手段が記憶している要求機能が、前記メニュー表示手段により表示されたメニュー項目の下位階層に属するメニュー項目に表示される要求機能であるという条件が充足される場合に、前記要求機能記憶手段が記憶している要求機能の実行を指示するショートカットボタンを前記画面上に表示すること
を特徴とする請求項1記載の制御装置。 - 前記ユーザのメニュー操作とは、音声による特定のメニュー項目の指示であって、
前記メニュー表示手段は、音声による特定のメニュー項目の指示から、前記特定のメニュー項目を音声認識し、そのメニュー項目を表示すること
を特徴とする請求項2記載の制御装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009051990A JP2010205130A (ja) | 2009-03-05 | 2009-03-05 | 制御装置 |
US12/659,348 US20100229116A1 (en) | 2009-03-05 | 2010-03-04 | Control aparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009051990A JP2010205130A (ja) | 2009-03-05 | 2009-03-05 | 制御装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010205130A true JP2010205130A (ja) | 2010-09-16 |
Family
ID=42679346
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009051990A Pending JP2010205130A (ja) | 2009-03-05 | 2009-03-05 | 制御装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20100229116A1 (ja) |
JP (1) | JP2010205130A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012160843A1 (ja) * | 2011-05-20 | 2012-11-29 | 三菱電機株式会社 | 情報機器 |
JP2016019070A (ja) * | 2014-07-07 | 2016-02-01 | キヤノン株式会社 | 情報処理装置、表示制御方法、コンピュータプログラム、及び記録媒体 |
JP2017062652A (ja) * | 2015-09-25 | 2017-03-30 | 富士ゼロックス株式会社 | 情報処理装置、画像形成装置及びプログラム |
CN107110660A (zh) * | 2014-12-26 | 2017-08-29 | 三菱电机株式会社 | 语音识别系统 |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9110974B2 (en) * | 2012-09-10 | 2015-08-18 | Aradais Corporation | Display and navigation of structured electronic documents |
US9639322B2 (en) * | 2013-01-09 | 2017-05-02 | Mitsubishi Electric Corporation | Voice recognition device and display method |
WO2014188512A1 (ja) * | 2013-05-21 | 2014-11-27 | 三菱電機株式会社 | 音声認識装置、認識結果表示装置および表示方法 |
US9818405B2 (en) * | 2016-03-15 | 2017-11-14 | SAESTEK Ses ve Iletisim Bilgisayar Tekn. San. Ve Tic. A.S. | Dialog management system |
CN108491379A (zh) * | 2018-03-08 | 2018-09-04 | 平安科技(深圳)有限公司 | 快捷键识别方法、装置、设备以及计算机可读存储介质 |
CN111245690A (zh) * | 2020-01-20 | 2020-06-05 | 宁波智轩物联网科技有限公司 | 基于语音控制的快捷控制系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002175175A (ja) * | 2000-12-07 | 2002-06-21 | Sumitomo Electric Ind Ltd | 音声駆動可能なユーザインターフェイス |
JP2005332319A (ja) * | 2004-05-21 | 2005-12-02 | Nissan Motor Co Ltd | 入力装置 |
JP2005352943A (ja) * | 2004-06-14 | 2005-12-22 | Matsushita Electric Ind Co Ltd | 情報端末及び表示制御プログラム |
JP2008014818A (ja) * | 2006-07-06 | 2008-01-24 | Denso Corp | 作動制御装置、プログラム |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5907293A (en) * | 1996-05-30 | 1999-05-25 | Sun Microsystems, Inc. | System for displaying the characteristics, position, velocity and acceleration of nearby vehicles on a moving-map |
WO2002077975A1 (en) * | 2001-03-27 | 2002-10-03 | Koninklijke Philips Electronics N.V. | Method to select and send text messages with a mobile |
JP4311190B2 (ja) * | 2003-12-17 | 2009-08-12 | 株式会社デンソー | 車載機器用インターフェース |
CA2573002A1 (en) * | 2004-06-04 | 2005-12-22 | Benjamin Firooz Ghassabian | Systems to enhance data entry in mobile and fixed environment |
CN102938803B (zh) * | 2004-06-22 | 2015-10-28 | 语音信号技术公司 | 在移动装置上实现关于运营商业务的至少一个功能的方法 |
US8467506B2 (en) * | 2005-04-21 | 2013-06-18 | The Invention Science Fund I, Llc | Systems and methods for structured voice interaction facilitated by data channel |
US7818671B2 (en) * | 2005-08-29 | 2010-10-19 | Microsoft Corporation | Virtual navigation of menus |
US20080153465A1 (en) * | 2006-12-26 | 2008-06-26 | Voice Signal Technologies, Inc. | Voice search-enabled mobile device |
US7881938B2 (en) * | 2007-03-27 | 2011-02-01 | Nuance Communications, Inc. | Speech bookmarks in a voice user interface using a speech recognition engine and acoustically generated baseforms |
US8538757B2 (en) * | 2007-05-17 | 2013-09-17 | Redstart Systems, Inc. | System and method of a list commands utility for a speech recognition command system |
CA2708073A1 (en) * | 2007-12-10 | 2009-06-18 | E-Lane Systems Inc. | Vehicle communication system with destination selection for navigation |
US8099289B2 (en) * | 2008-02-13 | 2012-01-17 | Sensory, Inc. | Voice interface and search for electronic devices including bluetooth headsets and remote systems |
US8494140B2 (en) * | 2008-10-30 | 2013-07-23 | Centurylink Intellectual Property Llc | System and method for voice activated provisioning of telecommunication services |
US8643467B2 (en) * | 2009-01-02 | 2014-02-04 | Johnson Controls Technology Company | System and method for causing garage door opener to open garage door using sensor input |
-
2009
- 2009-03-05 JP JP2009051990A patent/JP2010205130A/ja active Pending
-
2010
- 2010-03-04 US US12/659,348 patent/US20100229116A1/en not_active Abandoned
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002175175A (ja) * | 2000-12-07 | 2002-06-21 | Sumitomo Electric Ind Ltd | 音声駆動可能なユーザインターフェイス |
JP2005332319A (ja) * | 2004-05-21 | 2005-12-02 | Nissan Motor Co Ltd | 入力装置 |
JP2005352943A (ja) * | 2004-06-14 | 2005-12-22 | Matsushita Electric Ind Co Ltd | 情報端末及び表示制御プログラム |
JP2008014818A (ja) * | 2006-07-06 | 2008-01-24 | Denso Corp | 作動制御装置、プログラム |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012160843A1 (ja) * | 2011-05-20 | 2012-11-29 | 三菱電機株式会社 | 情報機器 |
JP5705312B2 (ja) * | 2011-05-20 | 2015-04-22 | 三菱電機株式会社 | 情報機器 |
JP2016019070A (ja) * | 2014-07-07 | 2016-02-01 | キヤノン株式会社 | 情報処理装置、表示制御方法、コンピュータプログラム、及び記録媒体 |
CN107110660A (zh) * | 2014-12-26 | 2017-08-29 | 三菱电机株式会社 | 语音识别系统 |
JP2017062652A (ja) * | 2015-09-25 | 2017-03-30 | 富士ゼロックス株式会社 | 情報処理装置、画像形成装置及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20100229116A1 (en) | 2010-09-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2010205130A (ja) | 制御装置 | |
JP4736982B2 (ja) | 作動制御装置、プログラム | |
JP5463922B2 (ja) | 車載機 | |
KR102000267B1 (ko) | 컨텍스트에 기초한 입력 명확화 | |
JP5762660B2 (ja) | 音声認識装置、認識結果表示装置および表示方法 | |
JP5677650B2 (ja) | 音声認識装置 | |
JP2010127781A (ja) | 車載装置および同装置を有する車載システム | |
JP2008134079A (ja) | ナビゲーション装置及び施設画像表示方法 | |
US8145487B2 (en) | Voice recognition apparatus and navigation apparatus | |
EP2696560B1 (en) | Wireless communication terminal and operating system | |
JP2013101535A (ja) | 情報検索装置および情報検索方法 | |
JP2005214630A (ja) | 通信型ナビゲーション装置 | |
JP2008134308A (ja) | 施設検索装置 | |
JP2011185667A (ja) | ナビゲーション装置、プログラムおよび表示方法 | |
JP2008045968A (ja) | 車載情報端末 | |
JP2002281145A (ja) | 電話番号入力装置 | |
JP3841661B2 (ja) | ナビゲーションシステム、およびナビゲーション装置、並びに携帯電話機 | |
JP4113698B2 (ja) | 入力装置、プログラム | |
US20150192425A1 (en) | Facility search apparatus and facility search method | |
JP2008027035A (ja) | 車載装置 | |
JP2013054000A (ja) | ナビゲーション装置、ヘルプ情報表示方法 | |
JP4767263B2 (ja) | 地図データ表示装置及び表示制御方法 | |
JP2020060571A (ja) | システム及びプログラム | |
JP4458071B2 (ja) | 入力装置およびプログラム | |
JP2005114521A (ja) | 車載音声認識システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100622 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110114 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110118 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110317 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110712 |