JP4113698B2 - Input device, program - Google Patents

Input device, program Download PDF

Info

Publication number
JP4113698B2
JP4113698B2 JP2001322137A JP2001322137A JP4113698B2 JP 4113698 B2 JP4113698 B2 JP 4113698B2 JP 2001322137 A JP2001322137 A JP 2001322137A JP 2001322137 A JP2001322137 A JP 2001322137A JP 4113698 B2 JP4113698 B2 JP 4113698B2
Authority
JP
Japan
Prior art keywords
input
function
input device
display
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001322137A
Other languages
Japanese (ja)
Other versions
JP2003122393A (en
Inventor
邦雄 横井
一郎 赤堀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2001322137A priority Critical patent/JP4113698B2/en
Publication of JP2003122393A publication Critical patent/JP2003122393A/en
Application granted granted Critical
Publication of JP4113698B2 publication Critical patent/JP4113698B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Description

【0001】
【発明の属する技術分野】
機器の操作を音声を用いて行う入力装置等に関する。
【0002】
【従来の技術及び発明が解決しようとする課題】
近年、機器の操作などに音声認識を用いる例が増えてきている。このような機器では音声の認識結果に応じて実行する処理を変えるなどして、認識結果に応じた機能を実現しており、例えば複雑な機器の操作を所定の認識語彙に割り当てるなどしてユーザが容易に機器を操作できるようにしている。
【0003】
しかしながら、音声認識で機器を操作しようとすると、誤認識が発生しやすいといった問題がある。例えば、「〜オン」「〜オフ」といった機器の機能のオンオフを切り替える操作指示を音声で与える場合、「オン」という語彙と「オフ」という語彙とは末尾の音のみが相違するだけのため、誤認識する可能性が高い。
【0004】
また、各機能毎に操作指示をするための語彙を割り当てると、機能が複雑化するにつれ、操作に必要な語彙が増え、ユーザが実現したい機能に対応する語彙が何であったかを思い出すことができず、所望の機能を実現できないといった事態が発生する。
【0005】
かといって、音声認識によらず各機能を実現させるためのスイッチ等の入力装置からの入力に応じてユーザの希望する機能を実現させようとすると、各機能に対応する多数のスイッチを設置する必要が生じ、多くの設置スペースが必要となるとともに、ユーザがどのスイッチによってどの機能が実現されるのかが分かりにくくなるといった問題があった。
【0006】
そこで本発明は、音声認識による操作の容易さを保ちつつ、さらに容易にユーザの意図に沿った操作指示の入力が可能な入力装置等を提供することを目的とする。
【0007】
【課題を解決するための手段及び発明の効果】
上述した問題点を解決するためになされた請求項1に記載の入力装置によれば、音声の認識結果に基づいて、実行手段の状態(例えば、地図の縮尺を調整する状態、音量の設定を行う状態等)に応じた、入力手段と機能(地図の縮小、地図の拡大等)との関係が選択される。つまり、例えばユーザが「しゅくしゃく」と発話することにより「地図の縮小」「地図の拡大」という機能が各入力手段に割り当てられる。そして、現在の実行手段の状態が表示によって報知されると共に、各入力手段が操作されることによって実行される機能も表示によって報知される。そして、さらに、これらの表示は、入力手段が所定時間以上、操作されない場合には、これらの表示(状態を示す表示と機能を示す表示)は、時間差をもたせて消去されるようになっている。すなわち、何れの入力手段も操作信号を所定時間以上入力しなかった場合には、制御手段が、報知手段に表示した前記機能を示す情報を先に消去した後に、状態を示す情報を消去し、報知手段に、機能を示す情報と状態を示す情報が表示される前に表示されていた内容を表示させる。
【0008】
したがって、このようにすることで、機能を示す表示がなされる前に表示されていた内容や、別の内容を表示させることができる。例えば地図表示装置であれば、音声認識結果に基づいて入力手段に割り当てられた機能に関する情報が地図上に表示されるのであるが、この表示は一定時間経過後に消去されるので、再び地図全体を見ることができる。そしてその上、状態を示す表示と機能を示す表示が消去される時間には差があるので、例えば、地図表示装置であれば「地図の拡大」「地図の縮小」といった各入力部の機能の表示が先に消去され、後から「縮尺」といった全体内容を示す表示が消去される。つまり、比較的重要度の低い表示の方を早く消去し、比較的重要度の高い表示を後から消去することができ、結果として、ユーザの使い勝手を維持しつつ、本来表示させたい情報(例えば、地図)をユーザへ十分に提示することができる。
【0009】
ところで、請求項2に示すように、認識した機能を実現してから、報知を行うようになっていてもよい。例えば「しゅくしょう」という音声が入力された場合に、地図を縮小する機能を実現した上で、入力手段に機能を割り当て、「地図の縮小」「地図の拡大」のボタン等を表示する。このようにすることで、所望の機能を実現した後、入力手段を操作することにより、連続してその機能を実現させたり、その機能と逆の操作を行って機能の実行を実質的に取り消すことを容易に行える。音声認識では、誤認識が発生する可能性があるが、このようにすれば容易に実行結果を元に戻すことができる。
【0010】
また、請求項3に示すように、実行手段が実行した結果をさらに報知するようになっていてもよい。このようになっていれば、ユーザは操作手段を操作した結果を容易に知ることができる。
【0011】
また、請求項4に示すように、報知手段は、実行手段が現在の状態において実行可能な各機能に関する情報を、複数の入力手段同士の設置位置の関係に対応した位置に表示するようになっていてもよい。このようにすれば、ユーザはどの入力部にどの機能が割り当てられているのかを表示手段を見て容易に確認することができる。例えば、上下にボタンが2つ並んでいる場合には、その並んだボタンの位置関係に対応して、上側のボタンが機能A、下側のボタンが機能Bといった図を表示したり、その旨の音声を出力する。
【0012】
また、例えば4個のボタンに2個の機能を割り当てる場合のように、入力手段の数より入力部に割り当てる機能の数が少ない場合には、機能を割り当てない入力手段を設けてもよいが、隣接する複数の入力手段に同一の機能を割り当てるとよい。このようになっていれば、ユーザは同一の機能が割り当てられた何れの入力手段を操作してもよいため、ユーザの利便性が向上する。
【0013】
また、請求項に示すように、上述した入力手段と機能との対応関係は、ユーザが登録可能に構成するとよい。このようにすれば、さらにユーザの意図に沿った入力を容易に行うことができる。
【0014】
また、入力手段側からも入力可能な旨を報知してやるとよい。このようにすれば、入力手段を直接見ることによって入力可能か否かが分かる。さらに各入力手段に対してそれぞれ割り当てられた機能を表示するようにしてもよい。
【0015】
さらに、請求項に示すように、こうした複数の機能を割り当て可能な汎用的な入力手段とは別の、入力に伴い特定の機能が実現される特定入力手段をユーザが認識可能なように報知してもよい。例えば、「温度」と音声で入力された場合には、エアコンの温度の上げ下げのボタンに設けられたランプなどを点灯させてもよい。
【0016】
また、請求項に示すように入力手段が二段階の入力が可能なものであれば、ユーザによって入力手段に対する一段階目の入力がなされた際に、実行手段によって実行される当該入力手段に対応する機能に関する情報を表示し、ユーザによって入力手段に対する二段階目の入力がなされた際に、当該入力手段に対応する機能を実行手段に実行させるようにしてもよい。例えば、入力手段が、触った場合と押した場合とを検出可能なスイッチであれば、触ったことが検出された場合に当該入力手段に割り当てられた機能に関する表示を行うようにし、押したことが検出された場合に、機能に関する処理を実行する。
【0017】
なお、請求項に示すように、請求項1〜9のいずれかに記載の入力装置における制御手段としての機能をコンピュータに実行させるプログラムによって構成してもよい。このようなプログラムの場合、例えば、フレキシブルディスク、光磁気ディスク、CD−ROM、ハードディスク、ROM、RAM等のコンピュータ読み取り可能な記録媒体に記録し、必要に応じてコンピュータシステムにロードして起動することにより用いることができ、また、ネットワークを介してロードして起動することにより用いることもできる。
【0031】
【発明の実施の形態】
以下、本発明が適用された実施例について図面を用いて説明する。なお、本発明の実施の形態は、下記の実施例に何ら限定されることなく、本発明の技術的範囲に属する限り種々の形態を採りうることは言うまでもない。
【0032】
図1は実施例のナビゲーション装置1の構成を示すブロック図である。ナビゲーション装置1は、車両の現在位置を検出する位置検出器21と、ユーザーからの各種指示を入力するための操作スイッチ群22と、操作スイッチ群22と同様に各種指示を入力可能なリモートコントロール端末(以下、リモコンと称す。)23aと、リモコン23aからの信号を入力するリモコンセンサ23bと、外部情報入出力装置24と、地図データや各種の情報を記録した外部記憶媒体から地図データ等を入力する地図データ入力器25と、地図表示画面やTV画面等の各種表示を行うための表示装置26と、各種のガイド音声等を出力するための音声出力装置27と、各種のデータを記憶するための外部メモリ28と、ステアリングホイールの近傍に取り付けられた複数のボタンから構成された汎用スイッチ群30と、音声認識のための音声を入力するマイクを備えた音声入力装置31と、上述した位置検出器21,操作スイッチ群22,リモコン23a,外部情報入出力装置24,地図データ入力器25,外部メモリ28、汎用スイッチ群30、音声入力装置31からの入力に応じて各種処理を実行し、位置検出器21,操作スイッチ群22,リモコンセンサ23b,外部情報入出力装置24,地図データ入力器25,表示装置26,音声出力装置27,外部メモリ28、汎用スイッチ群30、音声入力装置31を制御する制御回路29とを備えている。
【0033】
また、制御回路29は、車内LAN40へデータを送信する機能及び車内LAN40からデータを受信する機能を備える。そしてこの車内LAN40には、エアコン41、オーディオ42、ボデー制御装置(ボデーECU)43等の各種の車載機器が接続されており、これら車内LAN40に接続された機器は、車内LAN40に他の機器から送信されたコマンドを受信し、そのコマンドに従った制御を行う。また、制御回路29は、これらの機器の状態を車内LAN40を介して得ることができる。
【0034】
位置検出器21は、GPS(Global Positioning System)用の人工衛星からの送信電波をGPSアンテナを介して受信し、車両の位置,方位,速度等を検出するGPS受信機21aと、車両に加えられる回転運動の大きさを検出するジャイロスコープ21bと、車両の前後方向の加速度等から走行した距離を検出するための距離センサ21cと、地磁気から進行方位を検出するための地磁気センサ21dとを備えている。そして、これら各センサ等21a〜21dは、各々が性質の異なる誤差を有しているため、互いに補完しながら使用するように構成されている。なお、精度によっては、上述したうちの一部のセンサで構成してもよく、またステアリングの回転センサや各転動輪の車輪センサ等を用いてもよい。
【0035】
操作スイッチ群22としては、表示装置26と一体に構成され、表示画面上に設置されるタッチパネル及び表示装置26の周囲に設けられたメカニカルなキースイッチ等が用いられる。なおタッチパネルと表示装置26とは積層一体化されており、タッチパネルには、感圧方式,電磁誘導方式,静電容量方式,あるいはこれらを組み合わせた方式など各種の方式があるが、そのいずれを用いてもよい。
【0036】
外部情報入出力装置24は、図示しないラジオアンテナを介してFM放送信号を受信したり、道路近傍に配置されたVICS(Vehicle Information and Communication System:道路交通情報システム)サービス用の固定局から、電波ビーコン信号及び光ビーコン信号を受信する。この受信した情報は制御回路29へ送られて処理される。また、図示しない携帯電話と接続され、情報センターから情報を取得したり、インターネットに接続しインターネット上のサーバから情報を取得する機能を備える。
【0037】
地図データ入力器25は、位置特定の精度向上のためのいわゆるマップマッチング用データ、地図データ、マークデータを含む各種データを入力するための装置である。これらのデータの記録媒体としては、そのデータ量からCD−ROMやDVDを用いるのが一般的であるが、ハードディスクなどの磁気記憶装置やメモリカード等の他の媒体を用いても良い。
【0038】
地図データ中の道路データ(道路情報に相当する)は、交差点等の複数のノード間をリンクにより接続して地図を構成したものであって、それぞれのリンクに対し、リンクを特定する固有番号(リンクID)、リンクの長さを示すリンク長、リンクの始端と終端とのx,y座標、リンクの道路幅、および道路種別(有料道路等の道路情報を示すもの)、道路を特定するための道路ID(例えば国道○号線のような道路を特定する情報)のデータからなるリンク情報を備える。また地図データ中には、地名情報、交通情報、施設情報がその座標(x,y座標)とともに記憶されている。
【0039】
表示装置26は、カラー表示装置であり、液晶ディスプレイ,プラズマディスプレイ,CRTなどがあるが、そのいずれを用いてもよい。表示装置26の表示画面には、位置検出器21にて検出した車両の現在位置と地図データ入力器25より入力された地図データとから特定した現在地を示すマーク、目的地までの誘導経路、名称、目印、各種施設のマーク等の付加データとを重ねて表示することができる。また、施設のガイド等も表示できる。そして、音声出力装置27は、地図データ入力器25より入力した施設のガイドや各種案内の音声や、外部情報入出力装置24を介して取得した情報の読み上げ音声を出力することができる。
【0040】
制御回路29は、CPU,ROM,RAM,I/O及びこれらの構成を接続するバスラインなどからなる周知のマイクロコンピュータを中心に構成されており、ROM及びRAMに記憶されたプログラムに基づいて、位置検出器21からの各検出信号に基づき座標及び進行方向の組として車両の現在位置を算出し、地図データ入力器25を介して読み込んだ現在位置付近の地図等を表示装置26に表示する地図表示処理や、地図データ入力器25に格納された地点データに基づき、操作スイッチ群22やリモコン23a等の操作に従って目的地となる施設を選択し、現在位置から目的地までの最適な経路を自動的に求める経路計算を行って経路案内を行う経路案内処理を行う。このように自動的に最適な経路を設定する手法は、ダイクストラ法等の手法が知られている。
【0041】
また制御回路29は音声入力装置31から入力された音声信号をA/D変換し、音声データを得て、この音声データの特徴量が予め設定された認識語彙に一致するか否かを判定し、一致する場合には、認識語彙に対応する処理を実行する。制御回路29は、こうした音声の認識結果に基づいて汎用スイッチ群30に機能を割り当て、割り当てた機能を表示装置26に表示する。そして、汎用スイッチ群30からの入力を待ち、入力が検出された場合にはその内容に基づいてその機能に関する処理を実行する。この入力処理の流れを図2のフローチャートを参照して説明する。
【0042】
図2のS110では、音声入力装置31から音声の入力を行う。S120では、入力した音声の認識を行い、認識結果が、例えば「縮尺」「画面設定」のように汎用スイッチ群30に機能を割り当てるべき語彙であるか否かを判断する。そして汎用スイッチ群30に機能を割り当てるべき語彙である場合には、S130で汎用スイッチ群30に割り当てる機能を、認識語彙に対応する機能に変更する。
【0043】
そして、S140では、S130で汎用スイッチ群30に対して割り当てた機能を、その汎用スイッチ群30の各スイッチの位置関係に対応付けて表示する。汎用スイッチ群30からの入力を検出した場合には(S150:YES)、入力の検出されたスイッチに割り当てた機能を実行する(S160)。このようにして、音声認識とスイッチ操作の組み合わせによって容易に操作することができる。
【0044】
例えば、ユーザが地図表示状態で「しゅくしゃく」と発話した場合に、S110でこの音声を入力し、S120で認識する。そしてS130で、認識語彙「しゅくしゃく」に対応する機能として縮尺を拡大する機能と縮尺を縮小する機能とを、それぞれ汎用スイッチ群30へ割り当てる。すなわち汎用スイッチ群30が図3(a)右側に示すように上下に設置された2つのスイッチ30a,30bからなる場合には、例えばスイッチ30aに対して縮尺を広域に変更する機能、スイッチ30bに対して縮尺を詳細に変更する機能を割り当てる。そしてS140では、S130で割り当てた割り当てた機能について、その機能の全体内容を示す情報である「縮尺」を図3(a)の機能表示52に示すように地図60(地図の内容は図示していない)に重ねて表示装置26へ表示する。さらにS140では、S130で割り当てた機能とスイッチの位置関係に対応させて、図3(a)に示すように汎用スイッチ群30の形状を模したスイッチ群表示54を地図60に重ねて表示装置26に表示し、各スイッチ30a、30bの位置関係に対応させてスイッチ表示54a,54bを地図60に重ねて表示装置26に表示する。なお、図3(a)では各スイッチ30a、30bの機能を上下の矢印で模式的に表示しているが、例えばスイッチ表示54aには「広域」、スイッチ表示54bには「詳細」といった文字を表示してもよい。また、表示した内容は音声出力装置27から音声として出力してもよい。
【0045】
このようにして、ユーザは縮尺を変更するメニューを表示させるコマンドである「しゅくしゃく」を発話した後、表示された機能表示52や、スイッチの位置関係に対応づけて表示されたスイッチ表示54a,54bを見ることで、音声の認識が正しく行われたかを確認することができる。
【0046】
さらに、図3(a)の状態で、スイッチ30aが押下されたことを検出した場合には(図2のS150:YES)、地図60の縮尺を広域に変更する処理を実行する(S160)。また、スイッチ30bが押下されたことを検出した場合には(S150:YES)、地図60の縮尺を詳細に変更する処理を実行する(S160)。
【0047】
このようにして、音声の発話と汎用スイッチの押下によって地図の縮尺を容易に変更することができる。
従来のナビゲーション装置では、地図の縮尺を変更する場合には、例えば「しょうさい、しょうさい、しょうさい」と所望の縮尺になるまでコマンドを連続して発話する必要があり、こうした操作量を音声で入力するのは非常に手間がかかっていた。また従来から例えば「いちまんぶんのいちすけーる」といったように、絶対値に設定するコマンドで指定することは可能であったが、このスケールがどの程度の縮尺なのか、また、このコマンドが何であったかを覚えておくことが困難であり、結局利用されないといった問題があった。
【0048】
上述したように、音声認識によって縮尺が設定可能な状態に容易に遷移させることができ、かつ、さらにそこから汎用スイッチ群30の操作で操作量を調整可能とすることで、従来と比べ、容易かつ安全に操作量の調整を行うことができる。
【0049】
なお、このような操作量としては種々のものがあり、例えば表示装置26の明るさ、音声出力装置27・オーディオ42等の音量、エアコン41の風量や温度、ボデーECU43に接続されたパワーウィンドウの開閉量などを制御できる。そして、図3(a)のスイッチ表示54aには「広域」、スイッチ表示54bには「詳細」といった文字を表示することとし、音声認識のコマンドもこの表示に合わせて「こういき」「しょうさい」を割り当てるとよい。このようにスイッチ表示54a,54bと音声認識のコマンドとを同一の内容とすれば、ユーザは詳細なコマンドを覚える必要がなく「しゅくしゃく」と発話するだけで、次に発話すべきコマンドを知ることができる。したがって、音声でコマンドを入力することも容易にできるようになる。
【0050】
また図2のS130で汎用スイッチ群30に割り当てる機能としては、操作量を変更する機能だけでなく種々の機能を割り当てることができる。また、汎用スイッチ群30は、任意の構成とすることができる。
例えば汎用スイッチ群30を図3(b)右側に示すように、スイッチ30a〜30dで構成した場合であって、ユーザからの「がめんせってい」という語彙が認識された場合には、図3(b)左側に示すように、機能全体を示す「画面設定」という機能表示52を表示し、図3(b)のように各スイッチ30a〜30dの位置関係に対応付けてその機能を示すスイッチ表示54a〜54dを表示する。そして、スイッチ30aの押下を検出した場合には3D表示に地図60の表示を変更する処理を実行し、スイッチ30bの押下を検出した場合には2D表示に地図60の表示を変更する処理を実行し、スイッチ30cの押下を検出した場合にはノースアップ表示に地図60の表示をする処理を実行し、スイッチ30dの押下を検出した場合にはヘディングアップ表示に地図60の表示を変更する処理を実行する。
【0051】
また、図3(c)に示すように、汎用スイッチ群30が4個のスイッチ30a〜30dで構成される一方、割り当てるべき機能が前述した縮尺の場合のように、スイッチ表示54aの「広域」とスイッチ表示54bの「詳細」の2つだけの場合、例えばスイッチ30aに対して縮尺を広域に変更する機能、スイッチ30bに対して縮尺を詳細に変更する機能を割り当ててもよいし、スイッチ30a及びスイッチ30cに対して縮尺を広域に変更する機能、スイッチ30b及びスイッチ30dに対して縮尺を詳細に変更する機能を割り当ててもよい。このように複数の入力部に同一の機能をその位置関係に対応させて割り当てることで誤操作を防止することができる。
【0052】
また、例えば認識語彙「じたくへかえる」を認識した場合には、図4(a)に示すように、「自宅を目的地にします」という機能表示52を表示し、「決定」と「キャンセル」の機能を汎用スイッチ群30に割り当て、その割り当てに対応付けてスイッチ表示54a,54bを行う。従来は、「じたくへかえる」という語彙が認識された場合には、予め設定された自宅地点に対する経路案内をすぐに実行していたが、このように認識結果を表示装置に表示して、汎用スイッチ群30から「決定」「キャンセル」の指示を入力するようにすることで、指示の取り消しが容易にできる。
【0053】
また、例えば認識語彙「おーでぃお」を認識した場合には、図4(b)に示すように、「オーディオの電源」という機能表示52を表示し、「ON」と「OFF」の機能を汎用スイッチ群30に割り当て、その割り当てに対応付けてスイッチ表示54a,54bを行う。従来は、「オーディオオン」「オーディオオフ」という語彙を認識し、対応する処理を実行していたが、「オン」と「オフ」は語尾の特徴量が異なるだけであり、認識が難しいにもかかわらず、オンとオフは逆の意味を持ち、一旦処理を開始すると取り消しが困難になる。しかし、このように認識結果を表示装置26に表示して、汎用スイッチ群30から「オン」「オフ」の指示を入力するようにすることで、指示を確実かつ容易に入力できる。このように取り消しが困難な処理としては、他に例えば設定の変更などがある。
【0054】
また、例えば住所を音声で入力する場合、「あいちけんかりやししょうわちょう」というユーザの発話に対する認識結果を、「愛知県刈谷市昭栄町」と誤認識した場合、表示装置26の表示は図4(c)に示すようになる。このとき「次の候補」と「決定」の機能を汎用スイッチ群30に割り当て、その割り当てに対応付けてスイッチ表示54a,54bを行う。そして例えばスイッチ30aの押下を検出した場合、次の候補である「愛知県刈谷市昭和町」を表示する。従来は、このような誤認識が発生した場合、ユーザは、自己が発話した住所が表示されるまで「つぎのこうほ」と発話して候補を表示させる必要があったが、このようにすることで汎用スイッチ群30から容易に正しい住所を入力できる。
【0055】
また、例えば電話番号を音声認識で入力する場合、ユーザの発話に対する認識結果を、図4(d)に示すように「0561751234」と表示装置26へ表示し、「消去」と「確定」の機能を汎用スイッチ群30に割り当て、その割り当てに対応付けてスイッチ表示54a,54bを行う。例えばスイッチ30aの押下を検出した場合、一番右の数字を消去し、スイッチ30cの押下を検出した場合、入力内容を確定する。このような数字や文字の入力は、従来はユーザが発話した内容と認識結果が異なる場合「いちもじさくじょ」のような語彙を認識した場合に文字の消去を行っていた。また数字や文字の認識はそもそも認識精度を高めるのが難しく誤認識しやすい。そのため、認識された内容を訂正する必要が生じる可能性が高い。このように汎用スイッチ群30に機能を割り当てその内容を表示することで、容易に数字や文字の入力ができる。
【0056】
また、表示装置26に地図60が2画面で表示されている場合に、縮尺を変更しようとする場合、従来は「みぎがめんしょうさい」のようにどちらの画面に対する指示かを修飾語を付けて指定していた。しかし、例えば2画面表示の状態で「しゅくしゃく」という音声が認識された場合に、図5(a)に示すようにスイッチ30aに対して左画面の縮尺を広域に変更する機能、スイッチ30bに対して左画面の縮尺を詳細に変更する機能を割り当て、スイッチ30cに対して右画面の縮尺を広域に変更する機能、スイッチ30dに対して右画面の縮尺を詳細に変更する機能を割り当て、各々のスイッチに対応させてスイッチ表示54a〜54dを表示させる。このようにすれば、汎用スイッチ群30から容易に所望の画面の縮尺を変更できる。このように、機能が複雑になるにつれて音声認識の認識語彙が増え、認識率が低下したり、ユーザの操作が困難になるといった問題を軽減することができる。なお汎用スイッチ群30は例えば図5(b)のように縦横3×3個のスイッチによって構成し、図5(b)に示すように機能を割り当ててもよい。
【0057】
また、図2のフローチャートに示して説明した処理を、図6に示すように変更してもよい。すなわち図2のS150に代えて、S153、S155の処理を行う。すなわち、例えばS140で汎用スイッチ群30に割り当てた機能について、その機能の全体内容を示す情報である「縮尺」を図7(a)の機能表示52に示すように表示し、S130で割り当てた機能とスイッチの位置関係に対応させて、図7(a)に示すように各スイッチ30a、30bの位置関係に対応させてスイッチ群表示54とスイッチ表示54a,54bを表示した後、図6のS153で、汎用スイッチ群30からの操作入力を待つ。そして、入力があった場合には図3のフローと同様にその入力されたスイッチに割り当てた機能を実行する。一方、S153で操作入力が所定時間T秒以上(例えば5秒以上)入力がない場合には、S155へ移行して、図7(c)に示すように汎用スイッチ群30に割り当てた機能の表示である機能表示52とスイッチ群表示54とスイッチ表示54a,54bを消去する。このようにすることで所定時間T秒以上入力がない場合に元の地図60を画面全体に表示することができる。なお、例えば、機能表示52と、スイッチ群表示54・スイッチ表示54a,54bとの消去時間に差を設け、T1秒経過した際に図7(b)に示すようにスイッチ群表示54・スイッチ表示54a,54bを消去し、さらにその時点からT2秒経過した際に図7(c)に示すように機能表示52を消去するようにしてもよい。
【0058】
また、図8に示すように図6のフローにさらにS135の処理を加えてもよい。すなわち、S130で汎用スイッチ群に機能を割り当てた後、S120での認識結果に基づいて機能を実行してから、S140で汎用スイッチ群30に割り当てた機能を表示する。例えば、「こういき」という音声が認識された場合、地図60を一段階広域にする機能を実行してから、汎用スイッチ群30に割り当てた機能を表示する。このようにすることで、すぐにユーザの希望する機能を実行することができる。また、連続して地図の表示を広域にする機能を実行させることができ、また逆に地図の表示を詳細にする機能を実行させることが容易にできる。つまり音声認識による機能の実行を実質的に取り消すことが極めて簡単にできる。音声認識では、誤認識が発生する可能性があるが、このようにすれば実行した内容も容易に取り消すことができる。
【0059】
こうした音声認識による認識結果と機能内容とその機能内容に含まれる各入力部への機能の割り当ては、制御回路29や外部メモリ28に記憶されており、この記憶された対応関係に基づいて、図2のS130で汎用スイッチ群30に機能を割り当て、S140で対応する表示を行う。そして、こうした対応関係は、ユーザがリモコン23a等から予め登録可能に構成されている。したがって、例えば図3(b)の各スイッチへの機能の割り当てを任意にユーザが設定することができる。このようにすることでさらにユーザの意図に沿った入力が可能となる。
【0060】
また、汎用スイッチ群30の各々のスイッチにランプや液晶パネル等を取り付け、各スイッチからその機能の割り当てがあった旨をランプの点灯や点滅で報知したり、液晶パネルに機能の内容を文字や記号で表示して報知してもよい。こうすることでユーザは汎用スイッチ群30を直接見ることによって入力可能か否かや各スイッチに割り当てられた機能を知ることができる。
【0061】
さらに、こうした複数の機能を割り当て可能な汎用スイッチ群30とは別の、例えば、エアコン41の温度調節ボタンのように入力に伴い特定の機能(温度調節)が実現される入力装置を認識可能なように報知してもよい。例えば、「温度」と音声で入力された場合には、表示装置26上にエアコン31の温度調整のスイッチを模した図を表示させてもよいし、エアコン41の温度調節ボタンを点灯させてもよい。もちろんその双方を行ってもよい。
【0062】
また、汎用スイッチ群30が多段階の入力が可能なものであれば、その操作段階に応じて表示状態を変化させるようにしてもよい。例えば、汎用スイッチ群30が、触った場合と押した場合とを検出可能なスイッチであれば、触ったことが検出された場合に各スイッチに割り当てられた機能に関するを表示して、押したことが検出された場合に、機能に関する処理を実行するようにする。
【0063】
また、例えば操作量を調整する機能を汎用スイッチ群30へ割り当てた場合、図9に示すように現在の操作量を表示するようにしてもよい。このようにすれば現在の操作量の設定を参照しながら汎用スイッチ群30を用いて容易に操作量を調整することができる。例えば図9のように表示すれば温度の現在値を知ることができ、調整が容易にできる。
【0064】
また、スイッチを単にオンかオフかの判断ができるだけのスイッチとし、オンオフ情報を赤外線などで、制御回路29へ送ることにより、スイッチを小さくし、ステアリングなどへの搭載性を良くすることができる。
なお本実施例では、入力装置としてナビゲーション装置1を例として説明したが、例えば、その他の車載機器、家電製品、その他種々の機器として実現することができる。
【0065】
また、本発明の入力装置をリモコンとして実現し、例えば送信コードを規格化すれば、本入力装置に実行機能を有しなくても他社等のさまざまな機器を操作することができる。例えば、ステアリングなどへこうした入力装置を取り付けて各種の車載機器を操作することもできるし、汎用のリモコンとして構成して種々の機器を操作することもできる。
【0066】
なお本実施例において、音声入力装置27及び制御回路29が認識手段に相当しスイッチ30a〜30dが入力手段に相当する。また、制御回路29が制御手段に相当し、表示装置26・音声出力装置27が報知手段に相当する。汎用スイッチ群30に設けたランプや液晶パネルが入力手段側報知手段に相当し、エアコン41の温度調節ボタンが特定の機能を実現するための特定入力手段に相当する。
【図面の簡単な説明】
【図1】実施例の入力装置としてのナビゲーション装置の構成を示すブロック図である。
【図2】入力処理の流れを示すフローチャートである。
【図3】汎用スイッチ群の構成と汎用スイッチ群に割り当てた機能の表示例を示す説明図である。
【図4】汎用スイッチ群の構成と汎用スイッチ群に割り当てた機能の表示例を示す説明図である。
【図5】汎用スイッチ群の構成と汎用スイッチ群に割り当てた機能の表示例を示す説明図である。
【図6】汎用スイッチ群に割り当てた機能の表示を所定時間後に消去する場合のフローチャートである。
【図7】汎用スイッチ群に割り当てた機能の表示を消去する場合の表示例を示す説明図である。
【図8】音声認識の結果に基づいて機能を実行した後に汎用スイッチ群に割り当てた機能の表示を行う場合のフローチャートである。
【図9】汎用スイッチ群に割り当てた機能とともに現在の操作量を表示した表示例を示す説明図である。
【符号の説明】
1…ナビゲーション装置
21…位置検出器
21a…GPS受信機
21b…ジャイロスコープ
21c…距離センサ
21d…地磁気センサ
22…操作スイッチ群
23a…リモコン
23b…リモコンセンサ
24…外部情報入出力装置
25…地図データ入力器
26…表示装置
27…音声出力装置
28…外部メモリ
29…制御回路
30…汎用スイッチ群
30a,30b,30c,30d…スイッチ
31…音声入力装置
41…エアコン
42…オーディオ
52…機能表示
54…スイッチ群表示
54a,54b,54c,54d…スイッチ表示
60…地図
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an input device or the like for operating a device using voice.
[0002]
[Prior art and problems to be solved by the invention]
In recent years, there have been an increasing number of cases where voice recognition is used for device operations and the like. Such a device implements a function according to the recognition result by changing processing to be executed according to the speech recognition result. For example, a user can assign a complicated device operation to a predetermined recognition vocabulary. Makes it easy to operate the equipment.
[0003]
However, there is a problem that erroneous recognition is likely to occur when the device is operated by voice recognition. For example, when giving an operation instruction to switch on / off the function of a device such as “˜on” or “˜off”, the vocabulary “on” and the vocabulary “off” differ only in the last sound. There is a high possibility of misrecognition.
[0004]
Also, if vocabulary for operating instructions is assigned to each function, the vocabulary required for operation increases as the functions become complex, and it is impossible to remember what the vocabulary corresponding to the function that the user wants to realize A situation occurs in which a desired function cannot be realized.
[0005]
However, when trying to realize a function desired by the user in response to an input from an input device such as a switch for realizing each function regardless of voice recognition, a large number of switches corresponding to each function are installed. This necessitates a large installation space and makes it difficult for the user to understand which function is realized by which switch.
[0006]
Therefore, an object of the present invention is to provide an input device and the like that can easily input an operation instruction in accordance with a user's intention while maintaining ease of operation by voice recognition.
[0007]
[Means for Solving the Problems and Effects of the Invention]
  According to the input device according to claim 1, which has been made to solve the above-described problems, the state of the execution unit (for example, the state of adjusting the scale of the map and the volume setting are set based on the speech recognition result. The relationship between the input means and the function (map reduction, map enlargement, etc.) according to the state to be performed is selected. That is, for example, when the user speaks “shukusaku”, the functions “map reduction” and “map enlargement” are assigned to each input means. Then, the current state of the execution means is notified by display, and the function executed by operating each input means is also notified by display. Further, these displays are erased with a time lag when the input means is not operated for a predetermined time or longer (the display showing the state and the display showing the function). .That is, if none of the input means has input an operation signal for a predetermined time or more, the control means first erases the information indicating the function displayed on the notification means, then erases the information indicating the state, The notification means displays the contents displayed before the information indicating the function and the information indicating the state are displayed.
[0008]
  Therefore, by doing in this way, it is possible to display the contents that were displayed before the display indicating the function or other contents. For example, in the case of a map display device, information related to the function assigned to the input means is displayed on the map based on the voice recognition result, but this display is erased after a lapse of a certain time, so the entire map is again displayed. Can see. In addition, since there is a difference in the time during which the display indicating the state and the display indicating the function are erased, for example, in the case of a map display device, the function of each input unit such as “map enlargement” and “map reduction” The display is erased first, and the display indicating the entire content such as “scale” is later erased. In other words, a relatively less important display can be erased earlier, and a relatively more important display can be erased later. As a result, information that is originally intended to be displayed while maintaining user convenience (for example, , Map) can be sufficiently presented to the user.
[0009]
  By the way, as shown in claim 2, after realizing the recognized function, the notification may be performed. For example, when a voice “shukusho” is input, a function for reducing the map is realized, and the function is assigned to the input means, and buttons such as “map reduction” and “map enlargement” are displayed. In this way, after realizing a desired function, the function is continuously realized by operating the input means, or the execution of the function is substantially canceled by performing an operation opposite to the function. Can be done easily. In speech recognition, there is a possibility that misrecognition may occur. In this way, the execution result can be easily restored.
[0010]
  Further, as shown in claim 3, the result executed by the execution means may be further notified. If it becomes like this, the user can know easily the result of having operated the operation means.
[0011]
  According to a fourth aspect of the present invention, the notification means displays information on each function that can be executed by the execution means in the current state at a position corresponding to the relationship between the installation positions of the plurality of input means. It may be. In this way, the user can easily confirm which function is assigned to which input unit by viewing the display means. For example, when two buttons are lined up and down, a diagram indicating that the upper button is function A and the lower button is function B corresponding to the positional relationship of the arranged buttons is displayed. Is output.
[0012]
  In addition, when the number of functions to be assigned to the input unit is smaller than the number of input means, for example, when two functions are assigned to four buttons, an input means to which no function is assigned may be provided.,next toThe same function may be assigned to a plurality of input means in contact. If this is the case, the user may operate any input means to which the same function is assigned, so the convenience for the user is improved.
[0013]
  Claims5As shown in FIG. 5, the correspondence relationship between the input means and the function described above may be configured so that the user can register. In this way, it is possible to easily perform input in accordance with the user's intention.
[0014]
  Also, EnterIt is advisable to notify the input means that the input is possible. In this way, it can be determined whether or not input is possible by directly viewing the input means. Furthermore, the function assigned to each input means may be displayed.
[0015]
  And claims6As shown in FIG. 5, the user may be notified so that the user can recognize a specific input unit that realizes a specific function in accordance with the input, which is different from the general-purpose input unit to which a plurality of functions can be assigned. For example, when “temperature” is input by voice, a lamp or the like provided on a button for raising or lowering the temperature of the air conditioner may be turned on.
[0016]
  Claims7If the input means is capable of two-stage input as shown in Fig. 3, information on the function corresponding to the input means executed by the execution means when the user inputs the first stage to the input means , And when the user inputs the second step to the input unit, the execution unit may execute a function corresponding to the input unit. For example, if the input means is a switch that can detect when it is touched and pressed, a display relating to the function assigned to the input means is performed when it is detected that the touch has been detected. When the is detected, processing related to the function is executed.
[0017]
  Claims8As shown in FIG. 9, the input device according to any one of claims 1 to 9 may be configured by a program that causes a computer to execute a function as a control unit. In the case of such a program, for example, the program is recorded on a computer-readable recording medium such as a flexible disk, a magneto-optical disk, a CD-ROM, a hard disk, a ROM, or a RAM, and is loaded into a computer system and started as necessary. It can also be used by loading and starting over a network.
[0031]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments to which the present invention is applied will be described below with reference to the drawings. Needless to say, the embodiments of the present invention are not limited to the following examples, and can take various forms as long as they belong to the technical scope of the present invention.
[0032]
FIG. 1 is a block diagram showing the configuration of the navigation device 1 of the embodiment. The navigation device 1 includes a position detector 21 that detects the current position of the vehicle, an operation switch group 22 for inputting various instructions from a user, and a remote control terminal that can input various instructions in the same manner as the operation switch group 22. (Hereinafter referred to as a remote control) 23a, a remote control sensor 23b for inputting a signal from the remote control 23a, an external information input / output device 24, and map data and the like are input from an external storage medium storing various types of information. A map data input device 25, a display device 26 for performing various displays such as a map display screen and a TV screen, a voice output device 27 for outputting various guide voices, and the like, for storing various data. External memory 28, a general-purpose switch group 30 composed of a plurality of buttons attached in the vicinity of the steering wheel, and voice A voice input device 31 having a microphone for inputting a voice for recognition, the position detector 21, the operation switch group 22, a remote controller 23a, an external information input / output device 24, a map data input device 25, an external memory 28, Various processes are executed in accordance with inputs from the general-purpose switch group 30 and the voice input device 31, and the position detector 21, operation switch group 22, remote control sensor 23b, external information input / output device 24, map data input device 25, display device. 26, an audio output device 27, an external memory 28, a general-purpose switch group 30, and a control circuit 29 for controlling the audio input device 31.
[0033]
The control circuit 29 has a function of transmitting data to the in-vehicle LAN 40 and a function of receiving data from the in-vehicle LAN 40. Various in-vehicle devices such as an air conditioner 41, an audio 42, and a body control device (body ECU) 43 are connected to the in-vehicle LAN 40. The devices connected to the in-vehicle LAN 40 are connected to the in-vehicle LAN 40 from other devices. Receives the transmitted command and performs control according to the command. The control circuit 29 can obtain the state of these devices via the in-vehicle LAN 40.
[0034]
The position detector 21 receives a radio wave transmitted from an artificial satellite for GPS (Global Positioning System) via a GPS antenna and is added to the vehicle and a GPS receiver 21a that detects the position, direction, speed, and the like of the vehicle. A gyroscope 21b for detecting the magnitude of the rotational motion, a distance sensor 21c for detecting the distance traveled from the longitudinal acceleration of the vehicle, and the like, and a geomagnetic sensor 21d for detecting the traveling direction from the geomagnetism are provided. Yes. Each of the sensors 21a to 21d has an error having a different property, and is configured to be used while complementing each other. Depending on the accuracy, a part of the sensors described above may be used, or a steering rotation sensor, a wheel sensor of each rolling wheel, or the like may be used.
[0035]
As the operation switch group 22, a touch panel installed on the display screen, mechanical key switches provided around the display device 26, and the like are used. Note that the touch panel and the display device 26 are laminated and integrated, and there are various types of touch panels, such as a pressure-sensitive method, an electromagnetic induction method, a capacitance method, or a combination of these methods. May be.
[0036]
The external information input / output device 24 receives FM broadcast signals via a radio antenna (not shown), or receives radio waves from a fixed station for a VICS (Vehicle Information and Communication System) service arranged near the road. A beacon signal and an optical beacon signal are received. The received information is sent to the control circuit 29 for processing. Further, it is connected to a mobile phone (not shown) and has a function of acquiring information from an information center or connecting to the Internet and acquiring information from a server on the Internet.
[0037]
The map data input device 25 is a device for inputting various data including so-called map matching data, map data, and mark data for improving the accuracy of position specification. As a recording medium for these data, a CD-ROM or DVD is generally used because of the amount of data, but another medium such as a magnetic storage device such as a hard disk or a memory card may be used.
[0038]
The road data (corresponding to road information) in the map data is a map constructed by connecting a plurality of nodes such as intersections with links, and each link has a unique number (link number) that identifies the link ( Link ID), link length indicating the link length, x and y coordinates of the link start and end, link road width, road type (indicating road information such as toll road), and road Link information consisting of data of a road ID (information specifying a road such as the national highway No. ○). In the map data, place name information, traffic information, and facility information are stored together with their coordinates (x, y coordinates).
[0039]
The display device 26 is a color display device, such as a liquid crystal display, a plasma display, or a CRT, any of which may be used. The display screen of the display device 26 includes a mark indicating the current location identified from the current position of the vehicle detected by the position detector 21 and the map data input from the map data input device 25, a guidance route to the destination, and a name. Additional data such as landmarks and various facility marks can be displayed in an overlapping manner. Also, facility guides can be displayed. The voice output device 27 can output facility guidance and various guidance voices input from the map data input device 25, and information reading voices obtained via the external information input / output device 24.
[0040]
The control circuit 29 is configured around a well-known microcomputer comprising a CPU, ROM, RAM, I / O and a bus line connecting these configurations, and based on a program stored in the ROM and RAM, A map for calculating the current position of the vehicle as a set of coordinates and traveling directions based on each detection signal from the position detector 21 and displaying a map and the like near the current position read via the map data input device 25 on the display device 26 Based on the display processing and the point data stored in the map data input unit 25, the destination facility is selected according to the operation of the operation switch group 22 or the remote controller 23a, and the optimum route from the current position to the destination is automatically selected. Route guidance processing is performed to perform route guidance by performing route calculation to be obtained. A technique such as the Dijkstra method is known as a technique for automatically setting an optimum route in this way.
[0041]
Further, the control circuit 29 performs A / D conversion on the voice signal input from the voice input device 31 to obtain voice data, and determines whether or not the feature amount of the voice data matches a preset recognition vocabulary. If they match, the process corresponding to the recognized vocabulary is executed. The control circuit 29 assigns a function to the general-purpose switch group 30 based on the voice recognition result, and displays the assigned function on the display device 26. Then, it waits for an input from the general-purpose switch group 30, and when an input is detected, a process related to the function is executed based on the content. The flow of this input process will be described with reference to the flowchart of FIG.
[0042]
In S <b> 110 of FIG. 2, voice is input from the voice input device 31. In S120, the input speech is recognized, and it is determined whether or not the recognition result is a vocabulary to which a function should be assigned to the general-purpose switch group 30 such as “scale” and “screen setting”. If the vocabulary should be assigned a function to the general-purpose switch group 30, the function assigned to the general-purpose switch group 30 in S130 is changed to a function corresponding to the recognized vocabulary.
[0043]
In S140, the function assigned to the general-purpose switch group 30 in S130 is displayed in association with the positional relationship of each switch in the general-purpose switch group 30. When an input from the general-purpose switch group 30 is detected (S150: YES), the function assigned to the switch in which the input is detected is executed (S160). In this way, it can be easily operated by a combination of voice recognition and switch operation.
[0044]
For example, when the user utters “shukusaku” in the map display state, this voice is input in S110 and recognized in S120. In S130, a function for enlarging the scale and a function for reducing the scale are assigned to the general-purpose switch group 30 as functions corresponding to the recognition vocabulary “Shukusaku”. That is, when the general-purpose switch group 30 is composed of two switches 30a and 30b installed up and down as shown on the right side of FIG. 3A, for example, the switch 30b has a function of changing the scale to a wide range. Assign a function to change the scale in detail. In S140, the map 60 (the contents of the map are not shown) is displayed on the function display 52 of FIG. 3 (a) with “scale” that is information indicating the entire contents of the functions assigned in S130. Display on the display device 26. Further, in S140, the switch group display 54 imitating the shape of the general-purpose switch group 30 is superimposed on the map 60 as shown in FIG. The switch displays 54a and 54b are superimposed on the map 60 and displayed on the display device 26 in correspondence with the positional relationship between the switches 30a and 30b. In FIG. 3A, the functions of the switches 30a and 30b are schematically shown by up and down arrows. For example, the switch display 54a has characters such as “wide area” and the switch display 54b with “details”. It may be displayed. The displayed content may be output from the audio output device 27 as audio.
[0045]
In this way, after the user utters “shukusaku” which is a command for displaying a menu for changing the scale, the displayed function display 52 and the switch display 54a displayed in association with the positional relationship of the switches are displayed. By looking at 54b, it can be confirmed whether or not the voice has been correctly recognized.
[0046]
Further, when it is detected that the switch 30a is pressed in the state of FIG. 3A (S150: YES in FIG. 2), a process of changing the scale of the map 60 to a wide area is executed (S160). If it is detected that the switch 30b is pressed (S150: YES), a process for changing the scale of the map 60 in detail is executed (S160).
[0047]
In this way, the scale of the map can be easily changed by voice utterance and pressing of the general-purpose switch.
In a conventional navigation device, when changing the scale of a map, it is necessary to continuously speak a command until the desired scale is reached, for example, “Shosai, Shosai, Shosai”. It was very time-consuming to input with. In addition, it has been possible to specify with an absolute value command such as “Ichimanbun no Ichisukeru”, but how much this scale is scaled, There was a problem that it was difficult to remember what it was and it was not used after all.
[0048]
As described above, it is possible to easily change to a state in which the scale can be set by voice recognition, and further, from there, the operation amount can be adjusted by operating the general-purpose switch group 30. And the amount of operation can be adjusted safely.
[0049]
There are various types of operation amounts, for example, the brightness of the display device 26, the volume of the audio output device 27 / audio 42, the air volume and temperature of the air conditioner 41, and the power window connected to the body ECU 43. The amount of opening and closing can be controlled. 3A, characters such as “Wide area” are displayed on the switch display 54a, and “Details” are displayed on the switch display 54b, and voice recognition commands are also displayed in accordance with this display. ". As described above, if the switch displays 54a and 54b and the voice recognition command have the same contents, the user does not need to memorize a detailed command and only knows the command to be spoken next by speaking "shukusaku". be able to. Therefore, it becomes possible to easily input a command by voice.
[0050]
In addition, as a function assigned to the general-purpose switch group 30 in S130 of FIG. 2, not only a function of changing an operation amount but also various functions can be assigned. The general-purpose switch group 30 can have any configuration.
For example, as shown on the right side of FIG. 3B, when the general-purpose switch group 30 is configured with the switches 30a to 30d, and the vocabulary “gamensen” from the user is recognized, FIG. b) As shown on the left side, a function display 52 called “screen setting” showing the entire function is displayed, and a switch display showing the function in association with the positional relationship of the switches 30a to 30d as shown in FIG. 54a to 54d are displayed. When the pressing of the switch 30a is detected, a process of changing the display of the map 60 to 3D display is executed. When the pressing of the switch 30b is detected, a process of changing the display of the map 60 to 2D display is executed. When the depression of the switch 30c is detected, the process of displaying the map 60 on the north-up display is executed. When the depression of the switch 30d is detected, the process of changing the display of the map 60 to the heading-up display is performed. Execute.
[0051]
Further, as shown in FIG. 3C, the general-purpose switch group 30 is composed of four switches 30a to 30d, while the function to be assigned is the “wide area” of the switch display 54a as in the case of the scale described above. When the switch display 54b has only two “details”, for example, the switch 30a may be assigned a function for changing the scale to a wide area, and the switch 30b may be assigned a function for changing the scale in detail. The switch 30c may be assigned a function for changing the scale to a wide area, and the switch 30b and the switch 30d may be assigned a function for changing the scale in detail. Thus, erroneous operation can be prevented by assigning the same function to a plurality of input units in correspondence with the positional relationship.
[0052]
Further, for example, when the recognition vocabulary “return to Jikaku” is recognized, as shown in FIG. 4A, a function display 52 “Make home as a destination” is displayed, and “OK” and “Cancel” are displayed. Is assigned to the general-purpose switch group 30, and the switch displays 54a and 54b are performed in association with the assignment. In the past, when the vocabulary of “getting back” was recognized, route guidance for a preset home point was immediately executed, but the recognition result is displayed on the display device in this way, By inputting “decision” and “cancel” instructions from the general-purpose switch group 30, the instructions can be easily canceled.
[0053]
For example, when the recognition vocabulary “Oedio” is recognized, a function display 52 “audio power” is displayed as shown in FIG. 4B, and “ON” and “OFF” are displayed. Functions are assigned to the general-purpose switch group 30, and switch displays 54a and 54b are performed in association with the assignment. Previously, the vocabulary of “audio on” and “audio off” was recognized and the corresponding processing was executed, but “on” and “off” differ only in the feature quantity of the ending and are difficult to recognize. Regardless, ON and OFF have opposite meanings, and once processing is started, cancellation becomes difficult. However, by displaying the recognition result on the display device 26 and inputting the “ON” and “OFF” instructions from the general-purpose switch group 30 in this way, the instructions can be input reliably and easily. Other processes that are difficult to cancel include, for example, setting changes.
[0054]
For example, when an address is input by voice, if the recognition result of the user's utterance “Aichi Kenkari and Shoshocho” is misrecognized as “Akiken Kariya City Akiei-cho”, the display on the display device 26 is shown in FIG. As shown in 4 (c). At this time, the functions “next candidate” and “decision” are assigned to the general-purpose switch group 30, and the switch displays 54a and 54b are performed in association with the assignment. For example, when pressing of the switch 30a is detected, the next candidate “Showa-cho, Kariya City, Aichi Prefecture” is displayed. In the past, when such a misrecognition occurred, the user had to utter “next kokoho” to display candidates until the address he / she spoke was displayed. Thus, the correct address can be easily input from the general-purpose switch group 30.
[0055]
Further, for example, when a telephone number is input by voice recognition, the recognition result for the user's utterance is displayed on the display device 26 as shown in FIG. 4D, and functions of “erase” and “confirm” are displayed. Are assigned to the general-purpose switch group 30, and the switch displays 54a and 54b are performed in association with the assignment. For example, when the pressing of the switch 30a is detected, the rightmost number is deleted, and when the pressing of the switch 30c is detected, the input content is confirmed. In the case of such input of numbers and characters, conventionally, when the recognition result is different from the content uttered by the user, the characters are erased when a vocabulary such as “Ichijiji Sakujo” is recognized. In addition, recognition of numbers and characters is difficult to improve recognition accuracy in the first place and is easy to misrecognize. Therefore, there is a high possibility that the recognized content needs to be corrected. By assigning functions to the general-purpose switch group 30 and displaying the contents in this way, numbers and characters can be easily input.
[0056]
In addition, when the map 60 is displayed on two screens on the display device 26, when trying to change the scale, a modifier is conventionally used to indicate which screen is instructed, such as “Migigamenshosai”. It was specified. However, for example, when a voice “shukusaku” is recognized in a two-screen display state, the switch 30b has a function for changing the scale of the left screen to a wide range with respect to the switch 30a as shown in FIG. A function for changing the scale of the left screen in detail is assigned to the switch 30c, a function for changing the scale of the right screen to a wide area, and a function for changing the scale of the right screen in detail to the switch 30d. Switch displays 54a to 54d are displayed in correspondence with the switches. In this way, the scale of a desired screen can be easily changed from the general-purpose switch group 30. As described above, the recognition vocabulary for speech recognition increases as the function becomes complex, and the problem that the recognition rate decreases and the user's operation becomes difficult can be reduced. The general-purpose switch group 30 may be configured by 3 × 3 switches in the vertical and horizontal directions as shown in FIG. 5B, for example, and functions may be assigned as shown in FIG.
[0057]
Further, the processing described with reference to the flowchart of FIG. 2 may be changed as shown in FIG. That is, the processes of S153 and S155 are performed instead of S150 of FIG. That is, for example, for the function assigned to the general-purpose switch group 30 in S140, “scale” which is information indicating the entire contents of the function is displayed as shown in the function display 52 of FIG. 7A, and the function assigned in S130. The switch group display 54 and the switch displays 54a and 54b are displayed in correspondence with the positional relationship between the switches 30a and 30b as shown in FIG. Then, an operation input from the general-purpose switch group 30 is awaited. When there is an input, the function assigned to the input switch is executed as in the flow of FIG. On the other hand, if there is no operation input for a predetermined time T seconds or more (for example, 5 seconds or more) in S153, the process proceeds to S155 to display the function assigned to the general-purpose switch group 30 as shown in FIG. The function display 52, the switch group display 54, and the switch displays 54a and 54b are deleted. In this way, the original map 60 can be displayed on the entire screen when there is no input for a predetermined time T seconds or more. For example, a difference is provided in the erasure time between the function display 52 and the switch group display 54 / switch displays 54a, 54b, and when T1 seconds elapse, the switch group display 54 / switch display is displayed as shown in FIG. 7B. 54a and 54b may be deleted, and the function display 52 may be deleted as shown in FIG. 7C when T2 seconds have elapsed from that point.
[0058]
Further, as shown in FIG. 8, the process of S135 may be further added to the flow of FIG. That is, after assigning a function to the general-purpose switch group in S130, the function is executed based on the recognition result in S120, and then the function assigned to the general-purpose switch group 30 is displayed in S140. For example, when the voice “Kouiki” is recognized, the function assigned to the general-purpose switch group 30 is displayed after executing the function of making the map 60 one step wide. In this way, the function desired by the user can be executed immediately. In addition, it is possible to execute a function for continuously displaying a map in a wide area, and conversely, it is possible to easily execute a function for detailed display of a map. That is, it is very easy to substantially cancel the execution of the function by voice recognition. In speech recognition, there is a possibility that erroneous recognition occurs, but if this is done, the executed contents can be easily canceled.
[0059]
The recognition results, function contents, and function assignments to the respective input units included in the function contents are stored in the control circuit 29 and the external memory 28, and based on the stored correspondence relation, FIG. In S130 of 2, a function is assigned to the general-purpose switch group 30, and a corresponding display is performed in S140. Such correspondence is configured such that the user can register in advance from the remote controller 23a or the like. Therefore, for example, the user can arbitrarily set the function assignment to each switch in FIG. By doing in this way, the input according to a user's intention becomes possible.
[0060]
In addition, a lamp, a liquid crystal panel, or the like is attached to each switch of the general-purpose switch group 30 to notify that the function has been assigned from each switch by lighting or blinking the lamp, or to display the function contents on the liquid crystal panel. You may display and alert | report by a symbol. By doing this, the user can know whether or not input is possible and the function assigned to each switch by directly looking at the general-purpose switch group 30.
[0061]
Furthermore, it is possible to recognize an input device that is different from the general-purpose switch group 30 to which a plurality of functions can be assigned, such as a temperature adjustment button of an air conditioner 41, and that realizes a specific function (temperature adjustment) with input. You may alert | report as follows. For example, when “temperature” is input by voice, a diagram simulating a temperature adjustment switch of the air conditioner 31 may be displayed on the display device 26, or the temperature adjustment button of the air conditioner 41 may be turned on. Good. Of course, you may do both.
[0062]
Further, if the general-purpose switch group 30 is capable of multi-stage input, the display state may be changed according to the operation stage. For example, if the general-purpose switch group 30 is a switch that can detect when touched or pressed, when the touch is detected, the function assigned to each switch is displayed and pressed. When a message is detected, a function-related process is executed.
[0063]
For example, when the function for adjusting the operation amount is assigned to the general-purpose switch group 30, the current operation amount may be displayed as shown in FIG. In this way, it is possible to easily adjust the operation amount using the general-purpose switch group 30 while referring to the current setting of the operation amount. For example, if the display is as shown in FIG. 9, the current value of the temperature can be known, and adjustment can be facilitated.
[0064]
In addition, by using a switch that can simply determine whether the switch is on or off, and sending on / off information to the control circuit 29 by infrared rays or the like, the switch can be made small, and mounting on a steering or the like can be improved.
In the present embodiment, the navigation device 1 is described as an example of the input device. However, for example, it can be realized as other in-vehicle devices, home appliances, and other various devices.
[0065]
Further, if the input device of the present invention is realized as a remote controller, for example, a transmission code is standardized, various devices such as other companies can be operated even if the input device does not have an execution function. For example, various input devices can be operated by attaching such an input device to a steering wheel or the like, and various devices can be operated by configuring as a general-purpose remote controller.
[0066]
  In this embodiment, the voice input device 27 and the control circuit 29 correspond to recognition means.,Switches 30a-30d are inputmeansIt corresponds to. The control circuit 29 corresponds to the control means, and the display device 26 and the sound output device 27 correspond to the notification means. A lamp or a liquid crystal panel provided in the general-purpose switch group 30 corresponds to an input means side notification means, and a temperature adjustment button of the air conditioner 41 corresponds to a specific input means for realizing a specific function.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of a navigation device as an input device according to an embodiment.
FIG. 2 is a flowchart showing a flow of input processing.
FIG. 3 is an explanatory diagram illustrating a configuration example of a general-purpose switch group and a display example of functions assigned to the general-purpose switch group.
FIG. 4 is an explanatory diagram illustrating a configuration example of a general-purpose switch group and a display example of functions assigned to the general-purpose switch group.
FIG. 5 is an explanatory diagram illustrating a configuration example of a general-purpose switch group and a display example of functions assigned to the general-purpose switch group.
FIG. 6 is a flowchart for erasing a display of functions assigned to a general-purpose switch group after a predetermined time.
FIG. 7 is an explanatory diagram illustrating a display example when the display of the function assigned to the general-purpose switch group is deleted.
FIG. 8 is a flowchart in a case where a function assigned to a general-purpose switch group is displayed after a function is executed based on a result of voice recognition.
FIG. 9 is an explanatory diagram showing a display example in which a current operation amount is displayed together with a function assigned to the general-purpose switch group.
[Explanation of symbols]
1 ... Navigation device
21 ... Position detector
21a ... GPS receiver
21b ... Gyroscope
21c Distance sensor
21d: Geomagnetic sensor
22 ... Operation switch group
23a ... remote control
23b ... Remote control sensor
24. External information input / output device
25 ... Map data input device
26. Display device
27 ... Audio output device
28 ... External memory
29 ... Control circuit
30 ... General-purpose switches
30a, 30b, 30c, 30d ... switch
31 ... Voice input device
41 ... Air conditioner
42 ... Audio
52 ... Function display
54 ... Switch group display
54a, 54b, 54c, 54d ... switch display
60 ... Map

Claims (8)

複数の機能を実行できると共に、実行可能な機能の種類によって複数の状態が存在する実行手段と、
音声を認識する認識手段と、
ユーザからの操作を操作信号として入力する複数の入力手段と、
前記実行手段が実行する前記機能と前記各入力手段との関係を、前記状態毎に予め定義され記憶する関係の中から前記認識手段の認識結果に基づいて選択すると共に、何れかの前記入力手段が前記操作信号を入力すると、その入力手段に対応する前記機能を前記選択した関係に基づいて特定して前記実行手段に実行させる制御手段と、
現在の前記状態を示す情報を表示によって報知すると共に、前記入力手段毎に前記機能を示す情報を表示によって報知する報知手段とを備え、
前記制御手段は、さらに、何れの前記入力手段も前記操作信号を所定時間以上入力しなかった場合、前記報知手段に表示した前記機能を示す情報を先に消去した後に前記状態を示す情報を消去し、前記報知手段に、前記機能を示す情報と前記状態を示す情報が表示される前に表示されていた内容を表示させることを特徴とする車両において用いられる入力装置。
An execution means capable of executing a plurality of functions and having a plurality of states depending on the types of executable functions;
Recognition means for recognizing speech;
A plurality of input means for inputting an operation from the user as an operation signal;
The relation between the function executed by the execution means and each input means is selected based on the recognition result of the recognition means from the relations predefined and stored for each state, and any one of the input means When the operation signal is input, a control unit that specifies the function corresponding to the input unit based on the selected relationship and causes the execution unit to execute the function,
In addition to notifying information indicating the current state by display, and notifying means for notifying information indicating the function by display for each input means,
The control means further erases the information indicating the state after first erasing the information indicating the function displayed on the notification means when none of the input means inputs the operation signal for a predetermined time or more. And the information displayed before the information which shows the said function, and the information which shows the said state are displayed on the said alerting | reporting means, The input device used in the vehicle characterized by the above-mentioned.
請求項1に記載の入力装置において、
前記制御手段は、前記認識手段の認識結果によっても、当該認識結果に対応した何れかの前記機能を前記実行手段に実行させることが可能であり、当該認識結果に対応した何れかの前記機能を前記実行手段に実行させた後は、前記選択以降の処理を行うこと、
を特徴とする入力装置。
The input device according to claim 1,
The control means can cause the execution means to execute any of the functions corresponding to the recognition result based on the recognition result of the recognition means. After executing the execution means, performing the processing after the selection,
An input device characterized by.
請求項1又は2に記載の入力装置において、
前記報知手段は、前記実行手段が実行した結果をさらに報知すること
を特徴とする入力装置。
The input device according to claim 1 or 2,
The input device further notifies the result executed by the execution unit.
請求項1〜3のいずれかに記載の入力装置において、
前記報知手段は、前記実行手段が現在の状態において実行可能な前記各機能に関する情報を、前記複数の入力手段同士の設置位置の関係に対応した位置に表示すること
を特徴とする入力装置。
The input device according to any one of claims 1 to 3,
The informing means displays information related to each function that can be executed by the execution means in a current state at a position corresponding to a relationship between installation positions of the plurality of input means.
請求項1〜4のいずれかに記載の入力装置において、
前記制御手段が用いる前記予め定義された関係は、ユーザによって登録可能に構成されていること
を特徴とする入力装置。
The input device according to any one of claims 1 to 4 ,
The input device, wherein the predefined relationship used by the control means is configured to be registered by a user.
請求項1〜のいずれかに記載の入力装置において、
さらに、
前記入力手段とは別であって、ユーザからの操作を操作信号として入力すると特定の機能のみを前記実行手段に実行させるように構成された特定入力手段と、
前記特定の機能と同一の機能が実行手段によって実行可能になった際、前記特定入力手段の存在をユーザが認識可能なように報知する特定入力手段側報知手段と、
を備えることを特徴とする入力装置。
In the input device according to any one of claims 1 to 5 ,
further,
Separately from the input means, a specific input means configured to cause the execution means to execute only a specific function when an operation from a user is input as an operation signal;
A specific input means side notifying means for notifying the presence of the specific input means so that a user can recognize when the same function as the specific function can be executed by an execution means;
An input device comprising:
請求項1〜のいずれかに記載の入力装置において、
前記入力手段は、二段階の入力が可能なものであり、
前記報知手段は、ユーザによって前記入力手段に対する一段階目の入力がなされた際に、前記実行手段によって実行される当該入力手段に対応する前記機能に関する情報を表示し、
前記制御手段は、ユーザによって前記入力手段に対する二段階目の入力がなされた際に、当該入力手段に対応する前記機能を前記実行手段に実行させること、
を特徴とする入力装置。
The input device according to any one of claims 1 to 6 ,
The input means is capable of two-stage input,
The notification means displays information on the function corresponding to the input means executed by the execution means when a first-stage input is made to the input means by the user,
The control unit causes the execution unit to execute the function corresponding to the input unit when a second-stage input is made to the input unit by a user.
An input device characterized by.
請求項1〜のいずれかに記載の入力装置の前記制御手段としてコンピュータを機能させるためのプログラム。Program for causing a computer to function as the control means of the input device according to any one of claims 1-7.
JP2001322137A 2001-10-19 2001-10-19 Input device, program Expired - Fee Related JP4113698B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001322137A JP4113698B2 (en) 2001-10-19 2001-10-19 Input device, program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001322137A JP4113698B2 (en) 2001-10-19 2001-10-19 Input device, program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2006174090A Division JP4458071B2 (en) 2006-06-23 2006-06-23 Input device and program

Publications (2)

Publication Number Publication Date
JP2003122393A JP2003122393A (en) 2003-04-25
JP4113698B2 true JP4113698B2 (en) 2008-07-09

Family

ID=19139231

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001322137A Expired - Fee Related JP4113698B2 (en) 2001-10-19 2001-10-19 Input device, program

Country Status (1)

Country Link
JP (1) JP4113698B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005148724A (en) * 2003-10-21 2005-06-09 Zenrin Datacom Co Ltd Information processor accompanied by information input using voice recognition
JP2006078791A (en) * 2004-09-09 2006-03-23 Denso Corp Voice recognition device
JP5546637B2 (en) * 2010-08-25 2014-07-09 三菱電機株式会社 Navigation device
JP2013019958A (en) * 2011-07-07 2013-01-31 Denso Corp Sound recognition device
JP6312053B2 (en) * 2013-09-06 2018-04-18 株式会社ユピテル System and program
JP2020187249A (en) * 2019-05-14 2020-11-19 株式会社東海理化電機製作所 Control device, control system and control program
JP2021043762A (en) * 2019-09-12 2021-03-18 株式会社東海理化電機製作所 Presentation apparatus

Also Published As

Publication number Publication date
JP2003122393A (en) 2003-04-25

Similar Documents

Publication Publication Date Title
JP4304952B2 (en) On-vehicle controller and program for causing computer to execute operation explanation method thereof
JP4506855B2 (en) Car navigation system
JP4736982B2 (en) Operation control device, program
JPH11132777A (en) Navigation device for vehicle and storage medium recording program for the device
US20100229116A1 (en) Control aparatus
JP2007249478A (en) Mobile phone use warning device
JP4113698B2 (en) Input device, program
JP4458071B2 (en) Input device and program
JP2008101979A (en) Information communication system
JP4604866B2 (en) Facility search device
JP2005191668A (en) Utterance control apparatus, method therefor, program therefor, and recording medium with the program recorded thereon
JP2000112346A (en) Vehicle navigation device, and storage medium
JP2020060571A (en) System and program
JP3654262B2 (en) Voice recognition device and navigation system
JP4085326B2 (en) Vehicle navigation device
WO2007102472A1 (en) Information device and notice control method
JP5028045B2 (en) In-vehicle display device
JP2002267471A (en) On-vehicle navigation system
JP2005016987A (en) Navigation apparatus and program
JPH1138994A (en) Voice recognition system and navigation system
JP4905366B2 (en) Car navigation system
JP2003194564A (en) Function explanation apparatus and program
KR101597528B1 (en) Navigation apparatus and method thereof
JP2005098940A (en) Navigation system and externally acquired program
JPH11143489A (en) Electronic equipment with sound operating function, sound operating method in electronic equipment, and automobile having electronic equipment with sound operating function

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050816

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060116

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060623

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20060712

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20060804

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080414

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110418

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120418

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120418

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130418

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130418

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140418

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees