JP6099414B2 - 情報提供装置、及び、情報提供方法 - Google Patents

情報提供装置、及び、情報提供方法 Download PDF

Info

Publication number
JP6099414B2
JP6099414B2 JP2013012908A JP2013012908A JP6099414B2 JP 6099414 B2 JP6099414 B2 JP 6099414B2 JP 2013012908 A JP2013012908 A JP 2013012908A JP 2013012908 A JP2013012908 A JP 2013012908A JP 6099414 B2 JP6099414 B2 JP 6099414B2
Authority
JP
Japan
Prior art keywords
user
search
data
touch panel
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013012908A
Other languages
English (en)
Other versions
JP2014146090A (ja
Inventor
青野 哲明
哲明 青野
太田 崇史
崇史 太田
貴穂 岡田
貴穂 岡田
雅之 勝野
雅之 勝野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2013012908A priority Critical patent/JP6099414B2/ja
Publication of JP2014146090A publication Critical patent/JP2014146090A/ja
Application granted granted Critical
Publication of JP6099414B2 publication Critical patent/JP6099414B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、情報を提供する技術に関する。
ナビゲーション装置にて目的地の検索を行う場合には、メニュー画面を表示させた後に、目的地検索の画面を表示させ、さらに文字入力やジャンル選択等の操作を行う必要がある。つまり、ユーザは、目的地検索の際には、複数の階層で表示された各画面に対して所定の操作を行うこととなる(例えば、特許文献1参照)。これは、ナビゲーション装置がオーディオ機能を有し、ユーザがコンテンツを検索する場合も同様である。また、ユーザの音声を認識して目的地等を検索するナビゲーション装置も存在する(例えば、特許文献2参照)。
特開2010-38620号公報 特開2009-300696号公報
しかしながら、複数の階層で表示された各画面に対して操作する場合、ユーザは複数の操作を行う必要があるため、ユーザにとっては非常に手間のかかるものとなっていた。また、操作が煩雑であるのみならず、所望の検索結果を得るまでに時間を要することがあった。さらに、音声認識によって検索する場合、全データの中から検索を実行することとなり、例えば地名だけでなく楽曲をも検索してしまうことがある。このように、異なるジャンルを含めてのデータを検索すると、不要なデータが検索されるため、その中から選択する操作が必要となり、操作が煩雑になる。
本発明は、上記課題に鑑みてなされたものであり、簡単な操作で所望の検索結果の情報を得ることができる技術を提供することを目的とする。
上記課題を解決するため、請求項1の発明は、音声に基づき検索結果を提供する情報提供装置であって、非接触の物体に基づき、ユーザがタッチして操作するタッチパネルに対して、ユーザが一点で近接したジェスチャと複数点で近接したジェスチャとを検出する検出手段と、ユーザの発話を取得する発話取得手段と、前記検出手段で検出された前記一点で近接したジェスチャか又は前記複数点で近接したジェスチャかの何れかに応じて、種類分けされた複数のデータ群の中から、特定の種類のデータ群を検索対象とし、前記発話取得手段で取得された前記発話から認識された発話内容に基づいて前記検索対象から検索された検索結果を前記タッチパネルを備えたディスプレイへ出力する検索結果出力手段と、を備えている。
また、請求項の発明は、請求項1に記載の情報提供装置において、前記発話内容を認識する認識手段をさらに備えている。
また、請求項の発明は、請求項1に記載の情報提供装置において、 前記発話内容を認識する外部の装置から、認識された前記発話内容を取得する認識結果取得手段をさらに備えている。
また、請求項の発明は、請求項2又は3に記載の情報提供装置において、認識された前記発話内容に基づいて検索を実行する検索手段をさらに備えている。
また、請求項の発明は、請求項2又は3に記載の情報提供装置において、認識された前記発話内容に基づいて検索を実行する外部の装置から、検索結果を取得する検索結果取得手段をさらに備えている。
また、請求項の発明は、音声に基づき検索結果を提供する情報提供方法であって、(a)非接触の物体に基づき、ユーザがタッチして操作するタッチパネルに対して、ユーザが一点で近接したジェスチャと複数点で近接したジェスチャとを検出する工程と、(b)ユーザの発話を取得する工程と、(c)前記(a)工程で検出された前記一点で近接したジェスチャか又は前記複数点で近接したジェスチャかの何れかに応じて、種類分けされた複数のデータ群の中から、特定の種類のデータ群を検索対象とし、前記(b)工程で取得された前記発話から認識された発話内容に基づいて前記検索対象から検索された検索結果を前記タッチパネルを備えたディスプレイへ出力する工程と、を実行する
請求項1ないし8の発明によれば、ユーザのジェスチャに応じたデータ群を検索対象とし、その中から発話内容に基づいて検索を行うため、一度の操作で簡単に情報を検索することができる。
図1は、車載装置の外観を示す図である。 図2は、車載装置の構成を示すブロック図である。 図3は、車載装置の表示画面の例を示す図である。 図4は、車載装置の表示画面の例を示す図である。 図5は、車載装置の動作の流れを示す図である。 図6は、車載装置の表示画面の例を示す図である。 図7は、車載装置の構成を示すブロック図である。 図8は、車載装置の動作の流れを示す図である。 図9は、車載装置の構成を示すブロック図である。 図10は、センターの構成を示すブロック図である。 図11は、車載装置の動作の流れを示す図である。 図12は、センターの動作の流れを示す図である。
以下、図面を参照しつつ本発明の実施の形態について説明する。
<1.第1の実施の形態>
<1−1.構成>
図1は、本実施の形態の情報提供装置である車載装置1の外観を示す図である。車載装置1は、自動車などの車両内において使用されるものであり、車室内のドライバなどのユーザに対して各種の情報を表示する。車載装置1は、主な機能として、目的地までのルートを案内するナビゲーション機能、及び、車室内に音を出力するオーディオ機能などを備えている。車載装置1は、検索機能も有しており、例えば、ナビゲーション機能における目的地の検索や、オーディオ機能におけるコンテンツの検索ができるようになっている。
車載装置1は、各種情報を表示するディスプレイ3と、ユーザがタッチして操作するタッチパネル2とを備えている。タッチパネル2の操作面はディスプレイ3の表示面に重なるように配置され、タッチパネル2の操作面上の位置とディスプレイ3の表示面上の位置とは対応付けされている。タッチパネル2の操作面は、ディスプレイ3の表示面よりもユーザ側に配置される。
ディスプレイ3の表示面には、適宜、ユーザの指示を受け付けるコマンドボタン5が表示される。ユーザは、このようなコマンドボタン5の領域に対応するタッチパネル2の操作面中の領域に指でタッチすることで、コマンドボタン5に関連付けられた指示を車載装置1に行うことができる。
タッチパネル2の方式としては、例えば、静電容量の変化を捉えて位置を検出する静電容量方式が採用されている。ユーザは、タッチパネル2の操作面に対して、一点でタッチする操作のみならず、複数点でタッチする操作であるマルチタッチを行うことも可能となっている。
また、車載装置1は、ディスプレイ3の表示面の周辺に、ユーザが操作するための物理的なスイッチを含む操作部4を備えている。ユーザは、タッチパネル2とともに、操作部4を介して、車載装置1に各種の指示を行うことが可能である。
図2は、車載装置1の構成を示すブロック図である。図2に示すように、車載装置1は、上述したタッチパネル2、ディスプレイ3及び操作部4に加えて、タッチパネルコントローラ21、記憶部11、ナビゲーション部12、オーディオ部13、スピーカ14及びマイク15を備えている。また、操作部4は、所定の色の光を発光可能なLEDなどの光源41を備えている。
タッチパネルコントローラ21は、例えば、ハードウェア回路であり、タッチパネル2の動作を制御する。タッチパネルコントローラ21は、タッチ検出部21aを備えている。
タッチ検出部21aは、駆動電極及び受信電極の2電極間の静電容量の変化を測定する相互容量方式が用いられている。タッチ検出部21aは、ユーザの指での電解の遮断によって受信電極が受信する電荷が減少することに基づいて、静電容量の変化を測定する。タッチ検出部21aは、測定した静電容量の変化量に対応する信号を制御部10に送信する。
記憶部11は、例えばフラッシュメモリなど、各種のデータを記憶可能な不揮発性の記憶装置である。記憶部11には、車載装置1の動作に必要な各種のデータや、プログラム11a、地図データ11b、コンテンツデータ11cが記憶されている。地図データ11bは、複数の地点データが含まれるデータ群であり、コンテンツデータ11cは、複数の楽曲データや映像データが含まれるデータ群である。このように、記憶部11には、種類分けされた複数のデータ群が記憶されている。
ナビゲーション部12は、記憶部11に記憶された地図データ11bを利用して、目的地までのルートを案内するナビゲーション機能を実現する。オーディオ部13は、記憶部11に記憶されたコンテンツデータ11cを利用して、スピーカ14やディスプレイ3を介して音や映像を出力するオーディオ機能を実現する。
また、車載装置1は、装置全体を制御する制御部10を備えている。制御部10は、例えば、CPU、RAM及びROMなどを備えるマイクロコンピュータである。制御部10の各種の機能は、記憶部11に記憶されたプログラム11aをCPUが実行することにより実現される。このようなプログラム11aは、メモリカードなどの記憶媒体からの読み出し等により取得され、記憶部11に予め記憶される。車載装置1が、ネットワークを介した通信機能を備える場合は、他の通信装置との通信によりプログラム11aが取得されてもよい。
図中に示す、表示制御部10a、位置取得部10b、音声認識部10c及び情報検索部10dは、プログラム11aの実行により実現される制御部10の機能のうちの一部である。これらの機能10a〜10dは、地図データやコンテンツデータ等の各種情報の検索機能に関連する。
表示制御部10aは、ディスプレイ3が表示する内容を制御する。表示制御部10aは、例えば、ユーザの指示を受け付けるためのコマンドボタンなどを、ディスプレイ3の表示面に表示させる。また、表示制御部10aは、検索した地点を含む地図や、検索したコンテンツの内容を示す画面をディスプレイ3の表示面に表示させる。
位置取得部10bは、タッチパネルコントローラ21のタッチ検出部21aからの信号に基づいて、ユーザが一点及び複数点のいずれでタッチしたかを判別し、ユーザがタッチした位置を取得する。ユーザが1本の指でタッチした場合と、複数本の指でタッチした場合とで静電容量の変化量が異なるため、位置取得部10bは、タッチ検出部21aから取得した信号における静電容量の変化量から、一点及び複数点のいずれでタッチしたかを判別する。位置取得部10bは、タッチパネル2の操作面にユーザが一点でタッチした場合はその一点の位置を取得し、ユーザが複数点でタッチした場合はその複数点それぞれの位置を取得する。なお、位置取得部10bは、例えば、ユーザがタッチした位置として10点までの位置を検出できる。
音声認識部10cは、マイク15を介して入力した音声データを解析し、ユーザが発話した内容(語意)を認識する。例えば、ユーザが目的地を検索するために地点名を発話した場合、マイク15がユーザの発話を取得する。そして、音声認識部10cは、マイク15から取得した音声信号を文字情報に変換してユーザが発話した内容を認識する。
情報検索部10dは、音声認識部10cによって認識された語意に対応するデータを記憶部11内の各データ群から検索する。例えば、ユーザが目的地を検索するために地点名を発話した場合、情報検索部10dは、音声認識部10cが認識した語意に対応する地点を地図データ11bの中から検索する。また、ユーザが楽曲データを検索するために楽曲名を発話した場合、情報検索部10dは、音声認識部10cが認識した語意に対応する楽曲データをコンテンツデータ11cの中から検索する。
さらに、本実施の形態では、情報検索部10dは、位置取得部10bにて取得した、ユーザのタッチパネル2に対するタッチ点数に応じて検索対象を地図データ11b及びコンテンツデータ11cのいずれか一方としている。すなわち、情報検索部10dは、ユーザがタッチパネル2の操作面を一点でタッチしたか、複数点でタッチしたかに応じて、地図データ11bを用いて検索するか、コンテンツデータ11cを用いて検索するかを切り替える。
<1−2.情報の提供>
次に、車載装置1における情報の提供について説明する。車載装置1は、ユーザがタッチパネル2をタッチした状態で、検索する地点名や楽曲名等の単語を発話すると、その発話した地点名や楽曲名に対応するデータを地図データやコンテンツデータの中から検索する。また、車載装置1は、ユーザがタッチパネル2上の一点をタッチしたか複数点をタッチしたかに応じて地図データを用いて検索するか、コンテンツデータを用いて検索するかを切り替える。そして、車載装置1は、検索結果を出力する。以下、具体的に説明する。
図3及び図4は、情報を検索する際の車載装置1の表示画面の例を示す図である。図3では、ユーザがタッチパネル2上を1本の指でタッチした状態を示している。つまり、ユーザが、タッチパネル2の操作面を一点でタッチした状態である。この状態で、ユーザが、例えば「新宿駅」と発話すると、情報検索部10dは、記憶部11に記憶されたコンテンツデータ11cの中から「新宿駅」に対応するデータを検索する。対応するデータとは、例えば、「新宿駅」をデータ名称に含むデータである。
そして、車載装置1は、「新宿駅」に対応するコンテンツデータとして楽曲データが検索された場合には、その楽曲データに対応する音をスピーカ14から出力する。すなわち、ユーザの発話から認識された内容に基づいて検索された検索結果が出力される。なお、スピーカ14からの出力の際には、楽曲データに対応する情報をディスプレイ3に表示してもよい。
また、検索した後には、検索結果をディスプレイ3に表示してユーザに知らせるようにしてもよい。この場合も検索結果が出力されたことになる。また、表示された検索結果の中からユーザが出力するデータを選択すると、選択された楽曲データに対応する音がスピーカ14から出力される。
一方、図4では、ユーザがタッチパネル2上を2本の指でタッチした状態を示している。つまり、ユーザが、タッチパネル2の操作面を複数点(二点)でタッチした状態である。この状態で、ユーザが「新宿駅」と発話すると、情報検索部10dは、記憶部11に記憶された地図データ11bの中から「新宿駅」に対応する地点を検索する。対応する地点とは、例えば、地名に「新宿駅」を含む地点である。
そして、車載装置1は、「新宿駅」に対応する地点が検索された場合には、その地点を含む地図をディスプレイ3に表示する。この場合においても、例えば、同じ地点名を含む地点が複数検索された場合などには、検索結果をディスプレイ3に表示してユーザに知らせるようにしてもよい。すなわち、これらの表示が、ユーザの発話から認識された内容に基づいて検索された検索結果の出力となる。そして、表示された検索結果の中からユーザがいずれかの地点を選択すると、選択された地点を含む地図がディスプレイ3に表示される。
このように、車載装置1は、ユーザがタッチパネル2をタッチした点の数(タッチ点数)に応じて、種類分けされた複数のデータ群の中から、特定の種類のデータ群を検索対象とし、ユーザが発話した内容の認識結果に基づいて情報を検索する処理を行う。本実施の形態の場合では、種類分けされた複数のデータ群として、地図データとコンテンツデータとがある。また、タッチ点数が一点の場合にはコンテンツデータを検索対象とし、複数点(二点)の場合には地図データを検索対象としている。
つまり、ユーザがタッチパネル2の任意の一点をタッチした状態で発話すると、車載装置1は、発話した内容の認識結果に基づいてコンテンツデータの中から対応するデータを検索し、その結果を出力する。また、ユーザがタッチパネル2の任意の複数点(二点)をタッチした状態で発話すると、車載装置1は、発話した内容の認識結果に基づいて地図データの中から対応するデータを検索し、その結果を出力する。
従って、複数階層に渡る操作を行うことなく、一度の操作で情報を検索することが可能になる。また、地図データとコンテンツデータとを分けて検索することができるので、同じ検索単語を用いた場合に異なる種類のデータ群の検索結果が含まれてしまうことがなく、検索結果の中から出力する情報をさらに選択するといった操作を不要にすることが可能となる。
<1−3.動作の流れ>
次に、車載装置1の動作の流れについて説明する。図5は、車載装置1が情報を提供する際の動作の流れを示す図である。この動作は、車載装置1の電源が入力されると開始される。
車載装置1は、電源が入力されて起動すると、位置取得部10bが、ユーザによるタッチパネル2の操作面へのタッチを待機する(ステップS10)。位置取得部10bは、タッチパネルコントローラ21のタッチ検出部21aからの信号に基づいて、ユーザがタッチパネル2の操作面へタッチしたか否かを判定する。
ユーザがタッチパネル2の操作面へタッチしていない場合は(ステップS10でNo)、再度ユーザによるタッチパネル2の操作面へのタッチを待機する。一方、ユーザがタッチパネル2の操作面へタッチした場合は(ステップS10にてYes)、位置取得部10bが、ユーザが一点でタッチしたか、複数点(二点)でタッチしたかを判別する(ステップS11)。
具体的には、ユーザがタッチパネル2の操作面へタッチした場合は、タッチパネルコントローラ21のタッチ検出部21aが、静電容量の変化量を測定し、測定結果を示す信号を制御部10に送信する。そして、位置取得部10bが、このタッチ検出部21aから取得した信号に基づいて(すなわち、静電容量の変化量に基づいて)、タッチパネル2の操作面にユーザが一点及び複数点のいずれでタッチしたかを判別する。また、位置取得部10bは、タッチパネル2の操作面にユーザが一点でタッチした場合はその一点の位置を取得し、ユーザが複数点でタッチした場合はその複数点でそれぞれの位置を取得する。
ユーザが複数点でタッチした場合には(ステップS11でYes)、音声認識部10cが、ユーザが発話した音声データを入力したか否かを判定する(ステップS12)。具体的には、音声認識部10cは、マイク15を介して音声データが入力されたか否かを判定する。
音声データが入力された場合には(ステップS12でYes)、音声認識部10cが、音声認識処理を実行する(ステップS13)。車載装置1は、例えば音声認識用の辞書を記憶部11に記憶させておき(不図示)、音声認識部10cは、音声認識用の辞書を参照して、入力した音声データの特徴に基づいてユーザが発話した内容を文字情報に変換することにより認識処理を実行する。例えば、ユーザが「新宿駅」と発話した場合には、音声認識部10cの認識処理によって、ユーザが発話した内容は「シンジュクエキ」であると認識される。
そして、情報検索部10dは、地図データを用いた検索を行う(ステップS14)。ユーザが複数点をタッチした状態で「新宿駅」と発話しているので、情報検索部10dは、記憶部11に記憶されている地図データ11bを検索対象とし、その中から地名に「シンジュクエキ」を含む地点を検索する。
そして、車載装置1は、検索結果を出力する(ステップS15)。検索の結果、地名に「シンジュクエキ」を含む地点が検索された場合には、表示制御部10aが、その地点を含む地図をディスプレイ3に表示する。例えば、図6に示すように、検索された地点(新宿駅)を画面の中心にした周辺の地図画像を表示する。
なお、検索の結果、対応する地点が複数検索された場合には、それら地点名の一覧をディスプレイ3に表示してもよい。この場合、ユーザがその中から選択した地点を含む地図がディスプレイ3に表示される。また、検索の結果、対応する地点が検索されなかった場合には、その旨がディスプレイ3に表示される。
一方、上述のユーザが一点でタッチしたか、複数点でタッチしたかの判別処理(ステップS11)において、ユーザが複数点でタッチしていないと判別した場合(ステップS11でNo)、音声認識部10cは、ユーザが発話した音声データを入力したか否かを判定する(ステップS16)。これは、上述のステップS12と同様の処理である。なお、ユーザが複数点でタッチしていない場合とは、ユーザが一点でタッチした場合である。
そして、音声データが入力された場合は(ステップS16でYes)、音声認識部10cが、音声認識処理を実行する(ステップS17)。これは、上述のステップS13と同様の処理である。例えば、ユーザが「新宿駅」と発話した場合には、音声認識部10cの認識処理によって、ユーザが発話した内容は「シンジュクエキ」であると認識される。
次に、情報検索部10dが、コンテンツデータを用いた検索を行う(ステップS18)。ユーザが複数点をタッチした状態で「新宿駅」と発話しているので、情報検索部10dは、記憶部11に記憶されているコンテンツデータ11cを検索対象とし、その中から楽曲名や映像名、アーティスト名に「シンジュクエキ」を含むデータを検索する。
そして、車載装置1は、検索結果を出力する(ステップS15)。検索の結果、例えば、楽曲名に「シンジュクエキ」を含む楽曲データが検索された場合には、オーディオ部13が、その楽曲データをデコードして音響信号を生成する。この音響信号は制御部10の制御によりスピーカ14に出力され、スピーカ14から音が出力される。また、表示制御部10aは、オーディオの再生画面をディスプレイ3に表示させてもよい。
なお、検索の結果、対応する楽曲データや映像データなどが複数検索された場合には、それらの一覧をディスプレイ3に表示してもよい。この場合、ユーザがその中から選択したコンテンツの楽曲データや映像データがデコードされ、デコードされた音又は映像がスピーカ14又はディスプレイ3から出力される。なお、検索結果の件数に関わらず(例えば1件であっても)、検索結果を表示する構成としてもよい。また、検索の結果、対応するデータが検索されなかった場合には、その旨がディスプレイ3に表示される。
なお、上述の音声データの入力があったか否かの判定処理(ステップS12及びS16)において、音声データの入力がない場合には(ステップS12及びS16でNo)、タッチ入力処理を行う(ステップS19)。タッチ入力処理とは、通常のタッチパネル2の操作における処理である。例えば、タッチパネル2をタッチしてディスプレイ3に表示されたボタンを選択する処理や、タッチパネル2をタッチした状態で移動させることで、ディスプレイ3に表示された画面をスクロールさせる処理である。ユーザがタッチパネル2をタッチした状態で音声データの入力がない場合とは、ユーザは情報の検索処理を実行する意思がない場合であると考えられるため、このような場合には、制御部10は通常のタッチ入力処理を実行する。
このように、本実施の形態では、ユーザが発話した内容を音声認識し、認識された内容に基づいて情報を検索するものである。さらに、ユーザがタッチパネルを一点でタッチしたか、複数点でタッチしたかに応じて検索対象となるデータ群を変えるようになっている。このため、簡単な操作で不要な情報を排除した検索を実行することが可能となる。
<2.第2の実施の形態>
次に、第2の実施の形態について説明する。第2の実施の形態の車載装置1の構成及び動作は、第1の実施の形態とほぼ同様であるため、以下、第1の実施の形態との相違点を中心に説明する。第2の実施の形態の車載装置1は、タッチパネル2の操作面に一点及び複数点のいずれでタッチしたかを検出できるとともに、タッチパネル2の操作面に非接触で近接した場合に、一点及び複数点のいずれで近接したかも検出できるようになっている。第2の実施の形態のタッチパネル2の方式は、第1の実施の形態と同様に、静電容量の変化を捉えてタッチ点数又は近接点数を検出する静電容量方式が採用されている。
<2−1.近接検出と情報の提供>
図7は、第2の実施の形態の車載装置1の構成を示すブロック図である。第2の実施の形態の車載装置1においては、タッチパネルコントローラ21が、タッチ検出部21aに加え、近接検出部21bを備えている。
前述のようにタッチ検出部21aは、2電極間の静電容量の変化を測定する相互容量方式を用いて静電容量の変化量を測定する。これに対して、近接検出部21bは、1つの電極に結合する静電容量を測定する自己容量方式が用いられており、ユーザの指の電極への近接によって浮遊容量に関して指と電極との間の静電容量が増加することに基づいて、静電容量の変化量を測定する。すなわち、タッチパネルコントローラ21は、相互容量方式と自己容量方式とを組み合わせて静電容量の変化量を測定している。なお、近接検出部21bは、タッチパネル2の操作面から例えば40mm以内にユーザの指の先端が存在した場合に静電容量が変化するように設定することができる。また、近接検出部21bは、測定した静電容量の変化量に対応する信号を制御部10に送信する。
本実施の形態の位置取得部10bは、タッチパネルコントローラ21のタッチ検出部21aからの信号とともに、近接検出部21bからの信号も受信する。このため、位置取得部10bは、ユーザが一点及び複数点のいずれでタッチしたかを判別するとともに、ユーザが一点及び複数点のいずれで近接したかを判別する。なお、タッチパネル2の操作面はディスプレイ3の表示面に重なるように配置されるため、ユーザが、タッチパネル2の操作面に非接触で近接した状態とは、ユーザが、ディスプレイ3の表示面に非接触で近接した状態であるともいえる。
ユーザが1本の指でタッチした場合と、複数本の指でタッチした場合とで静電容量の変化量が異なるため、位置取得部10bは、タッチ検出部21aから取得した信号における静電容量の変化量から、一点及び複数点のいずれでタッチしたかを判別する。同様に、ユーザが1本の指で近接した場合と、複数本の指で近接した場合とで静電容量の変化量が異なるため、位置取得部10bは、近接検出部21bから取得した信号における静電容量の変化量から、一点及び複数点のいずれで近接したかを判別する。
また、位置取得部10bは、タッチパネル2の操作面のユーザがタッチした位置と近接した位置を取得できるのみならず、タッチパネル2の操作面に対してユーザが非接触で近接している位置も取得できる。位置取得部10bは、タッチパネル2の操作面にユーザが一点でタッチ又は近接した場合はその一点の位置を取得し、ユーザが複数点でタッチ又は近接した場合はその複数点それぞれの位置を取得する。
本実施の形態の情報検索部10dは、検出されたユーザの近接点数と、ユーザの発話した内容とに基づいて第1の実施の形態と同様の方法で情報を検索する。具体的には、ユーザが、タッチパネル2の操作面に一点で近接した状態で、例えば「新宿駅」と発話すると、情報検索部10dは、記憶部11に記憶されたコンテンツデータ11cの中から「新宿駅」に対応するデータを検索する。対応するデータとは、例えば、「新宿駅」をデータ名称に含むデータである。
そして、車載装置1は、「新宿駅」に関連するコンテンツデータとして楽曲データが検索された場合には、その楽曲データに対応する音をスピーカ14から出力する。すなわち、ユーザの発話から認識された内容に基づいて検索された検索結果が出力される。なお、スピーカ14からの出力の際には、楽曲データに対応する情報をディスプレイ3に表示してもよい。
また、検索した後には、検索結果をディスプレイ3に表示してユーザに知らせるようにしてもよい。この場合も検索結果が出力されたことになる。また、表示された検索結果の中からユーザが出力するデータを選択すると、選択された楽曲データに対応する音がスピーカから出力される。
一方、ユーザが、タッチパネル2の操作面に複数点(二点)で近接した状態で、例えば「新宿駅」と発話すると、情報検索部10dは、記憶部11に記憶された地図データ11bの中から「新宿駅」に対応する地点を検索する。対応する地点とは、例えば、地名に「新宿駅」を含む地点である。
そして、車載装置1は、「新宿駅」に対応する地点が検索された場合には、その地点を含む地図をディスプレイ3に表示する。この場合においても、例えば、同じ地点名を含む地点が複数検索された場合などには、検索結果をディスプレイ3に表示してユーザに知らせるようにしてもよい。すなわち、これらの表示が、ユーザの発話から認識された内容に基づいて検索された検索結果の出力となる。そして、表示された検索結果の中からユーザがいずれかの地点を選択すると、選択された地点を含む地図がディスプレイ3に表示される。
このように、本実施の形態の車載装置1は、ユーザがタッチパネル2に近接した点の数(近接点数)に応じて、種類分けされた複数のデータ群の中から、特定の種類のデータ群を検索対象とし、ユーザが発話した内容の認識結果に基づいて情報を検索する処理を行う。本実施の形態では、近接点数が一点の場合にはコンテンツデータを検索対象とし、複数点(二点)の場合には地図データを検索対象としている。つまり、ユーザがタッチパネル2の任意の一点に近接した状態で発話すると、車載装置1は、発話した内容の認識結果に基づいてコンテンツデータの中から対応するデータを検索し、その結果を出力する。また、ユーザがタッチパネル2の任意の複数点(二点)に近接した状態で発話すると、車載装置1は、発話した内容の認識結果に基づいて地図データの中から対応するデータを検索し、その結果を出力する。
従って、第2の実施の形態においても複数階層に渡る操作を行うことなく、一度の操作で情報を検索することが可能になる。また、地図データとコンテンツデータとを分けて検索することができるため、同じ検索単語を用いた場合に異なる種類のデータ群の検索結果が含まれてしまうことがなく、検索結果の中から出力する情報をさらに選択するといった操作を不要にすることが可能となる。
<2−2.動作の流れ>
次に、車載装置1の動作の流れについて説明する。図8は、第2の実施の形態における車載装置1が情報を提供する際の動作の流れを示す図である。この動作は、図5に示す第1の実施の形態の車載装置1の動作におけるステップS10、ステップS11、ステップS19が異なり、他の動作は第1の実施の形態と同様である。このため、以下では主として第1の実施の形態と相違する点について説明する。
車載装置1は、電源が入力されて起動すると、位置取得部10bが、ユーザによるタッチパネル2の操作面への近接を待機する(ステップS20)。位置取得部10bは、タッチパネルコントローラ21の近接検出部21bからの信号に基づいて、ユーザがタッチパネル2の操作面へ近接したか否かを判定する。
ユーザがタッチパネル2の操作面へ近接していない場合は(ステップS20でNo)、再度ユーザによるタッチパネル2の操作面への近接を待機する。一方、ユーザがタッチパネル2の操作面へ近接した場合は(ステップS20にてYes)、位置取得部10bが、ユーザが一点で近接したか、複数点(二点)で近接したかを判別する(ステップS21)。
すなわち、ユーザがタッチパネル2の操作面へ近接した場合は、位置取得部10bが、タッチパネル2の操作面にユーザが一点及び複数点のいずれで近接したかを判別し、ユーザの近接した位置及び近接点数を取得する。
具体的には、ユーザがタッチパネル2の操作面へ近接した場合は、タッチパネルコントローラ21の近接検出部21bが、静電容量の変化量を測定し、測定結果を示す信号を制御部10に送信する。そして、位置取得部10bが、この近接検出部21bから取得した信号に基づいて(すなわち、静電容量の変化量に基づいて)、タッチパネル2の操作面にユーザが一点及び複数点のいずれで近接したかを判別する。また、位置取得部10bは、タッチパネル2の操作面にユーザが一点で近接した場合はその一点の位置を取得し、ユーザが複数点で近接した場合はその複数点でそれぞれの位置を取得する。
ユーザが複数点で近接した場合には(ステップS21でYes)、音声認識部10cが、ユーザが発話した音声データを入力したか否かを判定する(ステップS22)。音声データが入力された場合は(ステップS22でYes)、音声認識部10cが、音声認識処理を実行する(ステップS23)。例えば、ユーザが「新宿駅」と発話した場合には、音声認識部10cの認識処理によって、ユーザが発話した内容は「シンジュクエキ」であると認識される。
そして、情報検索部10dは、地図データを用いた検索を行う(ステップS24)。ユーザが複数点で近接した状態で「新宿駅」と発話しているので、情報検索部10dは、記憶部11に記憶されている地図データ11bを検索対象とし、その中から、地名に「シンジュクエキ」を含む地点を検索する。
そして、車載装置1は、検索結果を出力する(ステップS25)。検索の結果、地名に「シンジュクエキ」を含む地点が検索された場合には、表示制御部10aが、その地点を含む地図をディスプレイ3に表示する。これらステップS22〜ステップS25の処理は、上述したステップS12〜ステップS15と同様の処理である。
なお、第1の実施の形態と同様に、検索の結果、対応する地点が複数検索された場合には、それら地点名の一覧をディスプレイ3に表示してもよい。この場合、ユーザがその中から選択した地点を含む地図がディスプレイ3に表示される。また、検索の結果、対応する地点が検索されなかった場合には、その旨がディスプレイ3に表示される。
一方、上述のユーザが一点で近接したか、複数点で近接したかの判別処理(ステップS21)において、ユーザが複数点で近接していないと判別した場合(ステップS21でNo)、音声認識部10cは、ユーザが発話した音声データを入力したか否かを判定する(ステップS26)。ユーザが複数点で近接していない場合とは、ユーザが一点で近接した場合である。なお、これは、ステップS22と同様の処理である。
そして、音声データが入力された場合は(ステップS26でYes)、音声認識部10cが、音声認識処理を実行する(ステップS27)。これは、ステップS23と同様の処理である。例えば、ユーザが「新宿駅」と発話した場合には、音声認識部10cの認識処理によって、ユーザが発話した内容は「シンジュクエキ」であると認識される。
次に、情報検索部10dが、コンテンツデータを用いた検索を行う(ステップS28)。ユーザが複数点で近接した状態で「新宿駅」と発話しているので、情報検索部10dは、記憶部11に記憶されているコンテンツデータ11cを検索対象とし、その中から、楽曲名や映像名、アーティスト名に「シンジュクエキ」を含むデータを検索する。
そして、車載装置1は、検索結果を出力する(ステップS25)。検索の結果、例えば、楽曲名に「シンジュクエキ」を含む楽曲データが検索された場合には、オーディオ部13が、その楽曲データをデコードして音響信号を生成する。この音響信号は制御部10の制御によりスピーカ14に出力され、スピーカ14から音が出力される。また、表示制御部10aは、オーディオの再生画面をディスプレイ3に表示させてもよい。これらステップS25〜ステップS28の処理は、上述したステップS15〜ステップS18と同様の処理である。
なお、第1の実施の形態と同様に、検索の結果、対応する楽曲データや映像データなどが複数検索された場合には、それらの一覧をディスプレイ3に表示してもよい。この場合、ユーザがその中から選択したコンテンツの楽曲データや映像データがデコードされ、デコードされた音又は映像がスピーカ14又はディスプレイ3から出力される。なお、検索結果の件数に関わらず(例えば1件であっても)、検索結果を表示する構成としてもよい。また、検索の結果、対応するデータが検索されなかった場合には、その旨がディスプレイ3に表示される。
なお、上述の音声データの入力があったか否かの判定処理(ステップS22及びS26)において、音声データの入力がない場合には(ステップS22及びS26でNo)、タッチ入力処理を行う(ステップS29)。タッチ入力処理とは、通常のタッチパネル2の操作における処理である。ユーザがタッチパネル2に近接した状態で音声データの入力がない場合には、その後にユーザがタッチパネル2にタッチする可能性がある。このため、第2の実施の形態のタッチ入力処理では、ユーザがタッチパネル2にタッチしたか否かを判別して、タッチした場合には、それに該当する処理を実行する。
このように、本実施の形態では、ユーザが発話した内容を音声認識し、認識された内容に基づいて情報を検索するものである。さらに、ユーザがタッチパネルに一点で近接したか、複数点で近接したかに応じて検索対象となるデータ群を変えるようになっている。このため、簡単な操作で不要な情報を排除した検索を実行することが可能となる。
<3.第3の実施の形態>
次に、第3の実施の形態について説明する。第3の実施の形態は、車載装置1が外部のセンター6と通信可能に構成された情報提供システムであり、情報提供システムは、車載装置1に対するユーザの操作に従って、センターが音声認識処理及び情報検索処理を行う構成である。以下、第3の実施の形態について第1及び第2の実施の形態との相違点を中心に説明する。なお、以下では、タッチパネル2にタッチした場合を例に挙げて説明するが、近接した場合でも同様に適用可能である。
<3−1.構成>
図9は、第3の実施の形態の車載装置1の構成を示すブロック図である。第3の実施の形態の車載装置1は、第1の実施の形態と同様に、自動車などの車両内において使用されるものであり、車室内のドライバなどのユーザに対して各種の情報を提供する。
図9に示すように、車載装置1は、タッチパネル2、ディスプレイ3、操作部4、タッチパネルコントローラ21、制御部10、ナビゲーション部12、オーディオ部13、スピーカ、マイク15及び通信部16を備えている。このうち、タッチパネル2、ディスプレイ3、操作部4、タッチパネルコントローラ21、ナビゲーション部12、オーディオ部13、スピーカ14及びマイク15は、第1の実施の形態と同様の構成である。
記憶部11は、例えばフラッシュメモリなど、各種のデータを記憶可能な不揮発性の記憶媒体である。記憶部11には、車載装置1の動作に必要な各種のデータや、プログラム11aが記憶される。
制御部10は、車載装置1全体を制御する。制御部10は、例えば、CPU、RAM及びROMなどを備えるマイクロコンピュータである。制御部10の各種の機能は、記憶部11に記憶されたプログラム11aをCPUが実行することにより実現される。このようなプログラム11aは、メモリカードなどの記憶媒体からの読み出し等により取得され、記憶部11に予め記憶される。また、本実施の形態の車載装置1は、ネットワークを介した通信機能を備えており、他の通信装置との通信によりプログラム11aが取得されてもよい。
図中に示す、表示制御部10a、位置取得部10b、通信制御部10eは、プログラム11aの実行により実現される制御部10の機能のうちの一部である。これらの機能10a、10b及び10eは、表示制御やタッチ点数の検出等を行う際の機能に関連するものである。なお、表示制御部10a及び位置取得部10bは、第1の実施の形態と同様の機能である。通信制御部10eは、車載装置1とセンター6との間でデータの送受信を行う際に通信部16を制御する。
通信部16は、センター6と通信可能に構成され、センター6との間で情報の送受信を行う。通信部16は、例えば、センター6に対して、マイク15を介して取得したユーザの発話した音声データをセンター6に送信する。また、通信部16は、例えば、センター6から情報の検索結果を受信する。車載装置1とセンター6との通信は、例えば携帯電話網を通じて行うことができるが、これに限定されず他のネットワークを介して通信を行うこともできる。
図10は、センター6の構成を示すブロック図である。センター6は、車載装置1の外部に設けられた情報処理装置であり、本実施の形態のセンター6は、車載装置1から受信したタッチ点数と音声データとに基づいて、情報の検索を行う。図10に示すように、センター6は、制御部60、記憶部61及び通信部62を備えている。
記憶部61は、例えばフラッシュメモリなど、各種のデータを記憶可能な不揮発性の記憶装置である。記憶部61には、センター6の動作に必要な各種のデータや、プログラム61a、地図データ61b、コンテンツデータ61cが記憶される。地図データ61bは、複数の地点データが含まれるデータ群であり、コンテンツデータ61cは、複数の楽曲データや映像データが含まれるデータ群である。このように、記憶部61には、種類分けされた複数のデータ群が記憶されている。
通信部62は、車載装置1と通信可能に構成され、車載装置1との間で情報の送受信を行う。通信部62は、例えば、車載装置1に対して情報の検索結果を送信し、車載装置1からユーザの発話した音声データを受信する。
制御部60は、センター6全体を制御する。制御部60は、例えば、CPU、RAM及びROMなどを備えるマイクロコンピュータである。制御部60の各種の機能は、記憶部61に記憶されたプログラム61aをCPUが実行することにより実現される。図中に示す、音声認識部60a及び情報検索部60bは、プログラム61aの実行により実現される制御部60の機能のうちの一部である。これらの機能60a及び60bは、地図データやコンテンツデータの各種情報を検索する際の機能に関連するものである。
音声認識部60aは、車載装置1から受信した音声データを解析し、車載装置1のユーザが発話した内容(語意)を認識する。例えば、ユーザが目的地を検索するために地点名を発話した場合、音声認識部60aは、車載装置1から取得した音声信号を文字情報に変換してユーザが発話した内容を認識する。
情報検索部60bは、音声認識部60aによって認識された語意に対応するデータを記憶部61内の各データ群から検索する。例えば、ユーザが目的地を検索するために地点名を発話した場合、情報検索部60bは、音声認識部60aが認識した語意に対応する地点を地図データ61bの中から検索する。また、ユーザが楽曲データを検索するために楽曲名を発話した場合、情報検索部60bは、音声認識部60aが認識した語意に対応する楽曲データをコンテンツデータ61cの中から検索する。
さらに、本実施の形態においても、情報検索部60bは、車載装置1から取得したタッチ点数に応じて検索対象を地図データ61b及びコンテンツデータ61cのいずれか一方としている。すなわち、センター6は、車載装置1からユーザがタッチパネル2の操作面を一点でタッチしたか、複数点でタッチしたかの情報を取得し、この情報に応じて、地図データ61bを用いて検索するか、コンテンツデータ61cを用いて検索するかを切り替える。
<3−2.情報の提供>
次に、情報提供システムにおける情報の提供について説明する。本実施の形態は、センター6が、車載装置1からタッチ点数の情報及び音声データを受信すると、これら各情報に基づいて音声認識処理及び情報検索処理を実行して、検索結果を車載装置1に送信し、車載装置1が検索結果を出力する構成である。以下、具体的に説明する。
まず、ユーザがタッチパネル2上の任意の一点をタッチした状態で、例えば「新宿駅」と発話すると、車載装置1は、マイク15を介して取得した音声データと、一点でタッチした旨を示すタッチ点数の情報とを通信部16を介してセンター6に送信する。
センター6は、これらの情報を受信すると、音声認識部60aが、音声データを解析して、ユーザが発話した内容が「シンジュクエキ」であることを認識する。そして、情報検索部60bが、記憶部61に記憶されたコンテンツデータ61cの中から「新宿駅」に対応するデータを検索する。対応するデータとは、例えば、「新宿駅」をデータ名称に含むデータである。
センター6は、「新宿駅」に対応するコンテンツデータとして楽曲データが検索された場合には、その検索された楽曲データを検索結果として車載装置1に送信する。そして、車載装置1は、受信した楽曲データに対応する音をスピーカ14から出力する。なお、スピーカ14からの出力の際には、楽曲データに対応する情報をディスプレイ3に表示してもよい。
また、センター6は、検索した後に、一旦検索結果の一覧データを車載装置1に送信してもよい。この場合、車載装置1は、検索結果の一覧をディスプレイ3に表示し、表示された一覧の中からユーザが選択した楽曲の情報をセンター6に送信する。そして、センター6は、ユーザが選択した楽曲データを車載装置1に送信し、車載装置1は、受信した楽曲データに対応する音をスピーカから出力する。
一方、ユーザがタッチパネル2上の任意の複数点(二点)をタッチした状態で、例えば「新宿駅」と発話すると、車載装置1は、マイク15を介して取得した音声データと、複数点(二点)でタッチした旨を示すタッチ点数の情報とを通信部16を介してセンター6に送信する。
センター6は、これらの情報を受信すると、音声認識部60aが、音声データを解析して、ユーザが発話した内容を認識し、情報検索部60bが、記憶部61に記憶された地図データ61bの中から「新宿駅」に対応する地点を検索する。対応する地点とは、例えば、地名に「新宿駅」を含む地点である。
センター6は、「新宿駅」に対応する地点が検索された場合には、その地点を含む地図データを検索結果として車載装置1に送信する。そして、車載装置1は、受信した地図データに対応する地図をディスプレイ3に表示する。
この場合においても、同じ地点名を含む地点が複数検索された場合などには、センター6は、一旦検索結果の一覧データを車載装置1に送信してもよい。車載装置1は、検索結果の一覧をディスプレイ3に表示し、表示された一覧の中からユーザが選択した地点の情報をセンター6に送信する。そして、センター6は、ユーザが選択した地点を含む地図データを車載装置1に送信し、車載装置1は、受信した地図データに対応する地図をディスプレイ3に表示する。
このように、本実施の形態は、ユーザがタッチパネル2をタッチした点の数(タッチ点数)に応じて、種類分けされた複数のデータ群の中から、特定の種類のデータ群を検索対象とし、ユーザが発話した内容の認識結果に基づいて情報を検索する処理を行う。本実施の形態では、ユーザがタッチパネル2の任意の一点をタッチした状態で発話すると、センター6が、発話した内容を認識すると共に、認識結果に基づいてコンテンツデータの中から対応するデータを検索し、車載装置1が、その検索結果を出力する。また、ユーザがタッチパネル2の任意の複数点(二点)をタッチした状態で発話すると、センター6が、発話した内容を認識すると共に、認識結果に基づいて地図データの中から対応するデータを検索し、車載装置1が、その検索結果を出力する。
従って、複数階層に渡る操作を行うことなく、一度の操作で情報を検索することが可能になる。また、地図データとコンテンツデータとを分けて検索することができるので、同じ検索単語を用いた場合に異なる種類のデータ群の検索結果が含まれてしまうことがなく、検索結果の中から出力する情報をさらに選択するといった操作を不要にすることが可能となる。
<3−3.動作の流れ>
次に、車載装置1及びセンター6の動作の流れについて説明する。図11は、車載装置1の動作の流れを示す図であり、図12は、センター6の動作の流れを示す図である。これらの動作は、電源が入力されると開始される。
まず、図11に基づいて車載装置1の動作の流れについて説明する。車載装置1は、電源が入力されて起動すると、位置取得部10bが、ユーザによるタッチパネル2の操作面へのタッチを待機する(ステップS30)。位置取得部10bは、タッチパネルコントローラ21へのタッチ検出部21aからの信号に基づいて、ユーザがタッチパネル2の操作面へタッチしたか否かを判定する。
ユーザがタッチパネル2の操作面へタッチしていない場合は(ステップS30でNo)、再度ユーザによるタッチパネル2の操作面へのタッチを待機する。一方、ユーザがタッチパネル2の操作面へタッチした場合は(ステップS30にてYes)、位置取得部10bが、タッチ点数を判別する(ステップS31)。すなわち、位置取得部10bは、ユーザが一点でタッチしたか、複数点(二点)でタッチしたかを判別する。この処理は、上述したステップS11と同様にして行うことができる。
次に、制御部10は、ユーザが発話した音声データを入力したか否かを判定する(ステップS32)。具体的には、制御部10は、マイク15を介して音声データが入力されたか否かを判定する。
音声データが入力された場合は(ステップS32でYes)、車載装置1は、通信部16を介してタッチ点数の情報と音声データとをセンター6に送信する(ステップS33)。そして、車載装置1は、センター6から検索結果を受信したか否かを判定する(ステップS34)。これは、車載装置1がタッチ点数の情報と音声データとをセンター6に送信すると、センター6が情報の検索を実行して、その検索結果を車載装置1に送信するようになっているためである。
検索結果を受信していない場合には(ステップS34でNo)、車載装置1は、再度センター6から検索結果を受信したか否かの監視を行う。一方、検索結果を受信した場合には(ステップS34でYes)、車載装置1は、検索結果を出力する(ステップS35)。車載装置1は、検索結果として楽曲データを受信した場合には、その楽曲データに対応する音をスピーカ14から出力する。また、車載装置1は、検索結果として地図データを受信した場合には、その地図データに対応する地図をディスプレイ3に表示する。
なお、音声データの入力があったか否かの判定処理(ステップS32)において、音声データの入力がないと判定された場合には(ステップS32でNo)、タッチ入力処理を行う(ステップS19)。本実施の形態においても、ユーザがタッチパネル2をタッチした状態で音声データの入力がない場合には、ユーザは情報の検索処理を実行する意思がないと考えられるため、このような場合には、制御部10は通常のタッチ入力処理を実行する。
次に、図12に基づいてセンター6の動作の流れについて説明する。センター6は、電源が入力されて起動すると、制御部60は、車載装置1からタッチ点数の情報と音声データとを受信したか否かを判定する(ステップS40)。タッチ点数の情報と音声データとを受信していない場合には(ステップS40でNo)、制御部60は、再度受信の有無の監視を行う。
一方、タッチ点数の情報と音声データとを受信した場合には(ステップS40でYes)、音声認識部60aが、音声認識処理を行う(ステップS41)。音声認識部60aは、受信した音声データについて、上述した方法と同様の方法により音声認識を行うことができる。また、制御部60は、受信したタッチ点数の情報に基づいて、一点でタッチされたか、複数点でタッチされたかを判定する(ステップS42)。
複数点でタッチされた場合には(ステップS42でYes)、情報検索部60bは、地図データ61bを用いた検索を行う(ステップS43)。地図データ61bを用いた検索は、上述した方法と同様の方法で行うことができる。そして、センター6は、通信部62を介して、検索した地点等を含む地図データを検索結果として車載装置1に送信する(ステップS44)。
一方、一点でタッチされた場合には(ステップS42でNo)、情報検索部60bは、コンテンツデータ61cを用いた検索を行う(ステップS45)。コンテンツデータ61cを用いた検索についても、上述した方法と同様の方法で行うことができる。また、センター6は、通信部62を介して、検索した楽曲データ等を検索結果として車載装置1に送信する(ステップS44)。
このように、本実施の形態では、センター6側で情報の検索処理を実行するため、車載装置1が地図データやコンテンツデータを有していない場合であっても、車載装置1がそれら各データ群を有している場合と同様に情報検索を行うことができる。
また、本実施の形態においても、ユーザがタッチパネル2をタッチした点の数に応じて、特定の種類のデータ群を検索対象としている。また、ユーザが発話した内容の認識結果に基づいて情報を検索し、その検索結果を出力する処理を行う。従って、複数階層に渡る操作を行うことなく、一度の操作で情報を検索することが可能になる。また、地図データとコンテンツデータとを分けて検索することができるので、同じ検索単語を用いた場合に異なる種類のデータ群の検索結果が含まれてしまうことがなく、検索結果の中から出力する情報をさらに選択するといった操作を不要にすることが可能となる。
<4.変形例>
以上、本発明の実施の形態について説明してきたが、この発明は上記各実施の形態に限定されるものではなく様々な変形が可能である。以下では、このような変形例について説明する。上記実施の形態及び以下で説明する形態を含む全ての形態は、適宜に組み合わせ可能である。
上記実施の形態では、ユーザがタッチパネルの操作面の任意の点をタッチした状態で発話すると情報検索処理を実行することとしていたが、タッチパネルの操作面の特定の場所をタッチした状態で発話した際に情報検索処理を実行する構成としてもよい。例えば、ディスプレイ上に「検索ボタン」や「発話ボタン」等が表示されており、ユーザがこのようなボタンが表示されている箇所をタッチして発話した際に、情報検索処理を実行する構成である。
また、ユーザがタッチパネルの操作面の任意の点をタッチした状態で一定時間が経過すると、発話を促す表示や音声出力がされる構成であってもよい。この場合には、一定時間の経過後に、ディスプレイ上に「発話ボタン」を表示させたり、スピーカから「発話してください」等の音を出力することでユーザに対して発話を促すこととなる。また、このような表示や音声出力があると発話モードに移行させ、タッチを離した状態で発話した場合であっても情報検索処理を実行する構成としてもよい。
また、「発話ボタン」等をディスプレイに表示する構成の他に、例えば、車両内のハンドル部分に「発話ボタン」を設け、ユーザが「発話ボタン」を押して発話することで情報検索処理を実行する構成としてもよい。
また、上記実施の形態では、タッチパネルの操作面を一点でタッチしたか、複数点(二点)でタッチしたかに応じて、地図データの検索とコンテンツデータの検索とを変えていたが、複数点を三点以上のタッチとしてもよい。例えば、一点でタッチした場合には、地図データの検索処理を実行し、複数点でタッチした場合にはコンテンツデータの検索処理を実行する構成とし、さらに、二点でタッチした場合には楽曲データを検索し、三点でタッチした場合には映像データを検索する等に変える構成とすることができる。このように、三点以上のタッチとする場合には、点数と特定の種類のデータ群とを対応付けることで検索対象を設定することができる。
また、上記実施の形態では、タッチパネルの操作面をタッチした場合と、近接した場合とに分けて説明したが、これら両方を含む構成としてもよい。例えば、タッチパネルの操作面をタッチした場合は地図データを用いて検索し、近接した場合はコンテンツデータを用いて検索する等である。さらに、タッチした場合及び近接した場合の双方において、一点でタッチ又は近接したか、複数点でタッチ又は近接したかに応じて、さらなる検索条件の絞込を行うことも可能である。
また、上記実施の形態では、ユーザがタッチパネルの操作面をタッチした後に、複数点でタッチしたか否かの判別を行い、その後音声入力の有無の判断と、音声認識処理を実行する流れで説明したがこれに限定されるものではない。例えば、ユーザがタッチした後に、音声入力の有無を判断し、音声入力があった場合に、複数点でタッチしたか否かの判別と音声認識とを行ってもよい。
また、上記実施の形態では、音声認識部と情報検索部とが、車載装置1及びセンター6のいずれかに備えられている構成について説明したが、これら各部が別々に備えられていてもよい。例えば、車載装置1が音声認識部を備えていて、センター6が情報検索部を備えている場合や、その逆の場合である。これらの場合であっても、音声データや発話内容のデータ等を互いに送受信することで、上記実施の形態と同様の処理を行うことが可能である。
また、上記実施の形態では、ユーザがタッチパネルの操作面を一点又は複数点(二点)でタッチする場合と近接する場合とについて説明したが、これら以外のジェスチャであってもよい。例えば、ユーザがタッチパネルの操作面をタッチしたまま指を移動させる操作(いわゆるフリック操作)や、タッチパネルの操作面上で指を移動させて円や四角等の図形を描く操作などである。これらの場合、例えば、右にフリック操作すると地図データを用いた検索を行い、左にフリック操作するとコンテンツデータを用いた検索を行うといったことが可能になる。また、例えば、右回りで円を描いた場合には地図データを用いた検索を行い、左回りで円を描いた場合にはコンテンツデータを用いた検索を行うといったことも可能になる。
さらには、データ群の種類が増えたときには、これら複数のジェスチャの各々に特定の種類のデータ群を対応付けることにより、3種類以上のデータ群がある場合にも対応できる。すなわち、本発明のジェスチャとは、検索対象のデータ群を選択するためのユーザによる操作のことであり、ジェスチャの一例として、上述したユーザがタッチパネルの操作面をタッチする操作や近接する操作、フリック操作や図形を描く操作等が含まれる。
また、上記実施の形態では、タッチパネルを用いたジェスチャ入力の検出を例に挙げて説明したが、タッチパネル以外の構成でユーザのジェスチャ入力を検出してもよい。例えば、車載装置1の周辺に赤外線センサを設ける構成である。この場合、例えば赤外線センサが、ユーザの手の動きを検出してジェスチャ入力を検出する。なお、その他のジェスチャを検出できるものであっても適用可能である。
また、上記実施の形態では、ユーザはタッチパネルの操作面に指でタッチするものとして説明したが、タッチペンなどのタッチツールを用いてタッチしてもよい。この場合は、タッチツールの位置をユーザの位置とみなせばよい。
また、上記実施の形態では、情報提供装置として車載装置について説明したが、これに限定されるものではなく、スマートフォンやタブレット端末などの携帯端末であっても同様に適用可能である。
また、上記各実施の形態では、プログラムに従ったCPUの演算処理によってソフトウェア的に各種の機能が実現されると説明したが、これら機能のうちの一部は電気的なハードウェア回路により実現されてもよい。また逆に、ハードウェア回路によって実現されるとした機能のうちの一部は、ソフトウェア的に実現されてもよい。
1 車載装置
2 タッチパネル
3 ディスプレイ
5 センター
10a 表示制御部
10b 位置取得部
10c・50a 音声認識部
10d・50b 情報検索部
10e 通信制御部
11b・51b 地図データ
11c・51c コンテンツデータ
21a タッチ検出部
21b 近接検出部

Claims (6)

  1. 音声に基づき検索結果を提供する情報提供装置であって、
    非接触の物体に基づき、ユーザがタッチして操作するタッチパネルに対して、ユーザが一点で近接したジェスチャと複数点で近接したジェスチャとを検出する検出手段と、
    ユーザの発話を取得する発話取得手段と、
    前記検出手段で検出されたジェスチャが前記一点で近接したジェスチャか又は前記複数点で近接したジェスチャかの何れかに応じて、種類分けされた複数のデータ群の中から、特定の種類のデータ群を検索対象とし、前記発話取得手段で取得された前記発話から認識された発話内容に基づいて前記検索対象から検索された検索結果を前記タッチパネルを備えたディスプレイへ出力する検索結果出力手段と、
    を備えていることを特徴とする情報提供装置。
  2. 請求項1に記載の情報提供装置において、
    前記発話内容を認識する認識手段をさらに備えていることを特徴とする情報提供装置。
  3. 請求項1に記載の情報提供装置において、
    前記発話内容を認識する外部の装置から、認識された前記発話内容を取得する認識結果取得手段をさらに備えていることを特徴とする情報提供装置。
  4. 請求項2又は3に記載の情報提供装置において、
    認識された前記発話内容に基づいて検索を実行する検索手段をさらに備えていることを特徴とする情報提供装置。
  5. 請求項2又は3に記載の情報提供装置において、
    認識された前記発話内容に基づいて検索を実行する外部の装置から、検索結果を取得する検索結果取得手段をさらに備えていることを特徴とする情報提供装置。
  6. 音声に基づき検索結果を提供する情報提供方法であって、
    (a)非接触の物体に基づき、ユーザがタッチして操作するタッチパネルに対して、ユーザが一点で近接したジェスチャと複数点で近接したジェスチャとを検出する工程と、
    (b)ユーザの発話を取得する工程と、
    (c)前記(a)工程で検出されたジェスチャが前記一点で近接したジェスチャか又は前記複数点で近接したジェスチャかの何れかに応じて、種類分けされた複数のデータ群の中から、特定の種類のデータ群を検索対象とし、前記(b)工程で取得された前記発話から認識された発話内容に基づいて前記検索対象から検索された検索結果を前記タッチパネルを備えたディスプレイへ出力する工程と、
    実行することを特徴とする情報提供方法。
JP2013012908A 2013-01-28 2013-01-28 情報提供装置、及び、情報提供方法 Active JP6099414B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013012908A JP6099414B2 (ja) 2013-01-28 2013-01-28 情報提供装置、及び、情報提供方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013012908A JP6099414B2 (ja) 2013-01-28 2013-01-28 情報提供装置、及び、情報提供方法

Publications (2)

Publication Number Publication Date
JP2014146090A JP2014146090A (ja) 2014-08-14
JP6099414B2 true JP6099414B2 (ja) 2017-03-22

Family

ID=51426330

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013012908A Active JP6099414B2 (ja) 2013-01-28 2013-01-28 情報提供装置、及び、情報提供方法

Country Status (1)

Country Link
JP (1) JP6099414B2 (ja)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10198544A (ja) * 1997-01-09 1998-07-31 Toshiba Corp マルチモーダル入力解釈装置及びその入力統合・解釈方法
JP2005292970A (ja) * 2004-03-31 2005-10-20 Kenwood Corp 施設検索装置、プログラム、ナビゲーション装置、及び施設検索方法
US20120319977A1 (en) * 2010-02-16 2012-12-20 Sharp Kabushiki Kaisha Display device with touch panel, control method therefor, control program, and recording medium
JP5584603B2 (ja) * 2010-12-06 2014-09-03 富士通テン株式会社 情報提供システムおよび情報提供装置

Also Published As

Publication number Publication date
JP2014146090A (ja) 2014-08-14

Similar Documents

Publication Publication Date Title
KR102022318B1 (ko) 음성 인식을 사용하여 사용자 기능을 수행하는 방법 및 장치
US9733895B2 (en) Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same
US9942302B2 (en) Terminal apparatus mountable in vehicle, mobile device for working with the terminal apparatus, and methods for providing service thereof
US8060841B2 (en) Method and device for touchless media searching
RU2669087C2 (ru) Способ и устройство управления тактильной отдачей инструмента ввода для терминала мобильной связи
JP6245788B2 (ja) 情報入力装置
KR101647848B1 (ko) 정보 입력 및 표시를 위한 운전자 보조 시스템의 멀티모드 사용자 인터페이스
US20140168130A1 (en) User interface device and information processing method
KR20140112910A (ko) 입력 제어 방법 및 이를 지원하는 전자 장치
CN103034328A (zh) 电子设备以及提供其用户界面的方法
US9495088B2 (en) Text entry method with character input slider
EP2743816A2 (en) Method and apparatus for scrolling screen of display device
CN103970451B (zh) 用于控制内容播放的方法和设备
JP6208837B1 (ja) ユーザインタフェースを制御する方法、プログラム及び装置
US20150033122A1 (en) System and method for processing touch input
US20120218207A1 (en) Electronic device, operation control method, and storage medium storing operation control program
WO2018112803A1 (zh) 触摸屏手势识别的方法及装置
JP6099414B2 (ja) 情報提供装置、及び、情報提供方法
KR102496617B1 (ko) 영상 표시 장치 및 영상 표시 방법
KR102057936B1 (ko) 차량에 탑재 가능한 단말 장치 및 이와 연동하는 모바일 디바이스와, 이들의 서비스 제공 방법
JP2018124805A (ja) 車載情報端末及び情報検索プログラム
EP2806364B1 (en) Method and apparatus for managing audio data in electronic device
JP2008233009A (ja) カーナビゲーション装置及びカーナビゲーション装置用プログラム
JP2011080824A (ja) ナビゲーション装置
JP7010585B2 (ja) 音コマンド入力装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170221

R150 Certificate of patent or registration of utility model

Ref document number: 6099414

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250