JP2020144552A - 情報提供装置および情報提供方法 - Google Patents
情報提供装置および情報提供方法 Download PDFInfo
- Publication number
- JP2020144552A JP2020144552A JP2019039968A JP2019039968A JP2020144552A JP 2020144552 A JP2020144552 A JP 2020144552A JP 2019039968 A JP2019039968 A JP 2019039968A JP 2019039968 A JP2019039968 A JP 2019039968A JP 2020144552 A JP2020144552 A JP 2020144552A
- Authority
- JP
- Japan
- Prior art keywords
- information providing
- unit
- vehicle
- information
- content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Traffic Control Systems (AREA)
- Navigation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
【課題】ユーザビリティを向上させる情報提供装置および情報提供方法を提供する。【解決手段】画像処理システムの情報提供装置1において、制御部2は、認識部21と、特定部23と、提供部24とを備える。認識部は、対象物に対する問いかけ操作を認識する。特定部は、認識部によって認識された問いかけ操作に基づいて対象物を特定する。提供部は、特定部によって特定された対象物のコンテンツを乗員へ提供する。【選択図】図2
Description
本発明は、情報提供装置および情報提供方法に関する。
従来、例えば、ナビゲーション装置において、画面上に表示した地図上で選択された対象物に関する詳細情報を画面上に表示するものがある(例えば、特許文献1参照)。
しかしながら、従来技術では、例えば、ドライバが走行中に地図上から対象物を選択する、あるいは、後部座席の乗員がかかる対象物を選択することが難しく、ユーザビリティを向上させるうえで改善の余地があった。
本発明は、上記に鑑みてなされたものであって、ユーザビリティを向上させることができる情報提供装置および情報提供方法を提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明に係る情報提供装置は、認識部と、特定部と、提供部とを備える。前記認識部は、対象物に対する問いかけ操作を認識する。前記特定部は、前記認識部によって認識された問いかけ操作に基づいて対象物を特定する。前記提供部は、前記特定部によって特定された対象物のコンテンツを前記乗員へ提供する。
本発明によれば、ユーザビリティを向上させることができる。
以下、添付図面を参照して、本願の開示する情報提供装置および情報提供方法の実施形態を詳細に説明する。なお、以下に示す実施形態により本発明が限定されるものではない。
まず、図1Aおよび図1Bを用いて、実施形態に係る情報提供装置および情報提供方法の概要について説明する。図1Aは、情報提供装置の搭載例を示す図である。図1Bは、情報提供方法の概要を示す図である。
図1Aに示すように、実施形態に係る情報提供装置1は、車両に搭載される。車両には、車外を撮像する車外カメラ12が設けられる。図1Aに示す例では、車外カメラ12が車両の前方を撮像するカメラである場合を示している。しかしながら、車外カメラ12は、車両の前方に限られず、車両の左右や後方を撮像するものを含むものとする。
また、ここでは図示を省略したが、車両には、車内を撮像する車内カメラや、車内の乗員の音声を集音するマイクなどが設けられる。
実施形態に係る情報提供装置1は、例えば、車外の対象物(建造物、モニュメント等)に対するコンテンツを乗員に対して提供するものである。具体的には、情報提供装置1は、例えば、車両の走行中などにおいて、乗員の視界に気になる建物が入った場合に、かかる建物に関するコンテンツを提供する。
ところで、一般的に、車外の建物に関する情報は、ナビゲーション装置等の車載装置に内蔵されたデータベースに登録される。車両のドライバが運転中に気になる対象物を発見したとしても、かかる対象物に関する情報(コンテンツ)を得るためには、例えば、車両を停車させて、車載装置に対して操作を行う必要がある。
また、一般的に、車載装置に対する操作は、前席(運転席や助手席)の乗員が行う必要があるため、後部座席の乗員が車載装置を操作すること自体が困難となる。すなわち、従来技術においては、各乗員がリアルタイムで対象物に関するコンテンツを得ることが困難である。
これに対して、実施形態に係る情報提供方法では、音声操作やジェスチャー操作による簡易な操作を受け付けるとともに、かかる操作に基づき、対象物を特定することとした。さらに、実施形態に係る情報提供方法では、車外カメラ12によって撮像されたカメラ画像からリアルタイムで対象物を特定する。
具体的には、実施形態に係る情報提供方法では、例えば、図1Bに示すように、問いかけ操作を認識する(ステップS1)。ここで、問いかけ操作とは、車窓から見える対象物に対して問いかける操作である。実施形態に係る情報提供方法では、後述するように、車内の乗員によるジェスチャー操作や所定の音声操作を問いかけ操作として認識することが可能である。
続いて、実施形態に係る情報提供方法では、ステップS1にて認識した問いかけ操作に基づいて対象物を特定する(ステップS2)。実施形態に係る情報提供方法では、問いかけ操作に基づき、車外カメラ12によって撮像された車外画像Ioから対象物を特定する。
具体的には、問いかけ操作が対象物を指差すジェスチャー操作である場合、かかるジェスチャー操作が指し示す方角にある建物等を対象物として特定する。図1Bに示す例では、対象物がポートタワーである場合を示す。
続いて、実施形態に係る情報提供方法では、特定した対象物のコンテンツを提供する(ステップS3)。例えば、実施形態に係る情報提供方法では、予め記憶したマップ情報から対象物に関するコンテンツを読み出して、提供することができる。図1Bに示す例では、車外画像Ioに写る対象物をマークMで囲うとともに、コンテンツCが吹き出しにて表示される場合を示す。
例えば、実施形態に係る情報提供方法では、車外画像Ioを車内のディスプレイに表示したり、乗員の端末装置へ転送したりすることで、コンテンツCを提供することができる。また、実施形態に係る情報提供方法では、問いかけ操作を行った乗員から見た対象物への視線上(例えば、窓ガラス)にコンテンツCを重畳させて提供することも可能である。
また、図1Bに示す例では、コンテンツCが対象物の名称などを含む情報である場合を示す。実施形態に係る情報提供方法では、例えば、乗員の嗜好などの情報に基づいてコンテンツCを乗員毎に変更することも可能である。言い換えれば、同一の対象物であっても、各乗員の興味にあわせて異なるコンテンツCを提供することも可能である。
このように、実施形態に係る情報提供方法では、ジェスチャー操作や音声操作による問いかけ操作を認識し、かかる問いかけ操作に基づいて対象物を特定する。そして、実施形態に係る情報提供方法では、特定した対象物に関するコンテンツを乗員に対して提供する。
これにより、乗員は、情報提供装置1を直接操作することなく、簡便な操作で所望する対象物に関するコンテンツを得ることが可能となる。したがって、実施形態に係る情報提供方法によれば、ユーザビリティを向上させることが可能となる。
次に、図1Cを用いて、実施形態に係る情報提供システムの構成例について説明する。図1Cは、情報提供システムの構成例を示す図である。
図1Cに示すように、情報提供システムSは、各車両に搭載された情報提供装置1に加え、端末装置40およびサーバ装置100をさらに備える。
端末装置40は、例えば、各車両の乗員が所有するスマートフォン、タブレット端末等を含む。例えば、端末装置40は、情報提供装置1と連携するアプリケーションによって、情報提供装置1およびサーバ装置100と協調して動作する。
例えば、情報提供システムSにおいて、情報提供装置1、端末装置40およびサーバ装置100は、ネットワークNを介して相互に通信することが可能である。なお、例えば、情報提供装置1および端末装置40間は、ネットワークNとは異なる近距離無線通信を行うことにしてもよい。
サーバ装置100は、例えば、最新のマップ情報や、コンテンツ情報などを記憶するサーバである。サーバ装置100は、所定周期で各情報提供装置1のマップ情報を更新することで、各情報提供装置1に格納されるマップ情報を最新のものにすることができる。
次に、図2を用いて実施形態に係る情報提供システムSの構成例について説明する。図2は、情報提供システムSのブロック図である。なお、ここでは、サーバ装置100と、情報提供装置1とのそれぞれの構成例について説明する。
まず、サーバ装置100について説明する。図2に示すように、サーバ装置100は、制御部110と、記憶部120とを備える。制御部110は、サーバ装置100全体を制御するCPUである。
記憶部120は、例えば、HDDなどの記憶媒体である。記憶部120には、マップ情報DB121およびユーザ情報DB122が記憶される。マップ情報DB121は、最新の地図情報を記憶するデータベースである。例えば、マップ情報DB121には、上記の対象物の候補となる建物、店舗、山、川などといったランドマークの位置情報、ランドマークの外観に関する特徴情報、ランドマーク毎のコンテンツ情報などが記憶される。
ユーザ情報DB122は、各乗員の趣味嗜好などに関する情報を記憶するデータベースである。例えば、情報提供システムSでは、乗員の端末装置40の操作履歴(Webの閲覧履歴など)等のログを収集し、かかるログに基づいて趣味嗜好を推定することが可能である。
制御部110は、各情報提供装置1から送信される各車両の位置情報に基づいて、各車両の現在地周辺のマップ情報を各情報提供装置1へ送信する。すなわち、車両の現在地において、乗員から見えるエリアのマップ情報をマップ情報DB121から読み出して、各情報提供装置1へ送信する。
このとき、制御部110は、ユーザ情報DB122を参照して乗員の趣味嗜好に応じて、マップ情報に含まれるコンテンツCを変更することも可能である。すなわち、制御部110は、乗員毎にコンテンツCを最適化することができる。
情報提供装置1は、図2に示すように、車内カメラ10、マイク11、車外カメラ12およびGPS(Global Positioning System)装置13および表示装置50に接続される。車内カメラ10は、車内の乗員を撮像するカメラである。車内カメラ10は、所定のフレームレートで乗員を撮像し、撮像毎にカメラ画像を情報提供装置1へ入力する。なお、車内カメラ10を座席ごとに設けるなど、複数設けることにしてもよい。
マイク11は、車内の乗員の発話音声を集音し、音声信号を情報提供装置1へ入力する。車外カメラ12は、上述した車外画像Ioを撮像するカメラである。GPS装置13は、GPSアンテナを有しており、車両の現在地を検出する装置である。
表示装置50は、情報提供装置1によって提供されるコンテンツを表示する表示装置である。例えば、本実施形態において、表示装置50は、車両のフロントガラスや、サイドガラス、リアガラスなどをスクリーンとする透過性ディスプレイである。
図2に示すように、実施形態に係る情報提供装置1は、制御部2と、記憶部3とを備える。制御部2は、認識部21と、取得部22と、特定部23と、提供部24と、更新部25とを備える。記憶部3は、キーワード情報31と、画像情報32と、マップ情報33とを記憶する。
情報提供装置1は、たとえば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、データフラッシュ、入出力ポートなどを有するコンピュータや各種の回路を含む。
コンピュータのCPUは、たとえば、ROMに記憶されたプログラムを読み出して実行することによって、制御部2の認識部21、取得部22、特定部23、提供部24および更新部25として機能する。
また、制御部2の認識部21、取得部22、特定部23、提供部24および更新部25の少なくともいずれか一つまたは全部をASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成することもできる。
また、記憶部3は、たとえば、RAMやデータフラッシュに対応する。RAMやデータフラッシュは、キーワード情報31、画像情報32、マップ情報33や各種プログラムの情報等を記憶することができる。なお、情報提供装置1は、有線や無線のネットワークで接続された他のコンピュータや可搬型記録媒体を介して上記したプログラムや各種情報を取得することとしてもよい。
キーワード情報31は、問いかけ操作のキーワードに関する情報である。例えば、キーワード情報31は、「あれなに?」などの車外の対象物を問いかけるキーワードに関する情報である。なお、外国人観光客を対象とする場合も想定されるため、キーワード情報31は、複数の言語に対応していることが好ましい。
画像情報32は、車外画像Ioに関する情報である。例えば、車外画像Ioに対して、車外画像Ioの撮像位置、撮像時刻が対応付けられて画像情報32として記憶部3に記憶される。なお、画像情報32は、車内が撮像された車内画像を含むことにしてもよい。
マップ情報33は、対象物の候補となるランドマークに関する情報である。例えば、ランドマークの位置情報、構造的特徴、写真、コンテンツに関する情報がマップ情報33として記憶部3に記憶される。
制御部2は、問いかけ操作を認識し、問いかけ操作に対応する対象物を特定するとともに、対象物に関するコンテンツを提供する。
認識部21は、車内の乗員による車外の対象物に対する問いかけ操作を認識する。本実施形態において、認識部21は、ジェスチャー操作や音声操作による問いかけ操作を認識する。
具体的には、認識部21は、車内の乗員が撮像された車内画像からジェスチャー操作を認識することができる。例えば、認識部21は、車内画像において、乗員の手の位置をトラッキングしておく。
そして、認識部21は、乗員の手が車外を指し示すジェスチャー操作を行った場合に、かかるジェスチャー操作を問いかけ操作として認識する。すなわち、認識部21は、乗員が指で車外を指し示した場合に、問いかけ操作として認識することとなる。
また、認識部21は、乗員の発話音声を解析し、キーワード情報31として格納されたキーワードと一致する場合に、音声操作に基づいて問いかけ操作を認識することができる。なお、この場合、認識部21は、キーワードの前後の音声から対象物に関するキーワードを抽出することもできる。
この場合におけるキーワードは、色、形状、位置などを示すワードである。すなわち、「あの白いビルなに?」といった発話音声からは、対象物が「白色」であり、対象物が「ビル」であると推定することができる。
また、「白いビルの奥に見える建物なに?」との会話からは、対象物が白いビルよりも奥側(車両から遠い位置)に位置していると推定することができる。このように、認識部21は、会話から対象物に関するキーワードを抽出することで、対象物の特定精度を向上させることができる。
取得部22は、車外が撮像された車外画像Ioを取得し、画像情報32として記憶部3へ記憶する。このとき、取得部22は、車外画像IoにGPS装置13から取得した位置情報や、車外画像Ioに撮像時刻等を対応付けて画像情報32として記憶する。
特定部23は、認識部21によって認識された問いかけ操作に基づいて取得部22によって取得された車外画像Ioから対象物を特定する。図3および図4を用いて、認識部21から特定部23による一連の処理について説明する。
図3は、対象物の検索範囲の設定例を示す図である。図4は、車外画像における対象範囲の一例を示す図である。図3に示すように、認識部21は、問いかけ操作としてジェスチャー操作を認識した場合(ステップS11)、かかるジェスチャー操作に基づいて対象物の検索範囲Raを設定する(ステップS12)。
図3に示す例では、例えば、ジェスチャー操作において、車両の前方を指し示す場合を示す。この場合、ジェスチャー操作によって指し示す方角aを中心とする所定範囲が検索範囲Raとして設定される。
なお、ここでは、認識部21によるジェスチャー操作の認識誤差を考慮して、検索範囲Raが方角aを中心とした所定範囲である場合について示したが、検索範囲Raを方角aに設定することも可能である。
また、ここでは、車両から遠ざかるにつれて幅が広くなる検索範囲Raを設定する場合を示したが、これに限定されるものではなく、検索範囲Raは、車両からの距離によらず幅は一定であってもよい。
なお、例えば、認識部21は、問いかけ操作として音声操作を認識した場合に、検索範囲Raを車両の全周囲に設定することにしてもよいし、乗員の顔の向きや、目の向きを認識し、かかる顔の向きや目の向きに基づいて検索範囲Raを設定することにしてもよい。すなわち、乗員の顔の向きや目の向きが方角aとなるように検索範囲Raを設定することも可能である。
図4に示すように、特定部23は、検索範囲Raに基づいて車外画像Ioから対象物を特定する。特定部23は、例えば、乗員の着座位置と、車外カメラ12との位置関係に基づき、車外画像Ioに検索範囲Raを設定する。
その後、特定部23は、所定の画像処理によって車外画像Ioの検索範囲Raから対象物を特定する。すなわち、予め検索範囲Raを設定しておくことで、車外画像Ioの全てから対象物を特定する場合に比べて、乗員が所望する対象物を容易に特定することができる。
また、上記のように、特定部23は、対象物に関するキーワードに基づいて対象物の絞り込みを行うことにしてもよい。すなわち、色に関するキーワードが抽出された場合、かかる色を含むランドマークを対象物の候補として抽出する。言い換えれば、かかる色以外のランドマークを対象物の選定から除外する。
このように、特定部23は、キーワードに基づいて対象物を絞り込むことで、対象物の特定を容易にすることが可能となる。
また、特定部23は、車外画像Ioから対象物を特定すると、例えば、車両を基準とする対象物の方位に基づいてマップ情報33から対象物を特定する。すなわち、特定部23は、特定した対象物をマップ情報33と照合を行ったうえで、対象物を確定させる。
図2の説明に戻り、提供部24について説明する。提供部24は、特定部23によって特定された対象物のコンテンツCを乗員へ提供する。例えば、提供部24は、特定部23が対象物を特定した場合、対象物に関するコンテンツCをマップ情報33から選択する。
このとき、提供部24は、乗員の趣味嗜好などに応じてコンテンツCを選択することにしてもよい。例えば、提供部24は、歴史に興味がある乗員に対して、対象物の歴史に関するコンテンツCを選択したり、建築に興味がある乗員に対しては、建築方式に関するコンテンツCを選択したりすることができる。
続いて、提供部24は、乗員の顔と、対象物と位置関係に基づいて、コンテンツCの表示位置を算出する。図5は、コンテンツCの表示例を示す図である。なお、図5では、問いかけ操作を行った乗員が対象物をみたときのコンテンツCの見え方を示す。
図5に示す透過性のスクリーンScは、車両のフロントガラスやサイドガラス、リアガラスなどである。乗員は、このスクリーンScを介して、対象物Tを視認することができる。
ここで、実施形態に係る情報提供装置1では、対象物TにコンテンツCが重畳されるように、コンテンツCを描画する描画枠Bcを表示する。すなわち、提供部24は、乗員と対象物とを結ぶ領域を対象物Tと、車両(乗員の顔)との位置関係に基づいて算出する。
そして、提供部24は、乗員が対象物Tを見た際に、コンテンツCが対象物Tに重畳するように、描画枠Bcの表示位置を決定する。つまり、提供部24は、乗員から見える実際の対象物Tに、コンテンツCを重畳させて表示することで、乗員が視線移動を行うことなく、コンテンツCを視認することができる。
尚、他の乗員へも当該コンテンツを提供するコンテンツ拡大提供モードを設け、コンテンツ拡大提供モードが選択設定されている場合には当該他の乗員が見た際に、コンテンツCが対象物Tに重畳する位置にも描画枠を設定して表示を行うようにしても良い。その際、複数の描画枠が近い位置となる場合はそれら描画枠の間の位置等の対象の両乗員が視認し易い位置に統合して描画枠を設定するようにすれば良い。
また、提供部24は、特定部23が対象物を1つに絞り切れなかった場合、すなわち、対象物の候補が複数あった場合に、乗員に対して、対象物の選択を促す選択画像を表示する。
図6は、選択画像の一例を示す図である。図6に示すように、提供部24は、対象物の候補それぞれを囲うマーカ画像M1およびマーカ画像M2や、「どちらのコンテンツを表示しますか?」などといった対象物の選択を促すテキストをスクリーンScに表示する。
例えば、乗員は、ジェスチャー操作や、音声操作によって対象物を選択することが可能である。かかるジェスチャー操作や音声操作は、認識部21(図2参照)によって認識され、提供部24は、認識部21による認識結果に基づいて対象物Tを確定させて、コンテンツCを提供する。
このように、提供部24は、対象物の候補が複数ある場合に、乗員の選択操作を受け付けることで、乗員が所望する対象物のコンテンツCを確実に提供することができる。
また、提供部24は、車外画像IoにコンテンツCを重畳した重畳画像を生成することも可能である。図7は、重畳画像の具体例を示す図である。なお、図7に示す例では、情報提供装置1から端末装置40へ重畳画像が送信される場面を示している。
図7に示すように、重畳画像は、車外画像Ioにおける対象物TにコンテンツCを描画する描画枠Bcが重畳された画像である。なお、ここでは、コンテンツCの具体的な記載を省略しているが、実際には、描画枠BcにコンテンツCが重畳される。
上述のように、スクリーンScにコンテンツCを表示する場合、車両の移動に伴って、乗員から見える景色が変化するので、コンテンツCが表示されなくなる。これに対して、提供部24は、かかる重畳画像を端末装置40へ通知することで、乗員は後からコンテンツCを車外画像Ioとともに見返すことが可能となる。
すなわち、重畳画像は、乗員がコンテンツCを見逃した場合や、後から再度、コンテンツCを確認したい場合などの要求に対して、特に有効となる。また、重畳画像を端末装置40へ送信しておくことで、乗員は車内にいなくともコンテンツCを自由に閲覧することができる。
このように、提供部24は、重畳画像を生成することで、ユーザビリティを向上させることができる。なお、提供部24は、プライバシー保護の観点から、例えば、車外画像Ioに写る他車両や、人物をイラスト表示するなどの加工を施した重畳画像を生成することにしてもよい。
また、提供部24は、スクリーンScに用いるコンテンツCと、重畳画像に用いるコンテンツCとで、内容を変更することにしてもよい。例えば、提供部24は、スクリーンSc用のコンテンツCを簡略的な内容とし、重畳画像用のコンテンツCを詳細な内容にすることにしてもよい。
さらに、提供部24は、例えば、乗員から指定された重畳画像のみを端末装置40へ送信することもできる。この場合、スクリーンScにコンテンツCを表示した状態において、乗員から重畳画像の送信を指示するジェスチャー操作を認識部21で認識する。
そして、提供部24は、認識部21によって上記のジェスチャー操作が認識された場合にのみ、スクリーンScにて現在提供中のコンテンツCに関する重畳画像を生成し、端末装置40へ送信する。
図2の説明に戻り、更新部25について説明する。更新部25は、例えば、GPS装置13から通知される車両の現在地に基づいてマップ情報33を更新する。具体的には、更新部25は、例えば、所定周期で車両の現在地に関する情報をサーバ装置100へ送信する。
例えば、サーバ装置100では、各情報提供装置1に記憶されたマップ情報33の更新履歴を管理しており、各車両の周辺において、最終更新日以降に更新された情報がないかをチェックする。
そして、サーバ装置100は、更新された情報が有った場合に、更新された情報を情報提供装置1へ送信する。更新部25は、かかる情報に基づいてマップ情報33を更新することとなる。
次に、図8を用いて、実施形態に係る情報提供装置1が実行する処理手順について説明する。図8は、情報提供装置1が実行する処理手順を示すフローチャートである。なお、以下に示す処理手順は、制御部2によって繰り返し実行される。
図8に示すように、情報提供装置1は、まず、マップ情報33を更新し(ステップS101)、問いかけ操作を認識したか否かを判定する(ステップS102)。情報提供装置1は、ステップS102の判定処理において、問いかけ操作を認識した場合(ステップS102,Yes)、問いかけ操作に基づいて検索範囲Raを設定する(ステップS103)。
続いて、情報提供装置1は、検索範囲Raに基づき、車外画像Ioから対象物を特定し(ステップS104)、対象物の候補が複数か否かを判定する(ステップS105)。情報提供装置1は、対象物の候補が複数であった場合(ステップS105,Yes)、対象物の候補を表示し(ステップS106)、対象物の候補を選択する選択操作を受け付ける(ステップS107)。
一方、情報提供装置1は、対象物が1つであった場合(ステップS105,No)、ステップS106およびステップS107の処理を省略する。続いて、情報提供装置1は、スクリーンSc上にコンテンツCを表示する表示位置を算出し(ステップS108)、コンテンツCを生成する(ステップS109)。
そして、情報提供装置1は、ステップS108にて算出した表示位置にコンテンツCを表示することで、乗員へコンテンツCを提供し(ステップS110)、処理を終了する。
上述したように、実施形態に係る情報提供装置1は、認識部21と、取得部22と、特定部23と、提供部24とを備える。認識部21は、車内の乗員による車外の対象物に対する問いかけ操作を認識する。取得部22は、車外が撮像された車外画像Ioを取得する。特定部23は、認識部21によって認識された問いかけ操作に基づいて取得部22によって取得された車外画像Ioから対象物を特定する。
提供部24は、特定部23によって特定された対象物のコンテンツを乗員へ提供する。したがって、実施形態に係る情報提供装置1によれば、ユーザビリティを向上させることができる。
ところで、上述した実施形態では、情報提供装置1が車両に搭載される場合について示したが、これに限定されるものではない。すなわち、電車や観光バス、ハイヤーをはじめとする各種乗り物に搭載することにしてもよい。また、情報提供装置1は、スマートフォンやタブレット端末をはじめとする可搬性のデバイスであってもよい。
また、上述した実施形態では、表示装置50に表示することで、コンテンツを提供する場合について説明したが、コンテンツを音声によって提供することにしてもよい。また、上述した実施形態では、特定部23を情報提供装置1側に設けることとしたが、特定部23の機能をサーバ装置100側に持たせることにしてもよい。この場合、情報提供装置1は、問いかけ操作に応じた車外画像Ioをサーバ装置100へ送信し、サーバ装置100側で対象物の特定を行ったうえで、コンテンツが情報提供装置1へ送信される。
また、上述した実施形態では、車外画像Ioから対象物を特定する場合について説明したが、これに限定されるものではない。すなわち、現在地およびマップ情報33に基づいて対象物を特定することにしてもよい。
さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な様態は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲および、その均等物によって定義される統括的な発明の概念の精神または範囲から逸脱することなく、様々な変化が可能である。
1 情報提供装置
10 車内カメラ
11 マイク
12 車外カメラ
13 GPS装置
21 認識部
22 取得部
23 特定部
24 提供部
25 更新部
40 端末装置
100 サーバ装置
S 情報提供システム
10 車内カメラ
11 マイク
12 車外カメラ
13 GPS装置
21 認識部
22 取得部
23 特定部
24 提供部
25 更新部
40 端末装置
100 サーバ装置
S 情報提供システム
Claims (9)
- 対象物に対する問いかけ操作を認識する認識部と、
前記認識部によって認識された問いかけ操作に対する対象物を特定する特定部と、
前記特定部によって特定された対象物のコンテンツを乗員へ提供する提供部と
を備えることを特徴とする情報提供装置。 - 車外が撮像された車外画像を取得する取得部を備え、
前記特定部は、
前記取得部によって取得された車外画像から対象物を特定すること
を特徴とする請求項1に記載の情報提供装置。 - 前記提供部は、
問いかけ操作を行ったユーザから見た対象物への視線上にコンテンツを重畳させて提供すること
を特徴とする請求項1または2に記載の情報提供装置。 - 前記提供部は、
対象物が写る画像に前記コンテンツを重畳した重畳画像を生成し、重畳画像を提供すること
を特徴とする請求項1〜3のいずれか一つに記載の情報提供装置。 - 前記提供部は、
前記重畳画像をユーザの端末装置へ送信すること
を特徴とする請求項4に記載の情報提供装置。 - 前記問いかけ操作は、対象物を指し示すジェスチャー操作であること
を特徴とする請求項1〜5のいずれか一つに記載の情報提供装置。 - 前記問いかけ操作は、所定の音声操作であること
を特徴とする請求項1〜6のいずれか一つに記載の情報提供装置。 - 前記提供部は、
対象物の候補が複数ある場合に、ユーザによって選択された対象物のコンテンツを提供すること
を特徴とする請求項1〜7のいずれか一つに記載の情報提供装置。 - 対象物に対する問いかけ操作を認識する認識工程と、
前記認識工程によって認識された問いかけ操作に基づいて対象物を特定する特定工程と、
前記特定工程によって特定された対象物のコンテンツを乗員へ提供する提供工程と
を含むことを特徴とする情報提供方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019039968A JP2020144552A (ja) | 2019-03-05 | 2019-03-05 | 情報提供装置および情報提供方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019039968A JP2020144552A (ja) | 2019-03-05 | 2019-03-05 | 情報提供装置および情報提供方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020144552A true JP2020144552A (ja) | 2020-09-10 |
Family
ID=72354243
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019039968A Pending JP2020144552A (ja) | 2019-03-05 | 2019-03-05 | 情報提供装置および情報提供方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020144552A (ja) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001304873A (ja) * | 2000-04-18 | 2001-10-31 | Mazda Motor Corp | 車両用ナビゲーション装置及びその情報通信方法及びコンピュータ読み取り可能な記憶媒体 |
JP2003329476A (ja) * | 2002-05-13 | 2003-11-19 | Denso Corp | 車両用案内装置 |
JP2007080060A (ja) * | 2005-09-15 | 2007-03-29 | Matsushita Electric Ind Co Ltd | 対象物特定装置 |
JP2008500561A (ja) * | 2004-06-03 | 2008-01-10 | シャープ株式会社 | マップデータ作成装置、それを備えた移動体、並びにマップデータ作成方法 |
JP2008116165A (ja) * | 2006-11-07 | 2008-05-22 | Hitachi Transport Syst Ltd | 低温輸送装置及びその製作方法 |
JP2013255168A (ja) * | 2012-06-08 | 2013-12-19 | Toyota Infotechnology Center Co Ltd | 撮像装置、および撮像方法 |
JP2014153095A (ja) * | 2013-02-06 | 2014-08-25 | Alpine Electronics Inc | 情報表示装置 |
-
2019
- 2019-03-05 JP JP2019039968A patent/JP2020144552A/ja active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001304873A (ja) * | 2000-04-18 | 2001-10-31 | Mazda Motor Corp | 車両用ナビゲーション装置及びその情報通信方法及びコンピュータ読み取り可能な記憶媒体 |
JP2003329476A (ja) * | 2002-05-13 | 2003-11-19 | Denso Corp | 車両用案内装置 |
JP2008500561A (ja) * | 2004-06-03 | 2008-01-10 | シャープ株式会社 | マップデータ作成装置、それを備えた移動体、並びにマップデータ作成方法 |
JP2007080060A (ja) * | 2005-09-15 | 2007-03-29 | Matsushita Electric Ind Co Ltd | 対象物特定装置 |
JP2008116165A (ja) * | 2006-11-07 | 2008-05-22 | Hitachi Transport Syst Ltd | 低温輸送装置及びその製作方法 |
JP2013255168A (ja) * | 2012-06-08 | 2013-12-19 | Toyota Infotechnology Center Co Ltd | 撮像装置、および撮像方法 |
JP2014153095A (ja) * | 2013-02-06 | 2014-08-25 | Alpine Electronics Inc | 情報表示装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109558957B (zh) | 选择车辆上车位置 | |
JP6456901B2 (ja) | 自律走行車においてメディアコンテンツを提示するためのシステム及び方法 | |
US9800717B2 (en) | Mobile terminal and method for controlling the same | |
JP4935145B2 (ja) | カーナビゲーション装置 | |
JP4812415B2 (ja) | 地図情報更新システム、中央装置、地図情報更新方法、及びコンピュータプログラム | |
US9552519B2 (en) | Providing vehicle owner's manual information using object recognition in a mobile device | |
EP2418621B1 (en) | Apparatus and method for providing augmented reality information | |
US11900672B2 (en) | Integrated internal and external camera system in vehicles | |
JP2007080060A (ja) | 対象物特定装置 | |
US20090262145A1 (en) | Information display device | |
CN112750206A (zh) | 用于车辆乘员的增强现实可穿戴系统 | |
KR20190109336A (ko) | 운전자 시선에 기반한 길 안내 서비스 지원 장치 및 이를 이용한 자동차 내비게이션 시스템 | |
WO2016035281A1 (ja) | 車載システム、情報処理方法、およびコンピュータプログラム | |
JP2008039596A (ja) | 情報提供装置、情報提供方法、情報提供プログラム、および記録媒体 | |
JP2015041197A (ja) | 表示制御装置 | |
JP2020537273A (ja) | 自動車における表示デバイスの操作方法 | |
US20230314156A1 (en) | Information presentation method, information presentation system, and computer-readable medium | |
KR20160114486A (ko) | 이동단말기 및 이동 단말기의 제어방법 | |
JP2023165757A (ja) | 情報表示制御装置、情報表示制御方法及び情報表示制御プログラム | |
US20130135348A1 (en) | Communication device, communication system, communication method, and communication program | |
KR101677641B1 (ko) | 사용자 인식 장치 및 그 방법 | |
US20200294119A1 (en) | Computer program product and computer-implemented method | |
JP5212920B2 (ja) | 車両用表示装置 | |
JP6424100B2 (ja) | ナビゲーションシステム、ナビゲーション装置、グラス型デバイス及び装置間連携方法 | |
JP2020144552A (ja) | 情報提供装置および情報提供方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210930 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220823 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220830 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230228 |