図1は、本実施形態に係る情報処理システム1の構成を示す図である。
図1に示すように、情報処理システム1は、車両2に搭載されたナビゲーション装置3(車載装置)と、インターネットや、電話網等を含んで構成されたネットワーク6に接続可能な携帯端末4(端末)と、ネットワーク6に接続されたサーバ5(情報処理装置)と、を有する。
ナビゲーション装置3は、搭乗しているユーザの操作に従って、地図の表示、経路の表示や音声による経路案内など、ナビゲーション機能を実行する装置である。ナビゲーション装置3は、ネットワーク6にアクセスする機能を有し、後述する方法により、サーバ5とネットワーク6を介して通信する。
携帯端末4は、ユーザが持ち運び可能な携帯型の端末であり、例えばスマートフォンやタブレット型端末等である。本実施形態では、携帯端末4は、車両2の搭乗者以外のユーザが所有する端末である。携帯端末4は、ネットワーク6にアクセスする機能を有し、後述する方法により、サーバ5とネットワークを介して通信する。
サーバ5は、ナビゲーション装置3、及び、携帯端末4と通信し、これら装置を介して、車両2の搭乗者、及び、携帯端末4のユーザに後述するサービスを提供する。
情報処理システム1は、以下の機能を有するシステムである。すなわち、情報処理システム1において、ナビゲーション装置3には車両2の前方を撮影するカメラ39(後述)が接続されており、ナビゲーション装置3は、カメラ39の撮影結果に基づくデータを、サーバ5を介して、携帯端末4に送信する。携帯端末4は、受信したデータに基づいて、撮影結果を示す画像を表示する。この結果、車両2のカメラ39により撮影された車両2の前方の風景が、リアルタイムで、携帯端末4に表示される。携帯端末4のユーザは、携帯端末4が表示する車両2の前方の風景を示す画像に基づいて、適宜、風景に対応するコメントを行う。例えば、ユーザは、表示された画像に、自身が知っている飲食店がある場合は、飲食店に関するコメントを行う。携帯端末4は、ユーザがコメントした場合、コメントに基づくデータを、サーバ5を介して、ナビゲーション装置3に送信する。ナビゲーション装置3は、受信したデータに基づいて、コメントを音声、又は、表示によって出力する。この結果、携帯端末4のユーザが行ったコメントが、リアルタイムで、ナビゲーション装置3により出力される。車両2の搭乗者は、出力されたコメントに基づいて、車両2の前方に位置する施設等に関する有益な情報を取得できる。
図2は、本実施形態に係る情報処理システム1の機能ブロック図である。
図2に示すように、ナビゲーション装置3は、制御部31と、記憶部32と、タッチパネル33と、音声入出力部34と、通信部35と、車両情報取得部36と、相対方位検出部37と、GPS受信部38と、カメラ39と、を備える。
制御部31は、CPUや、ROM、RAM、その他の制御回路等を備え、ナビゲーション装置3の各部を制御する。
記憶部32は、ハードディスクや、EEPROM等の不揮発性メモリーを備え、データを書き換え可能に記憶する。また、記憶部32は、後述する専用ソフトSFのほか、地図データ32aを記憶している。当該地図データ32aは、交差点やその他の道路網上の結線点を示すノードに関する情報や、ノードとノードとの道路区間を示すリンクに関する情報、地図上の行政区画や、道路、施設、交差点等の名称に関する情報、を有する。
タッチパネル33は、表示パネル33aと、タッチセンサー33bとを備える。表示パネル33aは、液晶ディスプレイやEL(Electro Luminescent)ディスプレイ等のパネルを有し、制御部31の制御の下、各種情報を表示パネル33aに表示する。タッチセンサー33bは、表示パネル33aに重ねて配置され、ユーザのタッチ操作を検出し、制御部31に出力する。
音声入出力部34は、マイク5aと、スピーカ5bと、を備える。当該音声入出力部34は、制御部31の制御の下、マイク5aによって例えば乗車しているユーザの音声を収音する。また、当該音声入出力部34は、制御部31から入力される音声データに基づく音声をスピーカ5bから出力する。
通信部35は、制御部31の制御の下、所定の通信規格に従って、ネットワーク6に接続された機器と通信する。
車両情報取得部36は、ナビゲーション装置3を搭載した車両2の状態に関する車両信号を取得し、制御部31に出力する。車両信号には、少なくとも車両2の走行速度を示す車速パルス信号、及び、車両2のパーキングブレーキの状態を示すパーキングブレーキ信号が含まれる。制御部31は、車両情報取得部36から入力された車両信号に基づいて、車両2が停車中か否かを判別する。本実施形態で、「停車」とは、車両2が走行しておらず、且つ、パーキングブレーキによるブレーキが有効な状態をいう。
相対方位検出部37は、ジャイロセンサと、加速度センサとを備える。ジャイロセンサは、例えば振動ジャイロにより構成され、自車両の相対的な方位(例えば、ヨー軸方向の旋回量)を検出する。加速度センサは、自車両に作用する加速度(例えば、進行方向に対する自車両の傾き)を検出する。相対方位検出部37は、検出結果を制御部31に出力する。
GPS受信部38は、GPSアンテナ38aを介してGPS衛星からのGPS電波を受信し、GPS電波に重畳されたGPS信号から、車両2の現在位置を示す位置座標と進行方向とを演算により取得する。GPS受信部38は、取得結果を制御部31に出力する。
制御部31は、GPS受信部38から入力された位置座標と進行方向を示す情報、相対方位検出部37から入力された車両2の相対的な方位情報、記憶部32に記憶された地図データ32aに含まれる情報、及び、車両情報取得部36から入力された車速を示す検出信号に基づいて、車両2の位置を特定する。
カメラ39は、少なくとも車両2の前方を撮影可能な位置に設けられた撮影装置である。カメラ39は、制御部31の制御に従って、所定の周期(例えば、100msごと)で撮影を実行し、撮影結果に基づいて撮影画像データを生成し、制御部31に出力する。
図2に示すように、サーバ5は、サーバ制御部51と、サーバ記憶部52と、サーバ通信部53と、を備える。
サーバ制御部51は、CPUや、ROM、RAM、その他の周辺回路等を備え、サーバ5の各部を制御する。
サーバ記憶部52は、サーバ制御部51が実行する制御プログラムや、サーバ制御部51が処理するデータを記憶する。また、サーバ記憶部52は、地図データ52aを記憶している。
サーバ通信部53は、サーバ制御部51の制御の下、所定の通信規格に従って、ネットワーク6に接続された機器と通信する。
図2に示すように、携帯端末4は、端末制御部41と、端末記憶部42と、端末タッチパネル43と、端末音声入出力部44と、端末通信部45と、を備える。
端末制御部41は、CPUや、ROM、RAM、その他の周辺回路等を備え、携帯端末4の各部を制御する。
端末記憶部42は、不揮発性メモリーを備え、各種データを記憶する。上述したように、携帯端末4には専用アプリAPがインストールされており、端末記憶部42には、専用アプリAPが記憶される。また、端末記憶部42は、地図データ42aを記憶する。
端末タッチパネル43は、表示パネル43aと、タッチセンサー43bとを備える。表示パネル43aは、液晶ディスプレイやEL(Electro Luminescent)ディスプレイ等のパネルを有し、端末制御部41の制御の下、各種情報を表示パネル43aに表示する。タッチセンサー43bは、表示パネル43aに重ねて配置され、ユーザのタッチ操作を検出し、端末制御部41に出力する。
端末音声入出力部44は、スピーカ44aと、マイク44bと、を備える。当該端末音声入出力部44は、端末制御部41の制御の下、マイク44bによって例えば乗車しているユーザの音声を収音する。また、当該端末音声入出力部44は、端末制御部41から入力される音声データに基づく音声をスピーカ44aから出力する。
以上の構成の下、ナビゲーション装置3と、携帯端末4とは、以下に示す処理を実行することによって、サーバ5を介して所定の情報を送受信することが可能な状態を確立する。
ここで、ナビゲーション装置3と、携帯端末4とは、サーバ5が有する、所定の情報の送受信に関するシステムである情報送受信システムを利用する。そのため、ナビゲーション装置3は、情報送受信システムを利用するためのソフトウェア(以下、「専用ソフトSF」と表現する。)が事前にインストールされる。また、携帯端末4は、情報送受信システムを利用するためのアプリケーション(以下、「専用アプリAP」と表現する。)が事前にインストールされる。
車両2の搭乗者が専用ソフトSFを立ち上げると、ナビゲーション装置3は、専用ソフトSFの機能により、サーバ5へ、カーIDを送信する。カーIDとは、車両2に搭載されるナビゲーション装置3を識別するための識別情報である。サーバ5は、受信したカーIDに基づいて、情報送受信システムを利用するナビゲーション装置3を特定し、サーバ5とナビゲーション装置3との間で所定の情報の送受信が行える状態を確立する。
一方、ユーザが携帯端末4の専用アプリAPを立ち上げると、携帯端末4は、専用アプリAPの機能により、ユーザID、パスワード、及び、カーIDをサーバ5に送信する。ユーザIDとは、専用アプリAPを使用するユーザを識別するための識別情報であり、パスワードは、ユーザIDを利用する際に認証を得るための認証情報である。また、携帯端末4が送信するカーIDは、携帯端末4が、サーバ5を介して所定の情報を送受信するナビゲーション装置3を識別するための識別情報である。
サーバ5は、携帯端末4から受信したユーザID、パスワード、及び、カーIDのうち、ユーザIDに基づいて情報送受信システムを利用する携帯端末4を特定する。また、サーバ5は、ユーザID、及び、パスワードに基づいて、認証を行う。認証に成功した場合、サーバ5は、携帯端末4との間で所定の情報の送受信が行える状態を確立する。
携帯端末4との間で通信可能な状態を確立した後、サーバ5は、携帯端末4から受信したカーIDと、ナビゲーション装置3から受信したカーIDと照らし合わせ、一致した場合、携帯端末4と、ナビゲーション装置3とを対応付ける。以後、サーバ5は、ナビゲーション装置3からデータを受信した場合、受信したデータや、受信したデータに基づくデータを、対応付けられた携帯端末4に送信する。一方、サーバ5は、携帯端末4からデータを受信した場合、受信したデータや、受信したデータに基づくデータを、対応付けられたナビゲーション装置3に送信する。
ここで、上述したように、情報処理システム1において、携帯端末4にカメラ39で撮影された車両2の前方の風景がリアルタイムで表示され、また、ナビゲーション装置3は携帯端末4のユーザが行ったコメントをリアルタイムで出力する。そして、ナビゲーション装置3によるコメントの出力に関し、以下の課題がある。すなわち、車両2が走行中の場合、携帯端末4のユーザが、携帯端末4に表示されている画像が示す車両2の前方の風景を参照し、1の施設についてコメントを行い、ナビゲーション装置3がコメントを出力したときに、車両2が当該1の施設を通過してしまっている可能性がある。この場合、車両2の走行を継続しつつ当該1の施設を経由することはできず、車両2の搭乗者にとって、コメントの有益性が低下する。以上の課題を踏まえ、以下、情報処理システム1が備える各装置の動作について詳述する。
図3は、情報処理システム1を構成する各装置の動作を示すフローチャートであり、(A)はナビゲーション装置3の動作を示し、(B)はサーバ5の動作を示し、(C)は携帯端末4の動作を示す。
なお、図3に示すフローチャートの開始時点では、以下のことを前提とする。すなわち、情報処理システム1において、上述した処理にて、ナビゲーション装置3と、携帯端末4と、がサーバ5を介し、所定の情報を送受信できる状態が確立されていることを前提とする。
図3(A)に示すように、ナビゲーション装置3の制御部31は、専用ソフトSFの機能により、サーバ5に送信する情報を取得し、当該情報をサーバ5に送信する(ステップSA1)。ここで、ステップSA1の処理について、詳述する。
図4は、ステップSA1のサーバ5に送信する情報の取得、及び、送信する際の、ナビゲーション装置3の動作を示すフローチャートである。
ナビゲーション装置3の制御部31は、専用ソフトSFの機能により、車両2に設けられたカメラ39から入力された撮影結果に基づく撮影画像データを取得する(ステップSD1)。次いで、制御部31は、GPS受信部38、及び、相対方位検出部37から入力された信号に基づき、車両2の位置を取得する(ステップSD2)。次いで、制御部31は、車両情報取得部36が取得した車速パルスに基づき、車両2の速度を取得する(ステップSD3)。
次いで、制御部31は、撮影画像データ、取得した車両2の位置を示す車両位置情報、及び、取得した車両2の速度を示す車両速度情報を、サーバ5に送信する(ステップSD4)。制御部31は、撮影画像データ、車両位置情報、及び、車両速度情報をサーバ5に送信すると、処理をステップSD1に戻し、再度、撮影画像データの取得を開始する。すなわち、制御部31は、カメラ39から所定の周期で撮影画像データが入力される度に、撮影画像データと、車両位置情報と、車両速度情報とをサーバ5に送信する。なお、撮影画像データには、撮影された時間を示す時刻も対応付いている。
図3の説明に戻り、図3(B)に示すように、サーバ制御部51は、ナビゲーション装置3から送信された撮影画像データ、車両位置情報、及び、車両速度情報を受信し(ステップSB1)、カーIDと対応付けてサーバ記憶部52に記憶する(ステップSB2)。なお、ナビゲーション装置3は、所定の周期で、撮影画像データ、車両位置情報、及び、車両速度情報をサーバ5に送信するが、サーバ5のサーバ制御部51は、受信したこれら情報をサーバ記憶部52に累積的に記憶する。
次いで、サーバ制御部51は、携帯端末4に送信する情報を生成し、当該情報を携帯端末4に送信する(ステップSB3)。ステップSB3について詳述する。
図5は、携帯端末4に送信する情報の生成、及び、送信を実行する際のサーバ5の動作を示すフローチャートである。
サーバ制御部51は、ナビゲーション装置3から受信し、サーバ記憶部52に記憶した撮影画像データを、撮影画像データ毎に加工する(ステップSE1)。具体的には、サーバ制御部51は、撮影画像データに基づく画像を表示した場合に、画像に、以下で説明する第1領域A1が表示されるように、撮影画像データを加工する。
図6は、加工後の撮影画像データに基づいて表示される画像の一例を示す図である。撮影画像データに基づく画像は、車両2の前方の風景を示す画像である。以下、撮影画像データに基づいて表示される画像を、「車両前方画像」という。
図6に示すように、第1領域A1は、車両2が、撮影画像データに対応する車両速度情報が示す速度(撮影画像データの元となった撮影が行われたときの車両2の速度)で車両2が走行した場合に、車両2が所定時間内(例えば、3秒以内)に通過する領域を示している。ここで、所定時間内に通過する領域は、車両2が走行する速度に応じて異なる。具体的には、車速が速いほど、所定時間内に通過する領域は広くなる。そのため、第1領域A1は、車速が速いほど、面積の大きい領域となる。
図6に示すように、第1領域A1は、画像の左右の両端において、境界ラインL1で区切られた幅W1の領域である。ステップSE1において、サーバ制御部51は、以下のようにして、車両前方画像に境界ラインL1が表示されるように、撮影画像データを加工する。
まず、サーバ制御部51は、幅W1を、加工対象の撮影画像データに対応付けられた車両速度情報が示す車両2の速度に基づいて決定する。具体的には、サーバ記憶部52に、車両2の速度と、幅W1との対応関係を示すテーブルが記憶されており、サーバ制御部51は、車両速度情報が示す車両2の速度と、上記テーブルに基づいて幅W1を決定する。次いで、サーバ制御部51は、車両前方画像の左右の端から幅W1だけ離間した位置に、境界ラインL1が表示されるように、撮影画像データに画像処理を施して、撮影画像データを加工する。
なお、サーバ制御部51は、撮影画像データの加工において、第1領域A1を設けると共に、車両のナンバープレートや、人物の顔などのプライバシーに係る画像をぼかす処理を施してもよい。この場合、サーバ制御部51は、パターンマッチング等の既存の処理を実行し、撮影画像データにおける人物の顔などのプライバシーに関わる領域を特定し、特定した領域にぼかし処理を施す。これにより、サーバ制御部51は、プライバシーに係る情報を隠した撮影画像データとして携帯端末4に送信することができる。
図5の説明に戻り、1の撮影画像データを加工した後、サーバ制御部51は、車両位置情報に基づく車両2の位置を起点とした第2領域を示す第2領域情報を生成する(ステップSE2)。
図7は、第2領域A2の一例を示す図である。
第2領域A2とは、車両2が所定の速度で走行した場合に、所定時間内に通過する領域を、地図上で表す領域である。通過する領域は、車両2の速度に応じて異なるため、第2領域A2は、車両2の速度に応じて異なる。具体的には、第2領域A2は、車両2の速度が速いほど、面積が大きくなる領域である。後述するが、携帯端末4は、後述する走行映像のみを表示するモード(以下、全画面モードと呼ぶ。)と、地図、及び、走行映像を表示するモード(以下、地図+映像モードと呼ぶ。)と、の2つのモードに切り替えが可能である。ここで、第2領域A2は、携帯端末4の表示モードが地図+映像モードの際に、設けられる領域である。
図7に示すように、第2領域A2は、地図上に設けられ、経度、及び、緯度を示す複数のポイントにより囲まれた領域である。当該第2領域A2は、車両位置情報に基づく車両の位置Mを起点として、ポイントP1及びポイントP2に基づく境界ラインL2と、ポイントP4及びポイントP2、若しくは、ポイントP3及びポイントP2に基づく幅W2とにより形成される。第2領域A2を形成する幅W2は、ステップSE1で加工された1の撮影画像データに対応付けられた車両2の速度に基づき決定する。すなわち、撮影画像データに対応付く車両2の速度に応じて、幅W2は異なる。そのため、第2領域A2は、撮影画像データ毎に異なる。具体的には、第2領域A2は、車両2の速度が速いほど、より車両2の前方を領域範囲に含むよう、面積が大きくなる領域である。
ステップSE2において、サーバ制御部51は、携帯端末4の表示モードが地図+映像モードである際に、地図上に第2領域A2を設けるよう、経度及び緯度を示すポイントP1〜P4に囲まれた領域である第2領域A2を示す第2領域情報を生成する。
図5の説明に戻り、サーバ制御部51は、第2領域情報を生成した後、加工後の1の撮影画像データ、第2領域情報、及び、加工前の1の撮影画像データに対応付いた車両位置情報を携帯端末4に送信する(ステップSE3)。サーバ制御部51は、ステップSE3の処理の後、処理をステップSE1に戻し、再度、1の撮影画像データの加工を実行する。すなわち、サーバ制御部51は、サーバ記憶部52が記憶している撮影画像データ毎に加工し、加工する1の撮影画像データに対応付く車両の位置M、及び、車両2の速度に基づいて第2領域情報を生成し、加工後の1の撮影画像データ、第2領域情報、及び、加工前の1の撮影画像データに対応付く車両位置情報を携帯端末4に送信する処理を繰り返す。なお、撮影画像データは、対応付く時刻に基づいて、順次、処理される。
図3の説明に戻り、図3(C)に示すように、携帯端末4の端末制御部41は、端末通信部45によって、サーバ5から送信される度に、加工後の1の撮影画像データ、第2領域情報、及び、車両位置情報をサーバ5から受信する(ステップSC1)。次いで、端末制御部41は、専用アプリAPの機能により、表示パネル43aに、表示モードに応じた情報の表示を実行する(ステップSC2)。前述した通り、表示モードは、全画面モードと、地図+映像モードと、の2つのモードがある。以下、端末制御部41の動作を、全画面モードの場合と、地図+映像モードの場合と、の2つの場合について、図面を参照し、説明する。なお、全画面モードと、地図+映像モードとは、専用アプリAPの機能により、ユーザの所定のタッチ操作によって切り替えることができる。
ここで、端末制御部41の動作を説明するにあたり、以下のことを前提とする。
すなわち、端末制御部41は、専用アプリAPの機能により、サーバ5から受信した加工後の1の撮影画像データに基づく画像を、サーバ5から受信する度に、当該画像を切り替え、動画として表示する。つまり、端末制御部41は、リアルタイムに走行映像を表示パネル43aに表示することが前提となる。
<全画面モード>
前述した通り、全画面モードとは、携帯端末4の表示パネル43aに走行映像を表示するモードである。走行映像とは、連続して受信する撮影画像データに基づく画像を連続して表示することによって表示される動画のことである。撮影画像データは、車両の前方の撮影結果に基づいて生成されるため、走行映像は、車両の前方の風景を示す動画である。なお、全画面モードでは、後述する地図+映像モードと異なり、地図を表示しない。端末制御部41は、全画面モードの場合、専用アプリAPの機能により、動画を表示するための領域である動画表示領域D1のみを有するユーザインターフェイスを表示し、当該動画表示領域D1において、加工後の撮影画像データに基づく動画を表示する(ステップSC2)。
図8は、全画面モードの場合に表示されるユーザインターフェイスの一例を示す図であり、図8(A)は、走行映像の表示の一例を示す図である。
図8(A)に示すように、全画面モードでは、専用アプリAPの機能によって、走行映像が表示される。前述した通り、携帯端末4の表示パネル43aが表示する動画は、加工後の撮影画像データに基づく画像を、サーバ5から受信する度に、当該画像を切り替え、動画として表示しているため、走行映像には、第1領域A1が設けられている。また、撮影画像データの取得時における車両2の速度に応じて、第1領域A1の範囲は異なるため、境界ラインL1は、車両2の速度に応じて図6に示す幅W1を変えるよう移動する。また、動画表示領域D1には、走行映像と共に、車両位置情報が示す車両の位置Mに基づき、地図データ42aから取得した車両2が走行している地図上の名称Hを表示する。この名称Hの表示により、地図を表示しない全画面モードでも、携帯端末4を操作するユーザは、車両2がどこを走行しているかを名称Hから判断することができる。
端末制御部41は、図8(A)に示すように、第1領域A1を設けた走行映像を表示している状態で、ユーザのタッチ操作がされると(ステップSC3:YES)、コメントの入力を受け付ける(ステップSC4)。
図8(B)は、タッチ位置T1の一例を示す図である。端末制御部41は、携帯端末4のユーザが、図8(A)に示す状態で、任意の位置をタッチすることによって、図8(B)に示すタッチ位置T1を認識し、コメントの入力方法の選択を案内する画像である案内画像Q1を表示する。
図8(C)は、コメントの入力方法の選択に係る案内画像Q1を表示した一例を示す図である。図8(C)に示すように、ユーザの任意の位置に基づくタッチ操作によって、端末制御部41は、案内画像Q1を表示する。当該案内画像Q1は、コメントをテキストによって入力するためのボタンB1と、音声によって入力するためのボタンB2と、を有する。携帯端末4のユーザがボタンB1を選択した場合、端末制御部41は、表示パネル43aに、タッチ操作で入力が可能な図示せぬソフトウェアキーボード等を表示し、コメントの入力を受け付ける。一方、ユーザがボタンB2を選択した場合、端末制御部41は、端末音声入出力部44のマイク44bによって、携帯端末4のユーザの音声を収音し、コメントの入力を受け付ける。
端末制御部41は、コメントが入力されると、当該コメントをナビゲーション装置3に送信するか否かを案内する画像である案内画像Q2を表示する。
図8(D)は、案内画像Q2の表示の一例を示す図である。図8(D)に示すように、コメントの入力がされると、端末制御部41は、ナビゲーション装置3にコメントを送信するか否かを案内する画像である案内画像Q2を表示する。案内画像Q2は、入力されたコメントを表示する表示領域Rと、コメントをナビゲーション装置3に送信するボタンB3と、コメントの送信を取りやめるボタンB4とを有する。なお、音声でコメントを入力した場合、音声認識等により変換されたテキストを表示領域Rに表示する必要はなく、音声をスピーカ44aによって出力し、入力した内容を確認できるような構成であってもよい。
端末制御部41は、図8(D)に示すようなボタンB3の選択によるコメントの送信指示があった場合、受け付けたコメント示すコメント情報と、タッチ位置T1を示すタッチ位置情報とを、サーバ5に送信する(ステップSC5)。コメント情報とは、コメントが音声の場合、収音された音声に基づく音声データであり、コメントがテキストの場合、入力されたテキストに基づくテキストデータである。コメント情報は、送信指示のあった時間を示す時刻が対応付けられ、送信される。タッチ位置T1を示すタッチ位置情報とは、表示パネル43aに表示される撮影画像データに基づく画像上における、座標等のユーザのタッチ位置が一意的に定まる情報である。タッチ位置T1を示すタッチ位置情報は、コメントの送信指示があった時のタッチ位置T1が第1領域A1内であるか否かの情報が対応付けられ、送信される。
次いで、端末制御部41は、コメントの送信指示があった時、タッチ位置T1が第1領域A1内に位置しているか否かを判断する(ステップSC6)。タッチ位置T1が第1領域A1内に位置していない場合(ステップSC6:NO)、端末制御部41は、タッチ位置T1にコメントが入力されたことを示すマークであるコメントマークCを表示する(ステップSC7)。
図8(E)は、タッチ位置T1が第1領域A1内でない場合に表示される画面の一例を示す図である。図8(E)に示すように、端末制御部41は、タッチ位置T1に、コメントが入力されたことを示すコメントマークCを表示する。当該コメントマークCは、携帯端末4のユーザのタッチ操作によって、入力したコメントの内容を出力する。そのため、携帯端末4のユーザは、入力したコメントの内容を確認することができる。
一方、タッチ位置T1が第1領域A1内に位置している場合(ステップSC6:YES)、端末制御部41は、タッチ位置T1にコメントマークCを表示する一方、送信したコメントが、ナビゲーション装置3で即時に出力されなかった旨を表示する(ステップSC8)。
図8(F)は、タッチ位置T1が第1領域A1内である場合に表示される画面の一例を示す図である。図8(F)に示すように、端末制御部41は、タッチ位置T1にコメントマークCを表示する。また、端末制御部41は、タッチ位置T1が第1領域A1内に位置しているため、ナビゲーション装置3では即時にコメントが出力されなかった旨を画像Q3にて表示する。
このように、コメントの送信時に、タッチ位置T1が、第1領域A1内に位置してしまう場合でも、端末制御部41は、携帯端末4のユーザに対し、コメントがナビゲーション装置3によって即時に出力されなかった旨を表示することができる。これにより、携帯端末4のユーザは、コメントが即時にナビゲーション装置3で出力されたか否かを認識することができる。
次に、地図+映像モードの場合について説明する。
<地図+映像モード>
前述した通り、地図+映像モードとは、携帯端末4の表示パネル43aに走行映像、及び、地図を表示するモードである。携帯端末4の端末制御部41は、地図+映像モードの場合、専用アプリAPの機能により、動画を表示するための領域である動画表示領域D1、及び、地図を表示する地図表示領域D2と、を有するユーザインターフェイスを表示し、動画表示領域D1においては、加工後の撮影画像データに基づく動画を表示し、地図表示領域D2においては、端末記憶部42が記憶する地図データ42aに基づき地図を表示する(ステップSC2)。
図9は、地図+映像モードの場合に表示されるユーザインターフェイスの一例を示す図であり、図9(A)は、地図、及び、走行映像の表示の一例を示す図である。
図9(A)に示すように、地図+映像モードでは、専用アプリAPの機能によって、地図表示領域D2に重畳して動画表示領域D1があり、地図表示領域D2には、車両位置情報に基づく車両の位置Mを表示すると共に、車両の位置M、及び、地図データ42aに基づく地図が表示され、動画表示領域D1には、加工後の撮影画像データに基づく走行映像が表示される。また、地図表示領域D2には、地図を表示すると共に、サーバ5が受信した第2領域情報に基づく第2領域A2を設けられる。第2領域A2は、車両2の速度に応じて範囲が異なる。そのため、境界ラインL2は、車両2の速度に応じて図6に示す幅W2を変えるように移動する。
端末制御部41は、図9(A)に示すように、第2領域A2を設けた地図、及び、走行映像を表示している状態で、ユーザのタッチ操作がされると(ステップSC3:YES)、コメントの入力を受け付ける(ステップSC4)。
図9(B)は、タッチ位置T2の一例を示す図である。端末制御部41は、携帯端末4のユーザが、図9(A)に示す状態で、地図上において任意の位置をタッチすることによって、図9(B)に示すタッチ位置T2を認識し、コメントの入力方法の選択を案内する画像である案内画像Q1を表示する。
図9(C)は、コメントの入力方法の選択に係る案内画像Q1を表示した一例を示す図である。図9(C)に示すように、ユーザのタッチ操作によって、案内画像Q1が表示される。当該案内画像Q1は、コメントをテキストによって入力するためのボタンB1と、音声によって入力するためのボタンB2と、を有する。ユーザがボタンB1を選択した場合、端末制御部41は、表示パネル43aに、タッチ操作で入力が可能な図示せぬソフトウェアキーボード等を表示し、コメントの入力を受け付ける。一方、ユーザがボタンB2を選択した場合、端末制御部41は、端末音声入出力部44のマイク44bによって、携帯端末4のユーザの音声を収音し、コメントの入力を受け付ける。
端末制御部41は、コメントが入力されると、当該コメントをナビゲーション装置3に送信するか否かを案内する画像である案内画像Q2を表示する。
図9(D)は、案内画像Q2の表示の一例を示す図である。図9(D)に示すように、コメントの入力がされると、端末制御部41は、ナビゲーション装置3にコメントを送信するか否かを案内する画像である案内画像Q2を表示する。案内画像Q2は、入力されたコメントを表示する表示領域Rと、コメントをナビゲーション装置3に送信するボタンB3と、コメントの送信を取りやめるボタンB4とを有する。なお、全画面モードと同様、音声でコメントを入力した場合、音声認識等により変換されたテキストを表示領域Rに表示する必要はなく、スピーカ44aによって出力し、入力した内容を確認できるような構成であってもよい。
端末制御部41は、図9(D)に示すようなボタンB3が選択によるコメントの送信指示があった場合、受け付けたコメント示すコメント情報と、タッチ位置T2を示すタッチ位置情報とを、サーバ5に送信する(ステップSC5)。コメント情報とは、映像モードの際に説明した情報を同様、コメントが音声の場合、収音した音声に基づく音声データであり、コメントがテキストの場合、入力されたテキストに基づくテキストデータである。コメント情報は、送信指示のあった時間を示す時刻が対応付けられ、送信される。タッチ位置T2を示すタッチ位置情報とは、表示パネルが表示する地図において、ユーザのタッチした位置に基づく経度、及び、緯度の地図上の情報である。タッチ位置T2を示すタッチ位置情報は、コメントの送信指示があった時のタッチ位置T2が第2領域A2内であるか否かの情報が対応付けられ、送信される。
次いで、端末制御部41は、コメントの送信指示があった時、タッチ位置T2が第2領域A2内に位置しているか否かを判断する(ステップSC6)。タッチ位置T2が第2領域A2内に位置していない場合(ステップSC6:NO)、端末制御部41は、タッチ位置T2にコメントが入力されたことを示すマークであるコメントマークCを表示する(ステップSC7)。
図9(E)は、タッチ位置T2が第2領域A2内でない場合に表示される画面の一例を示す図である。図9(E)に示すように、端末制御部41は、タッチ位置T2に、コメントが入力されたことを示すコメントマークCを表示する。当該コメントマークCは、携帯端末4のユーザのタッチ操作によって、入力したコメントの内容を出力する。これにより、携帯端末4のユーザは、コメントの内容を確認することができる。
タッチ位置T2が第2領域A2内に位置している場合(ステップSC6:YES)、端末制御部41は、タッチ位置T2にコメントマークCを表示する一方、送信したコメントが、ナビゲーション装置3で出力されなかった旨を表示する(ステップSC8)。
図9(F)は、タッチ位置T2が第2領域A2内である場合に表示される画面の一例を示す図である。図9(F)に示すように、端末制御部41は、タッチ位置T2にコメントマークCを表示する。また、端末制御部41は、タッチ位置T2が第2領域A2内に位置しているため、ナビゲーション装置3ではコメントが出力されなかった旨を画像Q3にて表示する。
このように、コメントの送信時に、タッチ位置T2が、第2領域A2内に位置してしまう場合でも、端末制御部41は、携帯端末4のユーザに対し、コメントがナビゲーション装置3によって出力されなかった旨を表示することができる。これにより、携帯端末4のユーザは、コメントが即時にナビゲーション装置3に出力されたか否かを認識することができる。
なお、第2領域A2は、車両2が位置Mから所定時間内に到達が可能なことを示す外周により形成される円形の領域であってもよい。
図10は、円形の第2領域A2の一例を示す図である。
図10に示す第2領域A2は、車両2が、車両の位置Mから所定時間内に到達が可能なことを示す境界ラインL3を外周として設けられる円形の領域である。円形の第2領域A2は、上述した第2領域A2と同様、地図+映像モードの際に地図上に設けられる領域である。また、車両2の速度に応じて、円形の第2領域A2は、領域の範囲を変更する。具体的には、車両2の速度が速ければ速いほど、円形の第2領域A2の範囲は広くなる。
上述した第2領域A2は、車両2の進行方向後方の全てを含む領域とした。一方、円形の第2領域A2は、車両2が所定時間内に到達できる領域としているため、端末制御部41は、コメントがナビゲーション装置3で反映される領域をより多く表示することができる。
図3のフローチャートの説明に戻り、図3(B)に示すように、サーバ5は、ステップSC5にて携帯端末4から送信されたタッチ位置情報、及び、コメント情報を受信する(SB4)。次いで、サーバ5は、タッチ位置情報に基づき、地図上の位置を取得する(ステップSB5)。すなわち、携帯端末4のユーザによるタッチ位置T1に基づいて、タッチした例えば施設等の位置を地図上から取得する。なお、ステップSB5の処理は、携帯端末4が全画面モードの場合のみでよい。これは、地図+映像モードでは、携帯端末4のユーザが地図上をタッチするため、タッチ位置T2を示すタッチ位置情報が地図上の位置を含むからである。したがって、地図+映像モードのタッチ位置情報をサーバ5が受信した場合、ステップSB5の処理は行われない。ここで、図11を参照し、ステップSB5の処理を説明する。
図11は、地図上の位置の取得を説明するための説明図であり、図11(A)は、撮影画像データに基づく画像の一例を示す図である。また、図11(B)は、車両2の位置に基づく地図の一例を示す図である。
図11において、図11(A)に示す画像は、図11(B)に示す車両の位置Mの前方の撮影画像データに基づく画像である。
サーバ制御部51は、図11(A)に示すような撮影画像データに基づく画像から、パターンマッチング等の既存の処理によって、画像に映し出される施設や、道路等を特定する。説明の便宜を考慮し、サーバ制御部51は、図11(A)に示す画像の場合、施設C1〜C4を特定する。ここで、サーバ制御部51は、施設C1〜C4の4棟を特定し、より画像の中心に位置する施設を、車両の位置Mから遠い施設であると特定する。すなわち、サーバ制御部51は、施設C1、及び、施設C2は、車両の位置Mから近い施設であると特定し、施設C3、及び、施設C4は車両の位置Mから遠い施設であると特定する。
次いで、サーバ制御部51は、画像から特定した施設と、車両の位置Mに基づく地図に表示される施設とを一致させる。画像から特定された施設は、車両の位置Mと車両2の進行方向から、地図上の施設と、以下のように一致されていく。施設C1は、車両2の進行方向右側において車両の位置Mに近い施設であるため、地図上においては施設C5と特定される。施設C2は、車両2の進行方向左側において車両の位置Mに近い施設であるため、地図上においては施設C6と特定される。施設C3は、車両2の進行方向左側において車両の位置Mから遠い施設であるため、地図上においては施設C7と特定される。施設C4は、車両2の進行方向右側において車両の位置Mから遠い施設であるため、地図上においては施設C8と特定される。
サーバ制御部51は、撮影画像データに基づく画像から認識した施設等を地図と一致させた後、受信したタッチ位置情報に基づくタッチ位置T1がどの施設等にあるかを判断し、タッチ位置T1に基づく地図上の位置を取得する。
図11(A)の場合、タッチ位置T1は、施設C4上に位置する。この場合、サーバ制御部51は、タッチ位置T1が施設C4上に位置すると判断し、地図から施設C8(図11(A)では施設C4)の経度、及び、緯度の位置を取得する。
なお、地図上の位置を取得する方法は一例であり、上述した方法に限られない。
図3の説明に戻り、図3(B)に示すように、サーバ制御部51は、タッチ位置情報と、ステップSB5で取得した地図上の位置を示す対応位置情報と、コメント情報と、をナビゲーション装置3に送信する(ステップSB6)。なお、対応位置情報は、地図+映像モードのタッチ位置T2の場合、タッチ位置情報が含む地図上の位置を示す。
図3(C)に示すように、ナビゲーション装置3の制御部31は、通信部35によってサーバ5から送信されたタッチ位置情報、対応位置情報、及び、コメント情報を受信し(ステップSA3)、タッチ位置情報、対応位置情報、及び、コメント情報を記憶部32等に記憶する(ステップSA4)。
次いで、制御部31は、記憶したタッチ位置情報に基づき、タッチ位置T1が第1領域A1内、或いは、タッチ位置T2が第2領域A2内であるか否かを判断する(ステップSA4)。前述した通り、タッチ位置情報は、タッチ位置T1が第1領域A1内、或いは、タッチ位置T2が第2領域A2内であるか否かの情報を含んでいる。
タッチ位置情報に基づくタッチ位置T1が第1領域A1内、或いは、タッチ位置T2が第2領域A2内である場合(ステップSA4:YES)、制御部31は、コメント情報に基づくコメントの出力、及び、サーバ5から受信した対応位置情報に基づく地図上の位置の表示を即時に行わない(ステップSA5)。なお、制御部31は、ユーザの操作によって、コメントの受信履歴として、受信したコメントの出力、及び、地図上の位置の表示ができる。
図12は、ナビゲーション装置3に表示されるユーザインターフェイスの一例を示す図である。図12(A1)、及び、図12(A2)に示す図は、車両2が停車中に表示される画面の一例である。なお、車両2が走行中の場合、走行映像は表示されない。つまり、地図の表示のみである。
制御部31は、車両2が停車中の場合、専用ソフトSFの機能により、携帯端末4と同様にユーザの所定のタッチ操作によって、全画面モードと、地図+映像モードと、の2つのモードに切り替えることができる。図12(A1)は、全画面モードの際に表示される画面の一例であり、図12(A2)は、地図+映像モードの際に表示される画面の一例である。
図12(A1)は、表示パネル33aに動画を表示するための動画表示領域D1を有する。図12(A2)は、表示パネル33aに地図を表示するための地図表示領域D2、及び、動画を表示するための動画表示領域D1を有する。また。図12(A1)、及び、図12(A2)は、選択することによって携帯端末4から送信されたコメントを表示することができるボタンB5を有する。当該ボタンB5は、車両2が走行中の場合も地図上に設けられ、ユーザのタッチ操作を受け付ける。
ユーザは、ボタンB5を選択することによって、携帯端末4から送信されたコメントをコメントの受信履歴として表示することができる。
図12(B)は、コメントの受信履歴の一例を示す図である。
図12(B)に示すように、ナビゲーション装置3は、専用ソフトSFの機能により、表示パネル33aに、コメントが入力された位置を示す位置表示画面D3と、入力されたコメントをリストとして表示するリスト表示画面D4と、を有する。位置表示画面D3は、受信した対応位置情報の地図上の位置に基づき、車両2が走行した経路SKの表示と共に、コメントが入力されたことを示すマークKを表示する。また、複数入力された場合、マークKは、例えば時系列順等の所定の順番に基づき、番号を付され表示される。リスト表示画面D4は、入力されたコメントを項目として羅列したリストLとして表示する。図11(B)に示すように、1のコメントは、1の項目として表示され、例えば時系列順等の所定の順番に基づき、番号が付され表示される。また、入力された時間を示す時刻が表示される。また、リスト表示画面D4は、コメントがテキストで入力された場合、項目LS1、及び、項目LS2に示すようにコメントを文字列として表示し、コメントが音声で入力された場合、項目LS3に示すようにタッチ操作することによって音声が出力されるボタンOとして表示される。また、位置表示画面D3に表示されるマークKに付された番号と、リスト表示画面D4に表示される項目に付された番号とは、同一のコメント情報を示す。
上述したように、タッチ位置T1が第1領域A1内、或いは、タッチ位置T2が第2領域A2内である場合、ナビゲーション装置3は、コメントの出力、及び、対応位置情報に基づく地図上の位置の表示を即時に行わない。これにより、制御部31は、不用意なコメントの出力を行わないため、コメントの有益性の低下を抑制できる。また、制御部31は、車両2がまもなく通過してしまう施設等に対するコメントの出力を行わないため、運転者の運転に対する注意の散漫を低減できる。また、ナビゲーション装置3が即時に出力しないコメントを、受信履歴として表示できるため、ユーザは、通過してしまった施設等に対するコメントを、コメントが示す施設等を通過後でも確認することができる。特に、コメントの受信履歴では、コメントと、地図位置を表示するため、ユーザは、詳細にコメント内容を知ることができる。
なお、前述したとおり、車両2が走行中の場合、走行映像の表示は行われない。すなわち、地図の表示のみである。この場合、ボタンB5が地図上に表示されており、車両2に搭乗するユーザは、ボタンB5を選択することによって、受信したコメントの履歴を見ることができる。
図3の説明に戻り、図3(A)において、タッチ位置T1が第1領域A1内、或いは、タッチ位置T2が第2領域A2内でない場合、制御部31は、コメントの出力、及び、対応位置情報に基づく地図上の位置の表示を即時に実行する(ステップSA6)。
車両2が走行中の場合、コメント情報に基づくコメントは、ナビゲーション装置3が備えるスピーカ34aによって音声によって出力される。また、受信した対応位置情報に基づく地図上の位置も表示される。前述した通り、車両2が走行中の場合、所定の法律により走行映像は表示されないため、表示パネル33aに表示された地図上に、所定のマークとして、対応位置情報に基づく地図上の位置は、表示される。
ここで、コメントがテキストによって入力された場合、当該コメントは、音声認識によりテキストデータから音声データへ変換され、音声データに基づく音声として出力される。なお、制御部31が音声認識を行ってもよく、サーバ5、或いは、携帯端末4が行ってもよい。また、コメントが音声によって入力された場合、制御部31は、音声入出力部34によって当該音声をそのまま出力する。このように、車両2が走行中の場合、ナビゲーション装置3が音声によってコメントを出力するため、車両2に搭乗しているユーザは、コメントの内容を目視することなく知ることができる。特に、車両2が走行中、コメントをテキストとして表示しないため、運転者の運転に対する注意を散漫させることがない。
一方、車両2が停車中の場合、コメント情報に基づくコメントは、テキストとして表示パネル33aに表示されてもよく、音声によって出力されてもよい。
このように、タッチ位置T1が第1領域A1内、或いは、タッチ位置T2が第2領域A2内でない場合、ナビゲーション装置3は、コメントの出力、及び、地図上の位置の表示を即時に実行する。これにより、ユーザは、例えば車両2が走行中に位置する施設等の情報を、リアルタイムに知ることができる。特に、コメントと、対応位置情報に基づく地図上の位置を表示するため、ユーザは、詳細にコメントに関する情報を知ることができる。
以上、説明したように、本実施形態における情報処理システム1は、車両2に搭載されるナビゲーション装置3(車載装置)と、ナビゲーション装置3と通信可能なサーバ5(情報処理装置)と、サーバ5と通信可能な携帯端末4(端末)と、を備える。ナビゲーション装置3は、車両2に設けられ、車両2の前方を撮影するカメラ39の撮影結果に基づく撮影画像データを、サーバ5に送信する。サーバ5は、ナビゲーション装置3から受信した撮影画像データを、携帯端末4に送信する。携帯端末4は、サーバ5から受信した撮影画像データに基づく画像を表示すると共に、コメントの入力を受け付け、受け付けたコメントを示すコメント情報を、サーバ5に送信する。サーバ5は、携帯端末4から受信したコメント情報を、ナビゲーション装置3に送信する。ナビゲーション装置3は、コメント情報に基づいて、コメントを出力する。
この構成により、情報処理システム1は、例えば道路を車両2によって走行中、外部の人から、お店等の、走行中の道路に関する情報を知る等の、リアルタイムな情報の伝達を行うことができる。
また、本実施形態の情報処理システム1において、携帯端末4は、任意の位置をタッチ操作が可能な状態で撮影画像データに基づく画像を表示し、撮影画像データに基づく画像がタッチ操作されると共に、タッチ操作と対応してコメントの入力を受け付けた場合、コメントを示すコメント情報、及び、タッチ操作されたタッチ位置を示すタッチ位置情報をサーバ5に送信し、サーバ5は、タッチ位置情報に基づいて、タッチ操作されたタッチ位置の地図上の位置を算出し、算出した地図上の位置を示す対応位置情報を、コメント情報と共にナビゲーション装置3に送信し、ナビゲーション装置3は、地図を表示するタッチパネル33を備え、コメント情報に基づいてコメントを出力すると共に、対応位置情報に基づいて、タッチパネル33が表示する地図上に、タッチ位置に対応する位置を表示する。
この構成により、情報処理システム1は、携帯端末4を操作するユーザが入力したコメント、及び、タッチ位置を、ナビゲーション装置3を備える車両2に搭乗しているユーザに提供できる。
また、本実施形態の情報処理システム1において、ナビゲーション装置3は、車両の位置Mを示す車両位置情報をサーバ5に送信し、サーバ5は、受信した車両位置情報が示す車両の位置Mに基づいて、車両2の位置を起点とした所定の範囲に対応する第1領域A1が画像に表示されるように撮影画像データを加工して、携帯端末4に送信し、携帯端末4は、受信した加工後の撮影画像データに基づいて、第1領域A1が表示された画像を表示し、ナビゲーション装置3が、第1領域A1に対するタッチ操作に対応して受け付けたコメントを示すコメント情報に基づくコメントの出力を行わないようにする。
この構成により、情報処理システム1は、第1領域A1内におけるタッチ操作に基づくコメントの出力の抑制することができる。特に、本実施形態において第1領域A1は、車両2がまもなく通過してしまう可能性の高い領域であることを示す。そのため、情報処理システム1は、不用意なコメントの出力を行わないことにより、出力されるコメントの有益性の低下を抑制できる。また、車両2が通過してしまう可能性の高い施設等のコメントを出力しないため、車両2の運転者の運転に対する注意の散漫を低減することができる。
また、本実施形態の情報処理システム1において、ナビゲーション装置3は、車両2の速度を示す車両速度情報をサーバ5に送信し、サーバ5は、受信した車両速度情報が示す車両2の速度に基づいて、車両2の速度が速いほど、第1領域A1の範囲を広くする。
この構成により、サーバ5は、車両2がまもなく通過する可能性の高い領域を、車両2の速度に応じた第1領域A1が画像に表示されるように撮影画像データを加工する。そのため、情報処理システム1は、携帯端末4のユーザに対し、正確に、車両2がまもなく通過する可能性の高い領域を提供することができる。
また、本実施形態の情報処理システム1において、ナビゲーション装置3は、車両位置情報をサーバ5に送信し、サーバ5は、受信した車両位置情報が示す車両の位置Mに基づいて、車両の位置Mを起点とした所定の範囲に対応する第2領域A2を示す第2領域情報を生成して、撮影画像データと、第2領域情報と、車両の位置Mとを携帯端末4に送信し、携帯端末4は、地図を表示すると共に、受信した第2領域情報に基づいて、地図上に、車両位置情報が示す車両の位置M、及び、第2領域情報が示す第2領域A2を表示し、ナビゲーション装置3が、第2領域A2に対するタッチ操作に対応して受け付けたコメントを示すコメント情報に基づくコメントの出力を行わないようにする。
この構成により、情報処理システム1は、第2領域A2内におけるタッチ操作に基づくコメントの出力の抑制することができる。特に、本実施形態において第2領域A2は、車両2がまもなく通過してしまう可能性の高い領域であることを示す。そのため、情報処理システム1は、不用意なコメントの出力を行わないことにより、コメントの有益性の低下を抑制できる。また、車両2が通過してしまう可能性の高い施設等のコメントを出力しないため、車両2の運転者の運転に対する注意の散漫を低減することができる。
また、本実施形態の情報処理システム1において、ナビゲーション装置3は、車両速度情報をサーバ5に送信し、サーバ5は、受信した車両速度情報が示す車両2の速度に基づいて、車両2の速度が速いほど、第2領域A2の範囲を広くする。
この構成により、サーバ5は、車両2がまもなく通過する可能性の高い領域を、車両2の速度に応じた第2領域A2が画像に表示されるように撮影画像データを加工する。そのため、情報処理システム1は、携帯端末4のユーザに対し、正確に、車両2がまもなく通過する可能性の高い領域を提供することができる。
上述した実施形態は、あくまでも本発明の一態様を例示するものであって、本発明の趣旨を逸脱しない範囲で任意に変形、及び、応用が可能である。
例えば、上述したコメント情報は、携帯端末4で入力された内容と、同じ内容がナビゲーション装置3で出力されていた。しかしながら付加情報とともにコメントを出力してもよい。この場合、サーバ制御部51は、携帯端末4から受信したタッチ位置情報から取得した対応位置情報に基づく例えば施設等の位置、及び、名称の情報を、サーバ5と異なる外部サーバに送信する。外部サーバは、受信した情報に基づき、付加情報を取得し、サーバ5に送信する。付加情報を受信したサーバ5は、コメント情報とともに、付加情報を送信する。ナビゲーション装置3は、コメントとともに付加情報も出力する。
また、例えば、本実施形態において、ナビゲーション装置3が、タッチ位置T1が第1領域A1内、或いは、タッチ位置T2が第2領域A2内であるか否かの判断を行ったが、サーバ5、若しくは、携帯端末4がこの判断を実行してもよい。この場合、サーバ5、若しくは、携帯端末4は、ナビゲーション装置3においてコメントの出力を実行するか否かの情報を生成し、ナビゲーション装置3が当該情報に基づき、コメントの出力、若しくは、出力しない処理を実行する。