JP6360405B2 - 情報処理システム、及び、情報処理方法 - Google Patents

情報処理システム、及び、情報処理方法 Download PDF

Info

Publication number
JP6360405B2
JP6360405B2 JP2014200823A JP2014200823A JP6360405B2 JP 6360405 B2 JP6360405 B2 JP 6360405B2 JP 2014200823 A JP2014200823 A JP 2014200823A JP 2014200823 A JP2014200823 A JP 2014200823A JP 6360405 B2 JP6360405 B2 JP 6360405B2
Authority
JP
Japan
Prior art keywords
vehicle
comment
information
information processing
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014200823A
Other languages
English (en)
Other versions
JP2016070797A (ja
Inventor
宗紀 杉田
宗紀 杉田
吉原 敬一朗
敬一朗 吉原
卓志 吉丸
卓志 吉丸
隆昭 石井
隆昭 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2014200823A priority Critical patent/JP6360405B2/ja
Publication of JP2016070797A publication Critical patent/JP2016070797A/ja
Application granted granted Critical
Publication of JP6360405B2 publication Critical patent/JP6360405B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Navigation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、情報処理システム、及び、情報処理方法に関する。
本技術分野の背景技術として、特開2013−50916号公報(特許文献1)がある。この公報には、「車両5から投稿文の閲覧要求が有った場合に、交通情報センタ3から交通情報を取得し、取得した交通情報に基づいて検索条件を設定し、コンピュータネットワーク上に投稿された投稿文の内から、設定された検索条件に該当する投稿文である該当投稿文を抽出し、車両5に対して抽出された投稿文を提供するように構成する。」と記載されている。
特開2013−50916号公報
特許文献1では、ユーザの操作に基づいて投稿文を提供するものであり、リアルタイムに投稿文が提供される場合を考慮していない。そのため、ユーザは、例えば道路を車両によって走行中、外部の人から、お店等の、走行中の道路に関する情報をリアルタイムに知ることができない。
そこで、本発明は、リアルタイムに情報の伝達を行うことができる情報処理システム、及び、情報処理方法を提供することを目的とする。
上記目的を達成するために、車両に搭載される車載装置と、前記車載装置と通信可能な情報処理装置と、前記情報処理装置と通信可能な端末と、を備える情報処理システムであって、前記車載装置は、前記車両に設けられ、前記車両の前方を撮影する撮影装置の撮影結果に基づく撮影画像データを、前記情報処理装置に送信し、前記情報処理装置は、前記車載装置から受信した前記撮影画像データを、前記端末に送信し、前記端末は、前記情報処理装置から受信した前記撮影画像データに基づく画像を表示すると共に、コメントの入力を受け付け、受け付けたコメントを示すコメント情報を、前記情報処理装置に送信し、前記情報処理装置は、前記端末から受信した前記コメント情報を、前記車載装置に送信し、前記車載装置は、前記コメント情報に基づいて、コメントを出力することを特徴とする。
本発明によれば、リアルタイムに情報の伝達を行うことができる。
本実施形態に係る情報処理システムの構成を示す図である。 本実施形態に係る情報処理システムの機能ブロック図である。 本実施形態に係る情報処理システムを構成する各装置の動作を示すフローチャートである。 サーバに送信する情報の取得、及び、送信する際の、ナビゲーション装置の動作を示すフローチャートである。 携帯端末に送信する情報の生成、及び、送信を実行する際のサーバの動作を示すフローチャートである。 第1領域の一例を示す図である。 第2領域の一例を示す図である。 全画面モードの場合に表示されるユーザインターフェイスの一例を示す図である。 地図+映像モードの場合に表示されるユーザインターフェイスの一例を示す図である。 円形の第2領域の一例を示す図である。 地図上の位置の算出を説明するための説明図である。 ナビゲーション装置に表示されるユーザインターフェイスの一例を示す図である。
図1は、本実施形態に係る情報処理システム1の構成を示す図である。
図1に示すように、情報処理システム1は、車両2に搭載されたナビゲーション装置3(車載装置)と、インターネットや、電話網等を含んで構成されたネットワーク6に接続可能な携帯端末4(端末)と、ネットワーク6に接続されたサーバ5(情報処理装置)と、を有する。
ナビゲーション装置3は、搭乗しているユーザの操作に従って、地図の表示、経路の表示や音声による経路案内など、ナビゲーション機能を実行する装置である。ナビゲーション装置3は、ネットワーク6にアクセスする機能を有し、後述する方法により、サーバ5とネットワーク6を介して通信する。
携帯端末4は、ユーザが持ち運び可能な携帯型の端末であり、例えばスマートフォンやタブレット型端末等である。本実施形態では、携帯端末4は、車両2の搭乗者以外のユーザが所有する端末である。携帯端末4は、ネットワーク6にアクセスする機能を有し、後述する方法により、サーバ5とネットワークを介して通信する。
サーバ5は、ナビゲーション装置3、及び、携帯端末4と通信し、これら装置を介して、車両2の搭乗者、及び、携帯端末4のユーザに後述するサービスを提供する。
情報処理システム1は、以下の機能を有するシステムである。すなわち、情報処理システム1において、ナビゲーション装置3には車両2の前方を撮影するカメラ39(後述)が接続されており、ナビゲーション装置3は、カメラ39の撮影結果に基づくデータを、サーバ5を介して、携帯端末4に送信する。携帯端末4は、受信したデータに基づいて、撮影結果を示す画像を表示する。この結果、車両2のカメラ39により撮影された車両2の前方の風景が、リアルタイムで、携帯端末4に表示される。携帯端末4のユーザは、携帯端末4が表示する車両2の前方の風景を示す画像に基づいて、適宜、風景に対応するコメントを行う。例えば、ユーザは、表示された画像に、自身が知っている飲食店がある場合は、飲食店に関するコメントを行う。携帯端末4は、ユーザがコメントした場合、コメントに基づくデータを、サーバ5を介して、ナビゲーション装置3に送信する。ナビゲーション装置3は、受信したデータに基づいて、コメントを音声、又は、表示によって出力する。この結果、携帯端末4のユーザが行ったコメントが、リアルタイムで、ナビゲーション装置3により出力される。車両2の搭乗者は、出力されたコメントに基づいて、車両2の前方に位置する施設等に関する有益な情報を取得できる。
図2は、本実施形態に係る情報処理システム1の機能ブロック図である。
図2に示すように、ナビゲーション装置3は、制御部31と、記憶部32と、タッチパネル33と、音声入出力部34と、通信部35と、車両情報取得部36と、相対方位検出部37と、GPS受信部38と、カメラ39と、を備える。
制御部31は、CPUや、ROM、RAM、その他の制御回路等を備え、ナビゲーション装置3の各部を制御する。
記憶部32は、ハードディスクや、EEPROM等の不揮発性メモリーを備え、データを書き換え可能に記憶する。また、記憶部32は、後述する専用ソフトSFのほか、地図データ32aを記憶している。当該地図データ32aは、交差点やその他の道路網上の結線点を示すノードに関する情報や、ノードとノードとの道路区間を示すリンクに関する情報、地図上の行政区画や、道路、施設、交差点等の名称に関する情報、を有する。
タッチパネル33は、表示パネル33aと、タッチセンサー33bとを備える。表示パネル33aは、液晶ディスプレイやEL(Electro Luminescent)ディスプレイ等のパネルを有し、制御部31の制御の下、各種情報を表示パネル33aに表示する。タッチセンサー33bは、表示パネル33aに重ねて配置され、ユーザのタッチ操作を検出し、制御部31に出力する。
音声入出力部34は、マイク5aと、スピーカ5bと、を備える。当該音声入出力部34は、制御部31の制御の下、マイク5aによって例えば乗車しているユーザの音声を収音する。また、当該音声入出力部34は、制御部31から入力される音声データに基づく音声をスピーカ5bから出力する。
通信部35は、制御部31の制御の下、所定の通信規格に従って、ネットワーク6に接続された機器と通信する。
車両情報取得部36は、ナビゲーション装置3を搭載した車両2の状態に関する車両信号を取得し、制御部31に出力する。車両信号には、少なくとも車両2の走行速度を示す車速パルス信号、及び、車両2のパーキングブレーキの状態を示すパーキングブレーキ信号が含まれる。制御部31は、車両情報取得部36から入力された車両信号に基づいて、車両2が停車中か否かを判別する。本実施形態で、「停車」とは、車両2が走行しておらず、且つ、パーキングブレーキによるブレーキが有効な状態をいう。
相対方位検出部37は、ジャイロセンサと、加速度センサとを備える。ジャイロセンサは、例えば振動ジャイロにより構成され、自車両の相対的な方位(例えば、ヨー軸方向の旋回量)を検出する。加速度センサは、自車両に作用する加速度(例えば、進行方向に対する自車両の傾き)を検出する。相対方位検出部37は、検出結果を制御部31に出力する。
GPS受信部38は、GPSアンテナ38aを介してGPS衛星からのGPS電波を受信し、GPS電波に重畳されたGPS信号から、車両2の現在位置を示す位置座標と進行方向とを演算により取得する。GPS受信部38は、取得結果を制御部31に出力する。
制御部31は、GPS受信部38から入力された位置座標と進行方向を示す情報、相対方位検出部37から入力された車両2の相対的な方位情報、記憶部32に記憶された地図データ32aに含まれる情報、及び、車両情報取得部36から入力された車速を示す検出信号に基づいて、車両2の位置を特定する。
カメラ39は、少なくとも車両2の前方を撮影可能な位置に設けられた撮影装置である。カメラ39は、制御部31の制御に従って、所定の周期(例えば、100msごと)で撮影を実行し、撮影結果に基づいて撮影画像データを生成し、制御部31に出力する。
図2に示すように、サーバ5は、サーバ制御部51と、サーバ記憶部52と、サーバ通信部53と、を備える。
サーバ制御部51は、CPUや、ROM、RAM、その他の周辺回路等を備え、サーバ5の各部を制御する。
サーバ記憶部52は、サーバ制御部51が実行する制御プログラムや、サーバ制御部51が処理するデータを記憶する。また、サーバ記憶部52は、地図データ52aを記憶している。
サーバ通信部53は、サーバ制御部51の制御の下、所定の通信規格に従って、ネットワーク6に接続された機器と通信する。
図2に示すように、携帯端末4は、端末制御部41と、端末記憶部42と、端末タッチパネル43と、端末音声入出力部44と、端末通信部45と、を備える。
端末制御部41は、CPUや、ROM、RAM、その他の周辺回路等を備え、携帯端末4の各部を制御する。
端末記憶部42は、不揮発性メモリーを備え、各種データを記憶する。上述したように、携帯端末4には専用アプリAPがインストールされており、端末記憶部42には、専用アプリAPが記憶される。また、端末記憶部42は、地図データ42aを記憶する。
端末タッチパネル43は、表示パネル43aと、タッチセンサー43bとを備える。表示パネル43aは、液晶ディスプレイやEL(Electro Luminescent)ディスプレイ等のパネルを有し、端末制御部41の制御の下、各種情報を表示パネル43aに表示する。タッチセンサー43bは、表示パネル43aに重ねて配置され、ユーザのタッチ操作を検出し、端末制御部41に出力する。
端末音声入出力部44は、スピーカ44aと、マイク44bと、を備える。当該端末音声入出力部44は、端末制御部41の制御の下、マイク44bによって例えば乗車しているユーザの音声を収音する。また、当該端末音声入出力部44は、端末制御部41から入力される音声データに基づく音声をスピーカ44aから出力する。
以上の構成の下、ナビゲーション装置3と、携帯端末4とは、以下に示す処理を実行することによって、サーバ5を介して所定の情報を送受信することが可能な状態を確立する。
ここで、ナビゲーション装置3と、携帯端末4とは、サーバ5が有する、所定の情報の送受信に関するシステムである情報送受信システムを利用する。そのため、ナビゲーション装置3は、情報送受信システムを利用するためのソフトウェア(以下、「専用ソフトSF」と表現する。)が事前にインストールされる。また、携帯端末4は、情報送受信システムを利用するためのアプリケーション(以下、「専用アプリAP」と表現する。)が事前にインストールされる。
車両2の搭乗者が専用ソフトSFを立ち上げると、ナビゲーション装置3は、専用ソフトSFの機能により、サーバ5へ、カーIDを送信する。カーIDとは、車両2に搭載されるナビゲーション装置3を識別するための識別情報である。サーバ5は、受信したカーIDに基づいて、情報送受信システムを利用するナビゲーション装置3を特定し、サーバ5とナビゲーション装置3との間で所定の情報の送受信が行える状態を確立する。
一方、ユーザが携帯端末4の専用アプリAPを立ち上げると、携帯端末4は、専用アプリAPの機能により、ユーザID、パスワード、及び、カーIDをサーバ5に送信する。ユーザIDとは、専用アプリAPを使用するユーザを識別するための識別情報であり、パスワードは、ユーザIDを利用する際に認証を得るための認証情報である。また、携帯端末4が送信するカーIDは、携帯端末4が、サーバ5を介して所定の情報を送受信するナビゲーション装置3を識別するための識別情報である。
サーバ5は、携帯端末4から受信したユーザID、パスワード、及び、カーIDのうち、ユーザIDに基づいて情報送受信システムを利用する携帯端末4を特定する。また、サーバ5は、ユーザID、及び、パスワードに基づいて、認証を行う。認証に成功した場合、サーバ5は、携帯端末4との間で所定の情報の送受信が行える状態を確立する。
携帯端末4との間で通信可能な状態を確立した後、サーバ5は、携帯端末4から受信したカーIDと、ナビゲーション装置3から受信したカーIDと照らし合わせ、一致した場合、携帯端末4と、ナビゲーション装置3とを対応付ける。以後、サーバ5は、ナビゲーション装置3からデータを受信した場合、受信したデータや、受信したデータに基づくデータを、対応付けられた携帯端末4に送信する。一方、サーバ5は、携帯端末4からデータを受信した場合、受信したデータや、受信したデータに基づくデータを、対応付けられたナビゲーション装置3に送信する。
ここで、上述したように、情報処理システム1において、携帯端末4にカメラ39で撮影された車両2の前方の風景がリアルタイムで表示され、また、ナビゲーション装置3は携帯端末4のユーザが行ったコメントをリアルタイムで出力する。そして、ナビゲーション装置3によるコメントの出力に関し、以下の課題がある。すなわち、車両2が走行中の場合、携帯端末4のユーザが、携帯端末4に表示されている画像が示す車両2の前方の風景を参照し、1の施設についてコメントを行い、ナビゲーション装置3がコメントを出力したときに、車両2が当該1の施設を通過してしまっている可能性がある。この場合、車両2の走行を継続しつつ当該1の施設を経由することはできず、車両2の搭乗者にとって、コメントの有益性が低下する。以上の課題を踏まえ、以下、情報処理システム1が備える各装置の動作について詳述する。
図3は、情報処理システム1を構成する各装置の動作を示すフローチャートであり、(A)はナビゲーション装置3の動作を示し、(B)はサーバ5の動作を示し、(C)は携帯端末4の動作を示す。
なお、図3に示すフローチャートの開始時点では、以下のことを前提とする。すなわち、情報処理システム1において、上述した処理にて、ナビゲーション装置3と、携帯端末4と、がサーバ5を介し、所定の情報を送受信できる状態が確立されていることを前提とする。
図3(A)に示すように、ナビゲーション装置3の制御部31は、専用ソフトSFの機能により、サーバ5に送信する情報を取得し、当該情報をサーバ5に送信する(ステップSA1)。ここで、ステップSA1の処理について、詳述する。
図4は、ステップSA1のサーバ5に送信する情報の取得、及び、送信する際の、ナビゲーション装置3の動作を示すフローチャートである。
ナビゲーション装置3の制御部31は、専用ソフトSFの機能により、車両2に設けられたカメラ39から入力された撮影結果に基づく撮影画像データを取得する(ステップSD1)。次いで、制御部31は、GPS受信部38、及び、相対方位検出部37から入力された信号に基づき、車両2の位置を取得する(ステップSD2)。次いで、制御部31は、車両情報取得部36が取得した車速パルスに基づき、車両2の速度を取得する(ステップSD3)。
次いで、制御部31は、撮影画像データ、取得した車両2の位置を示す車両位置情報、及び、取得した車両2の速度を示す車両速度情報を、サーバ5に送信する(ステップSD4)。制御部31は、撮影画像データ、車両位置情報、及び、車両速度情報をサーバ5に送信すると、処理をステップSD1に戻し、再度、撮影画像データの取得を開始する。すなわち、制御部31は、カメラ39から所定の周期で撮影画像データが入力される度に、撮影画像データと、車両位置情報と、車両速度情報とをサーバ5に送信する。なお、撮影画像データには、撮影された時間を示す時刻も対応付いている。
図3の説明に戻り、図3(B)に示すように、サーバ制御部51は、ナビゲーション装置3から送信された撮影画像データ、車両位置情報、及び、車両速度情報を受信し(ステップSB1)、カーIDと対応付けてサーバ記憶部52に記憶する(ステップSB2)。なお、ナビゲーション装置3は、所定の周期で、撮影画像データ、車両位置情報、及び、車両速度情報をサーバ5に送信するが、サーバ5のサーバ制御部51は、受信したこれら情報をサーバ記憶部52に累積的に記憶する。
次いで、サーバ制御部51は、携帯端末4に送信する情報を生成し、当該情報を携帯端末4に送信する(ステップSB3)。ステップSB3について詳述する。
図5は、携帯端末4に送信する情報の生成、及び、送信を実行する際のサーバ5の動作を示すフローチャートである。
サーバ制御部51は、ナビゲーション装置3から受信し、サーバ記憶部52に記憶した撮影画像データを、撮影画像データ毎に加工する(ステップSE1)。具体的には、サーバ制御部51は、撮影画像データに基づく画像を表示した場合に、画像に、以下で説明する第1領域A1が表示されるように、撮影画像データを加工する。
図6は、加工後の撮影画像データに基づいて表示される画像の一例を示す図である。撮影画像データに基づく画像は、車両2の前方の風景を示す画像である。以下、撮影画像データに基づいて表示される画像を、「車両前方画像」という。
図6に示すように、第1領域A1は、車両2が、撮影画像データに対応する車両速度情報が示す速度(撮影画像データの元となった撮影が行われたときの車両2の速度)で車両2が走行した場合に、車両2が所定時間内(例えば、3秒以内)に通過する領域を示している。ここで、所定時間内に通過する領域は、車両2が走行する速度に応じて異なる。具体的には、車速が速いほど、所定時間内に通過する領域は広くなる。そのため、第1領域A1は、車速が速いほど、面積の大きい領域となる。
図6に示すように、第1領域A1は、画像の左右の両端において、境界ラインL1で区切られた幅W1の領域である。ステップSE1において、サーバ制御部51は、以下のようにして、車両前方画像に境界ラインL1が表示されるように、撮影画像データを加工する。
まず、サーバ制御部51は、幅W1を、加工対象の撮影画像データに対応付けられた車両速度情報が示す車両2の速度に基づいて決定する。具体的には、サーバ記憶部52に、車両2の速度と、幅W1との対応関係を示すテーブルが記憶されており、サーバ制御部51は、車両速度情報が示す車両2の速度と、上記テーブルに基づいて幅W1を決定する。次いで、サーバ制御部51は、車両前方画像の左右の端から幅W1だけ離間した位置に、境界ラインL1が表示されるように、撮影画像データに画像処理を施して、撮影画像データを加工する。
なお、サーバ制御部51は、撮影画像データの加工において、第1領域A1を設けると共に、車両のナンバープレートや、人物の顔などのプライバシーに係る画像をぼかす処理を施してもよい。この場合、サーバ制御部51は、パターンマッチング等の既存の処理を実行し、撮影画像データにおける人物の顔などのプライバシーに関わる領域を特定し、特定した領域にぼかし処理を施す。これにより、サーバ制御部51は、プライバシーに係る情報を隠した撮影画像データとして携帯端末4に送信することができる。
図5の説明に戻り、1の撮影画像データを加工した後、サーバ制御部51は、車両位置情報に基づく車両2の位置を起点とした第2領域を示す第2領域情報を生成する(ステップSE2)。
図7は、第2領域A2の一例を示す図である。
第2領域A2とは、車両2が所定の速度で走行した場合に、所定時間内に通過する領域を、地図上で表す領域である。通過する領域は、車両2の速度に応じて異なるため、第2領域A2は、車両2の速度に応じて異なる。具体的には、第2領域A2は、車両2の速度が速いほど、面積が大きくなる領域である。後述するが、携帯端末4は、後述する走行映像のみを表示するモード(以下、全画面モードと呼ぶ。)と、地図、及び、走行映像を表示するモード(以下、地図+映像モードと呼ぶ。)と、の2つのモードに切り替えが可能である。ここで、第2領域A2は、携帯端末4の表示モードが地図+映像モードの際に、設けられる領域である。
図7に示すように、第2領域A2は、地図上に設けられ、経度、及び、緯度を示す複数のポイントにより囲まれた領域である。当該第2領域A2は、車両位置情報に基づく車両の位置Mを起点として、ポイントP1及びポイントP2に基づく境界ラインL2と、ポイントP4及びポイントP2、若しくは、ポイントP3及びポイントP2に基づく幅W2とにより形成される。第2領域A2を形成する幅W2は、ステップSE1で加工された1の撮影画像データに対応付けられた車両2の速度に基づき決定する。すなわち、撮影画像データに対応付く車両2の速度に応じて、幅W2は異なる。そのため、第2領域A2は、撮影画像データ毎に異なる。具体的には、第2領域A2は、車両2の速度が速いほど、より車両2の前方を領域範囲に含むよう、面積が大きくなる領域である。
ステップSE2において、サーバ制御部51は、携帯端末4の表示モードが地図+映像モードである際に、地図上に第2領域A2を設けるよう、経度及び緯度を示すポイントP1〜P4に囲まれた領域である第2領域A2を示す第2領域情報を生成する。
図5の説明に戻り、サーバ制御部51は、第2領域情報を生成した後、加工後の1の撮影画像データ、第2領域情報、及び、加工前の1の撮影画像データに対応付いた車両位置情報を携帯端末4に送信する(ステップSE3)。サーバ制御部51は、ステップSE3の処理の後、処理をステップSE1に戻し、再度、1の撮影画像データの加工を実行する。すなわち、サーバ制御部51は、サーバ記憶部52が記憶している撮影画像データ毎に加工し、加工する1の撮影画像データに対応付く車両の位置M、及び、車両2の速度に基づいて第2領域情報を生成し、加工後の1の撮影画像データ、第2領域情報、及び、加工前の1の撮影画像データに対応付く車両位置情報を携帯端末4に送信する処理を繰り返す。なお、撮影画像データは、対応付く時刻に基づいて、順次、処理される。
図3の説明に戻り、図3(C)に示すように、携帯端末4の端末制御部41は、端末通信部45によって、サーバ5から送信される度に、加工後の1の撮影画像データ、第2領域情報、及び、車両位置情報をサーバ5から受信する(ステップSC1)。次いで、端末制御部41は、専用アプリAPの機能により、表示パネル43aに、表示モードに応じた情報の表示を実行する(ステップSC2)。前述した通り、表示モードは、全画面モードと、地図+映像モードと、の2つのモードがある。以下、端末制御部41の動作を、全画面モードの場合と、地図+映像モードの場合と、の2つの場合について、図面を参照し、説明する。なお、全画面モードと、地図+映像モードとは、専用アプリAPの機能により、ユーザの所定のタッチ操作によって切り替えることができる。
ここで、端末制御部41の動作を説明するにあたり、以下のことを前提とする。
すなわち、端末制御部41は、専用アプリAPの機能により、サーバ5から受信した加工後の1の撮影画像データに基づく画像を、サーバ5から受信する度に、当該画像を切り替え、動画として表示する。つまり、端末制御部41は、リアルタイムに走行映像を表示パネル43aに表示することが前提となる。
<全画面モード>
前述した通り、全画面モードとは、携帯端末4の表示パネル43aに走行映像を表示するモードである。走行映像とは、連続して受信する撮影画像データに基づく画像を連続して表示することによって表示される動画のことである。撮影画像データは、車両の前方の撮影結果に基づいて生成されるため、走行映像は、車両の前方の風景を示す動画である。なお、全画面モードでは、後述する地図+映像モードと異なり、地図を表示しない。端末制御部41は、全画面モードの場合、専用アプリAPの機能により、動画を表示するための領域である動画表示領域D1のみを有するユーザインターフェイスを表示し、当該動画表示領域D1において、加工後の撮影画像データに基づく動画を表示する(ステップSC2)。
図8は、全画面モードの場合に表示されるユーザインターフェイスの一例を示す図であり、図8(A)は、走行映像の表示の一例を示す図である。
図8(A)に示すように、全画面モードでは、専用アプリAPの機能によって、走行映像が表示される。前述した通り、携帯端末4の表示パネル43aが表示する動画は、加工後の撮影画像データに基づく画像を、サーバ5から受信する度に、当該画像を切り替え、動画として表示しているため、走行映像には、第1領域A1が設けられている。また、撮影画像データの取得時における車両2の速度に応じて、第1領域A1の範囲は異なるため、境界ラインL1は、車両2の速度に応じて図6に示す幅W1を変えるよう移動する。また、動画表示領域D1には、走行映像と共に、車両位置情報が示す車両の位置Mに基づき、地図データ42aから取得した車両2が走行している地図上の名称Hを表示する。この名称Hの表示により、地図を表示しない全画面モードでも、携帯端末4を操作するユーザは、車両2がどこを走行しているかを名称Hから判断することができる。
端末制御部41は、図8(A)に示すように、第1領域A1を設けた走行映像を表示している状態で、ユーザのタッチ操作がされると(ステップSC3:YES)、コメントの入力を受け付ける(ステップSC4)。
図8(B)は、タッチ位置T1の一例を示す図である。端末制御部41は、携帯端末4のユーザが、図8(A)に示す状態で、任意の位置をタッチすることによって、図8(B)に示すタッチ位置T1を認識し、コメントの入力方法の選択を案内する画像である案内画像Q1を表示する。
図8(C)は、コメントの入力方法の選択に係る案内画像Q1を表示した一例を示す図である。図8(C)に示すように、ユーザの任意の位置に基づくタッチ操作によって、端末制御部41は、案内画像Q1を表示する。当該案内画像Q1は、コメントをテキストによって入力するためのボタンB1と、音声によって入力するためのボタンB2と、を有する。携帯端末4のユーザがボタンB1を選択した場合、端末制御部41は、表示パネル43aに、タッチ操作で入力が可能な図示せぬソフトウェアキーボード等を表示し、コメントの入力を受け付ける。一方、ユーザがボタンB2を選択した場合、端末制御部41は、端末音声入出力部44のマイク44bによって、携帯端末4のユーザの音声を収音し、コメントの入力を受け付ける。
端末制御部41は、コメントが入力されると、当該コメントをナビゲーション装置3に送信するか否かを案内する画像である案内画像Q2を表示する。
図8(D)は、案内画像Q2の表示の一例を示す図である。図8(D)に示すように、コメントの入力がされると、端末制御部41は、ナビゲーション装置3にコメントを送信するか否かを案内する画像である案内画像Q2を表示する。案内画像Q2は、入力されたコメントを表示する表示領域Rと、コメントをナビゲーション装置3に送信するボタンB3と、コメントの送信を取りやめるボタンB4とを有する。なお、音声でコメントを入力した場合、音声認識等により変換されたテキストを表示領域Rに表示する必要はなく、音声をスピーカ44aによって出力し、入力した内容を確認できるような構成であってもよい。
端末制御部41は、図8(D)に示すようなボタンB3の選択によるコメントの送信指示があった場合、受け付けたコメント示すコメント情報と、タッチ位置T1を示すタッチ位置情報とを、サーバ5に送信する(ステップSC5)。コメント情報とは、コメントが音声の場合、収音された音声に基づく音声データであり、コメントがテキストの場合、入力されたテキストに基づくテキストデータである。コメント情報は、送信指示のあった時間を示す時刻が対応付けられ、送信される。タッチ位置T1を示すタッチ位置情報とは、表示パネル43aに表示される撮影画像データに基づく画像上における、座標等のユーザのタッチ位置が一意的に定まる情報である。タッチ位置T1を示すタッチ位置情報は、コメントの送信指示があった時のタッチ位置T1が第1領域A1内であるか否かの情報が対応付けられ、送信される。
次いで、端末制御部41は、コメントの送信指示があった時、タッチ位置T1が第1領域A1内に位置しているか否かを判断する(ステップSC6)。タッチ位置T1が第1領域A1内に位置していない場合(ステップSC6:NO)、端末制御部41は、タッチ位置T1にコメントが入力されたことを示すマークであるコメントマークCを表示する(ステップSC7)。
図8(E)は、タッチ位置T1が第1領域A1内でない場合に表示される画面の一例を示す図である。図8(E)に示すように、端末制御部41は、タッチ位置T1に、コメントが入力されたことを示すコメントマークCを表示する。当該コメントマークCは、携帯端末4のユーザのタッチ操作によって、入力したコメントの内容を出力する。そのため、携帯端末4のユーザは、入力したコメントの内容を確認することができる。
一方、タッチ位置T1が第1領域A1内に位置している場合(ステップSC6:YES)、端末制御部41は、タッチ位置T1にコメントマークCを表示する一方、送信したコメントが、ナビゲーション装置3で即時に出力されなかった旨を表示する(ステップSC8)。
図8(F)は、タッチ位置T1が第1領域A1内である場合に表示される画面の一例を示す図である。図8(F)に示すように、端末制御部41は、タッチ位置T1にコメントマークCを表示する。また、端末制御部41は、タッチ位置T1が第1領域A1内に位置しているため、ナビゲーション装置3では即時にコメントが出力されなかった旨を画像Q3にて表示する。
このように、コメントの送信時に、タッチ位置T1が、第1領域A1内に位置してしまう場合でも、端末制御部41は、携帯端末4のユーザに対し、コメントがナビゲーション装置3によって即時に出力されなかった旨を表示することができる。これにより、携帯端末4のユーザは、コメントが即時にナビゲーション装置3で出力されたか否かを認識することができる。
次に、地図+映像モードの場合について説明する。
<地図+映像モード>
前述した通り、地図+映像モードとは、携帯端末4の表示パネル43aに走行映像、及び、地図を表示するモードである。携帯端末4の端末制御部41は、地図+映像モードの場合、専用アプリAPの機能により、動画を表示するための領域である動画表示領域D1、及び、地図を表示する地図表示領域D2と、を有するユーザインターフェイスを表示し、動画表示領域D1においては、加工後の撮影画像データに基づく動画を表示し、地図表示領域D2においては、端末記憶部42が記憶する地図データ42aに基づき地図を表示する(ステップSC2)。
図9は、地図+映像モードの場合に表示されるユーザインターフェイスの一例を示す図であり、図9(A)は、地図、及び、走行映像の表示の一例を示す図である。
図9(A)に示すように、地図+映像モードでは、専用アプリAPの機能によって、地図表示領域D2に重畳して動画表示領域D1があり、地図表示領域D2には、車両位置情報に基づく車両の位置Mを表示すると共に、車両の位置M、及び、地図データ42aに基づく地図が表示され、動画表示領域D1には、加工後の撮影画像データに基づく走行映像が表示される。また、地図表示領域D2には、地図を表示すると共に、サーバ5が受信した第2領域情報に基づく第2領域A2を設けられる。第2領域A2は、車両2の速度に応じて範囲が異なる。そのため、境界ラインL2は、車両2の速度に応じて図6に示す幅W2を変えるように移動する。
端末制御部41は、図9(A)に示すように、第2領域A2を設けた地図、及び、走行映像を表示している状態で、ユーザのタッチ操作がされると(ステップSC3:YES)、コメントの入力を受け付ける(ステップSC4)。
図9(B)は、タッチ位置T2の一例を示す図である。端末制御部41は、携帯端末4のユーザが、図9(A)に示す状態で、地図上において任意の位置をタッチすることによって、図9(B)に示すタッチ位置T2を認識し、コメントの入力方法の選択を案内する画像である案内画像Q1を表示する。
図9(C)は、コメントの入力方法の選択に係る案内画像Q1を表示した一例を示す図である。図9(C)に示すように、ユーザのタッチ操作によって、案内画像Q1が表示される。当該案内画像Q1は、コメントをテキストによって入力するためのボタンB1と、音声によって入力するためのボタンB2と、を有する。ユーザがボタンB1を選択した場合、端末制御部41は、表示パネル43aに、タッチ操作で入力が可能な図示せぬソフトウェアキーボード等を表示し、コメントの入力を受け付ける。一方、ユーザがボタンB2を選択した場合、端末制御部41は、端末音声入出力部44のマイク44bによって、携帯端末4のユーザの音声を収音し、コメントの入力を受け付ける。
端末制御部41は、コメントが入力されると、当該コメントをナビゲーション装置3に送信するか否かを案内する画像である案内画像Q2を表示する。
図9(D)は、案内画像Q2の表示の一例を示す図である。図9(D)に示すように、コメントの入力がされると、端末制御部41は、ナビゲーション装置3にコメントを送信するか否かを案内する画像である案内画像Q2を表示する。案内画像Q2は、入力されたコメントを表示する表示領域Rと、コメントをナビゲーション装置3に送信するボタンB3と、コメントの送信を取りやめるボタンB4とを有する。なお、全画面モードと同様、音声でコメントを入力した場合、音声認識等により変換されたテキストを表示領域Rに表示する必要はなく、スピーカ44aによって出力し、入力した内容を確認できるような構成であってもよい。
端末制御部41は、図9(D)に示すようなボタンB3が選択によるコメントの送信指示があった場合、受け付けたコメント示すコメント情報と、タッチ位置T2を示すタッチ位置情報とを、サーバ5に送信する(ステップSC5)。コメント情報とは、映像モードの際に説明した情報を同様、コメントが音声の場合、収音した音声に基づく音声データであり、コメントがテキストの場合、入力されたテキストに基づくテキストデータである。コメント情報は、送信指示のあった時間を示す時刻が対応付けられ、送信される。タッチ位置T2を示すタッチ位置情報とは、表示パネルが表示する地図において、ユーザのタッチした位置に基づく経度、及び、緯度の地図上の情報である。タッチ位置T2を示すタッチ位置情報は、コメントの送信指示があった時のタッチ位置T2が第2領域A2内であるか否かの情報が対応付けられ、送信される。
次いで、端末制御部41は、コメントの送信指示があった時、タッチ位置T2が第2領域A2内に位置しているか否かを判断する(ステップSC6)。タッチ位置T2が第2領域A2内に位置していない場合(ステップSC6:NO)、端末制御部41は、タッチ位置T2にコメントが入力されたことを示すマークであるコメントマークCを表示する(ステップSC7)。
図9(E)は、タッチ位置T2が第2領域A2内でない場合に表示される画面の一例を示す図である。図9(E)に示すように、端末制御部41は、タッチ位置T2に、コメントが入力されたことを示すコメントマークCを表示する。当該コメントマークCは、携帯端末4のユーザのタッチ操作によって、入力したコメントの内容を出力する。これにより、携帯端末4のユーザは、コメントの内容を確認することができる。
タッチ位置T2が第2領域A2内に位置している場合(ステップSC6:YES)、端末制御部41は、タッチ位置T2にコメントマークCを表示する一方、送信したコメントが、ナビゲーション装置3で出力されなかった旨を表示する(ステップSC8)。
図9(F)は、タッチ位置T2が第2領域A2内である場合に表示される画面の一例を示す図である。図9(F)に示すように、端末制御部41は、タッチ位置T2にコメントマークCを表示する。また、端末制御部41は、タッチ位置T2が第2領域A2内に位置しているため、ナビゲーション装置3ではコメントが出力されなかった旨を画像Q3にて表示する。
このように、コメントの送信時に、タッチ位置T2が、第2領域A2内に位置してしまう場合でも、端末制御部41は、携帯端末4のユーザに対し、コメントがナビゲーション装置3によって出力されなかった旨を表示することができる。これにより、携帯端末4のユーザは、コメントが即時にナビゲーション装置3に出力されたか否かを認識することができる。
なお、第2領域A2は、車両2が位置Mから所定時間内に到達が可能なことを示す外周により形成される円形の領域であってもよい。
図10は、円形の第2領域A2の一例を示す図である。
図10に示す第2領域A2は、車両2が、車両の位置Mから所定時間内に到達が可能なことを示す境界ラインL3を外周として設けられる円形の領域である。円形の第2領域A2は、上述した第2領域A2と同様、地図+映像モードの際に地図上に設けられる領域である。また、車両2の速度に応じて、円形の第2領域A2は、領域の範囲を変更する。具体的には、車両2の速度が速ければ速いほど、円形の第2領域A2の範囲は広くなる。
上述した第2領域A2は、車両2の進行方向後方の全てを含む領域とした。一方、円形の第2領域A2は、車両2が所定時間内に到達できる領域としているため、端末制御部41は、コメントがナビゲーション装置3で反映される領域をより多く表示することができる。
図3のフローチャートの説明に戻り、図3(B)に示すように、サーバ5は、ステップSC5にて携帯端末4から送信されたタッチ位置情報、及び、コメント情報を受信する(SB4)。次いで、サーバ5は、タッチ位置情報に基づき、地図上の位置を取得する(ステップSB5)。すなわち、携帯端末4のユーザによるタッチ位置T1に基づいて、タッチした例えば施設等の位置を地図上から取得する。なお、ステップSB5の処理は、携帯端末4が全画面モードの場合のみでよい。これは、地図+映像モードでは、携帯端末4のユーザが地図上をタッチするため、タッチ位置T2を示すタッチ位置情報が地図上の位置を含むからである。したがって、地図+映像モードのタッチ位置情報をサーバ5が受信した場合、ステップSB5の処理は行われない。ここで、図11を参照し、ステップSB5の処理を説明する。
図11は、地図上の位置の取得を説明するための説明図であり、図11(A)は、撮影画像データに基づく画像の一例を示す図である。また、図11(B)は、車両2の位置に基づく地図の一例を示す図である。
図11において、図11(A)に示す画像は、図11(B)に示す車両の位置Mの前方の撮影画像データに基づく画像である。
サーバ制御部51は、図11(A)に示すような撮影画像データに基づく画像から、パターンマッチング等の既存の処理によって、画像に映し出される施設や、道路等を特定する。説明の便宜を考慮し、サーバ制御部51は、図11(A)に示す画像の場合、施設C1〜C4を特定する。ここで、サーバ制御部51は、施設C1〜C4の4棟を特定し、より画像の中心に位置する施設を、車両の位置Mから遠い施設であると特定する。すなわち、サーバ制御部51は、施設C1、及び、施設C2は、車両の位置Mから近い施設であると特定し、施設C3、及び、施設C4は車両の位置Mから遠い施設であると特定する。
次いで、サーバ制御部51は、画像から特定した施設と、車両の位置Mに基づく地図に表示される施設とを一致させる。画像から特定された施設は、車両の位置Mと車両2の進行方向から、地図上の施設と、以下のように一致されていく。施設C1は、車両2の進行方向右側において車両の位置Mに近い施設であるため、地図上においては施設C5と特定される。施設C2は、車両2の進行方向左側において車両の位置Mに近い施設であるため、地図上においては施設C6と特定される。施設C3は、車両2の進行方向左側において車両の位置Mから遠い施設であるため、地図上においては施設C7と特定される。施設C4は、車両2の進行方向右側において車両の位置Mから遠い施設であるため、地図上においては施設C8と特定される。
サーバ制御部51は、撮影画像データに基づく画像から認識した施設等を地図と一致させた後、受信したタッチ位置情報に基づくタッチ位置T1がどの施設等にあるかを判断し、タッチ位置T1に基づく地図上の位置を取得する。
図11(A)の場合、タッチ位置T1は、施設C4上に位置する。この場合、サーバ制御部51は、タッチ位置T1が施設C4上に位置すると判断し、地図から施設C8(図11(A)では施設C4)の経度、及び、緯度の位置を取得する。
なお、地図上の位置を取得する方法は一例であり、上述した方法に限られない。
図3の説明に戻り、図3(B)に示すように、サーバ制御部51は、タッチ位置情報と、ステップSB5で取得した地図上の位置を示す対応位置情報と、コメント情報と、をナビゲーション装置3に送信する(ステップSB6)。なお、対応位置情報は、地図+映像モードのタッチ位置T2の場合、タッチ位置情報が含む地図上の位置を示す。
図3(C)に示すように、ナビゲーション装置3の制御部31は、通信部35によってサーバ5から送信されたタッチ位置情報、対応位置情報、及び、コメント情報を受信し(ステップSA3)、タッチ位置情報、対応位置情報、及び、コメント情報を記憶部32等に記憶する(ステップSA4)。
次いで、制御部31は、記憶したタッチ位置情報に基づき、タッチ位置T1が第1領域A1内、或いは、タッチ位置T2が第2領域A2内であるか否かを判断する(ステップSA4)。前述した通り、タッチ位置情報は、タッチ位置T1が第1領域A1内、或いは、タッチ位置T2が第2領域A2内であるか否かの情報を含んでいる。
タッチ位置情報に基づくタッチ位置T1が第1領域A1内、或いは、タッチ位置T2が第2領域A2内である場合(ステップSA4:YES)、制御部31は、コメント情報に基づくコメントの出力、及び、サーバ5から受信した対応位置情報に基づく地図上の位置の表示を即時に行わない(ステップSA5)。なお、制御部31は、ユーザの操作によって、コメントの受信履歴として、受信したコメントの出力、及び、地図上の位置の表示ができる。
図12は、ナビゲーション装置3に表示されるユーザインターフェイスの一例を示す図である。図12(A1)、及び、図12(A2)に示す図は、車両2が停車中に表示される画面の一例である。なお、車両2が走行中の場合、走行映像は表示されない。つまり、地図の表示のみである。
制御部31は、車両2が停車中の場合、専用ソフトSFの機能により、携帯端末4と同様にユーザの所定のタッチ操作によって、全画面モードと、地図+映像モードと、の2つのモードに切り替えることができる。図12(A1)は、全画面モードの際に表示される画面の一例であり、図12(A2)は、地図+映像モードの際に表示される画面の一例である。
図12(A1)は、表示パネル33aに動画を表示するための動画表示領域D1を有する。図12(A2)は、表示パネル33aに地図を表示するための地図表示領域D2、及び、動画を表示するための動画表示領域D1を有する。また。図12(A1)、及び、図12(A2)は、選択することによって携帯端末4から送信されたコメントを表示することができるボタンB5を有する。当該ボタンB5は、車両2が走行中の場合も地図上に設けられ、ユーザのタッチ操作を受け付ける。
ユーザは、ボタンB5を選択することによって、携帯端末4から送信されたコメントをコメントの受信履歴として表示することができる。
図12(B)は、コメントの受信履歴の一例を示す図である。
図12(B)に示すように、ナビゲーション装置3は、専用ソフトSFの機能により、表示パネル33aに、コメントが入力された位置を示す位置表示画面D3と、入力されたコメントをリストとして表示するリスト表示画面D4と、を有する。位置表示画面D3は、受信した対応位置情報の地図上の位置に基づき、車両2が走行した経路SKの表示と共に、コメントが入力されたことを示すマークKを表示する。また、複数入力された場合、マークKは、例えば時系列順等の所定の順番に基づき、番号を付され表示される。リスト表示画面D4は、入力されたコメントを項目として羅列したリストLとして表示する。図11(B)に示すように、1のコメントは、1の項目として表示され、例えば時系列順等の所定の順番に基づき、番号が付され表示される。また、入力された時間を示す時刻が表示される。また、リスト表示画面D4は、コメントがテキストで入力された場合、項目LS1、及び、項目LS2に示すようにコメントを文字列として表示し、コメントが音声で入力された場合、項目LS3に示すようにタッチ操作することによって音声が出力されるボタンOとして表示される。また、位置表示画面D3に表示されるマークKに付された番号と、リスト表示画面D4に表示される項目に付された番号とは、同一のコメント情報を示す。
上述したように、タッチ位置T1が第1領域A1内、或いは、タッチ位置T2が第2領域A2内である場合、ナビゲーション装置3は、コメントの出力、及び、対応位置情報に基づく地図上の位置の表示を即時に行わない。これにより、制御部31は、不用意なコメントの出力を行わないため、コメントの有益性の低下を抑制できる。また、制御部31は、車両2がまもなく通過してしまう施設等に対するコメントの出力を行わないため、運転者の運転に対する注意の散漫を低減できる。また、ナビゲーション装置3が即時に出力しないコメントを、受信履歴として表示できるため、ユーザは、通過してしまった施設等に対するコメントを、コメントが示す施設等を通過後でも確認することができる。特に、コメントの受信履歴では、コメントと、地図位置を表示するため、ユーザは、詳細にコメント内容を知ることができる。
なお、前述したとおり、車両2が走行中の場合、走行映像の表示は行われない。すなわち、地図の表示のみである。この場合、ボタンB5が地図上に表示されており、車両2に搭乗するユーザは、ボタンB5を選択することによって、受信したコメントの履歴を見ることができる。
図3の説明に戻り、図3(A)において、タッチ位置T1が第1領域A1内、或いは、タッチ位置T2が第2領域A2内でない場合、制御部31は、コメントの出力、及び、対応位置情報に基づく地図上の位置の表示を即時に実行する(ステップSA6)。
車両2が走行中の場合、コメント情報に基づくコメントは、ナビゲーション装置3が備えるスピーカ34aによって音声によって出力される。また、受信した対応位置情報に基づく地図上の位置も表示される。前述した通り、車両2が走行中の場合、所定の法律により走行映像は表示されないため、表示パネル33aに表示された地図上に、所定のマークとして、対応位置情報に基づく地図上の位置は、表示される。
ここで、コメントがテキストによって入力された場合、当該コメントは、音声認識によりテキストデータから音声データへ変換され、音声データに基づく音声として出力される。なお、制御部31が音声認識を行ってもよく、サーバ5、或いは、携帯端末4が行ってもよい。また、コメントが音声によって入力された場合、制御部31は、音声入出力部34によって当該音声をそのまま出力する。このように、車両2が走行中の場合、ナビゲーション装置3が音声によってコメントを出力するため、車両2に搭乗しているユーザは、コメントの内容を目視することなく知ることができる。特に、車両2が走行中、コメントをテキストとして表示しないため、運転者の運転に対する注意を散漫させることがない。
一方、車両2が停車中の場合、コメント情報に基づくコメントは、テキストとして表示パネル33aに表示されてもよく、音声によって出力されてもよい。
このように、タッチ位置T1が第1領域A1内、或いは、タッチ位置T2が第2領域A2内でない場合、ナビゲーション装置3は、コメントの出力、及び、地図上の位置の表示を即時に実行する。これにより、ユーザは、例えば車両2が走行中に位置する施設等の情報を、リアルタイムに知ることができる。特に、コメントと、対応位置情報に基づく地図上の位置を表示するため、ユーザは、詳細にコメントに関する情報を知ることができる。
以上、説明したように、本実施形態における情報処理システム1は、車両2に搭載されるナビゲーション装置3(車載装置)と、ナビゲーション装置3と通信可能なサーバ5(情報処理装置)と、サーバ5と通信可能な携帯端末4(端末)と、を備える。ナビゲーション装置3は、車両2に設けられ、車両2の前方を撮影するカメラ39の撮影結果に基づく撮影画像データを、サーバ5に送信する。サーバ5は、ナビゲーション装置3から受信した撮影画像データを、携帯端末4に送信する。携帯端末4は、サーバ5から受信した撮影画像データに基づく画像を表示すると共に、コメントの入力を受け付け、受け付けたコメントを示すコメント情報を、サーバ5に送信する。サーバ5は、携帯端末4から受信したコメント情報を、ナビゲーション装置3に送信する。ナビゲーション装置3は、コメント情報に基づいて、コメントを出力する。
この構成により、情報処理システム1は、例えば道路を車両2によって走行中、外部の人から、お店等の、走行中の道路に関する情報を知る等の、リアルタイムな情報の伝達を行うことができる。
また、本実施形態の情報処理システム1において、携帯端末4は、任意の位置をタッチ操作が可能な状態で撮影画像データに基づく画像を表示し、撮影画像データに基づく画像がタッチ操作されると共に、タッチ操作と対応してコメントの入力を受け付けた場合、コメントを示すコメント情報、及び、タッチ操作されたタッチ位置を示すタッチ位置情報をサーバ5に送信し、サーバ5は、タッチ位置情報に基づいて、タッチ操作されたタッチ位置の地図上の位置を算出し、算出した地図上の位置を示す対応位置情報を、コメント情報と共にナビゲーション装置3に送信し、ナビゲーション装置3は、地図を表示するタッチパネル33を備え、コメント情報に基づいてコメントを出力すると共に、対応位置情報に基づいて、タッチパネル33が表示する地図上に、タッチ位置に対応する位置を表示する。
この構成により、情報処理システム1は、携帯端末4を操作するユーザが入力したコメント、及び、タッチ位置を、ナビゲーション装置3を備える車両2に搭乗しているユーザに提供できる。
また、本実施形態の情報処理システム1において、ナビゲーション装置3は、車両の位置Mを示す車両位置情報をサーバ5に送信し、サーバ5は、受信した車両位置情報が示す車両の位置Mに基づいて、車両2の位置を起点とした所定の範囲に対応する第1領域A1が画像に表示されるように撮影画像データを加工して、携帯端末4に送信し、携帯端末4は、受信した加工後の撮影画像データに基づいて、第1領域A1が表示された画像を表示し、ナビゲーション装置3が、第1領域A1に対するタッチ操作に対応して受け付けたコメントを示すコメント情報に基づくコメントの出力を行わないようにする。
この構成により、情報処理システム1は、第1領域A1内におけるタッチ操作に基づくコメントの出力の抑制することができる。特に、本実施形態において第1領域A1は、車両2がまもなく通過してしまう可能性の高い領域であることを示す。そのため、情報処理システム1は、不用意なコメントの出力を行わないことにより、出力されるコメントの有益性の低下を抑制できる。また、車両2が通過してしまう可能性の高い施設等のコメントを出力しないため、車両2の運転者の運転に対する注意の散漫を低減することができる。
また、本実施形態の情報処理システム1において、ナビゲーション装置3は、車両2の速度を示す車両速度情報をサーバ5に送信し、サーバ5は、受信した車両速度情報が示す車両2の速度に基づいて、車両2の速度が速いほど、第1領域A1の範囲を広くする。
この構成により、サーバ5は、車両2がまもなく通過する可能性の高い領域を、車両2の速度に応じた第1領域A1が画像に表示されるように撮影画像データを加工する。そのため、情報処理システム1は、携帯端末4のユーザに対し、正確に、車両2がまもなく通過する可能性の高い領域を提供することができる。
また、本実施形態の情報処理システム1において、ナビゲーション装置3は、車両位置情報をサーバ5に送信し、サーバ5は、受信した車両位置情報が示す車両の位置Mに基づいて、車両の位置Mを起点とした所定の範囲に対応する第2領域A2を示す第2領域情報を生成して、撮影画像データと、第2領域情報と、車両の位置Mとを携帯端末4に送信し、携帯端末4は、地図を表示すると共に、受信した第2領域情報に基づいて、地図上に、車両位置情報が示す車両の位置M、及び、第2領域情報が示す第2領域A2を表示し、ナビゲーション装置3が、第2領域A2に対するタッチ操作に対応して受け付けたコメントを示すコメント情報に基づくコメントの出力を行わないようにする。
この構成により、情報処理システム1は、第2領域A2内におけるタッチ操作に基づくコメントの出力の抑制することができる。特に、本実施形態において第2領域A2は、車両2がまもなく通過してしまう可能性の高い領域であることを示す。そのため、情報処理システム1は、不用意なコメントの出力を行わないことにより、コメントの有益性の低下を抑制できる。また、車両2が通過してしまう可能性の高い施設等のコメントを出力しないため、車両2の運転者の運転に対する注意の散漫を低減することができる。
また、本実施形態の情報処理システム1において、ナビゲーション装置3は、車両速度情報をサーバ5に送信し、サーバ5は、受信した車両速度情報が示す車両2の速度に基づいて、車両2の速度が速いほど、第2領域A2の範囲を広くする。
この構成により、サーバ5は、車両2がまもなく通過する可能性の高い領域を、車両2の速度に応じた第2領域A2が画像に表示されるように撮影画像データを加工する。そのため、情報処理システム1は、携帯端末4のユーザに対し、正確に、車両2がまもなく通過する可能性の高い領域を提供することができる。
上述した実施形態は、あくまでも本発明の一態様を例示するものであって、本発明の趣旨を逸脱しない範囲で任意に変形、及び、応用が可能である。
例えば、上述したコメント情報は、携帯端末4で入力された内容と、同じ内容がナビゲーション装置3で出力されていた。しかしながら付加情報とともにコメントを出力してもよい。この場合、サーバ制御部51は、携帯端末4から受信したタッチ位置情報から取得した対応位置情報に基づく例えば施設等の位置、及び、名称の情報を、サーバ5と異なる外部サーバに送信する。外部サーバは、受信した情報に基づき、付加情報を取得し、サーバ5に送信する。付加情報を受信したサーバ5は、コメント情報とともに、付加情報を送信する。ナビゲーション装置3は、コメントとともに付加情報も出力する。
また、例えば、本実施形態において、ナビゲーション装置3が、タッチ位置T1が第1領域A1内、或いは、タッチ位置T2が第2領域A2内であるか否かの判断を行ったが、サーバ5、若しくは、携帯端末4がこの判断を実行してもよい。この場合、サーバ5、若しくは、携帯端末4は、ナビゲーション装置3においてコメントの出力を実行するか否かの情報を生成し、ナビゲーション装置3が当該情報に基づき、コメントの出力、若しくは、出力しない処理を実行する。
1 情報処理システム
2 車両
3 ナビゲーション装置(車載装置)
4 携帯端末(端末)
5 サーバ(情報処理装置)
33 タッチパネル(表示部)
39 カメラ
A1 第1領域
A2 第2領域

Claims (8)

  1. 車両に搭載される車載装置と、前記車載装置と通信可能な情報処理装置と、前記情報処理装置と通信可能な端末と、を備える情報処理システムであって、
    前記車載装置は、
    前記車両に設けられ、前記車両の前方を撮影する撮影装置の撮影結果に基づく撮影画像データを、前記情報処理装置に送信し、
    前記情報処理装置は、
    前記車載装置から受信した前記撮影画像データを、前記端末に送信し、
    前記端末は、
    前記情報処理装置から受信した前記撮影画像データに基づく画像を表示すると共に、コメントの入力を受け付け、受け付けたコメントを示すコメント情報を、前記情報処理装置に送信し、
    前記情報処理装置は、
    前記端末から受信した前記コメント情報を、前記車載装置に送信し、
    前記車載装置は、
    前記コメント情報に基づいて、コメントを出力する
    ことを特徴とする情報処理システム。
  2. 前記端末は、
    任意の位置をタッチ操作が可能な状態で前記撮影画像データに基づく画像を表示し、
    前記撮影画像データに基づく画像がタッチ操作されると共に、タッチ操作と対応してコメントの入力を受け付けた場合、コメントを示す前記コメント情報、及び、タッチ操作されたタッチ位置を示すタッチ位置情報を前記情報処理装置に送信し、
    前記情報処理装置は、
    前記タッチ位置情報に基づいて、タッチ操作されたタッチ位置の地図上の位置を算出し、算出した地図上の位置を示す対応位置情報を、前記コメント情報と共に前記車載装置に送信し、
    前記車載装置は、
    地図を表示する表示部を備え、
    前記コメント情報に基づいて前記コメントを出力すると共に、前記対応位置情報に基づいて、前記表示部が表示する地図上に、タッチ位置の地図上の位置を表示する
    ことを特徴とする請求項1に記載の情報処理システム。
  3. 前記車載装置は、
    前記車両の位置を示す車両位置情報を前記情報処理装置に送信し、
    前記情報処理装置は、
    受信した前記車両位置情報が示す前記車両の位置に基づいて、前記車両の位置を起点とした所定の範囲に対応する第1領域が画像に表示されるように前記撮影画像データを加工して、前記端末に送信し、
    前記端末は、
    受信した加工後の前記撮影画像データに基づいて、前記第1領域が表示された画像を表示し、
    前記車載装置が、前記第1領域に対するタッチ操作に対応して受け付けたコメントを示す前記コメント情報に基づくコメントの出力を行わないようにする
    ことを特徴とする請求項2に記載の情報処理システム。
  4. 前記車載装置は、
    前記車両の速度を示す車両速度情報を前記情報処理装置に送信し、
    前記情報処理装置は、
    受信した前記車両位置情報が示す車両の位置に基づいて、前記車両速度情報が示す車両の速度が速いほど、前記第1領域の範囲を広くする
    ことを特徴とする請求項3に記載の情報処理システム。
  5. 前記車載装置は、
    前記車両位置情報を前記情報処理装置に送信し、
    前記情報処理装置は、
    受信した前記車両位置情報が示す車両の位置に基づいて、前記車両の位置を起点とした所定の範囲に対応する第2領域を示す第2領域情報を生成して、前記撮影画像データと、前記第2領域情報と、前記車両位置情報とを前記端末に送信し、
    前記端末は、
    地図を表示すると共に、受信した前記第2領域情報に基づいて、地図上に、前記車両位置情報が示す前記車両の位置、及び、前記第2領域情報が示す前記第2領域を表示し、
    前記車載装置が、前記第2領域に対するタッチ操作に対応して受け付けたコメントを示す前記コメント情報に基づくコメントの出力を行わないようにする
    ことを特徴とする請求項2に記載の情報処理システム。
  6. 前記車載装置は、
    前記車両速度情報を前記情報処理装置に送信し、
    前記情報処理装置は、
    受信した前記車両速度情報が示す前記車両の速度に基づいて、前記車両の速度が速いほど、前記第2領域の範囲を広くする
    ことを特徴とする請求項5に記載の情報処理システム。
  7. 車両に搭載される車載装置が、
    前記車両に設けられ、前記車両の前方を撮影する撮影画像の撮影結果に基づく撮影画像データを、情報処理装置に送信するステップと、
    前記情報処理装置が、
    前記車載装置から受信した前記撮影画像データを、端末に送信するステップと、
    前記端末が、
    前記情報処理装置から受信した前記撮影画像データに基づく画像を表示すると共に、コメントの入力を受け付け、受け付けたコメントを示すコメント情報を、前記情報処理装置に送信するステップと、
    前記情報処理装置が、
    前記端末から受信した前記コメント情報を、前記車載装置に送信するステップと、
    前記車載装置が、
    前記コメント情報に基づいて、コメントを出力するステップと、を備える
    ことを特徴とする情報処理方法。
  8. 前記端末が、
    任意の位置をタッチ操作が可能な状態で前記撮影画像データに基づく画像を表示し、前記撮影画像データに基づく画像がタッチ操作された場合に、タッチ操作に対応して受け付けたコメントを示す前記コメント情報と共に、タッチ操作されたタッチ位置を示すタッチ位置情報を前記情報処理装置に送信するステップと、
    前記情報処理装置が、
    前記タッチ位置情報に基づいて、タッチ操作されたタッチ位置の地図上の位置を算出し、前記地図上の位置を前記コメント情報と共に前記車載装置に送信するステップと、
    前記車載装置が、
    前記コメント情報に基づいて、前記コメントを出力すると共に、前記地図上の位置を表示するステップと、を備える
    ことを特徴とする請求項7に記載の情報処理方法。
JP2014200823A 2014-09-30 2014-09-30 情報処理システム、及び、情報処理方法 Active JP6360405B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014200823A JP6360405B2 (ja) 2014-09-30 2014-09-30 情報処理システム、及び、情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014200823A JP6360405B2 (ja) 2014-09-30 2014-09-30 情報処理システム、及び、情報処理方法

Publications (2)

Publication Number Publication Date
JP2016070797A JP2016070797A (ja) 2016-05-09
JP6360405B2 true JP6360405B2 (ja) 2018-07-18

Family

ID=55866666

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014200823A Active JP6360405B2 (ja) 2014-09-30 2014-09-30 情報処理システム、及び、情報処理方法

Country Status (1)

Country Link
JP (1) JP6360405B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018054906A (ja) * 2016-09-29 2018-04-05 シャープ株式会社 サーバ装置、情報処理端末、システム、および方法
JPWO2022208656A1 (ja) * 2021-03-30 2022-10-06

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003166843A (ja) * 2001-11-30 2003-06-13 Fujitsu Ten Ltd ナビゲ−ション装置
JP2007132676A (ja) * 2005-11-08 2007-05-31 Xanavi Informatics Corp ナビゲーション装置
JP5742600B2 (ja) * 2011-08-31 2015-07-01 アイシン・エィ・ダブリュ株式会社 投稿文提供システム、投稿文提供装置、投稿文提供方法及びコンピュータプログラム
JP2013120317A (ja) * 2011-12-08 2013-06-17 Fujitsu Ten Ltd 表示装置、サーバ装置、表示システム、プログラム、および、表示方法
JP5921320B2 (ja) * 2012-04-27 2016-05-24 富士通テン株式会社 表示システム、携帯装置、車載装置、及び、プログラム
JP2014164316A (ja) * 2013-02-21 2014-09-08 Honda Motor Co Ltd 車載カメラを用いた情報提供システム

Also Published As

Publication number Publication date
JP2016070797A (ja) 2016-05-09

Similar Documents

Publication Publication Date Title
EP2241857B1 (en) Method and apparatus for displaying image of mobile communication terminal
CN106062514B (zh) 便携式装置与车辆头端单元之间的交互
JP5413446B2 (ja) 情報通信システム、データ提供装置、および、車両用端末
JP2013148419A (ja) 誘導システム、携帯端末装置および車載装置
JP2006084208A (ja) ナビゲーション装置及び進行方向案内方法
WO2014208154A1 (ja) 位置情報共有システム、位置情報共有方法、及び位置情報共有プログラム
JP5920463B2 (ja) 位置情報送信装置、及び、位置情報送信システム
JP2014178139A (ja) ナビゲーション装置、ナビゲーションシステム、交差点案内プログラムおよび交差点案内方法
JP6057587B2 (ja) 電子装置、通信システム、携帯通信端末、通信方法及びプログラム
US9638531B2 (en) Map matching methods for mobile devices
JP6360405B2 (ja) 情報処理システム、及び、情報処理方法
JP2012122777A (ja) 車載装置
KR101570413B1 (ko) 이동 단말기의 영상 표시 방법 및 그 장치
JP5018665B2 (ja) データ通信システムおよびこれに用いる第1車載装置、第2車載装置、およびデータ記憶装置
JP5658636B2 (ja) 経路案内装置及び経路案内方法
JP2016223898A (ja) 位置算出装置、位置算出システム及び位置算出方法
KR101696261B1 (ko) 랜드마크를 이용한 보행자 이동경로 제공방법
JP2019184336A (ja) カーナビゲーション装置の目的地設定システム
JP2020009215A (ja) 画像処理装置及びプログラム
WO2014174648A1 (ja) 情報記録システム、情報取得装置、情報処理方法および情報処理プログラム
JP2018180912A (ja) 情報収集システム、車両、情報収集方法、プログラム、記録媒体
JP6935992B2 (ja) 画像生成装置、画像生成システム及びその方法
JP6062258B2 (ja) ナビゲーション装置及びコンピュータプログラム
JP2018081052A (ja) 車載装置、及び情報処理システム
US9832599B2 (en) Method of sharing data between electronic devices

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170804

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180531

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180605

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180622

R150 Certificate of patent or registration of utility model

Ref document number: 6360405

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150