JP2016071217A - 情報処理システム、情報処理方法及びプログラム - Google Patents

情報処理システム、情報処理方法及びプログラム Download PDF

Info

Publication number
JP2016071217A
JP2016071217A JP2014201795A JP2014201795A JP2016071217A JP 2016071217 A JP2016071217 A JP 2016071217A JP 2014201795 A JP2014201795 A JP 2014201795A JP 2014201795 A JP2014201795 A JP 2014201795A JP 2016071217 A JP2016071217 A JP 2016071217A
Authority
JP
Japan
Prior art keywords
image
destination
target
information
type device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014201795A
Other languages
English (en)
Other versions
JP6396155B2 (ja
Inventor
清貴 田中
Seiki Tanaka
清貴 田中
和明 石川
Kazuaki Ishikawa
和明 石川
紀子 中西
Noriko Nakanishi
紀子 中西
篤史 上西
Atsushi Uenishi
篤史 上西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zenrin Datacom Co Ltd
Original Assignee
Zenrin Datacom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zenrin Datacom Co Ltd filed Critical Zenrin Datacom Co Ltd
Priority to JP2014201795A priority Critical patent/JP6396155B2/ja
Publication of JP2016071217A publication Critical patent/JP2016071217A/ja
Application granted granted Critical
Publication of JP6396155B2 publication Critical patent/JP6396155B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Transfer Between Computers (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】ウェアラブルデバイスを利用した有益な機能を実現可能な技術を提供する。【解決手段】情報処理システムは、ウェアラブルデバイスの現在地を起点として対象の方向の情報を取得し、対象の方向と、ウェアラブルデバイスにおける画像の表示可能領域の位置とに応じて、当該表示可能領域において、対象の方向を示すための画像を表示する位置を制御する。【選択図】図4

Description

本発明は、情報処理技術に関する。
近年、様々なウェアラブルデバイスが開発されている。ウェアラブルデバイスとは、ユーザが身体(例えば、腕や頭部)に装着して利用することが想定されたデバイスである。例えば、特許文献1には頭部に装着する眼鏡型のウェアラブルデバイスについて開示されている。
特開2014−086905号公報
ウェアラブルデバイスは、ユーザの身体に装着されるという点に特徴を有するデバイスであり、そのような特徴を利用した有益な機能を実現可能な技術が期待されている。
本発明は上記に鑑みてなされたものであり、その目的は、ウェアラブルデバイスを利用した有益な機能を実現可能な技術を提供することにある。
本発明に係る情報処理システムは、ウェアラブルデバイスの現在地を起点として対象の方向の情報を取得する手段と、前記対象の方向と、前記ウェアラブルデバイスに対する画像の表示可能領域の相対位置とに応じて、当該表示可能領域において、前記対象の方向を示すための画像を表示する位置を制御する表示制御手段と、を備える。
本発明に係る情報処理方法は、ウェアラブルデバイスの現在地を起点として対象の方向の情報を取得することと、前記対象の方向と、前記ウェアラブルデバイスに対する画像の表示可能領域の相対位置とに応じて、当該表示可能領域において、前記対象の方向を示すための画像を表示する位置を制御することと、を備える。
本発明に係るプログラムは、コンピュータに、ウェアラブルデバイスの現在地を起点として対象の方向の情報を取得するステップと、前記対象の方向と、前記ウェアラブルデバイスに対する画像の表示可能領域の相対位置とに応じて、当該表示可能領域において、前記対象の方向を示すための画像を表示する位置を制御するステップと、を実行させる。
また、本発明のプログラムは、CD−ROM等の光学ディスク、磁気ディスク、半導体メモリなどの各種の記録媒体を通じて、又は通信ネットワークなどを介してダウンロードすることにより、コンピュータにインストール又はロードすることができる。
本発明によれば、ウェアラブルデバイスを利用した有益な機能を実現可能な技術を提供することができる。
一実施形態における情報処理システムのハードウェア構成を示す概念図である。 一実施形態における眼鏡型デバイスの外観構成を示す図である。 一実施形態における眼鏡型デバイスの外観構成を示す図である。 一実施形態におけるサーバ装置の機能構成を示す図である。 一実施形態における目的地方向指示画像の表示例を示す図である。 一実施形態における目的地方向指示画像の表示例を示す図である。 一実施形態における表示可能領域の位置の例を示す図である。 一実施形態における目的地方向指示画像の表示例を示す図である。 一実施形態における眼鏡型デバイスの機能構成を示す図である。 サーバ装置により実行される処理の例を示すフローチャートである。
以下、本発明の実施形態について、図面を参照しつつ詳細に説明する。ただし、発明の範囲をこれらに限定するものではない。
[ハードウェア構成]
図1を参照して、一実施形態に係る情報処理システムのハードウェア構成の例について説明する。情報処理システム1は、ウェアラブルデバイスを用いた各種のサービスを提供するためのシステムである。情報処理システム1は、サーバ装置10、眼鏡型デバイス20及び携帯端末30を主に含む。眼鏡型デバイス20及び携帯端末30は、ネットワークNを介してサーバ装置10と相互に通信することができる。また、眼鏡型デバイス20は、携帯端末30と(例えば、Bluetooth(登録商標)やWi−Fi(登録商標)等により)相互に通信することができる。情報処理システム1は、例えば、ウェアラブルデバイスである眼鏡型デバイス20を装着し、かつ、携帯端末30を携帯するユーザに対して、地図情報に基づく各種の情報提供サービスを行うことができる。
ネットワークNは、サーバ装置10と、眼鏡型デバイス20及び携帯端末30との間で情報を送受信するための通信回線である。ネットワークNは、例えば、インターネット、LAN、専用線、パケット通信網、電話回線、企業内ネットワーク、その他の通信回線、これらの少なくとも一部の組み合わせ等のいずれであってもよく、有線であるか無線であるか(もしくはこれらの組み合わせであるか)を問わない。
サーバ装置10は、専用又は汎用のサーバ・コンピュータなどの情報処理装置により構成される。なお、サーバ装置10は、単一の情報処理装置より構成されるものであっても、ネットワーク上に分散した複数の情報処理装置より構成されるものであってもよい。
また、サーバ装置10は、制御部11、通信部12、及び記憶部13を主に備える。制御部11は、CPU(Central Processing Unit)11a及びメモリ11bを主に備えて構成される。各構成の説明は後述する。サーバ装置10は、例えば、CPU11aがメモリ11b等に格納された所定のプログラムを実行することにより、各種の機能実現手段として機能する。なお、図1には、サーバ装置10が備える主要な構成が示されているにすぎず、サーバ装置10は、一般的な情報処理装置が備える他の構成も備える。
眼鏡型デバイス20は、眼鏡型の形状のウェアラブルデバイスである。ウェアラブルデバイスとは、ユーザが身体(例えば、腕や頭部)に装着して利用することが想定されたデバイス(情報処理装置)である。すなわち、眼鏡型デバイス20は眼鏡型の形状であるため、ユーザは、眼鏡をかけるように眼鏡型デバイス20を頭部に装着して利用することができる。眼鏡型デバイス20は、制御部21、通信部22、記憶部23、操作部24、表示部25、カメラ26、センサ27、及びマイク28を主に備えて構成される。制御部21は、CPU21a及びメモリ21bを主に備えて構成される。眼鏡型デバイス20は、例えば、CPU21aがメモリ21b等に格納された所定のプログラムを実行することにより、各種の機能実現手段として機能する。なお、ユーザは眼鏡型デバイス20の装着時に眼鏡型デバイス20に備えるこれらの構成のそれぞれも結果として装着することになるため、これらの構成のそれぞれも狭義のウェアラブルデバイスとみなすことができる。これらの各構成の説明は後述する。
図2は、眼鏡型デバイス20の外観の例を示している。この例では、図2(A)に示すように、眼鏡型デバイス20は外観上、操作部24、表示部25及びカメラ26を備えることが示されている。操作部24は、眼鏡型デバイス20の外側部に位置する。ユーザは操作部24をスワイプ、タップ等をすることによって、眼鏡型デバイス20に対して操作指示を行うことができる。
表示部25は、眼鏡型デバイス20を装着したユーザがプリズムなどにより表示内容を視認可能な位置に設置されるように構成される。この例では、図2(B)に示すように、表示部25は、単眼式の表示装置であり、眼鏡型デバイス20を装着したユーザが眼鏡型デバイス20の右側レンズの右上を見たときに表示内容を確認できるような位置に設置されている。表示部25における領域25aは、画像などの表示対象を表示可能な領域(表示可能領域)である。すなわち、図2の例では、表示可能領域の位置は、眼鏡型デバイス20を装着したユーザから見て、右上の領域である。
カメラ26は、眼鏡型デバイス20を装着したユーザの視線方向に向けられ、当該ユーザが見ていると推定されるもの(推定注視点に存在するもの)を撮像/撮影可能な位置に設置されるように構成される。
図3は、眼鏡型デバイス20の外観の他の例を示している。この例では、図2に示した例とは異なり、表示部25は、両眼式の表示装置であり、眼鏡型デバイス20を装着したユーザが両眼で表示内容を確認できるように構成されている。具体的には、表示部25は、眼鏡型デバイス20の両眼のレンズ部分に透過型ディスプレイを設置することによって構成される。表示部25がこのように構成されていることにより、眼鏡型デバイス20を装着したユーザは、眼鏡型デバイス20の両眼のレンズ部分を介して景色を見ることができ、かつ、両眼のレンズ部分の表示部25に表示された画像等を見ることができる。図3の例では、図2の例とは異なり、レンズ部分の全体が表示可能領域となる。すなわち、図3の例では、表示可能領域は、眼鏡型デバイス20を装着したユーザから見て、正面の領域である。また、図3の例では、眼鏡型デバイス20が有する操作部24は、リモートコントローラであり、ユーザから受け付けた操作指示を無線により眼鏡型デバイス20が有する各部へ送信することができる。
図1の説明にもどる。携帯端末30は、例えば、携帯電話機(スマートフォンを含む)、タブレット端末、PDA(Personal Digital Assistants)、ナビゲーション装置、パーソナルコンピュータなどの携帯可能な情報処理装置である。携帯端末30は、制御部31、通信部32、記憶部33、操作部34、表示部35及び測位部36を主に備えて構成される。制御部31は、CPU31a及びメモリ31bを主に備えて構成される。各構成の説明は後述する。携帯端末30は、例えば、CPU31aがメモリ31b等に格納された所定のプログラムを実行することにより、各種の機能実現手段として機能する。
制御部11,21,31は、これらを備える各情報処理装置の各種構成の動作を制御し、また、各種処理の実行を制御する。制御部11,21,31において実行される処理の詳細は後述する。通信部12,22,32は、他の情報処理装置と通信するための通信インタフェースである。記憶部13,23,33は、ハードディスク等の記憶装置によって構成される。記憶部13,23,33は、各情報処理装置における処理の実行に必要な各種プログラムや各種の情報を記憶する。操作部24,34は、ユーザからの操作指示を受け付けるためのユーザインタフェースである。表示部25,35は、各種の画像や、各情報処理装置による処理結果を表示するためのユーザインタフェースである。
カメラ26は、静止画/動画を撮影/撮像可能な装置である。
センサ27は、各種のセンサにより構成される。センサ27は、例えば、ジャイロセンサ、加速度センサ、地磁気センサ、及び/又はイメージセンサ等を含むことができる。センサ27により、例えば、眼鏡型デバイス20を装着しているユーザの顔が向いている方向に基づいて当該ユーザの視線の方向の方位角(基準となる方位との間の水平方向の角度)の推定値を検知することや、当該ユーザの頭部の傾きに基づいて当該ユーザの視線の方向の仰俯角(水平を基準とした上下方向の角度)の推定値を検知することができる。なお、センサ27は、ユーザの眼球の動きから当該ユーザの視線方向の方位角及び仰俯角の推定値を検知できるようにしてもよい。また、センサ27は、眼鏡型デバイス20を装着するユーザの瞼の動きに基づいて瞬きを検知することもできる。
マイク28は、眼鏡型デバイス20を装着するユーザが発する声/音を電気信号に変換する装置である。
測位部36は、GPS衛星や通信機器(例えば基地局)から受信した信号に基づいて、携帯端末30の位置(例えば、緯度、経度)を特定し、当該位置を特定した日時を特定する(測位情報を特定する)処理を行う。
以上のように本実施形態において、情報処理システム1は、サーバ装置10、眼鏡型デバイス20及び携帯端末30を含むがこれに限定せず、任意の装置を含むことができる。また、サーバ装置10、眼鏡型デバイス20及び携帯端末30が有する構成の一部又は全部を有する構成を情報処理システムとして把握することもできる。例えば、眼鏡型デバイス20が有する構成の一部を情報処理システムとして把握することができるし、眼鏡型デバイス20が有する構成の一部と、携帯端末30が有する構成の一部とを組み合わせた構成を情報処理システムとして把握することができる。
[機能構成]
図4を参照して、サーバ装置10の一実施形態における機能構成について説明する。サーバ装置10は、主な機能構成として、経路探索部111、現在地情報取得部112、方向情報取得部113、表示制御部114、及びデータベース120を備える。以下に各機能構成の詳細を説明する。
データベース120は、サーバ装置10において実行される処理に必要な情報、及び当該処理により生成された情報など、各種情報を記憶する。データベース120は、例えば、地図情報及び施設情報を記憶している。地図情報は、道路情報、鉄道路線情報、建造物情報、地形情報、住所情報、及びその他の地理情報などを含む。施設情報は、例えば、コンビニエンスストア、カフェ、駅、ファーストフード、レストラン、建物(ビル)などの施設についての情報を含む。また、施設情報は、当該施設で扱っている商品及び/又はサービスについての情報を含む。さらに、施設情報は、地図情報と関連付けられた各施設の位置の情報を含む。なお、施設情報は、地図情報に含まれる情報としてもよい。
経路探索部111は、眼鏡型デバイス20又は携帯端末30のユーザからの操作指示に応じて、経路探索の処理を行う。具体的には、経路探索部111は、当該指示に応じて出発地及び目的地を特定し、データベース120の地図情報を参照して、当該特定された出発地(以下、単に「出発地」という。)から当該特定された目的地(以下、単に「目的地」又は「対象」という。)までの経路探索の処理を行う。移動手段が特定されているときは、特定された移動手段により最適な移動経路を探索する処理を行う。
経路探索の処理は、任意の方法を採用することができる。本実施形態においては、既知の方法により経路探索の処理を行う。経路探索部111は、経路探索処理の結果得られた経路の情報と、当該経路を案内するための経路案内の情報とを出力する。出力された経路及び経路案内の情報は、眼鏡型デバイス20及び/又は携帯端末30へ送信される。
現在地情報取得部112は、眼鏡型デバイス20を装着し、かつ、携帯端末30を携帯するユーザの現在地情報を携帯端末30から(もしくは携帯端末30から眼鏡型デバイス20を介して)取得する。なお、当該ユーザの現在地情報は、携帯端末30の測位部36の測位処理に基づいて得られた情報である。また、当該ユーザは、眼鏡型デバイス20及び携帯端末30を携帯しているため、ユーザの現在地情報は、眼鏡型デバイス20の現在地の情報とみなすこともできる。
方向情報取得部113は、データベース120に記憶された地図情報を参照して、現在地情報取得部112により取得された情報が示す現在地を起点としたときの経路探索部111により探索された経路の目的地の方向(対象の方向)を特定する。例えば、現在地を起点としたときの目的地の方位角が特定される。方向情報取得部113は、特定された目的地の方向の情報を出力する。出力された目的地の方向の情報は、眼鏡型デバイス20及び/又は携帯端末30へ送信することができる。
表示制御部114は、方向情報取得部113により特定された目的地の方向を示すための所定の画像を、眼鏡型デバイス20における画像の表示可能領域のどの位置に表示するかを制御する。具体的には、表示制御部114は、方向情報取得部113により特定された目的地の方向と、眼鏡型デバイス20における画像の表示可能領域の位置とに応じて、当該表示可能領域において、当該目的地の方向を示すための画像(以下、「目的地方向指示画像」ともいう。)を表示する位置を決定する。決定した位置の情報は、画像表示の制御情報として、眼鏡型デバイス20に送信される。画像表示の制御情報は、連続して、又は目的地の方向が変わる度に眼鏡型デバイス20に送信される。
眼鏡型デバイス20における画像の表示可能領域の位置とは、眼鏡型デバイス20を装着したユーザから見た表示可能領域の位置である。前述の通り、図2に示した眼鏡型デバイス20の例では、表示可能領域の位置は、眼鏡型デバイス20を装着したユーザから見て右上であり、図3に示した眼鏡型デバイス20の例では、表示可能領域の位置は、眼鏡型デバイス20を装着したユーザから見て正面である。眼鏡型デバイス20における画像の表示可能領域の位置の情報は、サーバ装置20又は外部の他の装置に予め記憶されている。
図5は、図3に示した眼鏡型デバイス20の例のように、表示可能領域が眼鏡型デバイス20を装着したユーザから見て正面の領域である場合において、当該表示可能領域に表示された、目的地方向指示画像の例を示している。
図5(A)は、眼鏡型デバイス20のレンズA(表示可能領域)に柱形状の画像51が表示されていることを示している。当該柱形状の画像51は、目的地方向指示画像である。この例では、レンズA(表示可能領域)の水平方向中央に目的地方向指示画像51が表示されているため、眼鏡型デバイス20を装着しているユーザから見て正面の方向に目的地が存在することになる。
図5(B)の例では、レンズA(表示可能領域)の右側に柱形状の目的地方向指示画像52が表示されている。そのため、眼鏡型デバイス20を装着しているユーザから見て右側の方向に目的地が存在することになる。なお、目的地の方向が右側であればあるほど、画像52はレンズA(表示可能領域)における右側の領域に表示される。
また、図示しないが、もし眼鏡型デバイス20を装着しているユーザから見て目的地の方向が左側である場合、レンズA(表示可能領域)の左側に柱形状の目的地方向指示画像52が表示される。
目的地方向指示画像の表示位置は、眼鏡型デバイス20を装着しているユーザから見た目的地の方向に応じて変化する。従って、図5(B)に示されているような画像の表示状態で眼鏡型デバイス20を装着しているユーザが向いている方向を徐々に右方向に変えると、当該画像の表示位置は徐々に左に移動する。そして、当該ユーザの向く正面の方向と目的地の方向とが一致したときに、図5(A)に示されているような表示状態になる(すなわち、水平方向中央に目的地方向指示画像が表示される)。ここで、眼鏡型デバイス20の表示部25(の表示可能領域)に表示される目的地方向指示画像の表示位置の制御は、表示制御部114による表示位置の決定に応じて行われる。
なお、図5を参照して説明した例は、眼鏡型デバイス20を装着したユーザから見た表示可能領域の位置が正面の領域である場合の目的地方向指示画像の表示位置の制御の例である。眼鏡型デバイス20を装着したユーザから見た表示可能領域の位置が正面の領域ではない場合、眼鏡型デバイス20に対する画像の表示可能領域の相対位置に応じて、目的地方向指示画像の表示位置の調整を行う。調整を行う理由と、調整方法の詳細は、後述する。
このように、表示制御部114は、方向情報取得部113により特定された目的地の方向と、眼鏡型デバイス20に対する画像の表示可能領域の相対位置とに応じて、当該表示可能領域における目的地方向指示画像の表示位置を決定する。その結果、ユーザは、目的地方向指示画像の表示位置により目的地の方向を直感的に把握することができるため、このような機能は、目的地を目指して移動しているユーザにとって利便性が高い。
図6を参照して、目的地方向指示画像の様々な表示形態について説明する。
図6(A)は、眼鏡型デバイス20のレンズAを介してオブジェクトX(例えば、ビル)が見え、オブジェクトXの方向で、かつ、オブジェクトXの手前に目的地が存在する場合の例を示している。この例では、目的地方向指示画像61は、レンズA(表示可能領域)の水平方向中央のオブジェクトX上に表示されている。
図6(B)は、眼鏡型デバイス20のレンズAを介してオブジェクトXが見え、オブジェクトXの方向で、かつ、オブジェクトXの奥(すなわち、ユーザの現在地から視認できない位置)に目的地が存在する場合の例を示している。この例では、目的地方向指示画像62は、オブジェクトXの上部外側のみに表示されている。
このように、眼鏡型デバイス20のユーザの現在地から視認できない位置に目的地が存在する場合に、目的地(対象)を遮蔽するオブジェクトXの上部外側にのみ、目的地方向指示画像62(対象の方向を示すための画像の少なくとも一部)を表示させることによって、ユーザは、目の前に存在するオブジェクトの奥に目的地(対象)が存在することを把握することができる。なお、目の前に存在するオブジェクトの奥に目的地が存在する場合には、図6(B)のように目的地方向指示画像を表示させることとしたが、オブジェクトの奥に目的地が存在する場合に図6(A)のようにオブジェクトX上に画像を表示させてもよい。
上記の例では、目的地方向指示画像を柱形状としたが、当該画像を任意の形状とすることができる。
図6(C)は、目的地方向指示画像を円形とした場合の例を示している。また、目的地がユーザの現在地から視認できない位置に存在するか否かによって、画像の表示形態を変更することができる。例えば、目的地(対象)がユーザの現在地から視認できない位置に存在する場合、目的地を遮蔽するオブジェクトX上に、画像62のように画像を透かして表示(図中では画像の外枠を点線で表示)させることができる。また、目的地がユーザの現在地から視認できる位置に存在する場合は、透かさずに表示(画像の外枠を実線で表示)させることができる。現在地から目的地の一部分のみが視認できる場合、目的地の視認できない部分上の目的地方向指示画像を透かして表示し、他の部分を透かさずに表示させることもできる。
図6(D)は、目的地方向指示画像を矢印とした場合の例を示している。この例では、レンズA(表示可能領域)の上部から下向きの矢印の画像としているがこれに限定されず、レンズA(表示可能領域)の下部から上向きの矢印の画像としてもよい。また、矢印の画像を上下に動かすように表示させてもよい。
また、図示しないが、眼鏡型デバイス20のユーザの現在地から目的地までの距離が短いほど、目的地方向指示画像を大きく又は太く表示させてもよい。例えば、現在地から目的地までの距離が短いほど、図6(A)の柱形状の画像61を太く表示させてもよい。また、現在地から目的地までの距離が短いほど、図6(C)の円形状の画像63を大きく表示させてもよい。
図7及び図8を参照して、表示可能領域が眼鏡型デバイス20を装着したユーザから見て正面の領域ではない場合(例えば、図2に示した眼鏡型デバイス20の例の場合)に、当該表示可能領域に表示される目的地方向指示画像について説明する。図7は、レンズAの右上の領域に表示可能領域Bが存在し、眼鏡型デバイス20を装着したユーザが正面を見た時の視線方向は方向aであり、当該ユーザが表示可能領域Bの中央に視線をずらした時の視線方向は方向bであることを示している。
すなわち、図7に示す例では、眼鏡型デバイス20を装着したユーザの正面への視線方向aと表示可能領域Bの中央への視線方向bとの間にずれがある。この例の場合、例えば、目的地の方向が正面である時に、表示可能領域Bの水平方向中央に目的地方向指示画像を表示させると、ユーザは視線を右にずらしたときに目的地方向指示画像の位置を確認できるため、ユーザは目的地の方向が右方向であると誤解をしてしまう場合がある。従って、眼鏡型デバイス20を装着したユーザの正面への視線方向aと表示可能領域Bの中央への視線方向bとの間にずれがある場合、当該ずれの量に応じて、目的地方向指示画像の表示位置を調整してもよい。
図8は、図7に示したように眼鏡型デバイス20を装着したユーザの正面への視線方向aと表示可能領域Bの中央への視線方向bとの間にずれがあり、目的地の方向が正面である場合に、表示位置が調整された目的地方向指示画像の表示例を示している。この例では、目的地方向指示画像81の表示位置が、表示可能領域Bの水平方向中央より左側に調整されている。すなわち、ユーザの正面への視線方向aよりも表示可能領域Bの中央への視線方向bが右方向である時は、目的地方向指示画像81の表示位置は、表示可能領域Bの水平方向中央より左側に調整される。また、表示可能領域Bの中央への視線方向bの右方向へのずれ量が大きいほど、目的地方向指示画像81の表示位置は、表示可能領域Bの水平方向中央よりもより左側に調整される。
なお、図示しないが、ユーザの正面への視線方向よりも表示可能領域の中央への視線方向が左方向である時は、目的地方向指示画像の表示位置は、表示可能領域の水平方向中央より右側に調整される。また、表示可能領域の中央への視線方向の左方向へのずれ量が大きいほど、目的地方向指示画像の表示位置は、表示可能領域の水平方向中央よりもより右側に調整される。
なお、上記の例では、表示可能領域の中央への視線方向を用いて目的地方向指示画像の表示位置の調整を行うこととしたがこれに限定せず、表示可能領域の任意の位置への視線方向を用いて調整を行ってもよい。また、ユーザの視線方向を用いて目的地方向指示画像の表示位置の調整を行うこととしたがこれに限定せず、眼鏡型デバイス20に対する画像の表示可能領域の相対位置に応じて目的地方向指示画像の表示位置の調整を行ってもよい。
上記のように、眼鏡型デバイス20に対する表示可能領域の相対位置に応じて、表示可能領域に表示される目的地方向指示画像の表示位置が調整されて決定される。その結果、表示可能領域が眼鏡型デバイス20を装着したユーザから見て正面の領域ではない場合であっても、ユーザは、目的地方向指示画像の表示位置により目的地(対象)の方向を直感的に把握することができる。そのため、このような機能は、目的地(対象)を目指して移動しているユーザにとってより利便性が高い。
図9を参照して、一実施形態に係る眼鏡型デバイス20の機能構成の例を説明する。眼鏡型デバイス20は、主な機能構成として、経路探索部211、現在地情報取得部212、方向情報取得部213、アクション検知部214、音声認識部215、及び表示制御部216を備える。以下に各機能構成の詳細を説明する。
経路探索部211は、眼鏡型デバイス20のユーザからの操作指示に応じて、経路探索処理の実行の指示をサーバ装置10に対して送信し、経路探索処理の実行結果(経路案内の情報を含む)を受信する。経路探索処理の実行の指示には、例えば、出発地、目的地、及び移動手段の情報などが含まれる。なお、経路探索処理の実行の指示は、携帯端末30を介して行い、眼鏡型デバイス20は、経路探索結果を携帯端末30から受信するようにしてもよい。
現在地情報取得部212は、携帯端末30により特定された現在地情報を携帯端末30から取得する。取得された現在地情報は、サーバ装置10に送信される。なお、現在地情報は、携帯端末30から取得することとしているが、これに限定されず、眼鏡型デバイス20が測位処理部を備え、測位処理を行うことによって、現在地情報を特定してもよい。
方向情報取得部213は、現在地情報取得部212により取得された情報が示す現在地を起点としたときの、探索された経路の目的地の方向の情報を取得する。目的地の方向の情報は、経路探索部211により指示される経路探索処理における目的地の情報と、現在地情報取得部212により取得された現在地の情報とに基づいて算出されてもよいし、サーバ装置10から取得されてもよい。
アクション検知部214は、操作部24への入力の他、眼鏡型デバイス20のユーザの所定のアクションを検知する。所定のアクションには、例えば、ユーザの瞬きや、ユーザが眼鏡型デバイス20の正面で所定の手の動きをすることなどが含まれる。これらの所定のアクションの検知の方法は、任意の方法を用いることができ、例えば、従来の検知技術を用いることができる。
音声認識部215は、眼鏡型デバイス20のユーザが発した音声を認識し、ユーザからの操作指示を特定する。
表示制御部216は、眼鏡型デバイス20による処理結果の情報や、外部装置から受信した情報(例えば、現在地情報や、経路探索のための操作画面や、経路探索結果の情報)など、各種の情報を表示部25(すなわち、眼鏡型デバイス20のユーザの目の近傍に位置するモニタ)に表示するように制御する。
また、表示制御部216は、前述の目的地方向指示画像の表示位置の情報を画像表示の制御情報としてサーバ装置10から受信し、当該制御情報に応じて目的地方向指示画像の表示部25(の表示可能領域)への表示位置を制御する。
なお、目的地方向指示画像の表示位置の情報を画像表示の制御情報としてサーバ装置10から受信しているがこの方法に限定されず、目的地方向指示画像の表示位置を決定する処理を表示制御部216により行ってもよい。すなわち、表示制御部216は、方向情報取得部213により特定された目的地の方向と、眼鏡型デバイス20における画像の表示可能領域の位置とに応じて、当該表示可能領域において目的地方向指示画像を表示する位置を決定し、制御することができる。目的地方向指示画像の表示位置の決定方法は、既に説明したため、ここでは省略する。
このように、表示制御部216は、目的地の方向と、眼鏡型デバイス20における画像の表示可能領域の位置とに応じて、当該表示可能領域における目的地方向指示画像の表示位置を決定する。その結果、ユーザは、目的地方向指示画像の表示位置により目的地の方向を直感的に把握することができるため、このような機能は、目的地を目指して移動しているユーザにとって利便性が高い。
[処理フロー]
次に、図10を参照して、サーバ装置10において実行される処理のフローを説明する。なお、以下に説明する処理フローに含まれる各処理ステップは、処理内容に矛盾を生じない範囲で、任意に順番を変更して又は並列に実行することができるとともに、各処理ステップ間に他のステップを追加してもよい。また、便宜上1ステップとして記載されているステップは、複数ステップに分けて実行することができる一方、便宜上複数ステップに分けて記載されているものは、1ステップとして把握することができる。なお、各処理ステップの処理の詳細は、既に説明しているためここでは省略する。
まず、ステップS11において、制御部11は、眼鏡型デバイス20又は携帯端末30のユーザからの操作指示に応じて、経路探索の処理を行う。
ステップS12において、制御部11は、眼鏡型デバイス20を装着し、かつ、携帯端末30を携帯するユーザの現在地情報を携帯端末30から取得する。
ステップS13において、制御部11は、記憶部13に記憶された地図情報を参照して、ステップS12で取得された情報が示す現在地を起点としたときの探索された経路の目的地の方向を特定し、特定された目的地の方向の情報を眼鏡型デバイス20及び/又は携帯端末30へ送信する。
ステップS14において、制御部11は、ステップS13で特定された目的地の方向と、眼鏡型デバイス20における画像の表示可能領域の位置とに応じて、当該表示可能領域において目的地方向指示画像を表示する位置を決定し、決定した位置の情報を画像表示の制御情報として、眼鏡型デバイス20に送信する。
以上のように本実施形態によれば、目的地の方向と、眼鏡型デバイス20における画像の表示可能領域の位置とに応じて、当該表示可能領域における目的地方向指示画像の表示位置を決定し、制御する。その結果、ユーザは、目的地方向指示画像の表示位置により目的地の方向を直感的に把握することができるため、このような機能は、目的地を目指して移動しているユーザにとって利便性が高い。
[変形例]
上記の実施形態では、表示可能領域における目的地方向指示画像の表示位置を決定するために用いる目的地の方向として、経路探索により得られた経路の目的地の方向を用いているがこの方法に限定しない。例えば、目的地方向指示画像の表示位置を決定するために、周辺検索により得られた対象の方向を目的地の方向として用いてもよい。
具体的な例として、コンビニエンスストアの周辺検索の結果を用いる方法について説明する。まず、サーバ装置10の制御部11は、眼鏡型デバイス20を装着し、かつ、携帯端末30を携帯するユーザの現在地の情報を携帯端末30から取得する。次に、制御部11は、記憶部13に記憶された地図情報を参照して、当該現在地の周辺(例えば、現在地から300m以内の領域)に存在するコンビニエンスストアを検索し、検索により特定されたコンビニエンスストアの位置(目的地の位置)の情報を取得する。
次に、制御部11は、ユーザの現在地を起点としたときの目的地の位置の方向(対象の方向)を特定する。制御部11は、特定された対象の方向と、眼鏡型デバイス20における画像の表示可能領域の位置とに応じて、当該表示可能領域において目的地方向指示画像を表示する位置を決定し、決定した位置の情報を画像表示の制御情報として、眼鏡型デバイス20に送信する。眼鏡型デバイス20は、受信した制御情報に応じて、目的地方向指示画像を表示する。
[その他の実施形態]
本発明は、上記した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において、他の様々な形で実施することができる。上記実施形態はあらゆる点で単なる例示にすぎず、限定的に解釈されるものではない。
例えば、上記の実施形態において、表示可能領域における目的地方向指示画像の表示位置の決定は、サーバ装置10又は眼鏡型デバイス20で行うこととしたが、これに限定されず、携帯端末30で行うことにしてもよい。具体的には、携帯端末30は、ユーザの現在地を測位部36により特定し、当該特定された現在地から目的地の方向と、眼鏡型デバイス20における画像の表示可能領域の位置とに応じて、当該表示可能領域における目的地方向指示画像の表示位置を決定し、制御することができる。
10 サーバ装置、20 眼鏡型デバイス、30 携帯端末、11,21,31 制御部、11a,21a,31a CPU、11b,21b,31b メモリ、12,22,32 通信部、13,23,33 記憶部、24,34 操作部、25,35 表示部、26 カメラ、27 センサ、28 マイク、36 測位部

Claims (8)

  1. ウェアラブルデバイスの現在地を起点として対象の方向の情報を取得する手段と、
    前記対象の方向と、前記ウェアラブルデバイスに対する画像の表示可能領域の相対位置とに応じて、当該表示可能領域において、前記対象の方向を示すための画像を表示する位置を制御する表示制御手段と、
    を備えた情報処理システム。
  2. 前記表示制御手段による制御は、前記ウェアラブルデバイスを装着するユーザが正面を見たときの視線方向と、前記ユーザの前記表示可能領域への視線方向との間のずれ量に応じて前記対象の方向を示すための画像を表示する位置を調整することを含む、請求項1に記載の情報処理システム。
  3. 前記対象の方向を示すための画像は、柱形状である、請求項1又は2に記載の情報処理システム。
  4. 前記対象の方向を示すための画像は、前記現在地から前記対象までの距離が短いほど、大きく又は太く表示される、請求項1から3のいずれか一項に記載の情報処理システム。
  5. 前記表示制御手段は、前記対象が前記現在地から視認できない位置に存在する場合、前記対象を遮蔽するオブジェクトの上部外側にのみ前記対象の方向を示すための画像の少なくとも一部を表示する、請求項1から4のいずれか一項に記載の情報処理システム。
  6. 前記表示制御手段は、前記対象が前記現在地から視認できない位置に存在する場合、前記対象を遮蔽するオブジェクト上に前記対象の方向を示すための画像を透かして表示する、請求項1から4のいずれか一項に記載の情報処理システム。
  7. ウェアラブルデバイスの現在地を起点として対象の方向の情報を取得すること、
    前記対象の方向と、前記ウェアラブルデバイスに対する画像の表示可能領域の相対位置とに応じて、当該表示可能領域において、前記対象の方向を示すための画像を表示する位置を制御すること、
    を備えた情報処理方法。
  8. コンピュータに、
    ウェアラブルデバイスの現在地を起点として対象の方向の情報を取得するステップと、
    前記対象の方向と、前記ウェアラブルデバイスに対する画像の表示可能領域の相対位置とに応じて、当該表示可能領域において、前記対象の方向を示すための画像を表示する位置を制御するステップと、
    を実行させるためのプログラム。
JP2014201795A 2014-09-30 2014-09-30 情報処理システム、情報処理方法及びプログラム Active JP6396155B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014201795A JP6396155B2 (ja) 2014-09-30 2014-09-30 情報処理システム、情報処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014201795A JP6396155B2 (ja) 2014-09-30 2014-09-30 情報処理システム、情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2016071217A true JP2016071217A (ja) 2016-05-09
JP6396155B2 JP6396155B2 (ja) 2018-09-26

Family

ID=55866800

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014201795A Active JP6396155B2 (ja) 2014-09-30 2014-09-30 情報処理システム、情報処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6396155B2 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004304296A (ja) * 2003-03-28 2004-10-28 Nikon Corp ヘッドマウントディスプレイ
JP2006284458A (ja) * 2005-04-01 2006-10-19 Denso Corp 運転支援情報表示システム
JP2010262232A (ja) * 2009-05-11 2010-11-18 Konica Minolta Opto Inc 映像表示装置およびヘッドマウントディスプレイ
JP2012078224A (ja) * 2010-10-01 2012-04-19 Olympus Corp 画像生成システム、プログラム及び情報記憶媒体
JP2013044836A (ja) * 2011-08-23 2013-03-04 Canon Inc 映像表示装置
JP2014110474A (ja) * 2012-11-30 2014-06-12 Olympus Corp 頭部装着型装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004304296A (ja) * 2003-03-28 2004-10-28 Nikon Corp ヘッドマウントディスプレイ
JP2006284458A (ja) * 2005-04-01 2006-10-19 Denso Corp 運転支援情報表示システム
JP2010262232A (ja) * 2009-05-11 2010-11-18 Konica Minolta Opto Inc 映像表示装置およびヘッドマウントディスプレイ
JP2012078224A (ja) * 2010-10-01 2012-04-19 Olympus Corp 画像生成システム、プログラム及び情報記憶媒体
JP2013044836A (ja) * 2011-08-23 2013-03-04 Canon Inc 映像表示装置
JP2014110474A (ja) * 2012-11-30 2014-06-12 Olympus Corp 頭部装着型装置

Also Published As

Publication number Publication date
JP6396155B2 (ja) 2018-09-26

Similar Documents

Publication Publication Date Title
JP5909034B1 (ja) ヘッドマウントディスプレイ用ユーザインターフェース
US10796669B2 (en) Method and apparatus to control an augmented reality head-mounted display
JP5675470B2 (ja) 画像生成システム、プログラム及び情報記憶媒体
US8717198B2 (en) Communication connecting apparatus and method for detecting mobile units in a vehicle
US10598506B2 (en) Audio navigation using short range bilateral earpieces
WO2011158639A1 (ja) 位置関連表示システム、携帯機器及び携帯機器用プログラム
KR101876284B1 (ko) 웨어러블 맵 및 이미지 디스플레이
US10712167B2 (en) Methods, systems, and devices for displaying maps
KR20160069370A (ko) 이동 단말기 및 그것의 제어방법
JP5360021B2 (ja) 携帯型情報処理装置、及び携帯型情報処理装置のためのコンピュータプログラム
JP2016096513A (ja) 情報処理システム、情報処理方法及びプログラム
JP2016184294A (ja) 表示制御方法、表示制御プログラム、及び情報処理装置
JP6306985B2 (ja) 情報処理システム、情報処理方法及びプログラム
JP6396155B2 (ja) 情報処理システム、情報処理方法及びプログラム
JP2017102034A (ja) ウェアラブルデバイス、ウェアラブルデバイスの制御方法及びプログラム
JP2016110296A (ja) ウェアラブルデバイス、情報処理方法及びプログラム
JP2023075236A (ja) 軌跡表示装置
JP2011220899A (ja) 情報提示システム
JP6566854B2 (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
JP2018124925A (ja) 端末装置及びプログラム
WO2021200187A1 (ja) 携帯端末および情報処理方法、並びに記憶媒体
JP6557126B2 (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
JP2017102036A (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
KR20200073943A (ko) 스마트워치 탑재용 네비게이션
JP2019133489A (ja) 端末装置及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170324

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180328

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180815

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180829

R150 Certificate of patent or registration of utility model

Ref document number: 6396155

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250