JP2016048192A - Information processing system, information processing method, and program - Google Patents
Information processing system, information processing method, and program Download PDFInfo
- Publication number
- JP2016048192A JP2016048192A JP2014173005A JP2014173005A JP2016048192A JP 2016048192 A JP2016048192 A JP 2016048192A JP 2014173005 A JP2014173005 A JP 2014173005A JP 2014173005 A JP2014173005 A JP 2014173005A JP 2016048192 A JP2016048192 A JP 2016048192A
- Authority
- JP
- Japan
- Prior art keywords
- information
- user
- current location
- angle
- information acquisition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 31
- 238000003672 processing method Methods 0.000 title claims description 3
- 230000009471 action Effects 0.000 claims description 11
- 238000001514 detection method Methods 0.000 claims description 8
- 230000004044 response Effects 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 abstract description 4
- 230000009286 beneficial effect Effects 0.000 abstract 1
- 230000006870 function Effects 0.000 description 17
- 238000000034 method Methods 0.000 description 15
- 238000004891 communication Methods 0.000 description 11
- 210000003128 head Anatomy 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 210000001508 eye Anatomy 0.000 description 3
- 230000004397 blinking Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 235000013410 fast food Nutrition 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Abstract
Description
本発明は、情報処理技術に関する。 The present invention relates to information processing technology.
近年、様々なウェアラブルデバイスが開発されている。ウェアラブルデバイスとは、ユーザが身体(例えば、腕や頭部)に装着して利用することが想定されたデバイスである。例えば、特許文献1には頭部に装着する眼鏡型のウェアラブルデバイスについて開示されている。
In recent years, various wearable devices have been developed. A wearable device is a device that is assumed to be worn by a user on a body (for example, an arm or a head). For example,
ウェアラブルデバイスは、ユーザの身体に装着されるため、ウェアラブルデバイスに備えるセンサを用いてユーザの動作を検知することも可能である。ウェアラブルデバイスのこのような特徴を利用した有益な機能を実現可能な技術が期待されている。 Since the wearable device is worn on the user's body, it is also possible to detect the user's movement using a sensor provided in the wearable device. A technology that can realize useful functions using such features of wearable devices is expected.
本発明は上記に鑑みてなされたものであり、その目的は、検知されたユーザの動作についての情報を利用した有益な機能を実現可能な技術を提供することにある。 The present invention has been made in view of the above, and an object of the present invention is to provide a technology capable of realizing a useful function using information about detected user actions.
本発明に係る情報処理システムは、ユーザの現在地情報を取得する現在地情報取得手段と、ウェアラブルデバイスにより検知された前記ユーザの視線の方位角及び仰俯角の情報を取得する角度情報取得手段と、前記現在地情報と、前記方位角及び仰俯角の情報とを用いて、前記ユーザの視認対象の構造物を特定し、当該構造物についての情報を地図情報から取得する注視点情報取得手段とを備える。 An information processing system according to the present invention includes current location information acquisition means for acquiring user's current location information, angle information acquisition means for acquiring information on the azimuth angle and elevation angle of the user's line of sight detected by a wearable device, It comprises gaze point information acquisition means for specifying a structure to be visually recognized by the user using current location information and information on the azimuth angle and elevation angle, and acquiring information about the structure from map information.
本発明に係る情報処理方法は、ユーザの現在地情報を取得する現在地情報取得ステップと、ウェアラブルデバイスにより検知された前記ユーザの視線の方位角及び仰俯角の情報を取得する角度情報取得ステップと、前記現在地情報と、前記方位角及び仰俯角の情報とを用いて、前記ユーザの視認対象の構造物を特定し、当該構造物についての情報を地図情報から取得する注視点情報取得ステップとを備える。 An information processing method according to the present invention includes a current location information acquisition step of acquiring user's current location information, an angle information acquisition step of acquiring information on an azimuth angle and an elevation angle of the user's line of sight detected by a wearable device, Using the present location information and the information on the azimuth angle and the elevation angle, it is possible to identify a structure to be visually recognized by the user, and to include a point-of-gaze information acquisition step of acquiring information about the structure from map information.
本発明に係るプログラムは、コンピュータを、ユーザの現在地情報を取得する現在地情報取得手段、ウェアラブルデバイスにより検知された前記ユーザの視線の方位角及び仰俯角の情報を取得する角度情報取得手段、前記現在地情報と、前記方位角及び仰俯角の情報とを用いて、前記ユーザの視認対象の構造物を特定し、当該構造物についての情報を地図情報から取得する注視点情報取得手段、として機能させる。 The program according to the present invention includes a computer, a current location information acquisition unit that acquires current location information of a user, an angle information acquisition unit that acquires information on an azimuth angle and an elevation angle of the user's line of sight detected by a wearable device, the current location Using the information and the information on the azimuth angle and the elevation angle, the structure to be visually recognized by the user is specified, and it functions as gaze information acquisition means for acquiring information about the structure from map information.
また、本発明のプログラムは、CD−ROM等の光学ディスク、磁気ディスク、半導体メモリなどの各種の記録媒体を通じて、又は通信ネットワークなどを介してダウンロードすることにより、コンピュータにインストール又はロードすることができる。 The program of the present invention can be installed or loaded on a computer through various recording media such as an optical disk such as a CD-ROM, a magnetic disk, and a semiconductor memory, or via a communication network. .
本発明によれば、検知されたユーザの動作についての情報を利用した有益な機能を実現可能な技術を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the technique which can implement | achieve the useful function using the information about the detected user's operation | movement can be provided.
以下、本発明の実施形態について、図面を参照しつつ詳細に説明する。ただし、発明の範囲をこれらに限定するものではない。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. However, the scope of the invention is not limited to these.
[ハードウェア構成]
図1を参照して、一実施形態に係る情報処理システムのハードウェア構成の例について説明する。情報処理システム1は、ウェアラブルデバイスを用いた各種のサービスを提供するためのシステムである。情報処理システム1は、サーバ装置10、眼鏡型デバイス20及び携帯端末30を主に含む。眼鏡型デバイス20及び携帯端末30は、ネットワークNを介してサーバ装置10と相互に通信することができる。また、眼鏡型デバイス20は、携帯端末30と(例えば、Bluetooth(登録商標)やWi−Fi(登録商標)等により)相互に通信することができる。情報処理システム1は、例えば、ウェアラブルデバイスである眼鏡型デバイス20を装着し、かつ、携帯端末30を携帯するユーザに対して、地図情報に基づく各種の情報提供サービスを行うことができる。
[Hardware configuration]
With reference to FIG. 1, an example of a hardware configuration of an information processing system according to an embodiment will be described. The
ネットワークNは、サーバ装置10と、眼鏡型デバイス20及び携帯端末30との間で情報を送受信するための通信回線である。ネットワークNは、例えば、インターネット、LAN、専用線、パケット通信網、電話回線、企業内ネットワーク、その他の通信回線、それらの組み合わせ等のいずれであってもよく、有線であるか無線であるか(もしくはこれらの組み合わせであるか)を問わない。
The network N is a communication line for transmitting and receiving information between the
サーバ装置10は、専用又は汎用のサーバ・コンピュータなどの情報処理装置により構成される。なお、サーバ装置10は、単一の情報処理装置より構成されるものであっても、ネットワーク上に分散した複数の情報処理装置より構成されるものであってもよい。
The
また、サーバ装置10は、制御部11、通信部12、及び記憶部13を主に備える。制御部11は、CPU(Central Processing Unit)11a及びメモリ11bを主に備えて構成される。各構成の説明は後述する。サーバ装置10は、例えば、CPU11aがメモリ11b等に格納された所定のプログラムを実行することにより、各種の機能実現手段として機能する。なお、図1には、サーバ装置10が備える主要な構成が示されているにすぎず、サーバ装置10は、一般的な情報処理装置が備える他の構成も備える。
The
眼鏡型デバイス20は、眼鏡型の形状のウェアラブルデバイスである。ウェアラブルデバイスとは、ユーザが身体(例えば、腕や頭部)に装着して利用することが想定されたデバイス(情報処理装置)である。すなわち、眼鏡型デバイス20は眼鏡型の形状であるため、ユーザは、眼鏡をかけるように眼鏡型デバイス20を頭部に装着して利用することができる。眼鏡型デバイス20は、制御部21、通信部22、記憶部23、操作部24、表示部25、カメラ26、センサ27、及びマイク28を主に備えて構成される。制御部21は、CPU21a及びメモリ21bを主に備えて構成される。眼鏡型デバイス20は、例えば、CPU21aがメモリ21b等に格納された所定のプログラムを実行することにより、各種の機能実現手段として機能する。なお、ユーザは眼鏡型デバイス20の装着時に結果として眼鏡型デバイス20に備えるこれらの構成のそれぞれも装着することになるため、これらの構成のそれぞれも狭義のウェアラブルデバイスとみなすことができる。これらの各構成の説明は後述する。
The spectacle-
図2は、眼鏡型デバイス20の外観の例を示している。同図の例では、眼鏡型デバイス20は外観上、操作部24、表示部25及びカメラ26を備えることが示されている。操作部24は、眼鏡型デバイス20の外側部に位置する。ユーザは操作部24をスワイプ、タップ等をすることによって、眼鏡型デバイス20に対して操作指示を行うことができる。表示部25は、眼鏡型デバイス20を装着したユーザがプリズムなどにより表示内容を視認可能な位置に設置されるように構成される。カメラ26は、眼鏡型デバイス20を装着したユーザの視線方向に向けられ、当該ユーザが見ていると推定されるもの(推定注視点に存在するもの)を撮像/撮影可能な位置に設置されるように構成される。
FIG. 2 shows an example of the external appearance of the eyeglass-
図1の説明にもどる。携帯端末30は、例えば、携帯電話機(スマートフォンを含む)、タブレット端末、PDA(Personal Digital Assistants)、ナビゲーション装置、パーソナルコンピュータなどの携帯可能な情報処理装置である。携帯端末30は、制御部31、通信部32、記憶部33、操作部34、表示部35及び測位部36を主に備えて構成される。制御部31は、CPU31a及びメモリ31bを主に備えて構成される。各構成の説明は後述する。携帯端末30は、例えば、CPU31aがメモリ31b等に格納された所定のプログラムを実行することにより、各種の機能実現手段として機能する。
Returning to the description of FIG. The
制御部11,21,31は、これらを備える各情報処理装置の各種構成の動作を制御し、また、各種処理の実行を制御する。制御部11,21,31において実行される処理の詳細は後述する。通信部12,22,32は、他の情報処理装置と通信するための通信インタフェースである。記憶部13,23,33は、ハードディスク等の記憶装置によって構成される。記憶部13,23,33は、各情報処理装置における処理の実行に必要な各種プログラムや各種の情報を記憶する。操作部24,34は、ユーザからの操作指示を受け付けるためのユーザインタフェースである。表示部25,35は、各情報処理装置による処理結果を表示するためのユーザインタフェースである。
The
カメラ26は、静止画/動画を撮影/撮像可能な装置である。
センサ27は、各種のセンサにより構成される。センサ27は、例えば、ジャイロセンサ、加速度センサ、地磁気センサ、及び/又はイメージセンサ等を含むことができる。センサ27により、例えば、眼鏡型デバイス20を装着しているユーザの顔が向いている方向に基づいて当該ユーザの視線の方向の方位角(基準となる方位との間の水平方向の角度)の推定値を検知することや、当該ユーザの頭部の傾きに基づいて当該ユーザの視線の方向の仰俯角(水平を基準とした上下方向の角度)の推定値を検知することができる。なお、センサ27は、ユーザの眼球の動きから当該ユーザの視線方向の方位角及び仰俯角の推定値を検知できるようにしてもよい。また、センサ27は、眼鏡型デバイス20を装着するユーザの瞼の動きに基づいて瞬きを検知することもできる。
マイク28は、眼鏡型デバイス20を装着するユーザが発する声/音を電気信号に変換する装置である。
The
The
The
測位部36は、GPS衛星や通信機器(例えば基地局)から受信した信号に基づいて、携帯端末30の位置(例えば、緯度、経度)を特定し、当該位置を特定した日時を特定する(測位情報を特定する)処理を行う。
The
以上のように本実施形態において、情報処理システム1は、サーバ装置10、眼鏡型デバイス20及び携帯端末30を含むがこれに限定せず、任意の装置を含むことができる。また、サーバ装置10、眼鏡型デバイス20及び携帯端末30が有する構成の一部又は全部を有する構成を情報処理システムとして把握することもできる。例えば、眼鏡型デバイス20が有する構成の一部を情報処理システムとして把握することができるし、眼鏡型デバイス20が有する構成の一部と、携帯端末30が有する構成の一部とを組み合わせた構成を情報処理システムとして把握することができる。
As described above, in the present embodiment, the
[機能構成]
図3を参照して、サーバ装置10の一実施形態における機能構成について説明する。サーバ装置10は、主な機能構成として、現在地情報取得部111、角度情報取得部112、注視点情報取得部113、経路探索部114及びデータベース120を備える。以下に各機能構成の詳細を説明する。
[Function configuration]
With reference to FIG. 3, a functional configuration in one embodiment of the
データベース120は、サーバ装置10において実行される処理に必要な情報、及び当該処理により生成された情報など、各種情報を記憶する。データベース120は、例えば、地図情報及び施設情報を記憶している。地図情報は、道路情報、鉄道路線情報、建造物情報、地形情報、住所情報、及びその他の地理情報などを含む。施設情報は、例えば、コンビニエンスストア、カフェ、駅、ファーストフード、レストラン、建物(ビル)などの施設についての情報を含む。また、施設情報は、当該施設で扱っている商品及び/又はサービスについての情報を含む。さらに、施設情報は、地図情報と関連付けられた各施設の位置の情報を含む。なお、施設情報は、地図情報に含まれる情報としてもよい。
The
現在地情報取得部111は、眼鏡型デバイス20を装着し、かつ、携帯端末30を携帯するユーザの現在地情報を携帯端末30から(もしくは携帯端末30から眼鏡型デバイス20を介して)取得する。なお、当該ユーザの現在地情報は、携帯端末30の測位部36の測位処理に基づいて得られた情報である。
The current location information acquisition unit 111 acquires the current location information of the user wearing the glasses-
角度情報取得部112は、眼鏡型デバイス20を装着し、かつ、携帯端末30を携帯するユーザの視線の方位角及び仰俯角の情報を眼鏡型デバイス20から(もしくは眼鏡型デバイス20から携帯端末30を介して)取得する。なお、当該方位角及び仰俯角の情報は、後述するように、眼鏡型デバイス20のセンサ27の処理に基づいて得られた情報である。
The angle
注視点情報取得部113は、データベース120を参照して、現在地情報取得部111により取得された前述のユーザの現在地情報と、角度情報取得部112により取得された前述のユーザの視線の方位角及び仰俯角の情報とを用いて、当該ユーザの視認対象の構造物(施設などのオブジェクト)を特定し、当該構造物における推定注視点を特定する。注視点情報取得部113は、特定された構造物についての情報や、当該推定注視点の位置についての情報を地図情報から取得する。推定注視点の位置についての情報には、特定された構造物(施設などのオブジェクト)の種別(例えば、雑居ビル、駅、飲食店、山など)、名称及び位置(住所)の情報を含む。また、特定された構造物がビルなどの建築物であり、当該ビルのフロアごとに1つ又は複数の施設が含まれている場合、推定注視点の位置についての情報には、当該推定注視点の位置に対応するフロアについての情報(例えば、当該フロアの階数や、当該フロアに存在する1つ又は複数の施設の情報を含む)、又は当該推定注視点の位置に存在する1つの施設の情報が含まれる。特定された推定注視点の位置についての情報は、眼鏡型デバイス20に送信される。
The gazing point
図4及び図5を参照して、ユーザの推定注視点の位置についての情報の取得方法の例について説明する。図4及び図5は、眼鏡型デバイス20を装着し、かつ、携帯端末30を携帯するユーザAと、構造物(例えば、ビル)Bとを示している。注視点情報取得部113は、ユーザAの現在地情報と、ユーザAの視線の方位角a(この例では北を基準方位としたときの方位角)及び仰俯角bの情報と、地図情報とを用いて、ユーザAの現在地からユーザAの視線方向に存在するオブジェクト(ユーザの視認対象のオブジェクト)を特定する。また、注視点情報取得部113は、特定されたオブジェクトにおいて、ユーザAの視線の方位角及び仰俯角に対応する位置を推定注視点として特定する。この例では、注視点情報取得部113は、推定注視点として、点Cを特定する。なお、推定注視点が示す対象は、点に限られず、任意の大きさ及び形状の領域(例えば、半径1mの円形領域、10m四方の矩形領域など)を含むものとする。注視点情報取得部113は、特定された推定注視点の位置についての情報をデータベース120から取得する。
With reference to FIG.4 and FIG.5, the example of the acquisition method of the information about the position of an estimated gaze point of a user is demonstrated. 4 and 5 show a user A wearing the glasses-
以上のように、本実施形態によれば、ユーザが頭部を動かしたときに、ウェアラブルデバイス(例えば、眼鏡型デバイス20又はセンサ27)により検知された、ユーザの視線が向いている方向の方位角及び仰俯角の情報を用いて、当該ユーザの推定注視点の位置についての情報を取得することができる。すなわち、ウェアラブルデバイスにより検知されたユーザの動作についての情報を利用して有益な機能を実現することができる。特に、ユーザの視線の仰俯角の情報を用いてオブジェクトを特定するため、ユーザが見上げなければ視認できないようなオブジェクト(例えば、ユーザの目の前にある建物の裏側にあるオブジェクトで、ユーザが視線を上げたときに当該建物の上部からのみ見えるようなオブジェクト)を特定することができる。
As described above, according to the present embodiment, the orientation of the direction in which the user's line of sight is detected by the wearable device (for example, the eyeglass-
図3の説明に戻る。経路探索部114は、指定された位置(例えば、眼鏡型デバイス20を装着するユーザの現在地)を出発地とし、注視点情報取得部113により特定された推定注視点の位置を目的地として、経路探索の処理を行う。探索された経路についての情報は、眼鏡型デバイス20に送信される。
Returning to the description of FIG. The
図6を参照して、一実施形態に係る眼鏡型デバイス20の機能構成の例を説明する。眼鏡型デバイス20は、主な機能構成として、現在地情報取得部211、角度情報取得部212、注視点情報取得部213、アクション検知部214、音声認識部215、及び表示制御部216を備える。以下に各機能構成の詳細を説明する。
With reference to FIG. 6, the example of a function structure of the
現在地情報取得部211は、携帯端末30により特定された現在地情報を携帯端末30から取得する。取得された現在地情報は、サーバ装置10に送信される。なお、現在地情報は、携帯端末30から取得することとしているが、これに限定されず、眼鏡型デバイス20が測位処理部を備え、測位処理を行うことによって、現在地情報を特定してもよい。
The current location
角度情報取得部212は、センサ27による検知結果に基づいて、眼鏡型デバイス20を装着しているユーザの顔が向いている方向の方位角及び仰俯角を特定する。角度情報取得部212は、当該方位角及び仰俯角に基づいて当該ユーザの視線の方向の方位角及び仰俯角の推定値を角度情報として特定する。特定された角度情報は、サーバ装置10に送信される。なお、ユーザは、ウェアラブルデバイスである眼鏡型デバイス20の装着時に結果として眼鏡型デバイス20に備えるセンサ27も装着することになるため、センサ27もウェアラブルデバイスとみなすことができる。
The angle
注視点情報取得部213は、サーバ装置10により特定された(眼鏡型デバイス20を装着し、かつ、携帯端末30を携帯するユーザの)推定注視点の位置についての情報をサーバ装置10の地図情報から取得する。なお、推定注視点の位置についての情報は、サーバ装置10により特定されることとしているが、これに限定されず、注視点情報取得部213が推定注視点の位置についての情報を特定する処理を行ってもよい。すなわち、注視点情報取得部213が、現在地情報取得部211により取得された現在地情報と、角度情報取得部212により特定された角度情報と、サーバ装置10から取得された地図情報とに基づいて、前述した処理と同様の処理により、推定注視点の位置についての情報を特定することができる。
The gazing point
アクション検知部214は、操作部24への入力の他、眼鏡型デバイス20のユーザの所定のアクションを検知する。所定のアクションには、例えば、ユーザの瞬きや、ユーザが眼鏡型デバイス20の正面で所定の手の動きをすることなどが含まれる。これらの所定のアクションの検知の方法は、任意の方法を用いることができ、例えば、従来の検知技術を用いることができる。
The
音声認識部215は、眼鏡型デバイス20のユーザが発した音声を認識し、ユーザからの操作指示を特定する。
The
表示制御部216は、眼鏡型デバイス20による処理結果の情報や、外部装置から受信した情報(例えば、現在地情報や、推定注視点の位置についての情報)など、各種の情報を表示部25(すなわち、眼鏡型デバイス20のユーザの目の近傍に位置するモニタ)に表示するように制御する。また、表示制御部216は、操作部24を介したユーザによる所定の操作や、アクション検知部214により所定のアクションが検知されたことに応じて、注視点情報取得部213により取得された推定注視点の位置についての情報を表示部25に表示するように制御することができる。
The
図7には、表示制御部216による制御の結果、表示部25に表示された推定注視点の位置についての情報の例が示されている。この例において、表示部25に表示された推定注視点の位置についての情報は、施設の種別、施設の名称、施設において取り扱っている商品(取扱い商品)につていの情報が含まれている。
FIG. 7 shows an example of information about the position of the estimated gazing point displayed on the
以上のように、本実施形態によれば、ウェアラブルデバイス(例えば、眼鏡型デバイス20又はセンサ27)により検知された、ユーザが頭部を動かしたときにユーザの視線が向いている方向の方位角及び仰俯角の情報を用いて、当該ユーザの推定注視点の位置についての情報を取得すること、また、当該情報をユーザの目の近傍に位置するモニタに表示することができる。すなわち、ウェアラブルデバイスにより検知されたユーザの動作についての情報を利用して有益な機能を実現することができる。
As described above, according to the present embodiment, the azimuth angle in the direction in which the user's line of sight is detected when the user moves the head, detected by the wearable device (for example, the eyeglass-
[処理フロー]
次に、サーバ装置10及び眼鏡型デバイス20において実行される処理のフローを説明する。なお、以下に説明する処理フローに含まれる各処理ステップは、処理内容に矛盾を生じない範囲で、任意に順番を変更して又は並列に実行することができるとともに、各処理ステップ間に他のステップを追加してもよい。また、便宜上1ステップとして記載されているステップは、複数ステップに分けて実行することができる一方、便宜上複数ステップに分けて記載されているものは、1ステップとして把握することができる。なお、各処理ステップの処理の詳細は、既に説明しているためここでは省略する。
[Processing flow]
Next, a flow of processing executed in the
まず、図8を参照して、サーバ装置10において実行される処理のフローを説明する。
ステップS11において、制御部11は、眼鏡型デバイス20を装着し、かつ、携帯端末30を携帯するユーザの現在地情報を携帯端末30から(もしくは携帯端末30から眼鏡型デバイス20を介して)取得する。
First, the flow of processing executed in the
In step S <b> 11, the
ステップS12において、制御部11は、眼鏡型デバイス20を装着し、かつ、携帯端末30を携帯するユーザの視線の方位角及び仰俯角の情報を眼鏡型デバイス20から(もしくは眼鏡型デバイス20から携帯端末30を介して)取得する。
In step S <b> 12, the
ステップS13において、制御部11は、データベース120を参照して、ステップS11において取得された前述のユーザの現在地情報と、ステップS12において取得された前述のユーザの視線の方位角及び仰俯角の情報とを用いて、当該ユーザの視認対象の構造物(施設などのオブジェクト)を特定し、当該構造物における推定注視点を特定する。さらに、制御部11は、特定された構造物についての情報や、当該推定注視点の位置についての情報を地図情報から取得する。
In step S13, the
ステップS14において、制御部11は、ステップS13で取得した推定注視点の位置についての情報を眼鏡型デバイス20に送信する。
In step S <b> 14, the
次に、図9を参照して、眼鏡型デバイス20において実行される処理のフローを説明する。
ステップS21において、制御部21は、携帯端末30により特定されたユーザの現在地情報を携帯端末30から取得する。取得された現在地情報は、サーバ装置10に送信される。
Next, with reference to FIG. 9, the flow of processing executed in the eyeglass-
In step S <b> 21, the
ステップS22において、制御部21は、センサ27による検知結果に基づいて、眼鏡型デバイス20を装着しているユーザの顔が向いている方向の方位角及び仰俯角を特定する。角度情報取得部212は、当該方位角及び仰俯角に基づいて当該ユーザの視線の方向の方位角及び仰俯角の推定値を角度情報として特定する。特定された角度情報は、サーバ装置10に送信される。
In step S <b> 22, the
ステップS23において、制御部21は、サーバ装置10により特定された(眼鏡型デバイス20を装着し、かつ、携帯端末30を携帯するユーザの)推定注視点の位置についての情報をサーバ装置10の地図情報からネットワークNを介して取得する。
In step S <b> 23, the
ステップS24において、センサ27により所定のアクションが検知されたことに応じて、ステップS23において取得された推定注視点の位置についての情報を表示部25に表示する。
In step S24, in response to the detection of a predetermined action by the
以上のように、本実施形態によれば、ウェアラブルデバイス(例えば、眼鏡型デバイス20又はセンサ27)により検知された、ユーザが頭部を動かしたときにユーザの視線が向いている方向の方位角及び仰俯角の情報を用いて、当該ユーザの推定注視点の位置についての情報を取得すること、また、当該情報をユーザの目の近傍に位置するモニタに表示することができる。すなわち、ウェアラブルデバイスにより検知されたユーザの動作についての情報を利用して有益な機能を実現することができる。
As described above, according to the present embodiment, the azimuth angle in the direction in which the user's line of sight is detected when the user moves the head, detected by the wearable device (for example, the eyeglass-
[その他の実施形態]
本発明は、上記した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において、他の様々な形で実施することができる。上記実施形態はあらゆる点で単なる例示にすぎず、限定的に解釈されるものではない。
[Other Embodiments]
The present invention is not limited to the above-described embodiment, and can be implemented in various other forms without departing from the gist of the present invention. The above-described embodiment is merely an example in all respects, and is not construed as limiting.
例えば、上記の実施形態において、推定注視点の特定は、サーバ装置10又は眼鏡型デバイス20で行うこととしたが、これに限定されず、携帯端末30で行うことにしてもよい。具体的には、携帯端末30は、ユーザの現在地情報を測位部36により特定し、ユーザの視線の方位角及び仰俯角の情報を角度情報として眼鏡型デバイス20から取得し、当該現在地情報及び角度情報を用いて、上述した方法により推定注視点を特定することができる。
For example, in the above embodiment, the estimated gazing point is specified by the
10 サーバ装置、20 眼鏡型デバイス、30 携帯端末、11,21,31 制御部、11a,21a,31a CPU、11b,21b,31b メモリ、12,22,32 通信部、13,23,33 記憶部、24,34 操作部、25,35 表示部、26 カメラ、27 センサ、28 マイク、36 測位部
10 server device, 20 glasses-type device, 30 portable terminal, 11, 21, 31 control unit, 11a, 21a, 31a CPU, 11b, 21b, 31b memory, 12, 22, 32 communication unit, 13, 23, 33
Claims (7)
ウェアラブルデバイスにより検知された前記ユーザの視線の方位角及び仰俯角の情報を取得する角度情報取得手段と、
前記現在地情報と、前記方位角及び仰俯角の情報とを用いて、前記ユーザの視認対象の構造物を特定し、当該構造物についての情報を地図情報から取得する注視点情報取得手段と
を備えた情報処理システム。 Current location information acquisition means for acquiring the current location information of the user;
Angle information acquisition means for acquiring information on the azimuth angle and elevation angle of the user's line of sight detected by the wearable device;
Gaze point information acquisition means for specifying the structure to be visually recognized by the user using the current location information and the azimuth and elevation angle information, and acquiring information about the structure from map information. Information processing system.
前記注視点情報取得手段により取得される情報は、前記特定された構造物が建築物であるときに、前記建築物において前記推定注視点に位置するフロアの情報を取得することを含む、請求項1に記載の情報処理システム。 The gazing point information acquisition means specifies the user's estimated gazing point in the identified structure, acquires information about the position of the estimated gazing point from map information,
The information acquired by the gazing point information acquisition unit includes acquiring information on a floor located at the estimated gazing point in the building when the specified structure is a building. 1. The information processing system according to 1.
前記所定のアクションが検知されたことに応じて、前記注視点情報取得手段により取得された情報をウェアラブルデバイスに表示するように制御する表示制御手段と
を備えた請求項1から3のいずれか1項に記載の情報処理システム。 Detecting means for detecting a predetermined action of the user;
4. The display control unit according to claim 1, further comprising: a display control unit configured to control the information acquired by the gazing point information acquisition unit to be displayed on the wearable device in response to detection of the predetermined action. Information processing system according to item.
ウェアラブルデバイスにより検知された前記ユーザの視線の方位角及び仰俯角の情報を取得する角度情報取得ステップと、
前記現在地情報と、前記方位角及び仰俯角の情報とを用いて、前記ユーザの視認対象の構造物を特定し、当該構造物についての情報を地図情報から取得する注視点情報取得ステップと
を備えた情報処理方法。 A current location information acquisition step for acquiring the current location information of the user;
An angle information acquisition step of acquiring information on the azimuth angle and elevation angle of the user's line of sight detected by the wearable device;
Using the current location information and the azimuth and elevation angle information to identify a structure to be visually recognized by the user, and a point-of-gaze information acquisition step of acquiring information about the structure from map information. Information processing method.
ユーザの現在地情報を取得する現在地情報取得手段、
ウェアラブルデバイスにより検知された前記ユーザの視線の方位角及び仰俯角の情報を取得する角度情報取得手段、
前記現在地情報と、前記方位角及び仰俯角の情報とを用いて、前記ユーザの視認対象の構造物を特定し、当該構造物についての情報を地図情報から取得する注視点情報取得手段、
として機能させるためのプログラム。 Computer
Current location information acquisition means for acquiring the current location information of the user;
Angle information acquisition means for acquiring information on the azimuth and elevation angles of the user's line of sight detected by the wearable device;
Using the current location information and the information on the azimuth angle and the elevation angle, the gaze point information acquisition means for identifying the structure to be visually recognized by the user and acquiring information about the structure from map information,
Program to function as.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014173005A JP6306985B2 (en) | 2014-08-27 | 2014-08-27 | Information processing system, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014173005A JP6306985B2 (en) | 2014-08-27 | 2014-08-27 | Information processing system, information processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016048192A true JP2016048192A (en) | 2016-04-07 |
JP6306985B2 JP6306985B2 (en) | 2018-04-04 |
Family
ID=55649182
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014173005A Active JP6306985B2 (en) | 2014-08-27 | 2014-08-27 | Information processing system, information processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6306985B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019164001A (en) * | 2018-03-19 | 2019-09-26 | 株式会社Lifull | Information provision system, server device, terminal program, and information provision method |
WO2022029894A1 (en) * | 2020-08-04 | 2022-02-10 | 日本電信電話株式会社 | Information processing device, information processing system, information processing method, and program |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023136239A (en) | 2022-03-16 | 2023-09-29 | 株式会社リコー | Information processing device, information processing system, supporting system, and information processing method |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002238080A (en) * | 2002-01-15 | 2002-08-23 | Fujitsu Ltd | User terminal |
JP2005037181A (en) * | 2003-07-17 | 2005-02-10 | Pioneer Electronic Corp | Navigation device, server, navigation system, and navigation method |
JP2005309948A (en) * | 2004-04-23 | 2005-11-04 | Yamaha Corp | Information providing device |
JP2011203984A (en) * | 2010-03-25 | 2011-10-13 | Soka Univ | Navigation device, navigation image generation method, and program |
JP2011220899A (en) * | 2010-04-12 | 2011-11-04 | Olympus Corp | Information presenting system |
-
2014
- 2014-08-27 JP JP2014173005A patent/JP6306985B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002238080A (en) * | 2002-01-15 | 2002-08-23 | Fujitsu Ltd | User terminal |
JP2005037181A (en) * | 2003-07-17 | 2005-02-10 | Pioneer Electronic Corp | Navigation device, server, navigation system, and navigation method |
JP2005309948A (en) * | 2004-04-23 | 2005-11-04 | Yamaha Corp | Information providing device |
JP2011203984A (en) * | 2010-03-25 | 2011-10-13 | Soka Univ | Navigation device, navigation image generation method, and program |
JP2011220899A (en) * | 2010-04-12 | 2011-11-04 | Olympus Corp | Information presenting system |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019164001A (en) * | 2018-03-19 | 2019-09-26 | 株式会社Lifull | Information provision system, server device, terminal program, and information provision method |
JP7144164B2 (en) | 2018-03-19 | 2022-09-29 | 株式会社Lifull | Information provision system, server device, and terminal program |
WO2022029894A1 (en) * | 2020-08-04 | 2022-02-10 | 日本電信電話株式会社 | Information processing device, information processing system, information processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP6306985B2 (en) | 2018-04-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10051453B2 (en) | Wearable and/or hand-held mobile electronic device and method for directional proximity detection | |
KR20160069370A (en) | Mobile terminal and control method for the mobile terminal | |
US9628947B2 (en) | Wearable map and image display | |
US20200318988A1 (en) | Methods, systems, and devices for displaying maps | |
EP2663839A2 (en) | Non-map-based mobile interface | |
JP2012002568A (en) | Navigation system, portable apparatus and program for portable apparatus | |
CN106164838B (en) | Information display method and information display terminal | |
US20150169780A1 (en) | Method and apparatus for utilizing sensor data for auto bookmarking of information | |
JP2016021169A (en) | Portable terminal for arranging virtual sound source at provision information position, voice presentation program, and voice presentation method | |
US11644320B2 (en) | Intersection-based routing | |
CN105737837B (en) | A kind of positioning navigation method, device and system | |
JP6306985B2 (en) | Information processing system, information processing method, and program | |
JP6481456B2 (en) | Display control method, display control program, and information processing apparatus | |
US10747490B2 (en) | Method and device for displaying an image transmitted from a wearable device | |
JP2016096513A (en) | Information processing system, information processing method, and program | |
JP6272484B2 (en) | Meeting support system, meeting support program, and meeting support method | |
US20160267344A1 (en) | Wearable smart device and method for redundant object identification | |
JP2016110296A (en) | Wearable device, information processing method, and program | |
JP2017102034A (en) | Wearable device, control method thereof, and program | |
JP6463529B1 (en) | Information processing apparatus, information processing method, and information processing program | |
JP2018067157A (en) | Communication device and control method thereof | |
JP6396155B2 (en) | Information processing system, information processing method, and program | |
JP6566854B2 (en) | Information processing apparatus, information processing apparatus control method, and program | |
JP2011220899A (en) | Information presenting system | |
US20230259328A1 (en) | Information provision system, method, and non-transitory computer-readable medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170324 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171226 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180130 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180219 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180309 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6306985 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |