JP2016048192A - Information processing system, information processing method, and program - Google Patents

Information processing system, information processing method, and program Download PDF

Info

Publication number
JP2016048192A
JP2016048192A JP2014173005A JP2014173005A JP2016048192A JP 2016048192 A JP2016048192 A JP 2016048192A JP 2014173005 A JP2014173005 A JP 2014173005A JP 2014173005 A JP2014173005 A JP 2014173005A JP 2016048192 A JP2016048192 A JP 2016048192A
Authority
JP
Japan
Prior art keywords
information
user
current location
angle
information acquisition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014173005A
Other languages
Japanese (ja)
Other versions
JP6306985B2 (en
Inventor
清貴 田中
Seiki Tanaka
清貴 田中
和明 石川
Kazuaki Ishikawa
和明 石川
紀子 中西
Noriko Nakanishi
紀子 中西
篤史 上西
Atsushi Uenishi
篤史 上西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zenrin Datacom Co Ltd
Original Assignee
Zenrin Datacom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zenrin Datacom Co Ltd filed Critical Zenrin Datacom Co Ltd
Priority to JP2014173005A priority Critical patent/JP6306985B2/en
Publication of JP2016048192A publication Critical patent/JP2016048192A/en
Application granted granted Critical
Publication of JP6306985B2 publication Critical patent/JP6306985B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a technology of achieving a beneficial function using information on a detected user behavior.SOLUTION: An information processing system acquires current location information of a user, acquires information on azimuth and elevation/depression angle of a line of sight of the user detected by a wearable device, identifies a structure of an object that the user views, by use of the current location information and the information on azimuth and elevation/depression angle, and acquires information on the structure from map information.SELECTED DRAWING: Figure 3

Description

本発明は、情報処理技術に関する。   The present invention relates to information processing technology.

近年、様々なウェアラブルデバイスが開発されている。ウェアラブルデバイスとは、ユーザが身体(例えば、腕や頭部)に装着して利用することが想定されたデバイスである。例えば、特許文献1には頭部に装着する眼鏡型のウェアラブルデバイスについて開示されている。   In recent years, various wearable devices have been developed. A wearable device is a device that is assumed to be worn by a user on a body (for example, an arm or a head). For example, Patent Document 1 discloses a glasses-type wearable device worn on the head.

特開2014−086905号公報JP 2014-086905 A

ウェアラブルデバイスは、ユーザの身体に装着されるため、ウェアラブルデバイスに備えるセンサを用いてユーザの動作を検知することも可能である。ウェアラブルデバイスのこのような特徴を利用した有益な機能を実現可能な技術が期待されている。   Since the wearable device is worn on the user's body, it is also possible to detect the user's movement using a sensor provided in the wearable device. A technology that can realize useful functions using such features of wearable devices is expected.

本発明は上記に鑑みてなされたものであり、その目的は、検知されたユーザの動作についての情報を利用した有益な機能を実現可能な技術を提供することにある。   The present invention has been made in view of the above, and an object of the present invention is to provide a technology capable of realizing a useful function using information about detected user actions.

本発明に係る情報処理システムは、ユーザの現在地情報を取得する現在地情報取得手段と、ウェアラブルデバイスにより検知された前記ユーザの視線の方位角及び仰俯角の情報を取得する角度情報取得手段と、前記現在地情報と、前記方位角及び仰俯角の情報とを用いて、前記ユーザの視認対象の構造物を特定し、当該構造物についての情報を地図情報から取得する注視点情報取得手段とを備える。   An information processing system according to the present invention includes current location information acquisition means for acquiring user's current location information, angle information acquisition means for acquiring information on the azimuth angle and elevation angle of the user's line of sight detected by a wearable device, It comprises gaze point information acquisition means for specifying a structure to be visually recognized by the user using current location information and information on the azimuth angle and elevation angle, and acquiring information about the structure from map information.

本発明に係る情報処理方法は、ユーザの現在地情報を取得する現在地情報取得ステップと、ウェアラブルデバイスにより検知された前記ユーザの視線の方位角及び仰俯角の情報を取得する角度情報取得ステップと、前記現在地情報と、前記方位角及び仰俯角の情報とを用いて、前記ユーザの視認対象の構造物を特定し、当該構造物についての情報を地図情報から取得する注視点情報取得ステップとを備える。   An information processing method according to the present invention includes a current location information acquisition step of acquiring user's current location information, an angle information acquisition step of acquiring information on an azimuth angle and an elevation angle of the user's line of sight detected by a wearable device, Using the present location information and the information on the azimuth angle and the elevation angle, it is possible to identify a structure to be visually recognized by the user, and to include a point-of-gaze information acquisition step of acquiring information about the structure from map information.

本発明に係るプログラムは、コンピュータを、ユーザの現在地情報を取得する現在地情報取得手段、ウェアラブルデバイスにより検知された前記ユーザの視線の方位角及び仰俯角の情報を取得する角度情報取得手段、前記現在地情報と、前記方位角及び仰俯角の情報とを用いて、前記ユーザの視認対象の構造物を特定し、当該構造物についての情報を地図情報から取得する注視点情報取得手段、として機能させる。   The program according to the present invention includes a computer, a current location information acquisition unit that acquires current location information of a user, an angle information acquisition unit that acquires information on an azimuth angle and an elevation angle of the user's line of sight detected by a wearable device, the current location Using the information and the information on the azimuth angle and the elevation angle, the structure to be visually recognized by the user is specified, and it functions as gaze information acquisition means for acquiring information about the structure from map information.

また、本発明のプログラムは、CD−ROM等の光学ディスク、磁気ディスク、半導体メモリなどの各種の記録媒体を通じて、又は通信ネットワークなどを介してダウンロードすることにより、コンピュータにインストール又はロードすることができる。   The program of the present invention can be installed or loaded on a computer through various recording media such as an optical disk such as a CD-ROM, a magnetic disk, and a semiconductor memory, or via a communication network. .

本発明によれば、検知されたユーザの動作についての情報を利用した有益な機能を実現可能な技術を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the technique which can implement | achieve the useful function using the information about the detected user's operation | movement can be provided.

一実施形態における情報処理システムのハードウェア構成を示す概念図である。It is a conceptual diagram which shows the hardware constitutions of the information processing system in one Embodiment. 一実施形態における眼鏡型デバイスの外観構成を示す図である。It is a figure which shows the external appearance structure of the spectacles type device in one Embodiment. 一実施形態におけるサーバ装置の機能構成を示す図である。It is a figure which shows the function structure of the server apparatus in one Embodiment. 一実施形態における推定注視点の特定方法を説明するための図である。It is a figure for demonstrating the specific method of the estimated attention point in one Embodiment. 一実施形態における推定注視点の特定方法を説明するための図である。It is a figure for demonstrating the specific method of the estimated attention point in one Embodiment. 一実施形態における眼鏡型デバイスの機能構成を示す図である。It is a figure which shows the function structure of the spectacles type device in one Embodiment. 一実施形態において表示部に表示される表示例を示す図である。It is a figure which shows the example of a display displayed on a display part in one Embodiment. サーバ装置により実行される処理の例を示すフローチャートである。It is a flowchart which shows the example of the process performed by the server apparatus. 眼鏡型デバイスにより実行される処理の例を示すフローチャートである。It is a flowchart which shows the example of the process performed by a spectacles type device.

以下、本発明の実施形態について、図面を参照しつつ詳細に説明する。ただし、発明の範囲をこれらに限定するものではない。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. However, the scope of the invention is not limited to these.

[ハードウェア構成]
図1を参照して、一実施形態に係る情報処理システムのハードウェア構成の例について説明する。情報処理システム1は、ウェアラブルデバイスを用いた各種のサービスを提供するためのシステムである。情報処理システム1は、サーバ装置10、眼鏡型デバイス20及び携帯端末30を主に含む。眼鏡型デバイス20及び携帯端末30は、ネットワークNを介してサーバ装置10と相互に通信することができる。また、眼鏡型デバイス20は、携帯端末30と(例えば、Bluetooth(登録商標)やWi−Fi(登録商標)等により)相互に通信することができる。情報処理システム1は、例えば、ウェアラブルデバイスである眼鏡型デバイス20を装着し、かつ、携帯端末30を携帯するユーザに対して、地図情報に基づく各種の情報提供サービスを行うことができる。
[Hardware configuration]
With reference to FIG. 1, an example of a hardware configuration of an information processing system according to an embodiment will be described. The information processing system 1 is a system for providing various services using wearable devices. The information processing system 1 mainly includes a server device 10, a glasses-type device 20, and a mobile terminal 30. The glasses-type device 20 and the portable terminal 30 can communicate with the server apparatus 10 via the network N. The eyeglass-type device 20 can communicate with the mobile terminal 30 (for example, via Bluetooth (registered trademark) or Wi-Fi (registered trademark)). For example, the information processing system 1 can provide various information providing services based on map information to a user who wears the glasses-type device 20 that is a wearable device and carries the mobile terminal 30.

ネットワークNは、サーバ装置10と、眼鏡型デバイス20及び携帯端末30との間で情報を送受信するための通信回線である。ネットワークNは、例えば、インターネット、LAN、専用線、パケット通信網、電話回線、企業内ネットワーク、その他の通信回線、それらの組み合わせ等のいずれであってもよく、有線であるか無線であるか(もしくはこれらの組み合わせであるか)を問わない。   The network N is a communication line for transmitting and receiving information between the server apparatus 10 and the glasses-type device 20 and the mobile terminal 30. The network N may be, for example, the Internet, a LAN, a dedicated line, a packet communication network, a telephone line, a corporate network, another communication line, a combination thereof, or the like, and is wired or wireless ( Or any combination thereof).

サーバ装置10は、専用又は汎用のサーバ・コンピュータなどの情報処理装置により構成される。なお、サーバ装置10は、単一の情報処理装置より構成されるものであっても、ネットワーク上に分散した複数の情報処理装置より構成されるものであってもよい。   The server device 10 is constituted by an information processing device such as a dedicated or general-purpose server computer. The server device 10 may be constituted by a single information processing device or may be constituted by a plurality of information processing devices distributed on a network.

また、サーバ装置10は、制御部11、通信部12、及び記憶部13を主に備える。制御部11は、CPU(Central Processing Unit)11a及びメモリ11bを主に備えて構成される。各構成の説明は後述する。サーバ装置10は、例えば、CPU11aがメモリ11b等に格納された所定のプログラムを実行することにより、各種の機能実現手段として機能する。なお、図1には、サーバ装置10が備える主要な構成が示されているにすぎず、サーバ装置10は、一般的な情報処理装置が備える他の構成も備える。   The server device 10 mainly includes a control unit 11, a communication unit 12, and a storage unit 13. The control unit 11 mainly includes a CPU (Central Processing Unit) 11a and a memory 11b. The description of each configuration will be described later. For example, the server device 10 functions as various function implementing means by the CPU 11a executing a predetermined program stored in the memory 11b or the like. Note that FIG. 1 only shows a main configuration included in the server apparatus 10, and the server apparatus 10 includes other configurations included in a general information processing apparatus.

眼鏡型デバイス20は、眼鏡型の形状のウェアラブルデバイスである。ウェアラブルデバイスとは、ユーザが身体(例えば、腕や頭部)に装着して利用することが想定されたデバイス(情報処理装置)である。すなわち、眼鏡型デバイス20は眼鏡型の形状であるため、ユーザは、眼鏡をかけるように眼鏡型デバイス20を頭部に装着して利用することができる。眼鏡型デバイス20は、制御部21、通信部22、記憶部23、操作部24、表示部25、カメラ26、センサ27、及びマイク28を主に備えて構成される。制御部21は、CPU21a及びメモリ21bを主に備えて構成される。眼鏡型デバイス20は、例えば、CPU21aがメモリ21b等に格納された所定のプログラムを実行することにより、各種の機能実現手段として機能する。なお、ユーザは眼鏡型デバイス20の装着時に結果として眼鏡型デバイス20に備えるこれらの構成のそれぞれも装着することになるため、これらの構成のそれぞれも狭義のウェアラブルデバイスとみなすことができる。これらの各構成の説明は後述する。   The spectacle-type device 20 is a wearable device having a spectacle-type shape. The wearable device is a device (information processing apparatus) that is assumed to be used by being worn on the body (for example, an arm or a head) by a user. That is, since the spectacle-type device 20 has a spectacle-type shape, the user can use the spectacle-type device 20 while wearing the spectacle-type device 20 on the head like wearing spectacles. The eyeglass-type device 20 mainly includes a control unit 21, a communication unit 22, a storage unit 23, an operation unit 24, a display unit 25, a camera 26, a sensor 27, and a microphone 28. The control unit 21 mainly includes a CPU 21a and a memory 21b. For example, the glasses-type device 20 functions as various function realizing means when the CPU 21a executes a predetermined program stored in the memory 21b or the like. Since the user wears each of these configurations included in the glasses-type device 20 as a result when wearing the glasses-type device 20, each of these configurations can be regarded as a wearable device in a narrow sense. Each of these components will be described later.

図2は、眼鏡型デバイス20の外観の例を示している。同図の例では、眼鏡型デバイス20は外観上、操作部24、表示部25及びカメラ26を備えることが示されている。操作部24は、眼鏡型デバイス20の外側部に位置する。ユーザは操作部24をスワイプ、タップ等をすることによって、眼鏡型デバイス20に対して操作指示を行うことができる。表示部25は、眼鏡型デバイス20を装着したユーザがプリズムなどにより表示内容を視認可能な位置に設置されるように構成される。カメラ26は、眼鏡型デバイス20を装着したユーザの視線方向に向けられ、当該ユーザが見ていると推定されるもの(推定注視点に存在するもの)を撮像/撮影可能な位置に設置されるように構成される。   FIG. 2 shows an example of the external appearance of the eyeglass-type device 20. In the example of the figure, it is shown that the glasses-type device 20 includes an operation unit 24, a display unit 25, and a camera 26 in appearance. The operation unit 24 is located on the outer side of the eyeglass-type device 20. The user can issue an operation instruction to the glasses-type device 20 by swiping or tapping the operation unit 24. The display unit 25 is configured to be installed at a position where a user wearing the spectacle-type device 20 can visually recognize display contents by a prism or the like. The camera 26 is directed in the direction of the line of sight of the user wearing the spectacle-type device 20, and is installed at a position where it is possible to capture / capture what is estimated to be viewed by the user (present at the estimated gaze point). Configured as follows.

図1の説明にもどる。携帯端末30は、例えば、携帯電話機(スマートフォンを含む)、タブレット端末、PDA(Personal Digital Assistants)、ナビゲーション装置、パーソナルコンピュータなどの携帯可能な情報処理装置である。携帯端末30は、制御部31、通信部32、記憶部33、操作部34、表示部35及び測位部36を主に備えて構成される。制御部31は、CPU31a及びメモリ31bを主に備えて構成される。各構成の説明は後述する。携帯端末30は、例えば、CPU31aがメモリ31b等に格納された所定のプログラムを実行することにより、各種の機能実現手段として機能する。   Returning to the description of FIG. The mobile terminal 30 is a portable information processing device such as a mobile phone (including a smartphone), a tablet terminal, a PDA (Personal Digital Assistants), a navigation device, and a personal computer. The portable terminal 30 mainly includes a control unit 31, a communication unit 32, a storage unit 33, an operation unit 34, a display unit 35, and a positioning unit 36. The control unit 31 mainly includes a CPU 31a and a memory 31b. The description of each configuration will be described later. For example, the portable terminal 30 functions as various function realizing means by the CPU 31a executing a predetermined program stored in the memory 31b or the like.

制御部11,21,31は、これらを備える各情報処理装置の各種構成の動作を制御し、また、各種処理の実行を制御する。制御部11,21,31において実行される処理の詳細は後述する。通信部12,22,32は、他の情報処理装置と通信するための通信インタフェースである。記憶部13,23,33は、ハードディスク等の記憶装置によって構成される。記憶部13,23,33は、各情報処理装置における処理の実行に必要な各種プログラムや各種の情報を記憶する。操作部24,34は、ユーザからの操作指示を受け付けるためのユーザインタフェースである。表示部25,35は、各情報処理装置による処理結果を表示するためのユーザインタフェースである。   The control units 11, 21, 31 control operations of various configurations of the information processing apparatuses including these, and control execution of various processes. Details of processing executed in the control units 11, 21, 31 will be described later. The communication units 12, 22, and 32 are communication interfaces for communicating with other information processing apparatuses. The storage units 13, 23, and 33 are configured by a storage device such as a hard disk. The storage units 13, 23, and 33 store various programs and various information necessary for executing processing in each information processing apparatus. The operation units 24 and 34 are user interfaces for receiving operation instructions from the user. The display units 25 and 35 are user interfaces for displaying the processing results by each information processing apparatus.

カメラ26は、静止画/動画を撮影/撮像可能な装置である。
センサ27は、各種のセンサにより構成される。センサ27は、例えば、ジャイロセンサ、加速度センサ、地磁気センサ、及び/又はイメージセンサ等を含むことができる。センサ27により、例えば、眼鏡型デバイス20を装着しているユーザの顔が向いている方向に基づいて当該ユーザの視線の方向の方位角(基準となる方位との間の水平方向の角度)の推定値を検知することや、当該ユーザの頭部の傾きに基づいて当該ユーザの視線の方向の仰俯角(水平を基準とした上下方向の角度)の推定値を検知することができる。なお、センサ27は、ユーザの眼球の動きから当該ユーザの視線方向の方位角及び仰俯角の推定値を検知できるようにしてもよい。また、センサ27は、眼鏡型デバイス20を装着するユーザの瞼の動きに基づいて瞬きを検知することもできる。
マイク28は、眼鏡型デバイス20を装着するユーザが発する声/音を電気信号に変換する装置である。
The camera 26 is a device that can capture / capture still images / moving images.
The sensor 27 is composed of various sensors. The sensor 27 can include, for example, a gyro sensor, an acceleration sensor, a geomagnetic sensor, and / or an image sensor. By the sensor 27, for example, based on the direction in which the face of the user wearing the spectacle-type device 20 is facing, the azimuth of the direction of the line of sight of the user (the angle in the horizontal direction between the reference azimuth) An estimated value can be detected, or an estimated value of an elevation angle (an angle in the vertical direction with respect to the horizontal) in the direction of the user's line of sight can be detected based on the inclination of the user's head. The sensor 27 may be configured to detect the estimated values of the azimuth angle and the elevation angle in the user's line-of-sight direction from the movement of the user's eyeball. The sensor 27 can also detect blinking based on the movement of the eyelid of the user wearing the glasses-type device 20.
The microphone 28 is a device that converts voice / sound produced by a user wearing the glasses-type device 20 into an electrical signal.

測位部36は、GPS衛星や通信機器(例えば基地局)から受信した信号に基づいて、携帯端末30の位置(例えば、緯度、経度)を特定し、当該位置を特定した日時を特定する(測位情報を特定する)処理を行う。   The positioning unit 36 specifies the position (for example, latitude and longitude) of the mobile terminal 30 based on a signal received from a GPS satellite or a communication device (for example, a base station), and specifies the date and time when the position is specified (positioning). Process to identify information).

以上のように本実施形態において、情報処理システム1は、サーバ装置10、眼鏡型デバイス20及び携帯端末30を含むがこれに限定せず、任意の装置を含むことができる。また、サーバ装置10、眼鏡型デバイス20及び携帯端末30が有する構成の一部又は全部を有する構成を情報処理システムとして把握することもできる。例えば、眼鏡型デバイス20が有する構成の一部を情報処理システムとして把握することができるし、眼鏡型デバイス20が有する構成の一部と、携帯端末30が有する構成の一部とを組み合わせた構成を情報処理システムとして把握することができる。   As described above, in the present embodiment, the information processing system 1 includes the server device 10, the glasses-type device 20, and the mobile terminal 30, but is not limited thereto, and can include any device. In addition, a configuration having a part or all of the configurations of the server device 10, the glasses-type device 20, and the mobile terminal 30 can be grasped as an information processing system. For example, a part of the configuration of the glasses-type device 20 can be grasped as an information processing system, and a configuration in which a part of the configuration of the glasses-type device 20 and a part of the configuration of the portable terminal 30 are combined. Can be grasped as an information processing system.

[機能構成]
図3を参照して、サーバ装置10の一実施形態における機能構成について説明する。サーバ装置10は、主な機能構成として、現在地情報取得部111、角度情報取得部112、注視点情報取得部113、経路探索部114及びデータベース120を備える。以下に各機能構成の詳細を説明する。
[Function configuration]
With reference to FIG. 3, a functional configuration in one embodiment of the server device 10 will be described. The server device 10 includes a current location information acquisition unit 111, an angle information acquisition unit 112, a gazing point information acquisition unit 113, a route search unit 114, and a database 120 as main functional configurations. Details of each functional configuration will be described below.

データベース120は、サーバ装置10において実行される処理に必要な情報、及び当該処理により生成された情報など、各種情報を記憶する。データベース120は、例えば、地図情報及び施設情報を記憶している。地図情報は、道路情報、鉄道路線情報、建造物情報、地形情報、住所情報、及びその他の地理情報などを含む。施設情報は、例えば、コンビニエンスストア、カフェ、駅、ファーストフード、レストラン、建物(ビル)などの施設についての情報を含む。また、施設情報は、当該施設で扱っている商品及び/又はサービスについての情報を含む。さらに、施設情報は、地図情報と関連付けられた各施設の位置の情報を含む。なお、施設情報は、地図情報に含まれる情報としてもよい。   The database 120 stores various types of information such as information necessary for processing executed in the server device 10 and information generated by the processing. The database 120 stores, for example, map information and facility information. The map information includes road information, railway line information, building information, terrain information, address information, and other geographical information. The facility information includes information about facilities such as convenience stores, cafes, stations, fast food, restaurants, buildings (buildings), and the like. The facility information includes information on products and / or services handled at the facility. Furthermore, the facility information includes information on the position of each facility associated with the map information. The facility information may be information included in the map information.

現在地情報取得部111は、眼鏡型デバイス20を装着し、かつ、携帯端末30を携帯するユーザの現在地情報を携帯端末30から(もしくは携帯端末30から眼鏡型デバイス20を介して)取得する。なお、当該ユーザの現在地情報は、携帯端末30の測位部36の測位処理に基づいて得られた情報である。   The current location information acquisition unit 111 acquires the current location information of the user wearing the glasses-type device 20 and carrying the portable terminal 30 from the portable terminal 30 (or from the portable terminal 30 via the glasses-type device 20). Note that the current location information of the user is information obtained based on the positioning process of the positioning unit 36 of the mobile terminal 30.

角度情報取得部112は、眼鏡型デバイス20を装着し、かつ、携帯端末30を携帯するユーザの視線の方位角及び仰俯角の情報を眼鏡型デバイス20から(もしくは眼鏡型デバイス20から携帯端末30を介して)取得する。なお、当該方位角及び仰俯角の情報は、後述するように、眼鏡型デバイス20のセンサ27の処理に基づいて得られた情報である。   The angle information acquisition unit 112 wears the glasses-type device 20 and obtains information on the azimuth and elevation angles of the line of sight of the user who carries the portable terminal 30 from the glasses-type device 20 (or from the glasses-type device 20 to the portable terminal 30). To get through). Note that the information on the azimuth angle and the elevation angle is information obtained based on processing of the sensor 27 of the eyeglass-type device 20, as will be described later.

注視点情報取得部113は、データベース120を参照して、現在地情報取得部111により取得された前述のユーザの現在地情報と、角度情報取得部112により取得された前述のユーザの視線の方位角及び仰俯角の情報とを用いて、当該ユーザの視認対象の構造物(施設などのオブジェクト)を特定し、当該構造物における推定注視点を特定する。注視点情報取得部113は、特定された構造物についての情報や、当該推定注視点の位置についての情報を地図情報から取得する。推定注視点の位置についての情報には、特定された構造物(施設などのオブジェクト)の種別(例えば、雑居ビル、駅、飲食店、山など)、名称及び位置(住所)の情報を含む。また、特定された構造物がビルなどの建築物であり、当該ビルのフロアごとに1つ又は複数の施設が含まれている場合、推定注視点の位置についての情報には、当該推定注視点の位置に対応するフロアについての情報(例えば、当該フロアの階数や、当該フロアに存在する1つ又は複数の施設の情報を含む)、又は当該推定注視点の位置に存在する1つの施設の情報が含まれる。特定された推定注視点の位置についての情報は、眼鏡型デバイス20に送信される。   The gazing point information acquisition unit 113 refers to the database 120, the current location information of the user acquired by the current location information acquisition unit 111, the azimuth angle of the user's line of sight acquired by the angle information acquisition unit 112, and Using the information on the elevation angle, the structure (object such as a facility) to be visually recognized by the user is specified, and the estimated gazing point in the structure is specified. The gazing point information acquisition unit 113 acquires information about the specified structure and information about the position of the estimated gazing point from the map information. The information about the position of the estimated gazing point includes information on the type of the specified structure (object such as a facility) (for example, a multi-purpose building, a station, a restaurant, a mountain, etc.), a name, and a position (address). In addition, when the specified structure is a building such as a building and one or more facilities are included in each floor of the building, the information on the position of the estimated gaze point includes the estimated gaze point. Information about the floor corresponding to the position of the floor (for example, including the number of floors of the floor and information of one or more facilities existing on the floor), or information on one facility existing at the position of the estimated gaze point Is included. Information about the position of the identified estimated gaze point is transmitted to the eyeglass-type device 20.

図4及び図5を参照して、ユーザの推定注視点の位置についての情報の取得方法の例について説明する。図4及び図5は、眼鏡型デバイス20を装着し、かつ、携帯端末30を携帯するユーザAと、構造物(例えば、ビル)Bとを示している。注視点情報取得部113は、ユーザAの現在地情報と、ユーザAの視線の方位角a(この例では北を基準方位としたときの方位角)及び仰俯角bの情報と、地図情報とを用いて、ユーザAの現在地からユーザAの視線方向に存在するオブジェクト(ユーザの視認対象のオブジェクト)を特定する。また、注視点情報取得部113は、特定されたオブジェクトにおいて、ユーザAの視線の方位角及び仰俯角に対応する位置を推定注視点として特定する。この例では、注視点情報取得部113は、推定注視点として、点Cを特定する。なお、推定注視点が示す対象は、点に限られず、任意の大きさ及び形状の領域(例えば、半径1mの円形領域、10m四方の矩形領域など)を含むものとする。注視点情報取得部113は、特定された推定注視点の位置についての情報をデータベース120から取得する。   With reference to FIG.4 and FIG.5, the example of the acquisition method of the information about the position of an estimated gaze point of a user is demonstrated. 4 and 5 show a user A wearing the glasses-type device 20 and carrying the portable terminal 30 and a structure (for example, a building) B. FIG. The point-of-gaze information acquisition unit 113 includes the current location information of the user A, the azimuth angle a of the line of sight of the user A (in this example, the azimuth angle when the north is the reference azimuth), the elevation angle b, and the map information. By using this, an object (an object to be visually recognized by the user) existing from the current location of the user A in the user A's line-of-sight direction is specified. In addition, the gazing point information acquisition unit 113 identifies, as the estimated gazing point, a position corresponding to the azimuth angle and the elevation angle of the line of sight of the user A in the identified object. In this example, the gazing point information acquisition unit 113 specifies the point C as the estimated gazing point. The target indicated by the estimated gazing point is not limited to a point, but includes an area having an arbitrary size and shape (for example, a circular area having a radius of 1 m, a rectangular area having 10 m square, etc.). The gaze point information acquisition unit 113 acquires information about the position of the specified estimated gaze point from the database 120.

以上のように、本実施形態によれば、ユーザが頭部を動かしたときに、ウェアラブルデバイス(例えば、眼鏡型デバイス20又はセンサ27)により検知された、ユーザの視線が向いている方向の方位角及び仰俯角の情報を用いて、当該ユーザの推定注視点の位置についての情報を取得することができる。すなわち、ウェアラブルデバイスにより検知されたユーザの動作についての情報を利用して有益な機能を実現することができる。特に、ユーザの視線の仰俯角の情報を用いてオブジェクトを特定するため、ユーザが見上げなければ視認できないようなオブジェクト(例えば、ユーザの目の前にある建物の裏側にあるオブジェクトで、ユーザが視線を上げたときに当該建物の上部からのみ見えるようなオブジェクト)を特定することができる。   As described above, according to the present embodiment, the orientation of the direction in which the user's line of sight is detected by the wearable device (for example, the eyeglass-type device 20 or the sensor 27) when the user moves the head. Information on the position of the estimated gaze point of the user can be acquired using the information on the angle and the elevation angle. In other words, a useful function can be realized by using information about the user's operation detected by the wearable device. In particular, since the object is identified by using the elevation angle information of the user's line of sight, an object that cannot be seen unless the user looks up (for example, an object on the back side of a building in front of the user, It is possible to specify an object that can be seen only from the upper part of the building.

図3の説明に戻る。経路探索部114は、指定された位置(例えば、眼鏡型デバイス20を装着するユーザの現在地)を出発地とし、注視点情報取得部113により特定された推定注視点の位置を目的地として、経路探索の処理を行う。探索された経路についての情報は、眼鏡型デバイス20に送信される。   Returning to the description of FIG. The route search unit 114 uses the specified position (for example, the current location of the user wearing the glasses-type device 20) as the departure point, and uses the position of the estimated gazing point specified by the gazing point information acquisition unit 113 as the destination. Perform search processing. Information about the searched route is transmitted to the eyeglass-type device 20.

図6を参照して、一実施形態に係る眼鏡型デバイス20の機能構成の例を説明する。眼鏡型デバイス20は、主な機能構成として、現在地情報取得部211、角度情報取得部212、注視点情報取得部213、アクション検知部214、音声認識部215、及び表示制御部216を備える。以下に各機能構成の詳細を説明する。   With reference to FIG. 6, the example of a function structure of the spectacles type device 20 which concerns on one Embodiment is demonstrated. The glasses-type device 20 includes a current location information acquisition unit 211, an angle information acquisition unit 212, a gazing point information acquisition unit 213, an action detection unit 214, a voice recognition unit 215, and a display control unit 216 as main functional configurations. Details of each functional configuration will be described below.

現在地情報取得部211は、携帯端末30により特定された現在地情報を携帯端末30から取得する。取得された現在地情報は、サーバ装置10に送信される。なお、現在地情報は、携帯端末30から取得することとしているが、これに限定されず、眼鏡型デバイス20が測位処理部を備え、測位処理を行うことによって、現在地情報を特定してもよい。   The current location information acquisition unit 211 acquires current location information specified by the mobile terminal 30 from the mobile terminal 30. The acquired current location information is transmitted to the server device 10. Note that the current location information is acquired from the mobile terminal 30, but the present location information is not limited to this, and the current location information may be specified by the eyeglass-type device 20 including a positioning processing unit and performing a positioning process.

角度情報取得部212は、センサ27による検知結果に基づいて、眼鏡型デバイス20を装着しているユーザの顔が向いている方向の方位角及び仰俯角を特定する。角度情報取得部212は、当該方位角及び仰俯角に基づいて当該ユーザの視線の方向の方位角及び仰俯角の推定値を角度情報として特定する。特定された角度情報は、サーバ装置10に送信される。なお、ユーザは、ウェアラブルデバイスである眼鏡型デバイス20の装着時に結果として眼鏡型デバイス20に備えるセンサ27も装着することになるため、センサ27もウェアラブルデバイスとみなすことができる。   The angle information acquisition unit 212 identifies the azimuth angle and the elevation angle in the direction in which the face of the user wearing the eyeglass device 20 is facing based on the detection result of the sensor 27. The angle information acquisition unit 212 identifies the estimated values of the azimuth angle and the elevation angle in the direction of the user's line of sight as angle information based on the azimuth angle and the elevation angle. The specified angle information is transmitted to the server device 10. Note that the user wears the sensor 27 included in the glasses-type device 20 as a result of wearing the glasses-type device 20 that is a wearable device, and thus the sensor 27 can also be regarded as a wearable device.

注視点情報取得部213は、サーバ装置10により特定された(眼鏡型デバイス20を装着し、かつ、携帯端末30を携帯するユーザの)推定注視点の位置についての情報をサーバ装置10の地図情報から取得する。なお、推定注視点の位置についての情報は、サーバ装置10により特定されることとしているが、これに限定されず、注視点情報取得部213が推定注視点の位置についての情報を特定する処理を行ってもよい。すなわち、注視点情報取得部213が、現在地情報取得部211により取得された現在地情報と、角度情報取得部212により特定された角度情報と、サーバ装置10から取得された地図情報とに基づいて、前述した処理と同様の処理により、推定注視点の位置についての情報を特定することができる。   The gazing point information acquisition unit 213 obtains information about the position of the estimated gazing point specified by the server device 10 (for a user wearing the spectacle-type device 20 and carrying the mobile terminal 30) as map information of the server device 10 Get from. In addition, although the information about the position of the estimated gazing point is specified by the server device 10, the present invention is not limited to this, and the gazing point information acquisition unit 213 performs a process of specifying information about the position of the estimated gazing point. You may go. That is, the gazing point information acquisition unit 213 is based on the current location information acquired by the current location information acquisition unit 211, the angle information specified by the angle information acquisition unit 212, and the map information acquired from the server device 10. Information on the position of the estimated gazing point can be specified by the same process as described above.

アクション検知部214は、操作部24への入力の他、眼鏡型デバイス20のユーザの所定のアクションを検知する。所定のアクションには、例えば、ユーザの瞬きや、ユーザが眼鏡型デバイス20の正面で所定の手の動きをすることなどが含まれる。これらの所定のアクションの検知の方法は、任意の方法を用いることができ、例えば、従来の検知技術を用いることができる。   The action detection unit 214 detects a predetermined action of the user of the eyeglass-type device 20 in addition to the input to the operation unit 24. The predetermined action includes, for example, the blinking of the user or the movement of the predetermined hand by the user in front of the glasses-type device 20. An arbitrary method can be used as a method for detecting these predetermined actions, and for example, a conventional detection technique can be used.

音声認識部215は、眼鏡型デバイス20のユーザが発した音声を認識し、ユーザからの操作指示を特定する。   The voice recognition unit 215 recognizes a voice uttered by the user of the eyeglass-type device 20 and specifies an operation instruction from the user.

表示制御部216は、眼鏡型デバイス20による処理結果の情報や、外部装置から受信した情報(例えば、現在地情報や、推定注視点の位置についての情報)など、各種の情報を表示部25(すなわち、眼鏡型デバイス20のユーザの目の近傍に位置するモニタ)に表示するように制御する。また、表示制御部216は、操作部24を介したユーザによる所定の操作や、アクション検知部214により所定のアクションが検知されたことに応じて、注視点情報取得部213により取得された推定注視点の位置についての情報を表示部25に表示するように制御することができる。   The display control unit 216 displays various types of information such as information on processing results by the eyeglass-type device 20 and information received from an external device (for example, current location information and information on the position of the estimated gazing point) on the display unit 25 (that is, Control is performed so as to display on a monitor located near the eyes of the user of the eyeglass-type device 20. In addition, the display control unit 216 estimates the estimated note acquired by the gazing point information acquisition unit 213 in response to a predetermined operation by the user via the operation unit 24 or a predetermined action detected by the action detection unit 214. It is possible to control to display information on the position of the viewpoint on the display unit 25.

図7には、表示制御部216による制御の結果、表示部25に表示された推定注視点の位置についての情報の例が示されている。この例において、表示部25に表示された推定注視点の位置についての情報は、施設の種別、施設の名称、施設において取り扱っている商品(取扱い商品)につていの情報が含まれている。   FIG. 7 shows an example of information about the position of the estimated gazing point displayed on the display unit 25 as a result of the control by the display control unit 216. In this example, the information about the position of the estimated point of gaze displayed on the display unit 25 includes information on the type of facility, the name of the facility, and the product (handled product) handled in the facility.

以上のように、本実施形態によれば、ウェアラブルデバイス(例えば、眼鏡型デバイス20又はセンサ27)により検知された、ユーザが頭部を動かしたときにユーザの視線が向いている方向の方位角及び仰俯角の情報を用いて、当該ユーザの推定注視点の位置についての情報を取得すること、また、当該情報をユーザの目の近傍に位置するモニタに表示することができる。すなわち、ウェアラブルデバイスにより検知されたユーザの動作についての情報を利用して有益な機能を実現することができる。   As described above, according to the present embodiment, the azimuth angle in the direction in which the user's line of sight is detected when the user moves the head, detected by the wearable device (for example, the eyeglass-type device 20 or the sensor 27). And information about the position of the estimated gaze point of the user can be acquired using the information of the elevation angle and the information can be displayed on a monitor located in the vicinity of the user's eyes. In other words, a useful function can be realized by using information about the user's operation detected by the wearable device.

[処理フロー]
次に、サーバ装置10及び眼鏡型デバイス20において実行される処理のフローを説明する。なお、以下に説明する処理フローに含まれる各処理ステップは、処理内容に矛盾を生じない範囲で、任意に順番を変更して又は並列に実行することができるとともに、各処理ステップ間に他のステップを追加してもよい。また、便宜上1ステップとして記載されているステップは、複数ステップに分けて実行することができる一方、便宜上複数ステップに分けて記載されているものは、1ステップとして把握することができる。なお、各処理ステップの処理の詳細は、既に説明しているためここでは省略する。
[Processing flow]
Next, a flow of processing executed in the server device 10 and the eyeglass device 20 will be described. Each processing step included in the processing flow described below can be executed in any order or in parallel as long as there is no contradiction in the processing contents. Steps may be added. Further, a step described as one step for convenience can be executed by being divided into a plurality of steps, while a step described as being divided into a plurality of steps for convenience can be grasped as one step. Note that details of the processing of each processing step have already been described, and are omitted here.

まず、図8を参照して、サーバ装置10において実行される処理のフローを説明する。
ステップS11において、制御部11は、眼鏡型デバイス20を装着し、かつ、携帯端末30を携帯するユーザの現在地情報を携帯端末30から(もしくは携帯端末30から眼鏡型デバイス20を介して)取得する。
First, the flow of processing executed in the server device 10 will be described with reference to FIG.
In step S <b> 11, the control unit 11 acquires the current location information of the user wearing the glasses-type device 20 and carrying the portable terminal 30 from the portable terminal 30 (or from the portable terminal 30 via the glasses-type device 20). .

ステップS12において、制御部11は、眼鏡型デバイス20を装着し、かつ、携帯端末30を携帯するユーザの視線の方位角及び仰俯角の情報を眼鏡型デバイス20から(もしくは眼鏡型デバイス20から携帯端末30を介して)取得する。   In step S <b> 12, the control unit 11 wears the glasses-type device 20 and carries information on the azimuth and elevation angles of the line of sight of the user carrying the mobile terminal 30 from the glasses-type device 20 (or from the glasses-type device 20). Via terminal 30).

ステップS13において、制御部11は、データベース120を参照して、ステップS11において取得された前述のユーザの現在地情報と、ステップS12において取得された前述のユーザの視線の方位角及び仰俯角の情報とを用いて、当該ユーザの視認対象の構造物(施設などのオブジェクト)を特定し、当該構造物における推定注視点を特定する。さらに、制御部11は、特定された構造物についての情報や、当該推定注視点の位置についての情報を地図情報から取得する。   In step S13, the control unit 11 refers to the database 120, and the information on the current location of the user acquired in step S11 and the information on the azimuth and elevation angles of the user's line of sight acquired in step S12. Is used to identify the structure (object such as a facility) that is to be visually recognized by the user, and the estimated gaze point in the structure is identified. Furthermore, the control part 11 acquires the information about the identified structure and the information about the position of the estimated gaze point from the map information.

ステップS14において、制御部11は、ステップS13で取得した推定注視点の位置についての情報を眼鏡型デバイス20に送信する。   In step S <b> 14, the control unit 11 transmits information about the position of the estimated gazing point acquired in step S <b> 13 to the glasses-type device 20.

次に、図9を参照して、眼鏡型デバイス20において実行される処理のフローを説明する。
ステップS21において、制御部21は、携帯端末30により特定されたユーザの現在地情報を携帯端末30から取得する。取得された現在地情報は、サーバ装置10に送信される。
Next, with reference to FIG. 9, the flow of processing executed in the eyeglass-type device 20 will be described.
In step S <b> 21, the control unit 21 acquires the current location information of the user specified by the mobile terminal 30 from the mobile terminal 30. The acquired current location information is transmitted to the server device 10.

ステップS22において、制御部21は、センサ27による検知結果に基づいて、眼鏡型デバイス20を装着しているユーザの顔が向いている方向の方位角及び仰俯角を特定する。角度情報取得部212は、当該方位角及び仰俯角に基づいて当該ユーザの視線の方向の方位角及び仰俯角の推定値を角度情報として特定する。特定された角度情報は、サーバ装置10に送信される。   In step S <b> 22, the control unit 21 specifies the azimuth angle and the elevation angle in the direction in which the face of the user wearing the eyeglass device 20 is facing based on the detection result by the sensor 27. The angle information acquisition unit 212 identifies the estimated values of the azimuth angle and the elevation angle in the direction of the user's line of sight as angle information based on the azimuth angle and the elevation angle. The specified angle information is transmitted to the server device 10.

ステップS23において、制御部21は、サーバ装置10により特定された(眼鏡型デバイス20を装着し、かつ、携帯端末30を携帯するユーザの)推定注視点の位置についての情報をサーバ装置10の地図情報からネットワークNを介して取得する。   In step S <b> 23, the control unit 21 obtains information about the position of the estimated gazing point (of the user wearing the eyeglass device 20 and carrying the mobile terminal 30) specified by the server device 10 on the map of the server device 10. Obtained from the information via the network N.

ステップS24において、センサ27により所定のアクションが検知されたことに応じて、ステップS23において取得された推定注視点の位置についての情報を表示部25に表示する。   In step S24, in response to the detection of a predetermined action by the sensor 27, information on the position of the estimated gazing point acquired in step S23 is displayed on the display unit 25.

以上のように、本実施形態によれば、ウェアラブルデバイス(例えば、眼鏡型デバイス20又はセンサ27)により検知された、ユーザが頭部を動かしたときにユーザの視線が向いている方向の方位角及び仰俯角の情報を用いて、当該ユーザの推定注視点の位置についての情報を取得すること、また、当該情報をユーザの目の近傍に位置するモニタに表示することができる。すなわち、ウェアラブルデバイスにより検知されたユーザの動作についての情報を利用して有益な機能を実現することができる。   As described above, according to the present embodiment, the azimuth angle in the direction in which the user's line of sight is detected when the user moves the head, detected by the wearable device (for example, the eyeglass-type device 20 or the sensor 27). And information about the position of the estimated gaze point of the user can be acquired using the information of the elevation angle and the information can be displayed on a monitor located in the vicinity of the user's eyes. In other words, a useful function can be realized by using information about the user's operation detected by the wearable device.

[その他の実施形態]
本発明は、上記した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において、他の様々な形で実施することができる。上記実施形態はあらゆる点で単なる例示にすぎず、限定的に解釈されるものではない。
[Other Embodiments]
The present invention is not limited to the above-described embodiment, and can be implemented in various other forms without departing from the gist of the present invention. The above-described embodiment is merely an example in all respects, and is not construed as limiting.

例えば、上記の実施形態において、推定注視点の特定は、サーバ装置10又は眼鏡型デバイス20で行うこととしたが、これに限定されず、携帯端末30で行うことにしてもよい。具体的には、携帯端末30は、ユーザの現在地情報を測位部36により特定し、ユーザの視線の方位角及び仰俯角の情報を角度情報として眼鏡型デバイス20から取得し、当該現在地情報及び角度情報を用いて、上述した方法により推定注視点を特定することができる。   For example, in the above embodiment, the estimated gazing point is specified by the server device 10 or the spectacle-type device 20, but the present invention is not limited to this and may be performed by the mobile terminal 30. Specifically, the mobile terminal 30 specifies the current location information of the user by the positioning unit 36, acquires information on the azimuth angle and elevation angle of the user's line of sight as angle information from the eyeglass-type device 20, and acquires the current location information and angle Using the information, it is possible to specify the estimated gazing point by the method described above.

10 サーバ装置、20 眼鏡型デバイス、30 携帯端末、11,21,31 制御部、11a,21a,31a CPU、11b,21b,31b メモリ、12,22,32 通信部、13,23,33 記憶部、24,34 操作部、25,35 表示部、26 カメラ、27 センサ、28 マイク、36 測位部   10 server device, 20 glasses-type device, 30 portable terminal, 11, 21, 31 control unit, 11a, 21a, 31a CPU, 11b, 21b, 31b memory, 12, 22, 32 communication unit, 13, 23, 33 storage unit 24, 34 Operation unit, 25, 35 Display unit, 26 Camera, 27 Sensor, 28 Microphone, 36 Positioning unit

Claims (7)

ユーザの現在地情報を取得する現在地情報取得手段と、
ウェアラブルデバイスにより検知された前記ユーザの視線の方位角及び仰俯角の情報を取得する角度情報取得手段と、
前記現在地情報と、前記方位角及び仰俯角の情報とを用いて、前記ユーザの視認対象の構造物を特定し、当該構造物についての情報を地図情報から取得する注視点情報取得手段と
を備えた情報処理システム。
Current location information acquisition means for acquiring the current location information of the user;
Angle information acquisition means for acquiring information on the azimuth angle and elevation angle of the user's line of sight detected by the wearable device;
Gaze point information acquisition means for specifying the structure to be visually recognized by the user using the current location information and the azimuth and elevation angle information, and acquiring information about the structure from map information. Information processing system.
前記注視点情報取得手段は、前記特定された構造物における前記ユーザの推定注視点を特定し、当該推定注視点の位置についての情報を地図情報から取得し、
前記注視点情報取得手段により取得される情報は、前記特定された構造物が建築物であるときに、前記建築物において前記推定注視点に位置するフロアの情報を取得することを含む、請求項1に記載の情報処理システム。
The gazing point information acquisition means specifies the user's estimated gazing point in the identified structure, acquires information about the position of the estimated gazing point from map information,
The information acquired by the gazing point information acquisition unit includes acquiring information on a floor located at the estimated gazing point in the building when the specified structure is a building. 1. The information processing system according to 1.
前記取得されたフロアの情報は、前記推定注視点に位置するフロアに存在する施設の情報を含む、請求項2に記載の情報処理システム。   The information processing system according to claim 2, wherein the acquired floor information includes information on a facility existing on the floor located at the estimated gaze point. 前記ユーザの所定のアクションを検知する検知手段と、
前記所定のアクションが検知されたことに応じて、前記注視点情報取得手段により取得された情報をウェアラブルデバイスに表示するように制御する表示制御手段と
を備えた請求項1から3のいずれか1項に記載の情報処理システム。
Detecting means for detecting a predetermined action of the user;
4. The display control unit according to claim 1, further comprising: a display control unit configured to control the information acquired by the gazing point information acquisition unit to be displayed on the wearable device in response to detection of the predetermined action. Information processing system according to item.
前記注視点情報取得手段により特定された対象の位置を目的地として、経路探索を行う探索手段を備えた請求項1から4のいずれか1項に記載の情報処理システム。   5. The information processing system according to claim 1, further comprising a search unit that performs a route search using the target position specified by the gazing point information acquisition unit as a destination. ユーザの現在地情報を取得する現在地情報取得ステップと、
ウェアラブルデバイスにより検知された前記ユーザの視線の方位角及び仰俯角の情報を取得する角度情報取得ステップと、
前記現在地情報と、前記方位角及び仰俯角の情報とを用いて、前記ユーザの視認対象の構造物を特定し、当該構造物についての情報を地図情報から取得する注視点情報取得ステップと
を備えた情報処理方法。
A current location information acquisition step for acquiring the current location information of the user;
An angle information acquisition step of acquiring information on the azimuth angle and elevation angle of the user's line of sight detected by the wearable device;
Using the current location information and the azimuth and elevation angle information to identify a structure to be visually recognized by the user, and a point-of-gaze information acquisition step of acquiring information about the structure from map information. Information processing method.
コンピュータを、
ユーザの現在地情報を取得する現在地情報取得手段、
ウェアラブルデバイスにより検知された前記ユーザの視線の方位角及び仰俯角の情報を取得する角度情報取得手段、
前記現在地情報と、前記方位角及び仰俯角の情報とを用いて、前記ユーザの視認対象の構造物を特定し、当該構造物についての情報を地図情報から取得する注視点情報取得手段、
として機能させるためのプログラム。
Computer
Current location information acquisition means for acquiring the current location information of the user;
Angle information acquisition means for acquiring information on the azimuth and elevation angles of the user's line of sight detected by the wearable device;
Using the current location information and the information on the azimuth angle and the elevation angle, the gaze point information acquisition means for identifying the structure to be visually recognized by the user and acquiring information about the structure from map information,
Program to function as.
JP2014173005A 2014-08-27 2014-08-27 Information processing system, information processing method, and program Active JP6306985B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014173005A JP6306985B2 (en) 2014-08-27 2014-08-27 Information processing system, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014173005A JP6306985B2 (en) 2014-08-27 2014-08-27 Information processing system, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2016048192A true JP2016048192A (en) 2016-04-07
JP6306985B2 JP6306985B2 (en) 2018-04-04

Family

ID=55649182

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014173005A Active JP6306985B2 (en) 2014-08-27 2014-08-27 Information processing system, information processing method, and program

Country Status (1)

Country Link
JP (1) JP6306985B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019164001A (en) * 2018-03-19 2019-09-26 株式会社Lifull Information provision system, server device, terminal program, and information provision method
WO2022029894A1 (en) * 2020-08-04 2022-02-10 日本電信電話株式会社 Information processing device, information processing system, information processing method, and program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023136239A (en) 2022-03-16 2023-09-29 株式会社リコー Information processing device, information processing system, supporting system, and information processing method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002238080A (en) * 2002-01-15 2002-08-23 Fujitsu Ltd User terminal
JP2005037181A (en) * 2003-07-17 2005-02-10 Pioneer Electronic Corp Navigation device, server, navigation system, and navigation method
JP2005309948A (en) * 2004-04-23 2005-11-04 Yamaha Corp Information providing device
JP2011203984A (en) * 2010-03-25 2011-10-13 Soka Univ Navigation device, navigation image generation method, and program
JP2011220899A (en) * 2010-04-12 2011-11-04 Olympus Corp Information presenting system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002238080A (en) * 2002-01-15 2002-08-23 Fujitsu Ltd User terminal
JP2005037181A (en) * 2003-07-17 2005-02-10 Pioneer Electronic Corp Navigation device, server, navigation system, and navigation method
JP2005309948A (en) * 2004-04-23 2005-11-04 Yamaha Corp Information providing device
JP2011203984A (en) * 2010-03-25 2011-10-13 Soka Univ Navigation device, navigation image generation method, and program
JP2011220899A (en) * 2010-04-12 2011-11-04 Olympus Corp Information presenting system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019164001A (en) * 2018-03-19 2019-09-26 株式会社Lifull Information provision system, server device, terminal program, and information provision method
JP7144164B2 (en) 2018-03-19 2022-09-29 株式会社Lifull Information provision system, server device, and terminal program
WO2022029894A1 (en) * 2020-08-04 2022-02-10 日本電信電話株式会社 Information processing device, information processing system, information processing method, and program

Also Published As

Publication number Publication date
JP6306985B2 (en) 2018-04-04

Similar Documents

Publication Publication Date Title
US10051453B2 (en) Wearable and/or hand-held mobile electronic device and method for directional proximity detection
KR20160069370A (en) Mobile terminal and control method for the mobile terminal
US9628947B2 (en) Wearable map and image display
US20200318988A1 (en) Methods, systems, and devices for displaying maps
EP2663839A2 (en) Non-map-based mobile interface
JP2012002568A (en) Navigation system, portable apparatus and program for portable apparatus
CN106164838B (en) Information display method and information display terminal
US20150169780A1 (en) Method and apparatus for utilizing sensor data for auto bookmarking of information
JP2016021169A (en) Portable terminal for arranging virtual sound source at provision information position, voice presentation program, and voice presentation method
US11644320B2 (en) Intersection-based routing
CN105737837B (en) A kind of positioning navigation method, device and system
JP6306985B2 (en) Information processing system, information processing method, and program
JP6481456B2 (en) Display control method, display control program, and information processing apparatus
US10747490B2 (en) Method and device for displaying an image transmitted from a wearable device
JP2016096513A (en) Information processing system, information processing method, and program
JP6272484B2 (en) Meeting support system, meeting support program, and meeting support method
US20160267344A1 (en) Wearable smart device and method for redundant object identification
JP2016110296A (en) Wearable device, information processing method, and program
JP2017102034A (en) Wearable device, control method thereof, and program
JP6463529B1 (en) Information processing apparatus, information processing method, and information processing program
JP2018067157A (en) Communication device and control method thereof
JP6396155B2 (en) Information processing system, information processing method, and program
JP6566854B2 (en) Information processing apparatus, information processing apparatus control method, and program
JP2011220899A (en) Information presenting system
US20230259328A1 (en) Information provision system, method, and non-transitory computer-readable medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180309

R150 Certificate of patent or registration of utility model

Ref document number: 6306985

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250