JP6396155B2 - Information processing system, information processing method, and program - Google Patents

Information processing system, information processing method, and program Download PDF

Info

Publication number
JP6396155B2
JP6396155B2 JP2014201795A JP2014201795A JP6396155B2 JP 6396155 B2 JP6396155 B2 JP 6396155B2 JP 2014201795 A JP2014201795 A JP 2014201795A JP 2014201795 A JP2014201795 A JP 2014201795A JP 6396155 B2 JP6396155 B2 JP 6396155B2
Authority
JP
Japan
Prior art keywords
image
target
displayable area
destination
indicating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014201795A
Other languages
Japanese (ja)
Other versions
JP2016071217A (en
Inventor
清貴 田中
清貴 田中
和明 石川
和明 石川
紀子 中西
紀子 中西
篤史 上西
篤史 上西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zenrin Datacom Co Ltd
Original Assignee
Zenrin Datacom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zenrin Datacom Co Ltd filed Critical Zenrin Datacom Co Ltd
Priority to JP2014201795A priority Critical patent/JP6396155B2/en
Publication of JP2016071217A publication Critical patent/JP2016071217A/en
Application granted granted Critical
Publication of JP6396155B2 publication Critical patent/JP6396155B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Transfer Between Computers (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、情報処理技術に関する。   The present invention relates to information processing technology.

近年、様々なウェアラブルデバイスが開発されている。ウェアラブルデバイスとは、ユーザが身体(例えば、腕や頭部)に装着して利用することが想定されたデバイスである。例えば、特許文献1には頭部に装着する眼鏡型のウェアラブルデバイスについて開示されている。   In recent years, various wearable devices have been developed. A wearable device is a device that is assumed to be worn by a user on a body (for example, an arm or a head). For example, Patent Document 1 discloses a glasses-type wearable device worn on the head.

特開2014−086905号公報JP 2014-086905 A

ウェアラブルデバイスは、ユーザの身体に装着されるという点に特徴を有するデバイスであり、そのような特徴を利用した有益な機能を実現可能な技術が期待されている。   A wearable device is a device characterized in that it is worn on a user's body, and a technology that can realize a useful function using such a feature is expected.

本発明は上記に鑑みてなされたものであり、その目的は、ウェアラブルデバイスを利用した有益な機能を実現可能な技術を提供することにある。   The present invention has been made in view of the above, and an object thereof is to provide a technology capable of realizing a useful function using a wearable device.

本発明に係る情報処理システムは、ウェアラブルデバイスの現在地を起点として対象の方向の情報を取得する手段と、前記対象の方向と、前記ウェアラブルデバイスに対する画像の表示可能領域の相対位置とに応じて、当該表示可能領域において、前記対象の方向を示すための画像を表示する位置を制御する表示制御手段と、を備える。   The information processing system according to the present invention, according to the means for acquiring information on the direction of the target from the current location of the wearable device, the direction of the target, and the relative position of the displayable area of the image with respect to the wearable device, Display control means for controlling a position for displaying an image for indicating the direction of the object in the displayable area.

本発明に係る情報処理方法は、ウェアラブルデバイスの現在地を起点として対象の方向の情報を取得することと、前記対象の方向と、前記ウェアラブルデバイスに対する画像の表示可能領域の相対位置とに応じて、当該表示可能領域において、前記対象の方向を示すための画像を表示する位置を制御することと、を備える。   The information processing method according to the present invention acquires information on the direction of a target from the current location of the wearable device, the direction of the target, and the relative position of an image displayable area with respect to the wearable device, Controlling a position for displaying an image for indicating the direction of the object in the displayable area.

本発明に係るプログラムは、コンピュータに、ウェアラブルデバイスの現在地を起点として対象の方向の情報を取得するステップと、前記対象の方向と、前記ウェアラブルデバイスに対する画像の表示可能領域の相対位置とに応じて、当該表示可能領域において、前記対象の方向を示すための画像を表示する位置を制御するステップと、を実行させる。   The program according to the present invention acquires, in a computer, information on a target direction starting from the current location of the wearable device, the target direction, and a relative position of an image displayable area with respect to the wearable device. And a step of controlling a position for displaying an image for indicating the direction of the object in the displayable area.

また、本発明のプログラムは、CD−ROM等の光学ディスク、磁気ディスク、半導体メモリなどの各種の記録媒体を通じて、又は通信ネットワークなどを介してダウンロードすることにより、コンピュータにインストール又はロードすることができる。   The program of the present invention can be installed or loaded on a computer through various recording media such as an optical disk such as a CD-ROM, a magnetic disk, and a semiconductor memory, or via a communication network. .

本発明によれば、ウェアラブルデバイスを利用した有益な機能を実現可能な技術を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the technique which can implement | achieve the useful function using a wearable device can be provided.

一実施形態における情報処理システムのハードウェア構成を示す概念図である。It is a conceptual diagram which shows the hardware constitutions of the information processing system in one Embodiment. 一実施形態における眼鏡型デバイスの外観構成を示す図である。It is a figure which shows the external appearance structure of the spectacles type device in one Embodiment. 一実施形態における眼鏡型デバイスの外観構成を示す図である。It is a figure which shows the external appearance structure of the spectacles type device in one Embodiment. 一実施形態におけるサーバ装置の機能構成を示す図である。It is a figure which shows the function structure of the server apparatus in one Embodiment. 一実施形態における目的地方向指示画像の表示例を示す図である。It is a figure which shows the example of a display of the destination direction instruction | indication image in one Embodiment. 一実施形態における目的地方向指示画像の表示例を示す図である。It is a figure which shows the example of a display of the destination direction instruction | indication image in one Embodiment. 一実施形態における表示可能領域の位置の例を示す図である。It is a figure which shows the example of the position of the displayable area | region in one Embodiment. 一実施形態における目的地方向指示画像の表示例を示す図である。It is a figure which shows the example of a display of the destination direction instruction | indication image in one Embodiment. 一実施形態における眼鏡型デバイスの機能構成を示す図である。It is a figure which shows the function structure of the spectacles type device in one Embodiment. サーバ装置により実行される処理の例を示すフローチャートである。It is a flowchart which shows the example of the process performed by the server apparatus.

以下、本発明の実施形態について、図面を参照しつつ詳細に説明する。ただし、発明の範囲をこれらに限定するものではない。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. However, the scope of the invention is not limited to these.

[ハードウェア構成]
図1を参照して、一実施形態に係る情報処理システムのハードウェア構成の例について説明する。情報処理システム1は、ウェアラブルデバイスを用いた各種のサービスを提供するためのシステムである。情報処理システム1は、サーバ装置10、眼鏡型デバイス20及び携帯端末30を主に含む。眼鏡型デバイス20及び携帯端末30は、ネットワークNを介してサーバ装置10と相互に通信することができる。また、眼鏡型デバイス20は、携帯端末30と(例えば、Bluetooth(登録商標)やWi−Fi(登録商標)等により)相互に通信することができる。情報処理システム1は、例えば、ウェアラブルデバイスである眼鏡型デバイス20を装着し、かつ、携帯端末30を携帯するユーザに対して、地図情報に基づく各種の情報提供サービスを行うことができる。
[Hardware configuration]
With reference to FIG. 1, an example of a hardware configuration of an information processing system according to an embodiment will be described. The information processing system 1 is a system for providing various services using wearable devices. The information processing system 1 mainly includes a server device 10, a glasses-type device 20, and a mobile terminal 30. The glasses-type device 20 and the portable terminal 30 can communicate with the server apparatus 10 via the network N. The eyeglass-type device 20 can communicate with the mobile terminal 30 (for example, via Bluetooth (registered trademark) or Wi-Fi (registered trademark)). For example, the information processing system 1 can provide various information providing services based on map information to a user who wears the glasses-type device 20 that is a wearable device and carries the mobile terminal 30.

ネットワークNは、サーバ装置10と、眼鏡型デバイス20及び携帯端末30との間で情報を送受信するための通信回線である。ネットワークNは、例えば、インターネット、LAN、専用線、パケット通信網、電話回線、企業内ネットワーク、その他の通信回線、これらの少なくとも一部の組み合わせ等のいずれであってもよく、有線であるか無線であるか(もしくはこれらの組み合わせであるか)を問わない。   The network N is a communication line for transmitting and receiving information between the server apparatus 10 and the glasses-type device 20 and the mobile terminal 30. The network N may be any of, for example, the Internet, a LAN, a dedicated line, a packet communication network, a telephone line, a corporate network, other communication lines, a combination of at least some of these, and is wired or wireless (Or a combination thereof).

サーバ装置10は、専用又は汎用のサーバ・コンピュータなどの情報処理装置により構成される。なお、サーバ装置10は、単一の情報処理装置より構成されるものであっても、ネットワーク上に分散した複数の情報処理装置より構成されるものであってもよい。   The server device 10 is constituted by an information processing device such as a dedicated or general-purpose server computer. The server device 10 may be constituted by a single information processing device or may be constituted by a plurality of information processing devices distributed on a network.

また、サーバ装置10は、制御部11、通信部12、及び記憶部13を主に備える。制御部11は、CPU(Central Processing Unit)11a及びメモリ11bを主に備えて構成される。各構成の説明は後述する。サーバ装置10は、例えば、CPU11aがメモリ11b等に格納された所定のプログラムを実行することにより、各種の機能実現手段として機能する。なお、図1には、サーバ装置10が備える主要な構成が示されているにすぎず、サーバ装置10は、一般的な情報処理装置が備える他の構成も備える。   The server device 10 mainly includes a control unit 11, a communication unit 12, and a storage unit 13. The control unit 11 mainly includes a CPU (Central Processing Unit) 11a and a memory 11b. The description of each configuration will be described later. For example, the server device 10 functions as various function implementing means by the CPU 11a executing a predetermined program stored in the memory 11b or the like. Note that FIG. 1 only shows a main configuration included in the server apparatus 10, and the server apparatus 10 includes other configurations included in a general information processing apparatus.

眼鏡型デバイス20は、眼鏡型の形状のウェアラブルデバイスである。ウェアラブルデバイスとは、ユーザが身体(例えば、腕や頭部)に装着して利用することが想定されたデバイス(情報処理装置)である。すなわち、眼鏡型デバイス20は眼鏡型の形状であるため、ユーザは、眼鏡をかけるように眼鏡型デバイス20を頭部に装着して利用することができる。眼鏡型デバイス20は、制御部21、通信部22、記憶部23、操作部24、表示部25、カメラ26、センサ27、及びマイク28を主に備えて構成される。制御部21は、CPU21a及びメモリ21bを主に備えて構成される。眼鏡型デバイス20は、例えば、CPU21aがメモリ21b等に格納された所定のプログラムを実行することにより、各種の機能実現手段として機能する。なお、ユーザは眼鏡型デバイス20の装着時に眼鏡型デバイス20に備えるこれらの構成のそれぞれも結果として装着することになるため、これらの構成のそれぞれも狭義のウェアラブルデバイスとみなすことができる。これらの各構成の説明は後述する。   The spectacle-type device 20 is a wearable device having a spectacle-type shape. The wearable device is a device (information processing apparatus) that is assumed to be used by being worn on the body (for example, an arm or a head) by a user. That is, since the spectacle-type device 20 has a spectacle-type shape, the user can use the spectacle-type device 20 while wearing the spectacle-type device 20 on the head like wearing spectacles. The eyeglass-type device 20 mainly includes a control unit 21, a communication unit 22, a storage unit 23, an operation unit 24, a display unit 25, a camera 26, a sensor 27, and a microphone 28. The control unit 21 mainly includes a CPU 21a and a memory 21b. For example, the glasses-type device 20 functions as various function realizing means when the CPU 21a executes a predetermined program stored in the memory 21b or the like. Since the user wears each of these configurations included in the glasses-type device 20 when the glasses-type device 20 is worn, each of these configurations can be regarded as a wearable device in a narrow sense. Each of these components will be described later.

図2は、眼鏡型デバイス20の外観の例を示している。この例では、図2(A)に示すように、眼鏡型デバイス20は外観上、操作部24、表示部25及びカメラ26を備えることが示されている。操作部24は、眼鏡型デバイス20の外側部に位置する。ユーザは操作部24をスワイプ、タップ等をすることによって、眼鏡型デバイス20に対して操作指示を行うことができる。   FIG. 2 shows an example of the external appearance of the eyeglass-type device 20. In this example, as shown in FIG. 2A, it is shown that the eyeglass-type device 20 includes an operation unit 24, a display unit 25, and a camera 26 in appearance. The operation unit 24 is located on the outer side of the eyeglass-type device 20. The user can issue an operation instruction to the glasses-type device 20 by swiping or tapping the operation unit 24.

表示部25は、眼鏡型デバイス20を装着したユーザがプリズムなどにより表示内容を視認可能な位置に設置されるように構成される。この例では、図2(B)に示すように、表示部25は、単眼式の表示装置であり、眼鏡型デバイス20を装着したユーザが眼鏡型デバイス20の右側レンズの右上を見たときに表示内容を確認できるような位置に設置されている。表示部25における領域25aは、画像などの表示対象を表示可能な領域(表示可能領域)である。すなわち、図2の例では、表示可能領域の位置は、眼鏡型デバイス20を装着したユーザから見て、右上の領域である。   The display unit 25 is configured to be installed at a position where a user wearing the spectacle-type device 20 can visually recognize display contents by a prism or the like. In this example, as shown in FIG. 2B, the display unit 25 is a monocular display device, and when the user wearing the glasses-type device 20 looks at the upper right of the right lens of the glasses-type device 20. It is installed in a position where you can check the display contents. The area 25a in the display unit 25 is an area (displayable area) where a display target such as an image can be displayed. That is, in the example of FIG. 2, the position of the displayable area is the upper right area when viewed from the user wearing the glasses-type device 20.

カメラ26は、眼鏡型デバイス20を装着したユーザの視線方向に向けられ、当該ユーザが見ていると推定されるもの(推定注視点に存在するもの)を撮像/撮影可能な位置に設置されるように構成される。   The camera 26 is directed in the direction of the line of sight of the user wearing the spectacle-type device 20, and is installed at a position where it is possible to capture / capture what is estimated to be viewed by the user (present at the estimated gaze point). Configured as follows.

図3は、眼鏡型デバイス20の外観の他の例を示している。この例では、図2に示した例とは異なり、表示部25は、両眼式の表示装置であり、眼鏡型デバイス20を装着したユーザが両眼で表示内容を確認できるように構成されている。具体的には、表示部25は、眼鏡型デバイス20の両眼のレンズ部分に透過型ディスプレイを設置することによって構成される。表示部25がこのように構成されていることにより、眼鏡型デバイス20を装着したユーザは、眼鏡型デバイス20の両眼のレンズ部分を介して景色を見ることができ、かつ、両眼のレンズ部分の表示部25に表示された画像等を見ることができる。図3の例では、図2の例とは異なり、レンズ部分の全体が表示可能領域となる。すなわち、図3の例では、表示可能領域は、眼鏡型デバイス20を装着したユーザから見て、正面の領域である。また、図3の例では、眼鏡型デバイス20が有する操作部24は、リモートコントローラであり、ユーザから受け付けた操作指示を無線により眼鏡型デバイス20が有する各部へ送信することができる。   FIG. 3 shows another example of the appearance of the eyeglass-type device 20. In this example, unlike the example shown in FIG. 2, the display unit 25 is a binocular display device, and is configured so that a user wearing the glasses-type device 20 can check display contents with both eyes. Yes. Specifically, the display unit 25 is configured by installing a transmissive display in the lens portion of both eyes of the eyeglass device 20. Since the display unit 25 is configured in this manner, a user wearing the spectacles-type device 20 can view the scenery through the lens parts of both eyes of the spectacles-type device 20, and the lenses of both eyes. An image displayed on the partial display unit 25 can be viewed. In the example of FIG. 3, unlike the example of FIG. 2, the entire lens portion is a displayable area. That is, in the example of FIG. 3, the displayable area is an area in front of the user wearing the glasses-type device 20. In the example of FIG. 3, the operation unit 24 included in the glasses-type device 20 is a remote controller, and can transmit an operation instruction received from the user to each unit included in the glasses-type device 20 wirelessly.

図1の説明にもどる。携帯端末30は、例えば、携帯電話機(スマートフォンを含む)、タブレット端末、PDA(Personal Digital Assistants)、ナビゲーション装置、パーソナルコンピュータなどの携帯可能な情報処理装置である。携帯端末30は、制御部31、通信部32、記憶部33、操作部34、表示部35及び測位部36を主に備えて構成される。制御部31は、CPU31a及びメモリ31bを主に備えて構成される。各構成の説明は後述する。携帯端末30は、例えば、CPU31aがメモリ31b等に格納された所定のプログラムを実行することにより、各種の機能実現手段として機能する。   Returning to the description of FIG. The mobile terminal 30 is a portable information processing device such as a mobile phone (including a smartphone), a tablet terminal, a PDA (Personal Digital Assistants), a navigation device, and a personal computer. The portable terminal 30 mainly includes a control unit 31, a communication unit 32, a storage unit 33, an operation unit 34, a display unit 35, and a positioning unit 36. The control unit 31 mainly includes a CPU 31a and a memory 31b. The description of each configuration will be described later. For example, the portable terminal 30 functions as various function realizing means by the CPU 31a executing a predetermined program stored in the memory 31b or the like.

制御部11,21,31は、これらを備える各情報処理装置の各種構成の動作を制御し、また、各種処理の実行を制御する。制御部11,21,31において実行される処理の詳細は後述する。通信部12,22,32は、他の情報処理装置と通信するための通信インタフェースである。記憶部13,23,33は、ハードディスク等の記憶装置によって構成される。記憶部13,23,33は、各情報処理装置における処理の実行に必要な各種プログラムや各種の情報を記憶する。操作部24,34は、ユーザからの操作指示を受け付けるためのユーザインタフェースである。表示部25,35は、各種の画像や、各情報処理装置による処理結果を表示するためのユーザインタフェースである。   The control units 11, 21, 31 control operations of various configurations of the information processing apparatuses including these, and control execution of various processes. Details of processing executed in the control units 11, 21, 31 will be described later. The communication units 12, 22, and 32 are communication interfaces for communicating with other information processing apparatuses. The storage units 13, 23, and 33 are configured by a storage device such as a hard disk. The storage units 13, 23, and 33 store various programs and various information necessary for executing processing in each information processing apparatus. The operation units 24 and 34 are user interfaces for receiving operation instructions from the user. The display units 25 and 35 are user interfaces for displaying various images and processing results obtained by the information processing apparatuses.

カメラ26は、静止画/動画を撮影/撮像可能な装置である。
センサ27は、各種のセンサにより構成される。センサ27は、例えば、ジャイロセンサ、加速度センサ、地磁気センサ、及び/又はイメージセンサ等を含むことができる。センサ27により、例えば、眼鏡型デバイス20を装着しているユーザの顔が向いている方向に基づいて当該ユーザの視線の方向の方位角(基準となる方位との間の水平方向の角度)の推定値を検知することや、当該ユーザの頭部の傾きに基づいて当該ユーザの視線の方向の仰俯角(水平を基準とした上下方向の角度)の推定値を検知することができる。なお、センサ27は、ユーザの眼球の動きから当該ユーザの視線方向の方位角及び仰俯角の推定値を検知できるようにしてもよい。また、センサ27は、眼鏡型デバイス20を装着するユーザの瞼の動きに基づいて瞬きを検知することもできる。
マイク28は、眼鏡型デバイス20を装着するユーザが発する声/音を電気信号に変換する装置である。
The camera 26 is a device that can capture / capture still images / moving images.
The sensor 27 is composed of various sensors. The sensor 27 can include, for example, a gyro sensor, an acceleration sensor, a geomagnetic sensor, and / or an image sensor. By the sensor 27, for example, based on the direction in which the face of the user wearing the spectacle-type device 20 is facing, the azimuth of the direction of the line of sight of the user (the angle in the horizontal direction between the reference azimuth) An estimated value can be detected, or an estimated value of an elevation angle (an angle in the vertical direction with respect to the horizontal) in the direction of the user's line of sight can be detected based on the inclination of the user's head. The sensor 27 may be configured to detect the estimated values of the azimuth angle and the elevation angle in the user's line-of-sight direction from the movement of the user's eyeball. The sensor 27 can also detect blinking based on the movement of the eyelid of the user wearing the glasses-type device 20.
The microphone 28 is a device that converts voice / sound produced by a user wearing the glasses-type device 20 into an electrical signal.

測位部36は、GPS衛星や通信機器(例えば基地局)から受信した信号に基づいて、携帯端末30の位置(例えば、緯度、経度)を特定し、当該位置を特定した日時を特定する(測位情報を特定する)処理を行う。   The positioning unit 36 specifies the position (for example, latitude and longitude) of the mobile terminal 30 based on a signal received from a GPS satellite or a communication device (for example, a base station), and specifies the date and time when the position is specified (positioning). Process to identify information).

以上のように本実施形態において、情報処理システム1は、サーバ装置10、眼鏡型デバイス20及び携帯端末30を含むがこれに限定せず、任意の装置を含むことができる。また、サーバ装置10、眼鏡型デバイス20及び携帯端末30が有する構成の一部又は全部を有する構成を情報処理システムとして把握することもできる。例えば、眼鏡型デバイス20が有する構成の一部を情報処理システムとして把握することができるし、眼鏡型デバイス20が有する構成の一部と、携帯端末30が有する構成の一部とを組み合わせた構成を情報処理システムとして把握することができる。   As described above, in the present embodiment, the information processing system 1 includes the server device 10, the glasses-type device 20, and the mobile terminal 30, but is not limited thereto, and can include any device. In addition, a configuration having a part or all of the configurations of the server device 10, the glasses-type device 20, and the mobile terminal 30 can be grasped as an information processing system. For example, a part of the configuration of the glasses-type device 20 can be grasped as an information processing system, and a configuration in which a part of the configuration of the glasses-type device 20 and a part of the configuration of the portable terminal 30 are combined. Can be grasped as an information processing system.

[機能構成]
図4を参照して、サーバ装置10の一実施形態における機能構成について説明する。サーバ装置10は、主な機能構成として、経路探索部111、現在地情報取得部112、方向情報取得部113、表示制御部114、及びデータベース120を備える。以下に各機能構成の詳細を説明する。
[Function configuration]
With reference to FIG. 4, a functional configuration in one embodiment of the server device 10 will be described. The server device 10 includes a route search unit 111, a current location information acquisition unit 112, a direction information acquisition unit 113, a display control unit 114, and a database 120 as main functional configurations. Details of each functional configuration will be described below.

データベース120は、サーバ装置10において実行される処理に必要な情報、及び当該処理により生成された情報など、各種情報を記憶する。データベース120は、例えば、地図情報及び施設情報を記憶している。地図情報は、道路情報、鉄道路線情報、建造物情報、地形情報、住所情報、及びその他の地理情報などを含む。施設情報は、例えば、コンビニエンスストア、カフェ、駅、ファーストフード、レストラン、建物(ビル)などの施設についての情報を含む。また、施設情報は、当該施設で扱っている商品及び/又はサービスについての情報を含む。さらに、施設情報は、地図情報と関連付けられた各施設の位置の情報を含む。なお、施設情報は、地図情報に含まれる情報としてもよい。   The database 120 stores various types of information such as information necessary for processing executed in the server device 10 and information generated by the processing. The database 120 stores, for example, map information and facility information. The map information includes road information, railway line information, building information, terrain information, address information, and other geographical information. The facility information includes information about facilities such as convenience stores, cafes, stations, fast food, restaurants, buildings (buildings), and the like. The facility information includes information on products and / or services handled at the facility. Furthermore, the facility information includes information on the position of each facility associated with the map information. The facility information may be information included in the map information.

経路探索部111は、眼鏡型デバイス20又は携帯端末30のユーザからの操作指示に応じて、経路探索の処理を行う。具体的には、経路探索部111は、当該指示に応じて出発地及び目的地を特定し、データベース120の地図情報を参照して、当該特定された出発地(以下、単に「出発地」という。)から当該特定された目的地(以下、単に「目的地」又は「対象」という。)までの経路探索の処理を行う。移動手段が特定されているときは、特定された移動手段により最適な移動経路を探索する処理を行う。   The route search unit 111 performs route search processing in response to an operation instruction from the user of the glasses-type device 20 or the mobile terminal 30. Specifically, the route search unit 111 identifies a departure place and a destination according to the instruction, refers to the map information in the database 120, and refers to the identified departure place (hereinafter simply referred to as “departure place”). .) To the specified destination (hereinafter simply referred to as “destination” or “target”). When the moving means is specified, a process for searching for an optimal moving route is performed by the specified moving means.

経路探索の処理は、任意の方法を採用することができる。本実施形態においては、既知の方法により経路探索の処理を行う。経路探索部111は、経路探索処理の結果得られた経路の情報と、当該経路を案内するための経路案内の情報とを出力する。出力された経路及び経路案内の情報は、眼鏡型デバイス20及び/又は携帯端末30へ送信される。   Arbitrary methods can be adopted for the route search process. In the present embodiment, route search processing is performed by a known method. The route search unit 111 outputs route information obtained as a result of route search processing and route guidance information for guiding the route. The output route information and route guidance information is transmitted to the glasses-type device 20 and / or the mobile terminal 30.

現在地情報取得部112は、眼鏡型デバイス20を装着し、かつ、携帯端末30を携帯するユーザの現在地情報を携帯端末30から(もしくは携帯端末30から眼鏡型デバイス20を介して)取得する。なお、当該ユーザの現在地情報は、携帯端末30の測位部36の測位処理に基づいて得られた情報である。また、当該ユーザは、眼鏡型デバイス20及び携帯端末30を携帯しているため、ユーザの現在地情報は、眼鏡型デバイス20の現在地の情報とみなすこともできる。   The current location information acquisition unit 112 acquires the current location information of the user wearing the glasses-type device 20 and carrying the portable terminal 30 from the portable terminal 30 (or from the portable terminal 30 via the glasses-type device 20). Note that the current location information of the user is information obtained based on the positioning process of the positioning unit 36 of the mobile terminal 30. Further, since the user carries the glasses-type device 20 and the mobile terminal 30, the user's current location information can be regarded as information on the current location of the glasses-type device 20.

方向情報取得部113は、データベース120に記憶された地図情報を参照して、現在地情報取得部112により取得された情報が示す現在地を起点としたときの経路探索部111により探索された経路の目的地の方向(対象の方向)を特定する。例えば、現在地を起点としたときの目的地の方位角が特定される。方向情報取得部113は、特定された目的地の方向の情報を出力する。出力された目的地の方向の情報は、眼鏡型デバイス20及び/又は携帯端末30へ送信することができる。   The direction information acquisition unit 113 refers to the map information stored in the database 120, and the purpose of the route searched by the route search unit 111 when starting from the current location indicated by the information acquired by the current location information acquisition unit 112 Specify the direction of the ground (target direction). For example, the azimuth angle of the destination when starting from the current location is specified. The direction information acquisition unit 113 outputs information on the direction of the identified destination. The output information on the direction of the destination can be transmitted to the glasses-type device 20 and / or the mobile terminal 30.

表示制御部114は、方向情報取得部113により特定された目的地の方向を示すための所定の画像を、眼鏡型デバイス20における画像の表示可能領域のどの位置に表示するかを制御する。具体的には、表示制御部114は、方向情報取得部113により特定された目的地の方向と、眼鏡型デバイス20における画像の表示可能領域の位置とに応じて、当該表示可能領域において、当該目的地の方向を示すための画像(以下、「目的地方向指示画像」ともいう。)を表示する位置を決定する。決定した位置の情報は、画像表示の制御情報として、眼鏡型デバイス20に送信される。画像表示の制御情報は、連続して、又は目的地の方向が変わる度に眼鏡型デバイス20に送信される。   The display control unit 114 controls at which position in the image displayable area of the glasses-type device 20 a predetermined image for indicating the direction of the destination specified by the direction information acquisition unit 113 is displayed. Specifically, the display control unit 114 changes the display in the displayable area according to the direction of the destination specified by the direction information acquisition unit 113 and the position of the image displayable area in the glasses-type device 20. A position for displaying an image for indicating the direction of the destination (hereinafter also referred to as a “destination direction indicating image”) is determined. The determined position information is transmitted to the eyeglass-type device 20 as image display control information. The image display control information is transmitted to the eyeglass device 20 continuously or whenever the direction of the destination changes.

眼鏡型デバイス20における画像の表示可能領域の位置とは、眼鏡型デバイス20を装着したユーザから見た表示可能領域の位置である。前述の通り、図2に示した眼鏡型デバイス20の例では、表示可能領域の位置は、眼鏡型デバイス20を装着したユーザから見て右上であり、図3に示した眼鏡型デバイス20の例では、表示可能領域の位置は、眼鏡型デバイス20を装着したユーザから見て正面である。眼鏡型デバイス20における画像の表示可能領域の位置の情報は、サーバ装置20又は外部の他の装置に予め記憶されている。   The position of the image displayable area in the glasses-type device 20 is the position of the displayable area as viewed from the user wearing the glasses-type device 20. As described above, in the example of the eyeglass-type device 20 shown in FIG. 2, the position of the displayable region is the upper right as viewed from the user wearing the eyeglass-type device 20, and the example of the eyeglass-type device 20 shown in FIG. Then, the position of the displayable area is the front as viewed from the user wearing the glasses-type device 20. Information on the position of the image displayable area in the glasses-type device 20 is stored in advance in the server device 20 or another external device.

図5は、図3に示した眼鏡型デバイス20の例のように、表示可能領域が眼鏡型デバイス20を装着したユーザから見て正面の領域である場合において、当該表示可能領域に表示された、目的地方向指示画像の例を示している。   FIG. 5 is displayed in the displayable area when the displayable area is a frontal area when viewed from the user wearing the glasses-type device 20 as in the example of the eyeglass-type device 20 illustrated in FIG. An example of a destination direction indication image is shown.

図5(A)は、眼鏡型デバイス20のレンズA(表示可能領域)に柱形状の画像51が表示されていることを示している。当該柱形状の画像51は、目的地方向指示画像である。この例では、レンズA(表示可能領域)の水平方向中央に目的地方向指示画像51が表示されているため、眼鏡型デバイス20を装着しているユーザから見て正面の方向に目的地が存在することになる。   FIG. 5A shows that a columnar image 51 is displayed on the lens A (displayable area) of the glasses-type device 20. The columnar image 51 is a destination direction indication image. In this example, since the destination direction instruction image 51 is displayed at the center in the horizontal direction of the lens A (displayable area), the destination exists in the front direction as viewed from the user wearing the spectacles-type device 20. Will do.

図5(B)の例では、レンズA(表示可能領域)の右側に柱形状の目的地方向指示画像52が表示されている。そのため、眼鏡型デバイス20を装着しているユーザから見て右側の方向に目的地が存在することになる。なお、目的地の方向が右側であればあるほど、画像52はレンズA(表示可能領域)における右側の領域に表示される。   In the example of FIG. 5B, a columnar destination direction indication image 52 is displayed on the right side of the lens A (displayable area). Therefore, the destination exists in the right direction as viewed from the user wearing the glasses-type device 20. The more the direction of the destination is on the right side, the more the image 52 is displayed on the right side of the lens A (displayable area).

また、図示しないが、もし眼鏡型デバイス20を装着しているユーザから見て目的地の方向が左側である場合、レンズA(表示可能領域)の左側に柱形状の目的地方向指示画像52が表示される。   Although not shown, if the direction of the destination is the left side when viewed from the user wearing the spectacle-type device 20, a columnar destination direction indication image 52 is displayed on the left side of the lens A (displayable area). Is displayed.

目的地方向指示画像の表示位置は、眼鏡型デバイス20を装着しているユーザから見た目的地の方向に応じて変化する。従って、図5(B)に示されているような画像の表示状態で眼鏡型デバイス20を装着しているユーザが向いている方向を徐々に右方向に変えると、当該画像の表示位置は徐々に左に移動する。そして、当該ユーザの向く正面の方向と目的地の方向とが一致したときに、図5(A)に示されているような表示状態になる(すなわち、水平方向中央に目的地方向指示画像が表示される)。ここで、眼鏡型デバイス20の表示部25(の表示可能領域)に表示される目的地方向指示画像の表示位置の制御は、表示制御部114による表示位置の決定に応じて行われる。   The display position of the destination direction indication image changes according to the direction of the destination as viewed from the user wearing the glasses-type device 20. Accordingly, when the direction in which the user wearing the eyeglass-type device 20 is facing in the image display state as shown in FIG. 5B is gradually changed to the right, the display position of the image gradually increases. Move to the left. When the front direction facing the user and the direction of the destination coincide with each other, the display state as shown in FIG. 5A is obtained (that is, the destination direction indication image is displayed at the center in the horizontal direction). Is displayed). Here, the display position of the destination direction indication image displayed on the display unit 25 (displayable area) of the eyeglass-type device 20 is controlled according to the display control unit 114 determining the display position.

なお、図5を参照して説明した例は、眼鏡型デバイス20を装着したユーザから見た表示可能領域の位置が正面の領域である場合の目的地方向指示画像の表示位置の制御の例である。眼鏡型デバイス20を装着したユーザから見た表示可能領域の位置が正面の領域ではない場合、眼鏡型デバイス20に対する画像の表示可能領域の相対位置に応じて、目的地方向指示画像の表示位置の調整を行う。調整を行う理由と、調整方法の詳細は、後述する。   The example described with reference to FIG. 5 is an example of the control of the display position of the destination direction indication image when the position of the displayable area viewed from the user wearing the spectacle-type device 20 is the front area. is there. When the position of the displayable area viewed from the user wearing the glasses-type device 20 is not the front area, the display position of the destination direction instruction image is determined according to the relative position of the image displayable area with respect to the glasses-type device 20. Make adjustments. The reason for the adjustment and details of the adjustment method will be described later.

このように、表示制御部114は、方向情報取得部113により特定された目的地の方向と、眼鏡型デバイス20に対する画像の表示可能領域の相対位置とに応じて、当該表示可能領域における目的地方向指示画像の表示位置を決定する。その結果、ユーザは、目的地方向指示画像の表示位置により目的地の方向を直感的に把握することができるため、このような機能は、目的地を目指して移動しているユーザにとって利便性が高い。   As described above, the display control unit 114 determines the destination region in the displayable area according to the direction of the destination specified by the direction information acquisition unit 113 and the relative position of the image displayable area with respect to the glasses-type device 20. The display position of the direction indication image is determined. As a result, since the user can intuitively grasp the direction of the destination based on the display position of the destination direction instruction image, such a function is convenient for the user who is moving toward the destination. high.

図6を参照して、目的地方向指示画像の様々な表示形態について説明する。
図6(A)は、眼鏡型デバイス20のレンズAを介してオブジェクトX(例えば、ビル)が見え、オブジェクトXの方向で、かつ、オブジェクトXの手前に目的地が存在する場合の例を示している。この例では、目的地方向指示画像61は、レンズA(表示可能領域)の水平方向中央のオブジェクトX上に表示されている。
With reference to FIG. 6, various display forms of the destination direction indication image will be described.
FIG. 6A shows an example in which the object X (for example, a building) can be seen through the lens A of the eyeglass-type device 20 and the destination exists in the direction of the object X and in front of the object X. ing. In this example, the destination direction instruction image 61 is displayed on the object X at the center in the horizontal direction of the lens A (displayable area).

図6(B)は、眼鏡型デバイス20のレンズAを介してオブジェクトXが見え、オブジェクトXの方向で、かつ、オブジェクトXの奥(すなわち、ユーザの現在地から視認できない位置)に目的地が存在する場合の例を示している。この例では、目的地方向指示画像62は、オブジェクトXの上部外側のみに表示されている。   In FIG. 6B, the object X can be seen through the lens A of the eyeglass-type device 20, and the destination exists in the direction of the object X and in the back of the object X (that is, a position that cannot be visually recognized from the user's current location). An example of doing this is shown. In this example, the destination direction instruction image 62 is displayed only on the upper outside of the object X.

このように、眼鏡型デバイス20のユーザの現在地から視認できない位置に目的地が存在する場合に、目的地(対象)を遮蔽するオブジェクトXの上部外側にのみ、目的地方向指示画像62(対象の方向を示すための画像の少なくとも一部)を表示させることによって、ユーザは、目の前に存在するオブジェクトの奥に目的地(対象)が存在することを把握することができる。なお、目の前に存在するオブジェクトの奥に目的地が存在する場合には、図6(B)のように目的地方向指示画像を表示させることとしたが、オブジェクトの奥に目的地が存在する場合に図6(A)のようにオブジェクトX上に画像を表示させてもよい。   In this way, when the destination exists at a position that cannot be visually recognized from the current location of the user of the eyeglass-type device 20, the destination direction instruction image 62 (target of the target) is displayed only outside the upper part of the object X that shields the destination (target). By displaying at least a part of the image for indicating the direction, the user can grasp that the destination (target) exists behind the object existing in front of the eyes. In addition, when the destination exists behind the object existing in front of the eyes, the destination direction instruction image is displayed as shown in FIG. 6B. However, the destination exists behind the object. In this case, an image may be displayed on the object X as shown in FIG.

上記の例では、目的地方向指示画像を柱形状としたが、当該画像を任意の形状とすることができる。   In the above example, the destination direction indication image is a column shape, but the image can be an arbitrary shape.

図6(C)は、目的地方向指示画像を円形とした場合の例を示している。また、目的地がユーザの現在地から視認できない位置に存在するか否かによって、画像の表示形態を変更することができる。例えば、目的地(対象)がユーザの現在地から視認できない位置に存在する場合、目的地を遮蔽するオブジェクトX上に、画像62のように画像を透かして表示(図中では画像の外枠を点線で表示)させることができる。また、目的地がユーザの現在地から視認できる位置に存在する場合は、透かさずに表示(画像の外枠を実線で表示)させることができる。現在地から目的地の一部分のみが視認できる場合、目的地の視認できない部分上の目的地方向指示画像を透かして表示し、他の部分を透かさずに表示させることもできる。   FIG. 6C shows an example where the destination direction instruction image is circular. Further, the display form of the image can be changed depending on whether or not the destination exists at a position where it cannot be visually recognized from the current location of the user. For example, when the destination (target) is present at a position where it cannot be visually recognized from the user's current location, the image X is displayed as a watermark on the object X that blocks the destination (in the figure, the outer frame of the image is indicated by a dotted line). Display). Further, when the destination exists at a position that can be visually recognized from the user's current location, the destination can be displayed without being transparent (the outer frame of the image is displayed with a solid line). When only a part of the destination can be visually recognized from the current location, the destination direction indicating image on the part where the destination cannot be visually recognized is displayed in a watermark, and the other part can be displayed without being transparent.

図6(D)は、目的地方向指示画像を矢印とした場合の例を示している。この例では、レンズA(表示可能領域)の上部から下向きの矢印の画像としているがこれに限定されず、レンズA(表示可能領域)の下部から上向きの矢印の画像としてもよい。また、矢印の画像を上下に動かすように表示させてもよい。   FIG. 6D shows an example in which the destination direction indicating image is an arrow. In this example, an image of an arrow pointing downward from the upper part of the lens A (displayable area) is used, but the present invention is not limited to this, and an image of an arrow pointing upward from the lower part of the lens A (displayable area) may be used. Moreover, you may display so that the image of an arrow may be moved up and down.

また、図示しないが、眼鏡型デバイス20のユーザの現在地から目的地までの距離が短いほど、目的地方向指示画像を大きく又は太く表示させてもよい。例えば、現在地から目的地までの距離が短いほど、図6(A)の柱形状の画像61を太く表示させてもよい。また、現在地から目的地までの距離が短いほど、図6(C)の円形状の画像63を大きく表示させてもよい。   Although not shown, the destination direction indication image may be displayed larger or thicker as the distance from the current location of the user of the eyeglass-type device 20 to the destination is shorter. For example, the columnar image 61 of FIG. 6A may be displayed thicker as the distance from the current location to the destination is shorter. Further, as the distance from the current location to the destination is shorter, the circular image 63 in FIG. 6C may be displayed larger.

図7及び図8を参照して、表示可能領域が眼鏡型デバイス20を装着したユーザから見て正面の領域ではない場合(例えば、図2に示した眼鏡型デバイス20の例の場合)に、当該表示可能領域に表示される目的地方向指示画像について説明する。図7は、レンズAの右上の領域に表示可能領域Bが存在し、眼鏡型デバイス20を装着したユーザが正面を見た時の視線方向は方向aであり、当該ユーザが表示可能領域Bの中央に視線をずらした時の視線方向は方向bであることを示している。   Referring to FIGS. 7 and 8, when the displayable area is not a front area when viewed from the user wearing the spectacle-type device 20 (for example, in the case of the example of the spectacle-type device 20 shown in FIG. 2), The destination direction indication image displayed in the displayable area will be described. In FIG. 7, there is a displayable area B in the upper right area of the lens A, and the line-of-sight direction when the user wearing the spectacle-type device 20 looks at the front is the direction a. The line-of-sight direction when the line of sight is shifted to the center indicates the direction b.

すなわち、図7に示す例では、眼鏡型デバイス20を装着したユーザの正面への視線方向aと表示可能領域Bの中央への視線方向bとの間にずれがある。この例の場合、例えば、目的地の方向が正面である時に、表示可能領域Bの水平方向中央に目的地方向指示画像を表示させると、ユーザは視線を右にずらしたときに目的地方向指示画像の位置を確認できるため、ユーザは目的地の方向が右方向であると誤解をしてしまう場合がある。従って、眼鏡型デバイス20を装着したユーザの正面への視線方向aと表示可能領域Bの中央への視線方向bとの間にずれがある場合、当該ずれの量に応じて、目的地方向指示画像の表示位置を調整してもよい。   That is, in the example illustrated in FIG. 7, there is a shift between the line-of-sight direction a toward the front of the user wearing the glasses-type device 20 and the line-of-sight direction b toward the center of the displayable area B. In the case of this example, for example, when the destination direction is the front, when the destination direction instruction image is displayed at the center in the horizontal direction of the displayable area B, the user instructs the destination direction when the line of sight is shifted to the right. Since the position of the image can be confirmed, the user may misunderstand that the direction of the destination is the right direction. Therefore, when there is a deviation between the line-of-sight direction a toward the front of the user wearing the glasses-type device 20 and the line-of-sight direction b toward the center of the displayable area B, the destination direction indication is performed according to the amount of the deviation. The display position of the image may be adjusted.

図8は、図7に示したように眼鏡型デバイス20を装着したユーザの正面への視線方向aと表示可能領域Bの中央への視線方向bとの間にずれがあり、目的地の方向が正面である場合に、表示位置が調整された目的地方向指示画像の表示例を示している。この例では、目的地方向指示画像81の表示位置が、表示可能領域Bの水平方向中央より左側に調整されている。すなわち、ユーザの正面への視線方向aよりも表示可能領域Bの中央への視線方向bが右方向である時は、目的地方向指示画像81の表示位置は、表示可能領域Bの水平方向中央より左側に調整される。また、表示可能領域Bの中央への視線方向bの右方向へのずれ量が大きいほど、目的地方向指示画像81の表示位置は、表示可能領域Bの水平方向中央よりもより左側に調整される。   FIG. 8 shows a difference between the line-of-sight direction a toward the front of the user wearing the spectacle-type device 20 and the line-of-sight direction b toward the center of the displayable area B as shown in FIG. When D is a front, the example of a display of the destination direction indication image in which the display position was adjusted is shown. In this example, the display position of the destination direction instruction image 81 is adjusted to the left of the center of the displayable area B in the horizontal direction. That is, when the line-of-sight direction b toward the center of the displayable area B is the right direction rather than the line-of-sight direction a toward the user's front, the display position of the destination direction indicating image 81 is the horizontal center of the displayable area B Adjusted to the left. In addition, the display position of the destination direction instruction image 81 is adjusted to the left of the center in the horizontal direction of the displayable area B as the amount of rightward shift in the line-of-sight direction b toward the center of the displayable area B increases. The

なお、図示しないが、ユーザの正面への視線方向よりも表示可能領域の中央への視線方向が左方向である時は、目的地方向指示画像の表示位置は、表示可能領域の水平方向中央より右側に調整される。また、表示可能領域の中央への視線方向の左方向へのずれ量が大きいほど、目的地方向指示画像の表示位置は、表示可能領域の水平方向中央よりもより右側に調整される。   Although not shown, when the line-of-sight direction toward the center of the displayable area is the left direction rather than the line-of-sight direction toward the front of the user, the display position of the destination direction indication image is from the horizontal center of the displayable area. Adjusted to the right. In addition, the display position of the destination direction instruction image is adjusted more to the right than the horizontal center of the displayable region as the amount of leftward shift in the line-of-sight direction toward the center of the displayable region increases.

なお、上記の例では、表示可能領域の中央への視線方向を用いて目的地方向指示画像の表示位置の調整を行うこととしたがこれに限定せず、表示可能領域の任意の位置への視線方向を用いて調整を行ってもよい。また、ユーザの視線方向を用いて目的地方向指示画像の表示位置の調整を行うこととしたがこれに限定せず、眼鏡型デバイス20に対する画像の表示可能領域の相対位置に応じて目的地方向指示画像の表示位置の調整を行ってもよい。   In the above example, the display position of the destination direction instruction image is adjusted using the line-of-sight direction toward the center of the displayable area. However, the present invention is not limited to this, and the display position can be adjusted to any position in the displayable area. You may adjust using a gaze direction. Although the display position of the destination direction indication image is adjusted using the user's line-of-sight direction, the present invention is not limited to this, and the destination direction is determined according to the relative position of the image displayable area with respect to the glasses-type device 20. The display position of the instruction image may be adjusted.

上記のように、眼鏡型デバイス20に対する表示可能領域の相対位置に応じて、表示可能領域に表示される目的地方向指示画像の表示位置が調整されて決定される。その結果、表示可能領域が眼鏡型デバイス20を装着したユーザから見て正面の領域ではない場合であっても、ユーザは、目的地方向指示画像の表示位置により目的地(対象)の方向を直感的に把握することができる。そのため、このような機能は、目的地(対象)を目指して移動しているユーザにとってより利便性が高い。   As described above, the display position of the destination direction indication image displayed in the displayable area is adjusted and determined according to the relative position of the displayable area with respect to the glasses-type device 20. As a result, even when the displayable area is not an area in front of the user wearing the glasses-type device 20, the user can intuitively determine the direction of the destination (target) by the display position of the destination direction indication image. Can be grasped. Therefore, such a function is more convenient for a user who is moving toward a destination (target).

図9を参照して、一実施形態に係る眼鏡型デバイス20の機能構成の例を説明する。眼鏡型デバイス20は、主な機能構成として、経路探索部211、現在地情報取得部212、方向情報取得部213、アクション検知部214、音声認識部215、及び表示制御部216を備える。以下に各機能構成の詳細を説明する。   With reference to FIG. 9, the example of a function structure of the spectacles type device 20 which concerns on one Embodiment is demonstrated. The glasses-type device 20 includes a route search unit 211, a current location information acquisition unit 212, a direction information acquisition unit 213, an action detection unit 214, a voice recognition unit 215, and a display control unit 216 as main functional configurations. Details of each functional configuration will be described below.

経路探索部211は、眼鏡型デバイス20のユーザからの操作指示に応じて、経路探索処理の実行の指示をサーバ装置10に対して送信し、経路探索処理の実行結果(経路案内の情報を含む)を受信する。経路探索処理の実行の指示には、例えば、出発地、目的地、及び移動手段の情報などが含まれる。なお、経路探索処理の実行の指示は、携帯端末30を介して行い、眼鏡型デバイス20は、経路探索結果を携帯端末30から受信するようにしてもよい。   The route search unit 211 transmits an instruction to execute the route search process to the server device 10 in response to an operation instruction from the user of the glasses-type device 20, and the execution result of the route search process (including route guidance information). ). The instruction for executing the route search process includes, for example, information on the departure place, the destination, and the moving means. The route search process may be instructed via the mobile terminal 30, and the glasses-type device 20 may receive the route search result from the mobile terminal 30.

現在地情報取得部212は、携帯端末30により特定された現在地情報を携帯端末30から取得する。取得された現在地情報は、サーバ装置10に送信される。なお、現在地情報は、携帯端末30から取得することとしているが、これに限定されず、眼鏡型デバイス20が測位処理部を備え、測位処理を行うことによって、現在地情報を特定してもよい。   The current location information acquisition unit 212 acquires current location information specified by the mobile terminal 30 from the mobile terminal 30. The acquired current location information is transmitted to the server device 10. Note that the current location information is acquired from the mobile terminal 30, but the present location information is not limited to this, and the current location information may be specified by the eyeglass-type device 20 including a positioning processing unit and performing a positioning process.

方向情報取得部213は、現在地情報取得部212により取得された情報が示す現在地を起点としたときの、探索された経路の目的地の方向の情報を取得する。目的地の方向の情報は、経路探索部211により指示される経路探索処理における目的地の情報と、現在地情報取得部212により取得された現在地の情報とに基づいて算出されてもよいし、サーバ装置10から取得されてもよい。   The direction information acquisition unit 213 acquires information on the direction of the destination of the searched route when the current location indicated by the information acquired by the current location information acquisition unit 212 is the starting point. The information on the direction of the destination may be calculated based on the information on the destination in the route search process instructed by the route search unit 211 and the information on the current location acquired by the current location information acquisition unit 212. It may be acquired from the device 10.

アクション検知部214は、操作部24への入力の他、眼鏡型デバイス20のユーザの所定のアクションを検知する。所定のアクションには、例えば、ユーザの瞬きや、ユーザが眼鏡型デバイス20の正面で所定の手の動きをすることなどが含まれる。これらの所定のアクションの検知の方法は、任意の方法を用いることができ、例えば、従来の検知技術を用いることができる。   The action detection unit 214 detects a predetermined action of the user of the eyeglass-type device 20 in addition to the input to the operation unit 24. The predetermined action includes, for example, the blinking of the user or the movement of the predetermined hand by the user in front of the glasses-type device 20. An arbitrary method can be used as a method for detecting these predetermined actions, and for example, a conventional detection technique can be used.

音声認識部215は、眼鏡型デバイス20のユーザが発した音声を認識し、ユーザからの操作指示を特定する。   The voice recognition unit 215 recognizes a voice uttered by the user of the eyeglass-type device 20 and specifies an operation instruction from the user.

表示制御部216は、眼鏡型デバイス20による処理結果の情報や、外部装置から受信した情報(例えば、現在地情報や、経路探索のための操作画面や、経路探索結果の情報)など、各種の情報を表示部25(すなわち、眼鏡型デバイス20のユーザの目の近傍に位置するモニタ)に表示するように制御する。   The display control unit 216 performs various types of information such as processing result information by the eyeglass-type device 20 and information received from an external device (for example, current location information, a route search operation screen, and route search result information). Is displayed on the display unit 25 (that is, a monitor located in the vicinity of the eyes of the user of the glasses-type device 20).

また、表示制御部216は、前述の目的地方向指示画像の表示位置の情報を画像表示の制御情報としてサーバ装置10から受信し、当該制御情報に応じて目的地方向指示画像の表示部25(の表示可能領域)への表示位置を制御する。   Further, the display control unit 216 receives the information on the display position of the destination direction instruction image from the server device 10 as image display control information, and displays the destination direction instruction image display unit 25 (in accordance with the control information). The display position in (displayable area) is controlled.

なお、目的地方向指示画像の表示位置の情報を画像表示の制御情報としてサーバ装置10から受信しているがこの方法に限定されず、目的地方向指示画像の表示位置を決定する処理を表示制御部216により行ってもよい。すなわち、表示制御部216は、方向情報取得部213により特定された目的地の方向と、眼鏡型デバイス20における画像の表示可能領域の位置とに応じて、当該表示可能領域において目的地方向指示画像を表示する位置を決定し、制御することができる。目的地方向指示画像の表示位置の決定方法は、既に説明したため、ここでは省略する。   In addition, although the information of the display position of the destination direction instruction image is received from the server device 10 as the image display control information, the present invention is not limited to this method, and the display control processing for determining the display position of the destination direction instruction image is performed. You may perform by the part 216. That is, the display control unit 216 determines the destination direction indication image in the displayable area according to the direction of the destination specified by the direction information acquisition unit 213 and the position of the image displayable area in the glasses-type device 20. Can be determined and controlled. Since the method for determining the display position of the destination direction instruction image has already been described, the description thereof is omitted here.

このように、表示制御部216は、目的地の方向と、眼鏡型デバイス20における画像の表示可能領域の位置とに応じて、当該表示可能領域における目的地方向指示画像の表示位置を決定する。その結果、ユーザは、目的地方向指示画像の表示位置により目的地の方向を直感的に把握することができるため、このような機能は、目的地を目指して移動しているユーザにとって利便性が高い。   As described above, the display control unit 216 determines the display position of the destination direction indicating image in the displayable area according to the direction of the destination and the position of the displayable area of the image on the glasses-type device 20. As a result, since the user can intuitively grasp the direction of the destination based on the display position of the destination direction instruction image, such a function is convenient for the user who is moving toward the destination. high.

[処理フロー]
次に、図10を参照して、サーバ装置10において実行される処理のフローを説明する。なお、以下に説明する処理フローに含まれる各処理ステップは、処理内容に矛盾を生じない範囲で、任意に順番を変更して又は並列に実行することができるとともに、各処理ステップ間に他のステップを追加してもよい。また、便宜上1ステップとして記載されているステップは、複数ステップに分けて実行することができる一方、便宜上複数ステップに分けて記載されているものは、1ステップとして把握することができる。なお、各処理ステップの処理の詳細は、既に説明しているためここでは省略する。
[Processing flow]
Next, with reference to FIG. 10, a flow of processing executed in the server device 10 will be described. Each processing step included in the processing flow described below can be executed in any order or in parallel as long as there is no contradiction in the processing contents. Steps may be added. Further, a step described as one step for convenience can be executed by being divided into a plurality of steps, while a step described as being divided into a plurality of steps for convenience can be grasped as one step. Note that details of the processing of each processing step have already been described, and are omitted here.

まず、ステップS11において、制御部11は、眼鏡型デバイス20又は携帯端末30のユーザからの操作指示に応じて、経路探索の処理を行う。   First, in step S <b> 11, the control unit 11 performs a route search process in response to an operation instruction from a user of the glasses-type device 20 or the mobile terminal 30.

ステップS12において、制御部11は、眼鏡型デバイス20を装着し、かつ、携帯端末30を携帯するユーザの現在地情報を携帯端末30から取得する。   In step S <b> 12, the control unit 11 acquires the current location information of the user wearing the glasses-type device 20 and carrying the mobile terminal 30 from the mobile terminal 30.

ステップS13において、制御部11は、記憶部13に記憶された地図情報を参照して、ステップS12で取得された情報が示す現在地を起点としたときの探索された経路の目的地の方向を特定し、特定された目的地の方向の情報を眼鏡型デバイス20及び/又は携帯端末30へ送信する。   In step S13, the control unit 11 refers to the map information stored in the storage unit 13, and specifies the direction of the destination of the searched route when the current location indicated by the information acquired in step S12 is the starting point. Then, information on the direction of the specified destination is transmitted to the eyeglass-type device 20 and / or the mobile terminal 30.

ステップS14において、制御部11は、ステップS13で特定された目的地の方向と、眼鏡型デバイス20における画像の表示可能領域の位置とに応じて、当該表示可能領域において目的地方向指示画像を表示する位置を決定し、決定した位置の情報を画像表示の制御情報として、眼鏡型デバイス20に送信する。   In step S <b> 14, the control unit 11 displays a destination direction indication image in the displayable area according to the direction of the destination specified in step S <b> 13 and the position of the image displayable area in the glasses-type device 20. The position to be determined is determined, and information on the determined position is transmitted to the glasses-type device 20 as image display control information.

以上のように本実施形態によれば、目的地の方向と、眼鏡型デバイス20における画像の表示可能領域の位置とに応じて、当該表示可能領域における目的地方向指示画像の表示位置を決定し、制御する。その結果、ユーザは、目的地方向指示画像の表示位置により目的地の方向を直感的に把握することができるため、このような機能は、目的地を目指して移動しているユーザにとって利便性が高い。   As described above, according to the present embodiment, the display position of the destination direction indicating image in the displayable area is determined according to the direction of the destination and the position of the displayable area of the image on the glasses-type device 20. ,Control. As a result, since the user can intuitively grasp the direction of the destination based on the display position of the destination direction instruction image, such a function is convenient for the user who is moving toward the destination. high.

[変形例]
上記の実施形態では、表示可能領域における目的地方向指示画像の表示位置を決定するために用いる目的地の方向として、経路探索により得られた経路の目的地の方向を用いているがこの方法に限定しない。例えば、目的地方向指示画像の表示位置を決定するために、周辺検索により得られた対象の方向を目的地の方向として用いてもよい。
[Modification]
In the above embodiment, the direction of the destination of the route obtained by the route search is used as the direction of the destination used for determining the display position of the destination direction indication image in the displayable area. Not limited. For example, in order to determine the display position of the destination direction indication image, the target direction obtained by the peripheral search may be used as the destination direction.

具体的な例として、コンビニエンスストアの周辺検索の結果を用いる方法について説明する。まず、サーバ装置10の制御部11は、眼鏡型デバイス20を装着し、かつ、携帯端末30を携帯するユーザの現在地の情報を携帯端末30から取得する。次に、制御部11は、記憶部13に記憶された地図情報を参照して、当該現在地の周辺(例えば、現在地から300m以内の領域)に存在するコンビニエンスストアを検索し、検索により特定されたコンビニエンスストアの位置(目的地の位置)の情報を取得する。   As a specific example, a method using the result of a convenience store neighborhood search will be described. First, the control unit 11 of the server device 10 acquires information on the current location of the user who wears the spectacle-type device 20 and carries the mobile terminal 30 from the mobile terminal 30. Next, the control unit 11 refers to the map information stored in the storage unit 13, searches for a convenience store existing around the current location (for example, an area within 300 m from the current location), and is specified by the search. Acquire convenience store location (destination location) information.

次に、制御部11は、ユーザの現在地を起点としたときの目的地の位置の方向(対象の方向)を特定する。制御部11は、特定された対象の方向と、眼鏡型デバイス20における画像の表示可能領域の位置とに応じて、当該表示可能領域において目的地方向指示画像を表示する位置を決定し、決定した位置の情報を画像表示の制御情報として、眼鏡型デバイス20に送信する。眼鏡型デバイス20は、受信した制御情報に応じて、目的地方向指示画像を表示する。   Next, the control unit 11 specifies the direction of the destination position (target direction) when the current location of the user is the starting point. The control unit 11 determines and determines the position for displaying the destination direction indication image in the displayable area according to the specified target direction and the position of the image displayable area in the glasses-type device 20. The position information is transmitted to the glasses-type device 20 as control information for image display. The glasses-type device 20 displays a destination direction instruction image according to the received control information.

[その他の実施形態]
本発明は、上記した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において、他の様々な形で実施することができる。上記実施形態はあらゆる点で単なる例示にすぎず、限定的に解釈されるものではない。
[Other Embodiments]
The present invention is not limited to the above-described embodiment, and can be implemented in various other forms without departing from the gist of the present invention. The above-described embodiment is merely an example in all respects, and is not construed as limiting.

例えば、上記の実施形態において、表示可能領域における目的地方向指示画像の表示位置の決定は、サーバ装置10又は眼鏡型デバイス20で行うこととしたが、これに限定されず、携帯端末30で行うことにしてもよい。具体的には、携帯端末30は、ユーザの現在地を測位部36により特定し、当該特定された現在地から目的地の方向と、眼鏡型デバイス20における画像の表示可能領域の位置とに応じて、当該表示可能領域における目的地方向指示画像の表示位置を決定し、制御することができる。   For example, in the above embodiment, the determination of the display position of the destination direction indicating image in the displayable area is performed by the server device 10 or the glasses-type device 20, but the present invention is not limited to this, and is performed by the mobile terminal 30. You may decide. Specifically, the mobile terminal 30 specifies the current location of the user by the positioning unit 36, and according to the direction from the specified current location to the destination and the position of the displayable region of the image on the glasses-type device 20, The display position of the destination direction indication image in the displayable area can be determined and controlled.

10 サーバ装置、20 眼鏡型デバイス、30 携帯端末、11,21,31 制御部、11a,21a,31a CPU、11b,21b,31b メモリ、12,22,32 通信部、13,23,33 記憶部、24,34 操作部、25,35 表示部、26 カメラ、27 センサ、28 マイク、36 測位部   10 server device, 20 glasses-type device, 30 portable terminal, 11, 21, 31 control unit, 11a, 21a, 31a CPU, 11b, 21b, 31b memory, 12, 22, 32 communication unit, 13, 23, 33 storage unit 24, 34 Operation unit, 25, 35 Display unit, 26 Camera, 27 Sensor, 28 Microphone, 36 Positioning unit

Claims (8)

ウェアラブルデバイスの現在地を起点として対象の方向の情報を取得する手段と、
前記対象の方向と、前記ウェアラブルデバイスに対する画像の表示可能領域の相対位置とに応じて、当該表示可能領域において、前記対象の方向を示すための画像を表示する位置を制御する表示制御手段と、
を備え
前記表示制御手段は、前記表示可能領域が相対的に右側に配置されている場合、当該表示可能領域において、前記対象の方向を示すための画像を表示する位置を左側方向に調整し、前記表示可能領域が相対的に左側に配置されている場合、当該表示可能領域において、前記対象の方向を示すための画像を表示する位置を右側方向に調整する、情報処理システム。
Means for obtaining information on the direction of the target from the current location of the wearable device;
Display control means for controlling a position for displaying an image for indicating the direction of the target in the displayable area according to the direction of the target and the relative position of the displayable area of the image with respect to the wearable device;
Equipped with a,
When the displayable area is arranged on the right side relatively, the display control means adjusts a position for displaying an image for indicating the direction of the target in the displayable area in the left direction, and displays the display. An information processing system that adjusts, in the displayable area, a position for displaying an image for indicating the direction of the target in a rightward direction when the possible area is relatively arranged on the left side .
前記表示制御手段による前記調整することは、前記ウェアラブルデバイスを装着するユーザが正面を見たときの視線方向と、前記ユーザの前記表示可能領域への視線方向との間のずれ量に応じて前記対象の方向を示すための画像を表示する位置を調整することを含む、請求項1に記載の情報処理システム。 The adjustment by the display control means is performed according to a shift amount between a line-of-sight direction when the user wearing the wearable device looks at the front and a line-of-sight direction to the displayable area of the user. The information processing system according to claim 1, comprising adjusting a position for displaying an image for indicating a direction of an object. 前記対象の方向を示すための画像は、柱形状である、請求項1又は2に記載の情報処理システム。   The information processing system according to claim 1, wherein the image for indicating the direction of the object has a column shape. 前記対象の方向を示すための画像は、前記現在地から前記対象までの距離が短いほど、大きく又は太く表示される、請求項1から3のいずれか一項に記載の情報処理システム。   The information processing system according to any one of claims 1 to 3, wherein the image for indicating the direction of the target is displayed larger or thicker as a distance from the current location to the target is shorter. 前記表示制御手段は、前記対象が前記現在地から視認できない位置に存在する場合、前記対象を遮蔽するオブジェクトの上部外側にのみ前記対象の方向を示すための画像の少なくとも一部を表示する、請求項1から4のいずれか一項に記載の情報処理システム。   The said display control means displays at least one part of the image for showing the direction of the said object only in the upper part outside of the object which shields the object, when the object exists in the position which cannot be visually recognized from the present location. The information processing system according to any one of 1 to 4. 前記表示制御手段は、前記対象が前記現在地から視認できない位置に存在する場合、前記対象を遮蔽するオブジェクト上に前記対象の方向を示すための画像を透かして表示する、請求項1から4のいずれか一項に記載の情報処理システム。   5. The display control unit according to claim 1, wherein, when the target is present at a position where the target cannot be viewed from the current location, an image for indicating the direction of the target is watermarked and displayed on an object that shields the target. The information processing system according to claim 1. ウェアラブルデバイスの現在地を起点として対象の方向の情報を取得すること、
前記対象の方向と、前記ウェアラブルデバイスに対する画像の表示可能領域の相対位置とに応じて、当該表示可能領域において、前記対象の方向を示すための画像を表示する位置を制御すること、
を備え
前記制御することは、前記表示可能領域が相対的に右側に配置されている場合、当該表示可能領域において、前記対象の方向を示すための画像を表示する位置を左側方向に調整し、前記表示可能領域が相対的に左側に配置されている場合、当該表示可能領域において、前記対象の方向を示すための画像を表示する位置を右側方向に調整することを含む、情報処理方法。
Obtaining information on the direction of the target from the current location of the wearable device,
According to the direction of the target and the relative position of the displayable area of the image with respect to the wearable device, controlling the position of displaying the image for indicating the direction of the target in the displayable area;
Equipped with a,
In the control, when the displayable area is arranged on the right side, the display position of the image for indicating the direction of the target is adjusted in the leftward direction in the displayable area, and the display An information processing method including adjusting, in the displayable area, a position for displaying an image for indicating the direction of the target in a rightward direction when the possible area is relatively arranged on the left side .
コンピュータに、
ウェアラブルデバイスの現在地を起点として対象の方向の情報を取得するステップと、
前記対象の方向と、前記ウェアラブルデバイスに対する画像の表示可能領域の相対位置とに応じて、当該表示可能領域において、前記対象の方向を示すための画像を表示する位置を制御するステップと、
を実行させるためのプログラムであって、
前記制御するステップは、前記表示可能領域が相対的に右側に配置されている場合、当該表示可能領域において、前記対象の方向を示すための画像を表示する位置を左側方向に調整し、前記表示可能領域が相対的に左側に配置されている場合、当該表示可能領域において、前記対象の方向を示すための画像を表示する位置を右側方向に調整するステップを含む、プログラム
On the computer,
Obtaining information on the direction of the target from the current location of the wearable device; and
According to the direction of the target and the relative position of the displayable area of the image with respect to the wearable device, controlling the position of displaying the image for indicating the direction of the target in the displayable area;
A program for executing,
In the controlling step, when the displayable area is relatively arranged on the right side, the display position of the image for indicating the direction of the target is adjusted in the leftward direction in the displayable area, and the display A program including a step of adjusting, in the displayable area, a position for displaying an image for indicating the direction of the target in a rightward direction when the possible area is arranged relatively on the left side .
JP2014201795A 2014-09-30 2014-09-30 Information processing system, information processing method, and program Active JP6396155B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014201795A JP6396155B2 (en) 2014-09-30 2014-09-30 Information processing system, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014201795A JP6396155B2 (en) 2014-09-30 2014-09-30 Information processing system, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2016071217A JP2016071217A (en) 2016-05-09
JP6396155B2 true JP6396155B2 (en) 2018-09-26

Family

ID=55866800

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014201795A Active JP6396155B2 (en) 2014-09-30 2014-09-30 Information processing system, information processing method, and program

Country Status (1)

Country Link
JP (1) JP6396155B2 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004304296A (en) * 2003-03-28 2004-10-28 Nikon Corp Head mount display
JP2006284458A (en) * 2005-04-01 2006-10-19 Denso Corp System for displaying drive support information
JP2010262232A (en) * 2009-05-11 2010-11-18 Konica Minolta Opto Inc Apparatus for displaying video image and head-mounted display
JP5622510B2 (en) * 2010-10-01 2014-11-12 オリンパス株式会社 Image generation system, program, and information storage medium
JP2013044836A (en) * 2011-08-23 2013-03-04 Canon Inc Video display device
JP6023568B2 (en) * 2012-11-30 2016-11-09 オリンパス株式会社 Head-mounted device

Also Published As

Publication number Publication date
JP2016071217A (en) 2016-05-09

Similar Documents

Publication Publication Date Title
US10534183B2 (en) Head-mounted display
JP5909034B1 (en) User interface for head mounted display
US10796669B2 (en) Method and apparatus to control an augmented reality head-mounted display
JP5675470B2 (en) Image generation system, program, and information storage medium
WO2011158639A1 (en) Location-related display system, mobile device and mobile device program
KR101876284B1 (en) Wearable map and image display
US10712167B2 (en) Methods, systems, and devices for displaying maps
KR20160069370A (en) Mobile terminal and control method for the mobile terminal
US20180073886A1 (en) Binaural Audio Navigation Using Short Range Wireless Transmission from Bilateral Earpieces to Receptor Device System and Method
JP5360021B2 (en) Portable information processing apparatus and computer program for portable information processing apparatus
US20130055103A1 (en) Apparatus and method for controlling three-dimensional graphical user interface (3d gui)
JP2016096513A (en) Information processing system, information processing method, and program
JP6481456B2 (en) Display control method, display control program, and information processing apparatus
US11785411B2 (en) Information processing apparatus, information processing method, and information processing system
JP6306985B2 (en) Information processing system, information processing method, and program
JP6396155B2 (en) Information processing system, information processing method, and program
JP2017102034A (en) Wearable device, control method thereof, and program
JP2016110296A (en) Wearable device, information processing method, and program
JP2023075236A (en) Locus display device
JP2011220899A (en) Information presenting system
JP6566854B2 (en) Information processing apparatus, information processing apparatus control method, and program
WO2021200187A1 (en) Portable terminal, information processing method, and storage medium
JP2018124925A (en) Terminal device and program
JP6557126B2 (en) Information processing apparatus, information processing apparatus control method, and program
JP2017102036A (en) Information processing apparatus, control method thereof, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170324

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180328

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180815

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180829

R150 Certificate of patent or registration of utility model

Ref document number: 6396155

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250