JP2021185361A - Guiding device and guiding program - Google Patents
Guiding device and guiding program Download PDFInfo
- Publication number
- JP2021185361A JP2021185361A JP2020090476A JP2020090476A JP2021185361A JP 2021185361 A JP2021185361 A JP 2021185361A JP 2020090476 A JP2020090476 A JP 2020090476A JP 2020090476 A JP2020090476 A JP 2020090476A JP 2021185361 A JP2021185361 A JP 2021185361A
- Authority
- JP
- Japan
- Prior art keywords
- guidance
- guide
- route
- display
- processing unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 claims abstract description 111
- 238000001514 detection method Methods 0.000 claims abstract description 7
- 238000009877 rendering Methods 0.000 claims abstract description 7
- 238000000034 method Methods 0.000 claims description 26
- 230000008569 process Effects 0.000 claims description 16
- 238000003384 imaging method Methods 0.000 abstract description 6
- 238000004891 communication Methods 0.000 description 18
- 230000007423 decrease Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 240000004050 Pentaglottis sempervirens Species 0.000 description 5
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000011161 development Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 230000001788 irregular Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Landscapes
- Instructional Devices (AREA)
- Navigation (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
この発明は、案内装置及び案内プログラムに関し、例えば、屋内を移動するユーザ(被案内人)の道案内に適用し得る。 The present invention relates to a guidance device and a guidance program, and can be applied to, for example, directions for a user (guided person) traveling indoors.
従来、徒歩の被案内人に対する案内(例えば、道案内等)を行う案内システム(ナビゲートシステム;ナビゲーションシステム)として特許文献1、2の記載技術が存在する。 Conventionally, the techniques described in Patent Documents 1 and 2 exist as a guidance system (navigation system; navigation system) that guides a guided person on foot (for example, route guidance).
特許文献1の記載技術では、被案内人が所持するスマートホンに現在位置を斜め上から俯瞰した地図(鳥瞰地図)と、上から見た地図を組み合わせて表示することで、被案内人に対して現在位置から目標地点までのルートを認識させやすくしている。 In the technique described in Patent Document 1, a map (bird's-eye view map) in which the current position is viewed from diagonally above and a map viewed from above are combined and displayed on the smartphone possessed by the guided person to the guided person. It makes it easier to recognize the route from the current position to the target point.
特許文献2の記載技術では、被案内人が頭部に装着したメガネ型のヘッドマウントディスプレイを被案内人視点のディスプレイとして機能させ、当該ディスプレイに目標地点へ道案内するための矢印や標識を拡張現実(Augmented Reality;以下、「AR」とも呼ぶ)のオブジェクトとしてレンダリングすることで、被案内人に対して現在位置から目標位置までのルートを認識させやすくしている。 In the technique described in Patent Document 2, a glasses-type head-mounted display worn by the guided person on the head functions as a display from the viewpoint of the guided person, and the arrow or sign for guiding the guide to the target point is expanded on the display. By rendering as an object of reality (Augmented Reality; hereinafter also referred to as “AR”), it is easy for the guided person to recognize the route from the current position to the target position.
特許文献1のようにスマートホンに鳥瞰地図(バードビューの地図)を表示させることで道案内は可能であるが、特許文献2のようにヘッドマウントディスプレイにAR表示を行う方が被案内人にとって目標位置までのルートが認識しやすい場合がある。 Although it is possible to provide directions by displaying a bird's-eye view map (bird's-eye map) on a smartphone as in Patent Document 1, it is better for the guided person to display AR on the head-mounted display as in Patent Document 2. The route to the target position may be easy to recognize.
例えば、現在位置から目標位置までの空間が狭い屋内である場合や、現在位置から目標位置までの空間に目印となるような物が存在しない場合は、ヘッドアップディスプレイにAR表示を行う方が被案内人にとって目標位置までのルートが認識しやすい。 For example, if the space from the current position to the target position is narrow indoors, or if there is no landmark in the space from the current position to the target position, it is better to display AR on the head-up display. It is easy for the guide to recognize the route to the target position.
しかしながら、特許文献2の記載技術では、メガネ型のディスプレイを別途用意する必要がある等コストや利便性の面で、特許文献1のようにスマートホンだけで完結する技術より劣っていると言える。 However, it can be said that the technology described in Patent Document 2 is inferior to the technology completed only with a smart phone as in Patent Document 1 in terms of cost and convenience such as the need to separately prepare a glasses-type display.
以上のような問題に鑑みて、被案内人に対して、より低コストで分かりやすく目的位置までの案内(ナビゲート)を行うことができる案内装置及び案内プログラムが望まれている。 In view of the above problems, a guidance device and a guidance program capable of providing guidance (navigation) to a target position to a guided person at a lower cost and in an easy-to-understand manner are desired.
第1の本発明は、撮像手段と、表示手段と、操作を受け付ける操作手段とを備える案内装置において、(1)前記案内装置の位置を検知する位置検知処理を行う位置検知手段と、(2)前記案内装置の位置を検知する位置検知処理を行う位置検知手段と、(3)前記案内装置の現在位置から被案内人を目的位置まで案内する案内ルートを決定するルート決定手段と、(4)少なくとも、前記撮像手段が撮像した撮像画像を用いたARコンテンツを表示するAR表示領域が配置された案内画面を前記表示手段に表示させるものであって、前記AR表示領域に少なくとも前記案内装置の現在位置から前記案内ルートに沿った案内方向を示す案内方向オブジェクトをレンダリングする案内画面処理手段とを有することを特徴とする。 According to the first aspect of the present invention, in a guidance device including an image pickup means, a display means, and an operation means for receiving an operation, (1) a position detection means for performing a position detection process for detecting the position of the guidance device, and (2). ) Position detecting means for detecting the position of the guidance device, (3) route determining means for determining a guidance route for guiding the guided person from the current position of the guidance device to the target position, and (4). ) At least, the display means is to display a guide screen in which an AR display area for displaying AR contents using the captured image captured by the image pickup means is arranged, and at least the guide device is displayed in the AR display area. It is characterized by having a guide screen processing means for rendering a guide direction object indicating a guide direction along the guide route from the current position.
第2の本発明の案内プログラムは、撮像手段と、表示手段と、操作を受け付ける操作手段とを備える案内装置に搭載されたコンピュータを、(2)前記案内装置の位置を検知する位置検知処理を行う位置検知手段と、(3)前記案内装置の現在位置から被案内人を目的位置まで案内する案内ルートを決定するルート決定手段と、(4)少なくとも、前記撮像手段が撮像した撮像画像を用いたARコンテンツを表示するAR表示領域が配置された案内画面を前記表示手段に表示させるものであって、前記AR表示領域に少なくとも前記案内装置の現在位置から前記案内ルートに沿った案内方向を示す案内方向オブジェクトをレンダリングする案内画面処理手段として機能させることを特徴とする。 The second guidance program of the present invention performs a position detection process of (2) detecting the position of the guidance device by using a computer mounted on a guidance device including an image pickup means, a display means, and an operation means for receiving an operation. The position detecting means to be performed, (3) the route determining means for determining the guidance route for guiding the guided person from the current position of the guiding device to the target position, and (4) at least the captured image captured by the imaging means are used. The guide screen in which the AR display area for displaying the AR content is arranged is displayed on the display means, and the AR display area indicates at least the guide direction along the guide route from the current position of the guide device. It is characterized in that it functions as a guidance screen processing means for rendering a guidance direction object.
第3の本発明は、撮像手段と、表示手段と、操作を受け付ける操作手段とを備える案内装置が行う案内方法において、(1)前記案内装置は、位置検知手段、ルート決定手段、及び案内画面処理手段を備え、(2)前記位置検知手段は、前記案内装置の位置を検知する位置検知処理を行い、(3)前記ルート決定手段は、前記案内装置の現在位置から被案内人を目的位置まで案内する案内ルートを決定し、(4)前記案内画面処理手段は、少なくとも、前記撮像手段が撮像した撮像画像を用いたARコンテンツを表示するAR表示領域が配置された案内画面を前記表示手段に表示させるものであって、前記AR表示領域に少なくとも前記案内装置の現在位置から前記案内ルートに沿った案内方向を示す案内方向オブジェクトをレンダリングすることを特徴とする。 A third aspect of the present invention is a guidance method performed by a guidance device including an image pickup means, a display means, and an operation means for receiving an operation. (1) The guidance device includes a position detecting means, a route determining means, and a guidance screen. A processing means is provided, (2) the position detecting means performs a position detecting process for detecting the position of the guiding device, and (3) the route determining means targets a guided person from the current position of the guiding device. (4) The guidance screen processing means displays a guidance screen in which an AR display area for displaying AR contents using the captured image captured by the imaging means is arranged. The AR display area is characterized by rendering a guide direction object indicating a guide direction along the guide route from at least the current position of the guide device.
本発明によれば、被案内人に対して、より低コストで分かりやすく目的位置までの案内を行うことができる案内装置及び案内プログラムを提供することができる。 INDUSTRIAL APPLICABILITY According to the present invention, it is possible to provide a guide device and a guide program capable of providing a guide to a target position at a lower cost and in an easy-to-understand manner.
(A)主たる実施形態
以下、本発明による案内装置及び案内プログラムの一実施形態を、図面を参照しながら詳述する。
(A) Main Embodiment Hereinafter, one embodiment of the guidance device and the guidance program according to the present invention will be described in detail with reference to the drawings.
(A−1)実施形態の構成
図1は、この実施形態の案内装置10の全体構成を示すブロック図である。
(A-1) Configuration of the Embodiment FIG. 1 is a block diagram showing an overall configuration of the
案内装置10は、当該案内装置10を所持するユーザ(以下、「被案内人」又は「被ナビゲート人」とも呼ぶ)に対して、目的位置までのルート等を案内(ナビゲート;道案内)する処理を行う装置である。
The
図2に示すように、案内装置10は、タッチパネルディスプレイ11、カメラ12、制御部13、センサ部14、及び通信部15を有している。
As shown in FIG. 2, the
制御部13は、案内装置10の全体を制御する機能を担っており、被案内人に対してタッチパネルディスプレイ11等のユーザインタフェースデバイスを用いて目的地までのルート等を案内(ナビゲート)する処理を行う。
The
制御部13は、図示しないコンピュータにプログラム(実施形態に係る案内プログラムを含む)をインストールすることによりソフトウェア的に構成するようにしてもよいし、ハードウェア的に構成(例えば、専用の半導体チップ等を用いて構成)するようにしてもよい。この実施形態では、制御部13は、コンピュータを用いてソフトウェア的に構成されているものとして説明する。
The
カメラ12は、現実空間を撮像することが可能な撮像手段である。
The
タッチパネルディスプレイ11は、ユーザに画像(例えば、操作画面等の画像)を表示出力(提示)することが可能な表示手段(ディスプレイ機能)と、ユーザからの操作を受け付けることが可能な操作手段(タッチパネル機能)を備えている。
The
センサ部14は、当該案内装置10の動きを検知するためのセンサ群である。センサ部14には、例えば、加速度センサやジャイロセンサを含むセンサ群を適用することができる。
The
通信部15は、1又は複数の通信方式により外部と無線通信可能な通信手段である。通信部15が対応する通信方式の種類や数は限定されないものである。例として、この実施形態の通信部15は、Wi−Fi通信(登録商標;無線LAN通信)、Bluetooth(登録商標)、LTE(Long Term Evolution)、いわゆる5G(第5世代移動通信システム)等の通信手段のうち1又は複数に対応しているものとして説明する。
The
以上のように、案内装置10は、ハードウェア的には、例えば、スマートホンやタブレットPC等のタッチパネル、カメラ、及び各種センサを備える情報処理装置を用いて構成することができる。この実施形態では、案内装置10は、ハードウェアとしてスマートホンを用いて構成されているものとして説明する。すなわち、案内処理部131は、スマートホンにインストール可能なアプリケーションプログラムであるものとして説明する。
As described above, in terms of hardware, the
図2は、この実施形態の案内装置10外観の例について示した図である。
FIG. 2 is a diagram showing an example of the appearance of the
この実施形態の例では、案内装置10は、図2に示すような外観のスマートホンを用いて構成されているものとして説明する。
In the example of this embodiment, the
図2(a)は、案内装置10をタッチパネルディスプレイ11の側(カメラ12と反対側)から見た図である。また、図2(b)は、案内装置10をタッチパネルディスプレイ11と反対の側(カメラ12の側)から見た図である。
FIG. 2A is a view of the
次に、案内処理部131の概要について説明する。
Next, the outline of the
案内処理部131は、AR(Augmented Reality;拡張現実)技術により、カメラ12で撮像された現実空間の画像(以下、「撮像画像」と呼ぶ)に、現実空間の座標が紐づけられた仮想オブジェクト(いわゆるARオブジェクト)をレンダリング(描画)した画像を生成してタッチパネルディスプレイ11に表示させる処理を行う。すなわち、案内処理部131は、被案内人に対して、現在位置から目的位置への到達を案内するための案内情報(例えば、目的位置まで到達するルートや現在の位置や案内する方向等)をAR技術を用いてタッチパネルディスプレイ11に表示させる。
The
案内処理部131では、ARに関する画像処理や情報処理等を行う構成要素としてAR処理部131aを備えている。この実施形態の例では、AR処理部131aには、種々のARシステム(ミドルウェア/プラットフォーム)を適用することができるものとして説明する。具体的には、この実施形態の例では、AR処理部131aにARシステムとしてARkit(登録商標)が適用されるものとして説明する。なお、AR処理部131aに適用するARのシステムはARkitに限定されず種々の環境を適用することができる。例えば、案内装置10のOSがAndroid(登録商標)であればARCore(登録商標)を用いてもよいことは当然である。すなわち、案内処理部131(AR処理部131a)において、ARの基本的な機能については種々のARシステムを適用することができるため、本明細書ではARに関する基本的な処理(例えば、ARkitやARCOREを用いて実現可能な画像処理等)自体については詳しい説明を省略する。
The
また、案内処理部131は、種々のソフトウェアの統合開発環境(ARシステムを用いたソフトウェア開発が可能なソフトウェア統合開発環境)を用いて構築するようにしてもよい。この実施形態では、例として、案内処理部131は、Unity等を用いて開発されたものとして説明する。したがって、案内処理部131の処理説明において、Unity上のライブラリ等で定義されるクラスや関数を用いて説明する場合があるが、同様のクラスや関数について他の統合開発環境を用いて構築してもよいことは当然である。
Further, the
AR処理部131aは、センサ部14、タッチパネルディスプレイ11、及びカメラ12から得られる情報や画像を用いて種々のARに関する処理を実行する。なお、センサ部14については、少なくともArkitやARCore等のARシステムで必要とされるセンサ群(例えば、加速度センサ、ジャイロセンサ、磁気コンパス(方位検知センサ等)を含むセンサ群)を備えているものとし、詳しい説明を省略する。
The AR processing unit 131a executes various AR-related processes using information and images obtained from the
また、案内処理部131では、案内処理の際に自装置の位置を認識するための位置認識処理部131bを備えている。位置認識処理部131bが自装置の位置を認識する方式については限定されないものであり、種々の方式を適用することができる。例えば、位置認識処理部131bは、通信部15を介して外部からGPS(Global Positioning System)の信号(電波)を受信して自装置の位置認識処理を行うようにしてもよいし、通信部15を介して周囲の複数の無線基地局(例えば、Wi−Fiのアクセスポイント)やビーコン(例えば、Wi−FiやBluetoothに対応したビーコン)と通信する際の電波受信強度(各無線基地局の位置と、各無線基地局から自装置までの距離)に応じて自装置の位置認識処理を行うようにしてもよいし、通信部15を介して通信キャリアの基地局(例えば、LTEの基地局)と通信し、当該通信キャリアの通信網で認識された自装置の位置情報を取得(通信キャリアのサーバから取得)するようにしてもよい。
Further, the
なお、AR処理部131a及び位置認識処理部131bについては、案内処理部131と別個のアプリケーションとして構成し、連携動作させるようにしてもよいことは当然である。
It is natural that the AR processing unit 131a and the position recognition processing unit 131b may be configured as separate applications from the
以上のように、案内処理部131は、位置認識処理部131bで取得した自装置の位置情報に基づいて、目的位置までの案内処理を行う。
As described above, the
(A−2)実施形態の動作
次に、以上のような構成を有するこの実施形態の案内装置10の動作(実施形態に係る案内方法の各手順)を説明する。
(A-2) Operation of the Embodiment Next, the operation of the
図2、案内装置10(案内処理部131)が、起動してから案内処理を行うまでの動作について示したフローチャートである。 FIG. 2 is a flowchart showing the operation of the guidance device 10 (guidance processing unit 131) from the start to the guidance processing.
ここでは、まず、ユーザの操作に応じて、案内装置10(制御部13)が、案内処理部131に対応するアプリケーションを起動したものとする(S101)。アプリケーション起動の操作については、種々のスマートホンやタブレットPCの基本操作を適用することができるため、詳しい説明を省略する。
Here, first, it is assumed that the guidance device 10 (control unit 13) activates the application corresponding to the
案内処理部131は、起動すると、案内処理を開始するために必要な処理のシーケンス(以下、「起動時シーケンス」と呼ぶ)を実行する(S102)。
When the
案内処理部131は、起動時シーケンスにおいて、例えば、位置認識処理部131bを用いた自装置の位置認識処理や、認識した自装置の位置を含む地図の地図情報を保持する処理を行う。案内処理部131が保持する地図情報の形式は限定されないものであり、種々の地図情報システム(例えば、種々の地図情報アプリケーションやナビゲーションシステムで用いられるものと同様の地図情報)と同様の形式の情報(データ)を適用することができる。案内処理部131が、自装置周辺の地図情報を取得する手段は限定されないものであり任意の手段(所定の手段)を適用することができる。例えば、案内処理部131に、予め自装置周辺の地図データを保持(記録)しておくようにしてもよいし、自装置の位置(位置情報)に応じた地図情報を図示しないサーバ(例えば、インターネット上の地図データベース)からダウンロードして保持するようにしてもよい。
In the startup sequence, the
案内処理部131は、起動シーケンスが終了すると、被案内人を案内する目的位置の設定を行う(S103)。
When the activation sequence is completed, the
例えば、案内処理部131は、被案内人の操作(例えば、タッチパネルディスプレイ11に表示したGUIに対する操作入力)に応じた位置を目的位置としてもよいし、予め設定された位置を目的位置とするようにしてもよい。案内処理部131が、被案内人から目的位置の設定を受け付ける際には、種々のGUIを適用することができるため詳しい説明は省略する。
For example, the
次に、案内処理部131は、取得した地図情報等に基づいて、自装置の現在位置から目的位置まで到達可能なルートを検索し、所定の基準に従って検索したルートのから被案内人の案内処理に適用するルート(以下、「案内ルート」と呼ぶ)を決定する。例えば、案内処理部131では、移動距離や移動時間等の基準を用いて、効率的に移動可能なルートを案内ルートとして決定するようにしてもよい。また、案内処理部131は、複数の基準値を加算(重み付け加算)した評価値に基づいて案内ルートを決定するようにしてもよい。なお、案内処理部131が案内ルートを検索する処理の具体的なアルゴリズムについては、種々の処理(例えば、種々のナビゲーションシステムと同様の処理)を適用することができるため詳しい説明を省略する。
Next, the
次に、案内処理部131は、タッチパネルディスプレイ11に、目的位置までの移動を案内するための情報や画像を表示する案内画面を表示させる処理を行う(S105)。案内処理画面の詳細については後述する。
Next, the
次に、案内処理部131は、案内画面に表示させる情報や画像等の更新処理(案内処理)を継続することで、非案内人の目的位置までの移動を案内する(S106)。
Next, the
その後、案内処理部131は、自装置が目的位置に到達したことを検知すると、案内処理(案内画面の更新)を終了する(S107)。
After that, when the
次に、案内処理部131による案内処理(案内処理画面)の詳細について説明する。
Next, the details of the guidance processing (guidance processing screen) by the
ここでは、案内処理部131が取得する地図情報は、図4のような内容であるものとして説明する。
Here, the map information acquired by the
図4は、地図情報を上から見た地図として可視化した内容であるものとする。 FIG. 4 assumes that the map information is visualized as a map viewed from above.
図4に示す地図は、ある建物(屋内)の1フロア分の地図を示している。この実施形態の例では、案内装置10の初期位置は図4に示す地図(フロア)上のいずれかの位置であるものとして説明する。
The map shown in FIG. 4 shows a map for one floor of a certain building (indoor). In the example of this embodiment, the initial position of the
図4の地図(地図情報)では、空白な部分は移動可能であることを示しており、移動(通り抜け)が不可能な壁や机等の形状を実線で図示している。また、図4の地図では、壁の一部に移動可能(通り抜け可能)なドア等が設置されている部分を点線(鎖線)で図示している。 In the map (map information) of FIG. 4, the blank portion is shown to be movable, and the shapes of walls, desks, etc. that cannot be moved (passed through) are shown by solid lines. Further, in the map of FIG. 4, a portion where a movable (passable) door or the like is installed on a part of the wall is shown by a dotted line (chain line).
また、この実施形態の案内処理部131(AR処理部131a)では、ARシステムにより、図4に示す地図の各位置に対応する座標(ワールド座標系の座標)が管理されているものとする。このような、地図情報により示される各位置に対応するワールド座標系の対応付けは、種々のARシステムと同様の処理を適用することができるため、詳しい説明は省略する。 Further, in the guidance processing unit 131 (AR processing unit 131a) of this embodiment, it is assumed that the coordinates (coordinates of the world coordinate system) corresponding to each position of the map shown in FIG. 4 are managed by the AR system. Since the same processing as that of various AR systems can be applied to the association of the world coordinate system corresponding to each position indicated by the map information, detailed description thereof will be omitted.
ここでは、案内処理部131(AR処理部131a)では、図4に示す地図の床面(フロア)の各位置における二次元的な座標(ワールド座標系の座標)が管理されているものとする。本来ARシステムにより管理される座標は3Dであるが、ここでは、説明及び図示を簡易とするため、被案内人を案内する空間に高さの変化はないものとする。ここでは、図4に示す地図に対応する空間では、図4の方から見てみて左右方向の座標の軸をX軸、上下方向の座標の軸をY軸として説明する。なお、ワールド座標系において、X軸、Y軸、及びZ軸の適応は上記の組合せに限定されず種々の組合せに変更するようにしてもよい。また、上述の通り、図4に示す地図上は全て同じ高さであるため図示を省略しているが、X軸及びY軸と直交する高さの方向(床面に対して直交する方向)の軸はZ軸となる。そして、ここでは、図4の方から見て、右方向を+X方向(X座標の値が増加する方向)、左方向を−X方向(X座標の値が減少する方向)、上方向を+Y方向(Y座標の値が増加する方向)、下方向を−Y方向(Y座標の値が減少する方向)、手前側の方向(フロアから上側の方向)を+Z方向(Z座標の値が増加する方向)、奥側の方向(フロアから下側の方向)を−Z方向(Z座標の値が減少する方向)とそれぞれ呼ぶものとする。 Here, it is assumed that the guidance processing unit 131 (AR processing unit 131a) manages the two-dimensional coordinates (coordinates of the world coordinate system) at each position of the floor surface (floor) of the map shown in FIG. .. Originally, the coordinates managed by the AR system are 3D, but here, for the sake of simplicity in explanation and illustration, it is assumed that there is no change in height in the space for guiding the guided person. Here, in the space corresponding to the map shown in FIG. 4, the axes of the coordinates in the left-right direction will be described as the X-axis and the axes of the coordinates in the up-down direction will be described as the Y-axis when viewed from the direction of FIG. In the world coordinate system, the adaptation of the X-axis, the Y-axis, and the Z-axis is not limited to the above combinations, and may be changed to various combinations. Further, as described above, since all the maps shown in FIG. 4 have the same height, the illustration is omitted, but the direction of the height orthogonal to the X-axis and the Y-axis (direction orthogonal to the floor surface). Axis is the Z axis. And here, when viewed from the direction of FIG. 4, the right direction is the + X direction (the direction in which the X coordinate value increases), the left direction is the -X direction (the direction in which the X coordinate value decreases), and the upward direction is + Y. The direction (the direction in which the Y coordinate value increases), the downward direction is the -Y direction (the direction in which the Y coordinate value decreases), and the front direction (the direction from the floor to the upper side) is the + Z direction (the Z coordinate value increases). The direction to go) and the direction to the back (the direction from the floor to the bottom) are called the −Z direction (the direction in which the value of the Z coordinate decreases), respectively.
また、ここでは、案内装置10側のビュー座標系は、図5のように示されるものとして説明する。
Further, here, the view coordinate system on the
図5(a)は案内装置10をタッチパネルディスプレイ11側から見た図となっており、図5(b)は案内装置10を側面側(タッチパネルディスプレイ11の横側)から見た図となっている。図5では、矩形のタッチパネルディスプレイ11の短手方向(図5(a)の方から見て左右方向)の座標軸をX軸、長手方向(図5(a)、図5(b)の方から見て上下方向)の座標軸をY軸、タッチパネルディスプレイ11の画面に直交する方向(図5(a)の方から見て手前又は奥の方向、図5(b)の方から見て左右方向)の座標軸をZ軸とそれぞれ図示している。なお、ビュー座標系において、X軸、Y軸、及びZ軸の適応は上記の組合せに限定されず種々の組合せに変更するようにしてもよい。そして、ここでは、図5(a)の方から見て、右方向を−X方向(X座標の値が減少する方向)、左方向を+X方向(X座標の値が増加する方向)、上方向を+Y方向(Y座標の値が増加する方向)、下方向を−Y方向(Y座標の値が減少する方向)、手前側の方向を+Z方向(Z座標の値が増加する方向)、奥側の方向を−Z方向(Z座標の値が減少する方向)とそれぞれ呼ぶものとする。
FIG. 5A is a view of the
さらに、ここでは、案内処理部131(AR処理部131a)のARシステムにより、少なくともビュー座標系のいずれかの軸(X軸、Y軸又はZ軸のいずれか)のワールド座標系における方向が認識可能であるものとする。例えば、センサ部14に電子コンパスやジャイロセンサ等が搭載されていれば、案内処理部131(AR処理部131a)は、センサ部14のセンサデータに基づいてワールド座標系の方向との相対的な方向を認識することが可能である。例えば、Unityでは、「compass.trueHeading」というクラスにより、案内装置10(スマートホン)が真北から反時計周りに何度回転しているか(案内装置10のビュー座標系のY軸方向がワールド座標系の真北から反時計回りに何度傾いているか)を認識することができる。compass.trueHeadingクラスでは、ワールド座標系(現実空間)の水平平面(X−Y平面)上で、真北を0度として反時計回りにビュー座標系のY軸の方向との差分の角度(回転角)を0〜359「度]が返される。ここで、図6(十字型の座標系の表示部分)に示すように、+Y方向が北(真北)であるとすると、ワールド座標系の+Y方向とビュー座標系の+Y方向が一致する場合compass.trueHeadingクラスから返される値は0(度)となる。またこのとき、ビュー座標系の+Y方向がワールド座標系の+Y方向と一致する場合compass.trueHeadingクラスから返される値は0(度)となる。そして、同様にビュー座標系の+Y方向がワールド座標系の−X、−Y、+X方向の場合、それぞれの方向についてcompass.trueHeadingクラスから返される値は、90、180、270となる。
Further, here, the AR system of the guidance processing unit 131 (AR processing unit 131a) recognizes the direction of at least one of the views coordinate systems (either the X axis, the Y axis, or the Z axis) in the world coordinate system. It shall be possible. For example, if the
当然のことながら、図5に示すように、ビュー座標系において、各軸の相対的な関係は既知(互いに直交する関係)であるため、案内処理部131(AR処理部131a)では、1つの軸についてワールド座標系における方向が分かれば、他のビュー座標系の軸方向(ワールド座標系における方向)も、計算(変換)により容易に取得することができる。例えば、上記のようにcompass.trueHeadingクラスによりビュー座標系のY軸方向をワールド座標系に変換した方向が分かれば、計算により、ビュー座標系のZ軸方向やX軸方向についてもワールド座標系の方向に変換することができる。 As a matter of course, as shown in FIG. 5, in the view coordinate system, the relative relationship of each axis is known (relationship orthogonal to each other), so that the guidance processing unit 131 (AR processing unit 131a) has one. If the direction of the axis in the world coordinate system is known, the axial direction (direction in the world coordinate system) of another view coordinate system can be easily obtained by calculation (conversion). For example, as described above, compass. If the direction in which the Y-axis direction of the view coordinate system is converted into the world coordinate system is known by the trueHeading class, the Z-axis direction and the X-axis direction of the view coordinate system can also be converted into the direction of the world coordinate system by calculation.
以上のように、案内処理部131(AR処理部131a)では、ARシステムによりビュー座標系の軸方向(ワールド座標系の対応関係)を取得することで、ワールド座標系におけるタッチパネルディスプレイ11の向き/姿勢やカメラ12の光軸方向等を認識するようにしてもよい。そして、ここでは、通常、被案内人が、自らの視線の方向に案内装置10のカメラ12(カメラ12の光軸)を向けたり、自らの視線と対向(直交)するようにタッチパネルディスプレイ11の画面を向けるものと仮定する。通常、被案内人は視線の方向に応じた方向に移動すると考えられるため、案内処理部131(AR処理部131a)では、ビュー座標系のY軸又はZ軸の軸方向をワールド座標系の方向に変換することで、被案内人の進行方向(被案内人が進行しようとする方向)を把握することができる。
As described above, the guidance processing unit 131 (AR processing unit 131a) acquires the axial direction of the view coordinate system (corresponding relationship of the world coordinate system) by the AR system, so that the orientation of the
ここでは、案内処理部131(AR処理部131a)は、上記のUnityにおけるcompass.trueHeadingクラスを用いて、出力された値(0〜359度;ビュー座標系のY軸の方向)を、そのまま被案内人の進行方向「DP」として取得可能であるものとする。すなわち、ここでは、案内処理部131(AR処理部131a)が取得する進行方向DPはcompass.trueHeadingクラスと同様に0〜359で表される値であるものとしてもよい。 Here, the guidance processing unit 131 (AR processing unit 131a) is used for the above-mentioned Unity. Using the trueHeading class, it is assumed that the output value (0 to 359 degrees; the direction of the Y axis of the view coordinate system) can be acquired as it is as the traveling direction "DP" of the guided person. That is, here, the traveling direction DP acquired by the guidance processing unit 131 (AR processing unit 131a) is compass. Similar to the trueHeading class, it may be a value represented by 0 to 359.
以上のように、案内処理部131(AR処理部131a)では、ビュー座標系の軸方向(ワールド座標系における軸方向)に基づいて、タッチパネルディスプレイ11の向き/姿勢、カメラ12の光軸方向、及び被案内人の視線方向/移動方向/進行方向を認識することができると言える。なお、案内処理部131において、特に進行方向DPを取得する必要がない場合は、上記の処理を省略するようにしてもよい。
As described above, in the guidance processing unit 131 (AR processing unit 131a), the orientation / orientation of the
図6は、案内処理部131において取得された初期位置(初期(S103)における現在位置)、目的位置及び案内ルートの例について示した図である。
FIG. 6 is a diagram showing an example of an initial position (current position in the initial stage (S103)), a target position, and a guide route acquired by the
図6では、初期位置をP101、目的位置をP102と図示している。そして、図6では、初期位置P101から目的位置P102へ到達するための案内ルートR1が点線と矢印により示されている。図6に示すように、案内ルートR1は、初期位置P101から、中継位置P103を経て目的位置P102に到達するルートとなっている。 In FIG. 6, the initial position is shown as P101 and the target position is shown as P102. Then, in FIG. 6, the guide route R1 for reaching the target position P102 from the initial position P101 is shown by a dotted line and an arrow. As shown in FIG. 6, the guide route R1 is a route that reaches the target position P102 from the initial position P101 via the relay position P103.
図7は、案内画面の構成例について示した図である。 FIG. 7 is a diagram showing a configuration example of the guidance screen.
図7に示すように案内画面には、少なくとも、カメラ12で撮像された画像にAR空間上の3Dオブジェクト(仮想オブジェクト)の画像がレンダリング(描画)されたAR画像を表示するためのAR表示領域FAが配置されている。
As shown in FIG. 7, the guidance screen has at least an AR display area for displaying an AR image in which an image of a 3D object (virtual object) in the AR space is rendered (drawn) on the image captured by the
また、AR表示領域FAには、AR空間内で現在位置(被案内人の現在位置)から被案内人を案内すべき方向(以下、「案内方向」と呼ぶ)を示す矢印の形状で構成される案内方向オブジェクトOBGの画像である案内方向オブジェクト画像G_OBGがレンダリングされている。 Further, the AR display area FA is configured in the shape of an arrow indicating a direction (hereinafter referred to as "guidance direction") in which the guided person should be guided from the current position (current position of the guided person) in the AR space. The guide direction object image G_OBG, which is an image of the guide direction object OBG, is rendered.
図7では、被案内人が初期位置(P101)に居る場合における案内画面の例について示されている。 FIG. 7 shows an example of a guidance screen when the guided person is in the initial position (P101).
案内処理部131(AR処理部131a)は、現在位置(自装置の現在位置)及び案内ルートを所定の間隔(定期又は不定期の間隔)で取得し、取得した現在位置及び案内ルートに基づいて、案内画面の各標識の画像(少なくとも、「AR表示領域FAの案内方向オブジェクト画像G_OBG」を含む画像)を更新する処理を行う。案内処理部131(AR処理部131a)において、案内装置10の現在位置及び現在の案内ルートを取得する処理については上記の通りである。
The guidance processing unit 131 (AR processing unit 131a) acquires the current position (current position of its own device) and the guidance route at predetermined intervals (regular or irregular intervals), and based on the acquired current position and guidance route. , Performs a process of updating the image of each sign on the guidance screen (at least, the image including the "guidance direction object image G_OBG of the AR display area FA"). The process of acquiring the current position and the current guide route of the
図8は、案内方向オブジェクトOBGの配置例について示した図である。 FIG. 8 is a diagram showing an arrangement example of the guide direction object OBG.
図8では、AR空間において、案内装置10の現在位置PCを上方向から見た場合の図である。
FIG. 8 is a view when the current position PC of the
図8では、現在位置PCからの案内方向DGが一点鎖線と矢印で図示されている。また、図8では、現在位置PCから案内方向DGの方向に距離L1離れた位置に、案内方向オブジェクトOBGを配置する基準となる基準位置RPが図示されている。なお、ここでは、基準位置RPの高さは床面と同じ高さに設定されているものとするが、床面より高い位置(例えば、床面から3cm程度上の位置)としてもよい。案内方向オブジェクトOBGについては厚み(Z軸方向(高さ方向)の寸法)を持たせなくてもよいが、認識しやすくさせるために厚さを持たせた形状(立体的な形状)としてもよい。 In FIG. 8, the guide direction DG from the current position PC is illustrated by a alternate long and short dash line and an arrow. Further, in FIG. 8, a reference position RP as a reference for arranging the guide direction object OBG at a position separated by a distance L1 from the current position PC in the direction of the guide direction DG is shown. Here, it is assumed that the height of the reference position RP is set to the same height as the floor surface, but it may be a position higher than the floor surface (for example, a position about 3 cm above the floor surface). The guide direction object OBG does not have to have a thickness (dimension in the Z-axis direction (height direction)), but may have a thickness (three-dimensional shape) for easy recognition. ..
例えば、案内ルートが1又は複数の直線(連続する直線)で形成されている場合は、案内ルートのうち現在位置から直接延びる(延在する)直線と同じ方向(並行する方向)を案内方向DGの方向としてもよい。また、例えば、案内ルートが曲線で形成されている場合は、現在位置における案内ルートに対する接線と同じ方向(現在位置から案内ルートが存在する側に延びる接線と同じ方向(並行する方向))を案内方向DGの方向としてもよい。以上のように、案内方向DGは、現在位置から案内ルートに沿った方向であればよい。 For example, when the guide route is formed by one or a plurality of straight lines (continuous straight lines), the guide direction DG is in the same direction (parallel direction) as the straight line directly extending (extending) from the current position among the guide routes. It may be the direction of. Further, for example, when the guide route is formed by a curve, the guide is guided in the same direction as the tangent line to the guide route at the current position (the same direction as the tangent line extending from the current position to the side where the guide route exists (parallel direction)). Direction DG may be the direction. As described above, the guide direction DG may be any direction along the guide route from the current position.
例えば、案内ルートが図6に示される案内ルートR1であった場合、被案内人の現在位置が初期の位置P101とすると、案内ルートR1のうち位置P101から延びる部分は、位置P101からP103へ向けた直線であるため、この場合当該直線と並行する方向(位置P101から位置P103への方向)が案内方向DGとなる。そして、この場合の案内方向DGを反映させた案内方向オブジェクトOBG(案内方向オブジェクト画像G_OBG)は、図7のような状態となる。 For example, when the guide route is the guide route R1 shown in FIG. 6, and the current position of the guided person is the initial position P101, the portion of the guide route R1 extending from the position P101 is directed from the position P101 to P103. In this case, the direction parallel to the straight line (direction from position P101 to position P103) is the guide direction DG. Then, the guidance direction object OBG (guidance direction object image G_OBG) reflecting the guidance direction DG in this case is in the state as shown in FIG. 7.
図8では、案内方向オブジェクトOBGは、基準位置RPに応じた位置に配置されている。具体的には、案内方向オブジェクトOBGは、基準位置RPを中心とし、床面(床面の高さのX−Y平面)上で、案内方向を示す三角形のマーカ(案内方向に頂点が向けられた三角形)の形状となっている。 In FIG. 8, the guide direction object OBG is arranged at a position corresponding to the reference position RP. Specifically, the guide direction object OBG is centered on the reference position RP, and is a triangular marker indicating the guide direction (the apex is directed in the guide direction) on the floor surface (XY plane of the height of the floor surface). It has the shape of a triangle).
案内方向オブジェクトOBGの形状は案内方向DGを指し示す標識として機能すれば、三角形の形状に限定されずその他の種々の形状(例えば、矢印や指の形状等)を適用することができる。 If the shape of the guide direction object OBG functions as a sign indicating the guide direction DG, various other shapes (for example, the shape of an arrow or a finger) can be applied without being limited to the shape of a triangle.
また、この実施形態では、基準位置RPと案内方向オブジェクトOBGとの相対的な位置関係は、図8の例(案内方向オブジェクトOBGの中心位置を基準位置RPとする例)に限定されないものである。 Further, in this embodiment, the relative positional relationship between the reference position RP and the guide direction object OBG is not limited to the example of FIG. 8 (an example in which the center position of the guide direction object OBG is the reference position RP). ..
また、距離L1の値は限定されないものであるが例えば、1〜3m程度の間で設定するようにしてもよい。 Further, the value of the distance L1 is not limited, but may be set between, for example, about 1 to 3 m.
案内処理部131において、案内方向オブジェクトOBG、自装置位置マーク画像G_M、及び案内方向画像G_Gを更新するタイミングが限定されないものであり任意のタイミング(例えば、定期又は不定期のタイミング)を適用するようにしてもよい。例えば、案内処理部131は、案内方向DGや現在位置PCを取得する度に案内画面の各画像を更新するようにしてもよいし、所定の一定間隔(例えば、3秒程度)ごとに案内画面の各画像を更新するようにしてもよい。また、案内処理部131は、取得した案内方向DGや現在位置PCの値についてそのまま案内画面に反映させるようにしてもよいし、直近の複数サンプルを蓄積して平均値や加重平均値(過去の値ほど重みづけを低くする加重平均)を取得して案内画面の各画像に反映させて表示を安定させるようにしてもよい。
The timing for updating the guidance direction object OBG, the own device position mark image G_M, and the guidance direction image G_G is not limited in the
(A−3)実施形態の効果
この実施形態によれば、以下のような効果を奏することができる。
(A-3) Effect of Embodiment According to this embodiment, the following effects can be achieved.
この実施形態の案内装置10では、図7に示すように、案内方向DGに応じた案内方向オブジェクトOBGの画像(案内方向オブジェクト画像G_OBG)をAR表示領域FAにレンダリングすることで、被案内人に対して正確な案内方向を認識させることができる。
In the
また、この実施形態の案内装置10は、被案内人が所持するスマートホンに案内処理部131に相当するアプリケーションをインストールするだけで実現できるため、専用デバイス等を用意する必要がなく、低コストで導入することができる。
Further, since the
(B)他の実施形態
本発明は、上記の各実施形態に限定されるものではなく、以下に例示するような変形実施形態も挙げることができる。
(B) Other Embodiments The present invention is not limited to each of the above embodiments, and modified embodiments as illustrated below can also be mentioned.
(B−1)上記の実施形態において、案内方向オブジェクトOBGの画像の位置は、案内装置10との相対的な位置関係に基づいて設定されているが、案内方向DGに沿って動作(アニメーション)させるようにしてもよい。例えば、案内方向オブジェクトOBGの位置を、初期位置(位置PCから距離L1離れた位置)から、案内方向DGに沿って移動(被案内人から遠ざかる方向に移動)に所定距離移動させてから初期位置に戻る動作(アニメーション)を繰り返すようにしてもよい。
(B-1) In the above embodiment, the position of the image of the guide direction object OBG is set based on the relative positional relationship with the
(B−2)上記の実施形態において、案内画面のAR表示領域FAに、案内ルートに沿った線や矢印で構成される案内ルートオブジェクトの画像(案内ルートオブジェクト画像G_OBR)を追加表示(レンダリング)するようにしてもよい。 (B-2) In the above embodiment, an image of a guide route object (guide route object image G_OBR) composed of lines and arrows along the guide route is additionally displayed (rendered) in the AR display area FA of the guide screen. You may try to do it.
図9は、図7に示す案内画面のAR表示領域FAに、案内ルートR1に沿った点線で構成された案内ルートオブジェクトの画像(案内ルートオブジェクト画像G_OBR)をレンダリングした状態について図示している。これにより、被案内人に対して、案内ルートをより認識させやすくさせることができる。 FIG. 9 illustrates a state in which an image of a guide route object (guide route object image G_OBR) composed of dotted lines along the guide route R1 is rendered in the AR display area FA of the guide screen shown in FIG. 7. This makes it easier for the guided person to recognize the guided route.
(B−3)上記の実施形態において、案内画面に、被案内人(案内装置10)の現在位置を中心とした地図を表示するための地図表示領域FMを追加表示するようにしてもよい。 (B-3) In the above embodiment, the map display area FM for displaying the map centered on the current position of the guided person (guidance device 10) may be additionally displayed on the guidance screen.
図10、図11は、地図表示領域FMを追加表示した案内画面の例である。 10 and 11 are examples of guidance screens in which the map display area FM is additionally displayed.
以下では、図10の案内画面について図7の案内画面との差異について説明する。 Hereinafter, the difference between the guidance screen of FIG. 10 and the guidance screen of FIG. 7 will be described.
図10に示す案内画面では、地図表示領域FMに、被案内人(案内装置10)の現在位置を示す自装置位置マーク画像G_Mと、被案内人の現在位置からの案内方向DGを矢印で示す案内方向画像G_Gがレンダリングされている。そして、図10に示す案内画面では、案内方向オブジェクトOBG(案内方向オブジェクト画像G_OBG)と案内方向画像G_Gが示す方向を同期させる(いずれも案内方向DGとする)ことで、被案内人に対して案内方向を認識させやすくすることができる。 In the guidance screen shown in FIG. 10, in the map display area FM, the own device position mark image G_M indicating the current position of the guided person (guidance device 10) and the guidance direction DG from the current position of the guided person are indicated by arrows. The guide direction image G_G is rendered. Then, on the guidance screen shown in FIG. 10, the guidance direction object OBG (guidance direction object image G_OBG) and the direction indicated by the guidance direction image G_G are synchronized (both are set as the guidance direction DG) to the guided person. It is possible to make it easier to recognize the guidance direction.
以下では、図11の案内画面について図10の案内画面との差異について説明する。 Hereinafter, the difference between the guidance screen of FIG. 11 and the guidance screen of FIG. 10 will be described.
図11に示す案内画面では、AR表示領域FAに案内ルートR1に沿った点線で構成された案内ルートオブジェクトの画像(案内ルートオブジェクト画像G_OBR)がレンダリングされている。また、図11に示す案内画面では、地図表示領域FMに案内ルートR1に沿った点線で構成される案内ルート画像G_Rにレンダリングされている。これにより、図11に示す案内画面では、被案内人に対して、案内ルートをより認識させやすくさせることができる。 In the guidance screen shown in FIG. 11, an image of a guidance route object (guide route object image G_OBR) composed of dotted lines along the guide route R1 is rendered in the AR display area FA. Further, in the guidance screen shown in FIG. 11, the guide route image G_R composed of dotted lines along the guide route R1 is rendered in the map display area FM. As a result, on the guidance screen shown in FIG. 11, it is possible to make it easier for the guided person to recognize the guidance route.
なお、図10、図11の案内画面において、地図表示領域FMに表示する地図の形式(地図の視点や表示形式等)は限定されないものである。例えば、地図表示領域FMに鳥瞰地図(バードビューの地図)を表示するようにしてもよい。 The map format (map viewpoint, display format, etc.) displayed in the map display area FM on the guidance screens of FIGS. 10 and 11 is not limited. For example, a bird's-eye view map (bird's-eye view map) may be displayed in the map display area FM.
10…案内装置、11…タッチパネルディスプレイ、12…カメラ、13…制御部、131…案内処理部、131a…AR処理部、131b…位置認識処理部、14…センサ部、15…通信部。 10 ... Guidance device, 11 ... Touch panel display, 12 ... Camera, 13 ... Control unit, 131 ... Guidance processing unit, 131a ... AR processing unit, 131b ... Position recognition processing unit, 14 ... Sensor unit, 15 ... Communication unit.
Claims (3)
前記案内装置の位置を検知する位置検知処理を行う位置検知手段と、
前記案内装置の現在位置から被案内人を目的位置まで案内する案内ルートを決定するルート決定手段と、
少なくとも、前記撮像手段が撮像した撮像画像を用いたARコンテンツを表示するAR表示領域が配置された案内画面を前記表示手段に表示させるものであって、前記AR表示領域に少なくとも前記案内装置の現在位置から前記案内ルートに沿った案内方向を示す案内方向オブジェクトをレンダリングする案内画面処理手段と
を有することを特徴とする案内装置。 In a guidance device including an image pickup means, a display means, and an operation means for accepting an operation.
A position detecting means for performing a position detecting process for detecting the position of the guidance device, and a position detecting means.
A route determining means for determining a guidance route for guiding the guided person from the current position of the guidance device to the target position, and
At least, the display means is to display a guide screen in which an AR display area for displaying AR contents using the captured image captured by the image pickup means is arranged, and at least the present state of the guide device is displayed in the AR display area. A guide device comprising a guide screen processing means for rendering a guide direction object indicating a guide direction along the guide route from a position.
前記案内装置の位置を検知する位置検知処理を行う位置検知手段と、
前記案内装置の現在位置から被案内人を目的位置まで案内する案内ルートを決定するルート決定手段と、
前記案内装置の姿勢に基づいて前記案内装置を所持する被案内人の案内方向を検知する案内方向検知処理を行う案内方向検知手段と、
少なくとも、前記撮像手段が撮像した撮像画像を用いたARコンテンツを表示するAR表示領域が配置された案内画面を前記表示手段に表示させるものであって、前記AR表示領域に少なくとも前記案内装置の現在位置から前記案内ルートに沿った案内方向を示す案内方向オブジェクトをレンダリングする案内画面処理手段と
して機能させることを特徴とする案内プログラム。 In a guidance device including an image pickup means, a display means, and an operation means for accepting an operation.
A position detecting means for performing a position detecting process for detecting the position of the guidance device, and a position detecting means.
A route determining means for determining a guidance route for guiding the guided person from the current position of the guidance device to the target position, and
Guidance direction detecting means that performs guidance direction detection processing for detecting the guidance direction of the guided person possessing the guidance device based on the posture of the guidance device, and
At least, the display means is to display a guide screen in which an AR display area for displaying AR contents using the captured image captured by the image pickup means is arranged, and at least the present state of the guide device is displayed in the AR display area. A guidance program characterized by functioning as a guidance screen processing means for rendering a guidance direction object indicating a guidance direction along the guidance route from a position.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020090476A JP2021185361A (en) | 2020-05-25 | 2020-05-25 | Guiding device and guiding program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020090476A JP2021185361A (en) | 2020-05-25 | 2020-05-25 | Guiding device and guiding program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021185361A true JP2021185361A (en) | 2021-12-09 |
Family
ID=78815748
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020090476A Pending JP2021185361A (en) | 2020-05-25 | 2020-05-25 | Guiding device and guiding program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021185361A (en) |
-
2020
- 2020-05-25 JP JP2020090476A patent/JP2021185361A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7268692B2 (en) | Information processing device, control method and program | |
US9435656B2 (en) | Method, apparatus and computer program product for collaborative presentation of travel route information | |
US8930131B2 (en) | Method and apparatus of physically moving a portable unit to view an image of a stationary map | |
US9488488B2 (en) | Augmented reality maps | |
US9851861B2 (en) | Method and apparatus of marking objects in images displayed on a portable unit | |
US8836698B2 (en) | Method and apparatus for identifying a 3-D object from a 2-D display of a portable unit | |
CN1755326A (en) | Navigation apparatus | |
US9928305B2 (en) | Method and apparatus of physically moving a portable unit to view composite webpages of different websites | |
US20140152562A1 (en) | Display controller, display system, storage medium and method | |
US20150189476A1 (en) | Information processing apparatus, information processing method, program, and information processing system | |
EP2905746A1 (en) | Stereoscopic map display system | |
Sayapogu et al. | AR smart navigation system | |
JP2021185361A (en) | Guiding device and guiding program | |
US20120281102A1 (en) | Portable terminal, activity history depiction method, and activity history depiction system | |
JP4733343B2 (en) | Navigation system, navigation device, navigation method, and navigation program | |
JP6523353B2 (en) | Terminal device and program | |
WO2021019591A1 (en) | Path display device | |
CN112558008A (en) | Navigation method, system, equipment and medium based on optical communication device | |
JP2018010025A (en) | Device and computer program | |
Tang | A mixed reality solution for indoor navigation | |
Fajrianti et al. | A Cross-Platform Implementation of Indoor Navigation System Using Unity and Smartphone INSUS | |
JP6312953B2 (en) | Information processing apparatus and information processing method | |
KR101318324B1 (en) | System for generating a walking route poi based on image | |
JP2012189368A (en) | Terminal device, method for changing map display, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230524 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231226 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20240221 |