JP2021185361A - Guiding device and guiding program - Google Patents

Guiding device and guiding program Download PDF

Info

Publication number
JP2021185361A
JP2021185361A JP2020090476A JP2020090476A JP2021185361A JP 2021185361 A JP2021185361 A JP 2021185361A JP 2020090476 A JP2020090476 A JP 2020090476A JP 2020090476 A JP2020090476 A JP 2020090476A JP 2021185361 A JP2021185361 A JP 2021185361A
Authority
JP
Japan
Prior art keywords
guidance
guide
route
display
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020090476A
Other languages
Japanese (ja)
Inventor
希 柿▲崎▼
Nozomi Kakizaki
宇 陳
Takashi Chin
彰為 伊藤
Akinari Ito
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ITAC Solutions Inc
Original Assignee
ITAC Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ITAC Solutions Inc filed Critical ITAC Solutions Inc
Priority to JP2020090476A priority Critical patent/JP2021185361A/en
Publication of JP2021185361A publication Critical patent/JP2021185361A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

To inexpensively and comprehensively guide a guided person to a target position.SOLUTION: A guiding device includes: imaging means; display means; and operation means for accepting an operation. The guiding device includes: position detection means for performing position detection processing to detect a position of the guiding device; route determination means for determining a guiding route to guide a guided person from a present position of the guiding device to a target position; and guiding screen processing means for causing the display means to display a guiding screen where at least an AR display area to display AR content using a captured image captured by the imaging means is arranged, and also rendering at least a guiding direction object indicating a guiding direction along the guiding route from the present position of the guiding device in the AR display area.SELECTED DRAWING: Figure 1

Description

この発明は、案内装置及び案内プログラムに関し、例えば、屋内を移動するユーザ(被案内人)の道案内に適用し得る。 The present invention relates to a guidance device and a guidance program, and can be applied to, for example, directions for a user (guided person) traveling indoors.

従来、徒歩の被案内人に対する案内(例えば、道案内等)を行う案内システム(ナビゲートシステム;ナビゲーションシステム)として特許文献1、2の記載技術が存在する。 Conventionally, the techniques described in Patent Documents 1 and 2 exist as a guidance system (navigation system; navigation system) that guides a guided person on foot (for example, route guidance).

特許文献1の記載技術では、被案内人が所持するスマートホンに現在位置を斜め上から俯瞰した地図(鳥瞰地図)と、上から見た地図を組み合わせて表示することで、被案内人に対して現在位置から目標地点までのルートを認識させやすくしている。 In the technique described in Patent Document 1, a map (bird's-eye view map) in which the current position is viewed from diagonally above and a map viewed from above are combined and displayed on the smartphone possessed by the guided person to the guided person. It makes it easier to recognize the route from the current position to the target point.

特許文献2の記載技術では、被案内人が頭部に装着したメガネ型のヘッドマウントディスプレイを被案内人視点のディスプレイとして機能させ、当該ディスプレイに目標地点へ道案内するための矢印や標識を拡張現実(Augmented Reality;以下、「AR」とも呼ぶ)のオブジェクトとしてレンダリングすることで、被案内人に対して現在位置から目標位置までのルートを認識させやすくしている。 In the technique described in Patent Document 2, a glasses-type head-mounted display worn by the guided person on the head functions as a display from the viewpoint of the guided person, and the arrow or sign for guiding the guide to the target point is expanded on the display. By rendering as an object of reality (Augmented Reality; hereinafter also referred to as “AR”), it is easy for the guided person to recognize the route from the current position to the target position.

特開2019−36953号公報Japanese Unexamined Patent Publication No. 2019-36953 特開2017−15485号公報Japanese Unexamined Patent Publication No. 2017-15485

特許文献1のようにスマートホンに鳥瞰地図(バードビューの地図)を表示させることで道案内は可能であるが、特許文献2のようにヘッドマウントディスプレイにAR表示を行う方が被案内人にとって目標位置までのルートが認識しやすい場合がある。 Although it is possible to provide directions by displaying a bird's-eye view map (bird's-eye map) on a smartphone as in Patent Document 1, it is better for the guided person to display AR on the head-mounted display as in Patent Document 2. The route to the target position may be easy to recognize.

例えば、現在位置から目標位置までの空間が狭い屋内である場合や、現在位置から目標位置までの空間に目印となるような物が存在しない場合は、ヘッドアップディスプレイにAR表示を行う方が被案内人にとって目標位置までのルートが認識しやすい。 For example, if the space from the current position to the target position is narrow indoors, or if there is no landmark in the space from the current position to the target position, it is better to display AR on the head-up display. It is easy for the guide to recognize the route to the target position.

しかしながら、特許文献2の記載技術では、メガネ型のディスプレイを別途用意する必要がある等コストや利便性の面で、特許文献1のようにスマートホンだけで完結する技術より劣っていると言える。 However, it can be said that the technology described in Patent Document 2 is inferior to the technology completed only with a smart phone as in Patent Document 1 in terms of cost and convenience such as the need to separately prepare a glasses-type display.

以上のような問題に鑑みて、被案内人に対して、より低コストで分かりやすく目的位置までの案内(ナビゲート)を行うことができる案内装置及び案内プログラムが望まれている。 In view of the above problems, a guidance device and a guidance program capable of providing guidance (navigation) to a target position to a guided person at a lower cost and in an easy-to-understand manner are desired.

第1の本発明は、撮像手段と、表示手段と、操作を受け付ける操作手段とを備える案内装置において、(1)前記案内装置の位置を検知する位置検知処理を行う位置検知手段と、(2)前記案内装置の位置を検知する位置検知処理を行う位置検知手段と、(3)前記案内装置の現在位置から被案内人を目的位置まで案内する案内ルートを決定するルート決定手段と、(4)少なくとも、前記撮像手段が撮像した撮像画像を用いたARコンテンツを表示するAR表示領域が配置された案内画面を前記表示手段に表示させるものであって、前記AR表示領域に少なくとも前記案内装置の現在位置から前記案内ルートに沿った案内方向を示す案内方向オブジェクトをレンダリングする案内画面処理手段とを有することを特徴とする。 According to the first aspect of the present invention, in a guidance device including an image pickup means, a display means, and an operation means for receiving an operation, (1) a position detection means for performing a position detection process for detecting the position of the guidance device, and (2). ) Position detecting means for detecting the position of the guidance device, (3) route determining means for determining a guidance route for guiding the guided person from the current position of the guidance device to the target position, and (4). ) At least, the display means is to display a guide screen in which an AR display area for displaying AR contents using the captured image captured by the image pickup means is arranged, and at least the guide device is displayed in the AR display area. It is characterized by having a guide screen processing means for rendering a guide direction object indicating a guide direction along the guide route from the current position.

第2の本発明の案内プログラムは、撮像手段と、表示手段と、操作を受け付ける操作手段とを備える案内装置に搭載されたコンピュータを、(2)前記案内装置の位置を検知する位置検知処理を行う位置検知手段と、(3)前記案内装置の現在位置から被案内人を目的位置まで案内する案内ルートを決定するルート決定手段と、(4)少なくとも、前記撮像手段が撮像した撮像画像を用いたARコンテンツを表示するAR表示領域が配置された案内画面を前記表示手段に表示させるものであって、前記AR表示領域に少なくとも前記案内装置の現在位置から前記案内ルートに沿った案内方向を示す案内方向オブジェクトをレンダリングする案内画面処理手段として機能させることを特徴とする。 The second guidance program of the present invention performs a position detection process of (2) detecting the position of the guidance device by using a computer mounted on a guidance device including an image pickup means, a display means, and an operation means for receiving an operation. The position detecting means to be performed, (3) the route determining means for determining the guidance route for guiding the guided person from the current position of the guiding device to the target position, and (4) at least the captured image captured by the imaging means are used. The guide screen in which the AR display area for displaying the AR content is arranged is displayed on the display means, and the AR display area indicates at least the guide direction along the guide route from the current position of the guide device. It is characterized in that it functions as a guidance screen processing means for rendering a guidance direction object.

第3の本発明は、撮像手段と、表示手段と、操作を受け付ける操作手段とを備える案内装置が行う案内方法において、(1)前記案内装置は、位置検知手段、ルート決定手段、及び案内画面処理手段を備え、(2)前記位置検知手段は、前記案内装置の位置を検知する位置検知処理を行い、(3)前記ルート決定手段は、前記案内装置の現在位置から被案内人を目的位置まで案内する案内ルートを決定し、(4)前記案内画面処理手段は、少なくとも、前記撮像手段が撮像した撮像画像を用いたARコンテンツを表示するAR表示領域が配置された案内画面を前記表示手段に表示させるものであって、前記AR表示領域に少なくとも前記案内装置の現在位置から前記案内ルートに沿った案内方向を示す案内方向オブジェクトをレンダリングすることを特徴とする。 A third aspect of the present invention is a guidance method performed by a guidance device including an image pickup means, a display means, and an operation means for receiving an operation. (1) The guidance device includes a position detecting means, a route determining means, and a guidance screen. A processing means is provided, (2) the position detecting means performs a position detecting process for detecting the position of the guiding device, and (3) the route determining means targets a guided person from the current position of the guiding device. (4) The guidance screen processing means displays a guidance screen in which an AR display area for displaying AR contents using the captured image captured by the imaging means is arranged. The AR display area is characterized by rendering a guide direction object indicating a guide direction along the guide route from at least the current position of the guide device.

本発明によれば、被案内人に対して、より低コストで分かりやすく目的位置までの案内を行うことができる案内装置及び案内プログラムを提供することができる。 INDUSTRIAL APPLICABILITY According to the present invention, it is possible to provide a guide device and a guide program capable of providing a guide to a target position at a lower cost and in an easy-to-understand manner.

実施形態に係る案内装置の全体構成を示すブロック図である。It is a block diagram which shows the whole structure of the guide device which concerns on embodiment. 実施形態に係る案内装置外観の例について示した図である。It is a figure which showed the example of the appearance of the guide device which concerns on embodiment. 実施形態に係る案内処理の流れについて示したフローチャートである。It is a flowchart which showed the flow of the guidance processing which concerns on embodiment. 実施形態に係る案内装置で処理される地図情報に基づく地図(上から見た地図)について示した図である。It is a figure which showed the map (the map seen from above) based on the map information processed by the guidance device which concerns on embodiment. 実施形態に係る案内装置におけるビュー座標系の構成例について示した図である。It is a figure which showed the configuration example of the view coordinate system in the guide apparatus which concerns on embodiment. 実施形態に係る案内装置が案内する案内ルートについて示した図である。It is a figure which showed the guidance route which the guidance device which concerns on embodiment guides. 実施形態に係る案内装置が表示する案内画面の構成例について示した図である。It is a figure which showed the configuration example of the guidance screen displayed by the guidance device which concerns on embodiment. 実施形態に係る案内方向オブジェクトの配置例について示した図である。It is a figure which showed the arrangement example of the guide direction object which concerns on embodiment. 実施形態の変形例に係る案内画面の構成例(その1)について示した図である。It is a figure which showed the configuration example (the 1) of the guide screen which concerns on the modification of the embodiment. 実施形態の変形例に係る案内画面の構成例(その2)について示した図である。It is a figure which showed the configuration example (the 2) of the guide screen which concerns on the modification of the embodiment. 実施形態の変形例に係る案内画面の構成例(その3)について示した図である。It is a figure which showed the configuration example (the 3) of the guide screen which concerns on the modification of embodiment.

(A)主たる実施形態
以下、本発明による案内装置及び案内プログラムの一実施形態を、図面を参照しながら詳述する。
(A) Main Embodiment Hereinafter, one embodiment of the guidance device and the guidance program according to the present invention will be described in detail with reference to the drawings.

(A−1)実施形態の構成
図1は、この実施形態の案内装置10の全体構成を示すブロック図である。
(A-1) Configuration of the Embodiment FIG. 1 is a block diagram showing an overall configuration of the guide device 10 of the embodiment.

案内装置10は、当該案内装置10を所持するユーザ(以下、「被案内人」又は「被ナビゲート人」とも呼ぶ)に対して、目的位置までのルート等を案内(ナビゲート;道案内)する処理を行う装置である。 The guidance device 10 guides a user who possesses the guidance device 10 (hereinafter, also referred to as a "guided person" or a "navigated person") a route or the like to a destination position (navigation; route guidance). It is a device that performs processing.

図2に示すように、案内装置10は、タッチパネルディスプレイ11、カメラ12、制御部13、センサ部14、及び通信部15を有している。 As shown in FIG. 2, the guidance device 10 includes a touch panel display 11, a camera 12, a control unit 13, a sensor unit 14, and a communication unit 15.

制御部13は、案内装置10の全体を制御する機能を担っており、被案内人に対してタッチパネルディスプレイ11等のユーザインタフェースデバイスを用いて目的地までのルート等を案内(ナビゲート)する処理を行う。 The control unit 13 has a function of controlling the entire guidance device 10, and is a process of guiding (navigating) a route or the like to a destination by using a user interface device such as a touch panel display 11 to the guided person. I do.

制御部13は、図示しないコンピュータにプログラム(実施形態に係る案内プログラムを含む)をインストールすることによりソフトウェア的に構成するようにしてもよいし、ハードウェア的に構成(例えば、専用の半導体チップ等を用いて構成)するようにしてもよい。この実施形態では、制御部13は、コンピュータを用いてソフトウェア的に構成されているものとして説明する。 The control unit 13 may be configured in software by installing a program (including a guidance program according to an embodiment) in a computer (not shown), or may be configured in hardware (for example, a dedicated semiconductor chip or the like). It may be configured by using. In this embodiment, the control unit 13 will be described as being configured in software using a computer.

カメラ12は、現実空間を撮像することが可能な撮像手段である。 The camera 12 is an imaging means capable of imaging a real space.

タッチパネルディスプレイ11は、ユーザに画像(例えば、操作画面等の画像)を表示出力(提示)することが可能な表示手段(ディスプレイ機能)と、ユーザからの操作を受け付けることが可能な操作手段(タッチパネル機能)を備えている。 The touch panel display 11 has a display means (display function) capable of displaying (presenting) an image (for example, an image such as an operation screen) to the user, and an operation means (touch panel) capable of receiving an operation from the user. Function).

センサ部14は、当該案内装置10の動きを検知するためのセンサ群である。センサ部14には、例えば、加速度センサやジャイロセンサを含むセンサ群を適用することができる。 The sensor unit 14 is a group of sensors for detecting the movement of the guidance device 10. For example, a sensor group including an acceleration sensor and a gyro sensor can be applied to the sensor unit 14.

通信部15は、1又は複数の通信方式により外部と無線通信可能な通信手段である。通信部15が対応する通信方式の種類や数は限定されないものである。例として、この実施形態の通信部15は、Wi−Fi通信(登録商標;無線LAN通信)、Bluetooth(登録商標)、LTE(Long Term Evolution)、いわゆる5G(第5世代移動通信システム)等の通信手段のうち1又は複数に対応しているものとして説明する。 The communication unit 15 is a communication means capable of wirelessly communicating with the outside by one or a plurality of communication methods. The type and number of communication methods supported by the communication unit 15 are not limited. As an example, the communication unit 15 of this embodiment may be used for Wi-Fi communication (registered trademark; wireless LAN communication), Bluetooth (registered trademark), LTE (Long Term Evolution), so-called 5G (fifth generation mobile communication system), or the like. It will be described as corresponding to one or more of the communication means.

以上のように、案内装置10は、ハードウェア的には、例えば、スマートホンやタブレットPC等のタッチパネル、カメラ、及び各種センサを備える情報処理装置を用いて構成することができる。この実施形態では、案内装置10は、ハードウェアとしてスマートホンを用いて構成されているものとして説明する。すなわち、案内処理部131は、スマートホンにインストール可能なアプリケーションプログラムであるものとして説明する。 As described above, in terms of hardware, the guidance device 10 can be configured by using, for example, an information processing device including a touch panel such as a smart phone or a tablet PC, a camera, and various sensors. In this embodiment, the guidance device 10 will be described as being configured by using a smart phone as hardware. That is, the guidance processing unit 131 will be described as being an application program that can be installed on the smartphone.

図2は、この実施形態の案内装置10外観の例について示した図である。 FIG. 2 is a diagram showing an example of the appearance of the guide device 10 of this embodiment.

この実施形態の例では、案内装置10は、図2に示すような外観のスマートホンを用いて構成されているものとして説明する。 In the example of this embodiment, the guidance device 10 will be described as being configured by using a smart phone having an appearance as shown in FIG.

図2(a)は、案内装置10をタッチパネルディスプレイ11の側(カメラ12と反対側)から見た図である。また、図2(b)は、案内装置10をタッチパネルディスプレイ11と反対の側(カメラ12の側)から見た図である。 FIG. 2A is a view of the guidance device 10 as viewed from the side of the touch panel display 11 (the side opposite to the camera 12). Further, FIG. 2B is a view of the guidance device 10 as viewed from the side opposite to the touch panel display 11 (the side of the camera 12).

次に、案内処理部131の概要について説明する。 Next, the outline of the guidance processing unit 131 will be described.

案内処理部131は、AR(Augmented Reality;拡張現実)技術により、カメラ12で撮像された現実空間の画像(以下、「撮像画像」と呼ぶ)に、現実空間の座標が紐づけられた仮想オブジェクト(いわゆるARオブジェクト)をレンダリング(描画)した画像を生成してタッチパネルディスプレイ11に表示させる処理を行う。すなわち、案内処理部131は、被案内人に対して、現在位置から目的位置への到達を案内するための案内情報(例えば、目的位置まで到達するルートや現在の位置や案内する方向等)をAR技術を用いてタッチパネルディスプレイ11に表示させる。 The guidance processing unit 131 is a virtual object in which the coordinates of the real space are associated with the image of the real space (hereinafter referred to as “captured image”) captured by the camera 12 by AR (Augmented Reality) technology. A process of generating a rendered (drawn) image of (a so-called AR object) and displaying it on the touch panel display 11 is performed. That is, the guidance processing unit 131 provides guidance information (for example, a route to reach the target position, a current position, a guidance direction, etc.) for guiding the guided person to reach the target position from the current position. It is displayed on the touch panel display 11 using AR technology.

案内処理部131では、ARに関する画像処理や情報処理等を行う構成要素としてAR処理部131aを備えている。この実施形態の例では、AR処理部131aには、種々のARシステム(ミドルウェア/プラットフォーム)を適用することができるものとして説明する。具体的には、この実施形態の例では、AR処理部131aにARシステムとしてARkit(登録商標)が適用されるものとして説明する。なお、AR処理部131aに適用するARのシステムはARkitに限定されず種々の環境を適用することができる。例えば、案内装置10のOSがAndroid(登録商標)であればARCore(登録商標)を用いてもよいことは当然である。すなわち、案内処理部131(AR処理部131a)において、ARの基本的な機能については種々のARシステムを適用することができるため、本明細書ではARに関する基本的な処理(例えば、ARkitやARCOREを用いて実現可能な画像処理等)自体については詳しい説明を省略する。 The guidance processing unit 131 includes an AR processing unit 131a as a component for performing image processing, information processing, and the like related to AR. In the example of this embodiment, various AR systems (middleware / platform) can be applied to the AR processing unit 131a. Specifically, in the example of this embodiment, it is assumed that ARkit (registered trademark) is applied as an AR system to the AR processing unit 131a. The AR system applied to the AR processing unit 131a is not limited to the AR kit, and various environments can be applied. For example, if the OS of the guide device 10 is Android (registered trademark), it is natural that ARCore (registered trademark) may be used. That is, in the guidance processing unit 131 (AR processing unit 131a), various AR systems can be applied to the basic functions of AR. Therefore, in the present specification, basic processing related to AR (for example, ARkit or ARCORE) can be applied. The detailed description of the image processing that can be realized by using the above) itself will be omitted.

また、案内処理部131は、種々のソフトウェアの統合開発環境(ARシステムを用いたソフトウェア開発が可能なソフトウェア統合開発環境)を用いて構築するようにしてもよい。この実施形態では、例として、案内処理部131は、Unity等を用いて開発されたものとして説明する。したがって、案内処理部131の処理説明において、Unity上のライブラリ等で定義されるクラスや関数を用いて説明する場合があるが、同様のクラスや関数について他の統合開発環境を用いて構築してもよいことは当然である。 Further, the guidance processing unit 131 may be constructed by using an integrated development environment for various software (software integrated development environment capable of software development using an AR system). In this embodiment, as an example, the guidance processing unit 131 will be described as being developed using Unity or the like. Therefore, in the processing explanation of the guidance processing unit 131, a class or function defined in a library or the like on Unity may be used for explanation, but a similar class or function may be constructed using another integrated development environment. Of course, it's also good.

AR処理部131aは、センサ部14、タッチパネルディスプレイ11、及びカメラ12から得られる情報や画像を用いて種々のARに関する処理を実行する。なお、センサ部14については、少なくともArkitやARCore等のARシステムで必要とされるセンサ群(例えば、加速度センサ、ジャイロセンサ、磁気コンパス(方位検知センサ等)を含むセンサ群)を備えているものとし、詳しい説明を省略する。 The AR processing unit 131a executes various AR-related processes using information and images obtained from the sensor unit 14, the touch panel display 11, and the camera 12. The sensor unit 14 is provided with at least a sensor group required for an AR system such as Arkit or ARCore (for example, a sensor group including an acceleration sensor, a gyro sensor, a magnetic compass (direction detection sensor, etc.)). The detailed explanation will be omitted.

また、案内処理部131では、案内処理の際に自装置の位置を認識するための位置認識処理部131bを備えている。位置認識処理部131bが自装置の位置を認識する方式については限定されないものであり、種々の方式を適用することができる。例えば、位置認識処理部131bは、通信部15を介して外部からGPS(Global Positioning System)の信号(電波)を受信して自装置の位置認識処理を行うようにしてもよいし、通信部15を介して周囲の複数の無線基地局(例えば、Wi−Fiのアクセスポイント)やビーコン(例えば、Wi−FiやBluetoothに対応したビーコン)と通信する際の電波受信強度(各無線基地局の位置と、各無線基地局から自装置までの距離)に応じて自装置の位置認識処理を行うようにしてもよいし、通信部15を介して通信キャリアの基地局(例えば、LTEの基地局)と通信し、当該通信キャリアの通信網で認識された自装置の位置情報を取得(通信キャリアのサーバから取得)するようにしてもよい。 Further, the guidance processing unit 131 includes a position recognition processing unit 131b for recognizing the position of the own device during the guidance processing. The method in which the position recognition processing unit 131b recognizes the position of the own device is not limited, and various methods can be applied. For example, the position recognition processing unit 131b may receive a GPS (Global Positioning System) signal (radio wave) from the outside via the communication unit 15 to perform the position recognition processing of its own device, or the communication unit 15 may perform the position recognition processing. Radio reception strength (position of each radio base station) when communicating with a plurality of surrounding radio base stations (for example, Wi-Fi access points) and beacons (for example, beacons corresponding to Wi-Fi and Bluetooth) via And, the position recognition processing of the own device may be performed according to the distance from each wireless base station to the own device), or the base station of the communication carrier (for example, the base station of LTE) via the communication unit 15. The location information of the own device recognized by the communication network of the communication carrier may be acquired (acquired from the server of the communication carrier).

なお、AR処理部131a及び位置認識処理部131bについては、案内処理部131と別個のアプリケーションとして構成し、連携動作させるようにしてもよいことは当然である。 It is natural that the AR processing unit 131a and the position recognition processing unit 131b may be configured as separate applications from the guidance processing unit 131 and may be operated in cooperation with each other.

以上のように、案内処理部131は、位置認識処理部131bで取得した自装置の位置情報に基づいて、目的位置までの案内処理を行う。 As described above, the guidance processing unit 131 performs guidance processing to the target position based on the position information of the own device acquired by the position recognition processing unit 131b.

(A−2)実施形態の動作
次に、以上のような構成を有するこの実施形態の案内装置10の動作(実施形態に係る案内方法の各手順)を説明する。
(A-2) Operation of the Embodiment Next, the operation of the guidance device 10 of the embodiment having the above configuration (each procedure of the guidance method according to the embodiment) will be described.

図2、案内装置10(案内処理部131)が、起動してから案内処理を行うまでの動作について示したフローチャートである。 FIG. 2 is a flowchart showing the operation of the guidance device 10 (guidance processing unit 131) from the start to the guidance processing.

ここでは、まず、ユーザの操作に応じて、案内装置10(制御部13)が、案内処理部131に対応するアプリケーションを起動したものとする(S101)。アプリケーション起動の操作については、種々のスマートホンやタブレットPCの基本操作を適用することができるため、詳しい説明を省略する。 Here, first, it is assumed that the guidance device 10 (control unit 13) activates the application corresponding to the guidance processing unit 131 in response to the user's operation (S101). As for the operation of starting the application, since the basic operations of various smart phones and tablet PCs can be applied, detailed description thereof will be omitted.

案内処理部131は、起動すると、案内処理を開始するために必要な処理のシーケンス(以下、「起動時シーケンス」と呼ぶ)を実行する(S102)。 When the guidance processing unit 131 is started, the guidance processing unit 131 executes a processing sequence (hereinafter, referred to as a “startup sequence”) necessary for starting the guidance processing (S102).

案内処理部131は、起動時シーケンスにおいて、例えば、位置認識処理部131bを用いた自装置の位置認識処理や、認識した自装置の位置を含む地図の地図情報を保持する処理を行う。案内処理部131が保持する地図情報の形式は限定されないものであり、種々の地図情報システム(例えば、種々の地図情報アプリケーションやナビゲーションシステムで用いられるものと同様の地図情報)と同様の形式の情報(データ)を適用することができる。案内処理部131が、自装置周辺の地図情報を取得する手段は限定されないものであり任意の手段(所定の手段)を適用することができる。例えば、案内処理部131に、予め自装置周辺の地図データを保持(記録)しておくようにしてもよいし、自装置の位置(位置情報)に応じた地図情報を図示しないサーバ(例えば、インターネット上の地図データベース)からダウンロードして保持するようにしてもよい。 In the startup sequence, the guidance processing unit 131 performs, for example, a position recognition process of the own device using the position recognition processing unit 131b and a process of holding map information of a map including the recognized position of the own device. The format of the map information held by the guidance processing unit 131 is not limited, and information in the same format as various map information systems (for example, map information similar to those used in various map information applications and navigation systems). (Data) can be applied. The means by which the guidance processing unit 131 acquires the map information around the own device is not limited, and any means (predetermined means) can be applied. For example, the guidance processing unit 131 may hold (record) map data around the own device in advance, or a server (for example,) that does not show map information according to the position (position information) of the own device. You may download it from a map database on the Internet) and keep it.

案内処理部131は、起動シーケンスが終了すると、被案内人を案内する目的位置の設定を行う(S103)。 When the activation sequence is completed, the guidance processing unit 131 sets a target position for guiding the guided person (S103).

例えば、案内処理部131は、被案内人の操作(例えば、タッチパネルディスプレイ11に表示したGUIに対する操作入力)に応じた位置を目的位置としてもよいし、予め設定された位置を目的位置とするようにしてもよい。案内処理部131が、被案内人から目的位置の設定を受け付ける際には、種々のGUIを適用することができるため詳しい説明は省略する。 For example, the guidance processing unit 131 may set the position corresponding to the operation of the guided person (for example, the operation input for the GUI displayed on the touch panel display 11) as the target position, or set the preset position as the target position. You may do it. Since various GUIs can be applied when the guidance processing unit 131 receives the setting of the target position from the guided person, detailed description thereof will be omitted.

次に、案内処理部131は、取得した地図情報等に基づいて、自装置の現在位置から目的位置まで到達可能なルートを検索し、所定の基準に従って検索したルートのから被案内人の案内処理に適用するルート(以下、「案内ルート」と呼ぶ)を決定する。例えば、案内処理部131では、移動距離や移動時間等の基準を用いて、効率的に移動可能なルートを案内ルートとして決定するようにしてもよい。また、案内処理部131は、複数の基準値を加算(重み付け加算)した評価値に基づいて案内ルートを決定するようにしてもよい。なお、案内処理部131が案内ルートを検索する処理の具体的なアルゴリズムについては、種々の処理(例えば、種々のナビゲーションシステムと同様の処理)を適用することができるため詳しい説明を省略する。 Next, the guidance processing unit 131 searches for a route that can be reached from the current position of the own device to the target position based on the acquired map information and the like, and guides the guided person from the route searched according to a predetermined criterion. Determine the route to be applied to (hereinafter referred to as "guidance route"). For example, the guidance processing unit 131 may determine a route that can be efficiently traveled as a guidance route by using criteria such as a travel distance and a travel time. Further, the guidance processing unit 131 may determine the guidance route based on the evaluation value obtained by adding (weighting addition) a plurality of reference values. Since various processes (for example, the same processes as those of various navigation systems) can be applied to the specific algorithm of the process in which the guidance processing unit 131 searches for the guidance route, detailed description thereof will be omitted.

次に、案内処理部131は、タッチパネルディスプレイ11に、目的位置までの移動を案内するための情報や画像を表示する案内画面を表示させる処理を行う(S105)。案内処理画面の詳細については後述する。 Next, the guidance processing unit 131 performs a process of displaying a guidance screen for displaying information and an image for guiding the movement to the target position on the touch panel display 11 (S105). The details of the guidance processing screen will be described later.

次に、案内処理部131は、案内画面に表示させる情報や画像等の更新処理(案内処理)を継続することで、非案内人の目的位置までの移動を案内する(S106)。 Next, the guidance processing unit 131 guides the non-guide to move to the target position by continuing the update processing (guidance processing) of the information and images to be displayed on the guidance screen (S106).

その後、案内処理部131は、自装置が目的位置に到達したことを検知すると、案内処理(案内画面の更新)を終了する(S107)。 After that, when the guidance processing unit 131 detects that the own device has reached the target position, the guidance processing unit 131 ends the guidance processing (update of the guidance screen) (S107).

次に、案内処理部131による案内処理(案内処理画面)の詳細について説明する。 Next, the details of the guidance processing (guidance processing screen) by the guidance processing unit 131 will be described.

ここでは、案内処理部131が取得する地図情報は、図4のような内容であるものとして説明する。 Here, the map information acquired by the guidance processing unit 131 will be described as having the contents as shown in FIG.

図4は、地図情報を上から見た地図として可視化した内容であるものとする。 FIG. 4 assumes that the map information is visualized as a map viewed from above.

図4に示す地図は、ある建物(屋内)の1フロア分の地図を示している。この実施形態の例では、案内装置10の初期位置は図4に示す地図(フロア)上のいずれかの位置であるものとして説明する。 The map shown in FIG. 4 shows a map for one floor of a certain building (indoor). In the example of this embodiment, the initial position of the guide device 10 will be described as being any position on the map (floor) shown in FIG.

図4の地図(地図情報)では、空白な部分は移動可能であることを示しており、移動(通り抜け)が不可能な壁や机等の形状を実線で図示している。また、図4の地図では、壁の一部に移動可能(通り抜け可能)なドア等が設置されている部分を点線(鎖線)で図示している。 In the map (map information) of FIG. 4, the blank portion is shown to be movable, and the shapes of walls, desks, etc. that cannot be moved (passed through) are shown by solid lines. Further, in the map of FIG. 4, a portion where a movable (passable) door or the like is installed on a part of the wall is shown by a dotted line (chain line).

また、この実施形態の案内処理部131(AR処理部131a)では、ARシステムにより、図4に示す地図の各位置に対応する座標(ワールド座標系の座標)が管理されているものとする。このような、地図情報により示される各位置に対応するワールド座標系の対応付けは、種々のARシステムと同様の処理を適用することができるため、詳しい説明は省略する。 Further, in the guidance processing unit 131 (AR processing unit 131a) of this embodiment, it is assumed that the coordinates (coordinates of the world coordinate system) corresponding to each position of the map shown in FIG. 4 are managed by the AR system. Since the same processing as that of various AR systems can be applied to the association of the world coordinate system corresponding to each position indicated by the map information, detailed description thereof will be omitted.

ここでは、案内処理部131(AR処理部131a)では、図4に示す地図の床面(フロア)の各位置における二次元的な座標(ワールド座標系の座標)が管理されているものとする。本来ARシステムにより管理される座標は3Dであるが、ここでは、説明及び図示を簡易とするため、被案内人を案内する空間に高さの変化はないものとする。ここでは、図4に示す地図に対応する空間では、図4の方から見てみて左右方向の座標の軸をX軸、上下方向の座標の軸をY軸として説明する。なお、ワールド座標系において、X軸、Y軸、及びZ軸の適応は上記の組合せに限定されず種々の組合せに変更するようにしてもよい。また、上述の通り、図4に示す地図上は全て同じ高さであるため図示を省略しているが、X軸及びY軸と直交する高さの方向(床面に対して直交する方向)の軸はZ軸となる。そして、ここでは、図4の方から見て、右方向を+X方向(X座標の値が増加する方向)、左方向を−X方向(X座標の値が減少する方向)、上方向を+Y方向(Y座標の値が増加する方向)、下方向を−Y方向(Y座標の値が減少する方向)、手前側の方向(フロアから上側の方向)を+Z方向(Z座標の値が増加する方向)、奥側の方向(フロアから下側の方向)を−Z方向(Z座標の値が減少する方向)とそれぞれ呼ぶものとする。 Here, it is assumed that the guidance processing unit 131 (AR processing unit 131a) manages the two-dimensional coordinates (coordinates of the world coordinate system) at each position of the floor surface (floor) of the map shown in FIG. .. Originally, the coordinates managed by the AR system are 3D, but here, for the sake of simplicity in explanation and illustration, it is assumed that there is no change in height in the space for guiding the guided person. Here, in the space corresponding to the map shown in FIG. 4, the axes of the coordinates in the left-right direction will be described as the X-axis and the axes of the coordinates in the up-down direction will be described as the Y-axis when viewed from the direction of FIG. In the world coordinate system, the adaptation of the X-axis, the Y-axis, and the Z-axis is not limited to the above combinations, and may be changed to various combinations. Further, as described above, since all the maps shown in FIG. 4 have the same height, the illustration is omitted, but the direction of the height orthogonal to the X-axis and the Y-axis (direction orthogonal to the floor surface). Axis is the Z axis. And here, when viewed from the direction of FIG. 4, the right direction is the + X direction (the direction in which the X coordinate value increases), the left direction is the -X direction (the direction in which the X coordinate value decreases), and the upward direction is + Y. The direction (the direction in which the Y coordinate value increases), the downward direction is the -Y direction (the direction in which the Y coordinate value decreases), and the front direction (the direction from the floor to the upper side) is the + Z direction (the Z coordinate value increases). The direction to go) and the direction to the back (the direction from the floor to the bottom) are called the −Z direction (the direction in which the value of the Z coordinate decreases), respectively.

また、ここでは、案内装置10側のビュー座標系は、図5のように示されるものとして説明する。 Further, here, the view coordinate system on the guide device 10 side will be described as being shown as shown in FIG.

図5(a)は案内装置10をタッチパネルディスプレイ11側から見た図となっており、図5(b)は案内装置10を側面側(タッチパネルディスプレイ11の横側)から見た図となっている。図5では、矩形のタッチパネルディスプレイ11の短手方向(図5(a)の方から見て左右方向)の座標軸をX軸、長手方向(図5(a)、図5(b)の方から見て上下方向)の座標軸をY軸、タッチパネルディスプレイ11の画面に直交する方向(図5(a)の方から見て手前又は奥の方向、図5(b)の方から見て左右方向)の座標軸をZ軸とそれぞれ図示している。なお、ビュー座標系において、X軸、Y軸、及びZ軸の適応は上記の組合せに限定されず種々の組合せに変更するようにしてもよい。そして、ここでは、図5(a)の方から見て、右方向を−X方向(X座標の値が減少する方向)、左方向を+X方向(X座標の値が増加する方向)、上方向を+Y方向(Y座標の値が増加する方向)、下方向を−Y方向(Y座標の値が減少する方向)、手前側の方向を+Z方向(Z座標の値が増加する方向)、奥側の方向を−Z方向(Z座標の値が減少する方向)とそれぞれ呼ぶものとする。 FIG. 5A is a view of the guidance device 10 from the touch panel display 11 side, and FIG. 5B is a view of the guidance device 10 from the side surface side (side side of the touch panel display 11). There is. In FIG. 5, the coordinate axes of the rectangular touch panel display 11 in the lateral direction (left-right direction when viewed from FIG. 5A) are the X-axis, and the coordinate axes in the longitudinal direction (FIGS. 5A and 5B). The coordinate axis in the vertical direction when viewed is the Y-axis, the direction orthogonal to the screen of the touch panel display 11 (the front or back direction when viewed from FIG. 5 (a), the left-right direction when viewed from FIG. 5 (b)). The coordinate axes of are shown in the Z axis. In the view coordinate system, the adaptation of the X-axis, the Y-axis, and the Z-axis is not limited to the above combinations, and may be changed to various combinations. And here, when viewed from the direction of FIG. 5A, the right direction is the −X direction (the direction in which the X coordinate value decreases), the left direction is the + X direction (the direction in which the X coordinate value increases), and the upper direction. The direction is the + Y direction (the direction in which the Y coordinate value increases), the downward direction is the -Y direction (the direction in which the Y coordinate value decreases), and the front direction is the + Z direction (the direction in which the Z coordinate value increases). The direction on the back side is called the −Z direction (the direction in which the value of the Z coordinate decreases).

さらに、ここでは、案内処理部131(AR処理部131a)のARシステムにより、少なくともビュー座標系のいずれかの軸(X軸、Y軸又はZ軸のいずれか)のワールド座標系における方向が認識可能であるものとする。例えば、センサ部14に電子コンパスやジャイロセンサ等が搭載されていれば、案内処理部131(AR処理部131a)は、センサ部14のセンサデータに基づいてワールド座標系の方向との相対的な方向を認識することが可能である。例えば、Unityでは、「compass.trueHeading」というクラスにより、案内装置10(スマートホン)が真北から反時計周りに何度回転しているか(案内装置10のビュー座標系のY軸方向がワールド座標系の真北から反時計回りに何度傾いているか)を認識することができる。compass.trueHeadingクラスでは、ワールド座標系(現実空間)の水平平面(X−Y平面)上で、真北を0度として反時計回りにビュー座標系のY軸の方向との差分の角度(回転角)を0〜359「度]が返される。ここで、図6(十字型の座標系の表示部分)に示すように、+Y方向が北(真北)であるとすると、ワールド座標系の+Y方向とビュー座標系の+Y方向が一致する場合compass.trueHeadingクラスから返される値は0(度)となる。またこのとき、ビュー座標系の+Y方向がワールド座標系の+Y方向と一致する場合compass.trueHeadingクラスから返される値は0(度)となる。そして、同様にビュー座標系の+Y方向がワールド座標系の−X、−Y、+X方向の場合、それぞれの方向についてcompass.trueHeadingクラスから返される値は、90、180、270となる。 Further, here, the AR system of the guidance processing unit 131 (AR processing unit 131a) recognizes the direction of at least one of the views coordinate systems (either the X axis, the Y axis, or the Z axis) in the world coordinate system. It shall be possible. For example, if the sensor unit 14 is equipped with an electronic compass, a gyro sensor, or the like, the guidance processing unit 131 (AR processing unit 131a) is relative to the direction of the world coordinate system based on the sensor data of the sensor unit 14. It is possible to recognize the direction. For example, in Unity, how many times the guidance device 10 (smartphone) rotates counterclockwise from true north according to the class "compass. TrueHeading" (the Y-axis direction of the view coordinate system of the guidance device 10 is the world coordinates). How many times it is tilted counterclockwise from true north of the system) can be recognized. compass. In the trueHeading class, on the horizontal plane (XY plane) of the world coordinate system (real space), the angle of difference (rotation angle) from the direction of the Y axis of the view coordinate system counterclockwise with true north as 0 degree. 0 to 359 "degrees" are returned. Here, assuming that the + Y direction is north (true north) as shown in FIG. 6 (display portion of the cross-shaped coordinate system), the + Y direction of the world coordinate system is returned. When the + Y direction of the view coordinate system matches, the value returned from the compass.treeHeading class is 0 (degrees). At this time, when the + Y direction of the view coordinate system matches the + Y direction of the world coordinate system, compass. The value returned from the trueHeading class is 0 (degrees). Similarly, when the + Y direction of the view coordinate system is the -X, -Y, + X direction of the world coordinate system, it is returned from the compass.treeHeading class for each direction. The values are 90, 180, and 270.

当然のことながら、図5に示すように、ビュー座標系において、各軸の相対的な関係は既知(互いに直交する関係)であるため、案内処理部131(AR処理部131a)では、1つの軸についてワールド座標系における方向が分かれば、他のビュー座標系の軸方向(ワールド座標系における方向)も、計算(変換)により容易に取得することができる。例えば、上記のようにcompass.trueHeadingクラスによりビュー座標系のY軸方向をワールド座標系に変換した方向が分かれば、計算により、ビュー座標系のZ軸方向やX軸方向についてもワールド座標系の方向に変換することができる。 As a matter of course, as shown in FIG. 5, in the view coordinate system, the relative relationship of each axis is known (relationship orthogonal to each other), so that the guidance processing unit 131 (AR processing unit 131a) has one. If the direction of the axis in the world coordinate system is known, the axial direction (direction in the world coordinate system) of another view coordinate system can be easily obtained by calculation (conversion). For example, as described above, compass. If the direction in which the Y-axis direction of the view coordinate system is converted into the world coordinate system is known by the trueHeading class, the Z-axis direction and the X-axis direction of the view coordinate system can also be converted into the direction of the world coordinate system by calculation.

以上のように、案内処理部131(AR処理部131a)では、ARシステムによりビュー座標系の軸方向(ワールド座標系の対応関係)を取得することで、ワールド座標系におけるタッチパネルディスプレイ11の向き/姿勢やカメラ12の光軸方向等を認識するようにしてもよい。そして、ここでは、通常、被案内人が、自らの視線の方向に案内装置10のカメラ12(カメラ12の光軸)を向けたり、自らの視線と対向(直交)するようにタッチパネルディスプレイ11の画面を向けるものと仮定する。通常、被案内人は視線の方向に応じた方向に移動すると考えられるため、案内処理部131(AR処理部131a)では、ビュー座標系のY軸又はZ軸の軸方向をワールド座標系の方向に変換することで、被案内人の進行方向(被案内人が進行しようとする方向)を把握することができる。 As described above, the guidance processing unit 131 (AR processing unit 131a) acquires the axial direction of the view coordinate system (corresponding relationship of the world coordinate system) by the AR system, so that the orientation of the touch panel display 11 in the world coordinate system / The posture, the direction of the optical axis of the camera 12, and the like may be recognized. Then, here, normally, the touch panel display 11 is such that the guided person points the camera 12 (optical axis of the camera 12) of the guidance device 10 in the direction of his / her own line of sight or faces (orthogonally) his / her own line of sight. Suppose you turn the screen. Normally, the guided person is considered to move in a direction corresponding to the direction of the line of sight. Therefore, in the guidance processing unit 131 (AR processing unit 131a), the axial direction of the Y-axis or Z-axis of the view coordinate system is set to the direction of the world coordinate system. By converting to, it is possible to grasp the traveling direction of the guided person (the direction in which the guided person intends to proceed).

ここでは、案内処理部131(AR処理部131a)は、上記のUnityにおけるcompass.trueHeadingクラスを用いて、出力された値(0〜359度;ビュー座標系のY軸の方向)を、そのまま被案内人の進行方向「DP」として取得可能であるものとする。すなわち、ここでは、案内処理部131(AR処理部131a)が取得する進行方向DPはcompass.trueHeadingクラスと同様に0〜359で表される値であるものとしてもよい。 Here, the guidance processing unit 131 (AR processing unit 131a) is used for the above-mentioned Unity. Using the trueHeading class, it is assumed that the output value (0 to 359 degrees; the direction of the Y axis of the view coordinate system) can be acquired as it is as the traveling direction "DP" of the guided person. That is, here, the traveling direction DP acquired by the guidance processing unit 131 (AR processing unit 131a) is compass. Similar to the trueHeading class, it may be a value represented by 0 to 359.

以上のように、案内処理部131(AR処理部131a)では、ビュー座標系の軸方向(ワールド座標系における軸方向)に基づいて、タッチパネルディスプレイ11の向き/姿勢、カメラ12の光軸方向、及び被案内人の視線方向/移動方向/進行方向を認識することができると言える。なお、案内処理部131において、特に進行方向DPを取得する必要がない場合は、上記の処理を省略するようにしてもよい。 As described above, in the guidance processing unit 131 (AR processing unit 131a), the orientation / orientation of the touch panel display 11 and the optical axis direction of the camera 12 are based on the axial direction of the view coordinate system (axial direction in the world coordinate system). It can be said that the line-of-sight direction / movement direction / traveling direction of the guided person can be recognized. If it is not necessary to acquire the traveling direction DP in the guidance processing unit 131, the above processing may be omitted.

図6は、案内処理部131において取得された初期位置(初期(S103)における現在位置)、目的位置及び案内ルートの例について示した図である。 FIG. 6 is a diagram showing an example of an initial position (current position in the initial stage (S103)), a target position, and a guide route acquired by the guidance processing unit 131.

図6では、初期位置をP101、目的位置をP102と図示している。そして、図6では、初期位置P101から目的位置P102へ到達するための案内ルートR1が点線と矢印により示されている。図6に示すように、案内ルートR1は、初期位置P101から、中継位置P103を経て目的位置P102に到達するルートとなっている。 In FIG. 6, the initial position is shown as P101 and the target position is shown as P102. Then, in FIG. 6, the guide route R1 for reaching the target position P102 from the initial position P101 is shown by a dotted line and an arrow. As shown in FIG. 6, the guide route R1 is a route that reaches the target position P102 from the initial position P101 via the relay position P103.

図7は、案内画面の構成例について示した図である。 FIG. 7 is a diagram showing a configuration example of the guidance screen.

図7に示すように案内画面には、少なくとも、カメラ12で撮像された画像にAR空間上の3Dオブジェクト(仮想オブジェクト)の画像がレンダリング(描画)されたAR画像を表示するためのAR表示領域FAが配置されている。 As shown in FIG. 7, the guidance screen has at least an AR display area for displaying an AR image in which an image of a 3D object (virtual object) in the AR space is rendered (drawn) on the image captured by the camera 12. FA is arranged.

また、AR表示領域FAには、AR空間内で現在位置(被案内人の現在位置)から被案内人を案内すべき方向(以下、「案内方向」と呼ぶ)を示す矢印の形状で構成される案内方向オブジェクトOBGの画像である案内方向オブジェクト画像G_OBGがレンダリングされている。 Further, the AR display area FA is configured in the shape of an arrow indicating a direction (hereinafter referred to as "guidance direction") in which the guided person should be guided from the current position (current position of the guided person) in the AR space. The guide direction object image G_OBG, which is an image of the guide direction object OBG, is rendered.

図7では、被案内人が初期位置(P101)に居る場合における案内画面の例について示されている。 FIG. 7 shows an example of a guidance screen when the guided person is in the initial position (P101).

案内処理部131(AR処理部131a)は、現在位置(自装置の現在位置)及び案内ルートを所定の間隔(定期又は不定期の間隔)で取得し、取得した現在位置及び案内ルートに基づいて、案内画面の各標識の画像(少なくとも、「AR表示領域FAの案内方向オブジェクト画像G_OBG」を含む画像)を更新する処理を行う。案内処理部131(AR処理部131a)において、案内装置10の現在位置及び現在の案内ルートを取得する処理については上記の通りである。 The guidance processing unit 131 (AR processing unit 131a) acquires the current position (current position of its own device) and the guidance route at predetermined intervals (regular or irregular intervals), and based on the acquired current position and guidance route. , Performs a process of updating the image of each sign on the guidance screen (at least, the image including the "guidance direction object image G_OBG of the AR display area FA"). The process of acquiring the current position and the current guide route of the guide device 10 in the guide processing unit 131 (AR processing unit 131a) is as described above.

図8は、案内方向オブジェクトOBGの配置例について示した図である。 FIG. 8 is a diagram showing an arrangement example of the guide direction object OBG.

図8では、AR空間において、案内装置10の現在位置PCを上方向から見た場合の図である。 FIG. 8 is a view when the current position PC of the guide device 10 is viewed from above in the AR space.

図8では、現在位置PCからの案内方向DGが一点鎖線と矢印で図示されている。また、図8では、現在位置PCから案内方向DGの方向に距離L1離れた位置に、案内方向オブジェクトOBGを配置する基準となる基準位置RPが図示されている。なお、ここでは、基準位置RPの高さは床面と同じ高さに設定されているものとするが、床面より高い位置(例えば、床面から3cm程度上の位置)としてもよい。案内方向オブジェクトOBGについては厚み(Z軸方向(高さ方向)の寸法)を持たせなくてもよいが、認識しやすくさせるために厚さを持たせた形状(立体的な形状)としてもよい。 In FIG. 8, the guide direction DG from the current position PC is illustrated by a alternate long and short dash line and an arrow. Further, in FIG. 8, a reference position RP as a reference for arranging the guide direction object OBG at a position separated by a distance L1 from the current position PC in the direction of the guide direction DG is shown. Here, it is assumed that the height of the reference position RP is set to the same height as the floor surface, but it may be a position higher than the floor surface (for example, a position about 3 cm above the floor surface). The guide direction object OBG does not have to have a thickness (dimension in the Z-axis direction (height direction)), but may have a thickness (three-dimensional shape) for easy recognition. ..

例えば、案内ルートが1又は複数の直線(連続する直線)で形成されている場合は、案内ルートのうち現在位置から直接延びる(延在する)直線と同じ方向(並行する方向)を案内方向DGの方向としてもよい。また、例えば、案内ルートが曲線で形成されている場合は、現在位置における案内ルートに対する接線と同じ方向(現在位置から案内ルートが存在する側に延びる接線と同じ方向(並行する方向))を案内方向DGの方向としてもよい。以上のように、案内方向DGは、現在位置から案内ルートに沿った方向であればよい。 For example, when the guide route is formed by one or a plurality of straight lines (continuous straight lines), the guide direction DG is in the same direction (parallel direction) as the straight line directly extending (extending) from the current position among the guide routes. It may be the direction of. Further, for example, when the guide route is formed by a curve, the guide is guided in the same direction as the tangent line to the guide route at the current position (the same direction as the tangent line extending from the current position to the side where the guide route exists (parallel direction)). Direction DG may be the direction. As described above, the guide direction DG may be any direction along the guide route from the current position.

例えば、案内ルートが図6に示される案内ルートR1であった場合、被案内人の現在位置が初期の位置P101とすると、案内ルートR1のうち位置P101から延びる部分は、位置P101からP103へ向けた直線であるため、この場合当該直線と並行する方向(位置P101から位置P103への方向)が案内方向DGとなる。そして、この場合の案内方向DGを反映させた案内方向オブジェクトOBG(案内方向オブジェクト画像G_OBG)は、図7のような状態となる。 For example, when the guide route is the guide route R1 shown in FIG. 6, and the current position of the guided person is the initial position P101, the portion of the guide route R1 extending from the position P101 is directed from the position P101 to P103. In this case, the direction parallel to the straight line (direction from position P101 to position P103) is the guide direction DG. Then, the guidance direction object OBG (guidance direction object image G_OBG) reflecting the guidance direction DG in this case is in the state as shown in FIG. 7.

図8では、案内方向オブジェクトOBGは、基準位置RPに応じた位置に配置されている。具体的には、案内方向オブジェクトOBGは、基準位置RPを中心とし、床面(床面の高さのX−Y平面)上で、案内方向を示す三角形のマーカ(案内方向に頂点が向けられた三角形)の形状となっている。 In FIG. 8, the guide direction object OBG is arranged at a position corresponding to the reference position RP. Specifically, the guide direction object OBG is centered on the reference position RP, and is a triangular marker indicating the guide direction (the apex is directed in the guide direction) on the floor surface (XY plane of the height of the floor surface). It has the shape of a triangle).

案内方向オブジェクトOBGの形状は案内方向DGを指し示す標識として機能すれば、三角形の形状に限定されずその他の種々の形状(例えば、矢印や指の形状等)を適用することができる。 If the shape of the guide direction object OBG functions as a sign indicating the guide direction DG, various other shapes (for example, the shape of an arrow or a finger) can be applied without being limited to the shape of a triangle.

また、この実施形態では、基準位置RPと案内方向オブジェクトOBGとの相対的な位置関係は、図8の例(案内方向オブジェクトOBGの中心位置を基準位置RPとする例)に限定されないものである。 Further, in this embodiment, the relative positional relationship between the reference position RP and the guide direction object OBG is not limited to the example of FIG. 8 (an example in which the center position of the guide direction object OBG is the reference position RP). ..

また、距離L1の値は限定されないものであるが例えば、1〜3m程度の間で設定するようにしてもよい。 Further, the value of the distance L1 is not limited, but may be set between, for example, about 1 to 3 m.

案内処理部131において、案内方向オブジェクトOBG、自装置位置マーク画像G_M、及び案内方向画像G_Gを更新するタイミングが限定されないものであり任意のタイミング(例えば、定期又は不定期のタイミング)を適用するようにしてもよい。例えば、案内処理部131は、案内方向DGや現在位置PCを取得する度に案内画面の各画像を更新するようにしてもよいし、所定の一定間隔(例えば、3秒程度)ごとに案内画面の各画像を更新するようにしてもよい。また、案内処理部131は、取得した案内方向DGや現在位置PCの値についてそのまま案内画面に反映させるようにしてもよいし、直近の複数サンプルを蓄積して平均値や加重平均値(過去の値ほど重みづけを低くする加重平均)を取得して案内画面の各画像に反映させて表示を安定させるようにしてもよい。 The timing for updating the guidance direction object OBG, the own device position mark image G_M, and the guidance direction image G_G is not limited in the guidance processing unit 131, and an arbitrary timing (for example, periodic or irregular timing) is applied. You may do it. For example, the guidance processing unit 131 may update each image of the guidance screen every time the guidance direction DG or the current position PC is acquired, or the guidance screen may be updated at predetermined fixed intervals (for example, about 3 seconds). You may update each image of. Further, the guidance processing unit 131 may reflect the acquired values of the guidance direction DG and the current position PC as they are on the guidance screen, or accumulate the latest plurality of samples and accumulate the average value or the weighted average value (past). A weighted average that lowers the weight as the value is) may be acquired and reflected in each image on the guidance screen to stabilize the display.

(A−3)実施形態の効果
この実施形態によれば、以下のような効果を奏することができる。
(A-3) Effect of Embodiment According to this embodiment, the following effects can be achieved.

この実施形態の案内装置10では、図7に示すように、案内方向DGに応じた案内方向オブジェクトOBGの画像(案内方向オブジェクト画像G_OBG)をAR表示領域FAにレンダリングすることで、被案内人に対して正確な案内方向を認識させることができる。 In the guidance device 10 of this embodiment, as shown in FIG. 7, an image of the guidance direction object OBG (guidance direction object image G_OBG) corresponding to the guidance direction DG is rendered in the AR display area FA to inform the guided person. On the other hand, it is possible to recognize an accurate guidance direction.

また、この実施形態の案内装置10は、被案内人が所持するスマートホンに案内処理部131に相当するアプリケーションをインストールするだけで実現できるため、専用デバイス等を用意する必要がなく、低コストで導入することができる。 Further, since the guidance device 10 of this embodiment can be realized only by installing an application corresponding to the guidance processing unit 131 on the smart phone possessed by the guided person, it is not necessary to prepare a dedicated device or the like, and the cost is low. Can be introduced.

(B)他の実施形態
本発明は、上記の各実施形態に限定されるものではなく、以下に例示するような変形実施形態も挙げることができる。
(B) Other Embodiments The present invention is not limited to each of the above embodiments, and modified embodiments as illustrated below can also be mentioned.

(B−1)上記の実施形態において、案内方向オブジェクトOBGの画像の位置は、案内装置10との相対的な位置関係に基づいて設定されているが、案内方向DGに沿って動作(アニメーション)させるようにしてもよい。例えば、案内方向オブジェクトOBGの位置を、初期位置(位置PCから距離L1離れた位置)から、案内方向DGに沿って移動(被案内人から遠ざかる方向に移動)に所定距離移動させてから初期位置に戻る動作(アニメーション)を繰り返すようにしてもよい。 (B-1) In the above embodiment, the position of the image of the guide direction object OBG is set based on the relative positional relationship with the guide device 10, but it operates along the guide direction DG (animation). You may let it. For example, the position of the guidance direction object OBG is moved from the initial position (a position away from the position PC by a distance L1) to a movement along the guidance direction DG (movement in a direction away from the guided person), and then the initial position. You may repeat the operation (animation) to return to.

(B−2)上記の実施形態において、案内画面のAR表示領域FAに、案内ルートに沿った線や矢印で構成される案内ルートオブジェクトの画像(案内ルートオブジェクト画像G_OBR)を追加表示(レンダリング)するようにしてもよい。 (B-2) In the above embodiment, an image of a guide route object (guide route object image G_OBR) composed of lines and arrows along the guide route is additionally displayed (rendered) in the AR display area FA of the guide screen. You may try to do it.

図9は、図7に示す案内画面のAR表示領域FAに、案内ルートR1に沿った点線で構成された案内ルートオブジェクトの画像(案内ルートオブジェクト画像G_OBR)をレンダリングした状態について図示している。これにより、被案内人に対して、案内ルートをより認識させやすくさせることができる。 FIG. 9 illustrates a state in which an image of a guide route object (guide route object image G_OBR) composed of dotted lines along the guide route R1 is rendered in the AR display area FA of the guide screen shown in FIG. 7. This makes it easier for the guided person to recognize the guided route.

(B−3)上記の実施形態において、案内画面に、被案内人(案内装置10)の現在位置を中心とした地図を表示するための地図表示領域FMを追加表示するようにしてもよい。 (B-3) In the above embodiment, the map display area FM for displaying the map centered on the current position of the guided person (guidance device 10) may be additionally displayed on the guidance screen.

図10、図11は、地図表示領域FMを追加表示した案内画面の例である。 10 and 11 are examples of guidance screens in which the map display area FM is additionally displayed.

以下では、図10の案内画面について図7の案内画面との差異について説明する。 Hereinafter, the difference between the guidance screen of FIG. 10 and the guidance screen of FIG. 7 will be described.

図10に示す案内画面では、地図表示領域FMに、被案内人(案内装置10)の現在位置を示す自装置位置マーク画像G_Mと、被案内人の現在位置からの案内方向DGを矢印で示す案内方向画像G_Gがレンダリングされている。そして、図10に示す案内画面では、案内方向オブジェクトOBG(案内方向オブジェクト画像G_OBG)と案内方向画像G_Gが示す方向を同期させる(いずれも案内方向DGとする)ことで、被案内人に対して案内方向を認識させやすくすることができる。 In the guidance screen shown in FIG. 10, in the map display area FM, the own device position mark image G_M indicating the current position of the guided person (guidance device 10) and the guidance direction DG from the current position of the guided person are indicated by arrows. The guide direction image G_G is rendered. Then, on the guidance screen shown in FIG. 10, the guidance direction object OBG (guidance direction object image G_OBG) and the direction indicated by the guidance direction image G_G are synchronized (both are set as the guidance direction DG) to the guided person. It is possible to make it easier to recognize the guidance direction.

以下では、図11の案内画面について図10の案内画面との差異について説明する。 Hereinafter, the difference between the guidance screen of FIG. 11 and the guidance screen of FIG. 10 will be described.

図11に示す案内画面では、AR表示領域FAに案内ルートR1に沿った点線で構成された案内ルートオブジェクトの画像(案内ルートオブジェクト画像G_OBR)がレンダリングされている。また、図11に示す案内画面では、地図表示領域FMに案内ルートR1に沿った点線で構成される案内ルート画像G_Rにレンダリングされている。これにより、図11に示す案内画面では、被案内人に対して、案内ルートをより認識させやすくさせることができる。 In the guidance screen shown in FIG. 11, an image of a guidance route object (guide route object image G_OBR) composed of dotted lines along the guide route R1 is rendered in the AR display area FA. Further, in the guidance screen shown in FIG. 11, the guide route image G_R composed of dotted lines along the guide route R1 is rendered in the map display area FM. As a result, on the guidance screen shown in FIG. 11, it is possible to make it easier for the guided person to recognize the guidance route.

なお、図10、図11の案内画面において、地図表示領域FMに表示する地図の形式(地図の視点や表示形式等)は限定されないものである。例えば、地図表示領域FMに鳥瞰地図(バードビューの地図)を表示するようにしてもよい。 The map format (map viewpoint, display format, etc.) displayed in the map display area FM on the guidance screens of FIGS. 10 and 11 is not limited. For example, a bird's-eye view map (bird's-eye view map) may be displayed in the map display area FM.

10…案内装置、11…タッチパネルディスプレイ、12…カメラ、13…制御部、131…案内処理部、131a…AR処理部、131b…位置認識処理部、14…センサ部、15…通信部。 10 ... Guidance device, 11 ... Touch panel display, 12 ... Camera, 13 ... Control unit, 131 ... Guidance processing unit, 131a ... AR processing unit, 131b ... Position recognition processing unit, 14 ... Sensor unit, 15 ... Communication unit.

Claims (3)

撮像手段と、表示手段と、操作を受け付ける操作手段とを備える案内装置において、
前記案内装置の位置を検知する位置検知処理を行う位置検知手段と、
前記案内装置の現在位置から被案内人を目的位置まで案内する案内ルートを決定するルート決定手段と、
少なくとも、前記撮像手段が撮像した撮像画像を用いたARコンテンツを表示するAR表示領域が配置された案内画面を前記表示手段に表示させるものであって、前記AR表示領域に少なくとも前記案内装置の現在位置から前記案内ルートに沿った案内方向を示す案内方向オブジェクトをレンダリングする案内画面処理手段と
を有することを特徴とする案内装置。
In a guidance device including an image pickup means, a display means, and an operation means for accepting an operation.
A position detecting means for performing a position detecting process for detecting the position of the guidance device, and a position detecting means.
A route determining means for determining a guidance route for guiding the guided person from the current position of the guidance device to the target position, and
At least, the display means is to display a guide screen in which an AR display area for displaying AR contents using the captured image captured by the image pickup means is arranged, and at least the present state of the guide device is displayed in the AR display area. A guide device comprising a guide screen processing means for rendering a guide direction object indicating a guide direction along the guide route from a position.
前記案内画面処理手段は、前記案内画面に、さらに前記案内装置の現在位置を含む領域の地図を表示する地図表示領域を追加表示し、前記地図表示領域に少なくとも前記被案内人の位置及び案内方向を示すオブジェクトをレンダリングすることを特徴とする請求項1に記載の案内装置。 The guidance screen processing means additionally displays a map display area for displaying a map of an area including the current position of the guidance device on the guidance screen, and at least the position and guidance direction of the guided person are displayed in the map display area. The guidance device according to claim 1, wherein an object indicating the above is rendered. 撮像手段と、表示手段と、操作を受け付ける操作手段とを備える案内装置において、
前記案内装置の位置を検知する位置検知処理を行う位置検知手段と、
前記案内装置の現在位置から被案内人を目的位置まで案内する案内ルートを決定するルート決定手段と、
前記案内装置の姿勢に基づいて前記案内装置を所持する被案内人の案内方向を検知する案内方向検知処理を行う案内方向検知手段と、
少なくとも、前記撮像手段が撮像した撮像画像を用いたARコンテンツを表示するAR表示領域が配置された案内画面を前記表示手段に表示させるものであって、前記AR表示領域に少なくとも前記案内装置の現在位置から前記案内ルートに沿った案内方向を示す案内方向オブジェクトをレンダリングする案内画面処理手段と
して機能させることを特徴とする案内プログラム。
In a guidance device including an image pickup means, a display means, and an operation means for accepting an operation.
A position detecting means for performing a position detecting process for detecting the position of the guidance device, and a position detecting means.
A route determining means for determining a guidance route for guiding the guided person from the current position of the guidance device to the target position, and
Guidance direction detecting means that performs guidance direction detection processing for detecting the guidance direction of the guided person possessing the guidance device based on the posture of the guidance device, and
At least, the display means is to display a guide screen in which an AR display area for displaying AR contents using the captured image captured by the image pickup means is arranged, and at least the present state of the guide device is displayed in the AR display area. A guidance program characterized by functioning as a guidance screen processing means for rendering a guidance direction object indicating a guidance direction along the guidance route from a position.
JP2020090476A 2020-05-25 2020-05-25 Guiding device and guiding program Pending JP2021185361A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020090476A JP2021185361A (en) 2020-05-25 2020-05-25 Guiding device and guiding program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020090476A JP2021185361A (en) 2020-05-25 2020-05-25 Guiding device and guiding program

Publications (1)

Publication Number Publication Date
JP2021185361A true JP2021185361A (en) 2021-12-09

Family

ID=78815748

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020090476A Pending JP2021185361A (en) 2020-05-25 2020-05-25 Guiding device and guiding program

Country Status (1)

Country Link
JP (1) JP2021185361A (en)

Similar Documents

Publication Publication Date Title
JP7268692B2 (en) Information processing device, control method and program
US9435656B2 (en) Method, apparatus and computer program product for collaborative presentation of travel route information
US8930131B2 (en) Method and apparatus of physically moving a portable unit to view an image of a stationary map
US9488488B2 (en) Augmented reality maps
US9851861B2 (en) Method and apparatus of marking objects in images displayed on a portable unit
US8836698B2 (en) Method and apparatus for identifying a 3-D object from a 2-D display of a portable unit
CN1755326A (en) Navigation apparatus
US9928305B2 (en) Method and apparatus of physically moving a portable unit to view composite webpages of different websites
US20140152562A1 (en) Display controller, display system, storage medium and method
US20150189476A1 (en) Information processing apparatus, information processing method, program, and information processing system
EP2905746A1 (en) Stereoscopic map display system
Sayapogu et al. AR smart navigation system
JP2021185361A (en) Guiding device and guiding program
US20120281102A1 (en) Portable terminal, activity history depiction method, and activity history depiction system
JP4733343B2 (en) Navigation system, navigation device, navigation method, and navigation program
JP6523353B2 (en) Terminal device and program
WO2021019591A1 (en) Path display device
CN112558008A (en) Navigation method, system, equipment and medium based on optical communication device
JP2018010025A (en) Device and computer program
Tang A mixed reality solution for indoor navigation
Fajrianti et al. A Cross-Platform Implementation of Indoor Navigation System Using Unity and Smartphone INSUS
JP6312953B2 (en) Information processing apparatus and information processing method
KR101318324B1 (en) System for generating a walking route poi based on image
JP2012189368A (en) Terminal device, method for changing map display, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230524

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231226

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20240221