JP2020030704A - Guidance system and guidance control method - Google Patents

Guidance system and guidance control method Download PDF

Info

Publication number
JP2020030704A
JP2020030704A JP2018156790A JP2018156790A JP2020030704A JP 2020030704 A JP2020030704 A JP 2020030704A JP 2018156790 A JP2018156790 A JP 2018156790A JP 2018156790 A JP2018156790 A JP 2018156790A JP 2020030704 A JP2020030704 A JP 2020030704A
Authority
JP
Japan
Prior art keywords
display
scenario
information
smart device
guidance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018156790A
Other languages
Japanese (ja)
Inventor
弘晃 土井
Hiroaki Doi
弘晃 土井
羽根 慎吾
Shingo Hane
慎吾 羽根
森津 俊之
Toshiyuki Moritsu
俊之 森津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2018156790A priority Critical patent/JP2020030704A/en
Publication of JP2020030704A publication Critical patent/JP2020030704A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To appropriately guide the operation of a user using AR for even use requiring high accuracy.SOLUTION: In a guidance system 1, when executing a scenario that includes position alignment to a prescribed object, a scenario control device (scenario control environment 20) sends information relating to a scenario together with auxiliary information relating to the position alignment to a smart device 10. The smart device 10 having received the information relating to the scenario measures the object of the scenario by a sensor 12. As display on a guidance screen by a display 14, information for guiding the object shown on the display 14 to an appropriate position for position alignment is displayed at least partly on the display 14 by superimposition on the object, on the basis of the auxiliary information and the result of object measurement by the sensor 12.SELECTED DRAWING: Figure 1

Description

本発明は、ガイダンスシステム及びガイダンス制御方法に関し、AR(拡張現実)を利用してユーザの動作を誘導するガイダンスシステム及びガイダンス制御方法に適用して好適なものである。   The present invention relates to a guidance system and a guidance control method, and is suitably applied to a guidance system and a guidance control method for inducing a user's operation using AR (augmented reality).

近年、AR(拡張現実:Augmented Reality)技術を利用したサービスが注目されている。AR技術では、カメラ等を通して見る現実環境に画像や文字等を重畳表示することにより、視覚的な情報を効果的に提供できるという利点がある。   In recent years, services using AR (Augmented Reality) technology have attracted attention. The AR technology has an advantage that visual information can be effectively provided by superimposing and displaying images, characters, and the like on a real environment viewed through a camera or the like.

具体的な利用例としては、点検対象や点検手順が定められた保安作業において、どのような順番でどこを点検すれば良いかといった情報を対象物の撮影画像に重畳表示することによって、保安作業の手順を分かりやすく教示することができる。例えば特許文献1には、現場巡視や保守点検作業の作業効率を高め得る保守点検システムが開示されている。特許文献1に開示された保守点検システムでは、予め用意された機器表示画像に、点検文字情報と携帯情報端末に備えたカメラで撮影した画像データから抽出した点検領域情報とを重畳してプロジェクタから投影表示することによって、明瞭で正確な画像データを機器点検履歴情報として作業員に提供し、作業効率を高めようとしている。   As a specific example of use, in security work in which inspection targets and inspection procedures are defined, information such as what order should be inspected and what information should be inspected is superimposed on the captured image of the object, so that security work can be performed. The procedure can be easily taught. For example, Patent Literature 1 discloses a maintenance and inspection system that can improve work efficiency of on-site patrol and maintenance and inspection work. In the maintenance and inspection system disclosed in Patent Literature 1, inspection character information and inspection area information extracted from image data captured by a camera provided in a portable information terminal are superimposed on a device display image prepared in advance, and a projector is used. By projecting and displaying, clear and accurate image data is provided to the worker as equipment inspection history information, and work efficiency is to be improved.

特開2010−003190号公報JP 2010-003190 A

しかしながら、従来のARを利用したサービスは、特許文献1に開示された保守点検システムと同様、現実環境の画像(特許文献1における点検領域情報)に、予め用意された画像(同、機器表示画像や点検文字情報)を重畳表示するものが一般的であり、言い換えれば、ユーザインタフェースの一形態として、既存の視覚的情報が片方向で追加されたものに過ぎなかった。したがって、従来の既存サービスでは、リアルタイムで変化する現実環境において高精度な対応が要求される作業等の用途に対して、ARを利用して適切なユーザ支援を行うことは困難であった。   However, as with the maintenance and inspection system disclosed in Patent Literature 1, the service using the conventional AR includes an image prepared in advance in the image of the real environment (the inspection area information in Patent Literature 1) (the device display image). Or superimposed character information is generally displayed. In other words, as one form of the user interface, existing visual information is simply added in one direction. Therefore, with the existing services in the related art, it is difficult to use the AR to provide appropriate user support for applications such as work requiring high-precision correspondence in a real-time changing real environment.

具体的には例えば、保安作業において点検対象の撮影角度や撮影距離が厳密に定められた高精度な作業が含まれる場合、センサデータを反映させて当該作業における撮影位置を正確にサポートできることが好ましいが、このようなセンシング用途にARを効果的に展開した技術は未だ考案されていなかった。一方で、近年は、センサの高精度化やCPUの高性能化等が進んでいることもあり、上記のセンシング用途のように従来では困難であった用途にも、ARの展開が期待されている。   Specifically, for example, when the security work includes a high-precision work in which the shooting angle and the shooting distance of the inspection target are strictly determined, it is preferable that the shooting position in the work can be accurately supported by reflecting the sensor data. However, a technology that effectively deploys AR for such a sensing application has not been devised yet. On the other hand, in recent years, the accuracy of sensors and the performance of CPUs have been increasing, and AR applications are expected to be expanded to applications that were difficult in the past, such as the sensing applications described above. I have.

本発明は以上の点を考慮してなされたもので、ARを利用して、高精度な用途においてもユーザの動作を適切に誘導することが可能なガイダンスシステム及びガイダンス制御方法を提案しようとするものである。   The present invention has been made in consideration of the above points, and proposes a guidance system and a guidance control method that can appropriately guide a user's operation even in a highly accurate application by using AR. Things.

かかる課題を解決するため本発明においては、センサ及びディスプレイを有するスマートデバイスと、前記スマートデバイスを用いた一連の作業を複数のシナリオによって管理し、各前記シナリオに関する情報を前記スマートデバイスに送信するシナリオ制御装置と、を備える以下のガイダンスシステムが提供される。本ガイダンスシステムでは、前記複数のシナリオのうち所定の対象物に対する位置合わせを含むシナリオの実行時に、前記シナリオ制御装置は、当該シナリオに関する情報に、前記位置合わせに関する付随情報を含めて前記スマートデバイスに送り、前記シナリオに関する情報を受け取った前記スマートデバイスは、前記センサによって前記対象物を測定し、前記ディスプレイにおけるガイダンス画面表示として、前記付随情報と前記センサによる前記対象物の測定結果とに基づいて、前記ディスプレイに映される前記対象物を前記位置合わせの適正位置に誘導させる情報を、少なくとも一部を当該対象物に重畳して前記ディスプレイに表示することを特徴とする。   In order to solve this problem, in the present invention, a smart device having a sensor and a display, and a scenario in which a series of operations using the smart device are managed by a plurality of scenarios, and information on each of the scenarios is transmitted to the smart device The following guidance system including a control device is provided. In the guidance system, at the time of executing a scenario including alignment with respect to a predetermined target among the plurality of scenarios, the scenario control device transmits the information related to the scenario to the smart device including the accompanying information regarding the alignment. Sending, the smart device that receives the information about the scenario, measures the object by the sensor, as a guidance screen display on the display, based on the accompanying information and the measurement result of the object by the sensor, At least a portion of information for guiding the target object projected on the display to the proper position for the alignment is displayed on the display so as to be superimposed on the target object.

また、かかる課題を解決するため本発明においては、スマートデバイスにガイダンス画面を表示するガイダンスシステムによる以下のガイダンス制御方法が提供される。前記ガイダンスシステムは、センサ及びディスプレイを有する前記スマートデバイスと、前記スマートデバイスを用いた一連の作業を複数のシナリオによって管理し、各前記シナリオに関する情報を前記スマートデバイスに送信するシナリオ制御装置と、を有する。そして、本ガイダンス制御方法は、前記複数のシナリオのうち所定の対象物に対する位置合わせを含むシナリオの実行時に、前記シナリオ制御装置が、当該シナリオに関する情報に、前記位置合わせに関する付随情報を含めて前記スマートデバイスに送る情報送出ステップと、前記情報送出ステップの後に、前記シナリオに関する情報を受け取った前記スマートデバイスが、前記センサによって前記対象物を測定する測定ステップと、前記測定ステップの後に、前記スマートデバイスが、前記ディスプレイにおけるガイダンス画面表示として、前記情報送出ステップで得た前記付随情報と前記測定ステップで得た前記対象物の測定結果とに基づいて、前記ディスプレイに映される前記対象物を前記位置合わせの適正位置に誘導させる情報を、少なくとも一部を当該対象物に重畳して前記ディスプレイに表示するガイダンス画面表示ステップと、を備えることを特徴とする。   Further, in order to solve such a problem, the present invention provides the following guidance control method by a guidance system for displaying a guidance screen on a smart device. The guidance system, the smart device having a sensor and a display, a scenario control device that manages a series of operations using the smart device by a plurality of scenarios, and transmits information on each of the scenarios to the smart device. Have. In the guidance control method, when executing a scenario including alignment with respect to a predetermined target among the plurality of scenarios, the scenario control device may include information related to the scenario, An information sending step to be sent to a smart device, and after the information sending step, the smart device receiving the information on the scenario measures the object by the sensor; and, after the measuring step, the smart device However, as the guidance screen display on the display, based on the accompanying information obtained in the information sending step and the measurement result of the object obtained in the measurement step, the object displayed on the display is moved to the position Information to guide you to the appropriate position for alignment, Without even characterized by and a guidance screen display step by superposing on the object displayed on the display part.

本発明によれば、ARを利用して、高精度な用途においてもユーザの動作を適切に誘導することができる。   ADVANTAGE OF THE INVENTION According to this invention, a user's operation | movement can be appropriately induced | guided | achieved also in a highly accurate use using AR.

本発明の一実施の形態に係るガイダンスシステムの構成例を示すブロック図である。It is a block diagram showing the example of composition of the guidance system concerning one embodiment of the present invention. スマートデバイスの機能構成例を示すブロック図である。FIG. 3 is a block diagram illustrating a functional configuration example of a smart device. シナリオ制御環境の機能構成例を示すブロック図である。FIG. 3 is a block diagram illustrating a functional configuration example of a scenario control environment. データベースに格納されるテーブルデータの具体例を示す図である。FIG. 3 is a diagram showing a specific example of table data stored in a database. 物体認識までのガイダンス処理の全体概要を示すシーケンス図である。FIG. 4 is a sequence diagram illustrating an overall outline of guidance processing up to object recognition. 物体認識後のガイダンス処理の全体概要を示すシーケンス図である。FIG. 9 is a sequence diagram illustrating an overall outline of guidance processing after object recognition. AR表示準備処理の処理手順例を示すフローチャートである。It is a flowchart which shows the example of a processing procedure of AR display preparation processing. AR表示準備処理における詳細な処理手順を示すシーケンス図である。It is a sequence diagram showing a detailed processing procedure in the AR display preparation processing. AR表示処理の処理手順例を示すフローチャートである。It is a flowchart which shows the example of a processing procedure of AR display processing. AR表示処理における詳細な処理手順を示すシーケンス図である。It is a sequence diagram showing a detailed processing procedure in the AR display processing. 写真撮影処理の処理手順例を示すフローチャートである。It is a flowchart which shows the example of a processing procedure of a photography process. 写真撮影処理における詳細な処理手順を示すシーケンス図である。FIG. 9 is a sequence diagram illustrating a detailed processing procedure in a photographing process. 次シナリオ判別処理の処理手順例を示すフローチャートである。It is a flowchart which shows the example of a processing procedure of the next scenario discrimination processing. 次シナリオ判別処理における詳細な処理手順を示すシーケンス図である。FIG. 14 is a sequence diagram illustrating a detailed processing procedure in a next scenario determination process. 物体認識までのガイダンス処理のなかで表示されるガイダンス画面の一例を説明するための図である。It is a figure for explaining an example of a guidance screen displayed in guidance processing until object recognition. 物体認識後のガイダンス処理のなかで表示されるガイダンス画面の一例を説明するための図(その1)である。FIG. 11 is a diagram (part 1) for explaining an example of a guidance screen displayed in the guidance process after object recognition. 物体認識後のガイダンス処理のなかで表示されるガイダンス画面の一例を説明するための図(その2)である。It is FIG. (2) for demonstrating an example of the guidance screen displayed in the guidance process after object recognition. 物体認識後のガイダンス処理のなかで表示されるガイダンス画面の一例を説明するための図(その3)である。It is FIG. (3) for demonstrating an example of the guidance screen displayed in the guidance process after object recognition.

以下、図面を参照して、本発明の一実施の形態を詳述する。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.

(1)ガイダンスシステムの構成
図1は、本発明の一実施の形態に係るガイダンスシステムの構成例を示すブロック図である。図1に示すガイダンスシステム1は、保安や証跡管理等の一連の作業において、作業の各工程を管理するシナリオに沿って、実体の対象物(被写体)をスマートデバイス10によって高精度に記録するために、スマートデバイス10におけるAR(拡張現実:Augmented Reality)表示を利用して、対象物と所定の位置関係になるように(対象物を適正位置に位置合わせできるように)スマートデバイス10の操作者(以下、ユーザ)を誘導するガイダンスシステムであって、スマートデバイス10、シナリオ制御環境20、データベース30、及びファイルサーバ40を備えて構成される。
(1) Configuration of Guidance System FIG. 1 is a block diagram illustrating a configuration example of a guidance system according to an embodiment of the present invention. The guidance system 1 shown in FIG. 1 records a real object (subject) with a smart device 10 in a series of operations such as security and trail management according to a scenario for managing each process of the operation with high accuracy. The operator of the smart device 10 uses an AR (Augmented Reality) display on the smart device 10 so that the smart device 10 has a predetermined positional relationship with the target (so that the target can be positioned at an appropriate position). A guidance system for guiding a user (hereinafter, a user) includes a smart device 10, a scenario control environment 20, a database 30, and a file server 40.

スマートデバイス10は、ユーザによって携帯(装着)可能なスマートデバイスであって、具体的には例えば、スマートグラスやスマートフォン等を利用することができる。図1に例示したスマートデバイス10は、ARの表示機能を制御するAR表示機能部11、各種のセンサデータを取得するセンサ12、撮影機能を有するカメラ13、表示機能を有するディスプレイ14、及び音声出力機能を有するスピーカ15を備えて構成される。スマートデバイス10は、ネットワーク50(主に無線ネットワーク)を介してシナリオ制御環境20と通信可能に接続される。   The smart device 10 is a smart device that can be carried (worn) by a user, and specifically, for example, a smart glass or a smartphone can be used. The smart device 10 illustrated in FIG. 1 includes an AR display function unit 11 for controlling an AR display function, a sensor 12 for acquiring various sensor data, a camera 13 having a photographing function, a display 14 having a display function, and audio output. A speaker 15 having a function is provided. The smart device 10 is communicably connected to the scenario control environment 20 via a network 50 (mainly a wireless network).

なお、本例では、本発明の一実施の形態として、スマートデバイス10とシナリオ制御環境20とが別に構成されている場合について説明するが、本発明のガイダンスシステム及びガイダンス制御方法は、このような構成に限定されるものではなく、例えば、スマートデバイス10の内部に、シナリオ制御環境20に相当する構成が置かれる等して一体化された構成であってもよい。また、データベース30やファイルサーバ40についても同様に、スマートデバイス10やシナリオ制御環境20と一体化された構成であってもよい。そして、上記のように一体化された構成間では、ネットワーク50を介した通信が不要となる。   In this example, as an embodiment of the present invention, a case will be described in which the smart device 10 and the scenario control environment 20 are configured separately. However, the guidance system and the guidance control method of the present invention employ such a configuration. The configuration is not limited to the configuration. For example, the configuration may be integrated such that a configuration corresponding to the scenario control environment 20 is placed inside the smart device 10. Similarly, the database 30 and the file server 40 may have a configuration integrated with the smart device 10 and the scenario control environment 20. Further, communication via the network 50 is not required between the integrated configurations as described above.

図2は、スマートデバイスの機能構成例を示すブロック図である。図2に示すように、スマートデバイス10における機能構成として、AR表示機能部11は、外部(シナリオ制御環境20)との通信を行う通信制御部111と、AR表示機能に関する処理を制御する処理制御部112と、AR表示機能部11のローカルな記憶部であるローカルフォルダ113とを有する。   FIG. 2 is a block diagram illustrating a functional configuration example of the smart device. As shown in FIG. 2, as a functional configuration of the smart device 10, the AR display function unit 11 includes a communication control unit 111 that communicates with the outside (the scenario control environment 20) and a process control that controls a process related to the AR display function. And a local folder 113 that is a local storage unit of the AR display function unit 11.

通信制御部111は、例えばスマートデバイス10に搭載された通信基板であり、処理制御部112は、例えばスマートデバイス10に搭載された制御基板である。後述するスマートデバイス10による各処理は、主にAR表示機能部11の処理制御部112によって実行され、より具体的には、制御基板に搭載されたCPU(Central Processing Unit)がメモリに格納されたプログラムを実行する等して実現される。   The communication control unit 111 is, for example, a communication board mounted on the smart device 10, and the processing control unit 112 is, for example, a control board mounted on the smart device 10. Each processing by the smart device 10 described later is mainly executed by the processing control unit 112 of the AR display function unit 11, and more specifically, a CPU (Central Processing Unit) mounted on a control board is stored in a memory. This is realized by executing a program.

また、図2には、スマートデバイス10のセンサ12の具体例として、周囲の音状況の収集や対象からの音声入力を行うマイク121、対象物までの距離(深度)を測定する深度センサ122(具体的には例えばLiDAR(Light Detection and Ranging)等)、対象の姿勢や角速度等を測定するジャイロセンサ123、及び周囲の光量を測定する光学センサ124が備えられている。なお、スマートデバイス10のセンサ12は、図2に例示した全ての各種センサを必ずしも備えている必要はなく、また他の種類のセンサ(例えば、対象物の動きを計測する慣性計測装置等)を備えていてもよい。   In FIG. 2, as a specific example of the sensor 12 of the smart device 10, a microphone 121 for collecting surrounding sound conditions and inputting a voice from a target, and a depth sensor 122 for measuring a distance (depth) to the target ( Specifically, for example, a LiDAR (Light Detection and Ranging) and the like, a gyro sensor 123 for measuring the posture, angular velocity, and the like of the target, and an optical sensor 124 for measuring the amount of ambient light are provided. Note that the sensor 12 of the smart device 10 does not necessarily need to include all the various sensors illustrated in FIG. 2, and may use another type of sensor (for example, an inertial measurement device that measures the movement of an object). You may have.

図3は、シナリオ制御環境の機能構成例を示すブロック図である。シナリオ制御環境20は、ガイダンスシステム1によるガイダンスの目的(例えば、保安作業において所定対象物の画像データを取得することや、証跡管理のために所定対象物の証跡を記録すること等)に応じて、予め用意された複数のシナリオの実行を制御する機能を有し、例えば、サーバやPC等の計算機によって実現される。   FIG. 3 is a block diagram illustrating a functional configuration example of the scenario control environment. The scenario control environment 20 responds to the purpose of the guidance by the guidance system 1 (for example, acquiring image data of a predetermined object in security work, recording a trail of the predetermined object for trail management, and the like). Has a function of controlling the execution of a plurality of scenarios prepared in advance, and is realized by a computer such as a server or a PC.

図3に示すように、シナリオ制御環境20は、機能構成として、外部(スマートデバイス10)との通信を行う通信制御部21と、シナリオの選択やシナリオに基づいたAR表示の制御等を行うシナリオ制御処理部22と、画像ファイルの分析処理及び判別処理を行う判別部23とを有する。なお、図示はしていないが、シナリオ制御環境20は、シナリオ制御処理部22や判別部23による処理の実行時にデータを一時的に格納する等の用途に用いられる記憶部(ローカルフォルダ)を有してもよい。   As shown in FIG. 3, the scenario control environment 20 includes, as functional components, a communication control unit 21 that communicates with the outside (the smart device 10) and a scenario that performs selection of a scenario, control of AR display based on the scenario, and the like. The control unit 22 includes a control processing unit 22 and a determination unit 23 that performs analysis processing and determination processing of an image file. Although not shown, the scenario control environment 20 has a storage unit (local folder) used for temporarily storing data when the process is executed by the scenario control processing unit 22 or the determination unit 23. May be.

また、具体的な処理は後述するが、シナリオ制御環境20による処理の実行時に、シナリオ制御処理部22または判別部23は、必要に応じてデータベース30またはファイルサーバ40にアクセスし、所望のデータを参照・取得したり、格納したりすることができる。   Although specific processing will be described later, at the time of execution of processing by the scenario control environment 20, the scenario control processing unit 22 or the determination unit 23 accesses the database 30 or the file server 40 as necessary, and stores desired data. It can be referenced / acquired and stored.

データベース30は、記憶手段の一例であって、本実施の形態では、シナリオ制御環境20による処理において部分的に利用されることが多いテーブルデータ等が中心に格納される。具体的には例えば、図4に例示するAR表示情報テーブル310、付随情報テーブル320、及びシナリオ制御情報テーブル330は、データベース30に格納されるとする。また、ファイルサーバ40は、比較的大容量な記憶手段の一例であって、本実施の形態では、シナリオ制御環境20データ全体が利用されることが多いオブジェクトファイル(画像ファイル、画像の設定情報等)が中心に格納される。具体的には例えば、スマートデバイス10にAR表示させるために予め用意された画像データ等はファイルサーバ40に格納することができ、また、スマートデバイス10によって撮影された画像データ等もファイルサーバ40に格納することができる。   The database 30 is an example of a storage unit, and in the present embodiment, mainly stores table data and the like that are often partially used in the processing by the scenario control environment 20. Specifically, for example, the AR display information table 310, the accompanying information table 320, and the scenario control information table 330 illustrated in FIG. Further, the file server 40 is an example of a relatively large-capacity storage unit. In the present embodiment, an object file (image file, image setting information, etc.) in which the entire scenario control environment 20 data is often used is used. ) Is stored at the center. Specifically, for example, image data and the like prepared in advance for causing the smart device 10 to perform AR display can be stored in the file server 40, and image data and the like captured by the smart device 10 are also stored in the file server 40. Can be stored.

なお、データベース30及びファイルサーバ40は、本実施の形態に係るガイダンスシステム1における記憶手段の一例であり、本発明においてその区分は特に限定されるものではない。すなわち、本発明においてデータベース30及びファイルサーバ40に相当する記憶手段は1つでも3つ以上でもよく、また、それらの実現方法も物理ストレージまたは仮想ストレージの何れかに限定されるものではない。   The database 30 and the file server 40 are an example of a storage unit in the guidance system 1 according to the present embodiment, and their division is not particularly limited in the present invention. That is, in the present invention, the number of storage means corresponding to the database 30 and the file server 40 may be one or three or more, and the method of realizing them is not limited to either physical storage or virtual storage.

図4は、データベースに格納されるテーブルデータの具体例を示す図である。   FIG. 4 is a diagram illustrating a specific example of table data stored in the database.

図4(A)に例示したAR表示情報テーブル310は、シナリオ制御環境20によるAR表示情報問合せ時に参照・取得されるAR表示情報のテーブルであって、シナリオの識別子を示すシナリオID311、当該シナリオに対応するオブジェクトファイルの格納場所(ファイルパス)を示すオブジェクトファイルパス312、当該シナリオにおける作業指示の内容を示す作業指示情報313、及び、当該シナリオにおける付随情報の識別子(付随情報ID)を示す付随情報IDリスト314を備えて構成される。   The AR display information table 310 illustrated in FIG. 4A is a table of AR display information that is referred to and acquired when the scenario control environment 20 inquires AR display information, and includes a scenario ID 311 indicating a scenario identifier, and a Object file path 312 indicating the storage location (file path) of the corresponding object file, work instruction information 313 indicating the contents of the work instruction in the scenario, and accompanying information indicating the identifier (associated information ID) of the accompanying information in the scenario An ID list 314 is provided.

なお、作業指示情報313に記載された情報は、当該シナリオの実行時に、スマートデバイス10のディスプレイ14に表示されるガイダンス画面に表示される。ガイダンス画面の具体的な説明は図15〜図18を参照しながら後述する。また、付随情報IDリスト314に記載された付随情報IDは、図4(B)に例示する付随情報テーブル320の付随情報ID322に記載される付随情報IDと共通する識別子である。   The information described in the work instruction information 313 is displayed on the guidance screen displayed on the display 14 of the smart device 10 when the scenario is executed. A specific description of the guidance screen will be described later with reference to FIGS. The incidental information ID described in the incidental information ID list 314 is an identifier common to the incidental information ID described in the incidental information ID 322 of the incidental information table 320 illustrated in FIG.

図4(B)に例示した付随情報テーブル320は、シナリオ制御環境20による付随情報問合せ時に参照・取得される付随情報のテーブルであって、シナリオID321、当該シナリオに対応する付随情報の識別子を示す付随情報ID322、当該付随情報における「現在値」の取得のために用いられるセンサ12の識別子を示すセンサID323、当該付随情報における「目標値」を示す付随情報目標値324、当該付随情報の表示単位を示す付随情報単位325、当該付随情報における「誤差範囲」を示す付随情報範囲326、当該付随情報の表示においてユーザが付随情報範囲326の範囲外にあるとき(超過時/過小時)の表示内容を示す超過時表示情報327及び過小時表示情報328を備えて構成される。   The incidental information table 320 illustrated in FIG. 4B is a table of the incidental information referred to and acquired at the time of querying the incidental information by the scenario control environment 20, and shows a scenario ID 321 and an identifier of the incidental information corresponding to the scenario. Accompanying information ID 322, a sensor ID 323 indicating an identifier of the sensor 12 used for obtaining the “current value” in the accompanying information, an accompanying information target value 324 indicating a “target value” in the accompanying information, and a display unit of the accompanying information Information unit 325 indicating the “error range” in the associated information, and display contents when the user is out of the associated information range 326 (excess / under) when displaying the associated information Are provided.

図4(C)に例示したシナリオ制御情報テーブル330は、シナリオ制御環境20によるシナリオID(または、次のシナリオID)問合せ時に参照・取得されるシナリオ制御情報のテーブルであって、シナリオID331、現在のシナリオから次のシナリオへの分岐判定に用いられる情報を示す分岐判定情報332、及び次のシナリオID333を備えて構成される。   The scenario control information table 330 illustrated in FIG. 4C is a table of the scenario control information which is referred to and obtained when the scenario control environment 20 inquires the scenario ID (or the next scenario ID). It is configured to include branch determination information 332 indicating information used for branch determination from one scenario to the next scenario, and a next scenario ID 333.

なお、上記の各テーブルにおいて、シナリオID311,321,331及び次のシナリオID333には、予め用意されたシナリオを一意に識別可能な識別子(シナリオID)が共通して用いられる。また、付随情報IDリスト314と付随情報ID322には、付随情報を一意に識別可能な識別子(付随情報ID)が共通して用いられる。図4に例示したAR表示情報テーブル310、付随情報テーブル320、及びシナリオ制御情報テーブル330の実際の使用例は、後述するガイダンス処理の中で示される。   In each of the above tables, an identifier (scenario ID) that can uniquely identify a scenario prepared in advance is commonly used as the scenario IDs 311, 321 and 331 and the next scenario ID 333. Further, an identifier (attached information ID) that can uniquely identify the attached information is commonly used for the attached information ID list 314 and the attached information ID 322. Actual usage examples of the AR display information table 310, the accompanying information table 320, and the scenario control information table 330 illustrated in FIG. 4 will be shown in a guidance process described later.

(2)ガイダンス処理
本実施の形態に係るガイダンスシステム1では、保安や証跡管理等の作業を行おうとする場合に、スマートデバイス10を携帯(または装着)したユーザが所定の対象物(被写体)をカメラ13の撮影範囲に収めることによって、ディスプレイ14に対象物が映される。そして、ディスプレイ14に映される対象物の位置合わせのために、ディスプレイ14の表示画面において、ARを利用した「ガイダンス画面」が表示される(スピーカ15からの音声報知による追加/置換を含む)。そしてこのガイダンス画面の指示に従ってスマートデバイス10の移動や操作を行うことによって、保安や証跡管理等の作業のシナリオに沿って、対象物(被写体)をスマートデバイス10によって高精度に記録することができる。このような一連の動作におけるガイダンスシステム1の処理をガイダンス処理と称し、以下に詳しく説明する。
(2) Guidance Processing In the guidance system 1 according to the present embodiment, when carrying out work such as security or trail management, a user who carries (or wears) the smart device 10 carries a predetermined object (subject). The object is projected on the display 14 by being within the shooting range of the camera 13. Then, on the display screen of the display 14, a “guidance screen” using AR is displayed (including addition / replacement by voice notification from the speaker 15) for alignment of the object projected on the display 14. . By moving and operating the smart device 10 in accordance with the instructions on the guidance screen, an object (subject) can be recorded with high accuracy by the smart device 10 in accordance with a work scenario such as security or trail management. . The processing of the guidance system 1 in such a series of operations is referred to as guidance processing, and will be described in detail below.

なお、本実施の形態において、上述した「ディスプレイ14に対象物が映される」とは、対象物の実体そのものがディスプレイ14を介して視認可能に映されること、及び、対象物を撮影した実体映像がディスプレイ14の表示画面に表示されて視認可能にされること、の双方の意味を含む。より具体的には、前者は、ディスプレイ14が透明または半透明である場合に、後述するガイダンス画面において、対象物の実体をディスプレイ14を透過して映すことに相当する。また、後者は、ディスプレイ14が非透明である場合に、ガイダンス画面において、カメラ13で撮影した対象物の実体映像をディスプレイ14の表示画面に表示することに相当する。ガイダンス画面について具体的に詳述する(3)章では、一例として、後者の場合で説明する。   Note that, in the present embodiment, “the object is projected on the display 14” means that the entity of the object itself is visible through the display 14 and that the object is photographed. This means that the stereoscopic video is displayed on the display screen of the display 14 and made visible. More specifically, the former corresponds to, when the display 14 is transparent or translucent, displaying an entity of an object through the display 14 on a guidance screen described later. In the latter case, when the display 14 is non-transparent, it corresponds to displaying a substantial image of the object photographed by the camera 13 on the display screen of the display 14 on the guidance screen. In the section (3) that specifically details the guidance screen, the latter case will be described as an example.

(2−1)全体概要
まず、ガイダンス処理の全体概要について、シナリオの対象物を認識するまで(物体認識まで)と、認識した後(物体認識後)とに分けて説明する。
(2-1) Overall Overview First, the overall outline of the guidance processing will be described separately until the target of the scenario is recognized (until object recognition) and after the scenario is recognized (after object recognition).

図5は、物体認識までのガイダンス処理の全体概要を示すシーケンス図である。なお、図5では、問合せ処理を実線で示し、回答処理を破線で示している。これは、後述する他のシーケンス図でも同様である。   FIG. 5 is a sequence diagram showing an overall outline of the guidance process up to object recognition. In FIG. 5, the inquiry process is indicated by a solid line, and the answer process is indicated by a broken line. This is the same in other sequence diagrams described later.

図5によればまず、スマートデバイス10が、物体認識の開始準備を行う(ステップS11)。次に、スマートデバイス10は、AR表示情報問合せとして、物体認識用のシナリオIDをネットワーク50を介してシナリオ制御環境20に送信する(ステップS12)。   According to FIG. 5, first, the smart device 10 prepares to start the object recognition (step S11). Next, the smart device 10 transmits the scenario ID for object recognition to the scenario control environment 20 via the network 50 as an AR display information inquiry (Step S12).

スマートデバイス10からAR表示情報問合せを受けたシナリオ制御環境20は、当該問合せで受信した物体認識用のシナリオIDに基づいてデータベース30のAR表示情報テーブル310を参照し(ステップS13)、当該シナリオIDに対応するAR表示情報を取得する(ステップS14)。   The scenario control environment 20 that has received the AR display information inquiry from the smart device 10 refers to the AR display information table 310 of the database 30 based on the scenario ID for object recognition received in the inquiry (step S13), and Is obtained (step S14).

そして、シナリオ制御環境20は、ステップS14で取得したAR表示情報に関連する付随情報IDが記載されている場合(付随情報IDリスト314)には、当該付随情報IDに基づいてデータベース30の付随情報テーブル320を参照し(ステップS15)、当該付随情報IDに対応する付随情報を取得する(ステップS16)。   When the accompanying information ID related to the AR display information acquired in step S14 is described (the accompanying information ID list 314), the scenario control environment 20 uses the accompanying information of the database 30 based on the accompanying information ID. With reference to the table 320 (step S15), the associated information corresponding to the associated information ID is acquired (step S16).

また、シナリオ制御環境20は、ステップS14で取得したAR表示情報に含まれるオブジェクトファイルパス312に基づいてファイルサーバ40を参照し(ステップS17)、当該ファイルパスに保持されているオブジェクトファイルを取得する(ステップS18)。   Further, the scenario control environment 20 refers to the file server 40 based on the object file path 312 included in the AR display information acquired in step S14 (step S17), and acquires the object file stored in the file path. (Step S18).

その後、シナリオ制御環境20は、ステップS14,S16,S18で取得したAR用データ(AR表示情報、付随情報、オブジェクトファイル)をネットワーク50を介してスマートデバイス10に送信する(ステップS19)。   Thereafter, the scenario control environment 20 transmits the AR data (AR display information, accompanying information, object file) acquired in steps S14, S16, S18 to the smart device 10 via the network 50 (step S19).

ステップS19でAR用データを受信したスマートデバイス10は、受信したAR用データを用いてディスプレイ14にAR表示(ガイダンス画面の表示)を行うとともに、カメラ13やセンサ12を用いて物体認識を開始する。このとき、例えば、カメラ13で認識した対象物との相対距離をセンサ12を用いて取得する(ステップS20)。   The smart device 10 that has received the AR data in step S19 performs the AR display (display of the guidance screen) on the display 14 using the received AR data and starts object recognition using the camera 13 and the sensor 12. . At this time, for example, the relative distance to the object recognized by the camera 13 is obtained using the sensor 12 (step S20).

そして物体認識が終了すると、スマートデバイス10は、ネットワーク50を介してシナリオ制御環境20に次のシナリオIDの問合せを行う(ステップS21)。   When the object recognition is completed, the smart device 10 inquires the scenario control environment 20 of the next scenario ID via the network 50 (Step S21).

スマートデバイス10から次のシナリオID問合せを受けたシナリオ制御環境20は、データベース30のシナリオ制御情報テーブル330を参照し(ステップS22)、現在のシナリオIDに対応するシナリオ制御情報を取得する(ステップS23)。そして、シナリオ制御環境20は、ステップS23で取得したシナリオ制御情報に基づいて、次のシナリオIDをスマートデバイス10に送信する(ステップS24)。   The scenario control environment 20 that has received the next scenario ID inquiry from the smart device 10 refers to the scenario control information table 330 of the database 30 (step S22) and acquires the scenario control information corresponding to the current scenario ID (step S23). ). Then, the scenario control environment 20 transmits the next scenario ID to the smart device 10 based on the scenario control information acquired in step S23 (step S24).

ステップS24の処理が完了することにより、物体認識までのガイダンス処理が完了し、物体認識後のシナリオに基づいたガイダンス処理が開始される。   When the processing in step S24 is completed, the guidance processing up to the object recognition is completed, and the guidance processing based on the scenario after the object recognition is started.

図6は、物体認識後のガイダンス処理の全体概要を示すシーケンス図である。   FIG. 6 is a sequence diagram illustrating an overall outline of the guidance process after object recognition.

図6によればまず、スマートデバイス10が、AR表示情報問合せとして、先にシナリオ制御環境20から送信されたシナリオID(例えば、図5のステップS24参照)をネットワーク50を介してシナリオ制御環境20に送信する(ステップS31)。   According to FIG. 6, first, the smart device 10 transmits the scenario ID (for example, see step S24 in FIG. 5) previously transmitted from the scenario control environment 20 as the AR display information inquiry via the network 50 to the scenario control environment 20. (Step S31).

ステップS31でスマートデバイス10からAR表示情報問合せを受けたシナリオ制御環境20がその後行う処理(図6のステップS32〜S38)は、図5で説明したステップS13〜S19の処理と同じであるため、説明を省略する。ステップS38において、シナリオ制御環境20は、データベース30及びファイルサーバ40から取得したAR用データ(AR表示情報、付随情報、オブジェクトファイル)をネットワーク50を介してスマートデバイス10に送信する。   The subsequent processing (steps S32 to S38 in FIG. 6) performed by the scenario control environment 20 that has received the AR display information inquiry from the smart device 10 in step S31 is the same as the processing in steps S13 to S19 described in FIG. Description is omitted. In step S38, the scenario control environment 20 transmits the AR data (AR display information, accompanying information, object file) acquired from the database 30 and the file server 40 to the smart device 10 via the network 50.

ステップS38でAR用データを受信したスマートデバイス10は、受信したAR用データを用いてディスプレイ14にAR表示(ガイダンス画面の表示)を行って、現在のシナリオにおける対象物との適切な位置関係にユーザ(スマートデバイス10)を導く。またこのとき、スマートデバイス10は、センサ12によって当該対象物に対するセンサデータ値を取得する(ステップS39)。その後、ガイダンスに従って当該対象物との位置関係が適切になったとき、スマートデバイス10はカメラ13で当該対象物を撮影し(ステップS40)、撮影データ(写真や動画)をシナリオ制御環境20に送信する(ステップS41)。   The smart device 10 that has received the AR data in step S38 performs an AR display (display of a guidance screen) on the display 14 using the received AR data to establish an appropriate positional relationship with the target in the current scenario. Guide the user (smart device 10). Further, at this time, the smart device 10 acquires the sensor data value for the target object by the sensor 12 (Step S39). Thereafter, when the positional relationship with the target object becomes appropriate according to the guidance, the smart device 10 shoots the target object with the camera 13 (step S40), and transmits the shooting data (photos and moving images) to the scenario control environment 20. (Step S41).

なお、本実施の形態において、スマートデバイス10からシナリオ制御環境20への撮影データの送信は、ネットワーク50を介して直接的に当該撮影データを送信するものでもよいし、間接的に送信するものであってもよい。間接的な送信方法としては例えば、スマートデバイス10がネットワーク50を介して撮影データを所定の格納先(例えばファイルサーバ40やWEBサーバ等)にアップロードし、そのアップロード先のファイルパス(写真ファイルパス)をシナリオ制御環境20に送信する等がある。この場合、シナリオ制御環境20は、受信した写真ファイルパスに基づいて格納先にアクセスして撮影データをダウンロードすることによって、当該撮影データを取得することができる。また、前述したように、ガイダンスシステム1の各構成(スマートデバイス10、シナリオ制御環境20、ファイルサーバ40等)が一体化されている場合には、ネットワーク50を介した通信が不要となるため、スマートデバイス10で撮影した撮影データを直接、シナリオ制御環境20で取得することが可能となる。   Note that, in the present embodiment, the transmission of the imaging data from the smart device 10 to the scenario control environment 20 may be the transmission of the imaging data directly via the network 50 or the indirect transmission of the imaging data. There may be. As an indirect transmission method, for example, the smart device 10 uploads photographing data to a predetermined storage destination (for example, a file server 40 or a WEB server) via the network 50, and a file path (photograph file path) of the upload destination Is transmitted to the scenario control environment 20. In this case, the scenario control environment 20 can acquire the photographing data by accessing the storage location based on the received photograph file path and downloading the photographing data. In addition, as described above, when the components of the guidance system 1 (the smart device 10, the scenario control environment 20, the file server 40, and the like) are integrated, communication via the network 50 is not required. It becomes possible to directly acquire, in the scenario control environment 20, photographing data photographed by the smart device 10.

ステップS41でシナリオの対象物の撮影データを取得したシナリオ制御環境20は、当該撮影データの画像分析を行い(ステップS42)、画像分析の結果を用いて次のシナリオの判別を行う。具体的には、シナリオ制御環境20は、データベース30のシナリオ制御情報テーブル330を参照し(ステップS43)、現在のシナリオIDに対応するシナリオ制御情報を取得し(ステップS44)、取得したシナリオ制御情報における分岐判定情報332に画像分析の結果を適用することによって、次のシナリオIDを決定する。そして、シナリオ制御環境20は、決定した次のシナリオIDをネットワーク50を介してスマートデバイス10に送信する(ステップS45)。   The scenario control environment 20, which has obtained the photographing data of the target object of the scenario in step S41, analyzes the image of the photographing data (step S42), and determines the next scenario using the result of the image analysis. Specifically, the scenario control environment 20 refers to the scenario control information table 330 of the database 30 (step S43), acquires scenario control information corresponding to the current scenario ID (step S44), and acquires the acquired scenario control information. The next scenario ID is determined by applying the result of the image analysis to the branch determination information 332 in. Then, the scenario control environment 20 transmits the determined next scenario ID to the smart device 10 via the network 50 (Step S45).

ステップS31〜ステップS45の処理が完了することにより、ステップS31で指定されたシナリオIDに関するガイダンス処理が終了し、その後は、次のシナリオIDに関するガイダンス処理が開始される。   Upon completion of the processes in steps S31 to S45, the guidance process for the scenario ID specified in step S31 ends, and thereafter, the guidance process for the next scenario ID starts.

以上、図5及び図6を参照しながら、本実施の形態におけるガイダンス処理の全体概要を説明した。これらガイダンス処理のうち、図6のステップS31〜S38(図5のステップS13〜S19も同様)の処理を「AR表示準備処理」、図6のステップS38〜S39の処理を「AR表示処理」、図6のステップS40〜S41の処理を「写真撮影処理」、図6のステップS41〜S45の処理を「次シナリオ判別処理」と称し、以下にガイダンス処理における上記各処理の詳細な処理手順について図面を参照しながら説明する。   The overall outline of the guidance process according to the present embodiment has been described above with reference to FIGS. Of these guidance processes, the processes of steps S31 to S38 in FIG. 6 (the same applies to steps S13 to S19 in FIG. 5) are referred to as “AR display preparation process”, and the processes of steps S38 to S39 in FIG. The processing of steps S40 to S41 in FIG. 6 is referred to as “photographing processing”, and the processing of steps S41 to S45 in FIG. 6 is referred to as “next scenario determination processing”. This will be described with reference to FIG.

(2−2)AR表示準備処理
図7は、AR表示準備処理の処理手順例を示すフローチャートである。図7には、AR表示準備処理におけるシナリオ制御環境20による処理手順例が示されている。なお、AR表示準備処理におけるガイダンスシステム1の各構成による詳細な処理手順については、後述する図8のシーケンス図に示される。
(2-2) AR Display Preparation Processing FIG. 7 is a flowchart illustrating an example of a processing procedure of the AR display preparation processing. FIG. 7 shows an example of a processing procedure by the scenario control environment 20 in the AR display preparation processing. It should be noted that a detailed processing procedure in each configuration of the guidance system 1 in the AR display preparation processing is shown in a sequence diagram of FIG. 8 described later.

図7によれば、まず、シナリオ制御環境20は、AR表示情報を取得する(ステップS101)。このAR表示情報の取得は、図6のステップS32〜S33(あるいは図5のステップS13〜S14)の処理に相当する。   According to FIG. 7, first, the scenario control environment 20 acquires AR display information (step S101). This acquisition of the AR display information corresponds to the processing of steps S32 to S33 in FIG. 6 (or steps S13 to S14 in FIG. 5).

次に、シナリオ制御環境20は、ステップS101で取得したAR表示情報が付随情報を有するか否かを判定する(ステップS102)。具体的には、当該AR表示情報について、AR表示情報テーブル310の付随情報IDリスト314に付随情報IDが記載されている場合に、付随情報を有すると判定し(ステップS102のYES)、ステップS103に進む。ステップS103では、AR表示情報に記載された付随情報IDに基づいて、データベース30から付随情報を取得する。その後、ステップS104に進む。一方、ステップS102においてAR表示情報の付随情報IDリスト314に付随情報IDが記載されていない場合には、付随情報が無いと判定し(ステップS102のNO)、ステップS103を飛ばしてステップS104に進む。   Next, the scenario control environment 20 determines whether or not the AR display information acquired in step S101 has accompanying information (step S102). Specifically, when the associated information ID is described in the associated information ID list 314 of the AR display information table 310, it is determined that the AR display information has the associated information (YES in step S102), and step S103 is performed. Proceed to. In step S103, the associated information is acquired from the database 30 based on the associated information ID described in the AR display information. Thereafter, the process proceeds to step S104. On the other hand, if the incidental information ID is not described in the incidental information ID list 314 of the AR display information in step S102, it is determined that there is no incidental information (NO in step S102), and the process skips step S103 and proceeds to step S104. .

ステップS104では、シナリオ制御環境20は、ステップS101で取得したAR表示情報に記載されたオブジェクトファイルパス312に基づいて、ファイルサーバ40からオブジェクトファイルを取得する。   In step S104, the scenario control environment 20 acquires an object file from the file server 40 based on the object file path 312 described in the AR display information acquired in step S101.

その後、シナリオ制御環境20は、ステップS101〜S104で取得した一式のデータ(AR表示情報、付随情報、オブジェクトファイル)をAR用データとしてスマートデバイス10に送信し(ステップS105)、その後は、後述するAR表示処理が行われる。   Thereafter, the scenario control environment 20 transmits the set of data (AR display information, accompanying information, and object file) acquired in steps S101 to S104 to the smart device 10 as AR data (step S105), and thereafter, described later. AR display processing is performed.

図8は、AR表示準備処理における詳細な処理手順を示すシーケンス図である。   FIG. 8 is a sequence diagram showing a detailed processing procedure in the AR display preparation processing.

図8によれば、まず、スマートデバイス10からシナリオ制御環境20の通信制御部21にシナリオIDが送信される(ステップS201)。ステップS201は、図6のステップS31(または図5のステップS12)に示したAR表示情報問合せにおけるシナリオIDの送信に相当する。   According to FIG. 8, first, the scenario ID is transmitted from the smart device 10 to the communication control unit 21 of the scenario control environment 20 (step S201). Step S201 corresponds to transmitting the scenario ID in the AR display information inquiry shown in step S31 of FIG. 6 (or step S12 of FIG. 5).

次に、通信制御部21は、受信したシナリオIDをデコードし(ステップS202)、シナリオ制御処理部22に送る(ステップS203)。   Next, the communication control unit 21 decodes the received scenario ID (Step S202) and sends it to the scenario control processing unit 22 (Step S203).

そして、シナリオ制御処理部22は、ステップS203で受け取ったシナリオIDに基づいてデータベース30のAR表示情報テーブル310を参照し(ステップS204)、当該シナリオIDに対応するAR表示情報を取得する(ステップS205)。   Then, the scenario control processing unit 22 refers to the AR display information table 310 of the database 30 based on the scenario ID received in step S203 (step S204), and acquires AR display information corresponding to the scenario ID (step S205). ).

次に、シナリオ制御処理部22は、ステップS205で取得したAR表示情報が付随情報を有しているか否かを判定し(付随情報IDリスト314の確認)、付随情報が有る場合には、当該付随情報IDに基づいてデータベース30の付随情報テーブル320を参照し(ステップS206)、当該付随情報IDに対応する付随情報を取得する(ステップS207)。   Next, the scenario control processing unit 22 determines whether or not the AR display information acquired in step S205 has accompanying information (confirmation of the accompanying information ID list 314). The associated information table 320 of the database 30 is referred to based on the associated information ID (step S206), and the associated information corresponding to the associated information ID is obtained (step S207).

また、シナリオ制御処理部22は、ステップS205で取得したAR表示情報に含まれるオブジェクトファイルパス312に基づいてファイルサーバ40を参照し(ステップS208)、当該ファイルパスに保持されているオブジェクトファイルを取得する(ステップS209)。   Further, the scenario control processing unit 22 refers to the file server 40 based on the object file path 312 included in the AR display information acquired in step S205 (step S208), and acquires the object file stored in the file path. (Step S209).

その後、シナリオ制御処理部22は、ステップS205,S207,S209で取得した一式の情報(AR用データ)を通信制御部21に送り(ステップS210)、通信制御部21は、受け取ったAR用データをエンコードし(ステップS211)、スマートデバイス10に送信する(ステップS212)。   Thereafter, the scenario control processing unit 22 sends the set of information (AR data) acquired in steps S205, S207, and S209 to the communication control unit 21 (step S210), and the communication control unit 21 transmits the received AR data. Encode (step S211) and transmit to the smart device 10 (step S212).

以上のようにAR表示準備処理が行われることにより、シナリオ制御環境20は、スマートデバイス10においてシナリオに応じたAR表示を行わせるために必要な情報(AR用データ)を収集し、スマートデバイス10に送信することができる。   By performing the AR display preparation process as described above, the scenario control environment 20 collects information (AR data) necessary for performing the AR display according to the scenario in the smart device 10 and the smart device 10 Can be sent to

(2−3)AR表示処理
図9は、AR表示処理の処理手順例を示すフローチャートである。図9には、AR表示処理におけるスマートデバイス10による処理手順例が示されている。なお、AR表示処理におけるガイダンスシステム1の各構成による詳細な処理手順については、後述する図10のシーケンス図に示される。
(2-3) AR Display Processing FIG. 9 is a flowchart illustrating an example of a processing procedure of the AR display processing. FIG. 9 illustrates a processing procedure example by the smart device 10 in the AR display processing. The detailed processing procedure of each component of the guidance system 1 in the AR display processing is shown in a sequence diagram of FIG. 10 described later.

図9によれば、まず、図7のステップS105におけるAR用データの送信によって、スマートデバイス10は、シナリオ制御環境20からAR用データを取得する(ステップS111)。このAR表示情報の取得は、図6のステップS38(あるいは図5のステップS19)の処理に相当する。   According to FIG. 9, first, by transmitting the AR data in step S105 in FIG. 7, the smart device 10 acquires the AR data from the scenario control environment 20 (step S111). This acquisition of the AR display information corresponds to the processing of step S38 in FIG. 6 (or step S19 in FIG. 5).

次に、スマートデバイス10は、ステップS111で受信したAR用データに含まれるオブジェクトファイルをディスプレイ14にAR表示する(ステップS112)。   Next, the smart device 10 AR-displays the object file included in the AR data received in step S111 on the display 14 (step S112).

そして、スマートデバイス10はステップS111で受信したAR用データに付随情報が含まれるか否かを判定し(ステップS113)、付随情報が有ると判定した場合には(ステップS113のYES)、ステップS114〜S117によるセンサ処理を行う。一方、受信したAR用データに付随情報が無いと判定した場合には(ステップS113のNO)、AR表示処理を終了する。   Then, the smart device 10 determines whether or not the AR data received in step S111 includes accompanying information (step S113). If it is determined that there is accompanying information (YES in step S113), step S114 is performed. To S117. On the other hand, when it is determined that the received AR data does not include the accompanying information (NO in step S113), the AR display process ends.

センサ処理ではまず、スマートデバイス10は、付随情報に基づいてセンサ値を取得する(ステップS114)。具体的には、付随情報テーブル320のセンサID323に記載されたセンサIDに対応するセンサ12を用いて対象物に対するセンシングを実行し、センサ値を取得する。   In the sensor processing, first, the smart device 10 acquires a sensor value based on the accompanying information (Step S114). Specifically, sensing is performed on the target using the sensor 12 corresponding to the sensor ID described in the sensor ID 323 of the accompanying information table 320, and a sensor value is obtained.

その後、スマートデバイス10は、ステップS114で取得したセンサ値に基づいて、対象物との位置関係が適正位置であるか否かを判定する適正位置判定を行う(ステップS115)。適正位置判定での判定基準には、付随情報テーブル320の付随情報目標値324、付随情報単位325、及び付随情報範囲326を用いる。より具体的には、適正位置判定では、取得したセンサ値が付随情報テーブル320の付随情報範囲326の範囲内に存在する場合に、適正位置であると判定する。一方、取得したセンサ値が付随情報範囲326の範囲外であった場合は、適正位置ではないと判定し、さらに、付随情報範囲326に対して超過/過小の何れであるかも判定する。   Thereafter, the smart device 10 performs a proper position determination to determine whether or not the positional relationship with the target is a proper position based on the sensor value acquired in Step S114 (Step S115). As the criterion for determining the proper position, the associated information target value 324, the associated information unit 325, and the associated information range 326 of the associated information table 320 are used. More specifically, in the proper position determination, when the acquired sensor value exists within the range of the accompanying information range 326 of the accompanying information table 320, it is determined that the position is the proper position. On the other hand, if the acquired sensor value is out of the range of the accompanying information range 326, it is determined that the position is not a proper position, and further, it is determined whether the position is over or under the accompanying information range 326.

次に、スマートデバイス10は、ステップS114及びステップS115の結果に基づいて、表示用付随情報を修正する(ステップS116)。ここで、表示用付随情報とは、AR用データに含まれる付随情報を基に作成されるローカルデータの付随情報であって、例えば、ローカルフォルダ113に保持される。そして、次のステップS117において、スマートデバイス10は、ステップS116で修正した表示用付随情報をディスプレイ14にAR表示させる(付随情報表示)。本実施の形態では、このようにローカルデータの付随情報(表示用付随情報)を用いることにより、ステップS114において新たなセンサ値が取得された場合でも、シナリオ制御環境20と通信することなく、適正位置判定を行い、さらに、更新された最新の表示用付随情報を用いて付随情報のAR表示を実現することができるため、処理遅延の発生を抑制する効果に期待できる。   Next, the smart device 10 corrects the accompanying information for display based on the results of steps S114 and S115 (step S116). Here, the additional information for display is the additional information of the local data created based on the additional information included in the AR data, and is stored in, for example, the local folder 113. Then, in the next step S117, the smart device 10 causes the display 14 to AR-display the display-related information corrected in step S116 (display of the accompanying information). In the present embodiment, by using the accompanying information of the local data (the accompanying information for display) in this manner, even if a new sensor value is acquired in step S114, appropriate information can be obtained without communicating with the scenario control environment 20. Since the position determination is performed and the AR display of the accompanying information can be realized using the updated latest accompanying information for display, an effect of suppressing the occurrence of the processing delay can be expected.

なお、ステップS117の付随情報表示では、現在のセンサ値を表示するだけでなく、適正位置判定による判定結果(適正位置、超過/過小による不適正位置)に基づくテキスト表示も行われる。例えば、超過による不適正位置の場合は、付随情報テーブル320の超過時表示情報327が表示され、過小による不適正位置の場合は、付随情報テーブル320の過小時表示情報328が表示される。   In the accompanying information display of step S117, not only the current sensor value is displayed, but also a text display based on the determination result (proper position, inappropriate position due to excess / under) based on the proper position determination is performed. For example, in the case of an inappropriate position due to excess, the excess display information 327 of the accompanying information table 320 is displayed, and in the case of an inappropriate position due to too small, the undersized display information 328 of the accompanying information table 320 is displayed.

ステップS114〜S117のセンサ処理は、ステップS115の適正位置判定で適正位置と判定されて次段階の写真撮影処理が開始されるまで、センサ値更新間隔(例えば、所定の時間間隔)で繰り返し実行される。   The sensor processing in steps S114 to S117 is repeatedly executed at a sensor value update interval (for example, a predetermined time interval) until the appropriate position is determined in the appropriate position determination in step S115 and the next step of photographing processing is started. You.

図10は、AR表示処理における詳細な処理手順を示すシーケンス図である。   FIG. 10 is a sequence diagram illustrating a detailed processing procedure in the AR display processing.

図10によれば、まず、シナリオ制御環境20からスマートデバイス10の通信制御部111にAR用データ(AR表示情報、付随情報、オブジェクトファイル)が送信される(ステップS221)。ステップS221は、図6のステップS38に示した処理に相当する。   According to FIG. 10, first, AR data (AR display information, accompanying information, object file) is transmitted from the scenario control environment 20 to the communication control unit 111 of the smart device 10 (step S221). Step S221 corresponds to the process shown in step S38 of FIG.

次に、通信制御部111は、受信したAR用データをデコードし(ステップS222)、処理制御部112に送る(ステップS223)。   Next, the communication control unit 111 decodes the received AR data (step S222) and sends the data to the processing control unit 112 (step S223).

そして、処理制御部112は、ステップS223で受け取ったAR用データのうち、オブジェクトファイルをディスプレイ14に送信し(ステップS224)、AR表示させる(ステップS225)。   Then, the processing control unit 112 transmits the object file of the AR data received in step S223 to the display 14 (step S224), and causes the display 14 to display the AR (step S225).

次に、処理制御部112は、ステップS223で受け取ったAR用データに付随情報が含まれるか否かを判別し(ステップS226)、付随情報が有った場合には、図9で説明したようにセンサ処理を実行する。   Next, the processing control unit 112 determines whether or not the AR data received in step S223 includes additional information (step S226). If there is additional information, as described with reference to FIG. The sensor process is executed.

センサ処理において、まず、処理制御部112は、付随情報テーブル320のセンサID323に記載されたセンサIDに対応するセンサ12に対して、センサ値の問合せを行う(ステップS227)。問合せを受けたセンサ12は、センシングを実行し、その検出結果(センサ値)を処理制御部112に返す(ステップS228)。   In the sensor processing, first, the processing control unit 112 inquires of the sensor 12 corresponding to the sensor ID described in the sensor ID 323 of the accompanying information table 320 about a sensor value (step S227). The sensor 12 that has received the inquiry performs sensing, and returns a detection result (sensor value) to the processing control unit 112 (step S228).

次に、処理制御部112は、ステップS228で取得したセンサ値に基づいて、適正位置判定を行う(ステップS229)。   Next, the processing control unit 112 performs an appropriate position determination based on the sensor value acquired in step S228 (step S229).

その後、処理制御部112は、表示用付随情報をディスプレイ14に送信し(ステップS230)、ディスプレイ14は、ステップS205におけるAR表示の表示内容を更新して表示用付随情報をAR表示する(ステップS231)。図9の説明で前述したように、表示用付随情報のAR表示では、センサ値の表示の他に、適正位置判定の判定結果に応じたテキスト表示も行う事ができる。   Thereafter, the processing control unit 112 transmits the display-related information to the display 14 (step S230), and the display 14 updates the display content of the AR display in step S205 and displays the display-related information in an AR manner (step S231). ). As described above with reference to FIG. 9, in the AR display of the accompanying information for display, in addition to the display of the sensor value, a text display according to the determination result of the appropriate position determination can be performed.

ステップS227〜S231の処理は、次段階の写真撮影処理が開始されるまで、センサ値更新間隔(例えば、所定の時間間隔)で繰り返し実行・更新される。なお、このAR表示処理においてディスプレイ14にAR表示される画面は、シナリオの対象物と所定の位置関係(適正位置)になるようにスマートデバイス10のユーザを誘導するガイダンス画面である。その具体例については、図15〜図18を参照して後述する。   The processes in steps S227 to S231 are repeatedly executed and updated at sensor value update intervals (for example, predetermined time intervals) until the next stage of the photographing process is started. Note that the screen displayed in AR on the display 14 in the AR display processing is a guidance screen for guiding the user of the smart device 10 so as to have a predetermined positional relationship (appropriate position) with the target of the scenario. Specific examples thereof will be described later with reference to FIGS.

以上のようにAR表示処理が行われることにより、スマートデバイス10は、ユーザ(スマートデバイス10)とシナリオの対象物との位置関係が適正位置になるように、AR表示を用いたガイダンス画面によってユーザを誘導(案内)することができる。   By performing the AR display process as described above, the smart device 10 uses the guidance screen using the AR display so that the positional relationship between the user (the smart device 10) and the target of the scenario becomes an appropriate position. Can be guided.

(2−4)写真撮影処理
図11は、写真撮影処理の処理手順例を示すフローチャートである。図11には、写真撮影処理におけるスマートデバイス10による処理手順例が示されている。なお、写真撮影処理におけるガイダンスシステム1の各構成による詳細な処理手順については、後述する図12のシーケンス図に示される。
(2-4) Photographing Process FIG. 11 is a flowchart illustrating an example of a processing procedure of the photographing process. FIG. 11 shows an example of a processing procedure by the smart device 10 in the photographing processing. A detailed processing procedure of each component of the guidance system 1 in the photographing process is shown in a sequence diagram of FIG. 12 described later.

写真撮影処理は、図9のステップS115の適正位置判定によってユーザ(スマートデバイス10)が対象物に対して適正位置にある場合に、実行される。また、本例では、写真撮影処理は、ユーザからの音声指示に基づいてスマートデバイス10が自動実行するものとするが、本実施の形態における写真撮影処理の実現方法はこれに限定されるものではなく、例えば、ユーザ自身がスマートデバイス10の撮影操作を行うものであってもよい。また、写真撮影処理において動画を撮影するものであってもよい。   The photographing process is executed when the user (smart device 10) is at a proper position with respect to the target object by the proper position determination in step S115 in FIG. Further, in this example, the smart device 10 automatically executes the photographing process based on a voice instruction from the user, but the method of realizing the photographing process in the present embodiment is not limited to this. Instead, for example, the user himself may perform a shooting operation of the smart device 10. Further, a moving image may be taken in the photographing process.

図11によれば、まず、スマートデバイス10は、対象物の撮影を指示するユーザの音声指示を取得・認識する(ステップS131)。次に、スマートデバイス10は、対象物の写真撮影を行う(ステップS132)。   According to FIG. 11, first, the smart device 10 acquires and recognizes a voice instruction of a user who instructs shooting of an object (step S131). Next, the smart device 10 takes a photograph of the object (Step S132).

その後、スマートデバイス10は、ステップS132で撮影した写真の撮影データを所定の格納先(例えばファイルサーバ40)にアップロードする(ステップS133)。そして、スマートデバイス10は、アップロード先のファイルパス(写真ファイルパス)をシナリオ制御環境20に送信し、写真撮影処理を終了する。その後は、シナリオ制御環境20において、後述する次シナリオ判別処理が行われる。   Thereafter, the smart device 10 uploads the photographing data of the photograph taken in step S132 to a predetermined storage destination (for example, the file server 40) (step S133). Then, the smart device 10 transmits the file path (photograph file path) of the upload destination to the scenario control environment 20, and ends the photographing process. Thereafter, in the scenario control environment 20, a next scenario determination process described later is performed.

なお、ステップS133においてアップロードする撮影データには、撮影時の環境情報(例えばセンサ値等)を含むようにしてもよく、このような環境情報を添えることにより、後述する次シナリオ判別処理のなかで、撮影時の適正位置におけるセンサ値等も合わせてシナリオ制御環境20に送信することができる。   Note that the shooting data uploaded in step S133 may include environment information (for example, a sensor value or the like) at the time of shooting. By adding such environment information, shooting can be performed in the next scenario determination process described later. The sensor value at the appropriate position at the time can also be transmitted to the scenario control environment 20 together.

図12は、写真撮影処理における詳細な処理手順を示すシーケンス図である。   FIG. 12 is a sequence diagram illustrating a detailed processing procedure in the photographing process.

図12によれば、まず、スマートデバイス10において、対象物の撮影を指示するユーザの音声指示がマイク121から処理制御部112に入力される(ステップS241)。   According to FIG. 12, first, in the smart device 10, a user's voice instruction to instruct shooting of an object is input from the microphone 121 to the processing control unit 112 (step S <b> 241).

ステップS241では、音声指示の音声データが入力されるので、処理制御部112は、音声データに対して音声認識処理を施し(ステップS242)、認識内容に基づいてカメラ13に対して写真撮影を指示する(ステップS243)。ステップS243の写真撮影指示を受けて、カメラ13は対象物を撮影し(ステップS244)、その撮影データを処理制御部112に送る(ステップS245)。なお、ステップS242における音声認識処理は、様々な公知技術を利用することができる。   In step S241, since the voice data of the voice instruction is input, the processing control unit 112 performs voice recognition processing on the voice data (step S242), and instructs the camera 13 to take a photograph based on the recognition content. (Step S243). Upon receiving the photographing instruction in step S243, the camera 13 photographs the target (step S244), and sends the photographed data to the processing control unit 112 (step S245). Note that the voice recognition processing in step S242 can use various known techniques.

次に、処理制御部112は、カメラ13から送られた撮影データをファイルサーバ40にアップロードし(ステップS246)、アップロード先のファイルパス(写真ファイルパス)をファイルサーバ40から受信する(ステップS247)。   Next, the processing control unit 112 uploads the photographing data sent from the camera 13 to the file server 40 (step S246), and receives the upload destination file path (photograph file path) from the file server 40 (step S247). .

そして、処理制御部112は、ステップS247で受信した写真ファイルパスを通信制御部111に送り(ステップS248)、通信制御部111は、当該写真ファイルパスをエンコードし(ステップS249)、ネットワーク50を介してシナリオ制御環境20に送信する(ステップS250)。   Then, the processing control unit 112 sends the photo file path received in step S247 to the communication control unit 111 (step S248), and the communication control unit 111 encodes the photo file path (step S249), and transmits the photo file path via the network 50. To the scenario control environment 20 (step S250).

以上のように写真撮影処理が行われることによって、スマートデバイス10は、適正位置にある対象物を撮影し、その撮影データを示すデータ(本例では、アップロード先のファイルパスだが、撮影データを直接送信する場合は、撮影データそのものとなる)をシナリオ制御環境20に送信することができる。   By performing the photographing process as described above, the smart device 10 photographs the target at the appropriate position, and displays data representing the photographed data (in this example, the file path of the upload destination, but the photographed data is directly transferred). In the case of transmission, the image data itself) can be transmitted to the scenario control environment 20.

(2−5)次シナリオ判別処理
図13は、次シナリオ判別処理の処理手順例を示すフローチャートである。図13には、次シナリオ判別処理におけるシナリオ制御環境20による処理手順例が示されている。なお、次シナリオ判別処理におけるガイダンスシステム1の各構成による詳細な処理手順については、後述する図14のシーケンス図に示される。
(2-5) Next Scenario Determination Processing FIG. 13 is a flowchart illustrating an example of a processing procedure of the next scenario determination processing. FIG. 13 shows an example of a processing procedure by the scenario control environment 20 in the next scenario determination processing. It should be noted that a detailed processing procedure by each component of the guidance system 1 in the next scenario determination processing is shown in a sequence diagram of FIG. 14 described later.

図13によれば、まず、図11のステップS134における写真ファイルパスの送信によって、シナリオ制御環境20は、スマートデバイス10から写真ファイルパスを取得する(ステップS141)。この写真ファイルパスの取得は、図6のステップS41の処理に相当する。   According to FIG. 13, first, the scenario control environment 20 acquires a photo file path from the smart device 10 by transmitting the photo file path in step S134 of FIG. 11 (step S141). The acquisition of the photo file path corresponds to the processing in step S41 in FIG.

次に、シナリオ制御環境20はステップS141で受信した写真ファイルパスに基づいて、所定の格納先(本例ではファイルサーバ40)から撮影データ(写真ファイル)を取得する(ステップS142)。なお、ステップS141〜S142の処理は、図11に説明したAR表示処理において、撮影データがファイルサーバ40にアップロードされ、そのアップロード先のファイルパス(写真ファイルパス)がシナリオ制御環境20に送信された場合の処理を説明するものである。したがって、例えばAR表示処理において撮影データが直接シナリオ制御環境20に送信されるような場合は、ステップS141〜S142の代わりに、単に撮影データを取得すればよくなる。   Next, the scenario control environment 20 acquires photographing data (photograph file) from a predetermined storage location (in this example, the file server 40) based on the photo file path received in step S141 (step S142). In the processing of steps S141 to S142, in the AR display processing described in FIG. 11, the photographing data is uploaded to the file server 40, and the file path (photograph file path) of the upload destination is transmitted to the scenario control environment 20. This is to explain the processing in the case. Therefore, for example, in the case where the imaging data is directly transmitted to the scenario control environment 20 in the AR display processing, it is sufficient to simply acquire the imaging data instead of steps S141 to S142.

次に、シナリオ制御環境20は、写真ファイルの画像分析を行うとともに、画像分析の結果を用いて次シナリオの判別を行う(ステップS143)。画像分析は、様々な公知技術を利用することができる。また、次シナリオの判別は、次に実行すべきシナリオを判別するための処理であって、画像分析の結果から、シナリオ制御情報テーブル330の分岐判定情報332に対応する情報が抽出される。   Next, the scenario control environment 20 analyzes the image of the photo file, and determines the next scenario using the result of the image analysis (step S143). Various known techniques can be used for image analysis. The determination of the next scenario is a process for determining a scenario to be executed next, and information corresponding to the branch determination information 332 of the scenario control information table 330 is extracted from the result of the image analysis.

そして、シナリオ制御環境20は、ステップS143の結果に基づいてデータベース30のシナリオ制御情報テーブル330を参照することにより、次に実行するシナリオのID(次のシナリオID)を取得する(ステップS144)。   Then, the scenario control environment 20 acquires the ID of the scenario to be executed next (the next scenario ID) by referring to the scenario control information table 330 of the database 30 based on the result of step S143 (step S144).

そして、シナリオ制御環境20は、ステップS144で取得した次のシナリオIDをネットワーク50を介してスマートデバイス10に送信し(ステップS145)、次シナリオ判別処理を終了する。その後は、次のシナリオIDに基づくガイダンス処理が開始される(例えば、図5のステップS11)。   Then, the scenario control environment 20 transmits the next scenario ID acquired in step S144 to the smart device 10 via the network 50 (step S145), and ends the next scenario determination processing. Thereafter, guidance processing based on the next scenario ID is started (for example, step S11 in FIG. 5).

図14は、次シナリオ判別処理における詳細な処理手順を示すシーケンス図である。   FIG. 14 is a sequence diagram illustrating a detailed processing procedure in the next scenario determination processing.

図14によれば、まず、スマートデバイス10からシナリオ制御環境20の通信制御部21に写真ファイルパスが送信される(ステップS251)。ステップS251は、前述した図12におけるステップS250に相当する。   According to FIG. 14, first, the photo file path is transmitted from the smart device 10 to the communication control unit 21 of the scenario control environment 20 (step S251). Step S251 corresponds to step S250 in FIG. 12 described above.

通信制御部21は、受信した写真ファイルパスをデコードし(ステップS252)、処理制御部112に送る(ステップS253)。そして処理制御部112は、写真ファイルパスを判別部23に転送する(ステップS254)。   The communication control unit 21 decodes the received photo file path (Step S252), and sends it to the processing control unit 112 (Step S253). Then, the processing control unit 112 transfers the photo file path to the determination unit 23 (Step S254).

次に、判別部23は、当該写真ファイルパスを用いてファイルサーバ40に写真ファイル(画像ファイル)の問合せを行い(ステップS255)、当該写真ファイルパスに格納された画像ファイル、すなわち、図12のステップS246で格納された撮影データ(写真)をファイルサーバ40から取得する(ステップS256)。   Next, the determination unit 23 inquires of the file server 40 about the photo file (image file) using the photo file path (step S255), and the image file stored in the photo file path, that is, FIG. The photographing data (photograph) stored in step S246 is obtained from the file server 40 (step S256).

次いで、判別部23は、ステップS256で取得した撮影データに対して、画像分析を行い、少なくとも、次シナリオの分岐判定に必要な「所定の情報」を判別・抽出する(ステップS257)。判別部23は、その判別結果をシナリオ制御処理部22に送る(ステップS258)。   Next, the determination unit 23 performs image analysis on the photographed data acquired in step S256, and determines and extracts at least “predetermined information” necessary for branch determination of the next scenario (step S257). The determination unit 23 sends the result of the determination to the scenario control processing unit 22 (Step S258).

ここで、次シナリオの分岐判定に必要な「所定の情報」とは、シナリオ制御情報テーブル330の分岐判定情報332から特定することができる。例えば、図4のシナリオ制御情報テーブル330では、シナリオID「001」に関して、分岐判定情報332に「A,B」が記載され、分岐判定情報が「A」であった場合には次のシナリオIDは「002A」となり、分岐判定情報が「B」であった場合には次のシナリオIDは「002B」となることが示されている。したがって、シナリオIDが「001」である場合の次シナリオ判別処理では、分岐判定情報332に記載された「A」または「B」に相当する情報が、上記「所定の情報」として抽出される。   Here, the “predetermined information” required for the branch determination of the next scenario can be specified from the branch determination information 332 of the scenario control information table 330. For example, in the scenario control information table 330 of FIG. 4, regarding the scenario ID “001”, “A, B” is described in the branch determination information 332, and if the branch determination information is “A”, the next scenario ID Is "002A", and when the branch determination information is "B", the next scenario ID is "002B". Therefore, in the next scenario determination processing when the scenario ID is “001”, information corresponding to “A” or “B” described in the branch determination information 332 is extracted as the “predetermined information”.

なお、本実施の形態では、分岐判定情報332にどのような情報を記載するかによって、次のシナリオについて様々な分岐を実現することができる。撮影された対象物における所定領域(例えばランプ)の色について、「所定領域が赤色である」ことを分岐判定情報332の情報「A」とし、「所定領域が青色である」ことを分岐判定情報332の情報「B」とすれば、上記ランプの色に応じて次のシナリオを分岐させることができる。また例えば、所定の診断処理を実行するとして、その診断結果(OK/NG)に応じて情報「A」,「B」を設定するといった分岐設定等も可能である。また、分岐数は2つに限定されるものではなく、分岐数や分岐条件を任意に設けてシナリオを設定することができる。   In the present embodiment, various branches can be realized for the following scenarios depending on what information is described in the branch determination information 332. Regarding the color of a predetermined area (for example, a lamp) in the photographed object, “predetermined area is red” is information “A” of branch determination information 332, and “predetermined area is blue” is branch determination information. If the information 332 is “B”, the next scenario can be branched according to the color of the lamp. Further, for example, it is also possible to perform a predetermined diagnosis process and to perform a branch setting such as setting information “A” and “B” according to the diagnosis result (OK / NG). The number of branches is not limited to two, and a scenario can be set by arbitrarily setting the number of branches and branch conditions.

図14の説明に戻る。ステップS258で判別結果を受け取ったシナリオ制御処理部22は、現在のシナリオIDと上記判別結果とに基づいてデータベース30のシナリオ制御情報テーブル330を参照し(ステップS259)、次のシナリオIDを取得する(ステップS260)。図4のシナリオ制御情報テーブル330を用いて具体例を説明すると、現在のシナリオIDが「001」であって、判別結果が「A」であったとすると、次のシナリオIDとして「002A」が決定される。   Returning to the description of FIG. The scenario control processing unit 22 that has received the determination result in step S258 refers to the scenario control information table 330 of the database 30 based on the current scenario ID and the above determination result (step S259), and acquires the next scenario ID. (Step S260). To explain a specific example using the scenario control information table 330 of FIG. 4, if the current scenario ID is “001” and the determination result is “A”, “002A” is determined as the next scenario ID. Is done.

その後、シナリオ制御処理部22は、ステップS260で取得した次のシナリオIDを通信制御部21に送り(ステップS261)、通信制御部21は、受け取った次のシナリオIDをエンコードし(ステップS262)、スマートデバイス10に送信する(ステップS263)。   Thereafter, the scenario control processing unit 22 sends the next scenario ID obtained in step S260 to the communication control unit 21 (step S261), and the communication control unit 21 encodes the received next scenario ID (step S262), The data is transmitted to the smart device 10 (step S263).

以上のように次シナリオ判別処理が行われることにより、シナリオ制御環境20は、スマートデバイス10において撮影された現シナリオの対象物の撮影データを取得できるとともに、当該撮影データの画像分析の結果から次に実行するシナリオを決定し、スマートデバイス10に伝えることができる。   By performing the next scenario determination process as described above, the scenario control environment 20 can acquire the image data of the target object of the current scenario imaged by the smart device 10 and obtain the next image data from the image analysis result of the image data. The scenario to be executed is determined and transmitted to the smart device 10.

(3)ガイダンス画面
前述したように、本実施の形態に係るガイダンスシステム1では、ユーザに所定の動作(操作)を指示するためにスマートデバイス10のディスプレイ14にガイダンス画面がAR表示される。以下では、このガイダンス画面について、具体例を示しながら説明する。
(3) Guidance Screen As described above, in the guidance system 1 according to the present embodiment, the guidance screen is AR-displayed on the display 14 of the smart device 10 in order to instruct the user to perform a predetermined operation (operation). Hereinafter, the guidance screen will be described with reference to specific examples.

まず、物体認識までのガイダンス処理で表示されるガイダンス画面について説明する。図5のステップS20等で説明したように、物体認識までのガイダンス処理では、物体認識のシナリオIDに基づいて、対象物の物体を認識させるためのガイダンス画面がスマートデバイス10のディスプレイ14にAR表示される。   First, the guidance screen displayed in the guidance process up to object recognition will be described. As described in step S20 in FIG. 5 and the like, in the guidance processing up to the object recognition, a guidance screen for recognizing the target object is displayed on the display 14 of the smart device 10 in an AR based on the scenario ID of the object recognition. Is done.

図15は、物体認識までのガイダンス処理のなかで表示されるガイダンス画面の一例を説明するための図である。図15に示したように、ガイダンス画面400は、画面内に映された対象物(被写体)に、現シナリオにおける対象物の適正位置を重畳表示(AR表示)する第1の表示画面410と、現シナリオにおける作業指示や付随情報をAR表示する第2の表示画面420とを有している。   FIG. 15 is a diagram for explaining an example of a guidance screen displayed in the guidance process up to object recognition. As shown in FIG. 15, the guidance screen 400 includes a first display screen 410 for superimposing (AR display) an appropriate position of an object in the current scenario on an object (subject) displayed in the screen, And a second display screen 420 for AR display of work instructions and accompanying information in the current scenario.

図15に示すガイダンス画面400をより具体的に確認する。第1の表示画面410には、対象物が実線で示されている。なお、前述したように、本実施の形態において、「ディスプレイ14(ガイダンス画面400,第1の表示画面410)内に映される対象物」とは、ディスプレイ14を透過して対象物の実体が映される場合と、カメラ13越しの対象物の実体映像(カメラ13によって撮像された実体映像)がディスプレイ14の表示画面(ここでは第1の表示画面410)に表示される場合と、の双方の意味で捉えることができる。両者は画像処理等の点では相違があるものの、何れの場合も、ユーザがガイダンス画面400(第1の表示画面410)を見た場合に、対象物が映され、その対象物に重畳する態様で適正位置が表示されることに変わりはない。そこで以下では、カメラ13越しに対象物の実体映像が表示される場合を例として、説明を続ける。   The guidance screen 400 shown in FIG. 15 is confirmed more specifically. On the first display screen 410, the target object is indicated by a solid line. As described above, in the present embodiment, the “object displayed on the display 14 (the guidance screen 400, the first display screen 410)” means that the substance of the object is transmitted through the display 14. Both the case where the image is projected and the case where the real image of the object passing through the camera 13 (the real image captured by the camera 13) is displayed on the display screen of the display 14 (here, the first display screen 410). In the sense of. Although there is a difference between the two in terms of image processing and the like, in any case, when the user views the guidance screen 400 (first display screen 410), the target object is projected and superimposed on the target object. Is still displayed on the display. Therefore, hereinafter, the description will be continued by taking as an example a case where a substantial image of the target object is displayed through the camera 13.

図15に示すガイダンス画面400の具体的な説明を続ける。第1の表示画面410には、カメラ13越しに捉えた対象物の実体映像が、実線で示されている。さらに、現シナリオ(ここでは物体認識のシナリオ)における対象物について、物体認識を行うための位置合わせの適正位置のイメージ(3Dガイド)が、破線で重畳表示されている。この3Dガイドは、シナリオ制御環境20から送信されたAR用データ(例えば、図5のステップS19参照)に含まれるオブジェクトファイルを用いることによってAR表示される。   The specific description of the guidance screen 400 shown in FIG. 15 will be continued. On the first display screen 410, a substantial image of the object captured through the camera 13 is indicated by a solid line. Further, for the target in the current scenario (here, the object recognition scenario), an image (3D guide) of an appropriate position for alignment for performing object recognition is superimposed and displayed by a broken line. This 3D guide is AR-displayed by using an object file included in AR data transmitted from the scenario control environment 20 (for example, see step S19 in FIG. 5).

また、ガイダンス画面400の第2の表示画面420は、現シナリオにおける作業指示の内容がテキスト表示される作業指示表示領域421と、現在のユーザ(スマートデバイス10)と対象物との客観的な位置関係のイメージが示される付随情報表示領域422とを備えて構成される。   The second display screen 420 of the guidance screen 400 includes a work instruction display area 421 in which the contents of the work instruction in the current scenario are displayed in text, and an objective position of the current user (smart device 10) and the object. And an associated information display area 422 in which an image of the relationship is shown.

作業指示表示領域421に表示されるテキストは、シナリオ制御環境20から送信されたAR用データに含まれるAR表示情報の作業指示情報313(図4(A)参照)に記載された情報が表示される。具体的には、図15の場合、作業指示表示領域421に「被写体を3Dガイドに合わせ、対象を物体認識させてください」と表示されていることから、ユーザに、第1の表示画面410において対象物の実体映像を3Dガイドの位置に合わせるように、自身(スマートデバイス10)の位置を変更する必要があることを案内できる。   As the text displayed in the work instruction display area 421, information described in the work instruction information 313 (see FIG. 4A) of the AR display information included in the AR data transmitted from the scenario control environment 20 is displayed. You. Specifically, in the case of FIG. 15, the message “Please align the subject with the 3D guide and recognize the object” is displayed in the work instruction display area 421, so the user is prompted on the first display screen 410. The user can be informed that the position of himself / herself (smart device 10) needs to be changed so that the stereoscopic image of the target object matches the position of the 3D guide.

付随情報表示領域422に表示される現在のユーザ(スマートデバイス10)と対象物との客観的な位置関係のイメージは、シナリオ制御環境20から送信されたAR用データに含まれるオブジェクトファイル及び付随情報と、取得したセンサ値で更新されてローカルフォルダ113に保持される表示用付随情報(例えば図9のステップS116参照)とに基づいて、AR表示される。具体的には、図15の場合、付随情報表示領域422には、ユーザと対象物との適正な位置関係として、角度が「30±5°」で距離が「25±1cm」という具体的な値が示されており、さらに、ユーザと対象物のイメージ画像も表示されている。これらの付随情報表示によって、ユーザは、対象物との適正な位置関係を視覚的に認識・判断しやすくなる。   The image of the objective positional relationship between the current user (smart device 10) and the object displayed in the accompanying information display area 422 is the object file and the accompanying information included in the AR data transmitted from the scenario control environment 20. AR display is performed based on the display information (for example, see step S116 in FIG. 9) updated with the acquired sensor value and stored in the local folder 113. Specifically, in the case of FIG. 15, in the accompanying information display area 422, as an appropriate positional relationship between the user and the object, a specific angle of “30 ± 5 °” and a distance of “25 ± 1 cm” are displayed. The values are shown, and image images of the user and the object are also displayed. The display of the accompanying information makes it easier for the user to visually recognize and judge the appropriate positional relationship with the object.

次に、物体認識後のガイダンス処理で表示されるガイダンス画面について説明する。図6のステップS39等で説明したように、物体認識後のガイダンス処理では、現シナリオIDに基づいて、対象物を撮影用の適正位置に位置合わせするためのガイダンス画面が、スマートデバイス10のディスプレイ14にAR表示される。   Next, a guidance screen displayed in the guidance process after object recognition will be described. As described in step S39 in FIG. 6 and the like, in the guidance process after the object recognition, the guidance screen for positioning the target to the appropriate position for shooting is displayed on the display of the smart device 10 based on the current scenario ID. 14 is displayed as an AR.

図16〜図18は、物体認識後のガイダンス処理のなかで表示されるガイダンス画面の一例を説明するための図(その1〜その3)である。図16〜図18に示したガイダンス画面500,600,700は、何れも、カメラ13越しに捉えた実体映像に、現シナリオにおける対象物の適正位置を重畳表示(AR表示)する第1の表示画面510,610,710と、現シナリオにおける作業指示や付随情報をAR表示する第2の表示画面520,620,720とを有している。第1の表示画面510,610,710における表示内容は、前述したガイダンス画面400の第1の表示画面410と共通しているため、説明を省略する。一方、第2の表示画面520,620,720には、対象物に対する位置合わせ及び撮影に関する付随情報の表示態様について、異なるバリエーションが示されており、以下、それぞれの第2の表示画面における表示態様について説明する。   16 to 18 are diagrams (parts 1 to 3) for explaining an example of a guidance screen displayed in the guidance processing after object recognition. Each of the guidance screens 500, 600, and 700 shown in FIGS. 16 to 18 is a first display in which an appropriate position of an object in the current scenario is superimposed (AR display) on a real image captured through the camera 13. Screens 510, 610, and 710, and second display screens 520, 620, and 720 for AR display of work instructions and accompanying information in the current scenario. The display contents on the first display screens 510, 610, and 710 are common to the above-described first display screen 410 of the guidance screen 400, and thus description thereof is omitted. On the other hand, the second display screens 520, 620, and 720 show different variations of the display mode of the accompanying information relating to the positioning and the photographing with respect to the object. Hereinafter, the display modes on the respective second display screens will be described. Will be described.

図16の第2の表示画面520の表示態様について説明する。第2の表示画面520は、現シナリオにおける作業指示の内容がテキスト表示される作業指示表示領域521と、現在のユーザ(スマートデバイス10)と対象物との客観的な位置関係のイメージが示される付随情報表示領域522とを備えて構成される。さらに、付随情報表示領域522には、位置合わせのために必要な動作がテキスト表示される付随情報テキスト表示領域523が含まれている。   The display mode of the second display screen 520 in FIG. 16 will be described. The second display screen 520 shows a work instruction display area 521 in which the contents of the work instruction in the current scenario are text-displayed, and an image of an objective positional relationship between the current user (smart device 10) and the object. An accompanying information display area 522 is provided. Further, the accompanying information display area 522 includes an accompanying information text display area 523 in which an operation necessary for alignment is displayed in text.

作業指示表示領域521に表示されるテキストは、シナリオ制御環境20から送信されたAR用データに含まれるAR表示情報の作業指示情報313(図4(A)参照)に記載された情報が表示される。具体的には、図16の場合、作業指示表示領域521に「被写体を3Dガイドに合わせ、[写真]と音声入力を行い現状の写真を取得してください」と表示されている。この表示内容から、ユーザは、第1の表示画面510に表示された対象物の実体映像を3Dガイドに位置合わせし、その後、「写真」という音声入力を行う必要があることを認識できる。   As the text displayed in the work instruction display area 521, information described in the work instruction information 313 (see FIG. 4A) of the AR display information included in the AR data transmitted from the scenario control environment 20 is displayed. You. Specifically, in the case of FIG. 16, the work instruction display area 521 displays "Please align the subject with the 3D guide, input [Photo] and voice, and obtain the current photo". From this display content, the user can recognize that it is necessary to position the stereoscopic image of the target object displayed on the first display screen 510 with the 3D guide, and then perform voice input of “photograph”.

付随情報表示領域522に表示される現在のユーザ(スマートデバイス10)と対象物との客観的な位置関係のイメージは、シナリオ制御環境20から送信されたAR用データに含まれるオブジェクトファイル及び付随情報と、取得したセンサ値で更新されてローカルフォルダ113に保持される表示用付随情報(例えば図9のステップS116参照)とに基づいて、AR表示される。   The image of the objective positional relationship between the current user (smart device 10) and the object displayed in the accompanying information display area 522 is the object file and the accompanying information included in the AR data transmitted from the scenario control environment 20. AR display is performed based on the display information (for example, see step S116 in FIG. 9) updated with the acquired sensor value and stored in the local folder 113.

図16の場合、ユーザと対象物(被写体)との位置関係に関する数値的な表示は、「[現在値]/[目標値]±[誤差範囲]」の形式で表示されている。具体的には、付随情報表示領域522に表示された「17.5/30±5°」は、適正位置にある対象物に対するユーザの視角が「30±5°(すなわち、25°〜35°)」と定められているのに対し、現在のユーザの視角が「17.5°」であり、視角が小さすぎることを意味する。同様に、付随情報表示領域522に表示された「22.8/25±1cm」は、適正位置にある対象物までの距離が「25±1cm(すなわち、24cm〜26cm)」と定められているのに対し、現在のユーザから対象物までの距離が「22.8cm」であり、近すぎることを意味する。このような付随情報表示領域522が行われることによって、位置合わせに関する現状をユーザに正確に伝達することができるため、位置合わせのために必要なユーザの動作を補佐することができる。   In the case of FIG. 16, the numerical display related to the positional relationship between the user and the object (subject) is displayed in the format of “[current value] / [target value] ± [error range]”. Specifically, “17.5 / 30 ± 5 °” displayed in the accompanying information display area 522 indicates that the viewing angle of the user with respect to the target at the appropriate position is “30 ± 5 ° (that is, 25 ° to 35 °). )), Whereas the current user's viewing angle is “17.5 °”, which means that the viewing angle is too small. Similarly, in “22.8 / 25 ± 1 cm” displayed in the accompanying information display area 522, the distance to an object at an appropriate position is determined to be “25 ± 1 cm (that is, 24 cm to 26 cm)”. On the other hand, the distance from the current user to the object is “22.8 cm”, which means that the distance is too close. By performing such an accompanying information display area 522, the current state of the positioning can be accurately transmitted to the user, and the user's operation required for the positioning can be assisted.

さらに図16の場合、付随情報テキスト表示領域523において「・もう少し離れてください」及び「・もう少し上からみてください」というテキスト表示が行われている。これらのテキスト表示は、付随情報テーブル320の超過時表示情報327あるいは過小時表示情報328に記載された情報であり、センサ12によって取得された現在値が付随情報範囲から外れている場合に(超過/過小)、状況に応じたテキスト表示が行われる。このような付随情報テキスト表示領域523が行われることによって、ユーザが適正位置への位置合わせのために行うべき動作を明確に教示することができ、ユーザの動作をより適切に誘導することができる。   Further, in the case of FIG. 16, in the accompanying information text display area 523, the text display of “··············································· / These text displays are information described in the excess display information 327 or the under display information 328 of the incidental information table 320, and when the current value acquired by the sensor 12 is out of the incidental information range (excess information). / Small), text display according to the situation is performed. By performing such an accompanying information text display area 523, the user can clearly teach an operation to be performed for positioning to an appropriate position, and the user's operation can be more appropriately guided. .

次に、図17の第2の表示画面620の表示態様について説明する。第2の表示画面620は、現シナリオにおける作業指示の内容がテキスト表示される作業指示表示領域621と、現在のユーザ(スマートデバイス10)と対象物との客観的な位置関係のイメージが示される付随情報表示領域622とを備えて構成される。このうち、作業指示表示領域621の表示内容は、図16で説明した作業指示表示領域521と同じであるため、説明を省略する。   Next, a display mode of the second display screen 620 in FIG. 17 will be described. The second display screen 620 shows a work instruction display area 621 in which the contents of the work instruction in the current scenario are displayed in text, and an image of an objective positional relationship between the current user (smart device 10) and the target. An accompanying information display area 622 is provided. The display contents of the work instruction display area 621 are the same as those of the work instruction display area 521 described with reference to FIG.

図17の付随情報表示領域622では、図16の付随情報表示領域522と同様に、ユーザと対象物(被写体)との位置関係に関する数値的な表示が行われている。具体的な数値表示は図16と同様であり説明を省略する。さらに、図17では、特徴的な表示態様として、付随情報表示領域622において、適正位置への位置合わせのためにユーザが行うべき動作(ユーザの移動先)が、破線で示されたユーザのイメージ画像によって教示されている。   In the accompanying information display area 622 of FIG. 17, a numerical display related to the positional relationship between the user and the object (subject) is performed, as in the accompanying information display area 522 of FIG. The specific numerical display is the same as that in FIG. 16 and the description is omitted. Further, in FIG. 17, as a characteristic display mode, in the accompanying information display area 622, an operation to be performed by the user (a destination of the user) for alignment to an appropriate position is indicated by a broken line of the user image. Taught by images.

具体的には、図17の場合、実線で示されたユーザのイメージ画像よりも左上に破線で示されたユーザのイメージ画像が表示されており、このような破線のイメージ画像から、ユーザは、現在より「もう少し離れ」、「もう少し上から見る」ように誘導される。すなわち、この破線のイメージ画像は、図16の付随情報テキスト表示領域523におけるテキスト表示の内容を画像化したものである。このようなイメージ画像が表示されることにより、ユーザが適正位置への位置合わせのために行うべき動作を視覚的に明快に教示することができ、ユーザの動作をより適切に誘導することができる。   Specifically, in the case of FIG. 17, the image of the user indicated by the dashed line is displayed at the upper left of the image of the user indicated by the solid line. From such an image of the dashed line, the user: You will be guided to "go a little further away" and "look a little more from above." That is, this broken line image is an image of the content of the text display in the accompanying information text display area 523 in FIG. By displaying such an image, it is possible to visually and clearly teach an operation to be performed by the user for positioning to an appropriate position, and to guide the user's operation more appropriately. .

次に、図18の第2の表示画面720の表示態様について説明する。第2の表示画面720は、現シナリオにおける作業指示の内容がテキスト表示される作業指示表示領域721と、現在のユーザ(スマートデバイス10)と対象物との客観的な位置関係のイメージが示される付随情報表示領域722とを備えて構成される。このうち、作業指示表示領域721の表示内容は、図16で説明した作業指示表示領域521と同じであるため、説明を省略する。   Next, a display mode of the second display screen 720 in FIG. 18 will be described. The second display screen 720 shows a work instruction display area 721 in which the content of the work instruction in the current scenario is text-displayed, and an image of an objective positional relationship between the current user (smart device 10) and the object. An accompanying information display area 722 is provided. The display contents of the work instruction display area 721 are the same as those of the work instruction display area 521 described with reference to FIG.

図18の付随情報表示領域722では、特徴的な表示態様として、前述した図16の付随情報表示領域622や図17の付随情報表示領域722とは異なり、数値的な表示が行われない。その代わりに、適正位置への位置合わせのためにユーザが行うべき動作(ユーザの移動先)が、矢印付きの画像によって表示されている。具体的には、図18の場合、ユーザから右向きの矢印画像が表示されることによって、対象物に近づく動作が案内され、ユーザの顔の前方で上から下にカーブする向きの矢印画像が表示されることによって、上側から対象物を見る動作が案内される。図18のような表示態様を採用することにより、ユーザが行うべき動作を簡潔に教示することができるため、ユーザの動作を適切に誘導する効果に期待できる。   In the accompanying information display area 722 of FIG. 18, unlike the above-described accompanying information display area 622 of FIG. 16 and the accompanying information display area 722 of FIG. 17, as a characteristic display mode, numerical display is not performed. Instead, an operation to be performed by the user for the position adjustment to the appropriate position (a destination of the user) is displayed by an image with an arrow. Specifically, in the case of FIG. 18, a rightward arrow image is displayed from the user to guide the operation of approaching the target object, and an arrow image that curves from top to bottom in front of the user's face is displayed. By doing so, the operation of seeing the object from above is guided. By adopting the display mode as shown in FIG. 18, it is possible to simply teach the operation to be performed by the user, so that an effect of appropriately guiding the user's operation can be expected.

(4)まとめ
以上に説明したように、本実施の形態に係るガイダンスシステム1は、センサ12及びディスプレイ14を有するスマートデバイス10と、スマートデバイス10を用いた一連の作業を複数のシナリオによって管理するシナリオ制御環境20とを備えて構成される。このガイダンスシステム1において、複数のシナリオのうち所定の対象物に対する位置合わせを含むシナリオが実行される場合、シナリオ制御環境20は、当該シナリオに関する情報として、AR用データ(AR表示情報、付随情報、オブジェクトファイル)をスマートデバイス10に送る。そして、AR用データを受け取ったスマートデバイス10では、センサ12によって当該シナリオの対象物を測定し、ディスプレイ14によるガイダンス画面表示(例えば、ガイダンス画面500)として、付随情報とセンサ12による対象物の測定結果とに基づいて、画面に映される対象物(透過して映される対象物の実体、あるいは、カメラ13によって撮影されて画面に表示される対象物の実体映像)を位置合わせの適正位置に誘導するための情報(適正位置の3Dガイド、付随情報、作業指示)を、少なくとも一部を当該対象物に重畳して表示する(第1の表示画面510)。
(4) Conclusion As described above, the guidance system 1 according to the present embodiment manages the smart device 10 having the sensor 12 and the display 14 and a series of operations using the smart device 10 by a plurality of scenarios. A scenario control environment 20 is provided. In the guidance system 1, when a scenario including positioning with respect to a predetermined target among a plurality of scenarios is executed, the scenario control environment 20 uses AR data (AR display information, accompanying information, Object file) to the smart device 10. Then, in the smart device 10 that has received the AR data, the target object of the scenario is measured by the sensor 12, the guidance information is displayed on the display 14 (for example, the guidance screen 500), and the accompanying information and the measurement of the target object by the sensor 12 are measured. Based on the result, the object to be projected on the screen (the substance of the object that is transmitted through or the substance image of the object that is photographed by the camera 13 and displayed on the screen) is properly positioned. (A 3D guide at an appropriate position, accompanying information, and work instructions) are displayed at least partially superimposed on the target object (first display screen 510).

このようなガイダンスシステム1によれば、シナリオで管理される一連の作業について、ARを利用してユーザの動作を適切に誘導することができる。特に、対象物に対する位置合わせが必要とされるような高精度な用途において、対象物の実体映像を映すディスプレイに、位置合わせに関する付随情報とセンサ測定値とに基づく付随情報表示をAR表示することにより、対象物を適正位置に位置合わせするようにユーザの動作を適切に誘導することができる。   According to such a guidance system 1, it is possible to appropriately guide a user's operation by using AR for a series of tasks managed in a scenario. In particular, in a high-precision application in which alignment with the target is required, the display that displays the actual image of the target displays the associated information display based on the alignment information and the sensor measurement value in an AR display. Accordingly, it is possible to appropriately guide the user's operation so that the target object is positioned at an appropriate position.

そして、本実施の形態に係るガイダンスシステム1では、上述したガイダンス画面においてユーザの動作を適切に誘導するために、以下のような様々な工夫がなされている。   In the guidance system 1 according to the present embodiment, in order to appropriately guide the user's operation on the above-described guidance screen, the following various devices are devised.

例えば、ガイダンス画面400の第1の表示画面410等に示したように、カメラ13越しに捉えた対象物の実体映像(あるいは、ディスプレイ14を透過して映される対象物の実体)に、対象物の適正位置のイメージ(3Dガイド)を重畳表示することにより、ユーザに対して、対象物を適正位置に位置合わせするために必要な動作をイメージさせ易くしている。   For example, as shown in the first display screen 410 of the guidance screen 400, etc., the entity image captured through the camera 13 (or the entity of the object shown through the display 14) includes the object. By superimposing and displaying an image of the proper position of the object (3D guide), it is easy for the user to imagine an operation necessary for positioning the object at the proper position.

また例えば、ガイダンス画面500の第2の表示画面520等に示したように、現シナリオにおける作業指示や付随情報がAR表示されることによって、ユーザに対して、どのような作業が求められているか、あるいは、対象物の現状と適正位置との差異を視覚的に認識できるようにしている。特に、第2の表示画面520等においては、現在のユーザ(スマートデバイス10)と対象物との位置関係を客観的視点で示すイメージ画像が表示されることによって(例えば、付随情報表示領域522)、対象物に対する自身の相対位置を客観的に把握することを助け、位置合わせのために必要な動作を理解し易くすることで、ユーザの動作を適切に誘導する効果に期待できる。   Also, for example, as shown in the second display screen 520 of the guidance screen 500, the work instruction and the accompanying information in the current scenario are displayed in an AR, so that what kind of work is required of the user. Alternatively, the difference between the current state of the object and the appropriate position can be visually recognized. In particular, on the second display screen 520 and the like, an image showing the positional relationship between the current user (smart device 10) and the target object from an objective viewpoint is displayed (for example, the accompanying information display area 522). By helping to objectively grasp the relative position of the user with respect to the target object and making it easy to understand the operation required for the alignment, an effect of appropriately guiding the user's operation can be expected.

また、図16〜図18に例示したように、ガイダンス画面の付随情報表示は、様々な表示態様で実現可能であり、作業の目的やユーザの要求等に応じて幅広い実用性を有している。例えば、より高精度な位置合わせが要求される作業の場合には、付随情報表示領域522等のように数値表示を併記することによって、位置合わせの作業効率を高めることができる。また例えば、視角調整のような特殊な動作を誘導する場合には、付随情報テキスト表示領域523や付随情報表示領域722のように必要な動作を視覚的に教示することによって、ユーザを適切な動作に誘導し易くできる。   Further, as illustrated in FIGS. 16 to 18, the accompanying information display of the guidance screen can be realized in various display modes, and has a wide range of practicalities according to the purpose of the work, the request of the user, and the like. . For example, in the case of a work requiring more precise positioning, the work efficiency of the positioning can be improved by additionally writing a numerical display as in the accompanying information display area 522 and the like. Further, for example, when a special operation such as a visual angle adjustment is to be induced, the user can visually teach necessary operations as in the accompanying information text display area 523 and the accompanying information display area 722, thereby allowing the user to perform appropriate operations. Can be easily guided.

また、第2の表示画面520等に表示される付随情報表示の少なくとも一部を、スピーカ15からの音声出力に置き換え可能なことにより、視角情報だけでなく聴覚情報も用いてユーザの動作を適切に誘導する効果に期待できる。   Further, since at least a part of the accompanying information display displayed on the second display screen 520 or the like can be replaced with audio output from the speaker 15, the user's operation can be appropriately performed using not only the viewing angle information but also the auditory information. Can be expected to be effective.

なお、図11や図12を参照して説明した写真撮影処理において、対象物の撮影を指示するユーザの音声指示(例えば、マイク121に「写真」と音声入力すること)を契機として、スマートデバイス10の処理制御部112による自動的な制御によって、対象物の写真撮影を実行できるようにしたが、本実施の形態では、このような写真撮影処理をさらに自動化してもよい。具体的には、AR表示処理における適正位置判定(例えば図9のステップS115)において対象物が適正位置にある(位置合わせが完了した)と判定された場合に、ユーザの音声指示を待たずに、スマートデバイス10の処理制御部112が対象物の写真撮影を自動実行するようにしてもよい。このようにすることで、ユーザは、ガイダンス画面による誘導に従って自身(スマートデバイス10)の位置合わせを行うだけで、当該シナリオの作業を完了させることができるため、一連の作業をより簡易な手順で進めることが可能となる。   Note that, in the photographing process described with reference to FIGS. 11 and 12, the smart device is triggered by a voice instruction (for example, voice input of “photograph” into the microphone 121) of the user instructing photographing of the target object. Although the photographing of the target object can be executed by the automatic control of the ten processing control units 112, such a photographing process may be further automated in the present embodiment. Specifically, when it is determined that the target object is at the proper position (positioning is completed) in the proper position determination (for example, step S115 in FIG. 9) in the AR display processing, without waiting for the user's voice instruction. Alternatively, the processing control unit 112 of the smart device 10 may automatically execute photographing of an object. By doing so, the user can complete the work of the scenario only by performing positioning of himself (smart device 10) in accordance with the guidance on the guidance screen, so that a series of work can be performed in a simpler procedure. It is possible to proceed.

また、従来のARを利用したサービスでは、片方向通信で送られた表示内容がAR表示されるものが一般的であったのに対して、本実施の形態に係るガイダンスシステム1では、スマートデバイス10におけるARの表示内容を、シナリオ制御環境20から送られるオブジェクトデータ等のAR用データをそのまま用いるのではなく、センサ12による測定結果を反映して動的に変化させるとともに、スマートデバイス10で撮影された対象物の撮影データをシナリオ制御環境20が取得し、当該撮影データを画像分析/判別することによって、次のシナリオを決定し、決定した次のシナリオに関するAR用データを送信するといったように、双方向通信を利用したAR表示を実現することを特徴の1つとしている。この結果、本実施の形態に係るガイダンスシステム1によれば、上記の従来のサービスでは実現困難であった、高精度なガイダンス画面の提供を可能とし、対象物を適正位置に位置合わせするようにユーザの動作を適切に誘導する効果を高めることができる。   Further, in the service using the conventional AR, the display content transmitted by one-way communication is generally displayed as an AR, whereas in the guidance system 1 according to the present embodiment, the smart device is used. The display content of the AR in 10 is not changed by using the AR data such as the object data sent from the scenario control environment 20 as it is, but is dynamically changed by reflecting the measurement result by the sensor 12, and photographed by the smart device 10. The scenario control environment 20 obtains the captured image data of the target object, and analyzes / determines the captured data to determine the next scenario, and transmits AR data relating to the determined next scenario. One of the features is that an AR display using bidirectional communication is realized. As a result, according to the guidance system 1 according to the present embodiment, it is possible to provide a highly accurate guidance screen, which is difficult to realize with the above-described conventional service, and to position the object at an appropriate position. The effect of appropriately guiding the user's operation can be enhanced.

また、本実施の形態に係るガイダンスシステム1では、上述した双方向通信を利用しながらも、ローカルフォルダ113に格納する表示用付随情報を利用することによって、シナリオ実行時のAR表示中には、スマートデバイス10からシナリオ制御環境20に通信することなく、センサ12による測定結果を反映してガイダンス画面におけるAR表示の内容を動的に変更することを可能としており、システム全体における処理負荷を低減させる効果が得られる。   In addition, in the guidance system 1 according to the present embodiment, while using the above-described two-way communication and using the accompanying information for display stored in the local folder 113, during the AR display during the execution of the scenario, Without communication from the smart device 10 to the scenario control environment 20, it is possible to dynamically change the content of AR display on the guidance screen by reflecting the measurement result by the sensor 12, thereby reducing the processing load on the entire system. The effect is obtained.

以上のような本実施の形態に係るガイダンスシステム1は、複数工程がシナリオで管理される一連の作業においてあるシナリオから次のシナリオにユーザの動作を誘導するための技術全般に適用することができる。   The guidance system 1 according to the present embodiment as described above can be applied to all techniques for guiding a user's operation from one scenario to the next scenario in a series of operations in which a plurality of processes are managed in a scenario. .

なお、本発明は上記した実施の形態に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施の形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。例えば、実施の形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。   Note that the present invention is not limited to the above-described embodiment, and includes various modifications. For example, the above-described embodiments have been described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described above. For example, for a part of the configuration of the embodiment, it is possible to add, delete, or replace another configuration.

また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。   In addition, each of the above-described configurations, functions, processing units, processing means, and the like may be partially or entirely realized by hardware, for example, by designing an integrated circuit. In addition, the above-described configurations, functions, and the like may be realized by software by a processor interpreting and executing a program that realizes each function. Information such as a program, a table, and a file for realizing each function can be stored in a memory, a hard disk, a recording device such as an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD.

また、図面において制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。   In the drawings, control lines and information lines are considered to be necessary for explanation, and not all control lines and information lines are necessarily shown on a product. In fact, it can be considered that almost all components are connected to each other.

1 ガイダンスシステム
10 スマートデバイス
11 AR表示機能部
12 センサ
13 カメラ
14 ディスプレイ
15 スピーカ
20 シナリオ制御環境
21 通信制御部
22 シナリオ制御処理部
23 判別部
30 データベース
40 ファイルサーバ
111 通信制御部
112 処理制御部
113 ローカルフォルダ
121 マイク
122 深度センサ
123 ジャイロセンサ
124 光学センサ
310 AR表示情報テーブル
311 シナリオID
312 オブジェクトファイルパス
313 作業指示情報
314 付随情報IDリスト
320 付随情報テーブル
321 シナリオID
322 付随情報ID
323 センサID
324 付随情報目標値
325 付随情報単位
326 付随情報範囲
327 超過時表示情報
328 過小時表示情報
330 シナリオ制御情報テーブル
331 シナリオID
332 分岐判定情報
333 次のシナリオID
1 Guidance System 10 Smart Device 11 AR Display Function Unit 12 Sensor 13 Camera 14 Display 15 Speaker 20 Scenario Control Environment 21 Communication Control Unit 22 Scenario Control Processing Unit 23 Judgment Unit 30 Database 40 File Server 111 Communication Control Unit 112 Processing Control Unit 113 Local Folder 121 Microphone 122 Depth sensor 123 Gyro sensor 124 Optical sensor 310 AR display information table 311 Scenario ID
312 Object file path 313 Work instruction information 314 Associated information ID list 320 Associated information table 321 Scenario ID
322 Associated information ID
323 Sensor ID
324 Additional information target value 325 Additional information unit 326 Additional information range 327 Excess display information 328 Under display information 330 Scenario control information table 331 Scenario ID
332 branch decision information 333 next scenario ID

Claims (12)

センサ及びディスプレイを有するスマートデバイスと、
前記スマートデバイスを用いた一連の作業を複数のシナリオによって管理し、各前記シナリオに関する情報を前記スマートデバイスに送信するシナリオ制御装置と、
を備え、
前記複数のシナリオのうち所定の対象物に対する位置合わせを含むシナリオの実行時に、
前記シナリオ制御装置は、当該シナリオに関する情報に、前記位置合わせに関する付随情報を含めて前記スマートデバイスに送り、
前記シナリオに関する情報を受け取った前記スマートデバイスは、
前記センサによって前記対象物を測定し、
前記ディスプレイにおけるガイダンス画面表示として、前記付随情報と前記センサによる前記対象物の測定結果とに基づいて、前記ディスプレイに映される前記対象物を前記位置合わせの適正位置に誘導させる情報を、少なくとも一部を当該対象物に重畳して前記ディスプレイに表示する
ことを特徴とするガイダンスシステム。
A smart device having a sensor and a display;
A scenario control device that manages a series of operations using the smart device by a plurality of scenarios, and transmits information on each of the scenarios to the smart device,
With
When executing a scenario including alignment with respect to a predetermined target among the plurality of scenarios,
The scenario control device sends the information related to the scenario to the smart device, including the accompanying information related to the alignment,
The smart device receiving the information on the scenario,
Measuring the object by the sensor,
As a guidance screen display on the display, based on the accompanying information and a measurement result of the object by the sensor, at least one information for guiding the object projected on the display to an appropriate position for the alignment is provided. A guidance system, wherein a part is superimposed on the object and displayed on the display.
前記ガイダンス画面表示には、前記対象物と前記スマートデバイスとの位置関係を客観的視点で示すイメージ画像の表示が含まれる
ことを特徴とする請求項1に記載のガイダンスシステム。
The guidance system according to claim 1, wherein the guidance screen display includes a display of an image showing a positional relationship between the object and the smart device from an objective viewpoint.
前記スマートデバイスはカメラをさらに有し、
前記ガイダンス画面表示において、前記ディスプレイを透過して映される前記対象物、または、前記カメラで撮影された前記対象物の実体映像の前記ディスプレイへの表示に対して、前記位置合わせの適正位置を示すガイドが重畳表示される
ことを特徴とする請求項1に記載のガイダンスシステム。
The smart device further has a camera,
In the guidance screen display, the target object transmitted through the display, or, on the display of the real image of the target object photographed by the camera on the display, the appropriate position of the alignment, The guidance system according to claim 1, wherein the guide is superimposed.
前記スマートデバイスはスピーカをさらに有し、
前記シナリオが前記対象物に対する前記位置合わせと当該位置合わせ後の次動作とを含む場合に、
当該シナリオにおける前記ガイダンス画面表示において、前記位置合わせ及び前記次動作の作業内容を指示する作業指示情報が、前記ディスプレイに表示され、あるいは前記スピーカから音声出力される
ことを特徴とする請求項1に記載のガイダンスシステム。
The smart device further has a speaker,
When the scenario includes the positioning of the object and the next operation after the positioning,
In the guidance screen display in the scenario, work instruction information for instructing the work contents of the positioning and the next operation is displayed on the display or output as voice from the speaker. Guidance system described.
前記スマートデバイスはカメラをさらに有し、
前記ガイダンス画面表示によって前記対象物が前記位置合わせの適正位置に誘導された後、前記次動作の実行によって前記スマートデバイスの前記カメラが前記対象物を撮影した場合に、
前記シナリオ制御装置は、前記スマートデバイスで撮影された前記対象物の撮影データを取得し、当該撮影データに基づいて、次に実行を開始する前記シナリオを判別する
ことを特徴とする請求項4に記載のガイダンスシステム。
The smart device further has a camera,
After the object is guided to the proper position of the alignment by the guidance screen display, when the camera of the smart device has photographed the object by performing the next operation,
The said scenario control apparatus acquires the imaging | photography data of the said object image | photographed by the said smart device, and determines the said scenario which starts execution next based on the said imaging | photography data. Guidance system described.
前記スマートデバイスは、
前記シナリオ制御装置から受け取った前記付随情報と前記センサによる前記対象物の測定結果とを含んでなる表示用付随情報を自身の記憶手段に保持し、前記センサによる測定ごとに前記表示用付随情報を更新し、前記ガイダンス画面表示において、前記記憶手段に保持された最新の前記表示用付随情報を表示する
ことを特徴とする請求項1に記載のガイダンスシステム。
The smart device includes:
The display accompanying information including the accompanying information received from the scenario control device and the measurement result of the object by the sensor is stored in its own storage unit, and the display accompanying information is stored for each measurement by the sensor. 2. The guidance system according to claim 1, wherein the updated display accompanying information stored in the storage unit is updated and updated on the guidance screen display. 3.
スマートデバイスにガイダンス画面を表示するガイダンスシステムによるガイダンス制御方法であって、
前記ガイダンスシステムは、
センサ及びディスプレイを有する前記スマートデバイスと、
前記スマートデバイスを用いた一連の作業を複数のシナリオによって管理し、各前記シナリオに関する情報を前記スマートデバイスに送信するシナリオ制御装置と、を有し、
前記複数のシナリオのうち所定の対象物に対する位置合わせを含むシナリオの実行時に、
前記シナリオ制御装置が、当該シナリオに関する情報に、前記位置合わせに関する付随情報を含めて前記スマートデバイスに送る情報送出ステップと、
前記情報送出ステップの後に、前記シナリオに関する情報を受け取った前記スマートデバイスが、前記センサによって前記対象物を測定する測定ステップと、
前記測定ステップの後に、前記スマートデバイスが、前記ディスプレイにおけるガイダンス画面表示として、前記情報送出ステップで得た前記付随情報と前記測定ステップで得た前記対象物の測定結果とに基づいて、前記ディスプレイに映される前記対象物を前記位置合わせの適正位置に誘導させる情報を、少なくとも一部を当該対象物に重畳して前記ディスプレイに表示するガイダンス画面表示ステップと、
を備えることを特徴とするガイダンス制御方法。
A guidance control method by a guidance system for displaying a guidance screen on a smart device,
The guidance system includes:
The smart device having a sensor and a display;
A series of operations using the smart device is managed by a plurality of scenarios, and a scenario control device that transmits information on each of the scenarios to the smart device,
When executing a scenario including alignment with respect to a predetermined target among the plurality of scenarios,
An information sending step in which the scenario control device sends information to the smart device to the information on the scenario, including accompanying information on the alignment,
After the information sending step, the smart device receiving the information on the scenario, a measuring step of measuring the object by the sensor,
After the measuring step, the smart device displays a guidance screen on the display, based on the accompanying information obtained in the information transmitting step and the measurement result of the object obtained in the measuring step, on the display. A guidance screen display step of displaying information for guiding the object to be projected to the proper position for the alignment, at least a part of the information being superimposed on the object and displayed on the display.
A guidance control method, comprising:
前記ガイダンス画面表示ステップで表示される前記ガイダンス画面表示には、前記対象物と前記スマートデバイスとの位置関係を客観的視点で示すイメージ画像の表示が含まれる
ことを特徴とする請求項7に記載のガイダンス制御方法。
The said guidance screen display displayed in the said guidance screen display step includes the display of the image image which shows the positional relationship between the said object and the said smart device from an objective viewpoint. The claim 7 characterized by the above-mentioned. Guidance control method.
前記スマートデバイスはカメラをさらに有し、
前記ガイダンス画面表示ステップでは、前記ディスプレイを透過して映される前記対象物、または、前記カメラで撮影された前記対象物の実体映像の前記ディスプレイへの表示に対して、前記位置合わせの適正位置を示すガイドが重畳表示される
ことを特徴とする請求項7に記載のガイダンス制御方法。
The smart device further has a camera,
In the guidance screen display step, an appropriate position of the alignment with respect to a display of the target image transmitted through the display or a real image of the target object captured by the camera on the display. The guidance control method according to claim 7, wherein a guide indicating is displayed in a superimposed manner.
前記スマートデバイスはスピーカをさらに有し、
前記シナリオが前記対象物に対する前記位置合わせと当該位置合わせ後の次動作とを含む場合に、
当該シナリオにおける前記ガイダンス画面表示ステップにおいて、前記位置合わせ及び前記次動作の作業内容を指示する作業指示情報が、前記ディスプレイに表示され、あるいは前記スピーカから音声出力される
ことを特徴とする請求項7に記載のガイダンス制御方法。
The smart device further has a speaker,
When the scenario includes the positioning of the object and the next operation after the positioning,
8. The guidance screen displaying step in the scenario, wherein work instruction information for instructing the contents of the work of the positioning and the next operation is displayed on the display or output as voice from the speaker. Guidance control method.
前記スマートデバイスはカメラをさらに有し、
前記ガイダンス画面表示ステップを経て前記対象物が前記位置合わせの適正位置に誘導された後、前記次動作の実行によって前記スマートデバイスの前記カメラが前記対象物を撮影した場合に、
前記シナリオ制御装置が、前記スマートデバイスで撮影された前記対象物の撮影データを取得し、当該撮影データに基づいて、次に実行を開始する前記シナリオを判別する判別ステップをさらに備える
ことを特徴とする請求項10に記載のガイダンス制御方法。
The smart device further has a camera,
After the object is guided to the proper position of the alignment through the guidance screen display step, when the camera of the smart device has photographed the object by performing the next operation,
The scenario control device further includes a determination step of acquiring shooting data of the object shot by the smart device, and determining the scenario to start execution next based on the shooting data. The guidance control method according to claim 10, wherein:
前記スマートデバイスが、前記情報送出ステップで前記シナリオ制御装置から受け取った前記付随情報と前記測定ステップで測定された前記対象物の測定結果とを含んでなる表示用付随情報を自身の記憶手段に保持し、前記センサによる測定ごとに前記表示用付随情報を更新する表示用付随情報更新ステップと、をさらに備え、
前記ガイダンス画面表示ステップにおいて、前記記憶手段に保持された最新の前記表示用付随情報を前記ガイダンス画面に表示する
ことを特徴とする請求項7に記載のガイダンス制御方法。
The smart device retains, in its own storage means, display-related information including the accompanying information received from the scenario control device in the information sending step and the measurement result of the object measured in the measuring step. And a display accompanying information update step of updating the display accompanying information for each measurement by the sensor,
The guidance control method according to claim 7, wherein, in the guidance screen displaying step, the latest display accompanying information held in the storage unit is displayed on the guidance screen.
JP2018156790A 2018-08-23 2018-08-23 Guidance system and guidance control method Pending JP2020030704A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018156790A JP2020030704A (en) 2018-08-23 2018-08-23 Guidance system and guidance control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018156790A JP2020030704A (en) 2018-08-23 2018-08-23 Guidance system and guidance control method

Publications (1)

Publication Number Publication Date
JP2020030704A true JP2020030704A (en) 2020-02-27

Family

ID=69622594

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018156790A Pending JP2020030704A (en) 2018-08-23 2018-08-23 Guidance system and guidance control method

Country Status (1)

Country Link
JP (1) JP2020030704A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021229821A1 (en) * 2020-05-15 2021-11-18

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021229821A1 (en) * 2020-05-15 2021-11-18
WO2021229821A1 (en) * 2020-05-15 2021-11-18 日本電信電話株式会社 Alignment assistance device, alignment assistance method, and program
JP7409497B2 (en) 2020-05-15 2024-01-09 日本電信電話株式会社 Alignment support device, alignment support method and program

Similar Documents

Publication Publication Date Title
US11776185B2 (en) Server, user terminal, and service providing method, and control method thereof for displaying photo images within a map
JP6952469B2 (en) On-site construction management system
US10506151B2 (en) Information acquisition apparatus
JP2011519192A (en) Apparatus, method and system for displaying recorded data along with related position and orientation information
JP5229791B2 (en) PHOTO MAPPING METHOD AND SYSTEM, PROGRAM, AND STORAGE MEDIUM
EP3631712B1 (en) Remote collaboration based on multi-modal communications and 3d model visualization in a shared virtual workspace
KR20100041926A (en) System and method for location confirmation service, and method for creating location information thereof
KR102195999B1 (en) Method, device and system for processing image tagging information
KR102195890B1 (en) Safety Diagnosis System and Method Using Smart Glasses
WO2021200432A1 (en) Imaging instruction method, imaging method, imaging instruction device, and imaging device
JP2022054521A (en) Round inspection work evaluation system, round inspection work evaluation device, operation terminal, position detection terminal, and round inspection work evaluation method
KR102011713B1 (en) Continuous structure defect monitoring system and method
JP2020030704A (en) Guidance system and guidance control method
JP2009134333A (en) Digital photograph sharing system device
WO2020095541A1 (en) Information processing device, information processing method, and program
US8866637B1 (en) Data collection process for optical leak detection
JP2013172312A (en) Photographing support system and photographing support program
CN110967036A (en) Test method and device for navigation product
WO2018006534A1 (en) Place recommendation method, device, and computer storage medium
WO2022046227A1 (en) Mixed reality image capture and smart inspection
JP7107545B2 (en) LOCATION INFORMATION MANAGEMENT DEVICE, LOCATION INFORMATION MANAGEMENT SYSTEM, LOCATION INFORMATION MANAGEMENT METHOD, AND PROGRAM
JP2021141388A (en) Imaging program
JP2009177611A (en) Digital camera
WO2022004155A1 (en) Imaging position management device, method, and program
JP2020173703A (en) Information processing device