JP2020030704A - Guidance system and guidance control method - Google Patents
Guidance system and guidance control method Download PDFInfo
- Publication number
- JP2020030704A JP2020030704A JP2018156790A JP2018156790A JP2020030704A JP 2020030704 A JP2020030704 A JP 2020030704A JP 2018156790 A JP2018156790 A JP 2018156790A JP 2018156790 A JP2018156790 A JP 2018156790A JP 2020030704 A JP2020030704 A JP 2020030704A
- Authority
- JP
- Japan
- Prior art keywords
- display
- scenario
- information
- smart device
- guidance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
本発明は、ガイダンスシステム及びガイダンス制御方法に関し、AR(拡張現実)を利用してユーザの動作を誘導するガイダンスシステム及びガイダンス制御方法に適用して好適なものである。 The present invention relates to a guidance system and a guidance control method, and is suitably applied to a guidance system and a guidance control method for inducing a user's operation using AR (augmented reality).
近年、AR(拡張現実:Augmented Reality)技術を利用したサービスが注目されている。AR技術では、カメラ等を通して見る現実環境に画像や文字等を重畳表示することにより、視覚的な情報を効果的に提供できるという利点がある。 In recent years, services using AR (Augmented Reality) technology have attracted attention. The AR technology has an advantage that visual information can be effectively provided by superimposing and displaying images, characters, and the like on a real environment viewed through a camera or the like.
具体的な利用例としては、点検対象や点検手順が定められた保安作業において、どのような順番でどこを点検すれば良いかといった情報を対象物の撮影画像に重畳表示することによって、保安作業の手順を分かりやすく教示することができる。例えば特許文献1には、現場巡視や保守点検作業の作業効率を高め得る保守点検システムが開示されている。特許文献1に開示された保守点検システムでは、予め用意された機器表示画像に、点検文字情報と携帯情報端末に備えたカメラで撮影した画像データから抽出した点検領域情報とを重畳してプロジェクタから投影表示することによって、明瞭で正確な画像データを機器点検履歴情報として作業員に提供し、作業効率を高めようとしている。
As a specific example of use, in security work in which inspection targets and inspection procedures are defined, information such as what order should be inspected and what information should be inspected is superimposed on the captured image of the object, so that security work can be performed. The procedure can be easily taught. For example,
しかしながら、従来のARを利用したサービスは、特許文献1に開示された保守点検システムと同様、現実環境の画像(特許文献1における点検領域情報)に、予め用意された画像(同、機器表示画像や点検文字情報)を重畳表示するものが一般的であり、言い換えれば、ユーザインタフェースの一形態として、既存の視覚的情報が片方向で追加されたものに過ぎなかった。したがって、従来の既存サービスでは、リアルタイムで変化する現実環境において高精度な対応が要求される作業等の用途に対して、ARを利用して適切なユーザ支援を行うことは困難であった。
However, as with the maintenance and inspection system disclosed in
具体的には例えば、保安作業において点検対象の撮影角度や撮影距離が厳密に定められた高精度な作業が含まれる場合、センサデータを反映させて当該作業における撮影位置を正確にサポートできることが好ましいが、このようなセンシング用途にARを効果的に展開した技術は未だ考案されていなかった。一方で、近年は、センサの高精度化やCPUの高性能化等が進んでいることもあり、上記のセンシング用途のように従来では困難であった用途にも、ARの展開が期待されている。 Specifically, for example, when the security work includes a high-precision work in which the shooting angle and the shooting distance of the inspection target are strictly determined, it is preferable that the shooting position in the work can be accurately supported by reflecting the sensor data. However, a technology that effectively deploys AR for such a sensing application has not been devised yet. On the other hand, in recent years, the accuracy of sensors and the performance of CPUs have been increasing, and AR applications are expected to be expanded to applications that were difficult in the past, such as the sensing applications described above. I have.
本発明は以上の点を考慮してなされたもので、ARを利用して、高精度な用途においてもユーザの動作を適切に誘導することが可能なガイダンスシステム及びガイダンス制御方法を提案しようとするものである。 The present invention has been made in consideration of the above points, and proposes a guidance system and a guidance control method that can appropriately guide a user's operation even in a highly accurate application by using AR. Things.
かかる課題を解決するため本発明においては、センサ及びディスプレイを有するスマートデバイスと、前記スマートデバイスを用いた一連の作業を複数のシナリオによって管理し、各前記シナリオに関する情報を前記スマートデバイスに送信するシナリオ制御装置と、を備える以下のガイダンスシステムが提供される。本ガイダンスシステムでは、前記複数のシナリオのうち所定の対象物に対する位置合わせを含むシナリオの実行時に、前記シナリオ制御装置は、当該シナリオに関する情報に、前記位置合わせに関する付随情報を含めて前記スマートデバイスに送り、前記シナリオに関する情報を受け取った前記スマートデバイスは、前記センサによって前記対象物を測定し、前記ディスプレイにおけるガイダンス画面表示として、前記付随情報と前記センサによる前記対象物の測定結果とに基づいて、前記ディスプレイに映される前記対象物を前記位置合わせの適正位置に誘導させる情報を、少なくとも一部を当該対象物に重畳して前記ディスプレイに表示することを特徴とする。 In order to solve this problem, in the present invention, a smart device having a sensor and a display, and a scenario in which a series of operations using the smart device are managed by a plurality of scenarios, and information on each of the scenarios is transmitted to the smart device The following guidance system including a control device is provided. In the guidance system, at the time of executing a scenario including alignment with respect to a predetermined target among the plurality of scenarios, the scenario control device transmits the information related to the scenario to the smart device including the accompanying information regarding the alignment. Sending, the smart device that receives the information about the scenario, measures the object by the sensor, as a guidance screen display on the display, based on the accompanying information and the measurement result of the object by the sensor, At least a portion of information for guiding the target object projected on the display to the proper position for the alignment is displayed on the display so as to be superimposed on the target object.
また、かかる課題を解決するため本発明においては、スマートデバイスにガイダンス画面を表示するガイダンスシステムによる以下のガイダンス制御方法が提供される。前記ガイダンスシステムは、センサ及びディスプレイを有する前記スマートデバイスと、前記スマートデバイスを用いた一連の作業を複数のシナリオによって管理し、各前記シナリオに関する情報を前記スマートデバイスに送信するシナリオ制御装置と、を有する。そして、本ガイダンス制御方法は、前記複数のシナリオのうち所定の対象物に対する位置合わせを含むシナリオの実行時に、前記シナリオ制御装置が、当該シナリオに関する情報に、前記位置合わせに関する付随情報を含めて前記スマートデバイスに送る情報送出ステップと、前記情報送出ステップの後に、前記シナリオに関する情報を受け取った前記スマートデバイスが、前記センサによって前記対象物を測定する測定ステップと、前記測定ステップの後に、前記スマートデバイスが、前記ディスプレイにおけるガイダンス画面表示として、前記情報送出ステップで得た前記付随情報と前記測定ステップで得た前記対象物の測定結果とに基づいて、前記ディスプレイに映される前記対象物を前記位置合わせの適正位置に誘導させる情報を、少なくとも一部を当該対象物に重畳して前記ディスプレイに表示するガイダンス画面表示ステップと、を備えることを特徴とする。 Further, in order to solve such a problem, the present invention provides the following guidance control method by a guidance system for displaying a guidance screen on a smart device. The guidance system, the smart device having a sensor and a display, a scenario control device that manages a series of operations using the smart device by a plurality of scenarios, and transmits information on each of the scenarios to the smart device. Have. In the guidance control method, when executing a scenario including alignment with respect to a predetermined target among the plurality of scenarios, the scenario control device may include information related to the scenario, An information sending step to be sent to a smart device, and after the information sending step, the smart device receiving the information on the scenario measures the object by the sensor; and, after the measuring step, the smart device However, as the guidance screen display on the display, based on the accompanying information obtained in the information sending step and the measurement result of the object obtained in the measurement step, the object displayed on the display is moved to the position Information to guide you to the appropriate position for alignment, Without even characterized by and a guidance screen display step by superposing on the object displayed on the display part.
本発明によれば、ARを利用して、高精度な用途においてもユーザの動作を適切に誘導することができる。 ADVANTAGE OF THE INVENTION According to this invention, a user's operation | movement can be appropriately induced | guided | achieved also in a highly accurate use using AR.
以下、図面を参照して、本発明の一実施の形態を詳述する。 Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.
(1)ガイダンスシステムの構成
図1は、本発明の一実施の形態に係るガイダンスシステムの構成例を示すブロック図である。図1に示すガイダンスシステム1は、保安や証跡管理等の一連の作業において、作業の各工程を管理するシナリオに沿って、実体の対象物(被写体)をスマートデバイス10によって高精度に記録するために、スマートデバイス10におけるAR(拡張現実:Augmented Reality)表示を利用して、対象物と所定の位置関係になるように(対象物を適正位置に位置合わせできるように)スマートデバイス10の操作者(以下、ユーザ)を誘導するガイダンスシステムであって、スマートデバイス10、シナリオ制御環境20、データベース30、及びファイルサーバ40を備えて構成される。
(1) Configuration of Guidance System FIG. 1 is a block diagram illustrating a configuration example of a guidance system according to an embodiment of the present invention. The
スマートデバイス10は、ユーザによって携帯(装着)可能なスマートデバイスであって、具体的には例えば、スマートグラスやスマートフォン等を利用することができる。図1に例示したスマートデバイス10は、ARの表示機能を制御するAR表示機能部11、各種のセンサデータを取得するセンサ12、撮影機能を有するカメラ13、表示機能を有するディスプレイ14、及び音声出力機能を有するスピーカ15を備えて構成される。スマートデバイス10は、ネットワーク50(主に無線ネットワーク)を介してシナリオ制御環境20と通信可能に接続される。
The
なお、本例では、本発明の一実施の形態として、スマートデバイス10とシナリオ制御環境20とが別に構成されている場合について説明するが、本発明のガイダンスシステム及びガイダンス制御方法は、このような構成に限定されるものではなく、例えば、スマートデバイス10の内部に、シナリオ制御環境20に相当する構成が置かれる等して一体化された構成であってもよい。また、データベース30やファイルサーバ40についても同様に、スマートデバイス10やシナリオ制御環境20と一体化された構成であってもよい。そして、上記のように一体化された構成間では、ネットワーク50を介した通信が不要となる。
In this example, as an embodiment of the present invention, a case will be described in which the
図2は、スマートデバイスの機能構成例を示すブロック図である。図2に示すように、スマートデバイス10における機能構成として、AR表示機能部11は、外部(シナリオ制御環境20)との通信を行う通信制御部111と、AR表示機能に関する処理を制御する処理制御部112と、AR表示機能部11のローカルな記憶部であるローカルフォルダ113とを有する。
FIG. 2 is a block diagram illustrating a functional configuration example of the smart device. As shown in FIG. 2, as a functional configuration of the
通信制御部111は、例えばスマートデバイス10に搭載された通信基板であり、処理制御部112は、例えばスマートデバイス10に搭載された制御基板である。後述するスマートデバイス10による各処理は、主にAR表示機能部11の処理制御部112によって実行され、より具体的には、制御基板に搭載されたCPU(Central Processing Unit)がメモリに格納されたプログラムを実行する等して実現される。
The
また、図2には、スマートデバイス10のセンサ12の具体例として、周囲の音状況の収集や対象からの音声入力を行うマイク121、対象物までの距離(深度)を測定する深度センサ122(具体的には例えばLiDAR(Light Detection and Ranging)等)、対象の姿勢や角速度等を測定するジャイロセンサ123、及び周囲の光量を測定する光学センサ124が備えられている。なお、スマートデバイス10のセンサ12は、図2に例示した全ての各種センサを必ずしも備えている必要はなく、また他の種類のセンサ(例えば、対象物の動きを計測する慣性計測装置等)を備えていてもよい。
In FIG. 2, as a specific example of the
図3は、シナリオ制御環境の機能構成例を示すブロック図である。シナリオ制御環境20は、ガイダンスシステム1によるガイダンスの目的(例えば、保安作業において所定対象物の画像データを取得することや、証跡管理のために所定対象物の証跡を記録すること等)に応じて、予め用意された複数のシナリオの実行を制御する機能を有し、例えば、サーバやPC等の計算機によって実現される。
FIG. 3 is a block diagram illustrating a functional configuration example of the scenario control environment. The
図3に示すように、シナリオ制御環境20は、機能構成として、外部(スマートデバイス10)との通信を行う通信制御部21と、シナリオの選択やシナリオに基づいたAR表示の制御等を行うシナリオ制御処理部22と、画像ファイルの分析処理及び判別処理を行う判別部23とを有する。なお、図示はしていないが、シナリオ制御環境20は、シナリオ制御処理部22や判別部23による処理の実行時にデータを一時的に格納する等の用途に用いられる記憶部(ローカルフォルダ)を有してもよい。
As shown in FIG. 3, the
また、具体的な処理は後述するが、シナリオ制御環境20による処理の実行時に、シナリオ制御処理部22または判別部23は、必要に応じてデータベース30またはファイルサーバ40にアクセスし、所望のデータを参照・取得したり、格納したりすることができる。
Although specific processing will be described later, at the time of execution of processing by the
データベース30は、記憶手段の一例であって、本実施の形態では、シナリオ制御環境20による処理において部分的に利用されることが多いテーブルデータ等が中心に格納される。具体的には例えば、図4に例示するAR表示情報テーブル310、付随情報テーブル320、及びシナリオ制御情報テーブル330は、データベース30に格納されるとする。また、ファイルサーバ40は、比較的大容量な記憶手段の一例であって、本実施の形態では、シナリオ制御環境20データ全体が利用されることが多いオブジェクトファイル(画像ファイル、画像の設定情報等)が中心に格納される。具体的には例えば、スマートデバイス10にAR表示させるために予め用意された画像データ等はファイルサーバ40に格納することができ、また、スマートデバイス10によって撮影された画像データ等もファイルサーバ40に格納することができる。
The
なお、データベース30及びファイルサーバ40は、本実施の形態に係るガイダンスシステム1における記憶手段の一例であり、本発明においてその区分は特に限定されるものではない。すなわち、本発明においてデータベース30及びファイルサーバ40に相当する記憶手段は1つでも3つ以上でもよく、また、それらの実現方法も物理ストレージまたは仮想ストレージの何れかに限定されるものではない。
The
図4は、データベースに格納されるテーブルデータの具体例を示す図である。 FIG. 4 is a diagram illustrating a specific example of table data stored in the database.
図4(A)に例示したAR表示情報テーブル310は、シナリオ制御環境20によるAR表示情報問合せ時に参照・取得されるAR表示情報のテーブルであって、シナリオの識別子を示すシナリオID311、当該シナリオに対応するオブジェクトファイルの格納場所(ファイルパス)を示すオブジェクトファイルパス312、当該シナリオにおける作業指示の内容を示す作業指示情報313、及び、当該シナリオにおける付随情報の識別子(付随情報ID)を示す付随情報IDリスト314を備えて構成される。
The AR display information table 310 illustrated in FIG. 4A is a table of AR display information that is referred to and acquired when the
なお、作業指示情報313に記載された情報は、当該シナリオの実行時に、スマートデバイス10のディスプレイ14に表示されるガイダンス画面に表示される。ガイダンス画面の具体的な説明は図15〜図18を参照しながら後述する。また、付随情報IDリスト314に記載された付随情報IDは、図4(B)に例示する付随情報テーブル320の付随情報ID322に記載される付随情報IDと共通する識別子である。
The information described in the
図4(B)に例示した付随情報テーブル320は、シナリオ制御環境20による付随情報問合せ時に参照・取得される付随情報のテーブルであって、シナリオID321、当該シナリオに対応する付随情報の識別子を示す付随情報ID322、当該付随情報における「現在値」の取得のために用いられるセンサ12の識別子を示すセンサID323、当該付随情報における「目標値」を示す付随情報目標値324、当該付随情報の表示単位を示す付随情報単位325、当該付随情報における「誤差範囲」を示す付随情報範囲326、当該付随情報の表示においてユーザが付随情報範囲326の範囲外にあるとき(超過時/過小時)の表示内容を示す超過時表示情報327及び過小時表示情報328を備えて構成される。
The incidental information table 320 illustrated in FIG. 4B is a table of the incidental information referred to and acquired at the time of querying the incidental information by the
図4(C)に例示したシナリオ制御情報テーブル330は、シナリオ制御環境20によるシナリオID(または、次のシナリオID)問合せ時に参照・取得されるシナリオ制御情報のテーブルであって、シナリオID331、現在のシナリオから次のシナリオへの分岐判定に用いられる情報を示す分岐判定情報332、及び次のシナリオID333を備えて構成される。
The scenario control information table 330 illustrated in FIG. 4C is a table of the scenario control information which is referred to and obtained when the
なお、上記の各テーブルにおいて、シナリオID311,321,331及び次のシナリオID333には、予め用意されたシナリオを一意に識別可能な識別子(シナリオID)が共通して用いられる。また、付随情報IDリスト314と付随情報ID322には、付随情報を一意に識別可能な識別子(付随情報ID)が共通して用いられる。図4に例示したAR表示情報テーブル310、付随情報テーブル320、及びシナリオ制御情報テーブル330の実際の使用例は、後述するガイダンス処理の中で示される。
In each of the above tables, an identifier (scenario ID) that can uniquely identify a scenario prepared in advance is commonly used as the
(2)ガイダンス処理
本実施の形態に係るガイダンスシステム1では、保安や証跡管理等の作業を行おうとする場合に、スマートデバイス10を携帯(または装着)したユーザが所定の対象物(被写体)をカメラ13の撮影範囲に収めることによって、ディスプレイ14に対象物が映される。そして、ディスプレイ14に映される対象物の位置合わせのために、ディスプレイ14の表示画面において、ARを利用した「ガイダンス画面」が表示される(スピーカ15からの音声報知による追加/置換を含む)。そしてこのガイダンス画面の指示に従ってスマートデバイス10の移動や操作を行うことによって、保安や証跡管理等の作業のシナリオに沿って、対象物(被写体)をスマートデバイス10によって高精度に記録することができる。このような一連の動作におけるガイダンスシステム1の処理をガイダンス処理と称し、以下に詳しく説明する。
(2) Guidance Processing In the
なお、本実施の形態において、上述した「ディスプレイ14に対象物が映される」とは、対象物の実体そのものがディスプレイ14を介して視認可能に映されること、及び、対象物を撮影した実体映像がディスプレイ14の表示画面に表示されて視認可能にされること、の双方の意味を含む。より具体的には、前者は、ディスプレイ14が透明または半透明である場合に、後述するガイダンス画面において、対象物の実体をディスプレイ14を透過して映すことに相当する。また、後者は、ディスプレイ14が非透明である場合に、ガイダンス画面において、カメラ13で撮影した対象物の実体映像をディスプレイ14の表示画面に表示することに相当する。ガイダンス画面について具体的に詳述する(3)章では、一例として、後者の場合で説明する。
Note that, in the present embodiment, “the object is projected on the
(2−1)全体概要
まず、ガイダンス処理の全体概要について、シナリオの対象物を認識するまで(物体認識まで)と、認識した後(物体認識後)とに分けて説明する。
(2-1) Overall Overview First, the overall outline of the guidance processing will be described separately until the target of the scenario is recognized (until object recognition) and after the scenario is recognized (after object recognition).
図5は、物体認識までのガイダンス処理の全体概要を示すシーケンス図である。なお、図5では、問合せ処理を実線で示し、回答処理を破線で示している。これは、後述する他のシーケンス図でも同様である。 FIG. 5 is a sequence diagram showing an overall outline of the guidance process up to object recognition. In FIG. 5, the inquiry process is indicated by a solid line, and the answer process is indicated by a broken line. This is the same in other sequence diagrams described later.
図5によればまず、スマートデバイス10が、物体認識の開始準備を行う(ステップS11)。次に、スマートデバイス10は、AR表示情報問合せとして、物体認識用のシナリオIDをネットワーク50を介してシナリオ制御環境20に送信する(ステップS12)。
According to FIG. 5, first, the
スマートデバイス10からAR表示情報問合せを受けたシナリオ制御環境20は、当該問合せで受信した物体認識用のシナリオIDに基づいてデータベース30のAR表示情報テーブル310を参照し(ステップS13)、当該シナリオIDに対応するAR表示情報を取得する(ステップS14)。
The
そして、シナリオ制御環境20は、ステップS14で取得したAR表示情報に関連する付随情報IDが記載されている場合(付随情報IDリスト314)には、当該付随情報IDに基づいてデータベース30の付随情報テーブル320を参照し(ステップS15)、当該付随情報IDに対応する付随情報を取得する(ステップS16)。
When the accompanying information ID related to the AR display information acquired in step S14 is described (the accompanying information ID list 314), the
また、シナリオ制御環境20は、ステップS14で取得したAR表示情報に含まれるオブジェクトファイルパス312に基づいてファイルサーバ40を参照し(ステップS17)、当該ファイルパスに保持されているオブジェクトファイルを取得する(ステップS18)。
Further, the
その後、シナリオ制御環境20は、ステップS14,S16,S18で取得したAR用データ(AR表示情報、付随情報、オブジェクトファイル)をネットワーク50を介してスマートデバイス10に送信する(ステップS19)。
Thereafter, the
ステップS19でAR用データを受信したスマートデバイス10は、受信したAR用データを用いてディスプレイ14にAR表示(ガイダンス画面の表示)を行うとともに、カメラ13やセンサ12を用いて物体認識を開始する。このとき、例えば、カメラ13で認識した対象物との相対距離をセンサ12を用いて取得する(ステップS20)。
The
そして物体認識が終了すると、スマートデバイス10は、ネットワーク50を介してシナリオ制御環境20に次のシナリオIDの問合せを行う(ステップS21)。
When the object recognition is completed, the
スマートデバイス10から次のシナリオID問合せを受けたシナリオ制御環境20は、データベース30のシナリオ制御情報テーブル330を参照し(ステップS22)、現在のシナリオIDに対応するシナリオ制御情報を取得する(ステップS23)。そして、シナリオ制御環境20は、ステップS23で取得したシナリオ制御情報に基づいて、次のシナリオIDをスマートデバイス10に送信する(ステップS24)。
The
ステップS24の処理が完了することにより、物体認識までのガイダンス処理が完了し、物体認識後のシナリオに基づいたガイダンス処理が開始される。 When the processing in step S24 is completed, the guidance processing up to the object recognition is completed, and the guidance processing based on the scenario after the object recognition is started.
図6は、物体認識後のガイダンス処理の全体概要を示すシーケンス図である。 FIG. 6 is a sequence diagram illustrating an overall outline of the guidance process after object recognition.
図6によればまず、スマートデバイス10が、AR表示情報問合せとして、先にシナリオ制御環境20から送信されたシナリオID(例えば、図5のステップS24参照)をネットワーク50を介してシナリオ制御環境20に送信する(ステップS31)。
According to FIG. 6, first, the
ステップS31でスマートデバイス10からAR表示情報問合せを受けたシナリオ制御環境20がその後行う処理(図6のステップS32〜S38)は、図5で説明したステップS13〜S19の処理と同じであるため、説明を省略する。ステップS38において、シナリオ制御環境20は、データベース30及びファイルサーバ40から取得したAR用データ(AR表示情報、付随情報、オブジェクトファイル)をネットワーク50を介してスマートデバイス10に送信する。
The subsequent processing (steps S32 to S38 in FIG. 6) performed by the
ステップS38でAR用データを受信したスマートデバイス10は、受信したAR用データを用いてディスプレイ14にAR表示(ガイダンス画面の表示)を行って、現在のシナリオにおける対象物との適切な位置関係にユーザ(スマートデバイス10)を導く。またこのとき、スマートデバイス10は、センサ12によって当該対象物に対するセンサデータ値を取得する(ステップS39)。その後、ガイダンスに従って当該対象物との位置関係が適切になったとき、スマートデバイス10はカメラ13で当該対象物を撮影し(ステップS40)、撮影データ(写真や動画)をシナリオ制御環境20に送信する(ステップS41)。
The
なお、本実施の形態において、スマートデバイス10からシナリオ制御環境20への撮影データの送信は、ネットワーク50を介して直接的に当該撮影データを送信するものでもよいし、間接的に送信するものであってもよい。間接的な送信方法としては例えば、スマートデバイス10がネットワーク50を介して撮影データを所定の格納先(例えばファイルサーバ40やWEBサーバ等)にアップロードし、そのアップロード先のファイルパス(写真ファイルパス)をシナリオ制御環境20に送信する等がある。この場合、シナリオ制御環境20は、受信した写真ファイルパスに基づいて格納先にアクセスして撮影データをダウンロードすることによって、当該撮影データを取得することができる。また、前述したように、ガイダンスシステム1の各構成(スマートデバイス10、シナリオ制御環境20、ファイルサーバ40等)が一体化されている場合には、ネットワーク50を介した通信が不要となるため、スマートデバイス10で撮影した撮影データを直接、シナリオ制御環境20で取得することが可能となる。
Note that, in the present embodiment, the transmission of the imaging data from the
ステップS41でシナリオの対象物の撮影データを取得したシナリオ制御環境20は、当該撮影データの画像分析を行い(ステップS42)、画像分析の結果を用いて次のシナリオの判別を行う。具体的には、シナリオ制御環境20は、データベース30のシナリオ制御情報テーブル330を参照し(ステップS43)、現在のシナリオIDに対応するシナリオ制御情報を取得し(ステップS44)、取得したシナリオ制御情報における分岐判定情報332に画像分析の結果を適用することによって、次のシナリオIDを決定する。そして、シナリオ制御環境20は、決定した次のシナリオIDをネットワーク50を介してスマートデバイス10に送信する(ステップS45)。
The
ステップS31〜ステップS45の処理が完了することにより、ステップS31で指定されたシナリオIDに関するガイダンス処理が終了し、その後は、次のシナリオIDに関するガイダンス処理が開始される。 Upon completion of the processes in steps S31 to S45, the guidance process for the scenario ID specified in step S31 ends, and thereafter, the guidance process for the next scenario ID starts.
以上、図5及び図6を参照しながら、本実施の形態におけるガイダンス処理の全体概要を説明した。これらガイダンス処理のうち、図6のステップS31〜S38(図5のステップS13〜S19も同様)の処理を「AR表示準備処理」、図6のステップS38〜S39の処理を「AR表示処理」、図6のステップS40〜S41の処理を「写真撮影処理」、図6のステップS41〜S45の処理を「次シナリオ判別処理」と称し、以下にガイダンス処理における上記各処理の詳細な処理手順について図面を参照しながら説明する。 The overall outline of the guidance process according to the present embodiment has been described above with reference to FIGS. Of these guidance processes, the processes of steps S31 to S38 in FIG. 6 (the same applies to steps S13 to S19 in FIG. 5) are referred to as “AR display preparation process”, and the processes of steps S38 to S39 in FIG. The processing of steps S40 to S41 in FIG. 6 is referred to as “photographing processing”, and the processing of steps S41 to S45 in FIG. 6 is referred to as “next scenario determination processing”. This will be described with reference to FIG.
(2−2)AR表示準備処理
図7は、AR表示準備処理の処理手順例を示すフローチャートである。図7には、AR表示準備処理におけるシナリオ制御環境20による処理手順例が示されている。なお、AR表示準備処理におけるガイダンスシステム1の各構成による詳細な処理手順については、後述する図8のシーケンス図に示される。
(2-2) AR Display Preparation Processing FIG. 7 is a flowchart illustrating an example of a processing procedure of the AR display preparation processing. FIG. 7 shows an example of a processing procedure by the
図7によれば、まず、シナリオ制御環境20は、AR表示情報を取得する(ステップS101)。このAR表示情報の取得は、図6のステップS32〜S33(あるいは図5のステップS13〜S14)の処理に相当する。
According to FIG. 7, first, the
次に、シナリオ制御環境20は、ステップS101で取得したAR表示情報が付随情報を有するか否かを判定する(ステップS102)。具体的には、当該AR表示情報について、AR表示情報テーブル310の付随情報IDリスト314に付随情報IDが記載されている場合に、付随情報を有すると判定し(ステップS102のYES)、ステップS103に進む。ステップS103では、AR表示情報に記載された付随情報IDに基づいて、データベース30から付随情報を取得する。その後、ステップS104に進む。一方、ステップS102においてAR表示情報の付随情報IDリスト314に付随情報IDが記載されていない場合には、付随情報が無いと判定し(ステップS102のNO)、ステップS103を飛ばしてステップS104に進む。
Next, the
ステップS104では、シナリオ制御環境20は、ステップS101で取得したAR表示情報に記載されたオブジェクトファイルパス312に基づいて、ファイルサーバ40からオブジェクトファイルを取得する。
In step S104, the
その後、シナリオ制御環境20は、ステップS101〜S104で取得した一式のデータ(AR表示情報、付随情報、オブジェクトファイル)をAR用データとしてスマートデバイス10に送信し(ステップS105)、その後は、後述するAR表示処理が行われる。
Thereafter, the
図8は、AR表示準備処理における詳細な処理手順を示すシーケンス図である。 FIG. 8 is a sequence diagram showing a detailed processing procedure in the AR display preparation processing.
図8によれば、まず、スマートデバイス10からシナリオ制御環境20の通信制御部21にシナリオIDが送信される(ステップS201)。ステップS201は、図6のステップS31(または図5のステップS12)に示したAR表示情報問合せにおけるシナリオIDの送信に相当する。
According to FIG. 8, first, the scenario ID is transmitted from the
次に、通信制御部21は、受信したシナリオIDをデコードし(ステップS202)、シナリオ制御処理部22に送る(ステップS203)。
Next, the
そして、シナリオ制御処理部22は、ステップS203で受け取ったシナリオIDに基づいてデータベース30のAR表示情報テーブル310を参照し(ステップS204)、当該シナリオIDに対応するAR表示情報を取得する(ステップS205)。
Then, the scenario
次に、シナリオ制御処理部22は、ステップS205で取得したAR表示情報が付随情報を有しているか否かを判定し(付随情報IDリスト314の確認)、付随情報が有る場合には、当該付随情報IDに基づいてデータベース30の付随情報テーブル320を参照し(ステップS206)、当該付随情報IDに対応する付随情報を取得する(ステップS207)。
Next, the scenario
また、シナリオ制御処理部22は、ステップS205で取得したAR表示情報に含まれるオブジェクトファイルパス312に基づいてファイルサーバ40を参照し(ステップS208)、当該ファイルパスに保持されているオブジェクトファイルを取得する(ステップS209)。
Further, the scenario
その後、シナリオ制御処理部22は、ステップS205,S207,S209で取得した一式の情報(AR用データ)を通信制御部21に送り(ステップS210)、通信制御部21は、受け取ったAR用データをエンコードし(ステップS211)、スマートデバイス10に送信する(ステップS212)。
Thereafter, the scenario
以上のようにAR表示準備処理が行われることにより、シナリオ制御環境20は、スマートデバイス10においてシナリオに応じたAR表示を行わせるために必要な情報(AR用データ)を収集し、スマートデバイス10に送信することができる。
By performing the AR display preparation process as described above, the
(2−3)AR表示処理
図9は、AR表示処理の処理手順例を示すフローチャートである。図9には、AR表示処理におけるスマートデバイス10による処理手順例が示されている。なお、AR表示処理におけるガイダンスシステム1の各構成による詳細な処理手順については、後述する図10のシーケンス図に示される。
(2-3) AR Display Processing FIG. 9 is a flowchart illustrating an example of a processing procedure of the AR display processing. FIG. 9 illustrates a processing procedure example by the
図9によれば、まず、図7のステップS105におけるAR用データの送信によって、スマートデバイス10は、シナリオ制御環境20からAR用データを取得する(ステップS111)。このAR表示情報の取得は、図6のステップS38(あるいは図5のステップS19)の処理に相当する。
According to FIG. 9, first, by transmitting the AR data in step S105 in FIG. 7, the
次に、スマートデバイス10は、ステップS111で受信したAR用データに含まれるオブジェクトファイルをディスプレイ14にAR表示する(ステップS112)。
Next, the
そして、スマートデバイス10はステップS111で受信したAR用データに付随情報が含まれるか否かを判定し(ステップS113)、付随情報が有ると判定した場合には(ステップS113のYES)、ステップS114〜S117によるセンサ処理を行う。一方、受信したAR用データに付随情報が無いと判定した場合には(ステップS113のNO)、AR表示処理を終了する。
Then, the
センサ処理ではまず、スマートデバイス10は、付随情報に基づいてセンサ値を取得する(ステップS114)。具体的には、付随情報テーブル320のセンサID323に記載されたセンサIDに対応するセンサ12を用いて対象物に対するセンシングを実行し、センサ値を取得する。
In the sensor processing, first, the
その後、スマートデバイス10は、ステップS114で取得したセンサ値に基づいて、対象物との位置関係が適正位置であるか否かを判定する適正位置判定を行う(ステップS115)。適正位置判定での判定基準には、付随情報テーブル320の付随情報目標値324、付随情報単位325、及び付随情報範囲326を用いる。より具体的には、適正位置判定では、取得したセンサ値が付随情報テーブル320の付随情報範囲326の範囲内に存在する場合に、適正位置であると判定する。一方、取得したセンサ値が付随情報範囲326の範囲外であった場合は、適正位置ではないと判定し、さらに、付随情報範囲326に対して超過/過小の何れであるかも判定する。
Thereafter, the
次に、スマートデバイス10は、ステップS114及びステップS115の結果に基づいて、表示用付随情報を修正する(ステップS116)。ここで、表示用付随情報とは、AR用データに含まれる付随情報を基に作成されるローカルデータの付随情報であって、例えば、ローカルフォルダ113に保持される。そして、次のステップS117において、スマートデバイス10は、ステップS116で修正した表示用付随情報をディスプレイ14にAR表示させる(付随情報表示)。本実施の形態では、このようにローカルデータの付随情報(表示用付随情報)を用いることにより、ステップS114において新たなセンサ値が取得された場合でも、シナリオ制御環境20と通信することなく、適正位置判定を行い、さらに、更新された最新の表示用付随情報を用いて付随情報のAR表示を実現することができるため、処理遅延の発生を抑制する効果に期待できる。
Next, the
なお、ステップS117の付随情報表示では、現在のセンサ値を表示するだけでなく、適正位置判定による判定結果(適正位置、超過/過小による不適正位置)に基づくテキスト表示も行われる。例えば、超過による不適正位置の場合は、付随情報テーブル320の超過時表示情報327が表示され、過小による不適正位置の場合は、付随情報テーブル320の過小時表示情報328が表示される。
In the accompanying information display of step S117, not only the current sensor value is displayed, but also a text display based on the determination result (proper position, inappropriate position due to excess / under) based on the proper position determination is performed. For example, in the case of an inappropriate position due to excess, the
ステップS114〜S117のセンサ処理は、ステップS115の適正位置判定で適正位置と判定されて次段階の写真撮影処理が開始されるまで、センサ値更新間隔(例えば、所定の時間間隔)で繰り返し実行される。 The sensor processing in steps S114 to S117 is repeatedly executed at a sensor value update interval (for example, a predetermined time interval) until the appropriate position is determined in the appropriate position determination in step S115 and the next step of photographing processing is started. You.
図10は、AR表示処理における詳細な処理手順を示すシーケンス図である。 FIG. 10 is a sequence diagram illustrating a detailed processing procedure in the AR display processing.
図10によれば、まず、シナリオ制御環境20からスマートデバイス10の通信制御部111にAR用データ(AR表示情報、付随情報、オブジェクトファイル)が送信される(ステップS221)。ステップS221は、図6のステップS38に示した処理に相当する。
According to FIG. 10, first, AR data (AR display information, accompanying information, object file) is transmitted from the
次に、通信制御部111は、受信したAR用データをデコードし(ステップS222)、処理制御部112に送る(ステップS223)。
Next, the
そして、処理制御部112は、ステップS223で受け取ったAR用データのうち、オブジェクトファイルをディスプレイ14に送信し(ステップS224)、AR表示させる(ステップS225)。
Then, the
次に、処理制御部112は、ステップS223で受け取ったAR用データに付随情報が含まれるか否かを判別し(ステップS226)、付随情報が有った場合には、図9で説明したようにセンサ処理を実行する。
Next, the
センサ処理において、まず、処理制御部112は、付随情報テーブル320のセンサID323に記載されたセンサIDに対応するセンサ12に対して、センサ値の問合せを行う(ステップS227)。問合せを受けたセンサ12は、センシングを実行し、その検出結果(センサ値)を処理制御部112に返す(ステップS228)。
In the sensor processing, first, the
次に、処理制御部112は、ステップS228で取得したセンサ値に基づいて、適正位置判定を行う(ステップS229)。
Next, the
その後、処理制御部112は、表示用付随情報をディスプレイ14に送信し(ステップS230)、ディスプレイ14は、ステップS205におけるAR表示の表示内容を更新して表示用付随情報をAR表示する(ステップS231)。図9の説明で前述したように、表示用付随情報のAR表示では、センサ値の表示の他に、適正位置判定の判定結果に応じたテキスト表示も行う事ができる。
Thereafter, the
ステップS227〜S231の処理は、次段階の写真撮影処理が開始されるまで、センサ値更新間隔(例えば、所定の時間間隔)で繰り返し実行・更新される。なお、このAR表示処理においてディスプレイ14にAR表示される画面は、シナリオの対象物と所定の位置関係(適正位置)になるようにスマートデバイス10のユーザを誘導するガイダンス画面である。その具体例については、図15〜図18を参照して後述する。
The processes in steps S227 to S231 are repeatedly executed and updated at sensor value update intervals (for example, predetermined time intervals) until the next stage of the photographing process is started. Note that the screen displayed in AR on the
以上のようにAR表示処理が行われることにより、スマートデバイス10は、ユーザ(スマートデバイス10)とシナリオの対象物との位置関係が適正位置になるように、AR表示を用いたガイダンス画面によってユーザを誘導(案内)することができる。
By performing the AR display process as described above, the
(2−4)写真撮影処理
図11は、写真撮影処理の処理手順例を示すフローチャートである。図11には、写真撮影処理におけるスマートデバイス10による処理手順例が示されている。なお、写真撮影処理におけるガイダンスシステム1の各構成による詳細な処理手順については、後述する図12のシーケンス図に示される。
(2-4) Photographing Process FIG. 11 is a flowchart illustrating an example of a processing procedure of the photographing process. FIG. 11 shows an example of a processing procedure by the
写真撮影処理は、図9のステップS115の適正位置判定によってユーザ(スマートデバイス10)が対象物に対して適正位置にある場合に、実行される。また、本例では、写真撮影処理は、ユーザからの音声指示に基づいてスマートデバイス10が自動実行するものとするが、本実施の形態における写真撮影処理の実現方法はこれに限定されるものではなく、例えば、ユーザ自身がスマートデバイス10の撮影操作を行うものであってもよい。また、写真撮影処理において動画を撮影するものであってもよい。
The photographing process is executed when the user (smart device 10) is at a proper position with respect to the target object by the proper position determination in step S115 in FIG. Further, in this example, the
図11によれば、まず、スマートデバイス10は、対象物の撮影を指示するユーザの音声指示を取得・認識する(ステップS131)。次に、スマートデバイス10は、対象物の写真撮影を行う(ステップS132)。
According to FIG. 11, first, the
その後、スマートデバイス10は、ステップS132で撮影した写真の撮影データを所定の格納先(例えばファイルサーバ40)にアップロードする(ステップS133)。そして、スマートデバイス10は、アップロード先のファイルパス(写真ファイルパス)をシナリオ制御環境20に送信し、写真撮影処理を終了する。その後は、シナリオ制御環境20において、後述する次シナリオ判別処理が行われる。
Thereafter, the
なお、ステップS133においてアップロードする撮影データには、撮影時の環境情報(例えばセンサ値等)を含むようにしてもよく、このような環境情報を添えることにより、後述する次シナリオ判別処理のなかで、撮影時の適正位置におけるセンサ値等も合わせてシナリオ制御環境20に送信することができる。
Note that the shooting data uploaded in step S133 may include environment information (for example, a sensor value or the like) at the time of shooting. By adding such environment information, shooting can be performed in the next scenario determination process described later. The sensor value at the appropriate position at the time can also be transmitted to the
図12は、写真撮影処理における詳細な処理手順を示すシーケンス図である。 FIG. 12 is a sequence diagram illustrating a detailed processing procedure in the photographing process.
図12によれば、まず、スマートデバイス10において、対象物の撮影を指示するユーザの音声指示がマイク121から処理制御部112に入力される(ステップS241)。
According to FIG. 12, first, in the
ステップS241では、音声指示の音声データが入力されるので、処理制御部112は、音声データに対して音声認識処理を施し(ステップS242)、認識内容に基づいてカメラ13に対して写真撮影を指示する(ステップS243)。ステップS243の写真撮影指示を受けて、カメラ13は対象物を撮影し(ステップS244)、その撮影データを処理制御部112に送る(ステップS245)。なお、ステップS242における音声認識処理は、様々な公知技術を利用することができる。
In step S241, since the voice data of the voice instruction is input, the
次に、処理制御部112は、カメラ13から送られた撮影データをファイルサーバ40にアップロードし(ステップS246)、アップロード先のファイルパス(写真ファイルパス)をファイルサーバ40から受信する(ステップS247)。
Next, the
そして、処理制御部112は、ステップS247で受信した写真ファイルパスを通信制御部111に送り(ステップS248)、通信制御部111は、当該写真ファイルパスをエンコードし(ステップS249)、ネットワーク50を介してシナリオ制御環境20に送信する(ステップS250)。
Then, the
以上のように写真撮影処理が行われることによって、スマートデバイス10は、適正位置にある対象物を撮影し、その撮影データを示すデータ(本例では、アップロード先のファイルパスだが、撮影データを直接送信する場合は、撮影データそのものとなる)をシナリオ制御環境20に送信することができる。
By performing the photographing process as described above, the
(2−5)次シナリオ判別処理
図13は、次シナリオ判別処理の処理手順例を示すフローチャートである。図13には、次シナリオ判別処理におけるシナリオ制御環境20による処理手順例が示されている。なお、次シナリオ判別処理におけるガイダンスシステム1の各構成による詳細な処理手順については、後述する図14のシーケンス図に示される。
(2-5) Next Scenario Determination Processing FIG. 13 is a flowchart illustrating an example of a processing procedure of the next scenario determination processing. FIG. 13 shows an example of a processing procedure by the
図13によれば、まず、図11のステップS134における写真ファイルパスの送信によって、シナリオ制御環境20は、スマートデバイス10から写真ファイルパスを取得する(ステップS141)。この写真ファイルパスの取得は、図6のステップS41の処理に相当する。
According to FIG. 13, first, the
次に、シナリオ制御環境20はステップS141で受信した写真ファイルパスに基づいて、所定の格納先(本例ではファイルサーバ40)から撮影データ(写真ファイル)を取得する(ステップS142)。なお、ステップS141〜S142の処理は、図11に説明したAR表示処理において、撮影データがファイルサーバ40にアップロードされ、そのアップロード先のファイルパス(写真ファイルパス)がシナリオ制御環境20に送信された場合の処理を説明するものである。したがって、例えばAR表示処理において撮影データが直接シナリオ制御環境20に送信されるような場合は、ステップS141〜S142の代わりに、単に撮影データを取得すればよくなる。
Next, the
次に、シナリオ制御環境20は、写真ファイルの画像分析を行うとともに、画像分析の結果を用いて次シナリオの判別を行う(ステップS143)。画像分析は、様々な公知技術を利用することができる。また、次シナリオの判別は、次に実行すべきシナリオを判別するための処理であって、画像分析の結果から、シナリオ制御情報テーブル330の分岐判定情報332に対応する情報が抽出される。
Next, the
そして、シナリオ制御環境20は、ステップS143の結果に基づいてデータベース30のシナリオ制御情報テーブル330を参照することにより、次に実行するシナリオのID(次のシナリオID)を取得する(ステップS144)。
Then, the
そして、シナリオ制御環境20は、ステップS144で取得した次のシナリオIDをネットワーク50を介してスマートデバイス10に送信し(ステップS145)、次シナリオ判別処理を終了する。その後は、次のシナリオIDに基づくガイダンス処理が開始される(例えば、図5のステップS11)。
Then, the
図14は、次シナリオ判別処理における詳細な処理手順を示すシーケンス図である。 FIG. 14 is a sequence diagram illustrating a detailed processing procedure in the next scenario determination processing.
図14によれば、まず、スマートデバイス10からシナリオ制御環境20の通信制御部21に写真ファイルパスが送信される(ステップS251)。ステップS251は、前述した図12におけるステップS250に相当する。
According to FIG. 14, first, the photo file path is transmitted from the
通信制御部21は、受信した写真ファイルパスをデコードし(ステップS252)、処理制御部112に送る(ステップS253)。そして処理制御部112は、写真ファイルパスを判別部23に転送する(ステップS254)。
The
次に、判別部23は、当該写真ファイルパスを用いてファイルサーバ40に写真ファイル(画像ファイル)の問合せを行い(ステップS255)、当該写真ファイルパスに格納された画像ファイル、すなわち、図12のステップS246で格納された撮影データ(写真)をファイルサーバ40から取得する(ステップS256)。
Next, the
次いで、判別部23は、ステップS256で取得した撮影データに対して、画像分析を行い、少なくとも、次シナリオの分岐判定に必要な「所定の情報」を判別・抽出する(ステップS257)。判別部23は、その判別結果をシナリオ制御処理部22に送る(ステップS258)。
Next, the
ここで、次シナリオの分岐判定に必要な「所定の情報」とは、シナリオ制御情報テーブル330の分岐判定情報332から特定することができる。例えば、図4のシナリオ制御情報テーブル330では、シナリオID「001」に関して、分岐判定情報332に「A,B」が記載され、分岐判定情報が「A」であった場合には次のシナリオIDは「002A」となり、分岐判定情報が「B」であった場合には次のシナリオIDは「002B」となることが示されている。したがって、シナリオIDが「001」である場合の次シナリオ判別処理では、分岐判定情報332に記載された「A」または「B」に相当する情報が、上記「所定の情報」として抽出される。
Here, the “predetermined information” required for the branch determination of the next scenario can be specified from the
なお、本実施の形態では、分岐判定情報332にどのような情報を記載するかによって、次のシナリオについて様々な分岐を実現することができる。撮影された対象物における所定領域(例えばランプ)の色について、「所定領域が赤色である」ことを分岐判定情報332の情報「A」とし、「所定領域が青色である」ことを分岐判定情報332の情報「B」とすれば、上記ランプの色に応じて次のシナリオを分岐させることができる。また例えば、所定の診断処理を実行するとして、その診断結果(OK/NG)に応じて情報「A」,「B」を設定するといった分岐設定等も可能である。また、分岐数は2つに限定されるものではなく、分岐数や分岐条件を任意に設けてシナリオを設定することができる。
In the present embodiment, various branches can be realized for the following scenarios depending on what information is described in the
図14の説明に戻る。ステップS258で判別結果を受け取ったシナリオ制御処理部22は、現在のシナリオIDと上記判別結果とに基づいてデータベース30のシナリオ制御情報テーブル330を参照し(ステップS259)、次のシナリオIDを取得する(ステップS260)。図4のシナリオ制御情報テーブル330を用いて具体例を説明すると、現在のシナリオIDが「001」であって、判別結果が「A」であったとすると、次のシナリオIDとして「002A」が決定される。
Returning to the description of FIG. The scenario
その後、シナリオ制御処理部22は、ステップS260で取得した次のシナリオIDを通信制御部21に送り(ステップS261)、通信制御部21は、受け取った次のシナリオIDをエンコードし(ステップS262)、スマートデバイス10に送信する(ステップS263)。
Thereafter, the scenario
以上のように次シナリオ判別処理が行われることにより、シナリオ制御環境20は、スマートデバイス10において撮影された現シナリオの対象物の撮影データを取得できるとともに、当該撮影データの画像分析の結果から次に実行するシナリオを決定し、スマートデバイス10に伝えることができる。
By performing the next scenario determination process as described above, the
(3)ガイダンス画面
前述したように、本実施の形態に係るガイダンスシステム1では、ユーザに所定の動作(操作)を指示するためにスマートデバイス10のディスプレイ14にガイダンス画面がAR表示される。以下では、このガイダンス画面について、具体例を示しながら説明する。
(3) Guidance Screen As described above, in the
まず、物体認識までのガイダンス処理で表示されるガイダンス画面について説明する。図5のステップS20等で説明したように、物体認識までのガイダンス処理では、物体認識のシナリオIDに基づいて、対象物の物体を認識させるためのガイダンス画面がスマートデバイス10のディスプレイ14にAR表示される。
First, the guidance screen displayed in the guidance process up to object recognition will be described. As described in step S20 in FIG. 5 and the like, in the guidance processing up to the object recognition, a guidance screen for recognizing the target object is displayed on the
図15は、物体認識までのガイダンス処理のなかで表示されるガイダンス画面の一例を説明するための図である。図15に示したように、ガイダンス画面400は、画面内に映された対象物(被写体)に、現シナリオにおける対象物の適正位置を重畳表示(AR表示)する第1の表示画面410と、現シナリオにおける作業指示や付随情報をAR表示する第2の表示画面420とを有している。
FIG. 15 is a diagram for explaining an example of a guidance screen displayed in the guidance process up to object recognition. As shown in FIG. 15, the
図15に示すガイダンス画面400をより具体的に確認する。第1の表示画面410には、対象物が実線で示されている。なお、前述したように、本実施の形態において、「ディスプレイ14(ガイダンス画面400,第1の表示画面410)内に映される対象物」とは、ディスプレイ14を透過して対象物の実体が映される場合と、カメラ13越しの対象物の実体映像(カメラ13によって撮像された実体映像)がディスプレイ14の表示画面(ここでは第1の表示画面410)に表示される場合と、の双方の意味で捉えることができる。両者は画像処理等の点では相違があるものの、何れの場合も、ユーザがガイダンス画面400(第1の表示画面410)を見た場合に、対象物が映され、その対象物に重畳する態様で適正位置が表示されることに変わりはない。そこで以下では、カメラ13越しに対象物の実体映像が表示される場合を例として、説明を続ける。
The
図15に示すガイダンス画面400の具体的な説明を続ける。第1の表示画面410には、カメラ13越しに捉えた対象物の実体映像が、実線で示されている。さらに、現シナリオ(ここでは物体認識のシナリオ)における対象物について、物体認識を行うための位置合わせの適正位置のイメージ(3Dガイド)が、破線で重畳表示されている。この3Dガイドは、シナリオ制御環境20から送信されたAR用データ(例えば、図5のステップS19参照)に含まれるオブジェクトファイルを用いることによってAR表示される。
The specific description of the
また、ガイダンス画面400の第2の表示画面420は、現シナリオにおける作業指示の内容がテキスト表示される作業指示表示領域421と、現在のユーザ(スマートデバイス10)と対象物との客観的な位置関係のイメージが示される付随情報表示領域422とを備えて構成される。
The
作業指示表示領域421に表示されるテキストは、シナリオ制御環境20から送信されたAR用データに含まれるAR表示情報の作業指示情報313(図4(A)参照)に記載された情報が表示される。具体的には、図15の場合、作業指示表示領域421に「被写体を3Dガイドに合わせ、対象を物体認識させてください」と表示されていることから、ユーザに、第1の表示画面410において対象物の実体映像を3Dガイドの位置に合わせるように、自身(スマートデバイス10)の位置を変更する必要があることを案内できる。
As the text displayed in the work
付随情報表示領域422に表示される現在のユーザ(スマートデバイス10)と対象物との客観的な位置関係のイメージは、シナリオ制御環境20から送信されたAR用データに含まれるオブジェクトファイル及び付随情報と、取得したセンサ値で更新されてローカルフォルダ113に保持される表示用付随情報(例えば図9のステップS116参照)とに基づいて、AR表示される。具体的には、図15の場合、付随情報表示領域422には、ユーザと対象物との適正な位置関係として、角度が「30±5°」で距離が「25±1cm」という具体的な値が示されており、さらに、ユーザと対象物のイメージ画像も表示されている。これらの付随情報表示によって、ユーザは、対象物との適正な位置関係を視覚的に認識・判断しやすくなる。
The image of the objective positional relationship between the current user (smart device 10) and the object displayed in the accompanying
次に、物体認識後のガイダンス処理で表示されるガイダンス画面について説明する。図6のステップS39等で説明したように、物体認識後のガイダンス処理では、現シナリオIDに基づいて、対象物を撮影用の適正位置に位置合わせするためのガイダンス画面が、スマートデバイス10のディスプレイ14にAR表示される。
Next, a guidance screen displayed in the guidance process after object recognition will be described. As described in step S39 in FIG. 6 and the like, in the guidance process after the object recognition, the guidance screen for positioning the target to the appropriate position for shooting is displayed on the display of the
図16〜図18は、物体認識後のガイダンス処理のなかで表示されるガイダンス画面の一例を説明するための図(その1〜その3)である。図16〜図18に示したガイダンス画面500,600,700は、何れも、カメラ13越しに捉えた実体映像に、現シナリオにおける対象物の適正位置を重畳表示(AR表示)する第1の表示画面510,610,710と、現シナリオにおける作業指示や付随情報をAR表示する第2の表示画面520,620,720とを有している。第1の表示画面510,610,710における表示内容は、前述したガイダンス画面400の第1の表示画面410と共通しているため、説明を省略する。一方、第2の表示画面520,620,720には、対象物に対する位置合わせ及び撮影に関する付随情報の表示態様について、異なるバリエーションが示されており、以下、それぞれの第2の表示画面における表示態様について説明する。
16 to 18 are diagrams (
図16の第2の表示画面520の表示態様について説明する。第2の表示画面520は、現シナリオにおける作業指示の内容がテキスト表示される作業指示表示領域521と、現在のユーザ(スマートデバイス10)と対象物との客観的な位置関係のイメージが示される付随情報表示領域522とを備えて構成される。さらに、付随情報表示領域522には、位置合わせのために必要な動作がテキスト表示される付随情報テキスト表示領域523が含まれている。
The display mode of the
作業指示表示領域521に表示されるテキストは、シナリオ制御環境20から送信されたAR用データに含まれるAR表示情報の作業指示情報313(図4(A)参照)に記載された情報が表示される。具体的には、図16の場合、作業指示表示領域521に「被写体を3Dガイドに合わせ、[写真]と音声入力を行い現状の写真を取得してください」と表示されている。この表示内容から、ユーザは、第1の表示画面510に表示された対象物の実体映像を3Dガイドに位置合わせし、その後、「写真」という音声入力を行う必要があることを認識できる。
As the text displayed in the work
付随情報表示領域522に表示される現在のユーザ(スマートデバイス10)と対象物との客観的な位置関係のイメージは、シナリオ制御環境20から送信されたAR用データに含まれるオブジェクトファイル及び付随情報と、取得したセンサ値で更新されてローカルフォルダ113に保持される表示用付随情報(例えば図9のステップS116参照)とに基づいて、AR表示される。
The image of the objective positional relationship between the current user (smart device 10) and the object displayed in the accompanying
図16の場合、ユーザと対象物(被写体)との位置関係に関する数値的な表示は、「[現在値]/[目標値]±[誤差範囲]」の形式で表示されている。具体的には、付随情報表示領域522に表示された「17.5/30±5°」は、適正位置にある対象物に対するユーザの視角が「30±5°(すなわち、25°〜35°)」と定められているのに対し、現在のユーザの視角が「17.5°」であり、視角が小さすぎることを意味する。同様に、付随情報表示領域522に表示された「22.8/25±1cm」は、適正位置にある対象物までの距離が「25±1cm(すなわち、24cm〜26cm)」と定められているのに対し、現在のユーザから対象物までの距離が「22.8cm」であり、近すぎることを意味する。このような付随情報表示領域522が行われることによって、位置合わせに関する現状をユーザに正確に伝達することができるため、位置合わせのために必要なユーザの動作を補佐することができる。
In the case of FIG. 16, the numerical display related to the positional relationship between the user and the object (subject) is displayed in the format of “[current value] / [target value] ± [error range]”. Specifically, “17.5 / 30 ± 5 °” displayed in the accompanying
さらに図16の場合、付随情報テキスト表示領域523において「・もう少し離れてください」及び「・もう少し上からみてください」というテキスト表示が行われている。これらのテキスト表示は、付随情報テーブル320の超過時表示情報327あるいは過小時表示情報328に記載された情報であり、センサ12によって取得された現在値が付随情報範囲から外れている場合に(超過/過小)、状況に応じたテキスト表示が行われる。このような付随情報テキスト表示領域523が行われることによって、ユーザが適正位置への位置合わせのために行うべき動作を明確に教示することができ、ユーザの動作をより適切に誘導することができる。
Further, in the case of FIG. 16, in the accompanying information
次に、図17の第2の表示画面620の表示態様について説明する。第2の表示画面620は、現シナリオにおける作業指示の内容がテキスト表示される作業指示表示領域621と、現在のユーザ(スマートデバイス10)と対象物との客観的な位置関係のイメージが示される付随情報表示領域622とを備えて構成される。このうち、作業指示表示領域621の表示内容は、図16で説明した作業指示表示領域521と同じであるため、説明を省略する。
Next, a display mode of the
図17の付随情報表示領域622では、図16の付随情報表示領域522と同様に、ユーザと対象物(被写体)との位置関係に関する数値的な表示が行われている。具体的な数値表示は図16と同様であり説明を省略する。さらに、図17では、特徴的な表示態様として、付随情報表示領域622において、適正位置への位置合わせのためにユーザが行うべき動作(ユーザの移動先)が、破線で示されたユーザのイメージ画像によって教示されている。
In the accompanying
具体的には、図17の場合、実線で示されたユーザのイメージ画像よりも左上に破線で示されたユーザのイメージ画像が表示されており、このような破線のイメージ画像から、ユーザは、現在より「もう少し離れ」、「もう少し上から見る」ように誘導される。すなわち、この破線のイメージ画像は、図16の付随情報テキスト表示領域523におけるテキスト表示の内容を画像化したものである。このようなイメージ画像が表示されることにより、ユーザが適正位置への位置合わせのために行うべき動作を視覚的に明快に教示することができ、ユーザの動作をより適切に誘導することができる。
Specifically, in the case of FIG. 17, the image of the user indicated by the dashed line is displayed at the upper left of the image of the user indicated by the solid line. From such an image of the dashed line, the user: You will be guided to "go a little further away" and "look a little more from above." That is, this broken line image is an image of the content of the text display in the accompanying information
次に、図18の第2の表示画面720の表示態様について説明する。第2の表示画面720は、現シナリオにおける作業指示の内容がテキスト表示される作業指示表示領域721と、現在のユーザ(スマートデバイス10)と対象物との客観的な位置関係のイメージが示される付随情報表示領域722とを備えて構成される。このうち、作業指示表示領域721の表示内容は、図16で説明した作業指示表示領域521と同じであるため、説明を省略する。
Next, a display mode of the
図18の付随情報表示領域722では、特徴的な表示態様として、前述した図16の付随情報表示領域622や図17の付随情報表示領域722とは異なり、数値的な表示が行われない。その代わりに、適正位置への位置合わせのためにユーザが行うべき動作(ユーザの移動先)が、矢印付きの画像によって表示されている。具体的には、図18の場合、ユーザから右向きの矢印画像が表示されることによって、対象物に近づく動作が案内され、ユーザの顔の前方で上から下にカーブする向きの矢印画像が表示されることによって、上側から対象物を見る動作が案内される。図18のような表示態様を採用することにより、ユーザが行うべき動作を簡潔に教示することができるため、ユーザの動作を適切に誘導する効果に期待できる。
In the accompanying
(4)まとめ
以上に説明したように、本実施の形態に係るガイダンスシステム1は、センサ12及びディスプレイ14を有するスマートデバイス10と、スマートデバイス10を用いた一連の作業を複数のシナリオによって管理するシナリオ制御環境20とを備えて構成される。このガイダンスシステム1において、複数のシナリオのうち所定の対象物に対する位置合わせを含むシナリオが実行される場合、シナリオ制御環境20は、当該シナリオに関する情報として、AR用データ(AR表示情報、付随情報、オブジェクトファイル)をスマートデバイス10に送る。そして、AR用データを受け取ったスマートデバイス10では、センサ12によって当該シナリオの対象物を測定し、ディスプレイ14によるガイダンス画面表示(例えば、ガイダンス画面500)として、付随情報とセンサ12による対象物の測定結果とに基づいて、画面に映される対象物(透過して映される対象物の実体、あるいは、カメラ13によって撮影されて画面に表示される対象物の実体映像)を位置合わせの適正位置に誘導するための情報(適正位置の3Dガイド、付随情報、作業指示)を、少なくとも一部を当該対象物に重畳して表示する(第1の表示画面510)。
(4) Conclusion As described above, the
このようなガイダンスシステム1によれば、シナリオで管理される一連の作業について、ARを利用してユーザの動作を適切に誘導することができる。特に、対象物に対する位置合わせが必要とされるような高精度な用途において、対象物の実体映像を映すディスプレイに、位置合わせに関する付随情報とセンサ測定値とに基づく付随情報表示をAR表示することにより、対象物を適正位置に位置合わせするようにユーザの動作を適切に誘導することができる。
According to such a
そして、本実施の形態に係るガイダンスシステム1では、上述したガイダンス画面においてユーザの動作を適切に誘導するために、以下のような様々な工夫がなされている。
In the
例えば、ガイダンス画面400の第1の表示画面410等に示したように、カメラ13越しに捉えた対象物の実体映像(あるいは、ディスプレイ14を透過して映される対象物の実体)に、対象物の適正位置のイメージ(3Dガイド)を重畳表示することにより、ユーザに対して、対象物を適正位置に位置合わせするために必要な動作をイメージさせ易くしている。
For example, as shown in the
また例えば、ガイダンス画面500の第2の表示画面520等に示したように、現シナリオにおける作業指示や付随情報がAR表示されることによって、ユーザに対して、どのような作業が求められているか、あるいは、対象物の現状と適正位置との差異を視覚的に認識できるようにしている。特に、第2の表示画面520等においては、現在のユーザ(スマートデバイス10)と対象物との位置関係を客観的視点で示すイメージ画像が表示されることによって(例えば、付随情報表示領域522)、対象物に対する自身の相対位置を客観的に把握することを助け、位置合わせのために必要な動作を理解し易くすることで、ユーザの動作を適切に誘導する効果に期待できる。
Also, for example, as shown in the
また、図16〜図18に例示したように、ガイダンス画面の付随情報表示は、様々な表示態様で実現可能であり、作業の目的やユーザの要求等に応じて幅広い実用性を有している。例えば、より高精度な位置合わせが要求される作業の場合には、付随情報表示領域522等のように数値表示を併記することによって、位置合わせの作業効率を高めることができる。また例えば、視角調整のような特殊な動作を誘導する場合には、付随情報テキスト表示領域523や付随情報表示領域722のように必要な動作を視覚的に教示することによって、ユーザを適切な動作に誘導し易くできる。
Further, as illustrated in FIGS. 16 to 18, the accompanying information display of the guidance screen can be realized in various display modes, and has a wide range of practicalities according to the purpose of the work, the request of the user, and the like. . For example, in the case of a work requiring more precise positioning, the work efficiency of the positioning can be improved by additionally writing a numerical display as in the accompanying
また、第2の表示画面520等に表示される付随情報表示の少なくとも一部を、スピーカ15からの音声出力に置き換え可能なことにより、視角情報だけでなく聴覚情報も用いてユーザの動作を適切に誘導する効果に期待できる。
Further, since at least a part of the accompanying information display displayed on the
なお、図11や図12を参照して説明した写真撮影処理において、対象物の撮影を指示するユーザの音声指示(例えば、マイク121に「写真」と音声入力すること)を契機として、スマートデバイス10の処理制御部112による自動的な制御によって、対象物の写真撮影を実行できるようにしたが、本実施の形態では、このような写真撮影処理をさらに自動化してもよい。具体的には、AR表示処理における適正位置判定(例えば図9のステップS115)において対象物が適正位置にある(位置合わせが完了した)と判定された場合に、ユーザの音声指示を待たずに、スマートデバイス10の処理制御部112が対象物の写真撮影を自動実行するようにしてもよい。このようにすることで、ユーザは、ガイダンス画面による誘導に従って自身(スマートデバイス10)の位置合わせを行うだけで、当該シナリオの作業を完了させることができるため、一連の作業をより簡易な手順で進めることが可能となる。
Note that, in the photographing process described with reference to FIGS. 11 and 12, the smart device is triggered by a voice instruction (for example, voice input of “photograph” into the microphone 121) of the user instructing photographing of the target object. Although the photographing of the target object can be executed by the automatic control of the ten
また、従来のARを利用したサービスでは、片方向通信で送られた表示内容がAR表示されるものが一般的であったのに対して、本実施の形態に係るガイダンスシステム1では、スマートデバイス10におけるARの表示内容を、シナリオ制御環境20から送られるオブジェクトデータ等のAR用データをそのまま用いるのではなく、センサ12による測定結果を反映して動的に変化させるとともに、スマートデバイス10で撮影された対象物の撮影データをシナリオ制御環境20が取得し、当該撮影データを画像分析/判別することによって、次のシナリオを決定し、決定した次のシナリオに関するAR用データを送信するといったように、双方向通信を利用したAR表示を実現することを特徴の1つとしている。この結果、本実施の形態に係るガイダンスシステム1によれば、上記の従来のサービスでは実現困難であった、高精度なガイダンス画面の提供を可能とし、対象物を適正位置に位置合わせするようにユーザの動作を適切に誘導する効果を高めることができる。
Further, in the service using the conventional AR, the display content transmitted by one-way communication is generally displayed as an AR, whereas in the
また、本実施の形態に係るガイダンスシステム1では、上述した双方向通信を利用しながらも、ローカルフォルダ113に格納する表示用付随情報を利用することによって、シナリオ実行時のAR表示中には、スマートデバイス10からシナリオ制御環境20に通信することなく、センサ12による測定結果を反映してガイダンス画面におけるAR表示の内容を動的に変更することを可能としており、システム全体における処理負荷を低減させる効果が得られる。
In addition, in the
以上のような本実施の形態に係るガイダンスシステム1は、複数工程がシナリオで管理される一連の作業においてあるシナリオから次のシナリオにユーザの動作を誘導するための技術全般に適用することができる。
The
なお、本発明は上記した実施の形態に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施の形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。例えば、実施の形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 Note that the present invention is not limited to the above-described embodiment, and includes various modifications. For example, the above-described embodiments have been described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described above. For example, for a part of the configuration of the embodiment, it is possible to add, delete, or replace another configuration.
また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。 In addition, each of the above-described configurations, functions, processing units, processing means, and the like may be partially or entirely realized by hardware, for example, by designing an integrated circuit. In addition, the above-described configurations, functions, and the like may be realized by software by a processor interpreting and executing a program that realizes each function. Information such as a program, a table, and a file for realizing each function can be stored in a memory, a hard disk, a recording device such as an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD.
また、図面において制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。 In the drawings, control lines and information lines are considered to be necessary for explanation, and not all control lines and information lines are necessarily shown on a product. In fact, it can be considered that almost all components are connected to each other.
1 ガイダンスシステム
10 スマートデバイス
11 AR表示機能部
12 センサ
13 カメラ
14 ディスプレイ
15 スピーカ
20 シナリオ制御環境
21 通信制御部
22 シナリオ制御処理部
23 判別部
30 データベース
40 ファイルサーバ
111 通信制御部
112 処理制御部
113 ローカルフォルダ
121 マイク
122 深度センサ
123 ジャイロセンサ
124 光学センサ
310 AR表示情報テーブル
311 シナリオID
312 オブジェクトファイルパス
313 作業指示情報
314 付随情報IDリスト
320 付随情報テーブル
321 シナリオID
322 付随情報ID
323 センサID
324 付随情報目標値
325 付随情報単位
326 付随情報範囲
327 超過時表示情報
328 過小時表示情報
330 シナリオ制御情報テーブル
331 シナリオID
332 分岐判定情報
333 次のシナリオID
1
312
322 Associated information ID
323 Sensor ID
324 Additional
332
Claims (12)
前記スマートデバイスを用いた一連の作業を複数のシナリオによって管理し、各前記シナリオに関する情報を前記スマートデバイスに送信するシナリオ制御装置と、
を備え、
前記複数のシナリオのうち所定の対象物に対する位置合わせを含むシナリオの実行時に、
前記シナリオ制御装置は、当該シナリオに関する情報に、前記位置合わせに関する付随情報を含めて前記スマートデバイスに送り、
前記シナリオに関する情報を受け取った前記スマートデバイスは、
前記センサによって前記対象物を測定し、
前記ディスプレイにおけるガイダンス画面表示として、前記付随情報と前記センサによる前記対象物の測定結果とに基づいて、前記ディスプレイに映される前記対象物を前記位置合わせの適正位置に誘導させる情報を、少なくとも一部を当該対象物に重畳して前記ディスプレイに表示する
ことを特徴とするガイダンスシステム。 A smart device having a sensor and a display;
A scenario control device that manages a series of operations using the smart device by a plurality of scenarios, and transmits information on each of the scenarios to the smart device,
With
When executing a scenario including alignment with respect to a predetermined target among the plurality of scenarios,
The scenario control device sends the information related to the scenario to the smart device, including the accompanying information related to the alignment,
The smart device receiving the information on the scenario,
Measuring the object by the sensor,
As a guidance screen display on the display, based on the accompanying information and a measurement result of the object by the sensor, at least one information for guiding the object projected on the display to an appropriate position for the alignment is provided. A guidance system, wherein a part is superimposed on the object and displayed on the display.
ことを特徴とする請求項1に記載のガイダンスシステム。 The guidance system according to claim 1, wherein the guidance screen display includes a display of an image showing a positional relationship between the object and the smart device from an objective viewpoint.
前記ガイダンス画面表示において、前記ディスプレイを透過して映される前記対象物、または、前記カメラで撮影された前記対象物の実体映像の前記ディスプレイへの表示に対して、前記位置合わせの適正位置を示すガイドが重畳表示される
ことを特徴とする請求項1に記載のガイダンスシステム。 The smart device further has a camera,
In the guidance screen display, the target object transmitted through the display, or, on the display of the real image of the target object photographed by the camera on the display, the appropriate position of the alignment, The guidance system according to claim 1, wherein the guide is superimposed.
前記シナリオが前記対象物に対する前記位置合わせと当該位置合わせ後の次動作とを含む場合に、
当該シナリオにおける前記ガイダンス画面表示において、前記位置合わせ及び前記次動作の作業内容を指示する作業指示情報が、前記ディスプレイに表示され、あるいは前記スピーカから音声出力される
ことを特徴とする請求項1に記載のガイダンスシステム。 The smart device further has a speaker,
When the scenario includes the positioning of the object and the next operation after the positioning,
In the guidance screen display in the scenario, work instruction information for instructing the work contents of the positioning and the next operation is displayed on the display or output as voice from the speaker. Guidance system described.
前記ガイダンス画面表示によって前記対象物が前記位置合わせの適正位置に誘導された後、前記次動作の実行によって前記スマートデバイスの前記カメラが前記対象物を撮影した場合に、
前記シナリオ制御装置は、前記スマートデバイスで撮影された前記対象物の撮影データを取得し、当該撮影データに基づいて、次に実行を開始する前記シナリオを判別する
ことを特徴とする請求項4に記載のガイダンスシステム。 The smart device further has a camera,
After the object is guided to the proper position of the alignment by the guidance screen display, when the camera of the smart device has photographed the object by performing the next operation,
The said scenario control apparatus acquires the imaging | photography data of the said object image | photographed by the said smart device, and determines the said scenario which starts execution next based on the said imaging | photography data. Guidance system described.
前記シナリオ制御装置から受け取った前記付随情報と前記センサによる前記対象物の測定結果とを含んでなる表示用付随情報を自身の記憶手段に保持し、前記センサによる測定ごとに前記表示用付随情報を更新し、前記ガイダンス画面表示において、前記記憶手段に保持された最新の前記表示用付随情報を表示する
ことを特徴とする請求項1に記載のガイダンスシステム。 The smart device includes:
The display accompanying information including the accompanying information received from the scenario control device and the measurement result of the object by the sensor is stored in its own storage unit, and the display accompanying information is stored for each measurement by the sensor. 2. The guidance system according to claim 1, wherein the updated display accompanying information stored in the storage unit is updated and updated on the guidance screen display. 3.
前記ガイダンスシステムは、
センサ及びディスプレイを有する前記スマートデバイスと、
前記スマートデバイスを用いた一連の作業を複数のシナリオによって管理し、各前記シナリオに関する情報を前記スマートデバイスに送信するシナリオ制御装置と、を有し、
前記複数のシナリオのうち所定の対象物に対する位置合わせを含むシナリオの実行時に、
前記シナリオ制御装置が、当該シナリオに関する情報に、前記位置合わせに関する付随情報を含めて前記スマートデバイスに送る情報送出ステップと、
前記情報送出ステップの後に、前記シナリオに関する情報を受け取った前記スマートデバイスが、前記センサによって前記対象物を測定する測定ステップと、
前記測定ステップの後に、前記スマートデバイスが、前記ディスプレイにおけるガイダンス画面表示として、前記情報送出ステップで得た前記付随情報と前記測定ステップで得た前記対象物の測定結果とに基づいて、前記ディスプレイに映される前記対象物を前記位置合わせの適正位置に誘導させる情報を、少なくとも一部を当該対象物に重畳して前記ディスプレイに表示するガイダンス画面表示ステップと、
を備えることを特徴とするガイダンス制御方法。 A guidance control method by a guidance system for displaying a guidance screen on a smart device,
The guidance system includes:
The smart device having a sensor and a display;
A series of operations using the smart device is managed by a plurality of scenarios, and a scenario control device that transmits information on each of the scenarios to the smart device,
When executing a scenario including alignment with respect to a predetermined target among the plurality of scenarios,
An information sending step in which the scenario control device sends information to the smart device to the information on the scenario, including accompanying information on the alignment,
After the information sending step, the smart device receiving the information on the scenario, a measuring step of measuring the object by the sensor,
After the measuring step, the smart device displays a guidance screen on the display, based on the accompanying information obtained in the information transmitting step and the measurement result of the object obtained in the measuring step, on the display. A guidance screen display step of displaying information for guiding the object to be projected to the proper position for the alignment, at least a part of the information being superimposed on the object and displayed on the display.
A guidance control method, comprising:
ことを特徴とする請求項7に記載のガイダンス制御方法。 The said guidance screen display displayed in the said guidance screen display step includes the display of the image image which shows the positional relationship between the said object and the said smart device from an objective viewpoint. The claim 7 characterized by the above-mentioned. Guidance control method.
前記ガイダンス画面表示ステップでは、前記ディスプレイを透過して映される前記対象物、または、前記カメラで撮影された前記対象物の実体映像の前記ディスプレイへの表示に対して、前記位置合わせの適正位置を示すガイドが重畳表示される
ことを特徴とする請求項7に記載のガイダンス制御方法。 The smart device further has a camera,
In the guidance screen display step, an appropriate position of the alignment with respect to a display of the target image transmitted through the display or a real image of the target object captured by the camera on the display. The guidance control method according to claim 7, wherein a guide indicating is displayed in a superimposed manner.
前記シナリオが前記対象物に対する前記位置合わせと当該位置合わせ後の次動作とを含む場合に、
当該シナリオにおける前記ガイダンス画面表示ステップにおいて、前記位置合わせ及び前記次動作の作業内容を指示する作業指示情報が、前記ディスプレイに表示され、あるいは前記スピーカから音声出力される
ことを特徴とする請求項7に記載のガイダンス制御方法。 The smart device further has a speaker,
When the scenario includes the positioning of the object and the next operation after the positioning,
8. The guidance screen displaying step in the scenario, wherein work instruction information for instructing the contents of the work of the positioning and the next operation is displayed on the display or output as voice from the speaker. Guidance control method.
前記ガイダンス画面表示ステップを経て前記対象物が前記位置合わせの適正位置に誘導された後、前記次動作の実行によって前記スマートデバイスの前記カメラが前記対象物を撮影した場合に、
前記シナリオ制御装置が、前記スマートデバイスで撮影された前記対象物の撮影データを取得し、当該撮影データに基づいて、次に実行を開始する前記シナリオを判別する判別ステップをさらに備える
ことを特徴とする請求項10に記載のガイダンス制御方法。 The smart device further has a camera,
After the object is guided to the proper position of the alignment through the guidance screen display step, when the camera of the smart device has photographed the object by performing the next operation,
The scenario control device further includes a determination step of acquiring shooting data of the object shot by the smart device, and determining the scenario to start execution next based on the shooting data. The guidance control method according to claim 10, wherein:
前記ガイダンス画面表示ステップにおいて、前記記憶手段に保持された最新の前記表示用付随情報を前記ガイダンス画面に表示する
ことを特徴とする請求項7に記載のガイダンス制御方法。
The smart device retains, in its own storage means, display-related information including the accompanying information received from the scenario control device in the information sending step and the measurement result of the object measured in the measuring step. And a display accompanying information update step of updating the display accompanying information for each measurement by the sensor,
The guidance control method according to claim 7, wherein, in the guidance screen displaying step, the latest display accompanying information held in the storage unit is displayed on the guidance screen.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018156790A JP2020030704A (en) | 2018-08-23 | 2018-08-23 | Guidance system and guidance control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018156790A JP2020030704A (en) | 2018-08-23 | 2018-08-23 | Guidance system and guidance control method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020030704A true JP2020030704A (en) | 2020-02-27 |
Family
ID=69622594
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018156790A Pending JP2020030704A (en) | 2018-08-23 | 2018-08-23 | Guidance system and guidance control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020030704A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2021229821A1 (en) * | 2020-05-15 | 2021-11-18 |
-
2018
- 2018-08-23 JP JP2018156790A patent/JP2020030704A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2021229821A1 (en) * | 2020-05-15 | 2021-11-18 | ||
WO2021229821A1 (en) * | 2020-05-15 | 2021-11-18 | 日本電信電話株式会社 | Alignment assistance device, alignment assistance method, and program |
JP7409497B2 (en) | 2020-05-15 | 2024-01-09 | 日本電信電話株式会社 | Alignment support device, alignment support method and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11776185B2 (en) | Server, user terminal, and service providing method, and control method thereof for displaying photo images within a map | |
JP6952469B2 (en) | On-site construction management system | |
US10506151B2 (en) | Information acquisition apparatus | |
JP2011519192A (en) | Apparatus, method and system for displaying recorded data along with related position and orientation information | |
JP5229791B2 (en) | PHOTO MAPPING METHOD AND SYSTEM, PROGRAM, AND STORAGE MEDIUM | |
EP3631712B1 (en) | Remote collaboration based on multi-modal communications and 3d model visualization in a shared virtual workspace | |
KR20100041926A (en) | System and method for location confirmation service, and method for creating location information thereof | |
KR102195999B1 (en) | Method, device and system for processing image tagging information | |
KR102195890B1 (en) | Safety Diagnosis System and Method Using Smart Glasses | |
WO2021200432A1 (en) | Imaging instruction method, imaging method, imaging instruction device, and imaging device | |
JP2022054521A (en) | Round inspection work evaluation system, round inspection work evaluation device, operation terminal, position detection terminal, and round inspection work evaluation method | |
KR102011713B1 (en) | Continuous structure defect monitoring system and method | |
JP2020030704A (en) | Guidance system and guidance control method | |
JP2009134333A (en) | Digital photograph sharing system device | |
WO2020095541A1 (en) | Information processing device, information processing method, and program | |
US8866637B1 (en) | Data collection process for optical leak detection | |
JP2013172312A (en) | Photographing support system and photographing support program | |
CN110967036A (en) | Test method and device for navigation product | |
WO2018006534A1 (en) | Place recommendation method, device, and computer storage medium | |
WO2022046227A1 (en) | Mixed reality image capture and smart inspection | |
JP7107545B2 (en) | LOCATION INFORMATION MANAGEMENT DEVICE, LOCATION INFORMATION MANAGEMENT SYSTEM, LOCATION INFORMATION MANAGEMENT METHOD, AND PROGRAM | |
JP2021141388A (en) | Imaging program | |
JP2009177611A (en) | Digital camera | |
WO2022004155A1 (en) | Imaging position management device, method, and program | |
JP2020173703A (en) | Information processing device |