JP2018049421A - Work support device and work support method - Google Patents

Work support device and work support method Download PDF

Info

Publication number
JP2018049421A
JP2018049421A JP2016183892A JP2016183892A JP2018049421A JP 2018049421 A JP2018049421 A JP 2018049421A JP 2016183892 A JP2016183892 A JP 2016183892A JP 2016183892 A JP2016183892 A JP 2016183892A JP 2018049421 A JP2018049421 A JP 2018049421A
Authority
JP
Japan
Prior art keywords
image
work
gaze
work support
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016183892A
Other languages
Japanese (ja)
Other versions
JP6521923B2 (en
Inventor
正俊 重田
Masatoshi Shigeta
正俊 重田
貴彦 宮本
Takahiko Miyamoto
貴彦 宮本
務 澤田
Tsutomu Sawada
務 澤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Industry and Control Solutions Co Ltd
Original Assignee
Hitachi Industry and Control Solutions Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Industry and Control Solutions Co Ltd filed Critical Hitachi Industry and Control Solutions Co Ltd
Priority to JP2016183892A priority Critical patent/JP6521923B2/en
Publication of JP2018049421A publication Critical patent/JP2018049421A/en
Application granted granted Critical
Publication of JP6521923B2 publication Critical patent/JP6521923B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a work support device capable of easily continuing work and stopping work at an arbitrary point of time.SOLUTION: A work support device comprises: a storage unit for storing a sample image obtained by imaging an object of work in advance and an augmented reality image showing work contents in an augmented reality method, in association with a progress step of work; an image input processing unit for acquiring a watched image that the object watched by a worker is imaged by a camera; an image output processing unit for displaying the watched image and the augmented reality image corresponding to the sample image in an overlapping manner; and a watched image substitution unit for, in the case where the camera is not used or the watched image is not similar to the sample image in a certain progress step, considering the sample image itself in the progress step as a watched image to be displayed by overlapping the sample image.SELECTED DRAWING: Figure 4

Description

本発明は、作業支援装置及び作業支援方法に関する。   The present invention relates to a work support apparatus and a work support method.

作業員が機器の保守、点検等を行う際、通常、作業手順書を参照する。作業手順書には、多くの図及び写真が作業の進捗段階ごとに記載されている。作業員はそれらを見た上で、実際の機器に対して、点検、分解、清掃、部品交換等の作業を行う。このような作業は、単純なように思われがちであるが、実際は熟練を要する。目の前の機器に対してどの進捗段階においてどの図又は写真を参照すればよいかを判断したうえで、正確な作業を行うのは容易ではない。さらに、作業員は、複数の作業場所を巡回し複数の機器に対して作業を行う場合もある。このような場合、作業員に対する負担は特に大きくなる。   When workers perform maintenance and inspection of equipment, they usually refer to work procedure manuals. In the work procedure manual, many figures and photographs are described for each progress stage of the work. The worker sees them and carries out operations such as inspection, disassembly, cleaning, and parts replacement for the actual equipment. Such work tends to seem simple, but in practice it requires skill. It is not easy to perform an accurate operation after determining which diagram or photograph should be referred to in which progress stage for the device in front of you. Furthermore, the worker may visit a plurality of work places and work on a plurality of devices. In such a case, the burden on the worker is particularly large.

近時、このような作業員を支援するための様々な装置が普及している。特許文献1の作業支援システムは、作業内容のサンプルとして“作業画像”を予め記憶しておく。当該作業支援システムは、作業員が注視している対象物の画像を“注視画像”として撮像し、注視画像を作業画像と比較する。さらに、当該作業支援システムは、比較の結果、注視画像が作業画像に類似していない場合が所定の回数以上繰り返されると、当該作業支援システムは、作業員に対して注意を喚起する。   Recently, various devices for supporting such workers have become widespread. The work support system of Patent Document 1 stores “work images” in advance as work content samples. The work support system captures an image of an object being watched by a worker as a “gaze image” and compares the gaze image with the work image. Furthermore, the work support system alerts the worker when the result of the comparison shows that the case where the gaze image is not similar to the work image is repeated a predetermined number of times or more.

非特許文献1は、“AR(Augmented Reality:拡張現実)マーカ”を開示している。ここでは、“ARマーカを印刷するなどして現実世界に設置すると、ARシステムがその画像の写った部分に重ねて指定された情報を表示する”旨が記載されている。
非特許文献2は、AR画像を表示する位置を認識する方法として、“マーカ型の画像認識AR”及び“マーカレス型の画像認識AR”を開示している。前者は、マーカとして市松模様の図形を現実世界の対象物に張り付けておく方法である。後者は、特別なマーカを使用することなく、対象物そのものの2次元形状又は3次元形状をマーカとしてそのまま利用する方法である。
Non-Patent Document 1 discloses an “AR (Augmented Reality) marker”. Here, it is described that “when the AR marker is printed and installed in the real world, the AR system displays the designated information superimposed on the portion of the image”.
Non-Patent Document 2 discloses “marker-type image recognition AR” and “markerless-type image recognition AR” as methods for recognizing a position for displaying an AR image. The former is a method of pasting a checkered pattern as a marker on an object in the real world. The latter is a method in which a two-dimensional shape or a three-dimensional shape of an object itself is used as a marker without using a special marker.

特開2013−97466号公報JP 2013-97466 A

“ARマーカー”、[online]、平成28年8月9日、IT用語辞典、[平成28年8月9日検索]、インターネット<URL:1474414365427_0.html>“AR marker”, [online], August 9, 2016, IT Glossary, [August 9, 2016 search], Internet <URL: 1474414365427_0.html> “ARの認識方法と種類”、[online]、平成28年8月9日、ARナビキャラ、[平成28年8月9日検索]、インターネット<URL:1474414365427_1.html>"AR recognition method and type", [online], August 9, 2016, AR Navi Chara, [August 9, 2016 search], Internet <URL: 1474414365427_1.html>

いま、特許文献1の作業支援システム、非特許文献1の技術、及び、非特許文献2の技術を組合せ、作業員が装着しているカメラ(例えば、ヘッドマウンティング型)が、ARマーカ、又は、ARマーカの役割を果たす対象物自身を注視画像として撮像する。このとき、理想的な撮像条件が満たされていれば問題はない。しかしながら、例えば、夜間又は降雨等の悪条件下では、カメラが撮像する注視画像は、サンプルとしての作業画像と比較可能である程度に鮮明にはならない。すると、当該作業支援システムは、予め記憶されている作業画像の候補のうちから、注視画像に類似するものを取得できなくなる。すると、当該作業支援システムを使用する作業は、中止を余儀なくされる。   Now, the work support system of Patent Literature 1, the technology of Non-Patent Literature 1, and the technology of Non-Patent Literature 2 are combined, and the camera worn by the worker (for example, a head mounting type) is an AR marker or The target object serving as an AR marker is captured as a gaze image. At this time, there is no problem as long as ideal imaging conditions are satisfied. However, for example, under bad conditions such as nighttime or rain, the gaze image captured by the camera is not as clear as it can be compared with the work image as a sample. Then, the work support system cannot acquire a work image candidate similar to the gaze image from the work image candidates stored in advance. Then, the work using the work support system is forced to be stopped.

作業員は、他の緊急要件が発生した場合、他の作業場所に移動する場合、作業が長時間続いた場合等には、作業を一時的に中断する必要がある。しかしながら、特許文献1の作業支援システムは、作業の一時的な中断については記載されていない。
そこで、本発明は、作業を容易に続行でき、任意の時点で作業を中断できる作業支援装置を提供することを目的とする。
Workers need to temporarily suspend work when other urgent requirements occur, when moving to other work locations, or when work continues for a long time. However, the work support system of Patent Document 1 does not describe temporary interruption of work.
Therefore, an object of the present invention is to provide a work support device that can easily continue work and can interrupt the work at an arbitrary time.

本発明の作業支援装置は、作業の対象とするべき対象物を予め撮像した見本画像と、作業の内容を拡張現実の手法で示す拡張現実画像と、が作業の進捗段階に対応付けて格納される記憶部と、作業員が注視している対象物をカメラが撮像した注視画像を取得する画像入力処理部と、注視画像と、見本画像に対応する拡張現実画像とを重ねて表示する画像出力処理部と、ある進捗段階において、カメラが使用されない場合、又は、注視画像が見本画像に類似しない場合、当該進捗段階の見本画像自身を、見本画像と重ねて表示されるべき注視画像と看做す注視画像代替部と、を備えることを特徴とする。
その他の手段については、発明を実施するための形態のなかで説明する。
In the work support device of the present invention, a sample image obtained by capturing an object to be worked in advance and an augmented reality image indicating the work contents using an augmented reality technique are stored in association with the progress stage of the work. A storage unit, an image input processing unit that obtains a gaze image obtained by capturing an image of an object being watched by a worker, and an image output that displays the gaze image and an augmented reality image corresponding to the sample image in an overlapping manner When the camera is not used in the processing unit and a certain progress stage, or the gaze image is not similar to the sample image, the sample image itself in the progress stage is regarded as a gaze image to be displayed overlaid on the sample image. And a gaze image replacement unit.
Other means will be described in the embodiment for carrying out the invention.

本発明によれば、作業を容易に続行でき、任意の時点で作業を中断できる作業支援装置を提供することができる。   According to the present invention, it is possible to provide a work support device capable of easily continuing work and interrupting work at an arbitrary time.

作業支援装置の構成及び環境を説明する図である。It is a figure explaining the structure and environment of a work assistance apparatus. 作業支援装置が既存技術のみを実施する場合を説明する図である。It is a figure explaining the case where a work support device carries out only existing technology. 作業支援装置が既存技術のみを実施する場合を説明する図である。It is a figure explaining the case where a work support device carries out only existing technology. 作業支援装置が、本実施形態を実施する場合を説明する図である。It is a figure explaining the case where a work support device carries out this embodiment. 作業支援装置が、本実施形態を実施する場合を説明する図である。It is a figure explaining the case where a work support device carries out this embodiment. 作業手順書の一例を示す図である。It is a figure which shows an example of a work procedure manual. 更新後の作業手順書の一例を示す図である。It is a figure which shows an example of the work procedure manual after an update. (a)及び(b)は、撮像された画像が注視画像であるか否かを判断する方法を説明する図である。(A) And (b) is a figure explaining the method of determining whether the imaged image is a gaze image. 処理手順のフローチャートである。It is a flowchart of a processing procedure. ステップS223の詳細フローチャートである。It is a detailed flowchart of step S223.

以降、本発明を実施するための形態(“本実施形態”という)を、図等を参照しながら詳細に説明する。   Hereinafter, a mode for carrying out the present invention (referred to as “the present embodiment”) will be described in detail with reference to the drawings.

(作業支援装置の構成及び環境)
図1に沿って、作業支援装置1の構成及び環境を説明する。作業員3は、作業支援装置1を携帯して設備2を点検している。本実施形態の設備2は、空調システムの屋外機である。作業支援装置1は、一般的な携帯型の端末装置(いわゆるタブレット)である。作業員3は、作業支援装置1のカメラ17を設備2に向けて、設備2の画像を撮像する。作業支援装置1の出力装置13は、カメラ17が撮像した注視画像及び予め記憶されている拡張現実画像(詳細後記)を重ねて表示する。
(Configuration and environment of work support device)
The configuration and environment of the work support apparatus 1 will be described with reference to FIG. The worker 3 carries the work support device 1 and inspects the facility 2. The facility 2 of this embodiment is an outdoor unit of an air conditioning system. The work support device 1 is a general portable terminal device (so-called tablet). The worker 3 points the camera 17 of the work support apparatus 1 toward the equipment 2 and takes an image of the equipment 2. The output device 13 of the work support device 1 displays the gaze image captured by the camera 17 and the augmented reality image (detailed later) stored in advance.

作業員3は、表示された画像を見ることによって具体的な作業の内容を理解することができる。作業支援装置1は、ヘッドマウンティング型であってもよい。ヘッドマウンティング型の作業支援装置1bは、眼鏡の形状を有しており、カメラ17を備えている。作業員3が設備2に向き合うと、作業支援装置1bのカメラ17は、設備2の画像を撮像する。携帯端末装置1bの出力装置13は、カメラ17が撮像した注視画像及び予め記憶されている拡張現実画像を重ねて表示する。携帯端末装置1bの出力装置13は、眼鏡のレンズと一体化されており、作業員3は、レンズを通して注視画像及び拡張現実画像を虚像として視認する。   The worker 3 can understand the details of the specific work by looking at the displayed image. The work support device 1 may be a head mounting type. The head mounting type work support device 1 b has a shape of glasses and includes a camera 17. When the worker 3 faces the facility 2, the camera 17 of the work support device 1b captures an image of the facility 2. The output device 13 of the mobile terminal device 1b displays the gaze image captured by the camera 17 and the augmented reality image stored in advance. The output device 13 of the portable terminal device 1b is integrated with a lens of glasses, and the worker 3 visually recognizes the gaze image and the augmented reality image as a virtual image through the lens.

以降では、作業支援装置1がタブレット型である例を説明する。なお、タブレット型の作業支援装置1のカメラ17もまた、一種の入力装置であると言える。しかしながら、ここでの入力装置12は、タッチパネルを想定しており、画像を撮像するカメラ17とは区別される。   Hereinafter, an example in which the work support device 1 is a tablet type will be described. It can be said that the camera 17 of the tablet-type work support device 1 is also a kind of input device. However, the input device 12 here is assumed to be a touch panel, and is distinguished from the camera 17 that captures an image.

作業支援装置1は、一般的な携帯型のコンピュータである。作業支援装置1は、中央制御装置11、入力装置12、出力装置13、主記憶装置14、補助記憶装置15、通信装置16及びカメラ17を有する。これらはバスで接続されている。補助記憶装置15は、作業手順書31、見本画像32、拡張現実画像33及び注視画像34(詳細後記)を格納している。主記憶装置14における、画像入力処理部21、画像出力処理部22、及び、注視画像代替部23は、プログラムである。以降の説明において、“○○部は”と動作主体を記した場合、それは、中央制御装置11が補助記憶装置15から○○部を読み出し、主記憶装置14にロードしたうえで○○部の機能(詳細後記)を実現することを意味する。   The work support apparatus 1 is a general portable computer. The work support device 1 includes a central control device 11, an input device 12, an output device 13, a main storage device 14, an auxiliary storage device 15, a communication device 16, and a camera 17. These are connected by a bus. The auxiliary storage device 15 stores a work procedure manual 31, a sample image 32, an augmented reality image 33, and a gaze image 34 (details will be described later). The image input processing unit 21, image output processing unit 22, and gaze image replacement unit 23 in the main storage device 14 are programs. In the following description, when the operation subject is described as “XX part”, it means that the central control unit 11 reads the XX part from the auxiliary storage device 15 and loads it into the main storage device 14 and then loads the XX part. It means to realize the function (detailed later).

作業支援装置1の補助記憶装置15が、作業支援装置1とは別の構成であるサーバ4(外部記憶装置)として分割されていてもよい。この場合、作業支援装置1の通信装置16は、有線又は無線のネットワーク5を介してサーバ4と接続され得る。なお、作業支援装置1は、複数のGPS(Global Positioning System)衛星からの電波を受信し、受信した電波を演算することによって、自身の位置情報(緯度及び経度)を取得することができる。   The auxiliary storage device 15 of the work support device 1 may be divided as a server 4 (external storage device) having a configuration different from that of the work support device 1. In this case, the communication device 16 of the work support device 1 can be connected to the server 4 via the wired or wireless network 5. The work support apparatus 1 can acquire its own position information (latitude and longitude) by receiving radio waves from a plurality of GPS (Global Positioning System) satellites and calculating the received radio waves.

(用語等)
作業は、ある作業場所において作業員3が行う業務である。本実施形態では、作業員3が行う1つの作業が、1つの作業場所に対応している。個々の作業は、時系列の複数の進捗段階を有する。例えば、“屋外機を点検する”という作業の最初の進捗段階は、“屋外機のカバーの四隅にあるネジをネジまわしで回転し、その後カバーを手前に取り外すこと”である。次の進捗段階は、“露出したファンの固定部材をスパナで取り外すこと”である(以下省略)。
(Terms etc.)
The work is a work performed by the worker 3 at a certain work place. In the present embodiment, one work performed by the worker 3 corresponds to one work place. Each task has a plurality of progress stages in time series. For example, the first progress stage of the work “inspecting the outdoor unit” is “rotating the screws at the four corners of the cover of the outdoor unit with a screwdriver and then removing the cover to the front”. The next stage of progress is “removing the exposed fan fixing member with a spanner” (hereinafter omitted).

注視画像は、カメラ17が時系列で連続的に撮像した画像のうち、作業員3がその対象物に向かって所定の基準を満たす程度に視線を維持し続けていた(注視していた)と評価される画像である。例えば、作業員3が設備2(屋外機)の前に立ち、ある時間の長さだけ、作業支援装置1の背面に取り付けられているカメラ17を設備2に向けると、屋外機を含む画像が注視画像として撮像される。作業の前後で偶然カメラ17に撮像される通路等の画像は、通常、注視画像とはならない。なお、作業員3がヘッドマウンティング型の作業支援装置1bを使用する場合は、作業員3がある時間の長さだけよそ見せずに屋外機を注視すると、屋外機を含む画像が注視画像として撮像されることになる。   The gaze image was that the worker 3 kept keeping his gaze to the extent that the worker 3 met a predetermined standard toward the target object among the images continuously captured in time series by the camera 17 (gazing). It is an image to be evaluated. For example, when the worker 3 stands in front of the facility 2 (outdoor unit) and points the camera 17 attached to the back of the work support apparatus 1 toward the facility 2 for a certain length of time, an image including the outdoor unit is displayed. Captured as a gaze image. An image of a passage or the like that is accidentally captured by the camera 17 before and after work is not usually a gaze image. When the worker 3 uses the head mounting type work support device 1b, if the worker 3 looks closely at the outdoor unit without looking away for a certain length of time, an image including the outdoor unit is captured as a gaze image. Will be.

拡張現実画像は、作業の内容を説明するコンピュータグラッフィック画像(人工画像)である。拡張現実画像は、例えば、作業員3が使用するべき工具の画像、設備2の部品の画像、工具及び部品の操作方法を示す矢印等の図形の画像、その他説明用の文字の画像等であり得る。なお、拡張現実(AR:Augmented Reality)は、現実の空間には存在しない物を、あたかも存在するかのように表現する技術である。   The augmented reality image is a computer graphic image (artificial image) explaining the content of the work. The augmented reality image is, for example, an image of a tool to be used by the worker 3, an image of a part of the equipment 2, an image of an arrow or the like indicating an operation method of the tool and the part, an image of a character for explanation, obtain. Note that augmented reality (AR) is a technique for expressing an object that does not exist in a real space as if it existed.

見本画像は、作業員3が作業の対象とするべき対象物(設備2)の画像である。作業場所(現場)で撮像される注視画像とは異なり、見本画像は、作業場所の設備2と同型式の見本をメーカの工場等で予め撮像しておいた画像である。   The sample image is an image of an object (equipment 2) that the worker 3 should work on. Unlike the gaze image captured at the work place (site), the sample image is an image obtained by capturing a sample of the same type as the equipment 2 at the work place in advance at a manufacturer's factory or the like.

見本画像と拡張現実画像は、進捗段階ごとに予め関連付けて記憶されている。より具体的には、補助記憶装置15に格納される作業手順書(詳細後記)において、見本画像の識別子と拡張現実画像の識別子とが、進捗段階ごとに相互に関連付けて記憶されている。つまり、多くの見本画像のうちから1つの見本画像が特定されると、拡張現実画像もまた特定される。要するに、見本画像は、拡張現実画像を特定するためのインデックスとしての機能を果たす。   The sample image and the augmented reality image are stored in advance in association with each progress stage. More specifically, in the work procedure manual (detailed later) stored in the auxiliary storage device 15, the identifier of the sample image and the identifier of the augmented reality image are stored in association with each other at each progress stage. That is, when one sample image is specified from many sample images, the augmented reality image is also specified. In short, the sample image functions as an index for specifying the augmented reality image.

詳細は後記するが、いま、ある注視画像が撮像され、その注視画像に類似する見本画像が特定されたとする。すると、その見本画像に関連付けられている拡張現実画像もまた特定される。このとき、注視画像と拡張現実画像とは、重ねて表示され得る。   Although details will be described later, it is assumed that a gaze image is captured and a sample image similar to the gaze image is specified. Then, the augmented reality image associated with the sample image is also specified. At this time, the gaze image and the augmented reality image can be displayed in an overlapping manner.

このように、撮像された注視画像は見本画像と比較される。そこで、この比較をより容易にするために、設備2に対してARマーカ6が張り付けられてもよい。ARマーカ6は、例えば市松模様の2次元バーコードである。見本画像にもまた、このARマーカに埋め込まれた情報を埋め込んでおく。すると、注視画像は、見本画像とより高い精度で比較され得る。なお、以降では、ARマーカを使用しない例を説明する。
作業手順書は、相互に関連付けられた見本画像及び拡張現実画像の組合せを、作業の進捗段階ごとに記憶したデータである(詳細後記)。
Thus, the captured gaze image is compared with the sample image. Therefore, in order to make this comparison easier, the AR marker 6 may be attached to the equipment 2. The AR marker 6 is, for example, a checkered two-dimensional barcode. Information embedded in the AR marker is also embedded in the sample image. Then, the gaze image can be compared with the sample image with higher accuracy. Hereinafter, an example in which the AR marker is not used will be described.
The work procedure manual is data in which a combination of a sample image and an augmented reality image associated with each other is stored for each progress stage of the work (details will be described later).

(基本的な考え方)
図2〜図5に沿って、本実施形態の基本的な考え方を説明する。これらの図のうち、図2及び図3は、作業支援装置1が既存技術のみを実施する場合を説明する図である。図4及び図5は、作業支援装置1が、既存技術とは異なる本実施形態を実施する場合を説明する図である。
(basic way of thinking)
The basic concept of this embodiment will be described with reference to FIGS. Of these figures, FIGS. 2 and 3 are diagrams for explaining a case where the work support apparatus 1 implements only the existing technology. 4 and 5 are diagrams for explaining a case where the work support apparatus 1 implements the present embodiment different from the existing technology.

まず、図2に注目する。作業の進捗段階T01startにおいて作業員3が作業の対象とするべき屋外機の画像が、見本画像51として補助記憶装置15に記憶されている。同じ進捗段階T01startにおいて行われるべき作業の内容が拡張現実画像52として、見本画像51に関連付けて補助記憶装置15に記憶されている。拡張現実画像52は、屋外機のカバーの四隅にあるネジをネジまわしで回転し、その後カバーを手前に取り外すことを図示している。 Attention is first directed to FIG. An image of the outdoor unit that the worker 3 should work on in the work progress stage T01 start is stored in the auxiliary storage device 15 as a sample image 51. The content of the work to be performed in the same progress stage T01 start is stored as an augmented reality image 52 in the auxiliary storage device 15 in association with the sample image 51. The augmented reality image 52 illustrates that the screws at the four corners of the cover of the outdoor unit are rotated with a screwdriver, and then the cover is removed to the front.

進捗段階T01startにおいて、カメラ17が注視画像54を撮像する。日当たり等の撮像条件が良好である場合、鮮明な注視画像54が撮像される。注視画像54は、屋外機に付着した汚れ等も忠実に表現している。作業支援装置1は、注視画像54を見本画像51と比較する。両者は全く同じ画像ではなく、少なくとも汚れの分だけ差分は生じる。作業支援装置1は、汚れの差分を考慮してもなお、注視画像54が見本画像51に類似していると判断する(R≒P)。 In the progress stage T01 start , the camera 17 captures the gaze image 54. When imaging conditions such as sunlight are good, a clear gaze image 54 is captured. The gaze image 54 faithfully represents dirt and the like attached to the outdoor unit. The work support apparatus 1 compares the gaze image 54 with the sample image 51. The two images are not exactly the same image, and a difference is generated at least by the amount of dirt. The work support apparatus 1 determines that the gaze image 54 is similar to the sample image 51 (R≈P) even if the difference in dirt is taken into account.

その後、作業支援装置1は、見本画像51に関連付けられている拡張現実画像52を取得し、取得した拡張現実画像52と注視画像54を出力装置13に重ねて表示する。このとき表示される画像が、表示画像53である。表示画像53を見た作業員3は、自身が行うべき作業の内容は、“屋外機のカバーの四隅にあるネジをネジまわしで回転し、その後カバーを手前に取り外す”ことであると理解する。   Thereafter, the work support device 1 acquires the augmented reality image 52 associated with the sample image 51 and displays the acquired augmented reality image 52 and the gaze image 54 on the output device 13 in a superimposed manner. The image displayed at this time is a display image 53. The worker 3 who sees the display image 53 understands that the content of the work to be performed is “rotate the screws at the four corners of the cover of the outdoor unit with a screwdriver and then remove the cover to the front”. .

後続する進捗段階においても考え方は全く同じである。但し、進捗段階T02においては、カバーが取り外されファンが露出している屋外機の注視画像56が撮像されるはずである。そのことを前提として、補助記憶装置15には、カバーが取り外されファンが露出している屋外機の見本画像55が記憶されている。進捗段階T03においては、ファンの固定部材が取り外された屋外機の注視画像58が撮像されるはずである。そのことを前提として、補助記憶装置15には、ファンの固定部材が取り外された屋外機の見本画像57が記憶されている。   The idea is exactly the same in the subsequent progress stages. However, in the progress stage T02, the gaze image 56 of the outdoor unit with the cover removed and the fan exposed should be taken. On the premise of this, the auxiliary storage device 15 stores a sample image 55 of an outdoor unit in which the cover is removed and the fan is exposed. In progress stage T03, a gaze image 58 of the outdoor unit from which the fan fixing member has been removed should be taken. On the premise of this, the auxiliary storage device 15 stores a sample image 57 of the outdoor unit from which the fan fixing member is removed.

図3に注目する。作業の進捗段階T01startの説明は、図2と同様である。進捗段階T02において、例えば雨が降り始め、又は、日が沈み、撮像条件が不良になっている。注視画像62は、人間の目で見れば、屋外機を夜間等に撮像したものであると辛うじて判断され得るものである。しかしながら、作業支援装置1が、注視画像62を、見本画像59と比較したとしても、両者が類似するものであるとは判断できない(R≠P)。すると、作業支援装置1は、拡張現実画像60を特定することができず、結果的に、注視画像62と拡張現実画像60とを重ねて表示することができない。つまり、作業員3は、表示画像61を実際には見ることができないまま、作業が中断する。したがって、図3の進捗段階T03にまで作業が進むことはあり得ない。 Attention is directed to FIG. The description of the work progress stage T01 start is the same as in FIG. In the progress stage T02, for example, it starts to rain or the sun goes down, and the imaging conditions are poor. The gaze image 62 can barely be determined to be an image of an outdoor unit taken at night or the like when viewed with human eyes. However, even if the work support apparatus 1 compares the gaze image 62 with the sample image 59, it cannot be determined that they are similar (R ≠ P). Then, the work support apparatus 1 cannot specify the augmented reality image 60 and, as a result, cannot display the gaze image 62 and the augmented reality image 60 in an overlapping manner. That is, the worker 3 suspends the work without actually seeing the display image 61. Therefore, the work cannot proceed to the progress stage T03 in FIG.

図4に注目する。作業の進捗段階T01startの説明は、図2と同様である。進捗段階T02においては、実際の作業場所の撮像条件は不良になっている。仮にカメラ17が注視画像を撮像したとしても、その注視画像が見本画像63に類似しないことは明らかである。そこで、作業支援装置1は、予め記憶していた見本画像63をコピーし、コピーした見本画像を、カメラ17が仮に撮像したとすれば撮像されたであろう注視画像と看做す。つまり、作業支援装置1は、見本画像自身を、見本画像と重ねて表示されるべき注視画像と看做す。そのうえで、作業支援装置1は、当該看做された注視画像66を見本画像63と比較する。当然のことながら、両者は完全に一致する(R=P)。その結果、作業支援装置1は、拡張現実画像64を特定し、看做された注視画像66と拡張現実画像64とを重ねて、表示画像65として表示することができる。 Attention is directed to FIG. The description of the work progress stage T01 start is the same as in FIG. In the progress stage T02, the imaging condition of the actual work place is poor. Even if the camera 17 captures a gaze image, it is clear that the gaze image is not similar to the sample image 63. Therefore, the work support apparatus 1 copies the sample image 63 stored in advance, and regards the copied sample image as a gaze image that would have been captured if the camera 17 had captured it. In other words, the work support apparatus 1 regards the sample image itself as a gaze image that should be displayed overlaid on the sample image. In addition, the work support device 1 compares the watched gaze image 66 with the sample image 63. As a matter of course, the two coincide completely (R = P). As a result, the work support apparatus 1 can identify the augmented reality image 64 and superimpose the viewed gaze image 66 and the augmented reality image 64 on the display image 65.

ここで、作業員3を管理すべき管理者の立場からは、作業員3が本当に設備2の作業場所において作業を行っていたのか否かを確認することが必要となる。その確認のために、作業支援装置1は、エビデンス(証拠)66bを取得し、進捗段階T02に関連付けて記憶する。エビデンス66bは、時刻情報、位置情報、不良な撮像条件で撮像された注視画像等である。   Here, from the standpoint of the manager who should manage the worker 3, it is necessary to confirm whether or not the worker 3 is actually working at the work place of the facility 2. For the confirmation, the work support apparatus 1 acquires evidence (evidence) 66b and stores it in association with the progress stage T02. The evidence 66b is time information, position information, a gaze image captured under poor imaging conditions, and the like.

図5に注目する。図5においては、作業員3が一連の進捗段階T01start〜T08endを終了した後、次の作業場所に移動し、次の一連の進捗段階T11start〜を開始するまでの期間が想定されている。まず、進捗段階T08endにおいて、拡張現実画像67は、“ここでの作業は終了です”という文字列の画像である。したがって、作業員3は、当該文字列を表示画像68として見ることができる。 Attention is directed to FIG. In FIG. 5, after the worker 3 completes a series of progress stages T01 start to T08 end , it is assumed that the worker 3 moves to the next work place and starts the next series of progress stages T11 start. Yes. First, in the progress stage T08 end , the augmented reality image 67 is an image of a character string “work here is finished”. Therefore, the worker 3 can see the character string as the display image 68.

いま、ある作業場所から次の作業場所まで移動する動作を広義の作業と解釈し、例えば進捗段階“T08:T11”と表現する。補助記憶装置15には、進捗段階T08:T11についての見本画像に代わって、位置情報69が記憶されている。この位置情報69は、一連の進捗段階T01start〜T08endの作業が行われた位置(緯度及び経度)を示している。さらに、補助記憶装置15は、当該位置情報69に関連付けて、案内情報を拡張現実画像70として記憶しておく。案内情報は、ある作業場所から次の作業場所への道順を示した地図(ビルの同一フロア内の平面図を含む)、次の作業場所で使用する工具の名称等を含んでいる。 Now, an operation of moving from one work place to the next work place is interpreted as work in a broad sense, and expressed as, for example, a progress stage “T08: T11”. The auxiliary storage device 15 stores position information 69 in place of the sample image for the progress stage T08: T11. The position information 69 indicates a position (latitude and longitude) where a series of progress stages T01 start to T08 end is performed. Further, the auxiliary storage device 15 stores the guide information as an augmented reality image 70 in association with the position information 69. The guide information includes a map (including a plan view on the same floor of the building) showing the route from one work place to the next work place, the name of a tool used at the next work place, and the like.

作業支援装置1は、自身の現在の位置情報72を取得することができる。作業支援装置1は、作業員3が入力装置12を介して“案内情報要求ボタン”を押下するのを受け付けたことを契機として、自身の現在の位置情報72を、記憶されている位置情報69と比較する。両者が所定の基準を満たす程度に類似している場合、作業支援装置1は、拡張現実画面70を特定し、特定した拡張現実画像70をそのまま(他の画像と重ねることなく)表示画像71として表示することができる。   The work support apparatus 1 can acquire the current position information 72 of itself. The work support apparatus 1 receives its current position information 72 as the stored position information 69 in response to the reception of the operator 3 pressing the “guidance information request button” via the input device 12. Compare with When both are similar to the extent that satisfies a predetermined standard, the work support apparatus 1 identifies the augmented reality screen 70 and uses the identified augmented reality image 70 as a display image 71 as it is (without overlapping with other images). Can be displayed.

進捗段階T11start以降は、図2の進捗段階T01start以降と同様であるので詳しい説明を省略する。作業員3は、次の作業場所における作業の内容として、別の屋外機(縦型形状)を点検することになる。 Since the progress stage T11 start and after are the same as the progress stage T01 start and after in FIG. The worker 3 checks another outdoor unit (vertical shape) as the contents of work at the next work place.

(作業手順書)
図6に沿って、作業手順書31を説明する。作業手順書31においては、作業場所ID欄101に記憶された作業場所IDに関連付けて、進捗段階ID欄102には進捗段階IDが、見本画像ID欄103には見本画像IDが、拡張現実画像ID欄104には拡張現実画像IDが、表示画像欄105には表示画像が、注視画像撮像要否欄106には注視画像撮像要否が、注視画像ID欄107には注視画像IDが記憶されている。
(Operating procedures)
The work procedure manual 31 will be described with reference to FIG. In the work procedure manual 31, the progress stage ID is stored in the progress stage ID field 102, the sample image ID is stored in the sample image ID field 103, and the augmented reality image is associated with the work place ID stored in the work place ID field 101. The ID field 104 stores the augmented reality image ID, the display image field 105 stores the display image, the gaze image imaging necessity column 106 indicates whether the gaze image imaging is necessary, and the gaze image ID column 107 stores the gaze image ID. ing.

作業場所ID欄101の作業場所IDは、作業員3が作業を行う作業場所を一意に特定する識別子である。作業員3がある作業場所から次の作業場所に移動するまでの作業場所IDは、“SS01:SS02”のように、前後の作業場所IDの組合せになっている。
進捗段階ID欄102の進捗段階IDは、前記した作業段階を一意に特定する識別子である。ある作業場所における最初の進捗段階の進捗段階IDには“start”が付され、最後の進捗段階の進捗段階IDには“end”が付される。移動中の進捗段階の進捗段階IDは、“T08:T11” のように、前後の進捗段階IDの組合せになっている。
The work place ID in the work place ID column 101 is an identifier that uniquely identifies the work place where the worker 3 performs work. The work place ID until the worker 3 moves from one work place to the next work place is a combination of the preceding and following work place IDs, such as “SS01: SS02”.
The progress stage ID in the progress stage ID column 102 is an identifier that uniquely identifies the work stage described above. “ Start ” is attached to the progress stage ID of the first progress stage at a certain work place, and “ end ” is attached to the progress stage ID of the last progress stage. The progress stage ID of the progress stage being moved is a combination of the preceding and following progress stage IDs, such as “T08: T11”.

見本画像ID欄103の見本画像IDは、見本画像を一意に特定する識別子である。
拡張現実画像ID欄104の拡張現実画像IDは、拡張現実画像を一意に特定する識別子である。但し、例外的に、作業員3が移動中の進捗段階“T08:T11”等には、位置情報が記憶されている。
The sample image ID in the sample image ID column 103 is an identifier that uniquely identifies the sample image.
The augmented reality image ID in the augmented reality image ID column 104 is an identifier that uniquely identifies the augmented reality image. However, exceptionally, position information is stored in the progress stage “T08: T11” or the like while the worker 3 is moving.

表示画像欄105の表示画像は、出力装置13に表示されるべき画像である。例えば1行目の“AR01+注視画像”は、進捗段階T01startにおいて、拡張現実画像“AR01”と作業場所にて撮像されることになる注視画像とが重ねて表示されることを示している。さらに、9行目の“AR99”は、進捗段階T08:T11において、拡張現実画像“AR91”が他の画像と重ねられることなく単独で表示されることを示している。なお、“AR91”は、案内情報である。 The display image in the display image column 105 is an image to be displayed on the output device 13. For example, “AR01 + gaze image” in the first row indicates that the augmented reality image “AR01” and the gaze image to be captured at the work place are displayed in an overlapping manner in the progress stage T01 start . Furthermore, “AR99” on the ninth line indicates that the augmented reality image “AR91” is displayed alone without being superimposed on another image in the progress stage T08: T11. “AR91” is guidance information.

注視画像撮像要否欄106の注視画像撮像要否は、“要”又は“否”のいずれかである。“要”は、当該進捗段階において、注視画像が撮像されることが前提になっていることを示す。“否”は、当該進捗段階において、注視画像が撮像されることが前提になっていないこと、又は、良好な撮像条件での撮像に失敗したことを示す。当然のことながら、移動中を除く各進捗段階における注視画像撮像要否は、原則“要”である。   Whether or not a gaze image is necessary in the gaze image imaging necessity column 106 is “necessary” or “no”. “Necessary” indicates that a gaze image is assumed to be captured in the progress stage. “No” indicates that it is not assumed that a gaze image is captured in the progress stage, or that imaging under good imaging conditions has failed. As a matter of course, the necessity of capturing a gaze image at each progress stage except during movement is “necessary” in principle.

注視画像ID欄107の注視画像IDは、注視画像を一意に特定する識別子である。但し、図6の作業手順書31は、作業員3が作業場所に出かける前の時点のものであり、その時点では、注視画像は未だ撮像されていない。そこで、各レコードの注視画像ID欄107には、注視画像は未だ撮像されていないことを示す“P?”が記憶される。但し、注視画像撮像要否が“否”であるレコードの注視画像ID欄107には、“−”が記憶されている。“−”は、そもそも注視画像が撮像される予定ではないことを示している。   The gaze image ID in the gaze image ID column 107 is an identifier that uniquely identifies the gaze image. However, the work procedure manual 31 of FIG. 6 is the time before the worker 3 goes out to the work place, and the gaze image has not yet been captured at that time. Therefore, “P?” Indicating that the gaze image has not yet been captured is stored in the gaze image ID column 107 of each record. However, “-” is stored in the gaze image ID column 107 of the record in which the gaze image capturing necessity is “no”. “-” Indicates that a gaze image is not scheduled to be captured in the first place.

図7に沿って、作業手順書31を説明する。図6の作業手順書31が、作業員3が作業場所において作業を行う前の時点でのものであるのに対し、図7の作業手順書31は、作業員3が実際に作業場所において作業を進めた結果データが更新された後の時点のものである。図7の作業手順書31の構成は、エビデンス欄108が追加されていることを除き、図6と同じである。エビデンス欄108のエビデンス“##”は、作業員3がその作業場所で確かに作業を行っていたことを示す任意のデータを省略的に示している。前記したように、エビデンスは、時刻情報、位置情報、不良な撮像条件で撮像された注視画像等である。   The work procedure manual 31 will be described with reference to FIG. The work procedure manual 31 in FIG. 6 is the one before the worker 3 performs work at the work place, whereas the work procedure manual 31 in FIG. 7 is the work procedure manual 31 in FIG. This is the time after the result data updated is updated. The configuration of the work procedure manual 31 of FIG. 7 is the same as that of FIG. 6 except that the evidence column 108 is added. The evidence “##” in the evidence column 108 omits arbitrary data indicating that the worker 3 is surely working at the work place. As described above, the evidence includes time information, position information, a gaze image captured under poor imaging conditions, and the like.

次に、図6及び図7を、そのデータの内容の相違点に注目して比較する。
(相違点1)
前記の図6の1行目のレコードでは、注視画像IDは“P?”である。それに対して、図7の1行目のレコードでは、注視画像IDは“P01”である。このことは、以下のことを示している。
・進捗段階T01startにおいて、作業場所では予定通り注視画像が撮像されたこと。
・その注視画像を特定する注視画像IDが“P01”であること。
なお、図6及び図7の3〜8及び15行目のレコードについても同様である。
Next, FIG. 6 and FIG. 7 are compared by paying attention to the difference in the contents of the data.
(Difference 1)
In the record in the first row in FIG. 6, the gaze image ID is “P?”. On the other hand, the gaze image ID is “P01” in the record in the first row of FIG. This indicates the following.
In the progress stage T01 start , the gaze image was taken as planned at the work place.
The gaze image ID that identifies the gaze image is “P01”.
The same applies to the records in the 3rd to 8th and 15th rows in FIGS.

(相違点2)
前記の図6の2行目のレコードでは、注視画像撮像要否は“要”であり、注視画像IDは“P?”である。それに対して、図7の2行目のレコードでは、注視画像撮像要否は“否”であり、注視画像IDは“R02”であり、さらにエビデンス“##”が追加されている。このことは、以下のことを示している。
(Difference 2)
In the record in the second row in FIG. 6, the gaze image capturing necessity is “necessary”, and the gaze image ID is “P?”. On the other hand, in the record in the second row in FIG. 7, the gaze image capturing necessity is “no”, the gaze image ID is “R02”, and evidence “##” is added. This indicates the following.

・進捗段階T02において、作業場所では、撮像条件が不良であることに起因してカメラ17は、見本画像に類似する注視画像を撮像することができなかったこと。
・そのため、見本画像“R02”が、本来撮像されるべき注視画像と看做されたこと。
・作業員が作業場所“SS01”において確かに作業を行っていたことを示すエビデンスが取得されたこと。
In progress stage T02, the camera 17 could not capture a gaze image similar to the sample image due to the poor imaging conditions at the work place.
Therefore, the sample image “R02” is regarded as a gaze image that should be captured.
・ Evidence indicating that the worker was surely working at the work place “SS01” was obtained.

(相違点3)
前記の図6の10〜13行目のレコードでは、注視画像撮像要否は“要”であり、注視画像IDは“P?”である。それに対して、図7の10〜13行目のレコードでは、注視画像撮像要否は“否”であり、注視画像IDは“R11”、“R12”、“R13”及び“R14”であり、さらにエビデンス“##”が追加されている。このことは、以下のことを示している。
(Difference 3)
In the records on the 10th to 13th rows in FIG. 6, the necessity for capturing the gaze image is “necessary” and the gaze image ID is “P? On the other hand, in the records in the 10th to 13th lines in FIG. 7, the gaze image imaging necessity is “No”, and the gaze image IDs are “R11”, “R12”, “R13”, and “R14”. In addition, evidence “##” is added. This indicates the following.

・作業員3は、作業場所“SS02”においては、屋外機が殆ど照明のない場所に配置されている、不良な撮像条件がしばらく続きそうである等の事情により、注視画像が撮像されることを前提にしないことを決定したこと。
・そのため、見本画像“R11”、“R12”、“R13”及び“R14”が、本来撮像されるべき注視画像と看做されたこと。
・作業員が作業場所“SS02”において確かに作業を行っていたことを示すエビデンスが取得されたこと。
-Worker 3 takes a gaze image at work place “SS02” because the outdoor unit is placed in a place with almost no illumination, or bad imaging conditions are likely to continue for a while. It was decided not to assume.
Therefore, the sample images “R11”, “R12”, “R13”, and “R14” are regarded as gaze images that should be captured.
・ Evidence indicating that the worker was actually working at the work place “SS02” has been obtained.

(画像間の類似度)
2つの画像間の類似度を比較する技術が一般に普及している。本実施形態において、作業支援装置1は、任意の既存技術を使用して2つの画像間の類似度を算出する。ここでの既存技術とは、例えば、エッジ(輪郭)検出、エッジの方向検出、形状検出、画素値検出、色彩検出、見本画像をテンプレートとしたテンプレートマッチング、検出結果の数値化等の技術を含む。作業支援装置1は、このような既存技術を使用し、2つの画像間の差異を数値化し、その差異が小さいほど大きな類似度を出力するものとする。作業支援装置1がこのように2つの画像間の類似度を算出する場合は2種類存在する。その1つは、撮像された画像が注視画像であるか否かを判断する場合であり、他の1つは、注視画像を見本画像と比較する場合である。
(Similarity between images)
A technique for comparing the similarity between two images is generally popular. In the present embodiment, the work support device 1 calculates the similarity between two images using any existing technology. The existing techniques here include techniques such as edge (contour) detection, edge direction detection, shape detection, pixel value detection, color detection, template matching using a sample image as a template, and detection result quantification. . It is assumed that the work support apparatus 1 uses such an existing technology, digitizes the difference between two images, and outputs a greater similarity as the difference is smaller. When the work support apparatus 1 calculates the similarity between two images in this way, there are two types. One is a case where it is determined whether or not the captured image is a gaze image, and the other is a case where the gaze image is compared with the sample image.

(撮像された画像が注視画像であるか否かの判断)
図8に沿って、撮像された画像が注視画像であるか否かを判断する方法を説明する。まず、図8(a)に注目する。いま、カメラ17は、11個の連続画像A、B、・・・、Kを所定の時間周期(例えば1秒)で撮像したとする。作業支援装置1は、時間的に隣接する2個の画像について、“画像間の類似度”で前記した既存の方法で類似度を算出する。すると、画像Aと画像Bとの類似度、画像Bと画像Cとの類似度、・・・、画像Jと画像Kとの類似度のように、合計10個の類似度が算出されることになる。
(Determining whether the captured image is a gaze image)
A method for determining whether or not a captured image is a gaze image will be described with reference to FIG. First, attention is focused on FIG. Now, it is assumed that the camera 17 has captured 11 consecutive images A, B,..., K at a predetermined time period (for example, 1 second). The work support apparatus 1 calculates the similarity between two temporally adjacent images by the existing method described above as “similarity between images”. Then, a total of 10 similarities are calculated, such as the similarity between image A and image B, the similarity between image B and image C,..., The similarity between image J and image K. become.

作業支援装置1は、横軸が時間であり縦軸が類似度である座標平面に、このように算出した10個の類似度をプロットする(図8(a)の“●”)。作業員3が、例えば5秒間ある設備2を注視している場合、カメラ17は、その5秒間において、殆ど同じ画像を例えば5個撮像することになる。この5個の画像について、4個の類似度が算出されることになる。これらの類似度は、充分大きい。すると、これらの類似度を示す“●”は、座標平面の上の方に集まる。   The work support apparatus 1 plots the ten similarities calculated in this way on a coordinate plane in which the horizontal axis is time and the vertical axis is similarity (“●” in FIG. 8A). When the worker 3 is gazing at the equipment 2 for 5 seconds, for example, the camera 17 captures, for example, five almost the same images in the 5 seconds. Four similarities are calculated for these five images. These similarities are sufficiently large. Then, “●” indicating these similarities gathers on the upper side of the coordinate plane.

一方、作業員3が、例えば5秒間特定の対象物を注視することなく、何か考えごとをしている場合、カメラ17は、その5秒間において、充分異なる画像を例えば5個撮像することになる。図8(a)からは離れるが、この5個の画像についても4個の類似度が算出されることになる。これらの類似度は、充分小さい。すると、これらの類似度を示す“●”は、座標平面の下の方に集まる。   On the other hand, when the worker 3 is thinking about something without gazing at a specific object for 5 seconds, for example, the camera 17 captures, for example, 5 sufficiently different images during the 5 seconds. . Although away from FIG. 8A, four similarities are calculated for these five images. These similarities are sufficiently small. Then, “●” indicating these similarities gathers below the coordinate plane.

図8(a)において、類似度に対する閾値がTHである場合、作業支援装置1は、画像Dと画像E、画像Eと画像F、画像Fと画像G、及び、画像Gと画像Hは類似していると判断する。そして、5つの画像D〜Hのうち、例えば中央の画像Fを注視画像とする。仮に、閾値がTHである場合、類似度に関するハードルが高いので、作業支援装置1は、注視画像を検出しない。 In FIG. 8A, when the threshold value for the similarity is TH 1 , the work support apparatus 1 determines that the image D and the image E, the image E and the image F, the image F and the image G, and the image G and the image H are Judge that they are similar. Of the five images D to H, for example, the center image F is set as a gaze image. If the threshold is TH 0 , the hurdle regarding the similarity is high, so the work support apparatus 1 does not detect the gaze image.

類似度に対する閾値が必要以上に厳しい(より大きな類似度を要求する)と、作業支援装置1は、撮像された画像のうちから、見本画像と比較するべき注視画像を取得することができなくなる。図8(b)において、閾値がTHを起点として、TH、THの順に小さくなると、注目画像がより高い確率で取得され得ることになる。 If the threshold for similarity is severer than necessary (requesting a larger similarity), the work support apparatus 1 cannot acquire a gaze image to be compared with the sample image from the captured images. In FIG. 8B, when the threshold value becomes smaller in the order of TH 2 and TH 3 starting from TH 1 , the target image can be acquired with a higher probability.

(注視画像と見本画像との間の類似度)
作業支援装置1は、“画像間の類似度”で前記した既存の方法で、注視画像と見本画像との間の類似度を算出する。その際に類似度に対して適用される閾値は、図8の閾値とは、同じものであってもよいし、別のものであってもよい。以降では、注視画像と見本画像との間の類似度を算出するための閾値(“マッチング閾値”と呼ぶ)が、撮像された画像が注視画像であるか否かを判断するための閾値(図8)とは別のものであることを前提として説明を続ける。マッチング閾値が必要以上に厳しいと、注視画像が取得されても、作業支援装置1は、注視画像は見本画像に類似していないと判断し続けることになる。したがって、後記するフローチャートにおいて、作業支援装置1は、マッチング閾値を変更する。
(Similarity between gaze image and sample image)
The work support apparatus 1 calculates the similarity between the gaze image and the sample image by the existing method described above for “similarity between images”. In this case, the threshold applied to the similarity may be the same as or different from the threshold in FIG. Hereinafter, a threshold for calculating the similarity between the gaze image and the sample image (referred to as a “matching threshold”) is a threshold for determining whether or not the captured image is a gaze image (see FIG. The description will be continued on the assumption that it is different from 8). If the matching threshold is stricter than necessary, the work support apparatus 1 continues to determine that the gaze image is not similar to the sample image even if the gaze image is acquired. Therefore, in the flowchart described later, the work support apparatus 1 changes the matching threshold value.

(処理手順)
図9に沿って、処理手順を説明する。処理手順を開始する前提として、ユーザ(作業員3又はその管理者)は、作業手順書31、見本画像32及び拡張現実画像33を既に作成し終えているものとする。さらに、説明の単純化のため、作成済の作業手順書31は、図6の1行目〜8行目のレコードのみを有しているものとする。他のレコードについては、別途説明する。
(Processing procedure)
A processing procedure will be described with reference to FIG. As a premise for starting the processing procedure, it is assumed that the user (worker 3 or its manager) has already created the work procedure manual 31, the sample image 32, and the augmented reality image 33. Furthermore, for simplification of explanation, it is assumed that the created work procedure manual 31 includes only records in the first to eighth lines in FIG. Other records will be described separately.

ステップS201において、作業支援装置1の画像入力処理部21は、作業手順書31を受け付ける。具体的には、第1に、画像入力処理部21は、ユーザが入力装置12を介して作業手順書31(図6)を入力するのを受け付ける。   In step S <b> 201, the image input processing unit 21 of the work support apparatus 1 receives a work procedure manual 31. Specifically, first, the image input processing unit 21 accepts that the user inputs the work procedure manual 31 (FIG. 6) via the input device 12.

第2に、画像入力処理部21は、受け付けた作業手順書31にそのIDが記憶されているすべての見本画像32及びすべての拡張現実画像33をユーザが入力装置12を介して入力するのを受け付ける。
第3に、画像入力処理部21は、ステップS201の“第1”及び“第2”において受け付けた情報を補助記憶装置15に記憶する。
Secondly, the image input processing unit 21 allows the user to input all sample images 32 and all augmented reality images 33 whose IDs are stored in the received work procedure manual 31 via the input device 12. Accept.
Third, the image input processing unit 21 stores the information received in “first” and “second” in step S201 in the auxiliary storage device 15.

ステップS202において、画像入力処理部21は、見本画像を取得する。具体的には、画像入力処理部21は、作業手順書31の未処理のレコードのうち先頭のレコードを取得する。以降、ここで取得されたレコードを“対象レコード”と呼ぶ。画像入力処理部21は、対象レコードの見本画像IDが特定する見本画像を補助記憶装置15から取得し、主記憶装置14に一時的に記憶する。以降、ここで取得された見本画像を“対象見本画像”と呼ぶことがある。なお、繰り返し処理における最初の対象レコードは、進捗段階が“start”を含むレコードである。 In step S202, the image input processing unit 21 acquires a sample image. Specifically, the image input processing unit 21 acquires the first record among the unprocessed records in the work procedure manual 31. Hereinafter, the record acquired here is referred to as “target record”. The image input processing unit 21 acquires the sample image specified by the sample image ID of the target record from the auxiliary storage device 15 and temporarily stores it in the main storage device 14. Hereinafter, the sample image acquired here may be referred to as a “target sample image”. Note that the first target record in the iterative process is a record whose progress stage includes “ start ”.

ステップS203において、画像入力処理部21は、タイマ及びカウンタを初期化する。具体的には、画像入力処理部21は、タイマ値を“0”に設定し、カウンタ値を“0”に設置する。その後、タイマは、時間の経過に応じて、タイマ値を増加させていく。   In step S203, the image input processing unit 21 initializes a timer and a counter. Specifically, the image input processing unit 21 sets the timer value to “0” and sets the counter value to “0”. Thereafter, the timer increases the timer value as time elapses.

ステップS204において、画像入力処理部21は、カメラ17を使用するか否かを判断する。具体的には、画像入力処理部21は、ユーザが入力装置12を介してカメラ17を使用する旨の指示を入力するのを受け付けた場合(ステップS204“Yes”)、カメラ17を運転状態にしたうえで、ステップS205に進む。画像入力処理部21は、カメラ17を使用しない旨の指示を受け付けた場合(ステップS204“No”)、カメラ17を停止状態にしたうえで、ステップS207に進む。   In step S <b> 204, the image input processing unit 21 determines whether to use the camera 17. Specifically, when the image input processing unit 21 accepts that the user inputs an instruction to use the camera 17 via the input device 12 (step S204 “Yes”), the image input processing unit 21 sets the camera 17 to an operating state. Then, the process proceeds to step S205. When receiving an instruction not to use the camera 17 (step S204 “No”), the image input processing unit 21 stops the camera 17 and then proceeds to step S207.

ステップS205において、画像入力処理部21は、対象物を注視しているか否かを判断する。具体的には、画像入力処理部21は、カメラ17が所定の時間的周期で撮像した画像から、図8で前記した方法によって注目画像を取得できるか否かを判断する。画像入力処理部21は、注目画像が取得できる場合(ステップS205“Yes”)、ステップS206に進み、注目画像が取得できない場合(ステップS205“No”)、ステップS216に進む。   In step S205, the image input processing unit 21 determines whether or not the object is being watched. Specifically, the image input processing unit 21 determines whether or not a target image can be acquired from the image captured by the camera 17 at a predetermined time period by the method described above with reference to FIG. If the target image can be acquired (step S205 “Yes”), the image input processing unit 21 proceeds to step S206. If the target image cannot be acquired (step S205 “No”), the process proceeds to step S216.

ステップS206において、画像入力処理部21は、注視画像を取得する。具体的には、図8(a)で前記したように、撮像された画像のうち類似している一連の画像の中央の画像を注視画像として取得し、補助記憶装置15に記憶する。   In step S206, the image input processing unit 21 acquires a gaze image. Specifically, as described above with reference to FIG. 8A, the center image of a series of similar images among the captured images is acquired as a gaze image and stored in the auxiliary storage device 15.

ステップS207において、作業支援装置1の注視画像代替部23は、見本画像を注視画像と看做す。具体的には、注視画像代替部23は、対象見本画像を注視画像と看做し、注視画像34として補助記憶装置15に記憶する。
つまり、注視画像代替部23は、対象見本画像のコピーを作成し、作成したコピーを注視画像34として補助記憶装置15に記憶する。そして、ここで看做された注視画像(対象見本画像のコピーである注視画像)を、以降“看做し注視画像”と呼ぶことがある。なお、これらのことは、後記するステップS232及びS237においても同様である。
In step S207, the gaze image replacement unit 23 of the work support apparatus 1 considers the sample image as a gaze image. Specifically, the gaze image replacement unit 23 regards the target sample image as a gaze image and stores it as the gaze image 34 in the auxiliary storage device 15.
That is, the gaze image replacement unit 23 creates a copy of the target sample image and stores the created copy in the auxiliary storage device 15 as the gaze image 34. The gaze image viewed here (a gaze image that is a copy of the target sample image) may be hereinafter referred to as a “view gaze image”. The same applies to steps S232 and S237 described later.

ステップS208において、注視画像代替部23は、エビデンスを受け付ける。具体的には、注視画像代替部23は、現在の位置情報又は時刻情報をエビデンス(証拠)として取得する。   In step S208, the gaze image replacement unit 23 receives evidence. Specifically, the gaze image replacement unit 23 acquires the current position information or time information as evidence (evidence).

ステップS209において、作業支援装置1の画像出力処理部22は、注視画像と見本画像との類似度を算出する。具体的には、画像出力処理部22は、前記した既存技術を使用して、ステップS206において取得された注視画像又は看做し注視画像を、対象見本画像と比較し、両者間の類似度を算出する。なお、ステップS207を経由した場合、当然のことながら、注視画像は、対象見本画像に完全に一致する。   In step S209, the image output processing unit 22 of the work support apparatus 1 calculates the similarity between the gaze image and the sample image. Specifically, the image output processing unit 22 compares the gaze image or the gaze image obtained in step S206 with the target sample image using the existing technology described above, and determines the similarity between the two. calculate. In addition, when going through step S207, it is natural that the gaze image completely matches the target sample image.

ステップS210において、画像出力処理部22は、類似度が閾値以上であるか否かを判断する。具体的には、画像出力処理部22は、ステップS209において算出された類似度が所定の閾値(マッチング閾値)以上である場合(ステップS210“Yes”)、ステップS211に進み、それ以外の場合(ステップS210“No”)、ステップS217に進む。   In step S210, the image output processing unit 22 determines whether the similarity is greater than or equal to a threshold value. Specifically, when the similarity calculated in step S209 is equal to or greater than a predetermined threshold (matching threshold) (step S210 “Yes”), the image output processing unit 22 proceeds to step S211 and otherwise ( Step S210 “No”), the process proceeds to Step S217.

ステップS211において、画像出力処理部22は、拡張現実画像33を取得する。具体的には、第1に、画像出力処理部22は、作業手順書31(図6)を参照し、対象レコードの拡張現実画像IDを取得する。
第2に、画像出力処理部22は、ステップS211の“第1”において取得した拡張現実画像IDが特定する拡張現実画像33を補助記憶装置15から取得する。
In step S <b> 211, the image output processing unit 22 acquires the augmented reality image 33. Specifically, first, the image output processing unit 22 refers to the work procedure manual 31 (FIG. 6) and acquires the augmented reality image ID of the target record.
Second, the image output processing unit 22 acquires the augmented reality image 33 specified by the augmented reality image ID acquired in “first” in step S211 from the auxiliary storage device 15.

ステップS212において、画像出力処理部22は、拡張現実画像33及び注視画像34を重ねて表示する。具体的には、ステップS211の“第2”において取得された拡張現実画像33と、ステップS206で取得された注視画像又は看做し注視画像とを出力装置13に重ねて表示する。   In step S212, the image output processing unit 22 displays the augmented reality image 33 and the gaze image 34 in a superimposed manner. Specifically, the augmented reality image 33 acquired in “second” in step S211 and the gaze image or the gaze image acquired in step S206 are displayed on the output device 13 in an overlapping manner.

ステップS213において、画像出力処理部22は、すべての進捗段階が終了したか否かを判断する。具体的には、画像出力処理部22は、対象レコードの進捗段階が“end”を含む場合(ステップS213“Yes”)、ステップS215に進む。画像出力処理部22は、それ以外の場合(ステップS213“No”)、ステップS214に進む。 In step S213, the image output processing unit 22 determines whether all progress stages have been completed. Specifically, when the progress stage of the target record includes “ end ” (step S213 “Yes”), the image output processing unit 22 proceeds to step S215. In other cases (step S213 “No”), the image output processing unit 22 proceeds to step S214.

ステップS214において、画像出力処理部22は、一時中断するか否かを判断する。具体的には、画像出力処理部22は、ユーザが入力装置12を介して作業を一時中断する旨の指示、又は、作業を続行する旨の指示を入力するのを受け付ける。そして、画像出力処理部22は、一時中断する旨の指示を受け付けた場合(ステップS214“Yes”)、ステップS215に進み、続行する旨の指示を受け付けた場合(ステップS214“No”)、ステップS202に戻る。ステップS202に戻った後、作業手順書31の未処理の次のレコードが対象レコードとして取得され、その対象レコードの見本画像IDが特定する見本画像が対象見本画像とされたうえで、同様の処理が繰り返されることになる。   In step S214, the image output processing unit 22 determines whether or not to suspend temporarily. Specifically, the image output processing unit 22 accepts that the user inputs an instruction to suspend the work or an instruction to continue the work via the input device 12. If the image output processing unit 22 receives an instruction to suspend (step S214 “Yes”), the image output processing unit 22 proceeds to step S215, and receives an instruction to continue (step S214 “No”). Return to S202. After returning to step S202, the next unprocessed record of the work procedure manual 31 is acquired as the target record, and the sample image specified by the sample image ID of the target record is set as the target sample image, and the same processing is performed. Will be repeated.

ステップS215において、画像出力処理部22は、作業手順書31を保存する。ステップS206を経由した場合と、ステップS207を経由した場合とで当該ステップの処理の内容は異なる。具体的には、ステップS206を経由した場合には、画像出力処理部22は、対象レコードの注視画像IDを、“P?”から、実際に撮像された注視画像を特定する注視画像ID(“P01”等)に変更したうえで、作業手順書31を更新する。   In step S215, the image output processing unit 22 stores the work procedure manual 31. The contents of the process in this step differ depending on whether the process passes through step S206 or S207. Specifically, in the case of passing through step S206, the image output processing unit 22 uses the gaze image ID (““? ”) That identifies the gaze image actually captured from“ P? ”As the gaze image ID of the target record. The work procedure manual 31 is updated.

ステップS207を経由した場合には、画像出力処理部22は、対象レコードの注視画像撮像要否を、“要”から“否”に変更する。つぎに、画像出力処理部22は、対象レコードの注視画像IDを、“P?”から、看做し注視画像の見本画像ID(“R02”等)に変更する。さらに、画像出力処理部22は、対象レコードのエビデンス欄108を設け、当該欄にステップS208において取得されたエビデンスを記憶する。結局、画像出力処理部22は、撮像された注視画面又は看做し注視画面を時系列で記憶することになる。   In the case of passing through step S207, the image output processing unit 22 changes whether or not the gaze image capturing necessity of the target record is necessary from “necessary” to “no”. Next, the image output processing unit 22 changes the gaze image ID of the target record from “P?” To a sample image ID (“R02” or the like) of the gaze image. Furthermore, the image output processing unit 22 provides an evidence column 108 for the target record, and stores the evidence acquired in step S208 in the column. Eventually, the image output processing unit 22 stores the captured gaze screen or the watch gaze screen in time series.

ステップS216において、作業支援装置1の画像入力処理部21は、タイマ値が閾値以上であるか否かを判断する。具体的には、画像入力処理部21は、現時点のタイマ値が所定の閾値以上である場合(ステップS216“Yes”)、ステップS219に進み、それ以外の場合(ステップS216“No”)、ステップS205に戻る。   In step S216, the image input processing unit 21 of the work support apparatus 1 determines whether the timer value is equal to or greater than a threshold value. Specifically, if the current timer value is greater than or equal to a predetermined threshold (step S216 “Yes”), the image input processing unit 21 proceeds to step S219, otherwise (step S216 “No”), step Return to S205.

ステップS210“No”に続くステップS217において、画像入力処理部21は、カウンタ値に“1”を加算する。因みに、このカウンタ値は、例えば対象見本画像にはない対象物を注視していた(よそ見していた)回数である。   In step S217 following step S210 “No”, the image input processing unit 21 adds “1” to the counter value. Incidentally, this counter value is, for example, the number of times that an object that is not included in the target sample image is being watched (looked away).

ステップS218において、画像入力処理部21は、カウンタ値が閾値以上であるか否かを判断する。具体的には、画像入力処理部21は、現時点のカウンタ値が所定の閾値以上である場合(ステップS218“Yes”)、ステップS219に進み、それ以外の場合(ステップS218“No”)、ステップS205に戻る。   In step S218, the image input processing unit 21 determines whether the counter value is equal to or greater than a threshold value. Specifically, if the current counter value is greater than or equal to a predetermined threshold (step S218 “Yes”), the image input processing unit 21 proceeds to step S219, otherwise (step S218 “No”), step Return to S205.

ステップS219において、作業支援装置1の画像出力処理部22は、注意メッセージを表示する。具体的には、画像出力処理部22は、“よそ見を控えて下さい”、“作業に集中して下さい”等の注意メッセージを出力装置13に表示する。   In step S219, the image output processing unit 22 of the work support apparatus 1 displays a caution message. Specifically, the image output processing unit 22 displays a warning message such as “please refrain from looking away” and “concentrate on work” on the output device 13.

ステップS220において、作業支援装置1の画像入力処理部21は、応答を受け付ける。具体的には、画像入力処理部21は、入力装置12に“中止”、“やり直し”及び“続行”の3つのボタンを表示し、ユーザがそれらのうちのいずれかを押下するのを受け付ける。“やり直し”は、作業員3が直近の過去の進捗段階を繰り返したい場合等に押下される。“中止”と“一時中断”とは区別される。“一時中断”は、作業員3が未だ行っていない進捗段階をいずれは再開することを意味している。一方、“中止”は、作業員3が未だ行っていない進捗段階を放棄してしまうことを意味する。   In step S220, the image input processing unit 21 of the work support device 1 receives a response. Specifically, the image input processing unit 21 displays three buttons “stop”, “redo”, and “continue” on the input device 12, and accepts that the user presses one of them. “Redo” is pressed when the worker 3 wants to repeat the latest past progress stage. A distinction is made between “canceled” and “temporarily suspended”. “Temporary interruption” means that the progress stage which the worker 3 has not yet performed will be resumed. On the other hand, “cancel” means that the progress stage that the worker 3 has not yet performed is abandoned.

“続行”は、作業員3が単にそのまま作業を続けるのではなく、作業の一時中断、マッチング閾値の変更、カメラ17の使用の取りやめ等の措置を講じることによって、作業が終了しない悪循環から積極的に脱出しようとしていることを意味する。   “Continue” is not a case where the worker 3 simply continues the work, but actively takes a vicious cycle where the work is not completed by taking measures such as temporarily suspending the work, changing the matching threshold, and canceling the use of the camera 17. Means you are trying to escape.

ステップS221において、画像入力処理部21は、応答は何であったかを判断する。具体的には、画像入力処理部21は、“中止”が押下された場合(ステップS221“中止”)、ステップS215に進む。画像入力処理部21は、“やり直し”が押下された場合(ステップS221“やり直し”)、ステップS222に進み、“続行”が押下された場合(ステップS221“続行”)、ステップS223に進む。   In step S221, the image input processing unit 21 determines what the response was. Specifically, when “Cancel” is pressed (Step S221 “Cancel”), the image input processing unit 21 proceeds to Step S215. When “Redo” is pressed (Step S221 “Redo”), the image input processing unit 21 proceeds to Step S222, and when “Continue” is pressed (Step S221 “Continue”), the process proceeds to Step S223.

ステップS222において、画像入力処理部21は、やり直しの起点を決定する。具体的には、第1に、画像入力処理部21は、過去及び現在の進捗段階の見本画像を時系列で出力装置13に表示する。
第2に、画像入力処理部21は、ユーザが表示されている見本画像のうち任意のものを選択するのを受け付ける。ここで選択された見本画像を“やり直し起点見本画像”とも呼ぶ。
ステップS222の次に戻るステップS202においては、やり直し起点見本画像が、対象見本画像となり、やり直し起点見本画像の見本画像IDを有する作業手順書31のレコードが、対象レコードとなる。
In step S222, the image input processing unit 21 determines a starting point of redo. Specifically, first, the image input processing unit 21 displays sample images of past and current progress stages on the output device 13 in time series.
Secondly, the image input processing unit 21 accepts that the user selects an arbitrary sample image displayed. The sample image selected here is also referred to as a “redo start sample image”.
In step S202, which returns after step S222, the redo start sample image becomes the target sample image, and the record of the work procedure manual 31 having the sample image ID of the redo start point sample image becomes the target record.

ステップS223は、作業改善処理である。ステップS223の詳細は、別途後記する。ステップS223の後、処理は、ステップS204に戻る。   Step S223 is work improvement processing. Details of step S223 will be described later. After step S223, the process returns to step S204.

(ステップS223の詳細:作業改善処理)
図10に沿って、ステップS223の詳細を説明する。
ステップS231において、作業支援装置1の画像出力処理部22は、一時中断するか否かを判断する。具体的には、画像出力処理部22は、ユーザが入力装置12を介して作業を一時中断する旨の指示、又は、作業を続行する旨の指示を入力するのを受け付ける。そして、画像出力処理部22は、一時中断する旨の指示を受け付けた場合(ステップS231“Yes”)、ステップS232に進み、続行する旨の指示を受け付けた場合(ステップS231“No”)、ステップS234に進む。
(Details of Step S223: Work Improvement Process)
Details of step S223 will be described with reference to FIG.
In step S231, the image output processing unit 22 of the work support apparatus 1 determines whether or not to suspend temporarily. Specifically, the image output processing unit 22 accepts that the user inputs an instruction to suspend the work or an instruction to continue the work via the input device 12. When the image output processing unit 22 receives an instruction to suspend (step S231 “Yes”), the process proceeds to step S232, and when the instruction to continue is received (step S231 “No”), the step The process proceeds to S234.

ステップS232において、作業支援装置1の注視画像代替部23は、見本画像を注視画像と看做す。具体的には、注視画像代替部23は、対象見本画像を注視画像と看做し、注視画像34として補助記憶装置15に記憶する。   In step S232, the gaze image replacement unit 23 of the work support apparatus 1 considers the sample image as a gaze image. Specifically, the gaze image replacement unit 23 regards the target sample image as a gaze image and stores it as the gaze image 34 in the auxiliary storage device 15.

ステップS233において、注視画像代替部23は、エビデンスを受け付ける。具体的には、注視画像代替部23は、現在の位置情報、時刻情報、又は、ステップS206において取得された(見本画像との類似度が小さい)注視画像をエビデンス(証拠)として取得する。   In step S233, the gaze image replacement unit 23 receives evidence. Specifically, the gaze image replacement unit 23 acquires the current position information, time information, or the gaze image acquired in step S206 (the degree of similarity with the sample image is small) as evidence (evidence).

ステップS234において、作業支援装置1の画像出力処理部22は、類似度に対する閾値を更新する。具体的には、画像出力処理部22は、マッチング閾値を、所定の刻み幅だけ小さくする。その値が小さくなった分だけ、注視画像と見本画像との間の類似度を算出するための基準は、緩くなる。   In step S234, the image output processing unit 22 of the work support apparatus 1 updates the threshold for the similarity. Specifically, the image output processing unit 22 reduces the matching threshold by a predetermined step size. The reference for calculating the degree of similarity between the gaze image and the sample image is relaxed by the amount that the value has decreased.

ステップS235において、画像出力処理部22は、類似度に対する閾値が下限に達しているか否かを判断する。マッチング閾値を所定の刻み幅だけ小さくすることを繰り返した結果、マッチング閾値が極端に小さくなったとする。すると、注目画像が見本画像と多少異なっていても、殆どすべての場合が、ステップS210の“Yes”を経由することになる。このような場合、注目画像に対して、本来対応するべき正しい拡大現実画像が重ねて表示されなくなる。したがって、作業支援装置1は、類似度に対する閾値の下限を予めユーザから受け付けておく。   In step S235, the image output processing unit 22 determines whether or not the threshold for the similarity has reached the lower limit. It is assumed that the matching threshold value becomes extremely small as a result of repeating the reduction of the matching threshold value by a predetermined step size. Then, even if the target image is slightly different from the sample image, almost all cases go through “Yes” in step S210. In such a case, the correct augmented reality image that should originally correspond to the target image is not superimposed and displayed. Therefore, the work support apparatus 1 receives a lower limit of the threshold value for the similarity degree from the user in advance.

具体的には、画像出力処理部22は、マッチング閾値が下限に達している場合(ステップS235“Yes”)、ステップS236に進み、それ以外の場合(ステップS235“No”)、ステップS223の処理を終了し、ステップS204に戻る。   Specifically, when the matching threshold value has reached the lower limit (step S235 “Yes”), the image output processing unit 22 proceeds to step S236, and otherwise (step S235 “No”), the process of step S223 is performed. Is finished, and the process returns to step S204.

ステップS236において、作業支援装置1の画像入力処理部21は、カメラ17の使用を停止するか否かを判断する。具体的には、画像入力処理部21は、ユーザが入力装置12を介してカメラ17の使用を停止する旨の指示を入力するのを受け付けた場合(ステップS236“Yes”)、ステップS237に進む。このとき、画像入力処理部21は、カメラ17が運転状態になっている場合はカメラ17を停止状態にする。画像入力処理部21は、カメラ17の使用を停止しない旨の指示を受け付けた場合(ステップS236“No”)、ステップS239に進む。このとき、画像入力処理部21は、カメラ17が停止状態になっている場合はカメラ17を運転状態にする。   In step S236, the image input processing unit 21 of the work support apparatus 1 determines whether to stop using the camera 17. Specifically, when the image input processing unit 21 accepts that the user inputs an instruction to stop using the camera 17 via the input device 12 (step S236 “Yes”), the process proceeds to step S237. . At this time, when the camera 17 is in an operating state, the image input processing unit 21 puts the camera 17 into a stopped state. When the image input processing unit 21 receives an instruction not to stop the use of the camera 17 (step S236 “No”), the process proceeds to step S239. At this time, when the camera 17 is in a stopped state, the image input processing unit 21 puts the camera 17 into an operating state.

ステップS237において、作業支援装置1の注視画像代替部23は、見本画像を注視画像と看做す。具体的には、注視画像代替部23は、対象見本画像を注視画像と看做し、注視画像34として補助記憶装置15に記憶する。   In step S237, the gaze image replacement unit 23 of the work support apparatus 1 considers the sample image as a gaze image. Specifically, the gaze image replacement unit 23 regards the target sample image as a gaze image and stores it as the gaze image 34 in the auxiliary storage device 15.

ステップS238において、注視画像代替部23は、エビデンスを受け付ける。具体的には、注視画像代替部23は、現在の位置情報、時刻情報、又は、ステップS206において取得された注視画像をエビデンス(証拠)として取得する。   In step S238, the gaze image replacement unit 23 receives evidence. Specifically, the gaze image replacement unit 23 acquires the current position information, time information, or the gaze image acquired in step S206 as evidence (evidence).

ステップS239において、作業支援装置1の画像出力処理部22は、作業手順書31を保存する。ステップS239の処理は、ステップS215の処理と同じである。   In step S239, the image output processing unit 22 of the work support apparatus 1 stores the work procedure manual 31. The process of step S239 is the same as the process of step S215.

(移動中の処理手順)
前記では、作成済の作業手順書31は、図6の1行目〜8行目のレコードのみを有しているものとした。次に、作業手順書31が図6の9行目のレコード(以降、“移動案内レコード”と呼ぶこともある。)を有している場合の処理の流れを説明する。
(Processing procedure while moving)
In the above description, it is assumed that the created work procedure manual 31 has only the records in the first to eighth lines in FIG. Next, the flow of processing when the work procedure manual 31 has a record on the ninth line in FIG. 6 (hereinafter, sometimes referred to as “movement guide record”) will be described.

移動中の処理手順は、処理がステップS213“Yes”の後もステップS214を経由し(この点は、図9とは異なる)、さらにステップS214“No”を経由し、ステップS202に戻ることを契機に開始される。すると、ステップS202において、移動案内レコードが対象レコードとなる。その後、処理は、ステップS202→S206→S210→S211→S212→S213を経由する。以下にそれらのステップの処理の内容を記載する。   The moving procedure is that the process goes through step S214 after step S213 “Yes” (this is different from FIG. 9), and further goes back to step S202 through step S214 “No”. It starts when triggered. Then, in step S202, the movement guide record becomes the target record. Thereafter, the process goes through steps S202 → S206 → S210 → S211 → S212 → S213. The contents of the processing of those steps are described below.

ステップS202において、画像入力処理部21は、対象レコードの位置情報を取得する。以降、ここで取得された位置情報を“対象位置情報”と呼ぶことがある。
ステップS206において、画像入力処理部21は、現在の位置情報を取得し、ユーザが入力装置12を介して案内情報要求ボタンを押下するのを受け付ける。
ステップS210において、第1に、画像出力処理部22は、現在の位置情報と対象位置情報との間の距離を算出する。
第2に、画像出力処理部22は、算出した距離が所定の閾値以下である場合、ステップS211に進み、それ以外の場合、メッセージ“正しい作業場所に戻ってください”を出力装置13に表示した後、処理を終了する。
In step S202, the image input processing unit 21 acquires position information of the target record. Hereinafter, the position information acquired here may be referred to as “target position information”.
In step S <b> 206, the image input processing unit 21 acquires the current position information, and accepts that the user presses the guidance information request button via the input device 12.
In step S210, first, the image output processing unit 22 calculates a distance between the current position information and the target position information.
Second, if the calculated distance is equal to or smaller than the predetermined threshold, the image output processing unit 22 proceeds to step S211 and otherwise displays the message “Please return to the correct work location” on the output device 13. Then, the process is terminated.

ステップS211において、画像出力処理部22は、拡張現実画像33を取得する。ここでの拡張現実画像33は、作業員3が他の作業場所(次の現場)に移動するための案内情報(地図等)である。
ステップS212において、画像出力処理部22は、拡張現実画像33(案内情報)を出力装置13に表示する。
ステップS213において、画像出力処理部22は、すべての進捗段階が終了したか否かを判断する。具体的には、画像出力処理部22は、対象レコードの次のレコードがない場合、処理手順を終了し、それ以外の場合、ステップS202に戻る。
In step S <b> 211, the image output processing unit 22 acquires the augmented reality image 33. The augmented reality image 33 here is guide information (such as a map) for the worker 3 to move to another work place (next site).
In step S212, the image output processing unit 22 displays the augmented reality image 33 (guidance information) on the output device 13.
In step S213, the image output processing unit 22 determines whether all progress stages have been completed. Specifically, the image output processing unit 22 ends the processing procedure when there is no record next to the target record, and otherwise returns to step S202.

(カメラの使用の連続的停止)
ある作業場所において撮影条件が不良であり、当該作業場所における一連の進捗段階を完了するまでに撮像条件が回復する見込みがない場合もある。この場合、ステップS204において、画像入力処理部21は、カメラ17を使用しない旨の指示とともに、カメラの使用を連続的に停止する旨の指示を受け付ける。すると、画像入力処理部21は、以降の繰り返し処理において、必ずステップS204“No”を経由する。その結果として、更新後の作業手順書31は、図7の10行目〜13行目のようなレコードを有することになる。
(Continuous stop of camera use)
There may be a case where imaging conditions are poor at a certain work place, and the imaging conditions are unlikely to be recovered until a series of progress stages at the work place is completed. In this case, in step S <b> 204, the image input processing unit 21 receives an instruction to stop using the camera together with an instruction to not use the camera 17. Then, the image input processing unit 21 always goes through step S204 “No” in the subsequent repetitive processing. As a result, the updated work procedure manual 31 has records as in the 10th to 13th lines in FIG.

これとは逆に、画像入力処理部21は、原則、自動的にステップS204“Yes”を経由することとし、例外的にユーザの指示を受けた場合に限り、ステップS204の判断を実行してもよい。さらに、撮像条件が所定の基準を満たす程度に良好でない場合(例えば、作業場所の照度が閾値以下である場合)、画像入力処理部21は、自動的にステップS204“No”を経由することとしてもよい。   On the contrary, the image input processing unit 21 automatically goes through step S204 “Yes” in principle, and executes the determination in step S204 only when an instruction from the user is exceptionally received. Also good. Furthermore, when the imaging conditions are not good enough to satisfy a predetermined standard (for example, when the illuminance at the work place is less than or equal to the threshold value), the image input processing unit 21 automatically goes through step S204 “No”. Also good.

(本実施形態の効果)
本実施形態の作業支援装置の効果は以下の通りである。
(1)作業支援装置は、注視画像を見本画像と比較することによって拡大現実画像を特定する。そして、カメラ不使用時、又は、撮像条件不良時には、見本画像を注視画像と看做す。したがってユーザは、カメラ不使用時、又は、撮像条件不良時であっても、確実に拡大現実画像を見ることができる。そして、ユーザは、そのためにわざわざ既存のアルゴリズムを大きく変更する必要がない。
(2)ユーザは、任意の進捗段階で作業を一時中断することができる。このとき、過去の注視画像が保存される。したがって、ユーザは、次の進捗段階から作業を再開することができる。
(3)ユーザは、注視画像を見本画像と比較する際の類似度の閾値を緩くすることができる。したがって、撮像条件が完全に良好でなくても作業を続行できる。
(Effect of this embodiment)
The effects of the work support apparatus of this embodiment are as follows.
(1) The work support device identifies the augmented reality image by comparing the gaze image with the sample image. When the camera is not used or when imaging conditions are poor, the sample image is regarded as a gaze image. Therefore, the user can surely view the augmented reality image even when the camera is not used or the imaging condition is poor. For this purpose, the user does not have to change the existing algorithm greatly.
(2) The user can suspend work at an arbitrary progress stage. At this time, past gaze images are stored. Therefore, the user can resume work from the next progress stage.
(3) The user can loosen the similarity threshold when comparing the gaze image with the sample image. Therefore, the operation can be continued even if the imaging conditions are not completely good.

(4)ユーザは、作業の途中で撮像条件が不良となった場合でも、カメラを使用せずに作業を続行できる。
(5)ユーザは、撮像条件が不良となった場合でも、切りのよい進捗段階まで作業を行ったうえで、作業を一時中断することができる。
(6)ユーザは、所定の作業場所で作業を行っていた証拠を残すことができる。
(7)ユーザは、取得しやすい情報(位置情報、時刻情報又は写りの悪い注視画像)を証拠とすることができる。
(8)ユーザは、作業場所を移動する際、案内情報を見ることができる。
(9)ユーザは、撮像条件に応じて、カメラを使用するか否かを自由に選択できる。
(4) The user can continue the work without using the camera even when the imaging condition becomes poor during the work.
(5) Even when the imaging condition becomes poor, the user can temporarily suspend the work after performing the work up to a good progress stage.
(6) The user can leave evidence that he / she was working at a predetermined work place.
(7) The user can use information that can be easily acquired (position information, time information, or a gaze image with poor reflection) as evidence.
(8) The user can view the guidance information when moving the work place.
(9) The user can freely select whether to use the camera according to the imaging conditions.

なお、本発明は前記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、前記した実施例は、本発明を分かり易く説明するために詳細に説明したものであり、必ずしも説明したすべての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。   In addition, this invention is not limited to an above-described Example, Various modifications are included. For example, the above-described embodiments have been described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described. Further, a part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment. Further, it is possible to add, delete, and replace other configurations for a part of the configuration of each embodiment.

また、前記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウエアで実現してもよい。また、前記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウエアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、又は、ICカード、SDカード、DVD等の記録媒体に置くことができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしもすべての制御線や情報線を示しているとは限らない。実際には殆どすべての構成が相互に接続されていると考えてもよい。
Each of the above-described configurations, functions, processing units, processing means, and the like may be realized by hardware by designing a part or all of them with, for example, an integrated circuit. Each of the above-described configurations, functions, and the like may be realized by software by interpreting and executing a program that realizes each function by the processor. Information such as programs, tables, and files that realize each function can be stored in a recording device such as a memory, a hard disk, or an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD.
In addition, the control lines and information lines are those that are considered necessary for the explanation, and not all the control lines and information lines on the product are necessarily shown. In practice, it may be considered that almost all the components are connected to each other.

1、1b 作業支援装置
2 設備
3 作業員
4 サーバ(外部記憶装置)
5 ネットワーク
6 ARマーカ
11 中央制御装置
12 入力装置
13 出力装置
14 主記憶装置(記憶部)
15 補助記憶装置(記憶部)
16 通信装置
17 カメラ
21 画像入力処理部
22 画像出力処理部
23 注視画像代替部
31 作業手順書
32 見本画像
33 拡張現実画像
34 注視画像
1, 1b Work support device 2 Equipment 3 Worker 4 Server (external storage device)
5 Network 6 AR Marker 11 Central Controller 12 Input Device 13 Output Device 14 Main Storage Device (Storage Unit)
15 Auxiliary storage device (storage unit)
DESCRIPTION OF SYMBOLS 16 Communication apparatus 17 Camera 21 Image input process part 22 Image output process part 23 Gaze image alternative part 31 Work procedure manual 32 Sample image 33 Augmented reality image 34 Gaze image

Claims (11)

作業の対象とするべき対象物を予め撮像した見本画像と、前記作業の内容を拡張現実の手法で示す拡張現実画像と、が前記作業の進捗段階に対応付けて格納される記憶部と、
作業員が注視している対象物をカメラが撮像した注視画像を取得する画像入力処理部と、
前記注視画像と、前記見本画像に対応する前記拡張現実画像とを重ねて表示する画像出力処理部と、
ある進捗段階において、前記カメラが使用されない場合、又は、前記注視画像が前記見本画像に類似しない場合、当該進捗段階の前記見本画像自身を、前記見本画像と重ねて表示されるべき前記注視画像と看做す注視画像代替部と、
を備えることを特徴とする作業支援装置。
A storage unit in which a sample image obtained by previously capturing an object to be a work target and an augmented reality image indicating the content of the work by an augmented reality technique are stored in association with the progress stage of the work;
An image input processing unit that acquires a gaze image obtained by the camera capturing an object that the worker is gazing at;
An image output processing unit that superimposes and displays the gaze image and the augmented reality image corresponding to the sample image;
When the camera is not used in a certain progress stage, or when the gaze image is not similar to the sample image, the gaze image to be displayed on the sample image is superimposed on the sample image itself in the progress stage. The gaze image replacement part
A work support apparatus comprising:
前記画像出力処理部は、
前記作業員が前記作業を一時中断する場合、前記撮像された注視画像又は前記看做された注視画像を時系列で記憶すること、
を特徴とする請求項1に記載の作業支援装置。
The image output processing unit
When the worker temporarily suspends the work, storing the captured gaze image or the watched gaze image in time series,
The work support apparatus according to claim 1.
前記注視画像を前記見本画像と比較し、所定の基準を満たす程度に両者が類似していれば前記注視画像と前記拡張現実画像とを重ねて表示する場合において、
前記画像出力処理部は、
前記注視画像が前記見本画像に類似していない場合が所定の回数以上繰り返され、かつ、前記作業員が前記作業を続行する場合、前記所定の基準をより緩いものに更新すること、
を特徴とする請求項2に記載の作業支援装置。
In the case where the gaze image is compared with the sample image and the gaze image and the augmented reality image are displayed in an overlapping manner if both are similar to the extent that a predetermined criterion is satisfied,
The image output processing unit
The case where the gaze image is not similar to the sample image is repeated a predetermined number of times, and when the worker continues the work, the predetermined reference is updated to a looser one,
The work support apparatus according to claim 2.
前記注視画像代替部は、
ある進捗段階において前記所定の基準が下限に達し、かつ、前記カメラの使用が停止される場合、当該進捗段階の前記見本画像自身を、前記見本画像と比較されるべき前記注視画像と看做すこと、
を特徴とする請求項3に記載の作業支援装置。
The gaze image alternative unit is
When the predetermined criterion reaches a lower limit in a certain progress stage and the use of the camera is stopped, the sample image itself in the progress stage is regarded as the gaze image to be compared with the sample image. about,
The work support apparatus according to claim 3.
前記注視画像代替部は、
前記注視画像が前記見本画像に類似していない場合が所定の回数以上繰り返され、かつ、ある進捗段階において前記作業員が前記作業を一時中断する場合、当該進捗段階の前記見本画像自身を、前記見本画像と比較されるべき前記注視画像と看做すこと、
を特徴とする請求項4に記載の作業支援装置。
The gaze image alternative unit is
When the gaze image is not similar to the sample image is repeated a predetermined number of times, and when the worker temporarily stops the work in a certain progress stage, the sample image itself in the progress stage is Considering the gaze image to be compared with the sample image;
The work support apparatus according to claim 4.
前記注視画像代替部は、
前記見本画像自身を、前記見本画像と比較されるべき前記注視画像と看做す場合、前記作業員が所定の作業場所で作業を行っていたことを示す証拠を取得すること、
を特徴とする請求項5に記載の作業支援装置。
The gaze image alternative unit is
If the sample image itself is regarded as the gaze image to be compared with the sample image, obtaining evidence indicating that the worker was working at a predetermined work place;
The work support apparatus according to claim 5.
前記証拠は、
前記作業が行われた作業場所の位置情報、作業が行われた時点の時刻情報、及び、前記注視画像のうちの少なくともいずれか1つを含むこと、
を特徴とする請求項6に記載の作業支援装置。
The evidence is
Including at least one of position information of a work place where the work is performed, time information when the work is performed, and the gaze image;
The work support apparatus according to claim 6.
前記画像出力処理部は、
前記作業員がある作業場所から他の作業場所に移動して作業を行う場合、前記ある作業場所から前記他の作業場所への案内情報を表示すること、
を特徴とする請求項7に記載の作業支援装置。
The image output processing unit
When the worker moves from one work place to another work place and performs work, displaying guidance information from the one work place to the other work place,
The work support apparatus according to claim 7.
前記画像入力処理部は、
前記作業員が、前記カメラを使用するか否かを入力するのを受け付けること、
を特徴とする請求項8に記載の作業支援装置。
The image input processing unit
Receiving the operator to input whether or not to use the camera;
The work support apparatus according to claim 8.
作業の対象とするべき対象物を予め撮像した見本画像と、前記作業の内容を拡張現実の手法で示す拡張現実画像と、が作業の進捗段階に対応付けて格納される外部記憶装置と通信可能な作業支援装置であって、
作業員が注視している対象物をカメラが撮像した注視画像を取得する画像入力処理部と、
前記注視画像と、前記見本画像に対応する前記拡張現実画像とを重ねて表示する画像出力処理部と、
ある進捗段階において、前記カメラが使用されない場合、又は、前記注視画像が前記見本画像に類似しない場合、当該進捗段階の前記見本画像自身を、前記見本画像と重ねて表示されるべき前記注視画像と看做す注視画像代替部と、
を備えることを特徴とする作業支援装置。
Communicate with an external storage device that stores a sample image of the object to be worked in advance and an augmented reality image that shows the content of the work using augmented reality techniques in association with the progress stage of the work Work support device,
An image input processing unit that acquires a gaze image obtained by the camera capturing an object that the worker is gazing at;
An image output processing unit that superimposes and displays the gaze image and the augmented reality image corresponding to the sample image;
When the camera is not used in a certain progress stage, or when the gaze image is not similar to the sample image, the gaze image to be displayed on the sample image is superimposed on the sample image itself in the progress stage. The gaze image replacement part
A work support apparatus comprising:
作業支援装置の記憶部は、
作業の対象とするべき対象物を予め撮像した見本画像と、前記作業の内容を拡張現実の手法で示す拡張現実画像と、を作業の進捗段階に対応付けて格納しており、
前記作業支援装置の画像入力処理部は、
作業員が注視している対象物をカメラが撮像した注視画像を取得し、
前記作業支援装置の画像出力処理部は、
前記注視画像と、前記見本画像に対応する前記拡張現実画像とを重ねて表示し、
前記作業支援装置の注視画像代替部は、
ある進捗段階において、前記カメラが使用されない場合、又は、前記注視画像が前記見本画像に類似しない場合、当該進捗段階の前記見本画像自身を、前記見本画像と重ねて表示されるべき前記注視画像と看做すこと、
を特徴とする作業支援装置の作業支援方法。
The storage unit of the work support device
A sample image obtained by previously capturing an object to be a work target and an augmented reality image showing the content of the work by an augmented reality technique are stored in association with the progress stage of the work,
The image input processing unit of the work support device includes:
Acquire a gaze image of the object that the worker is gazing at with the camera,
The image output processing unit of the work support device includes:
Displaying the gaze image and the augmented reality image corresponding to the sample image,
The gaze image replacement unit of the work support device is:
When the camera is not used in a certain progress stage, or when the gaze image is not similar to the sample image, the gaze image to be displayed on the sample image is superimposed on the sample image itself in the progress stage. Watching,
A work support method for a work support device characterized by the above.
JP2016183892A 2016-09-21 2016-09-21 Work support apparatus and work support method Active JP6521923B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016183892A JP6521923B2 (en) 2016-09-21 2016-09-21 Work support apparatus and work support method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016183892A JP6521923B2 (en) 2016-09-21 2016-09-21 Work support apparatus and work support method

Publications (2)

Publication Number Publication Date
JP2018049421A true JP2018049421A (en) 2018-03-29
JP6521923B2 JP6521923B2 (en) 2019-05-29

Family

ID=61766372

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016183892A Active JP6521923B2 (en) 2016-09-21 2016-09-21 Work support apparatus and work support method

Country Status (1)

Country Link
JP (1) JP6521923B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020202825A1 (en) * 2019-03-29 2020-10-08 株式会社 情報システムエンジニアリング Information provision system, and information provision method
JP2020166782A (en) * 2019-03-29 2020-10-08 株式会社 情報システムエンジニアリング Information provision system and information provision method
JP2021051620A (en) * 2019-09-26 2021-04-01 株式会社日立製作所 Device, system, and method for supporting work
JP2021099603A (en) * 2019-12-20 2021-07-01 エヌ・ティ・ティ・コミュニケーションズ株式会社 Information processing apparatus, information processing method, and program
US11341714B2 (en) 2018-07-31 2022-05-24 Information System Engineering Inc. Information service system and information service method
JP2022104410A (en) * 2020-12-28 2022-07-08 横河電機株式会社 Apparatus, method and program
US11651023B2 (en) 2019-03-29 2023-05-16 Information System Engineering Inc. Information providing system
JP7470017B2 (en) 2020-11-13 2024-04-17 シャープ株式会社 DISPLAY CONTROL SYSTEM, DISPLAY CONTROL METHOD, AND DISPLAY CONTROL PROGRAM

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003281297A (en) * 2002-03-22 2003-10-03 National Institute Of Advanced Industrial & Technology Information presenting device and information presenting method
JP2005216137A (en) * 2004-01-30 2005-08-11 Chugoku Electric Power Co Inc:The Maintenance support system and method
JP2006048468A (en) * 2004-08-06 2006-02-16 Nomura Research Institute Ltd Image processing system, image processing program, and image processing method
JP2011248860A (en) * 2010-04-28 2011-12-08 Ns Solutions Corp Information processing system, and information processing method and program
JP2013097466A (en) * 2011-10-28 2013-05-20 Hitachi Ltd Work support system, work support method, and terminal for work

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003281297A (en) * 2002-03-22 2003-10-03 National Institute Of Advanced Industrial & Technology Information presenting device and information presenting method
JP2005216137A (en) * 2004-01-30 2005-08-11 Chugoku Electric Power Co Inc:The Maintenance support system and method
JP2006048468A (en) * 2004-08-06 2006-02-16 Nomura Research Institute Ltd Image processing system, image processing program, and image processing method
JP2011248860A (en) * 2010-04-28 2011-12-08 Ns Solutions Corp Information processing system, and information processing method and program
US20130120449A1 (en) * 2010-04-28 2013-05-16 Noboru IHARA Information processing system, information processing method and program
JP2013097466A (en) * 2011-10-28 2013-05-20 Hitachi Ltd Work support system, work support method, and terminal for work

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11341714B2 (en) 2018-07-31 2022-05-24 Information System Engineering Inc. Information service system and information service method
US11651023B2 (en) 2019-03-29 2023-05-16 Information System Engineering Inc. Information providing system
JP2020166783A (en) * 2019-03-29 2020-10-08 株式会社 情報システムエンジニアリング Information provision system and information provision method
WO2020202824A1 (en) * 2019-03-29 2020-10-08 株式会社 情報システムエンジニアリング Information provision system, and information provision method
CN112020710A (en) * 2019-03-29 2020-12-01 艾思益信息应用技术股份公司 Information providing system and information providing method
US11520823B2 (en) 2019-03-29 2022-12-06 Information System Engineering Inc. Information providing system and information providing method
US11934446B2 (en) 2019-03-29 2024-03-19 Information System Engineering Inc. Information providing system
JP2020166782A (en) * 2019-03-29 2020-10-08 株式会社 情報システムエンジニアリング Information provision system and information provision method
WO2020202825A1 (en) * 2019-03-29 2020-10-08 株式会社 情報システムエンジニアリング Information provision system, and information provision method
US11520822B2 (en) 2019-03-29 2022-12-06 Information System Engineering Inc. Information providing system and information providing method
JP2021051620A (en) * 2019-09-26 2021-04-01 株式会社日立製作所 Device, system, and method for supporting work
JP7245139B2 (en) 2019-09-26 2023-03-23 株式会社日立製作所 WORK SUPPORT DEVICE, WORK SUPPORT SYSTEM AND WORK SUPPORT METHOD
JP7383470B2 (en) 2019-12-20 2023-11-20 エヌ・ティ・ティ・コミュニケーションズ株式会社 Information processing device, information processing method and program
JP2021099603A (en) * 2019-12-20 2021-07-01 エヌ・ティ・ティ・コミュニケーションズ株式会社 Information processing apparatus, information processing method, and program
JP7470017B2 (en) 2020-11-13 2024-04-17 シャープ株式会社 DISPLAY CONTROL SYSTEM, DISPLAY CONTROL METHOD, AND DISPLAY CONTROL PROGRAM
JP2022104410A (en) * 2020-12-28 2022-07-08 横河電機株式会社 Apparatus, method and program
JP7347409B2 (en) 2020-12-28 2023-09-20 横河電機株式会社 Apparatus, method and program

Also Published As

Publication number Publication date
JP6521923B2 (en) 2019-05-29

Similar Documents

Publication Publication Date Title
JP6521923B2 (en) Work support apparatus and work support method
US9355316B2 (en) Identifying an obstacle in a route
JP7017689B2 (en) Information processing equipment, information processing system and information processing method
US9361716B1 (en) System and method for increasing the system awareness of IT operations personnel with augmented reality
EP2458336A1 (en) Method and system for reporting errors in a geographic database
KR20180005168A (en) Privacy-sensitive query on the localization zone description file
JP2014153813A5 (en) Image processing apparatus, image processing method, and program
JP2013054661A (en) Information display system, information display method and program for information display
US9009613B2 (en) System to overlay application help on a mobile device
US10249058B2 (en) Three-dimensional information restoration device, three-dimensional information restoration system, and three-dimensional information restoration method
JP5478242B2 (en) Map display device, map display method, and program
JP2017162103A (en) Inspection work support system, inspection work support method, and inspection work support program
Xie et al. Iterative Design and Prototyping of Computer Vision Mediated Remote Sighted Assistance
WO2022237048A1 (en) Pose acquisition method and apparatus, and electronic device, storage medium and program
US9082317B2 (en) Method and apparatus for displaying digital map in client
JP2015194809A (en) Information processing apparatus, method, and program
JP7109395B2 (en) WORK SUPPORT SYSTEM, WORK SUPPORT DEVICE, AND WORK SUPPORT METHOD
JP2017158169A (en) Image display system, display device, and program
JP7318303B2 (en) Cleaning management program, cleaning management method and cleaning management device
JP6956376B2 (en) Display control system, display system, display control method, program, and mobile
CN112809669B (en) Robot control method and device, robot and storage medium
JP2017016553A (en) Photograph management apparatus, photograph management system, and photograph management method
JP4478047B2 (en) Information presentation apparatus, information presentation method, and program thereof
JP2015069445A (en) Video output device, video output method, and program
JP6957679B1 (en) Information processing equipment and computer programs

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180706

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190423

R150 Certificate of patent or registration of utility model

Ref document number: 6521923

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150