JP2021135878A - Augmented reality display system - Google Patents

Augmented reality display system Download PDF

Info

Publication number
JP2021135878A
JP2021135878A JP2020033105A JP2020033105A JP2021135878A JP 2021135878 A JP2021135878 A JP 2021135878A JP 2020033105 A JP2020033105 A JP 2020033105A JP 2020033105 A JP2020033105 A JP 2020033105A JP 2021135878 A JP2021135878 A JP 2021135878A
Authority
JP
Japan
Prior art keywords
display
content
work
unit
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020033105A
Other languages
Japanese (ja)
Inventor
慎介 山▲崎▼
Shinsuke Yamazaki
慎介 山▲崎▼
哲史 長尾
Tetsushi Nagao
哲史 長尾
和孝 鳥本
Kazutaka Torimoto
和孝 鳥本
昌和 松久
Masakazu Matsuhisa
昌和 松久
正倫 伊奈
Masamichi Ina
正倫 伊奈
貴士 熊谷
Takashi Kumagai
貴士 熊谷
有生 梅田
Yu Umeda
有生 梅田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Heavy Industries Ltd
Suncorporation
Original Assignee
Mitsubishi Heavy Industries Ltd
Suncorporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Ltd, Suncorporation filed Critical Mitsubishi Heavy Industries Ltd
Priority to JP2020033105A priority Critical patent/JP2021135878A/en
Publication of JP2021135878A publication Critical patent/JP2021135878A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a user-friendly augmented reality display system that can urge an operator to perform an intuitive operation.SOLUTION: An augmented reality display system displays a content superimposed on a real space to virtually augment the real space, and comprises: a virtual display that is attached with a first identification mark; an imaging unit that picks up an image of the real space; a display unit that displays the content superimposed on the real space; and a control unit that executes display control related to the display of the content on the display unit. When an image of the first identification mark is picked up by the imaging unit and the control unit recognizes the first identification mark, the control unit displays the content in a display area of the display unit corresponding to a position in the real space on the virtual display.SELECTED DRAWING: Figure 1

Description

本開示は、拡張現実表示システムに関するものである。 The present disclosure relates to an augmented reality display system.

従来、3次元物体のモデルデータであるARコンテンツを、撮像装置の一例であるカメラにより撮像された撮像画像に重ねて表示させるAR技術が知られている(例えば、特許文献1参照)。 Conventionally, there is known an AR technique for superimposing an AR content, which is model data of a three-dimensional object, on an image captured by a camera, which is an example of an imaging device (see, for example, Patent Document 1).

特開2014−215646号公報Japanese Unexamined Patent Publication No. 2014-215646

ところで、AR技術を作業現場において用いることが考えられている。特許文献1のAR技術を用いる場合、表示部上に、ARコンテンツとしての作業マニュアルを表示することが考えられる。しかしながら、表示部上に作業マニュアルを表示する場合、作業者は、作業マニュアルの表示に関する操作に慣れていないことから、操作を習熟するまでに時間を要し、作業効率の向上化を図ることが難しいものとなっている。 By the way, it is considered to use AR technology in the work site. When the AR technique of Patent Document 1 is used, it is conceivable to display a work manual as AR content on the display unit. However, when displaying the work manual on the display unit, since the worker is not accustomed to the operation related to the display of the work manual, it takes time to master the operation, and the work efficiency may be improved. It has become difficult.

そこで、本開示は、作業者に対して、直感的な操作を促すことができるユーザフレンドリーな拡張現実表示システムを提供することを課題とする。 Therefore, it is an object of the present disclosure to provide a user-friendly augmented reality display system that can encourage workers to operate intuitively.

本開示の拡張現実表示システムは、現実空間にコンテンツを重ねて表示することで、前記現実空間を仮想的に拡張する拡張現実表示システムにおいて、第1の識別マークが付されたバーチャルディスプレイと、前記現実空間を撮像する撮像部と、前記現実空間に重ねて前記コンテンツを表示する表示部と、前記表示部への前記コンテンツの表示に関する表示制御を実行する制御部と、を備え、前記制御部は、前記撮像部により前記第1の識別マークが撮像されて、前記第1の識別マークを認識すると、前記バーチャルディスプレイの前記現実空間における位置に対応する前記表示部の表示領域に、前記コンテンツを表示する。 The augmented reality display system of the present disclosure is an augmented reality display system that virtually expands the real space by superimposing contents on the real space, and includes a virtual display having a first identification mark and the above. The control unit includes an imaging unit that captures an image of the real space, a display unit that displays the content superimposed on the real space, and a control unit that executes display control related to the display of the content on the display unit. When the first identification mark is imaged by the imaging unit and the first identification mark is recognized, the content is displayed in the display area of the display unit corresponding to the position of the virtual display in the real space. do.

本開示によれば、作業者に対して、直感的な操作を促すことができるユーザフレンドリーなものとすることができる。 According to the present disclosure, it is possible to make it user-friendly, which can encourage workers to operate intuitively.

図1は、本実施形態に係る拡張現実表示システムを模式的に示す概略構成図である。FIG. 1 is a schematic configuration diagram schematically showing an augmented reality display system according to the present embodiment. 図2は、本実施形態に係る拡張現実表示システムを機能的に示す概略構成図である。FIG. 2 is a schematic configuration diagram functionally showing the augmented reality display system according to the present embodiment. 図3は、ARデバイスの表示部に関する一例の説明図である。FIG. 3 is an explanatory diagram of an example relating to the display unit of the AR device. 図4は、バーチャルディスプレイを用いたARデバイスの表示部に関する一例の説明図である。FIG. 4 is an explanatory diagram of an example of a display unit of an AR device using a virtual display. 図5は、本実施形態に係る拡張現実表示システムの表示制御に関する一例のフローチャートである。FIG. 5 is a flowchart of an example relating to the display control of the augmented reality display system according to the present embodiment. 図6は、本実施形態に係る拡張現実表示システムの表示制御に関する一例のフローチャートである。FIG. 6 is a flowchart of an example relating to the display control of the augmented reality display system according to the present embodiment. 図7は、本実施形態に係る拡張現実表示システムの表示制御に関する一例のフローチャートである。FIG. 7 is a flowchart of an example relating to the display control of the augmented reality display system according to the present embodiment. 図8は、本実施形態に係る拡張現実表示システムの表示制御に関する一例のフローチャートである。FIG. 8 is a flowchart of an example relating to the display control of the augmented reality display system according to the present embodiment. 図9は、本実施形態に係る拡張現実表示システムの作業報告書の生成に関する一例のフローチャートである。FIG. 9 is a flowchart of an example relating to the generation of a work report of the augmented reality display system according to the present embodiment.

以下に、本開示に係る実施形態を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。また、下記実施形態における構成要素には、当業者が置換可能かつ容易なもの、あるいは実質的に同一のものが含まれる。さらに、以下に記載した構成要素は適宜組み合わせることが可能であり、また、実施形態が複数ある場合には、各実施形態を組み合わせることも可能である。 Hereinafter, embodiments according to the present disclosure will be described in detail with reference to the drawings. The present invention is not limited to this embodiment. In addition, the components in the following embodiments include those that can be easily replaced by those skilled in the art, or those that are substantially the same. Further, the components described below can be appropriately combined, and when there are a plurality of embodiments, each embodiment can be combined.

[本実施形態]
本実施形態に係る拡張現実表示システム1は、現実空間となる作業空間E1において、作業者が作業対象物16に対して各種作業を実施するときに用いられるシステムである。この拡張現実表示システム1は、作業者に対して各種情報を提供したり、作業内容を記録したりすることで、作業者を支援するシステムとなっている。拡張現実表示システム1は、作業空間E1に対して、コンテンツを重ねて表示するAR(Augmented Reality:拡張現実)技術を用いている。
[The present embodiment]
The augmented reality display system 1 according to the present embodiment is a system used when an operator performs various tasks on a work object 16 in a work space E1 which is a real space. This augmented reality display system 1 is a system that supports workers by providing various information to workers and recording work contents. The augmented reality display system 1 uses AR (Augmented Reality) technology for displaying contents superimposed on the work space E1.

(拡張現実表示システム)
図1は、実施形態に係る拡張現実表示システムを模式的に示す概略構成図である。図2は、本実施形態に係る拡張現実表示システムを機能的に示す概略構成図である。図1及び図2に示すように、拡張現実表示システム1は、バーチャルディスプレイ10と、ARデバイス11と、サーバ12とを備えており、ARデバイス11とサーバ12とは、双方向に通信可能なネットワーク15を介して接続されている。なお、本実施形態の拡張現実表示システム1は、サーバ12を含むシステム構成としたが、サーバ12の機能をARデバイス11に統合して、サーバ12を省いたシステム構成としてもよい。
(Augmented reality display system)
FIG. 1 is a schematic configuration diagram schematically showing an augmented reality display system according to an embodiment. FIG. 2 is a schematic configuration diagram functionally showing the augmented reality display system according to the present embodiment. As shown in FIGS. 1 and 2, the augmented reality display system 1 includes a virtual display 10, an AR device 11, and a server 12, and the AR device 11 and the server 12 can communicate with each other in both directions. It is connected via the network 15. Although the augmented reality display system 1 of the present embodiment has a system configuration including the server 12, the function of the server 12 may be integrated into the AR device 11 and the system configuration may be such that the server 12 is omitted.

バーチャルディスプレイ10は、シート状の本体部18と、本体部18に付された第1の識別マークM1とを有している。本体部18は、例えば、紙等を用いた方形状のシートであり、ラミネート加工されたものとなっている。第1の識別マークM1は、本体部18の縁に沿って、四方枠状に形成されており、例えば、印刷によってマーキングされたものとなっている。このため、バーチャルディスプレイ10の中央が物で遮られる場合であっても、第1の識別マークM1の認識を行うことが可能となる。第1の識別マークM1には、バーチャルディスプレイ10を特定するためのディスプレイID情報が含まれている。また、詳細は後述するが、第1の識別マークM1は、認識される形状に基づいて本体部18の傾きを導出するためのマークとなっている。なお、本実施形態では、シート状のバーチャルディスプレイ10について説明したが、バーチャルディスプレイ10は、従来の現実のマニュアルのように、複数のシートを見開き可能に束ねた冊子状になっていてもよい。これによれば、1シートのバーチャルディスプレイ10が散在せずに、まとめて管理することができる。また、冊子状のバーチャルディスプレイ10は、従来の現実のマニュアルと異なり、改訂した場合に改訂したページのコンテンツを差し替えることができる。さらに、複数人でコンテンツを見る場合には、ホワイトボードのような大型のボード形状となるバーチャルディスプレイ10としてもよい。 The virtual display 10 has a sheet-shaped main body portion 18 and a first identification mark M1 attached to the main body portion 18. The main body 18 is, for example, a square sheet made of paper or the like, and is laminated. The first identification mark M1 is formed in a square frame shape along the edge of the main body portion 18, and is marked by printing, for example. Therefore, even when the center of the virtual display 10 is obstructed by an object, the first identification mark M1 can be recognized. The first identification mark M1 includes display ID information for identifying the virtual display 10. Further, as will be described in detail later, the first identification mark M1 is a mark for deriving the inclination of the main body portion 18 based on the recognized shape. Although the sheet-shaped virtual display 10 has been described in the present embodiment, the virtual display 10 may be in the form of a booklet in which a plurality of sheets are bundled so as to be spreadable, as in a conventional actual manual. According to this, the virtual displays 10 of one sheet can be managed collectively without being scattered. Further, unlike the conventional actual manual, the booklet-shaped virtual display 10 can replace the content of the revised page when it is revised. Further, when the content is viewed by a plurality of people, the virtual display 10 having a large board shape such as a whiteboard may be used.

ARデバイス11は、例えば、ARグラスであり、透明な表示レンズ上に、コンテンツを表示するデバイスであってもよいし、人の網膜に画像を投影するデバイスであってもよく、特に限定されない。また、表示レンズは透明であることから、ARデバイス11は、表示レンズを介して作業空間E1を視認することが可能なデバイスとなっている。このARデバイス11は、作業者に装着され、作業者は、ARデバイス11を介して、作業空間E1を視認する。 The AR device 11 is, for example, an AR glass, may be a device that displays content on a transparent display lens, or may be a device that projects an image onto the human retina, and is not particularly limited. Further, since the display lens is transparent, the AR device 11 is a device capable of visually recognizing the work space E1 through the display lens. The AR device 11 is attached to the worker, and the worker visually recognizes the work space E1 via the AR device 11.

ARデバイス11は、表示部21と、撮像部22と、赤外線センサ23と、ID認識部(識別情報取得部)24と、制御部25と、記憶部26とを有している。 The AR device 11 includes a display unit 21, an imaging unit 22, an infrared sensor 23, an ID recognition unit (identification information acquisition unit) 24, a control unit 25, and a storage unit 26.

表示部21は、例えば、表示レンズと、表示レンズに画像を投影するプロジェクタとを含んでいる。表示部21は、表示レンズ上にプロジェクタから画像を投影することで、作業者に対して画像を表示している。画像としては、例えば、作業者に対して提供される作業マニュアルまたは三次元モデル等のコンテンツC(図4参照)である。なお、表示部21は、作業者に対して画像を表示可能なものであればよく、作業者の目に直接画像を投影するプロジェクタを用いることで、表示レンズを省いた構成であってもよい。 The display unit 21 includes, for example, a display lens and a projector that projects an image onto the display lens. The display unit 21 displays the image to the operator by projecting the image on the display lens from the projector. The image is, for example, content C (see FIG. 4) such as a work manual or a three-dimensional model provided to the operator. The display unit 21 may be configured so as to be capable of displaying an image to the operator, and the display lens may be omitted by using a projector that directly projects the image to the operator's eyes. ..

撮像部22は、例えば、カメラであり、作業者の視野を含む範囲を撮像する。撮像部22は、制御部25に接続されており、制御部25へ向けて撮像した画像の画像データを出力する。 The imaging unit 22 is, for example, a camera, and images a range including the field of view of the operator. The image capturing unit 22 is connected to the control unit 25 and outputs image data of an image captured toward the control unit 25.

赤外線センサ23は、作業者の操作を検知するものである。なお、赤外線センサ23に特に限定されず、作業者の操作を検知するものであれば、いずれのデバイスを適用してもよい。作業者は、表示部21に表示されたコンテンツCに対する操作を現実空間において行う。操作としては、例えば、スワイプ等のジェスチャである。赤外線センサ23は、制御部25に接続されており、制御部25へ向けて、検知した操作に関する操作データを出力する。なお、赤外線センサ23は、作業者の視野(撮像部22の視野)において、バーチャルディスプレイ10と重なる位置で作業者が操作した場合に、操作が有効であるとして検知するようにしてもよい。 The infrared sensor 23 detects the operation of the operator. The infrared sensor 23 is not particularly limited, and any device may be applied as long as it detects the operation of the operator. The operator performs an operation on the content C displayed on the display unit 21 in the real space. The operation is, for example, a gesture such as a swipe. The infrared sensor 23 is connected to the control unit 25 and outputs operation data related to the detected operation to the control unit 25. The infrared sensor 23 may detect that the operation is effective when the operator operates the image in the field of view of the operator (the field of view of the imaging unit 22) at a position overlapping the virtual display 10.

ID認識部24は、作業者に与えられたID情報(識別情報)D1を認識するものである。作業者には、作業者を識別するための固有のID情報D1が与えられている。ID情報D1は、例えば、ID情報D1が記録されたタグであってもよいし、作業者が記憶している記号であってもよく、特に限定されない。ID認識部24は、作業者から入力されるID情報D1を取得する。ID認識部24は、制御部25に接続されており、制御部25へ向けて、取得したID情報D1を出力する。 The ID recognition unit 24 recognizes the ID information (identification information) D1 given to the worker. The worker is given unique ID information D1 for identifying the worker. The ID information D1 may be, for example, a tag in which the ID information D1 is recorded, or a symbol stored by the operator, and is not particularly limited. The ID recognition unit 24 acquires the ID information D1 input from the worker. The ID recognition unit 24 is connected to the control unit 25 and outputs the acquired ID information D1 to the control unit 25.

記憶部26は、制御部25の処理結果を一時的に記憶する作業領域として利用される。記憶部26は、半導体記憶デバイス、及び磁気記憶デバイス等の任意の記憶デバイスを含む。また、記憶部26は、各種プログラム及び各種データを記憶している。例えば、記憶部26は、各種プログラムとして、表示部21の表示制御に関するプログラムが記憶されている。また、記憶部26は、各種データとして、サーバ12から提供されるコンテンツCを記憶している。 The storage unit 26 is used as a work area for temporarily storing the processing result of the control unit 25. The storage unit 26 includes an arbitrary storage device such as a semiconductor storage device and a magnetic storage device. In addition, the storage unit 26 stores various programs and various data. For example, the storage unit 26 stores programs related to display control of the display unit 21 as various programs. Further, the storage unit 26 stores the content C provided by the server 12 as various data.

制御部25は、例えば、CPU(Central Processing Unit)等の集積回路を含んでいる。具体的に、制御部25は、記憶部26に記憶されているプログラムに含まれる命令を実行することによって各種機能を実現する。制御部25は、例えば、表示制御に関するプログラムを実行することにより、表示部21にコンテンツCを表示する。 The control unit 25 includes, for example, an integrated circuit such as a CPU (Central Processing Unit). Specifically, the control unit 25 realizes various functions by executing the instructions included in the program stored in the storage unit 26. The control unit 25 displays the content C on the display unit 21, for example, by executing a program related to display control.

サーバ12は、ネットワーク15を介してARデバイス11にコンテンツCを提供したり、ARデバイス11で取得した各種データを取得したりする。サーバ12は、処理部31と、コンテンツ記憶部32と、作業報告書記憶部33とを有している。 The server 12 provides the content C to the AR device 11 via the network 15 and acquires various data acquired by the AR device 11. The server 12 has a processing unit 31, a content storage unit 32, and a work report storage unit 33.

コンテンツ記憶部32は、コンテンツCを記憶している。コンテンツCは、ID情報D1と対応付けられて記憶されており、作業者には、予め設定されたコンテンツCが提供される。コンテンツCとしては、例えば、作業者に対して作業工程及び作業手順に関する情報である作業マニュアル等である。 The content storage unit 32 stores the content C. The content C is stored in association with the ID information D1, and the worker is provided with the preset content C. The content C is, for example, a work manual or the like which is information on a work process and a work procedure for a worker.

作業報告書記憶部33は、ARデバイス11により生成された作業報告書、またはARデバイス11から取得した情報に基づいてサーバ12により生成された作業報告書を記憶している。作業報告書は、作業者の作業工程に関する作業内容を時系列に沿って取得したものである。作業報告書には、例えば、作業対象物16に関する情報、作業結果、作業日時等が記録される。 The work report storage unit 33 stores the work report generated by the AR device 11 or the work report generated by the server 12 based on the information acquired from the AR device 11. The work report is obtained by acquiring the work contents related to the work process of the worker in chronological order. In the work report, for example, information about the work object 16, work results, work date and time, and the like are recorded.

上記の拡張現実表示システム1が用いられる作業空間E1には、図1及び図2に示すように、作業対象物16に対して、第2の識別マークM2が付されている。第2の識別マークM2には、作業対象物16に関する情報が含まれている。作業対象物16に関する情報としては、例えば、作業対象物16を特定するための情報を含む。また、詳細は後述するが、第2の識別マークM2は、作業対象物16の作業空間E1における位置及び範囲を特定するための情報を含んでもよい。ARデバイス11は、第2の識別マークM2を識別することで、作業対象物16の作業空間E1における位置及び範囲を取得する。 As shown in FIGS. 1 and 2, a second identification mark M2 is attached to the work object 16 in the work space E1 in which the augmented reality display system 1 is used. The second identification mark M2 contains information about the work object 16. The information regarding the work object 16 includes, for example, information for identifying the work object 16. Further, as will be described in detail later, the second identification mark M2 may include information for specifying the position and range of the work object 16 in the work space E1. By identifying the second identification mark M2, the AR device 11 acquires the position and range of the work object 16 in the work space E1.

このように、拡張現実表示システム1は、バーチャルディスプレイ10に付された第1の識別マークM1を識別することで、第1の識別マークM1に基づく表示制御を行ったり、作業対象物16に付された第2の識別マークM2を識別することで、第2の識別マークM2に基づく表示制御を行ったりする。 In this way, the augmented reality display system 1 identifies the first identification mark M1 attached to the virtual display 10 to perform display control based on the first identification mark M1 or attaches to the work object 16. By identifying the second identification mark M2, display control based on the second identification mark M2 is performed.

次に、図3を参照して、拡張現実表示システム1において、ARデバイス11の表示部21における表示制御の一例について説明する。図3は、ARデバイスの表示部に関する一例の説明図である。 Next, an example of display control in the display unit 21 of the AR device 11 in the augmented reality display system 1 will be described with reference to FIG. FIG. 3 is an explanatory diagram of an example relating to the display unit of the AR device.

拡張現実表示システム1において、ARデバイス11の制御部25は、撮像部22により作業空間E1の作業対象物16に付された第2の識別マークM2を撮像すると、画像認識によって第2の識別マークM2を識別する。制御部25は、第2の識別マークM2を識別すると、第2の識別マークM2に含まれる情報に基づいて、作業空間E1における作業対象物16の位置及び範囲を取得する。 In the augmented reality display system 1, when the control unit 25 of the AR device 11 images the second identification mark M2 attached to the work object 16 of the work space E1 by the image pickup unit 22, the second identification mark M2 is recognized by image recognition. Identify M2. When the control unit 25 identifies the second identification mark M2, the control unit 25 acquires the position and range of the work object 16 in the work space E1 based on the information contained in the second identification mark M2.

制御部25は、作業空間E1における作業対象物16の位置及び範囲を取得すると、作業空間E1内における作業対象物16の位置及び範囲に基づいて、表示部21上における作業空間E1の位置を取得し、表示部21上の表示領域E2と、表示部21上の作業空間E1とが重なっているか否かを判定する。制御部25は、表示領域E2と作業空間E1とが重なっていると判定すると、作業空間E1と重なった表示領域E2を、作業空間E1を視認可能な可視領域E2aとして設定する(ステップS1)。可視領域E2aは、作業対象物16への作業を行うために、コンテンツCの表示を抑制し、視認性を確保する領域となっている。 When the control unit 25 acquires the position and range of the work object 16 in the work space E1, the control unit 25 acquires the position of the work space E1 on the display unit 21 based on the position and range of the work object 16 in the work space E1. Then, it is determined whether or not the display area E2 on the display unit 21 and the work space E1 on the display unit 21 overlap. When the control unit 25 determines that the display area E2 and the work space E1 overlap, the control unit 25 sets the display area E2 that overlaps the work space E1 as the visible visible area E2a in which the work space E1 is visible (step S1). The visible region E2a is an region for suppressing the display of the content C and ensuring visibility in order to perform work on the work object 16.

また、制御部25は、可視領域E2aの外側の表示領域E2に、各種情報を表示している。作業者は、可視領域E2aの外側の表示領域E2を視認する場合、作業空間E1に対する表示部21の位置を変化させる。例えば、作業者は、作業空間E1に対してARデバイス11を図3の左側に移動させると、可視領域E2aの左側の表示領域E2が広がる(ステップS2)。制御部25は、可視領域E2aの左側の表示領域E2に、コンテンツCとして作業対象物16に関する提供情報D2を表示する。提供情報D2としては、例えば、作業工程の手順等に関する情報である。 Further, the control unit 25 displays various information in the display area E2 outside the visible area E2a. When the operator visually recognizes the display area E2 outside the visible area E2a, the operator changes the position of the display unit 21 with respect to the work space E1. For example, when the operator moves the AR device 11 to the left side of FIG. 3 with respect to the work space E1, the display area E2 on the left side of the visible area E2a expands (step S2). The control unit 25 displays the provided information D2 regarding the work object 16 as the content C in the display area E2 on the left side of the visible area E2a. The provided information D2 is, for example, information related to a procedure of a work process or the like.

また、例えば、作業者は、作業空間E1に対してARデバイス11を図3の右側に移動させると、可視領域E2aの右側の表示領域E2が広がる(ステップS3)。制御部25は、可視領域E2aの右側の表示領域E2に、コンテンツCとして、作業対象物16の作業工程をチェックするためのチェック情報D3を表示する。チェック情報D3としては、例えば、作業工程が完了した場合に、作業工程が終了したことを入力するための情報である。 Further, for example, when the operator moves the AR device 11 to the right side of FIG. 3 with respect to the work space E1, the display area E2 on the right side of the visible area E2a expands (step S3). The control unit 25 displays the check information D3 for checking the work process of the work object 16 as the content C in the display area E2 on the right side of the visible area E2a. The check information D3 is, for example, information for inputting that the work process has been completed when the work process is completed.

次に、図4を参照して、拡張現実表示システム1において、ARデバイス11の表示部21における表示制御の一例について説明する。図4は、バーチャルディスプレイを用いたARデバイスの表示部に関する一例の説明図である。 Next, an example of display control in the display unit 21 of the AR device 11 in the augmented reality display system 1 will be described with reference to FIG. FIG. 4 is an explanatory diagram of an example of a display unit of an AR device using a virtual display.

拡張現実表示システム1において、ARデバイス11の制御部25は、撮像部22によりバーチャルディスプレイ10に付された第1の識別マークM1を撮像すると、画像認識によって第1の識別マークM1を識別する。制御部25は、第1の識別マークM1を識別すると、第1の識別マークM1に含まれる情報に基づいて、バーチャルディスプレイ10を特定する。ARデバイス11の制御部25は、バーチャルディスプレイ10を特定すると、第1の識別マークM1の枠内に、コンテンツCを表示する。コンテンツCとしては、例えば、作業マニュアルまたは三次元モデル等である。また、ARデバイス11の制御部25は、識別した第1の識別マークM1の形状に基づいて、バーチャルディスプレイ10の本体部18の傾きを算出し、本体部18の傾きに応じてコンテンツCを傾けて、バーチャルディスプレイ10の第1の識別マークM1の枠内に収まるように、表示部21に表示する。 In the augmented reality display system 1, when the control unit 25 of the AR device 11 images the first identification mark M1 attached to the virtual display 10 by the image pickup unit 22, the control unit 25 identifies the first identification mark M1 by image recognition. When the control unit 25 identifies the first identification mark M1, the control unit 25 identifies the virtual display 10 based on the information contained in the first identification mark M1. When the control unit 25 of the AR device 11 identifies the virtual display 10, the content C is displayed in the frame of the first identification mark M1. The content C is, for example, a work manual or a three-dimensional model. Further, the control unit 25 of the AR device 11 calculates the inclination of the main body 18 of the virtual display 10 based on the shape of the identified first identification mark M1, and tilts the content C according to the inclination of the main body 18. Then, it is displayed on the display unit 21 so as to fit within the frame of the first identification mark M1 of the virtual display 10.

なお、制御部25は、表示部21の可視領域E2a内に対応する作業空間E1おいて、第1の識別マークM1を認識した場合、表示部21の可視領域E2a内に、コンテンツCを表示する。 When the control unit 25 recognizes the first identification mark M1 in the work space E1 corresponding to the visible area E2a of the display unit 21, the content C is displayed in the visible area E2a of the display unit 21. ..

次に、図5から図8を参照して、拡張現実表示システム1の表示に関する一例の表示制御について説明する。図5から図8は、本実施形態に係る拡張現実表示システムの表示制御に関する一例のフローチャートである。 Next, an example of display control related to the display of the augmented reality display system 1 will be described with reference to FIGS. 5 to 8. 5 to 8 are flowcharts of an example relating to the display control of the augmented reality display system according to the present embodiment.

図5は、作業者に対応するコンテンツCを、拡張現実表示システム1の表示部21に表示するフローチャートである。先ず、拡張現実表示システム1において、ARデバイス11の制御部25は、ID認識部24により作業者のID情報D1を認識して取得する(ステップS11)。制御部25は、取得したID情報D1に基づき、ネットワーク15を介してサーバ12のコンテンツ記憶部32から、ID情報D1に関連付けられたコンテンツCを取得する(ステップS12)。そして、制御部25は、取得したコンテンツCを表示部21に表示する(ステップS13)。 FIG. 5 is a flowchart for displaying the content C corresponding to the operator on the display unit 21 of the augmented reality display system 1. First, in the augmented reality display system 1, the control unit 25 of the AR device 11 recognizes and acquires the ID information D1 of the worker by the ID recognition unit 24 (step S11). Based on the acquired ID information D1, the control unit 25 acquires the content C associated with the ID information D1 from the content storage unit 32 of the server 12 via the network 15 (step S12). Then, the control unit 25 displays the acquired content C on the display unit 21 (step S13).

図6は、作業者のジェスチャに応じて、コンテンツCの表示を切り替えるフローチャートである。先ず、拡張現実表示システム1において、ARデバイス11の制御部25は、表示部21にコンテンツCを表示した状態において、赤外線センサ23により作業者のジェスチャ(操作)を検出する(ステップS21)。すると、制御部25は、検出した作業者のジェスチャに応じて、コンテンツCの表示を切り替える(ステップS22)。例えば、コンテンツCとして、複数頁からなる作業マニュアルである場合、作業者は、スワイプ操作を行うことにより、制御部25は、作業マニュアルの頁送りに関する表示を行う。なお、制御部25は、検出されたジェスチャが、作業者の視野においてバーチャルディスプレイ10の表示範囲での動作か否かを判断して、コンテンツ操作に反映することとしてもよい。 FIG. 6 is a flowchart for switching the display of the content C according to the gesture of the operator. First, in the augmented reality display system 1, the control unit 25 of the AR device 11 detects the gesture (operation) of the operator by the infrared sensor 23 in the state where the content C is displayed on the display unit 21 (step S21). Then, the control unit 25 switches the display of the content C according to the gesture of the detected worker (step S22). For example, when the content C is a work manual composed of a plurality of pages, the operator swipes the operation, and the control unit 25 displays the page feed of the work manual. The control unit 25 may determine whether or not the detected gesture operates within the display range of the virtual display 10 in the field of view of the operator and reflect it in the content operation.

図7は、図4に示すバーチャルディスプレイを用いたARデバイス11の表示部21における表示制御のフローチャートである。先ず、拡張現実表示システム1において、ARデバイス11の制御部25は、バーチャルディスプレイ10に付された第1の識別マークM1を識別する(ステップS31)。制御部25は、第1の識別マークM1を識別すると、識別した第1の識別マークM1の形状に基づいて、バーチャルディスプレイ10の本体部18の傾きを算出して取得する(ステップS32)。この後、制御部25は、本体部18の傾きに応じた表示形態となるように、第1の識別マークM1に対応するコンテンツCを表示する(ステップS33)。なお、傾きに応じた表示形態としては、コンテンツCを傾けて表示する形態であったり、コンテンツCを回転させて表示する形態であったりする。 FIG. 7 is a flowchart of display control in the display unit 21 of the AR device 11 using the virtual display shown in FIG. First, in the augmented reality display system 1, the control unit 25 of the AR device 11 identifies the first identification mark M1 attached to the virtual display 10 (step S31). When the control unit 25 identifies the first identification mark M1, the control unit 25 calculates and acquires the inclination of the main body unit 18 of the virtual display 10 based on the shape of the identified first identification mark M1 (step S32). After that, the control unit 25 displays the content C corresponding to the first identification mark M1 so that the display form corresponds to the inclination of the main body unit 18 (step S33). The display form according to the tilt may be a form in which the content C is tilted and displayed, or a form in which the content C is rotated and displayed.

図8は、図3に示すARデバイス11の表示部21における表示制御のフローチャートである。先ず、拡張現実表示システム1において、ARデバイス11の制御部25は、作業空間E1の作業対象物16に付された第2の識別マークM2を識別する(ステップS41)。制御部25は、第2の識別マークM2を識別すると、第2の識別マークM2に含まれる作業対象物16の位置及び範囲の情報に基づいて、表示部21上における作業空間E1の位置を取得し、表示部21上の表示領域E2と、表示部21上の作業空間E1とが重なっているか否かを判定する(ステップS42)。制御部25は、表示領域E2と作業空間E1とが重なっていると判定する(ステップS42:Yes)と、作業空間E1と重なっている表示部21の表示領域E2を可視領域E2aとして設定する(ステップS43)。一方で、制御部25は、表示領域E2と作業空間E1とが重なっていないと判定する(ステップS42:No)と、後述するステップS46に進む。 FIG. 8 is a flowchart of display control in the display unit 21 of the AR device 11 shown in FIG. First, in the augmented reality display system 1, the control unit 25 of the AR device 11 identifies the second identification mark M2 attached to the work object 16 of the work space E1 (step S41). When the control unit 25 identifies the second identification mark M2, the control unit 25 acquires the position of the work space E1 on the display unit 21 based on the information on the position and range of the work object 16 included in the second identification mark M2. Then, it is determined whether or not the display area E2 on the display unit 21 and the work space E1 on the display unit 21 overlap each other (step S42). When the control unit 25 determines that the display area E2 and the work space E1 overlap (step S42: Yes), the control unit 25 sets the display area E2 of the display unit 21 that overlaps the work space E1 as the visible area E2a (step S42: Yes). Step S43). On the other hand, when the control unit 25 determines that the display area E2 and the work space E1 do not overlap (step S42: No), the control unit 25 proceeds to step S46, which will be described later.

制御部25は、ステップS43の実行後、可視領域E2a以外の表示領域E2に、提供情報D2またはチェック情報D3を表示可能であるか否かを判定する(ステップS44)。具体的に、ステップS44では、可視領域E2a以外の表示領域E2が、提供情報D2またはチェック情報D3を表示可能な領域の広さとなっているか否かにより判定している。制御部25は、提供情報D2またはチェック情報D3を表示可能であると判定する(ステップS44:Yes)と、提供情報D2またはチェック情報D3を表示する(ステップS45)。一方で、制御部25は、提供情報D2またはチェック情報D3を表示可能でないと判定する(ステップS44:No)と、後述するステップS46に進む。 After executing step S43, the control unit 25 determines whether or not the provided information D2 or the check information D3 can be displayed in the display area E2 other than the visible area E2a (step S44). Specifically, in step S44, it is determined whether or not the display area E2 other than the visible area E2a is the size of the area in which the provided information D2 or the check information D3 can be displayed. When the control unit 25 determines that the provided information D2 or the check information D3 can be displayed (step S44: Yes), the control unit 25 displays the provided information D2 or the check information D3 (step S45). On the other hand, when the control unit 25 determines that the provided information D2 or the check information D3 cannot be displayed (step S44: No), the control unit 25 proceeds to step S46, which will be described later.

制御部25は、ステップS45の実行後、バーチャルディスプレイ10に付された第1の識別マークM1を識別する(ステップS46)と、ステップS43において可視領域E2aを設定したか否かを判定する(ステップS47)。制御部25は、可視領域E2aを設定していると判定する(ステップS47:Yes)と、第1の識別マークM1に対応するコンテンツCを、可視領域E2aを含む表示領域E2に表示する(ステップS48)。つまり、制御部25は、可視領域E2aを設定している場合であっても、コンテンツCを優先して表示する。一方で、制御部25は、可視領域E2aを設定していないと判定する(ステップS47:No)と、第1の識別マークM1に対応するコンテンツCを、表示領域E2に表示する(ステップS49)。制御部25は、ステップS48及びステップS49の実行後、図8に示す制御を終了する。 After executing step S45, the control unit 25 identifies the first identification mark M1 attached to the virtual display 10 (step S46), and determines whether or not the visible region E2a is set in step S43 (step S46). S47). When the control unit 25 determines that the visible region E2a is set (step S47: Yes), the control unit 25 displays the content C corresponding to the first identification mark M1 in the display region E2 including the visible region E2a (step S47: Yes). S48). That is, the control unit 25 preferentially displays the content C even when the visible region E2a is set. On the other hand, when the control unit 25 determines that the visible region E2a is not set (step S47: No), the content C corresponding to the first identification mark M1 is displayed in the display region E2 (step S49). .. After executing steps S48 and S49, the control unit 25 ends the control shown in FIG.

次に、図9を参照して、拡張現実表示システム1による作業報告書の生成に関する処理について説明する。図9は、本実施形態に係る拡張現実表示システムの作業報告書の生成に関する一例のフローチャートである。先ず、拡張現実表示システム1において、ARデバイス11の制御部25は、コンテンツCに基づく作業工程が実行されたか否かを判定する(ステップS51)。ステップS51において、制御部25は、例えば、図3に示すチェック情報D3に基づいて、作業工程が完了したか否かを判定してもよい。 Next, with reference to FIG. 9, the process related to the generation of the work report by the augmented reality display system 1 will be described. FIG. 9 is a flowchart of an example relating to the generation of a work report of the augmented reality display system according to the present embodiment. First, in the augmented reality display system 1, the control unit 25 of the AR device 11 determines whether or not the work process based on the content C has been executed (step S51). In step S51, the control unit 25 may determine, for example, whether or not the work process is completed based on the check information D3 shown in FIG.

制御部25は、作業工程が完了したと判定する(ステップS52:Yes)と、完了した作業工程に関する作業内容を時系列に沿って取得して、作業報告書を自動で生成する(ステップS53)。そして、制御部25は、生成した作業報告書を、ネットワーク15を介してサーバ12の作業報告書記憶部33に記憶する(ステップS54)。ステップS54の実行後、制御部25は、作業報告書の生成に関する処理を終了する。 When the control unit 25 determines that the work process has been completed (step S52: Yes), the control unit 25 acquires the work contents related to the completed work process in chronological order and automatically generates a work report (step S53). .. Then, the control unit 25 stores the generated work report in the work report storage unit 33 of the server 12 via the network 15 (step S54). After the execution of step S54, the control unit 25 ends the process related to the generation of the work report.

一方で、制御部25は、作業工程が完了していないと判定する(ステップS52:No)と、作業途中の作業内容を記憶部26に記憶し、再び、ステップS51に進んで、作業工程が完了したか否かを判定する。 On the other hand, when the control unit 25 determines that the work process has not been completed (step S52: No), the control unit 25 stores the work content during the work in the storage unit 26, and proceeds to step S51 again to complete the work process. Determine if it is complete.

なお、本実施形態では、作業報告書の生成を、ARデバイス11の制御部25において実行したが、サーバ12の処理部31において作業報告書の生成を実行してもよく、特に限定されない。 In the present embodiment, the work report is generated by the control unit 25 of the AR device 11, but the work report may be generated by the processing unit 31 of the server 12, and is not particularly limited.

以上のように、本実施形態に記載の拡張現実表示システム1は、例えば、以下のように把握される。 As described above, the augmented reality display system 1 described in the present embodiment is grasped as follows, for example.

第1の態様に係る拡張現実表示システム1は、現実空間にコンテンツを重ねて表示することで、前記現実空間を仮想的に拡張する拡張現実表示システム1において、第1の識別マークM1が付されたバーチャルディスプレイ10と、前記現実空間を撮像する撮像部22と、前記現実空間に重ねて前記コンテンツCを表示する表示部21と、前記表示部21への前記コンテンツCの表示に関する表示制御を実行する制御部25と、を備え、前記制御部25は、前記撮像部22により前記第1の識別マークM1が撮像されて、前記第1の識別マークM1を認識すると、前記バーチャルディスプレイ10の前記現実空間における位置に対応する前記表示部21の表示領域に、前記コンテンツCを表示する。 In the augmented reality display system 1 according to the first aspect, the first identification mark M1 is attached to the augmented reality display system 1 that virtually expands the real space by superimposing and displaying the contents in the real space. The virtual display 10, the imaging unit 22 that captures the real space, the display unit 21 that superimposes the content C on the real space, and the display control regarding the display of the content C on the display unit 21 are executed. When the first identification mark M1 is imaged by the imaging unit 22 and the first identification mark M1 is recognized, the control unit 25 includes the reality of the virtual display 10. The content C is displayed in the display area of the display unit 21 corresponding to the position in the space.

この構成によれば、バーチャルディスプレイ10の第1の識別マークM1が認識されることで、ARデバイス11の表示部21にコンテンツCを表示することができる。このため、例えば、コンテンツCとして作業マニュアルを表示する場合、バーチャルディスプレイ10を仮想の作業マニュアルとして機能させることができ、現実の作業マニュアルと同等の使用方法で、使用することができる。このため、作業者に対して、直感的な操作を促すことができるユーザフレンドリーな拡張現実表示システム1とすることができる。具体的に説明すると、AR技術に慣れていない作業者は、何もない空間に対してジェスチャを行ってコンテンツCを表示する操作を習得することに時間を要することから、作業効率が低下する。一方で、本開示において、作業者は、バーチャルディスプレイ10を手で扱うことができ、バーチャルディスプレイ上でジェスチャを行うことで、コンテンツCを表示させることができるため、より直感的な操作を行うことができる。また、現実空間とコンテンツCとの重畳表示は、コンテンツCの表示時間、表示条件、表示部21上の位置を、バーチャルディスプレイ10を用いることで特定することが可能となる。 According to this configuration, the content C can be displayed on the display unit 21 of the AR device 11 by recognizing the first identification mark M1 of the virtual display 10. Therefore, for example, when the work manual is displayed as the content C, the virtual display 10 can be made to function as a virtual work manual, and can be used in the same usage as the actual work manual. Therefore, it is possible to provide a user-friendly augmented reality display system 1 that can encourage workers to operate intuitively. Specifically, since it takes time for a worker who is not accustomed to the AR technique to learn the operation of performing a gesture in an empty space and displaying the content C, the work efficiency is lowered. On the other hand, in the present disclosure, the operator can handle the virtual display 10 by hand and can display the content C by performing a gesture on the virtual display, so that a more intuitive operation can be performed. Can be done. Further, in the superimposed display of the real space and the content C, the display time of the content C, the display conditions, and the position on the display unit 21 can be specified by using the virtual display 10.

第2の態様として、前記コンテンツCは、3次元モデルを含み、前記制御部25は、前記第1の識別マークM1の形状に基づいて、前記バーチャルディスプレイ10の傾きを算出し、算出した前記バーチャルディスプレイ10の傾きに応じて、前記コンテンツCを傾けて表示する。 As a second aspect, the content C includes a three-dimensional model, and the control unit 25 calculates the inclination of the virtual display 10 based on the shape of the first identification mark M1, and the calculated virtual. The content C is tilted and displayed according to the tilt of the display 10.

この構成によれば、第1の識別マークM1を、傾きを算出するためのマークとして機能させることができる。このため、第1の識別マークM1により、コンテンツCの三次元的な表示を行うことができる。例えば、バーチャルディスプレイ10上に並行してコンテンツCとしての部品の3Dモデルを表示した場合、バーチャルディスプレイ10の傾きを変えれば、部品の3Dモデルも傾きが変わるため、操作者が任意の角度から見ることができ、天地の方向も分かり易いものとなる。 According to this configuration, the first identification mark M1 can function as a mark for calculating the inclination. Therefore, the content C can be displayed three-dimensionally by the first identification mark M1. For example, when a 3D model of a part as content C is displayed in parallel on the virtual display 10, if the inclination of the virtual display 10 is changed, the inclination of the 3D model of the part also changes, so that the operator views it from an arbitrary angle. It is possible to understand the direction of the top and bottom.

第3の態様として、前記現実空間は、作業者により作業が行われる作業空間E1を含み、前記作業空間E1には、第2の識別マークM2が付されており、前記制御部25は、前記撮像部22により前記第2の識別マークM2が撮像されて、前記第2の識別マークM2を認識すると、前記作業空間E1の位置に応じた前記表示部21の表示領域を、前記作業空間E1を視認可能な可視領域E2aとして設定する。 As a third aspect, the real space includes a work space E1 in which work is performed by an operator, the work space E1 is attached with a second identification mark M2, and the control unit 25 is described. When the second identification mark M2 is imaged by the imaging unit 22 and the second identification mark M2 is recognized, the display area of the display unit 21 according to the position of the work space E1 is displayed on the work space E1. It is set as a visible visible area E2a.

この構成によれば、現実空間とコンテンツCとの重畳表示は、作業を却って妨げる場合もあるが、可視領域E2aを設定することで、作業空間E1の視界を確保することができるため、作業空間E1の位置に応じた表示部21の表示領域にコンテンツCが表示されることを抑制することができる。 According to this configuration, the superimposed display of the real space and the content C may hinder the work, but by setting the visible area E2a, the visibility of the work space E1 can be secured, so that the work space can be secured. It is possible to suppress the display of the content C in the display area of the display unit 21 according to the position of E1.

第4の態様として、前記制御部25は、前記可視領域E2aに応じた前記作業空間E1の位置において、前記第1の識別マークM1を認識すると、前記バーチャルディスプレイ10の位置に対応する前記表示部21の前記可視領域E2aに、前記コンテンツCを表示する。 As a fourth aspect, when the control unit 25 recognizes the first identification mark M1 at the position of the work space E1 corresponding to the visible region E2a, the display unit 25 corresponds to the position of the virtual display 10. The content C is displayed in the visible region E2a of 21.

この構成によれば、バーチャルディスプレイ10が用いられた場合は、可視領域E2aであっても、バーチャルディスプレイ10の表示を優先的に行うことができる。 According to this configuration, when the virtual display 10 is used, the display of the virtual display 10 can be preferentially performed even in the visible region E2a.

第5の態様として、前記バーチャルディスプレイ10は、シート状の本体部18と、前記本体部18の縁に沿って枠状に形成される前記第1の識別マークM1と、を有する。 As a fifth aspect, the virtual display 10 has a sheet-shaped main body portion 18 and the first identification mark M1 formed in a frame shape along the edge of the main body portion 18.

この構成によれば、第1の識別マークM1を枠状に形成することで、第1の識別マークM1の枠内にコンテンツCを表示することができる。ここで、コンテンツCは不透明ではない場合があり、この場合、背景の現実空間が透けてしまうことから、コンテンツCと第1の識別マークM1とが重なり合うと、視認性が低下してしまう。このため、第1の識別マークM1の枠内にコンテンツCを表示することで、第1の識別マークM1とコンテンツCとが重なり合うことを抑制することができるため、コンテンツCの視認性を高めることができる。 According to this configuration, by forming the first identification mark M1 in a frame shape, the content C can be displayed in the frame of the first identification mark M1. Here, the content C may not be opaque, and in this case, since the real space of the background is transparent, if the content C and the first identification mark M1 overlap, the visibility is lowered. Therefore, by displaying the content C in the frame of the first identification mark M1, it is possible to suppress the overlap between the first identification mark M1 and the content C, thereby improving the visibility of the content C. Can be done.

第6の態様として、作業者に付された識別情報を取得する識別情報取得部(ID認識部24)と、前記識別情報(ID情報D1)と前記コンテンツCとを関連付けて記憶するコンテンツ記憶部32と、をさらに備え、前記制御部25は、前記識別情報取得部24により取得した前記識別情報D1に基づいて、前記コンテンツ記憶部32から前記コンテンツCを取得し、取得した前記コンテンツCを前記表示部に表示する。 As a sixth aspect, an identification information acquisition unit (ID recognition unit 24) that acquires the identification information attached to the worker, and a content storage unit that stores the identification information (ID information D1) and the content C in association with each other. 32, and the control unit 25 acquires the content C from the content storage unit 32 based on the identification information D1 acquired by the identification information acquisition unit 24, and obtains the acquired content C. Display on the display.

この構成によれば、作業者に対応付けられたコンテンツCのみを表示部21に表示することができるため、作業者に対して必要なコンテンツCを提供することができる。 According to this configuration, only the content C associated with the worker can be displayed on the display unit 21, so that the necessary content C can be provided to the worker.

第7の態様として、前記コンテンツは、作業者の作業工程に関するコンテンツであり、前記制御部は、前記コンテンツに基づく前記作業者の前記作業工程が実行されたか否かを判定し、前記作業工程が実行されたと判定した場合、前記作業工程が完了したと判定する。 As a seventh aspect, the content is content related to the work process of the worker, and the control unit determines whether or not the work process of the worker based on the content has been executed, and the work process is performed. When it is determined that the work process has been executed, it is determined that the work process has been completed.

この構成によれば、作業者による作業工程の実行を確認することができる。 According to this configuration, it is possible to confirm the execution of the work process by the operator.

第8の態様として、前記作業者の前記作業工程に関する作業報告書を記憶する作業報告書記憶部33を、さらに備え、前記制御部は、前記作業者の前記作業工程に関する作業内容を時系列に沿って取得して前記作業報告書を生成し、生成した前記作業報告書を前記作業報告書記憶部33に記憶する。 As an eighth aspect, a work report storage unit 33 for storing a work report related to the work process of the worker is further provided, and the control unit sequentially records the work contents of the worker related to the work process. The work report is generated, and the generated work report is stored in the work report storage unit 33.

この構成によれば、作業者による作業内容に基づく作業報告書を自動で生成することができるため、作業報告書を作成する作業を低減することができる。 According to this configuration, a work report based on the work contents by the worker can be automatically generated, so that the work of creating the work report can be reduced.

1 拡張現実表示システム
10 バーチャルディスプレイ
11 ARデバイス
12 サーバ
15 ネットワーク
16 作業対象物
18 本体部
21 表示部
22 撮像部
23 赤外線センサ
24 ID認識部
25 制御部
26 記憶部
31 処理部
32 コンテンツ記憶部
33 作業報告書記憶部
E1 作業空間
E2 表示領域
E2a 可視領域
M1 第1の識別マーク
M2 第2の識別マーク
D1 ID情報
D2 提供情報
D3 チェック情報
C コンテンツ
1 Augmented reality display system 10 Virtual display 11 AR device 12 Server 15 Network 16 Work object 18 Main unit 21 Display unit 22 Imaging unit 23 Infrared sensor 24 ID recognition unit 25 Control unit 26 Storage unit 31 Processing unit 32 Content storage unit 33 Work Report storage unit E1 Workspace E2 Display area E2a Visible area M1 First identification mark M2 Second identification mark D1 ID information D2 Provided information D3 Check information C Content

Claims (8)

現実空間にコンテンツを重ねて表示することで、前記現実空間を仮想的に拡張する拡張現実表示システムにおいて、
第1の識別マークが付されたバーチャルディスプレイと、
前記現実空間を撮像する撮像部と、
前記現実空間に重ねて前記コンテンツを表示する表示部と、
前記表示部への前記コンテンツの表示に関する表示制御を実行する制御部と、を備え、
前記制御部は、
前記撮像部により前記第1の識別マークが撮像されて、前記第1の識別マークを認識すると、前記バーチャルディスプレイの前記現実空間における位置に対応する前記表示部の表示領域に、前記コンテンツを表示する拡張現実表示システム。
In an augmented reality display system that virtually expands the real space by superimposing content on the real space and displaying it.
A virtual display with the first identification mark and
An imaging unit that images the real space,
A display unit that displays the content overlaid on the real space,
A control unit that executes display control related to display of the content on the display unit is provided.
The control unit
When the first identification mark is imaged by the imaging unit and the first identification mark is recognized, the content is displayed in the display area of the display unit corresponding to the position of the virtual display in the real space. Augmented reality display system.
前記コンテンツは、3次元モデルを含み、
前記制御部は、前記第1の識別マークの形状に基づいて、前記バーチャルディスプレイの傾きを算出し、算出した前記バーチャルディスプレイの傾きに応じて、前記コンテンツを傾けて表示する請求項1に記載の拡張現実表示システム。
The content includes a three-dimensional model.
The first aspect of claim 1, wherein the control unit calculates the inclination of the virtual display based on the shape of the first identification mark, and inclines and displays the content according to the calculated inclination of the virtual display. Augmented reality display system.
前記現実空間は、作業者により作業が行われる作業空間を含み、
前記作業空間には、第2の識別マークが付されており、
前記制御部は、
前記撮像部により前記第2の識別マークが撮像されて、前記第2の識別マークを認識すると、前記作業空間の位置に応じた前記表示部の表示領域を、前記作業空間を視認可能な可視領域として設定する請求項1または2に記載の拡張現実表示システム。
The real space includes a work space in which work is performed by an operator.
A second identification mark is attached to the work space.
The control unit
When the second identification mark is imaged by the imaging unit and the second identification mark is recognized, the display area of the display unit according to the position of the work space is displayed as a visible area in which the work space can be visually recognized. The augmented reality display system according to claim 1 or 2, which is set as.
前記制御部は、
前記可視領域に応じた前記作業空間の位置において、前記第1の識別マークを認識すると、前記バーチャルディスプレイの位置に対応する前記表示部の前記可視領域に、前記コンテンツを表示する請求項3に記載の拡張現実表示システム。
The control unit
The third aspect of claim 3, wherein when the first identification mark is recognized at the position of the work space corresponding to the visible area, the content is displayed in the visible area of the display unit corresponding to the position of the virtual display. Augmented reality display system.
前記バーチャルディスプレイは、
シート状の本体部と、
前記本体部の縁に沿って枠状に形成される前記第1の識別マークと、を有する請求項1から4のいずれか1項に記載の拡張現実表示システム。
The virtual display is
Sheet-shaped body and
The augmented reality display system according to any one of claims 1 to 4, further comprising the first identification mark formed in a frame shape along the edge of the main body.
作業者に付された識別情報を取得する識別情報取得部と、
前記識別情報と前記コンテンツとを関連付けて記憶するコンテンツ記憶部と、をさらに備え、
前記制御部は、
前記識別情報取得部により取得した前記識別情報に基づいて、前記コンテンツ記憶部から前記コンテンツを取得し、取得した前記コンテンツを前記表示部に表示する請求項1から5のいずれか1項に記載の拡張現実表示システム。
The identification information acquisition unit that acquires the identification information attached to the worker,
A content storage unit that stores the identification information in association with the content is further provided.
The control unit
The item according to any one of claims 1 to 5, wherein the content is acquired from the content storage unit based on the identification information acquired by the identification information acquisition unit, and the acquired content is displayed on the display unit. Augmented reality display system.
前記コンテンツは、作業者の作業工程に関するコンテンツであり、
前記制御部は、
前記コンテンツに基づく前記作業者の前記作業工程が実行されたか否かを判定し、前記作業工程が実行されたと判定した場合、前記作業工程が完了したと判定する請求項1から6のいずれか1項に記載の拡張現実表示システム。
The content is content related to the work process of the worker, and is
The control unit
Any one of claims 1 to 6 that determines whether or not the work process of the worker based on the content has been executed, and if it is determined that the work process has been executed, it is determined that the work process has been completed. Augmented reality display system described in section.
前記作業者の前記作業工程に関する作業報告書を記憶する作業報告書記憶部を、さらに備え、
前記制御部は、
前記作業者の前記作業工程に関する作業内容を時系列に沿って取得して前記作業報告書を生成し、生成した前記作業報告書を前記作業報告書記憶部に記憶する請求項7に記載の拡張現実表示システム。
A work report storage unit for storing a work report related to the work process of the worker is further provided.
The control unit
The extension according to claim 7, wherein the work contents related to the work process of the worker are acquired in chronological order, the work report is generated, and the generated work report is stored in the work report storage unit. Reality display system.
JP2020033105A 2020-02-28 2020-02-28 Augmented reality display system Pending JP2021135878A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020033105A JP2021135878A (en) 2020-02-28 2020-02-28 Augmented reality display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020033105A JP2021135878A (en) 2020-02-28 2020-02-28 Augmented reality display system

Publications (1)

Publication Number Publication Date
JP2021135878A true JP2021135878A (en) 2021-09-13

Family

ID=77661413

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020033105A Pending JP2021135878A (en) 2020-02-28 2020-02-28 Augmented reality display system

Country Status (1)

Country Link
JP (1) JP2021135878A (en)

Similar Documents

Publication Publication Date Title
JP6491574B2 (en) AR information display device
CA3016539C (en) Image processing method, display device, and inspection system
JP4434890B2 (en) Image composition method and apparatus
JP5983053B2 (en) Guidance display system, guidance display device, guidance display method, and guidance display program
US9651782B2 (en) Wearable tracking device
JP6077010B2 (en) Work support terminal and work support system
US8994721B2 (en) Information processing apparatus, information processing method, and program for extending or expanding a viewing area of content displayed on a 2D workspace into a 3D virtual display screen
JP5450791B2 (en) Stereoscopic display device, stereoscopic imaging device, dominant eye determination method, dominant eye determination program and recording medium used therefor
US20130329247A1 (en) Image processing apparatus and image processing method
US20140118396A1 (en) Image processing device, image processing method, and computer program product
KR101797260B1 (en) Information processing apparatus, information processing system and information processing method
JPWO2007088939A1 (en) Information processing device
JP2019501747A5 (en)
JP2017191576A (en) Information processor, control method information processor and program
JP6381361B2 (en) DATA PROCESSING DEVICE, DATA PROCESSING SYSTEM, DATA PROCESSING DEVICE CONTROL METHOD, AND PROGRAM
JP2007207056A (en) Information input system
CN104035554A (en) Method To Operate Device In Sterile Environment
JP2021002290A (en) Image processing apparatus and method for controlling the same
JP2023082923A (en) Work support system, work object identifying device, and method
JPWO2005096130A1 (en) Method and apparatus for detecting designated position of imaging apparatus, and program for detecting designated position of imaging apparatus
JP2021135878A (en) Augmented reality display system
JP6852612B2 (en) Display program, information processing device, and display method
JP6618301B2 (en) Information processing apparatus, control method therefor, program, and storage medium
KR101211178B1 (en) System and method for playing contents of augmented reality
KR20190048810A (en) Apparatus and method for providing augmented reality contents

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240401