JP2018160036A - Control program, control method, and information processing device - Google Patents
Control program, control method, and information processing device Download PDFInfo
- Publication number
- JP2018160036A JP2018160036A JP2017056185A JP2017056185A JP2018160036A JP 2018160036 A JP2018160036 A JP 2018160036A JP 2017056185 A JP2017056185 A JP 2017056185A JP 2017056185 A JP2017056185 A JP 2017056185A JP 2018160036 A JP2018160036 A JP 2018160036A
- Authority
- JP
- Japan
- Prior art keywords
- work
- object information
- storage unit
- acquired
- combination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Testing And Monitoring For Control Systems (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
本件は、制御プログラム、制御方法、及び情報処理装置に関する。 This case relates to a control program, a control method, and an information processing apparatus.
現実世界と仮想世界の継ぎ目のない融合を目指したMixed Reality(MR:複合現実感)が知られている。また、MRを提供するための装置としてHead Mounted Display(HMD:頭部装着型表示装置)が知られている。さらに、MRの適用分野として作業支援が知られている。特に、工場において製品の組立手順を仮想空間画像として実際の製品に重ねて表示する作業支援が知られている(以上、例えば特許文献1参照)。 Mixed reality (MR: mixed reality) aimed at seamless fusion of the real world and the virtual world is known. Further, a head mounted display (HMD: head-mounted display device) is known as a device for providing MR. Furthermore, work support is known as an application field of MR. In particular, work support is known in which a product assembly procedure is displayed as a virtual space image superimposed on an actual product in a factory (see, for example, Patent Document 1).
一方、設備機器の点検作業や保守作業など、さまざまな作業の効率化を目的として、Augmented Reality(AR:拡張現実)技術が導入されるケースが増えている。AR技術は、現実空間に対応する3次元の仮想空間を仮想的に設定し、現実空間には存在しないオブジェクト情報(いわゆるARオブジェクト)を仮想空間上に配置して表示する技術である。オブジェクト情報は、例えば作業内容の指示情報を含むことが知られている(以上、例えば特許文献2参照)。 On the other hand, Augmented Reality (AR) technology is increasingly introduced for the purpose of improving the efficiency of various operations such as inspection and maintenance of equipment. The AR technology is a technology for virtually setting a three-dimensional virtual space corresponding to a real space and arranging and displaying object information (so-called AR object) that does not exist in the real space in the virtual space. It is known that the object information includes, for example, work content instruction information (see, for example, Patent Document 2).
ところで、上述した作業では、一連の作業工程に従って設備機器の一部を動かして作業することがある。具体的には、設備機器に設けられたパネルを開閉したり、設備機器に設けられたレバーを回したりすることがある。このような場合、設備機器の外形の変化に基づいて、外形に応じたオブジェクト情報を仮想空間上に配置して表示すると、適切なオブジェクト情報が表示されないことがある。例えば、一連の作業工程の中で設備機器の現在の外形が既に作業を終えた設備機器の過去の外形と一致すると、現在の外形に対して過去の外形に応じたオブジェクト情報が表示される可能性がある。これにより、作業担当者は誤った作業を行うおそれがある。 By the way, in the work mentioned above, it may work by moving a part of equipment according to a series of work processes. Specifically, a panel provided in the equipment may be opened and closed, or a lever provided in the equipment may be turned. In such a case, if object information corresponding to the outer shape is arranged and displayed in the virtual space based on a change in the outer shape of the equipment, appropriate object information may not be displayed. For example, if the current outline of the equipment in the series of work steps matches the past outline of the equipment already finished, object information corresponding to the past outline can be displayed for the current outline There is sex. As a result, the person in charge of the work may perform an incorrect work.
そこで、1つの側面では、実施対象の作業に応じたオブジェクト情報を出力できる制御プログラム、制御方法、及び情報処理装置を提供することを目的とする。 In view of this, an object of one aspect is to provide a control program, a control method, and an information processing apparatus that can output object information according to work to be performed.
1つの実施態様では、制御プログラムは、複数の基準画像のうち、いずれかの基準画像が含まれる撮像画像を取得すると、作業の実施履歴を記憶する第1の記憶部を参照して、実施対象の作業を特定するとともに、第1のオブジェクト情報を基準画像と作業との組み合わせに対応付けて記憶する第2の記憶部を参照して、取得した前記撮像画像に含まれる前記基準画像と、特定した前記作業との組み合わせに対応付けられた第1のオブジェクト情報を取得し、取得した前記第1のオブジェクト情報を出力する、処理をコンピュータに実行させることを特徴とする。 In one embodiment, the control program obtains a captured image including any one of a plurality of reference images, and refers to a first storage unit that stores a work execution history, and performs an execution target. The reference image included in the acquired captured image with reference to the second storage unit that stores the first object information in association with the combination of the reference image and the work The first object information associated with the combination with the work is acquired, and the computer executes the process of outputting the acquired first object information.
実施対象の作業に応じたオブジェクト情報を出力することができる。 Object information corresponding to the work to be performed can be output.
以下、本件を実施するための形態について図面を参照して説明する。 Hereinafter, an embodiment for carrying out this case will be described with reference to the drawings.
(第1実施形態)
図1は情報処理システムSの一例を説明するための図である。図2はHMD100の一例である。情報処理システムSはHMD100と情報処理装置としてのサーバ装置200とを備えている。尚、HMD100に代えて、タブレット端末やスマートフォンといったスマートデバイスを利用してもよいが、HMD100を利用することにより、作業担当者10は台座30の上に置かれた作業実施対象としての設備機器20に対し両手で作業を行うことができる。
(First embodiment)
FIG. 1 is a diagram for explaining an example of the information processing system S. FIG. 2 is an example of the
HMD100とサーバ装置200は互いに接続されている。より詳しくは、HMD100とサーバ装置200はアクセスポイントAP及び通信ネットワークNWを介して接続されている。通信ネットワークNWとしては例えばLocal Area Network(LAN)などがある。したがって、HMD100は無線通信及び有線通信を利用してサーバ装置200に接続することができる。尚、サーバ装置200はクラウド上のデータセンタに配備されていてもよい。この場合、通信ネットワークNWとしてはインターネットが利用される。
The HMD 100 and the
HMD100は、図1に示すように、作業担当者10の頭部にベルトなどで装着される。HMD100は、図2に示すように、カメラ100Gとディスプレイ100Iを備えている。ディスプレイ100Iはカメラ100Gによる撮像画像を表示する。また、ディスプレイ100Iはサーバ装置200から送信されたARオブジェクトを受信すると、受信したARオブジェクトを撮像画像上に表示する。
As shown in FIG. 1, the HMD 100 is attached to the head of the
詳細は後述するが、HMD100はCentral Processing Unit(CPU)やRadio Frequency(RF)回路などを備えており、カメラ100Gが撮像範囲内の領域を撮像すると、CPUはその領域に応じた画像を撮像画像として取得し、RF回路はその撮像画像内に含まれる設備機器20の部分の画像をサーバ装置200に送信する。サーバ装置200は、その画像を受信すると、受信した画像に基づいて設備機器20の外形に応じたARオブジェクトをHMD200に送信する。RF回路がARオブジェクトを受信すると、CPUはディスプレイ100IにRF回路が受信したARオブジェクトを表示する。
Although details will be described later, the
以下、上述したHMD100及びサーバ装置200の各種構成及び動作の詳細について図面を参照して説明する。
Hereinafter, details of various configurations and operations of the
図3はHMD100のハードウェア構成の一例である。図3に示すように、HMD100は、CPU100A、Random Access Memory(RAM)100B、Read Only Memory(ROM)100C、Electrically Erasable Programmable Read Only Memory(EEPROM)100D及びRF回路100Eを含んでいる。RF回路100Eにはアンテナ100E´が接続されている。RF回路100Eに代えて通信機能を実現するCPUが利用されてもよい。
FIG. 3 shows an example of the hardware configuration of the
また、HMD100は、センサ100F、カメラ100G、スピーカ100H、ディスプレイ100I、及びマイク100Jを含んでいる。CPU100Aからマイク100Jまでは、内部バス100Kによって互いに接続されている。少なくともCPU100AとRAM100Bとが協働することによってコンピュータが実現される。
The
上述したRAM100Bには、ROM100CやEEPROM100Dに記憶されたプログラムがCPU100Aによって格納される。格納されたプログラムをCPU100Aが実行することにより、後述する各種の機能が実現され、また、各種の処理が実行される。尚、プログラムは後述するフローチャートに応じたものとすればよい。
In the
図4はサーバ装置200のハードウェア構成の一例である。図4に示すように、サーバ装置200は、少なくともCPU200A、RAM200B、ROM200C及びネットワークI/F(インタフェース)200Dを含んでいる。サーバ装置200は、必要に応じて、Hard Disk Drive(HDD)200E、入力I/F200F、出力I/F200G、入出力I/F200H、ドライブ装置200Iの少なくとも1つを含んでいてもよい。CPU200Aからドライブ装置200Iまでは、内部バス200Jによって互いに接続されている。少なくともCPU200AとRAM200Bとが協働することによってコンピュータが実現される。
FIG. 4 is an example of a hardware configuration of the
入力I/F200Fには、入力装置710が接続される。入力装置710としては、例えばキーボードやマウスなどがある。
出力I/F200Gには、表示装置720が接続される。表示装置720としては、例えば液晶ディスプレイがある。
入出力I/F200Hには、半導体メモリ730が接続される。半導体メモリ730としては、例えばUniversal Serial Bus(USB)メモリやフラッシュメモリなどがある。入出力I/F200Hは、半導体メモリ730に記憶されたプログラムやデータを読み取る。
入力I/F200F及び入出力I/F200Hは、例えばUSBポートを備えている。出力I/F200Gは、例えばディスプレイポートを備えている。
An
A
A
The input I /
ドライブ装置200Iには、可搬型記録媒体740が挿入される。可搬型記録媒体740としては、例えばCompact Disc(CD)−ROM、Digital Versatile Disc(DVD)といったリムーバブルディスクがある。ドライブ装置200Iは、可搬型記録媒体740に記録されたプログラムやデータを読み込む。
ネットワークI/F200Dは、例えばLANポートを備えている。ネットワークI/F200Dは上述した通信ネットワークNWと接続される。
A portable recording medium 740 is inserted into the drive device 200I. Examples of the portable recording medium 740 include a removable disk such as a Compact Disc (CD) -ROM and a Digital Versatile Disc (DVD). The drive device 200I reads a program and data recorded on the portable recording medium 740.
The network I /
上述したRAM200Bには、ROM200CやHDD200Eに記憶されたプログラムがCPU200Aによって格納される。RAM200Bには、可搬型記録媒体740に記録されたプログラムがCPU200Aによって格納される。格納されたプログラムをCPU200Aが実行することにより、後述する各種の機能が実現され、また、後述する各種の処理が実行される。尚、プログラムは後述するフローチャートに応じたものとすればよい。
In the above-described
図5は第1実施形態に係るHMD100及びサーバ装置200のブロック図の一例である。図5ではHMD100及びサーバ装置200のそれぞれの機能構成を表している。図6は実施履歴記憶部210の一例である。図7は作業工程記憶部220の一例である。
FIG. 5 is an example of a block diagram of the
まず、HMD100について説明する。HMD100は入力部110、表示部120、制御部130、撮像部140、及び通信部150を備えている。尚、入力部110はボタンスイッチ(不図示)などによって実現される。表示部120は上述したディスプレイ100Iによって実現される。制御部130は上述したCPU100Aなどによって実現される。撮像部140は上述したカメラ100Gによって実現される。通信部150は上述したRF回路100E及びアンテナ100E´によって実現される。
First, the
入力部110は作業担当者10による指示を受け付けると、受け付けた指示を制御部130に出力する。例えば、作業担当者10が入力部110としてのボタンスイッチを押下する操作を行うと、ボタンスイッチは作業工程を終了した旨の指示を制御部130に出力する。尚、入力部110としてマイク100Jを利用し、作業担当者10の音声により作業工程を終了した旨の指示を制御部130に出力するようにしてもよい。表示部120は撮像画像及びARオブジェクトを表示する。
When the
制御部130はHMD100全体の動作を制御する。例えば、制御部130は入力部110から出力された指示を通信部150に出力する。制御部130は撮像部140から出力された画像を撮像画像として取得し、表示部120に出力する。制御部130は既知の物体認識技術(又は物体検出技術)を利用して撮像画像から設備機器20の部分を認識し、認識した部分を設備機器20の状態を特定する状態画像として通信部150に出力する。制御部130は通信部150から出力されたARオブジェクトを表示部120に出力する。
The
撮像部140は撮像範囲内の領域を撮像し、その領域に応じた画像を生成して制御部130に出力する。したがって、撮像範囲内の領域に設備機器20が含まれていれば、その領域に応じた画像には設備機器20の画像も含まれる。通信部150は制御部130から出力された指示や状態画像を受け付けると、受け付けた指示や状態画像をサーバ装置200に向けて送信する。また、通信部150はサーバ装置200から送信されたARオブジェクトを受信すると、制御部130に出力する。
The
次に、サーバ装置200について説明する。サーバ装置200は実施履歴記憶部210、作業工程記憶部220、情報処理部240、及び通信部250を備えている。尚、実施履歴記憶部210及び作業工程記憶部220は例えば上述したHDD200Eによって実現される。情報処理部240は上述したCPU200Aによって実現される。通信部250は上述したネットワークI/F200Dによって実現される。
Next, the
実施履歴記憶部210は履歴情報を記憶する。履歴情報は設備機器20に対する一連の作業の実施履歴を管理する情報である。履歴情報により、各作業工程が定める作業が完了したか否かを判別することができる。具体的に説明すると、実施履歴記憶部210は、図6に示すように、履歴テーブルT1により履歴情報を管理する。履歴情報は、設備機器ID、作業工程番号、及び工程完了フラグを構成要素として含んでいる。設備機器IDは設備機器20を識別する情報である。作業工程番号は一連の作業工程を識別する番号である。工程完了フラグはその作業工程の作業が完了したか否かを判別するための情報である。例えば、その作業工程の作業が完了すると、情報処理部240は工程完了フラグ「NULL」を「〇」に更新する。
The implementation
作業工程記憶部220は作業用ARオブジェクトを設備機器20の外形を表す基準画像と作業工程番号との組み合わせに対応付けて記憶する。作業用ARオブジェクトは作業担当者10による各種作業を支援する情報を含んでいる。例えば、作業用ARオブジェクトは次の作業を指示する情報を含んでいる。作業用ARオブジェクトが撮像画像上に出現することにより、たとえ設備機器20に対する作業が不慣れであっても作業担当者10は作業を円滑に進めことができる。
The work
ここで、作業工程記憶部220は、図7に示すように、工程テーブルT2により作業用ARオブジェクトを管理する。工程テーブルT2における基準画像はその作業工程番号によって特定される作業時の設備機器20の状態を表す画像データである。特に、第1実施形態における基準画像は設備機器20を真正面から見た場合の画像データである。詳細は後述するが、基準画像が状態画像のマッチング対象になる。一方、工程テーブルT2における作業用ARオブジェクトはその作業工程番号によって特定される作業時に表示されるARオブジェクトを表している。このように、作業用ARオブジェクトには作業工程番号と基準画像の組み合わせが対応付けられている。
Here, as shown in FIG. 7, the work
ここで、図7に示すように、作業工程番号が異なる場合であっても、同じ基準画像が対応付けられている場合がある。例えば、作業工程番号「1」の基準画像と作業工程番号「4」の基準画像は同じである。このような場合、基準画像だけに基づいて作業用ARオブジェクトを特定しようとすると、どちらの基準画像と対応づけられた作業用ARオブジェクトを特定すべきか判断することができない。しかしながら、本実施形態では、基準画像と作業工程番号との組み合わせに作業用ARオブジェクトが対応付けられているため、基準画像が同じであっても、作業工程番号が異なれば、作業用ARオブジェクトを一意に特定することができる。 Here, as shown in FIG. 7, even if the work process numbers are different, the same reference image may be associated. For example, the reference image with the work process number “1” and the reference image with the work process number “4” are the same. In such a case, if the work AR object is to be specified based only on the reference image, it cannot be determined which reference image the work AR object associated with is to be specified. However, in this embodiment, since the work AR object is associated with the combination of the reference image and the work process number, even if the work image number is different even if the reference image is the same, the work AR object is changed. It can be uniquely identified.
情報処理部240は実施履歴記憶部210及び作業工程記憶部220にアクセスして、種々の情報処理を実行する。例えば、情報処理部240はHMD100から送信された状態画像を受信すると、状態画像の受信に基づき、実施履歴記憶部210が記憶する履歴情報を参照して、現在の作業工程番号を特定する。また、情報処理部240は作業工程を特定すると、特定した作業工程と受信した状態画像に対応付けられた作業用ARオブジェクトを作業工程記憶部220から取得して通信部250に出力する。尚、情報処理部240が実行するその他の情報処理については、後に詳しく説明する。
The
通信部250はHMD100とサーバ装置200との通信を制御する。例えば、通信部250はHMD100から送信された状態画像や指示を受信すると、受信した状態画像や指示を情報処理部240に出力する。例えば、通信部250は情報処理部240から出力された作業用ARオブジェクトを受信すると、作業用ARオブジェクトをHMD100に送信する。
The
続いて、図8から図11までを参照して、情報処理システムSの動作について説明する。 Subsequently, the operation of the information processing system S will be described with reference to FIGS. 8 to 11.
図8は第1実施形態に係る情報処理システムSの処理シーケンスの一例である。図9(a)は撮像画像の一例である。図9(b)は撮像画像の他の一例である。図10は送信対象の作業用ARオブジェクトを特定するまでの処理を説明するための図である。図11(a)及び(b)は履歴情報の更新を説明するための図である。 FIG. 8 is an example of a processing sequence of the information processing system S according to the first embodiment. FIG. 9A is an example of a captured image. FIG. 9B is another example of the captured image. FIG. 10 is a diagram for explaining the processing until the work AR object to be transmitted is specified. FIGS. 11A and 11B are diagrams for explaining the update of history information.
まず、図8に示すように、HMD100の制御部130は撮像画像を取得する(ステップS101)。例えば、作業担当者10はHMD100の電源ボタン(不図示)を押下すると撮像部140は撮像を開始し、制御部130は撮像部140が撮像した画像を撮像画像として取得する。そして、制御部130は取得した撮像画像を表示部120に出力し、表示部120は撮像画像を表示する。
First, as shown in FIG. 8, the
このため、例えば作業担当者10が作業工程番号「3」の作業を始めようとして、撮像部140の撮像領域内に設備機器20を含めると、図9(a)に示すように、表示部120は、台座30の上に置かれた設備機器20を含む撮像画像IM1を表示する。尚、作業工程番号「3」の作業を始める際の設備機器20の外形は、左のパネル21が閉じられており、上段のパネル22が開かれており、レバー23が設備機器20の底面と垂直になっている状態である。尚、レバー23は、持ち手24を時計回り又は反時計回りに回すことにより回転軸25を中心に回転可能である。
For this reason, for example, when the
ステップS101の処理が完了すると、制御部130は通信部150を介して状態画像をサーバ装置200に送信する(ステップS102)。より詳しくは、制御部130は物体認識技術に基づいて撮像画像から設備機器20の部分を認識し、認識した部分を設備機器20の状態を表す状態画像として送信する。
When the process of step S101 is completed, the
サーバ装置200の情報処理部240は通信部250が受信した状態画像を取得すると、作業工程番号を特定する(ステップS201)。より詳しくは、情報処理部240は実施履歴記憶部210にアクセスして、図10の上段に示すように、履歴テーブルT1の作業工程番号の最初から順に工程完了フラグを参照し、最初に工程完了フラグ「NULL」が出現した時の作業工程番号を特定して取得する。本実施形態では、情報処理部240は作業工程番号「3」を特定して取得する。
When the
ステップS201の処理が完了すると、次いで、情報処理部240はマッチングを行う(ステップS202)。より詳しくは、情報処理部240は作業工程記憶部220にアクセスして、図10の下段に示すように、工程テーブルT2の作業工程番号の中から、ステップS201の処理で取得した作業工程番号を特定する。そして、情報処理部240は作業工程番号を特定すると、特定した作業工程番号と対応付けられた基準画像をマッチング対象として、受信した状態画像とのマッチングを行う。
When the process of step S201 is completed, the
情報処理部240はマッチングした結果、基準画像と状態画像が一致した場合(ステップS203:YES)、作業用ARオブジェクトをHMD100に送信する(ステップS204)。すなわち、本実施形態であれば、図10の下段に示すように、情報処理部240は作業工程番号「3」と対応付けられた作業用ARオブジェクトを送信対象として取得し、通信部250を経由してHMD100に送信する。尚、情報処理部240はマッチングした結果、基準画像データと状態画像が一致しなかった場合(ステップS203:NO)、第1実施形態では後続の処理を中止する。
If the reference image matches the state image as a result of the matching (step S203: YES), the
HMD100の制御部130は、図8に示すように、通信部150を経由した作業用ARオブジェクトを表示部120に表示する(ステップS103)。これにより、図9(b)に示すように、表示部120は作業用ARオブジェクトOBを撮像画像IM2と対応付けて(例えば合成して)表示する。作業担当者10は作業用ARオブジェクトOBが指示する内容に基づいて、設備機器20の上段のパネル22を閉じ、レバー23を右回りに90度回す。この結果、設備機器20は工程テーブルT2における作業工程番号「4」と対応付けられた基準画像と同じ状態に移行する。
As shown in FIG. 8, the
図8に示すように、ステップS103の処理が完了すると、次いで、制御部130は工程終了指示を送信する(ステップS104)。より詳しくは、作業担当者10がその作業工程の作業を終えると、作業担当者10は入力部110に作業工程の終了を指示する。入力部110は当該指示を受信すると、制御部130は通信部150を経由して工程終了指示を送信する。
As shown in FIG. 8, when the process of step S103 is completed, the
情報処理部240は工程終了指示を受信すると、履歴情報を更新する(ステップS205)。より詳しくは、情報処理部240は実施履歴記憶部210にアクセスし、ステップS201の処理で取得した作業工程番号の工程完了フラグを更新する。本実施形態では、ステップS201の処理で情報処理部240は作業工程番号「3」を取得するため、図11(a)に示すように、作業工程番号「3」の工程完了フラグ「NULL」を、図11(b)に示すように、工程完了フラグ「〇」に更新する。これにより、サーバ装置200はその作業工程番号の作業完了を管理する。
When receiving the process end instruction, the
図8に示すように、ステップS205の処理が完了すると、次いで、情報処理部240は最終工程であるか否かを判断する(ステップS206)。例えば、情報処理部240は実施履歴記憶部210にアクセスして、一連の作業工程における最後の作業工程番号の工程完了フラグを更新した場合、最終工程であると判断する(ステップS206:YES)。この場合、情報処理部240は工程完了フラグを初期化する(ステップS207)。ステップS207が完了した場合、情報処理部240は一連の作業工程により定められた作業の完了をHMD100に通知してもよい。HMD100の制御部130はサーバ装置200から作業の完了が通知されると、例えば音声や画像によりその旨を出力してもよい。これにより、作業担当者10は作業の完了を認識する。
As shown in FIG. 8, when the process of step S205 is completed, the
一方、情報処理部240は実施履歴記憶部210にアクセスして、一連の作業工程における最後以外の作業工程番号の工程完了フラグを更新した場合、最終工程でないと判断する(ステップS206:NO)。この場合、制御部130及び情報処理部240はそれぞれ上述したステップS101からS104の処理及びステップS201からS207の処理を繰り返す。これにより、制御部130は次の作業用ARオブジェクトを表示部120に表示し、作業担当者10は次の作業工程の作業を実施する。
On the other hand, when the
以上、第1実施形態によれば、サーバ装置200は情報処理部240を備えている。情報処理部240は、複数の基準画像のうち、いずれかの基準画像が含まれる撮像画像を取得すると、実施履歴記憶部210を参照して、実施対象の作業工程番号を特定する。そして、情報処理部240は作業工程記憶部220を参照して、取得した撮像画像に含まれる基準画像と、特定した作業工程番号との組み合わせに対応付けられた作業用ARオブジェクトを取得し、取得した作業用ARオブジェクトを出力する。これにより、実施対象の作業に応じた作業用ARオブジェクトを出力することができる。
As described above, according to the first embodiment, the
(第2実施形態)
続いて、図12を参照して、本件の第2実施形態について説明する。
図12(a)は、設備機器20を上から見下ろした場合の基準画像の一例である。図12(b)は、設備機器20を真正面から見た場合の基準画像の一例である。図12(c)は、設備機器20を下から見上げた場合の基準画像の一例である。
(Second Embodiment)
Next, a second embodiment of the present case will be described with reference to FIG.
FIG. 12A is an example of a reference image when the
第2実施形態では、工程テーブルT2が視点位置の異なる複数種類の基準画像を管理する。工程テーブルT2が管理する複数種類の基準画像は、1つの作業工程番号と対応付いている。例えば、作業工程番号「1」には、3種類の基準画像が対応付いている。具体的には、図12(a)に示すように、作業工程番号「1」には、設備機器20を上から見下ろした場合の基準画像が対応付いている。また、図12(b)に示すように、作業工程番号「1」には、設備機器20を真正面から見た場合の基準画像も対応付いている。さらに、作業工程番号「1」には、設備機器20を下から見上げた場合の基準画像も対応付いている。尚、工程テーブルT2は例えば設備機器20を横から見た場合の基準画像や斜めから見た場合の基準画像を管理していてもよい。
In the second embodiment, the process table T2 manages a plurality of types of reference images having different viewpoint positions. A plurality of types of reference images managed by the process table T2 are associated with one work process number. For example, the work process number “1” is associated with three types of reference images. Specifically, as shown in FIG. 12A, the work process number “1” is associated with a reference image when the
このように、第2実施形態によれば、工程テーブルT2が視点位置の異なる複数種類の基準画像を管理することにより、作業担当者10の身長に応じて設備機器20に対する撮像画角又は視野角が変わる場合であっても、状態画像と基準画像が一致する可能性が向上する。また、設備機器20を真正面や正面上方又は正面下方から見ることができない環境であっても、同様に、状態画像と基準画像が一致する可能性が向上する。これにより、作業用ARオブジェクトが表示され易くなる。
As described above, according to the second embodiment, the process table T2 manages a plurality of types of reference images having different viewpoint positions, so that an imaging field angle or a viewing angle with respect to the
(第3実施形態)
続いて、図13から図15を参照して、本件の第3実施形態について説明する。
図13は第3実施形態に係るHMD100及びサーバ装置200のブロック図の一例である。図14は復旧作業記憶部230の一例である。尚、図4に示す第1実施形態に係るHMD100及びサーバ装置200の各部と同様の構成には同一符号を付し、その説明を省略する。第3実施形態に係るサーバ装置200は、図13に示すように、復旧作業記憶部230を備える点で第1実施形態に係るサーバ装置200と相違する。
(Third embodiment)
Subsequently, a third embodiment of the present case will be described with reference to FIGS.
FIG. 13 is an example of a block diagram of the
復旧作業記憶部230は復旧用ARオブジェクトを設備機器20の外形を表す基準画像と作業工程番号との組み合わせに対応付けて記憶する。復旧用ARオブジェクトは作業担当者10による復旧(リカバリ)作業を支援する情報を含んでいる。復旧用ARオブジェクトが撮像画像上に出現することにより、作業担当者10は、設備機器20に対する作業誤りを正すことができる。
The restoration
ここで、復旧作業記憶部230は、図14に示すように、復旧テーブルT3により復旧用ARオブジェクトを管理する。復旧テーブルT3における基準画像はその作業工程番号において想定される設備機器20の作業誤りの状態を表す数種類の画像データである。一方、復旧テーブルT3における復旧用ARオブジェクトはその作業工程番号によって特定される復旧時に表示されるARオブジェクトを表している。このように、復旧用ARオブジェクトには作業工程番号と基準画像の組み合わせが対応付けられている。
Here, the recovery
図15は第3実施形態に係る情報処理システムSの処理シーケンスの一例である。特に、図15は情報処理システムSの処理シーケンスの一部を例示している。第1実施形態ではステップS203の処理において、基準画像と状態画像が一致しなかった場合、後続の処理を中止したが、第3実施形態では、図15に示すように、情報処理部240は種々の情報処理を実行する。 FIG. 15 is an example of a processing sequence of the information processing system S according to the third embodiment. In particular, FIG. 15 illustrates a part of the processing sequence of the information processing system S. In the first embodiment, if the reference image and the state image do not match in the processing of step S203, the subsequent processing is stopped. However, in the third embodiment, as shown in FIG. The information processing is executed.
具体的には、ステップS203の処理において、基準画像と状態画像が一致しなかった場合、情報処理部240は、まず通信部250を通じて、不一致箇所をHMD100に送信する(ステップS211)。例えば、情報処理部240は基準画像と状態画像の差分に基づいて不一致箇所を特定して送信する。HMD100の制御部130はサーバ装置200から送信された不一致箇所を、通信部150を通じて受信すると、受信した不一致箇所を表示部120に表示する(ステップS111)。これにより、作業担当者10は作業誤りに気付き、誤った箇所を認識することができる。
Specifically, when the reference image and the state image do not match in the process of step S203, the
ステップS211の処理が完了すると、次いで、情報処理部240は復旧テーブルT3を確認する(ステップS212)。より詳しくは、情報処理部240は復旧作業記憶部230にアクセスし、ステップS201の処理で取得した作業工程番号の1つ前の作業工程番号とHMD100から送信された状態画像の組み合わせに基づいて、復旧テーブルT3を確認する。そして、その組み合わせに対応する作業工程番号と基準画像の組み合わせの有無を確認する。
When the process of step S211 is completed, the
情報処理部240は、1つ前の作業工程番号とHMD100から送信された状態画像の組み合わせに対応する作業工程番号と基準画像の組み合わせが復旧テーブルT3にある場合、作業工程番号と基準画像の組み合わせに対応付けられた復旧用ARオブジェクトを送信する(ステップS213)。HMD100の制御部130は、通信部150を通じた復旧用ARオブジェクトを受信し、受信した復旧用ARオブジェクトを表示部120に表示する(ステップS112)。これにより、作業担当者10は復旧用ARオブジェクトが指示する内容に基づいて、設備機器20に対する復旧作業を行う。
When the combination of the work process number and the reference image corresponding to the combination of the previous work process number and the state image transmitted from the
ステップS112の処理が完了すると、次いで、制御部130は復旧終了指示を送信する(ステップS113)。より詳しくは、作業担当者10が復旧作業を終えると、作業担当者10は入力部110に復旧作業の終了を指示する。入力部110は当該指示を受信すると、制御部130は通信部150を経由して復旧終了指示を送信する。情報処理部240は復旧作業指示を受信すると処理を終える。したがって、作業担当者10がHMD100により設備機器20の撮像を再び開始すると、図8を参照して説明したHMD100及びサーバ装置200の処理が開始される。これにより、一連の作業工程が再び進行する。
When the process of step S112 is completed, the
以上、第3実施形態によれば、実施対象の作業に応じた作業用ARオブジェクトを出力することができるだけでなく、復旧作業に応じた復旧用ARオブジェクトも出力することができる。 As described above, according to the third embodiment, not only the work AR object corresponding to the work to be performed but also the recovery AR object corresponding to the recovery work can be output.
以上、本発明の好ましい実施形態について詳述したが、本発明に係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。 The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to the specific embodiments according to the present invention, and various modifications are possible within the scope of the gist of the present invention described in the claims.・ Change is possible.
例えば、上述した実施形態では、サーバ装置200を情報処理装置として利用したが、HMD100を情報処理装置として利用してもよい。すなわち、上述した実施形態では情報処理部240が種々の情報処理を実行したが、情報処理部240が実行する種々の情報処理の一部又は全部をHMD100の制御部130が実行してもよい。
For example, in the above-described embodiment, the
また、上述した実施形態では、サーバ装置200が実施履歴記憶部210、作業工程記憶部220、及び復旧作業記憶部230を備えていたが、実施履歴記憶部210、作業工程記憶部220、及び復旧作業記憶部230をサーバ装置200と異なる別のサーバ装置200が備えていてもよい。
In the above-described embodiment, the
さらに、上述した実施形態では状態画像と基準画像とをマッチングしたが、制御部130が撮像画像をサーバ装置200に送信し、情報処理部240が撮像画像又は撮像画像から物体認識技術で認識した状態画像と基準画像とをマッチングし、基準画像に該当する設備機器20の画像が含まれているか否か判断するようにしてもよい。さらに、第1実施形態から第3実施形態を適宜組み合わせるようにしてもよい。さらに、第1実施形態から第3実施形態では状態画像と基準画像の一致を説明したが、誤差の範囲内で状態画像と基準画像が類似した場合に、作業用ARオブジェクトや復旧用ARオブジェクトを表示させるようにしてもよい。
Furthermore, in the above-described embodiment, the state image and the reference image are matched. However, the
なお、以上の説明に関して更に以下の付記を開示する。
(付記1)複数の基準画像のうち、いずれかの基準画像が含まれる撮像画像を取得すると、作業の実施履歴を記憶する第1の記憶部を参照して、実施対象の作業を特定するとともに、第1のオブジェクト情報を基準画像と作業との組み合わせに対応付けて記憶する第2の記憶部を参照して、取得した前記撮像画像に含まれる前記基準画像と、特定した前記作業との組み合わせに対応付けられた第1のオブジェクト情報を取得し、取得した前記第1のオブジェクト情報を出力する、処理をコンピュータに実行させることを特徴とする制御プログラム。
(付記2)前記第2の記憶部は、前記第1のオブジェクト情報を、視点位置が異なる複数種類の基準画像と作業との組み合わせに対応付けて記憶する、ことを特徴とする付記1に記載の制御プログラム。
(付記3)前記処理は、取得した前記撮像画像に含まれる前記基準画像と、特定した前記作業との組み合わせが存在しない場合、前記第1のオブジェクト情報と内容が異なる第2のオブジェクト情報を出力する、ことを特徴とする付記1又は2に記載の制御プログラム。
(付記4)前記処理は、取得した前記撮像画像に含まれる前記基準画像と、特定した前記作業との組み合わせが存在しない場合、前記第1のオブジェクト情報と異なる第2のオブジェクト情報を前記基準画像と異なる基準画像と作業との組み合わせに対応付けて記憶する第3の記憶部を参照して、取得した前記撮像画像に含まれる前記基準画像と、特定した前記作業との組み合わせに対応付けられた第2のオブジェクト情報を取得し、取得した前記第2のオブジェクト情報を出力する、ことを特徴とする付記1から3のいずれか1項に記載の制御プログラム。
(付記5)複数の基準画像のうち、いずれかの基準画像が含まれる撮像画像を取得すると、作業の実施履歴を記憶する第1の記憶部を参照して、実施対象の作業を特定するとともに、第1のオブジェクト情報を基準画像と作業との組み合わせに対応付けて記憶する第2の記憶部を参照して、取得した前記撮像画像に含まれる前記基準画像と、特定した前記作業との組み合わせに対応付けられた第1のオブジェクト情報を取得し、取得した前記第1のオブジェクト情報を出力する、処理をコンピュータが実行することを特徴とする制御方法。
(付記6)複数の基準画像のうち、いずれかの基準画像が含まれる撮像画像を取得すると、作業の実施履歴を記憶する第1の記憶部を参照して、実施対象の作業を特定するとともに、第1のオブジェクト情報を基準画像と作業との組み合わせに対応付けて記憶する第2の記憶部を参照して、取得した前記撮像画像に含まれる前記基準画像と、特定した前記作業との組み合わせに対応付けられた第1のオブジェクト情報を取得し、取得した前記第1のオブジェクト情報を出力する、処理を実行する処理部を備えることを特徴とする情報処理装置。
(付記7)前記第2の記憶部は、前記第1のオブジェクト情報を、視点位置が異なる複数種類の基準画像と作業との組み合わせに対応付けて記憶する、ことを特徴とする付記6に記載の情報処理装置。
(付記8)前記処理部は、取得した前記撮像画像に含まれる前記基準画像と、特定した前記作業との組み合わせが存在しない場合、前記第1のオブジェクト情報と内容が異なる第2のオブジェクト情報を出力する、ことを特徴とする付記6又は7に記載の情報処理装置。
(付記9)前記処理部は、取得した前記撮像画像に含まれる前記基準画像と、特定した前記作業との組み合わせが存在しない場合、前記第1のオブジェクト情報と異なる第2のオブジェクト情報を前記基準画像と異なる基準画像と作業との組み合わせに対応付けて記憶する第3の記憶部を参照して、取得した前記撮像画像に含まれる前記基準画像と、特定した前記作業との組み合わせに対応付けられた第2のオブジェクト情報を取得し、取得した前記第2のオブジェクト情報を出力する、ことを特徴とする付記6から8のいずれか1項に記載の情報処理装置。
In addition, the following additional notes are disclosed regarding the above description.
(Supplementary Note 1) When a captured image including any one of the plurality of reference images is acquired, the work to be performed is specified with reference to the first storage unit that stores the work execution history. , Referring to the second storage unit that stores the first object information in association with the combination of the reference image and the work, and the combination of the reference image included in the acquired captured image and the identified work A control program for causing a computer to execute a process of acquiring the first object information associated with the first object information and outputting the acquired first object information.
(Supplementary note 2) The
(Supplementary Note 3) When the combination of the reference image included in the acquired captured image and the identified work does not exist, the processing outputs second object information that is different in content from the first object information. The control program according to
(Supplementary Note 4) When there is no combination of the reference image included in the acquired captured image and the identified work, the processing uses second object information different from the first object information as the reference image. The third storage unit that stores the reference image and work that are different from each other in association with each other is referred to, and the reference image included in the acquired captured image is associated with the identified combination of work. The control program according to any one of
(Supplementary Note 5) When a captured image including any one of the plurality of reference images is acquired, the work to be performed is specified with reference to the first storage unit that stores the work execution history. , Referring to the second storage unit that stores the first object information in association with the combination of the reference image and the work, and the combination of the reference image included in the acquired captured image and the identified work A computer executes a process of acquiring first object information associated with the first object information and outputting the acquired first object information.
(Appendix 6) When a captured image including any one of the plurality of reference images is acquired, the work to be performed is specified with reference to the first storage unit that stores the work execution history. , Referring to the second storage unit that stores the first object information in association with the combination of the reference image and the work, and the combination of the reference image included in the acquired captured image and the identified work An information processing apparatus comprising: a processing unit that executes processing for acquiring first object information associated with the first object information and outputting the acquired first object information.
(Supplementary note 7) The supplementary note 6 is characterized in that the second storage unit stores the first object information in association with combinations of a plurality of types of reference images with different viewpoint positions and work. Information processing device.
(Supplementary Note 8) When there is no combination of the reference image included in the acquired captured image and the identified work, the processing unit obtains second object information different in content from the first object information. The information processing apparatus according to appendix 6 or 7, wherein the information processing apparatus outputs the information.
(Supplementary Note 9) When there is no combination of the reference image included in the acquired captured image and the specified work, the processing unit uses the second object information different from the first object information as the reference. With reference to the third storage unit that stores the reference image different from the image in association with the combination of the work, the reference image included in the acquired captured image is associated with the identified combination of the work. The information processing apparatus according to any one of appendices 6 to 8, wherein the second object information is acquired and the acquired second object information is output.
S 情報処理システム
100 HMD
110 入力部
120 表示部
130 制御部
140 撮像部
150 通信部
200 サーバ装置
210 実施履歴記憶部
220 作業工程記憶部
230 復旧作業記憶部
240 情報処理部
250 通信部
S
DESCRIPTION OF
Claims (6)
取得した前記第1のオブジェクト情報を出力する、
処理をコンピュータに実行させることを特徴とする制御プログラム。 When a captured image including any one of the plurality of reference images is acquired, the work to be performed is identified with reference to the first storage unit that stores the work execution history, and the first With reference to the second storage unit that stores the object information in association with the combination of the reference image and the work, the object information is associated with the combination of the reference image included in the acquired captured image and the identified work. Obtain the first object information,
Outputting the acquired first object information;
A control program for causing a computer to execute processing.
ことを特徴とする請求項1に記載の制御プログラム。 The second storage unit stores the first object information in association with a combination of a plurality of types of reference images with different viewpoint positions and work,
The control program according to claim 1, wherein:
ことを特徴とする請求項1又は2に記載の制御プログラム。 When the combination of the reference image included in the acquired captured image and the identified work does not exist, the process outputs second object information having a content different from the first object information.
The control program according to claim 1 or 2, characterized by the above.
ことを特徴とする請求項1から3のいずれか1項に記載の制御プログラム。 In the process, when there is no combination of the reference image included in the acquired captured image and the specified work, the second object information different from the first object information is different from the reference image. The second object associated with the combination of the reference image included in the acquired captured image and the identified operation with reference to the third storage unit stored in association with the combination of the work and the work Obtaining information and outputting the obtained second object information;
The control program according to any one of claims 1 to 3, wherein:
取得した前記オブジェクト情報を出力する、
処理をコンピュータが実行することを特徴とする制御方法。 When a captured image including any one of the plurality of reference images is acquired, the work to be performed is specified with reference to the first storage unit that stores the work execution history, and the object information is stored. Object information associated with the combination of the reference image included in the acquired captured image and the identified work with reference to the second storage unit stored in association with the combination of the reference image and the work Get
Outputting the acquired object information;
A control method characterized in that a computer executes a process.
取得した前記オブジェクト情報を出力する、
処理を実行する処理部を備えることを特徴とする情報処理装置。 When a captured image including any one of the plurality of reference images is acquired, the work to be performed is specified with reference to the first storage unit that stores the work execution history, and the object information is stored. Object information associated with the combination of the reference image included in the acquired captured image and the identified work with reference to the second storage unit stored in association with the combination of the reference image and the work Get
Outputting the acquired object information;
An information processing apparatus comprising a processing unit that executes processing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017056185A JP2018160036A (en) | 2017-03-22 | 2017-03-22 | Control program, control method, and information processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017056185A JP2018160036A (en) | 2017-03-22 | 2017-03-22 | Control program, control method, and information processing device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018160036A true JP2018160036A (en) | 2018-10-11 |
Family
ID=63795639
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017056185A Pending JP2018160036A (en) | 2017-03-22 | 2017-03-22 | Control program, control method, and information processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018160036A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022052324A (en) * | 2020-09-23 | 2022-04-04 | 株式会社x garden | Cooking support device, program, and method for supporting cooking |
JP7433126B2 (en) | 2020-04-21 | 2024-02-19 | 三菱電機株式会社 | Image display system, image display device, server, image display method and program |
-
2017
- 2017-03-22 JP JP2017056185A patent/JP2018160036A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7433126B2 (en) | 2020-04-21 | 2024-02-19 | 三菱電機株式会社 | Image display system, image display device, server, image display method and program |
JP2022052324A (en) * | 2020-09-23 | 2022-04-04 | 株式会社x garden | Cooking support device, program, and method for supporting cooking |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10168675B2 (en) | Industrial machine management system, industrial machine management device, industrial machine management method, and information storage medium | |
US10242031B2 (en) | Method for providing virtual object and electronic device therefor | |
US8872852B2 (en) | Positional context determination with multi marker confidence ranking | |
US20150187137A1 (en) | Physical object discovery | |
EP3296951A1 (en) | Image composition method and electronic device for supporting the same | |
US20150185825A1 (en) | Assigning a virtual user interface to a physical object | |
US9760331B2 (en) | Sharing a screen between electronic devices | |
US20160231907A1 (en) | System and methods for control of card elements within an application user interface | |
US20170164027A1 (en) | Video recommendation method and electronic device | |
US9779551B2 (en) | Method for generating a content in augmented reality mode | |
US20220245859A1 (en) | Data processing method and electronic device | |
US10042811B2 (en) | Expression processing device, compute server and recording medium having expression processing program recorded thereon | |
EP2597623A2 (en) | Apparatus and method for providing augmented reality service for mobile terminal | |
EP2713272A1 (en) | Method, device and system for presenting augmented reality contents | |
EP3460745A1 (en) | Spherical content editing method and electronic device supporting same | |
US9491402B2 (en) | Electronic device and method of processing image in electronic device | |
WO2018198318A1 (en) | Computer system, remote control notification method and program | |
JP2018160036A (en) | Control program, control method, and information processing device | |
US20170195129A1 (en) | Method and device to control secondary devices | |
WO2015145729A1 (en) | Inspection result update control method, inspection result storage control method, inspection result update control program, inspection result storage control program, inspection result update control system, and inspection result storage control system | |
CN113554642B (en) | Focus robust brain region positioning method and device, electronic equipment and storage medium | |
US10296280B2 (en) | Captured image sharing system, captured image sharing method and program | |
JP6015111B2 (en) | Device information management device, device information acquisition system, device information acquisition method and program | |
US20200012855A1 (en) | Operation assistance apparatus, operation assistance method, and computer readable recording medium | |
CN111435511A (en) | Order processing method, device, equipment, system and readable storage medium |