JP2018207271A - Terminal, image processing system, image processing program, and method for processing image - Google Patents

Terminal, image processing system, image processing program, and method for processing image Download PDF

Info

Publication number
JP2018207271A
JP2018207271A JP2017109749A JP2017109749A JP2018207271A JP 2018207271 A JP2018207271 A JP 2018207271A JP 2017109749 A JP2017109749 A JP 2017109749A JP 2017109749 A JP2017109749 A JP 2017109749A JP 2018207271 A JP2018207271 A JP 2018207271A
Authority
JP
Japan
Prior art keywords
image
marker
frame
manual operation
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017109749A
Other languages
Japanese (ja)
Inventor
理史 藤井
Michifumi Fujii
理史 藤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2017109749A priority Critical patent/JP2018207271A/en
Publication of JP2018207271A publication Critical patent/JP2018207271A/en
Pending legal-status Critical Current

Links

Images

Abstract

To allow an appropriate specification of an image region to which predetermined processing is to be performed.SOLUTION: A storage unit 1a stores input images P1 and P2 taken by an imaging device 2. A detection unit 1b detects a marker 9 and a move of the marker 9 from the input images P1 and P2 stored in the storage unit 1a. A calculation unit 1c specifies an image region according to a move of the marker 9 from the input image P2. An image processing unit 1d performs first processing to the specified image region and performs second processing, which is different from the first processing, to an image region which is not the specified image region of the input image P2.SELECTED DRAWING: Figure 1

Description

本発明は端末、画像処理システム、画像処理プログラムおよび画像処理方法に関する。   The present invention relates to a terminal, an image processing system, an image processing program, and an image processing method.

撮像装置によって撮像された画像に対して画像処理を行う技術が利用されている。例えば、監視カメラによる監視機能を損なわずにプライバシー保護を図る提案がある。この提案では、一方向に回転可能な監視カメラによる撮影視野を、垂直方向および水平方向に分割し、カメラの回転角度を用いて、事前に登録済の特定視野領域と撮影視野との重合状態を決定し、重合部分をマスキング処理する。   A technique for performing image processing on an image captured by an imaging apparatus is used. For example, there is a proposal for protecting privacy without impairing the monitoring function of the monitoring camera. In this proposal, the field of view taken by a surveillance camera that can rotate in one direction is divided into a vertical direction and a horizontal direction, and the overlapping state of the pre-registered specific field area and the field of view is determined using the rotation angle of the camera. Determine and mask the polymerized portion.

また、マーカー座標と映像の加工処理を施す範囲との位置関係を定義データにより予め定義しておき、カメラが撮像した映像の中でマーカーが識別されると、定義データを基に、マーカーで示される映像範囲のマスクを解除する映像処理システムの提案もある。   In addition, the positional relationship between the marker coordinates and the image processing range is defined in advance by definition data, and when a marker is identified in the image captured by the camera, it is indicated by the marker based on the definition data. There is also a proposal of a video processing system that cancels the mask of the video range to be displayed.

特開平6−181539号公報JP-A-6-181539 特開2010−11017号公報JP 2010-11017 A

マーカーを被写体の任意の箇所に取り付けたり、取り外したりすることを可能にすると、マーカーと所定の処理を施す範囲との相対的な位置関係は、取り付けのたびに変わり得る。このため、上記のようにマーカー座標と所定の処理を施す範囲との位置関係を予め定義するのは容易でないという問題がある。   If the marker can be attached to or detached from an arbitrary portion of the subject, the relative positional relationship between the marker and the area to be subjected to the predetermined processing can be changed every time it is attached. For this reason, there is a problem that it is not easy to previously define the positional relationship between the marker coordinates and the range to be subjected to the predetermined processing as described above.

1つの側面では、本発明は、所定の処理を行う画像領域を適切に特定可能にすることを目的とする。   In one aspect, an object of the present invention is to make it possible to appropriately specify an image area to be subjected to predetermined processing.

1つの態様では、端末が提供される。端末は、検出部と算出部と画像処理部とを有する。検出部は、第1の画像および第2の画像からマーカーとマーカーの移動とを検出する。算出部は、マーカーの移動に応じた第1の画像領域を第2の画像から特定する。画像処理部は、第1の画像領域に第1の処理を行い、第2の画像のうちの第2の画像領域に第1の処理とは異なる第2の処理を行う。   In one aspect, a terminal is provided. The terminal includes a detection unit, a calculation unit, and an image processing unit. The detection unit detects the marker and the movement of the marker from the first image and the second image. The calculation unit specifies a first image area corresponding to the movement of the marker from the second image. The image processing unit performs a first process on the first image area, and performs a second process different from the first process on the second image area of the second image.

1つの側面では、所定の処理を行う画像領域を適切に特定できる。   In one aspect, it is possible to appropriately specify an image area to be subjected to predetermined processing.

第1の実施の形態の端末を示す図である。It is a figure which shows the terminal of 1st Embodiment. 第2の実施の形態の情報処理システムの例を示す図である。It is a figure which shows the example of the information processing system of 2nd Embodiment. リングマーカーの例を示す図である。It is a figure which shows the example of a ring marker. スマート端末のハードウェア例を示す図である。It is a figure which shows the hardware example of a smart terminal. スマート端末の機能例を示す図である。It is a figure which shows the function example of a smart terminal. フレーム画像の例を示す図である。It is a figure which shows the example of a frame image. 色データテーブルの例を示す図である。It is a figure which shows the example of a color data table. 前回フレームテーブルの例を示す図である。It is a figure which shows the example of the last frame table. 最新フレームテーブルの例を示す図である。It is a figure which shows the example of the newest frame table. 前回フレームAR検出情報の例を示す図である。It is a figure which shows the example of the last flame | frame AR detection information. マスク情報テーブルの例を示す図である。It is a figure which shows the example of a mask information table. スマート端末の処理例を示すフローチャートである。It is a flowchart which shows the process example of a smart terminal. ARマスク生成処理の例を示すフローチャートである。It is a flowchart which shows the example of AR mask production | generation processing. 最新フレームテーブル作成処理の例を示すフローチャートである。It is a flowchart which shows the example of the newest frame table creation process. リングマーカー検出処理の例を示すフローチャートである。It is a flowchart which shows the example of a ring marker detection process. 手操作画像のマスク生成処理の例を示すフローチャートである。It is a flowchart which shows the example of the mask production | generation process of a manual operation image. 色データの比較処理の例を示すフローチャートである。It is a flowchart which shows the example of the comparison process of color data. リングマーカー画像の回転の例を示す図である。It is a figure which shows the example of rotation of a ring marker image. 色データの比較例を示す図である。It is a figure which shows the comparative example of color data. 手操作画像領域の決定例を示す図である。It is a figure which shows the example of determination of a manual operation image area | region. 枠画像の表示例を示す図である。It is a figure which shows the example of a display of a frame image. 枠画像の表示例(続き)を示す図である。It is a figure which shows the example of a display of a frame image (continuation). 機器画像に対するマスク画像の生成例を示す図である。It is a figure which shows the example of the production | generation of the mask image with respect to an apparatus image. 機器画像に対するマスク画像の生成例(続き)を示す図である。It is a figure which shows the production | generation example (continuation) of the mask image with respect to an apparatus image. ARマスクの合成例を示す図である。It is a figure which shows the example of a synthesis | combination of AR mask. 支援端末の表示例を示す図である。It is a figure which shows the example of a display of a support terminal.

以下、本実施の形態について図面を参照して説明する。
[第1の実施の形態]
図1は、第1の実施の形態の端末を示す図である。端末1は、撮像装置2および出力装置3に接続されている。撮像装置2は、物体4,5を含む領域を撮像するカメラである。出力装置3は、端末1が出力する画像を表示するディスプレイである。出力装置3は、端末1が出力する画像を他の装置に送信するネットワークインタフェースでもよい。端末1は、撮像装置2および出力装置3を内蔵してもよい。
Hereinafter, the present embodiment will be described with reference to the drawings.
[First Embodiment]
FIG. 1 is a diagram illustrating a terminal according to the first embodiment. The terminal 1 is connected to the imaging device 2 and the output device 3. The imaging device 2 is a camera that captures an area including the objects 4 and 5. The output device 3 is a display that displays an image output from the terminal 1. The output device 3 may be a network interface that transmits an image output from the terminal 1 to another device. The terminal 1 may incorporate the imaging device 2 and the output device 3.

物体4,5は、例えばサーバコンピュータ、スイッチ、および、ストレージ装置などの情報機器である。ただし、物体4,5は、情報機器以外のものでもよい。物体4,5は、隣接して設置されている。物体5の前面(撮像装置2により撮像可能な面)には、マーカー6が付されている。マーカー6は、物体5に関する情報に対応する所定のパターンである。当該パターンは、例えば、色(白/黒など)で区別される2次元の図形の組み合わせでもよい。マーカー6は、例えば、AR(Augmented Reality)と呼ばれる技術に用いられるARマーカーでもよい。ARでは、例えば、撮像中の画像の一部に、画像内のARマーカーに応じた付加的な情報(付加画像など)を付与して表示することがある。   The objects 4 and 5 are information devices such as server computers, switches, and storage devices. However, the objects 4 and 5 may be other than information equipment. The objects 4 and 5 are installed adjacent to each other. A marker 6 is attached to the front surface of the object 5 (the surface that can be imaged by the imaging device 2). The marker 6 is a predetermined pattern corresponding to information regarding the object 5. The pattern may be, for example, a combination of two-dimensional figures distinguished by color (white / black etc.). The marker 6 may be an AR marker used in a technique called AR (Augmented Reality), for example. In AR, for example, a part of an image being captured may be displayed with additional information (such as an additional image) according to the AR marker in the image.

手7は、作業者の手である。作業者は、手7を動かして物体5に対する部品8(手7が掴む物体の一例)の取り付けまたは取り外しなどの作業を行う。手7には、マーカー9が付されている。マーカー9は、手7に対して取り付けたり、取り外したりすることが可能である。例えば、マーカー9は、手7に貼り付けられてもよい。あるいは、マーカー9は、リング(例えば、腕輪や指輪など)の表面に設けられてもよい。この場合、当該リングが手7に嵌められることで、マーカー9は手7に取り付けられる。例えば、マーカー9は、所定の色をもつ2次元の図形の組み合わせにより表される所定のパターン(模様)である。マーカー6のパターンおよびマーカー9のパターンは互いに異なるパターンである。マーカー9は、ARマーカーでもよい。   The hand 7 is an operator's hand. The operator moves the hand 7 to perform work such as attachment or removal of a part 8 (an example of an object gripped by the hand 7) with respect to the object 5. A marker 9 is attached to the hand 7. The marker 9 can be attached to or detached from the hand 7. For example, the marker 9 may be attached to the hand 7. Alternatively, the marker 9 may be provided on the surface of a ring (for example, a bracelet or a ring). In this case, the marker 9 is attached to the hand 7 by fitting the ring to the hand 7. For example, the marker 9 is a predetermined pattern (pattern) represented by a combination of two-dimensional figures having a predetermined color. The pattern of the marker 6 and the pattern of the marker 9 are different from each other. The marker 9 may be an AR marker.

撮像装置2は、物体4,5とともに、作業を行う手7、部品8およびマーカー9を撮像して入力画像P1,P2を順次生成し、端末1に入力する。端末1は、入力画像P1,P2に含まれるマーカー6,9の画像を基に、所定の処理(例えば、マスキングなど)を行う画像領域を特定する。例えば、端末1は、物体5の前面の領域や手7および部品8の領域を出力装置3による表示画像上で視認可能とし、これら領域以外の他の領域を表示画像上で視認不可とし、表示画像上で当該他の領域を秘匿化することが考えられる。   The imaging device 2 images the hand 7, the part 8, and the marker 9 that perform the work together with the objects 4 and 5 to sequentially generate input images P <b> 1 and P <b> 2, and inputs them to the terminal 1. The terminal 1 specifies an image area on which predetermined processing (for example, masking) is performed based on the images of the markers 6 and 9 included in the input images P1 and P2. For example, the terminal 1 makes it possible to visually recognize the area in front of the object 5 and the area of the hand 7 and the part 8 on the display image by the output device 3 and make other areas other than these areas invisible on the display image. It is conceivable to conceal the other area on the image.

ここで、マーカー6は、物体5の所定の位置に付されている。マーカー6の位置は、通常は変更されることはない。この場合、画像内のマーカー6の位置に対して、所定の処理を行う領域(例えば、物体5の前面の領域や当該前面の領域以外の領域)を端末1に予め設定することが可能である。   Here, the marker 6 is attached to a predetermined position of the object 5. The position of the marker 6 is not normally changed. In this case, it is possible to preset in the terminal 1 an area for performing predetermined processing (for example, an area in front of the object 5 or an area other than the area in front of the object 5) with respect to the position of the marker 6 in the image. .

一方、マーカー9は、作業のたびに手7に対する取り付け位置が異なることがある。また、作業などのために手7がもつ物体(例えば、部品8)も作業毎に異なることがある。このため、画像内のマーカー9の位置に対して、所定の処理を行う領域(例えば、手7および手7がもつ部品8の領域や当該領域以外の領域)を端末1に予め設定することは難しい。そこで、端末1は、マーカー9に対して、所定の処理を行う領域を適切に特定可能にする機能を提供する。   On the other hand, the attachment position of the marker 9 with respect to the hand 7 may be different every time work is performed. In addition, an object (for example, the part 8) held by the hand 7 for work or the like may be different for each work. For this reason, it is possible to preset in the terminal 1 an area for performing predetermined processing (for example, the area of the hand 7 and the part 8 held by the hand 7 or an area other than the area) with respect to the position of the marker 9 in the image. difficult. Therefore, the terminal 1 provides a function that allows the marker 9 to appropriately specify an area for performing a predetermined process.

端末1は、記憶部1a、検出部1b、算出部1cおよび画像処理部1dを有する。記憶部1aは、RAM(Random Access Memory)などの揮発性の記憶装置でもよいし、HDD(Hard Disk Drive)やフラッシュメモリなどの不揮発性の記憶装置でもよい。   The terminal 1 includes a storage unit 1a, a detection unit 1b, a calculation unit 1c, and an image processing unit 1d. The storage unit 1a may be a volatile storage device such as a RAM (Random Access Memory) or a nonvolatile storage device such as an HDD (Hard Disk Drive) or a flash memory.

検出部1b、算出部1cおよび画像処理部1dは、端末1が備える処理装置(図1では図示を省略している)によって実現されてもよい。処理装置は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)などを含み得る。処理装置はプログラムを実行するプロセッサであってもよい。「プロセッサ」は、複数のプロセッサの集合(マルチプロセッサ)も含み得る。   The detection unit 1b, the calculation unit 1c, and the image processing unit 1d may be realized by a processing device (not shown in FIG. 1) included in the terminal 1. The processing device may include a central processing unit (CPU), a digital signal processor (DSP), an application specific integrated circuit (ASIC), a field programmable gate array (FPGA), and the like. The processing device may be a processor that executes a program. The “processor” may also include a set of multiple processors (multiprocessor).

記憶部1aは、撮像装置2により入力された入力画像P1,P2を記憶する。例えば、入力画像P1,P2は、撮像装置2が物体4,5を含む領域を、定点から撮像することで生成された画像である。入力画像P2は、入力画像P1よりも後に撮像された画像である。また、記憶部1aは、マーカー6,9のパターンの情報を予め記憶する。   The storage unit 1a stores input images P1 and P2 input by the imaging device 2. For example, the input images P <b> 1 and P <b> 2 are images generated by the imaging device 2 imaging an area including the objects 4 and 5 from a fixed point. The input image P2 is an image captured after the input image P1. Moreover, the memory | storage part 1a memorize | stores the information of the pattern of the markers 6 and 9 previously.

入力画像P1は、物体画像P1a,P1b、マーカー画像P1c,P1d、手画像P1eおよび部品画像P1fを含む。物体画像P1aは、物体4の画像である。物体画像P1bは、物体5の画像である。マーカー画像P1cは、マーカー6の画像である。マーカー画像P1dは、マーカー9の画像である。手画像P1eは、手7の画像である。部品画像P1fは、部品8の画像である。   The input image P1 includes object images P1a and P1b, marker images P1c and P1d, a hand image P1e, and a component image P1f. The object image P1a is an image of the object 4. The object image P1b is an image of the object 5. The marker image P1c is an image of the marker 6. The marker image P1d is an image of the marker 9. The hand image P1e is an image of the hand 7. The component image P1f is an image of the component 8.

入力画像P2は、物体画像P2a,P2b、マーカー画像P2c,P2d、手画像P2eおよび部品画像P2fを含む。物体画像P2aは、物体4の画像である。物体画像P2bは、物体5の画像である。マーカー画像P2cは、マーカー6の画像である。マーカー画像P2dは、マーカー9の画像である。手画像P2eは、手7の画像である。部品画像P2fは、部品8の画像である。   The input image P2 includes object images P2a and P2b, marker images P2c and P2d, a hand image P2e, and a component image P2f. The object image P2a is an image of the object 4. The object image P2b is an image of the object 5. The marker image P2c is an image of the marker 6. The marker image P2d is an image of the marker 9. The hand image P2e is an image of the hand 7. The component image P2f is an image of the component 8.

検出部1bは、第1の画像(例えば、入力画像P1)および第2の画像(例えば、入力画像P2)からマーカー9とマーカー9の移動とを検出する。例えば、検出部1bは、入力画像P1からマーカー画像P1dを検出する。また、検出部1bは、入力画像P2からマーカー画像P2dを検出する。検出部1bは、記憶部1aに記憶されたマーカー9のパターンの情報とマーカー画像P1dとを照合することで、マーカー9に対応するマーカー画像P1dを検出する。検出部1bは、マーカー画像P2dも同様にして検出する。   The detection unit 1b detects the marker 9 and the movement of the marker 9 from the first image (for example, the input image P1) and the second image (for example, the input image P2). For example, the detection unit 1b detects the marker image P1d from the input image P1. Further, the detection unit 1b detects the marker image P2d from the input image P2. The detection unit 1b detects the marker image P1d corresponding to the marker 9 by comparing the pattern information of the marker 9 stored in the storage unit 1a with the marker image P1d. The detection unit 1b also detects the marker image P2d in the same manner.

なお、マーカー画像P1d,P2dは、マーカー9に相当しており、マーカー画像P1d,P2dを単に「マーカー」と称してもよい。ただし、図1の説明では、マーカー9と区別するために、入力画像P1,P2内の「マーカー」については、マーカー画像P1d,P2dと称する。   The marker images P1d and P2d correspond to the marker 9, and the marker images P1d and P2d may be simply referred to as “markers”. However, in the description of FIG. 1, in order to distinguish from the marker 9, “markers” in the input images P <b> 1 and P <b> 2 are referred to as marker images P <b> 1 d and P <b> 2 d.

そして、検出部1bは、入力画像P1におけるマーカー画像P1dの画像上の位置と入力画像P2におけるマーカー画像P2dの画像上の位置の変化から、マーカー画像P1dに対するマーカー画像P2dの移動(マーカー9の移動に相当)を検出する。   The detection unit 1b then moves the marker image P2d relative to the marker image P1d (movement of the marker 9) based on a change in the position of the input image P1 on the marker image P1d and the position of the input image P2 on the marker image P2d. Is equivalent).

算出部1cは、マーカー9の移動に応じた第1の画像領域を第2の画像から特定する。すなわち、算出部1cは、入力画像P2のうち、マーカー9と連動する画像領域を第1の画像領域とする。より具体的には、算出部1cは、マーカー画像P1dに対するマーカー画像P2dの移動(マーカー画像P1dからマーカー画像P2dへの移動)と同じ(あるいは所定の誤差内で同じ)移動方向および移動量で移動する画像領域を第1の画像領域とする。算出部1cは、マーカー画像P1dにおける所定の位置と、マーカー画像P2dにおける当該所定の位置に対応する位置との差(画像内の座標の差)によって移動量を計算する。この移動量は、入力画像P1,P2間のマーカー9の移動量ともいえる。   The calculation unit 1c specifies the first image area corresponding to the movement of the marker 9 from the second image. In other words, the calculation unit 1c sets an image area linked to the marker 9 in the input image P2 as the first image area. More specifically, the calculation unit 1c moves in the same direction (or the same within a predetermined error) as the movement of the marker image P2d relative to the marker image P1d (movement from the marker image P1d to the marker image P2d) and the amount of movement. The image area to be used is a first image area. The calculation unit 1c calculates the movement amount based on a difference (a difference in coordinates in the image) between a predetermined position in the marker image P1d and a position corresponding to the predetermined position in the marker image P2d. This amount of movement can also be said to be the amount of movement of the marker 9 between the input images P1, P2.

なお、撮像装置2が固定されていない場合も考えられる。この場合、算出部1cは、マーカー画像P1cに対するマーカー画像P1dの第1の位置、および、マーカー画像P2cに対するマーカー画像P2dの第2の位置を求めてもよい。そして、算出部1cは、第1の位置および第2の位置の変化から、マーカー画像P1dに対するマーカー画像P2dの移動方向および移動量を求めてもよい。マーカー画像P1c,P2cは、物体5に付されたマーカー6の画像である。マーカー6は、静止している。このため、マーカー画像P1c,P2cを基準にすることで、マーカー画像P1dに対するマーカー画像P2dの位置の変化を適切に検出できる。なお、マーカー画像P1dに対するマーカー画像P2dの移動としては、平行移動だけでなく、回転や拡大縮小(マーカー9の奥行き方向の移動に相当)なども考えられる。算出部1cは、マーカー画像P1dに対するマーカー画像P2dの移動の平行移動量に加えて、回転量および拡大縮小率の両方または何れか一方を、当該移動の移動量として求めてもよい。   Note that there may be a case where the imaging device 2 is not fixed. In this case, the calculation unit 1c may obtain the first position of the marker image P1d with respect to the marker image P1c and the second position of the marker image P2d with respect to the marker image P2c. Then, the calculation unit 1c may obtain the movement direction and the movement amount of the marker image P2d with respect to the marker image P1d from the changes in the first position and the second position. The marker images P1c and P2c are images of the marker 6 attached to the object 5. The marker 6 is stationary. For this reason, the change in the position of the marker image P2d relative to the marker image P1d can be appropriately detected by using the marker images P1c and P2c as a reference. Note that the movement of the marker image P2d with respect to the marker image P1d is not limited to parallel movement, but may be rotation or enlargement / reduction (equivalent to movement of the marker 9 in the depth direction). In addition to the parallel movement amount of the movement of the marker image P2d with respect to the marker image P1d, the calculation unit 1c may obtain both or any one of the rotation amount and the enlargement / reduction ratio as the movement amount of the movement.

例えば、算出部1cは、マーカー画像P1dに対するマーカー画像P2dの移動方向および移動量により、入力画像P1の各画素の位置を変換する。算出部1cは、位置変換後の画素の色情報と、当該画素の位置と同じ位置にある入力画像P2の画素の色情報とを比較し、両画素の色情報が一致する(または所定の誤差内で一致する)場合、該当の画素を、マーカー画像P2dに関連する画素とする。算出部1cは、入力画像P2内の画素のうち、マーカー画像P2dに関連する画素の集合を第1の画像領域とする。   For example, the calculation unit 1c converts the position of each pixel of the input image P1 according to the moving direction and moving amount of the marker image P2d with respect to the marker image P1d. The calculation unit 1c compares the color information of the pixel after the position conversion with the color information of the pixel of the input image P2 at the same position as the position of the pixel, and the color information of both the pixels matches (or has a predetermined error). The corresponding pixel is a pixel related to the marker image P2d. The calculation unit 1c sets a set of pixels related to the marker image P2d among the pixels in the input image P2 as a first image region.

例えば、算出部1cは、マーカー画像P2dに関連する画素の集合として手画像P2eおよび部品画像P2fを特定する。この場合、手画像P2eおよび部品画像P2fに相当する画像領域が第1の画像領域である。   For example, the calculation unit 1c specifies the hand image P2e and the component image P2f as a set of pixels related to the marker image P2d. In this case, the image area corresponding to the hand image P2e and the component image P2f is the first image area.

画像処理部1dは、第1の画像領域に第1の処理を行い、第2の画像のうちの第2の画像領域に第1の処理とは異なる第2の処理を行う。例えば、第1の処理は、第1の画像領域をマスキングせずに、そのまま出力装置3に出力する処理である。また、例えば、第2の処理は、第1の画像領域とは異なる第2の画像領域をマスキングして出力装置3に出力する処理である。   The image processing unit 1d performs a first process on the first image area, and performs a second process different from the first process on the second image area of the second image. For example, the first process is a process of outputting the first image area as it is to the output device 3 without masking. For example, the second process is a process of masking a second image area different from the first image area and outputting the masked image to the output device 3.

例えば、画像処理部1dは、入力画像P2のうち、手画像P2eおよび部品画像P2fに相当する第1の画像領域以外の第2の画像領域をマスキングした出力画像を、出力装置3に出力してもよい。この場合、出力画像を見たユーザは、手画像P2eおよび部品画像P2fを確認できるが、それ以外の背景部分を確認することはできない。マスキングは、マスク画像で覆う、モザイク、または、ぼかしなどの処理により行われてもよい。   For example, the image processing unit 1d outputs, to the output device 3, an output image obtained by masking a second image area other than the first image area corresponding to the hand image P2e and the component image P2f in the input image P2. Also good. In this case, the user who sees the output image can check the hand image P2e and the component image P2f, but cannot check other background portions. Masking may be performed by processing such as mosaicing or blurring covered with a mask image.

他の例では、画像処理部1dは、マーカー9に加えて、マーカー6によりマスク対象外と判定される画像領域(例えば、物体画像P2bの一部)もマスク対象外とした出力画像P3を、出力装置3に出力してもよい。この場合、出力画像P3は、マスク画像P3a、物体画像P3b、マーカー画像P3c,P3d、手画像P3eおよび部品画像P3fを含む。マスク画像P3aは、マスク画像P3aに相当する画像領域を覆う画像である。物体画像P3bは、物体5の画像である。マーカー画像P3cは、マーカー6の画像である。マーカー画像P3dは、マーカー9の画像である。手画像P3eは、手7の画像である。部品画像P3fは、部品8の画像である。この場合、出力画像P3を見たユーザは、物体画像P3b、手画像P2eおよび部品画像P2fを確認できるが、それ以外の部分を確認することはできない。   In another example, in addition to the marker 9, the image processing unit 1d outputs an output image P3 in which an image region (for example, part of the object image P2b) determined to be out of the mask target by the marker 6 is also out of the mask target. You may output to the output device 3. In this case, the output image P3 includes a mask image P3a, an object image P3b, marker images P3c and P3d, a hand image P3e, and a component image P3f. The mask image P3a is an image that covers an image area corresponding to the mask image P3a. The object image P3b is an image of the object 5. The marker image P3c is an image of the marker 6. The marker image P3d is an image of the marker 9. The hand image P3e is an image of the hand 7. The component image P3f is an image of the component 8. In this case, the user who has seen the output image P3 can confirm the object image P3b, the hand image P2e, and the component image P2f, but cannot confirm other portions.

端末1によれば、第1の画像および第2の画像からマーカーの移動を検出し、マーカーの移動に応じた画像領域を特定し、該領域とその他の領域で異なる処理を行う。これにより、マーカー位置に対しマスクなどの処理領域を予め定めなくても、処理領域を適切に特定できる。理由は次の通りである。   According to the terminal 1, the movement of the marker is detected from the first image and the second image, the image area corresponding to the movement of the marker is specified, and different processing is performed on the area and the other areas. Thereby, even if it does not predetermine processing areas, such as a mask, to a marker position, a processing area can be specified appropriately. The reason is as follows.

端末1は、入力画像P1,P2に基づいて、マーカー画像P1dに対するマーカー画像P2dの移動と同じ(または所定の誤差内で同じ)移動方向および移動量で移動した第1の画像領域を検出する。この場合、検出される第1の画像領域は、マーカー9の動きに連動する画像領域であり、手画像P2eや部品画像P2fに相当する。すなわち、端末1は、第1の画像領域を検出することで、入力画像P2のうち、マーカー9が付された手7に対応する手画像P2eおよび手7に握られた部品8に対応する部品画像P2fの部分を特定することができる。したがって、端末1は、入力画像P2のうち、手画像P2eおよび部品画像P2fに相当する第1の画像領域と、第1の画像領域以外の第2の画像領域とを適切に区別した処理を行える。   Based on the input images P1 and P2, the terminal 1 detects the first image area moved in the same movement direction and movement amount as the movement of the marker image P2d with respect to the marker image P1d (or within the predetermined error). In this case, the detected first image region is an image region interlocked with the movement of the marker 9 and corresponds to the hand image P2e and the component image P2f. That is, by detecting the first image area, the terminal 1 detects a first image area, and among the input image P2, the component corresponding to the hand image P2e corresponding to the hand 7 with the marker 9 and the component 8 gripped by the hand 7. The part of the image P2f can be specified. Therefore, the terminal 1 can perform a process in which the first image area corresponding to the hand image P2e and the component image P2f and the second image area other than the first image area in the input image P2 are appropriately distinguished. .

処理の一例として、前述のように、端末1は、入力画像P2のうち、手画像P2eおよび部品画像P2f以外の画像領域をマスキングした出力画像を出力することが考えられる。この場合、出力画像における手画像および部品画像以外の画像領域を秘匿化できる。したがって、出力画像から作業者の手作業を確認可能とし、物体4,5を確認不可とすることが可能である。   As an example of processing, as described above, the terminal 1 may output an output image obtained by masking an image area other than the hand image P2e and the component image P2f in the input image P2. In this case, the image area other than the hand image and the component image in the output image can be concealed. Therefore, it is possible to check the manual operation of the operator from the output image and make it impossible to check the objects 4 and 5.

あるいは、端末1は、出力画像P3を出力することも考えられる。この場合、出力画像P3における物体画像P3b、手画像P3eおよび部品画像P3f以外の画像領域をマスク画像P3aにより秘匿化できる。したがって、出力画像P3から作業者の手作業や作業対象の物体5を確認可能とし、物体4を確認不可とすることが可能である。   Alternatively, the terminal 1 may output the output image P3. In this case, the image area other than the object image P3b, the hand image P3e, and the component image P3f in the output image P3 can be concealed by the mask image P3a. Therefore, it is possible to check the operator's manual work or the work target object 5 from the output image P3, and make it impossible to check the object 4.

このような機能は、例えば、現場にいる作業者が、遠隔地にいる支援者の支援を受けるために、遠隔地におけるコンピュータなどの情報処理装置にネットワークを介して出力画像P3を送信する際に有用である。作業対象外の物体4などについては、セキュリティ上、外部の者に対して秘匿化したいこともあるからである。   Such a function is used, for example, when an operator at a site transmits an output image P3 via a network to an information processing apparatus such as a computer at a remote location in order to receive support from a supporter at a remote location. Useful. This is because the non-work object 4 or the like may be concealed from outside parties for security reasons.

端末1によれば、手7および部品8による作業状況を確認可能とし、それ以外の領域をマスクできるので、遠隔地の支援者に対して余計な部分を見せずに済み、セキュリティ性を高められる。端末1は、出力画像P3で例示されるように、手7および部品8による作業状況に加えて、支援者による作業対象の物体5の確認を可能にすることもできる。   According to the terminal 1, the work status of the hand 7 and the parts 8 can be confirmed, and other areas can be masked, so that it is not necessary to show an extra portion to a remote supporter, and security can be improved. . As illustrated in the output image P <b> 3, the terminal 1 can also allow the supporter to check the work target object 5 in addition to the work situation of the hand 7 and the part 8.

なお、端末1は、前述の記憶装置と処理装置とを有する画像処理システムと呼ぶこともできる。画像処理システムは撮像装置2や出力装置3を含んでもよい。
以下の説明では、端末1を、作業者に対する支援者による遠隔支援に用いられる情報処理システムを例示して、端末1の機能をより具体的に説明する。
Note that the terminal 1 can also be referred to as an image processing system having the above-described storage device and processing device. The image processing system may include the imaging device 2 and the output device 3.
In the following description, the function of the terminal 1 will be described more specifically by exemplifying the information processing system used for remote support by the supporter for the worker.

[第2の実施の形態]
図2は、第2の実施の形態の情報処理システムの例を示す図である。第2の実施の形態の情報処理システムは、データセンタなどの施設に設置された複数の情報機器(例えば、情報機器10)の保守を支援するシステムである。
[Second Embodiment]
FIG. 2 is a diagram illustrating an example of an information processing system according to the second embodiment. The information processing system according to the second embodiment is a system that supports maintenance of a plurality of information devices (for example, the information device 10) installed in a facility such as a data center.

第2の実施の形態の情報処理システムは、スマート端末100、ストリーミングサーバ200および支援端末300を含む。ストリーミングサーバ200および支援端末300は、ネットワーク20に接続されている。ネットワーク20は、例えば、組織内に敷設されたLAN(Local Area Network)でもよいし、インターネットなどの広域ネットワークでもよい。ネットワーク20には、アクセスポイント21が接続されている。アクセスポイント21は、無線通信の中継装置である。スマート端末100は、アクセスポイント21を介してネットワーク20に接続されている。   The information processing system according to the second embodiment includes a smart terminal 100, a streaming server 200, and a support terminal 300. The streaming server 200 and the support terminal 300 are connected to the network 20. The network 20 may be, for example, a LAN (Local Area Network) laid in an organization or a wide area network such as the Internet. An access point 21 is connected to the network 20. The access point 21 is a wireless communication relay device. The smart terminal 100 is connected to the network 20 via the access point 21.

第2の実施の形態の情報処理システムは、情報機器10が設置された現地で作業を行う作業者U1、および、作業者U1を遠隔地から支援する支援者U2によって利用される。作業者U1は、支援者U2から作業に関する指示を受けることができる。作業者U1および支援者U2は、第2の実施の形態の情報処理システムのユーザであるといえる。   The information processing system according to the second embodiment is used by a worker U1 who performs work at a site where the information device 10 is installed, and a supporter U2 who supports the worker U1 from a remote location. The worker U1 can receive instructions regarding work from the supporter U2. It can be said that the worker U1 and the supporter U2 are users of the information processing system according to the second embodiment.

情報機器10は、サーバコンピュータ、スイッチ、および、ストレージ装置などを含む。情報機器10には、ARマーカー11,12が付与されている。ARマーカー11,12は、情報機器10を撮像した画像に対して、所定の付加画像を付与するために用いられる標識である。第2の実施の形態では、一例として、ARマーカーの形状を四角形とするが、他の形状でもよい。   The information device 10 includes a server computer, a switch, a storage device, and the like. The information device 10 is provided with AR markers 11 and 12. The AR markers 11 and 12 are signs used to give a predetermined additional image to an image obtained by imaging the information device 10. In the second embodiment, as an example, the shape of the AR marker is a square, but other shapes may be used.

スマート端末100は、作業者U1によって利用されるクライアントコンピュータである。スマート端末100は、カメラおよびディスプレイを備えており、カメラによってARマーカー11,12を含む領域を撮像し、撮像した画像に重ねて、ARマーカー11,12に応じた作業支援用の画像(支援画像)をディスプレイ上に表示させることができる。支援画像は、例えば、作業箇所を作業者U1に指示する画像や作業内容を作業者U1に指示するメッセージなどである。これにより、スマート端末100は、作業者U1による作業を支援する。このように、元の画像に付加画像をリアルタイムに重畳して表示させ、現実の情報に対して付加的な情報を提供する技術は、拡張現実(AR)と呼ばれることがある。スマート端末100は、撮像した画像を、ストリーミングサーバ200に送信することもできる。スマート端末100は、第1の実施の形態の端末1の一例である。   The smart terminal 100 is a client computer used by the worker U1. The smart terminal 100 includes a camera and a display. The area including the AR markers 11 and 12 is imaged by the camera, and the work support image corresponding to the AR markers 11 and 12 (support image) is superimposed on the captured images. ) Can be displayed on the display. The support image is, for example, an image for instructing the work location to the worker U1, a message for instructing the worker U1 about the work content, or the like. Thereby, the smart terminal 100 supports the work by the worker U1. As described above, a technique for displaying an additional image superimposed on an original image in real time and providing additional information with respect to real information is sometimes called augmented reality (AR). The smart terminal 100 can also transmit the captured image to the streaming server 200. The smart terminal 100 is an example of the terminal 1 according to the first embodiment.

ストリーミングサーバ200は、スマート端末100から受信した画像を、支援端末300に配信するサーバコンピュータである。
支援端末300は、ストリーミングサーバ200が配信する画像を受信し、支援者U2に提供するクライアントコンピュータである。支援者U2は、支援端末300により表示される画像を閲覧することで、スマート端末100により撮像されている画像を、作業者U1と共有することができる。支援者U2は、支援端末300が提供する画像を確認しながら、電話やチャットなどの手段を用いて、作業者U1に作業指示を伝えることができる。
The streaming server 200 is a server computer that distributes the image received from the smart terminal 100 to the support terminal 300.
The support terminal 300 is a client computer that receives an image distributed by the streaming server 200 and provides it to the supporter U2. The supporter U2 can share the image captured by the smart terminal 100 with the worker U1 by browsing the image displayed by the support terminal 300. The supporter U2 can transmit a work instruction to the worker U1 by using means such as telephone or chat while confirming the image provided by the support terminal 300.

ここで、情報機器の保守を行う保守事業者が顧客の施設で作業を行う場合、作業者U1が支援者U2の後方支援を受けることがある。この場合、セキュリティ上、作業対象とする情報機器以外の情報機器が支援者U2により視認できないようにすることが考えられる。一方、支援者U2は、作業者U1による手作業の作業状況(例えば、マニュアル手順に対する作業者の手操作手順の順序性など)を確認できる方が、誤操作の指摘や作業手順などの適切な作業指示を作業者U1に伝えることができる。情報機器以外の領域を全て視認不可とする場合、情報機器以外の領域で作業者U1による保守端末の操作やケーブル挿抜などの手作業が行われると、作業者U1による手作業の部分も視認不可となり、支援者U2により作業者U1の手作業を確認できなくなる。作業対象の情報機器が小さいほど、これが顕著になる。   Here, when a maintenance company that performs maintenance of information equipment performs work at a customer's facility, the worker U1 may receive logistic support from the supporter U2. In this case, for security reasons, it is conceivable that information devices other than the information device to be worked cannot be visually recognized by the supporter U2. On the other hand, if the supporter U2 can confirm the work status of the manual operation by the worker U1 (for example, the order of the manual operation procedure of the operator with respect to the manual procedure), the appropriate work such as the indication of erroneous operation and the work procedure is appropriate. The instruction can be transmitted to the worker U1. When all the areas other than the information equipment are not visible, if manual work such as operation of the maintenance terminal or cable insertion / extraction by the worker U1 is performed in the area other than the information equipment, the manual work by the worker U1 is also not visible. Thus, the supporter U2 cannot confirm the manual operation of the worker U1. This becomes more prominent as the work target information device is smaller.

そこで、作業者U1は、所定のARマーカーが付されたリング30を手に取り付けて作業を行う。以下の説明では、リング30に付されたARマーカーを、特に、リングマーカーと称する。そして、スマート端末100は、情報機器10に付されたARマーカー11,12やリング30に付されたリングマーカーを識別して、撮像された画像のうち、作業対象の機器や手作業の画像領域以外をマスクして出力する機能を提供する。   Therefore, the worker U1 performs work by attaching the ring 30 with the predetermined AR marker attached to the hand. In the following description, the AR marker attached to the ring 30 is particularly referred to as a ring marker. Then, the smart terminal 100 identifies the AR markers 11 and 12 attached to the information device 10 and the ring marker attached to the ring 30, and among the captured images, the device to be worked and the image region of manual work. Provides a function to output the data other than masked.

図3は、リングマーカーの例を示す図である。リング30は、作業者U1の腕(例えば、手首)に取り付けられる腕輪である。リング30は、リングマーカー31を有する。リングマーカー31は、所定の色と所定の図形パターン(模様)とをもつARマーカーである。例えば、図形パターンは、所定の色で表される1以上の二次元バーコードでもよい。図3の例では、リング30の外周の縁に、4つの二次元バーコードが付されている。この場合、当該4つの二次元バーコードの組を、リングマーカー31と考えることができる。リングマーカー31は、リング30の外周の縁に、(例えば、リング30の全外周を覆うように)複数設けられてもよい。   FIG. 3 is a diagram illustrating an example of a ring marker. The ring 30 is a bracelet attached to the arm (for example, wrist) of the worker U1. The ring 30 has a ring marker 31. The ring marker 31 is an AR marker having a predetermined color and a predetermined graphic pattern (pattern). For example, the graphic pattern may be one or more two-dimensional barcodes expressed in a predetermined color. In the example of FIG. 3, four two-dimensional barcodes are attached to the outer peripheral edge of the ring 30. In this case, the set of the four two-dimensional barcodes can be considered as the ring marker 31. A plurality of ring markers 31 may be provided on the outer peripheral edge of the ring 30 (for example, so as to cover the entire outer periphery of the ring 30).

図4は、スマート端末のハードウェア例を示す図である。スマート端末100は、プロセッサ101、RAM102、フラッシュメモリ103、正面カメラ104、背面カメラ105、ディスプレイ106、スピーカ107、タッチパネル108、マイク109、媒体リーダ110および通信インタフェース111を有する。各ユニットはスマート端末100のバスに接続されている。ストリーミングサーバ200や支援端末300もスマート端末100と同様のユニットを用いて実現できる。   FIG. 4 is a diagram illustrating a hardware example of the smart terminal. The smart terminal 100 includes a processor 101, a RAM 102, a flash memory 103, a front camera 104, a rear camera 105, a display 106, a speaker 107, a touch panel 108, a microphone 109, a medium reader 110, and a communication interface 111. Each unit is connected to the bus of the smart terminal 100. The streaming server 200 and the support terminal 300 can also be realized using the same unit as the smart terminal 100.

プロセッサ101は、スマート端末100の情報処理を制御する。プロセッサ101は、マルチプロセッサであってもよい。プロセッサ101は、例えばCPU、DSP、ASICまたはFPGAなどである。プロセッサ101は、CPU、DSP、ASIC、FPGAなどのうちの2以上の要素の組み合わせであってもよい。   The processor 101 controls information processing of the smart terminal 100. The processor 101 may be a multiprocessor. The processor 101 is, for example, a CPU, DSP, ASIC, or FPGA. The processor 101 may be a combination of two or more elements of CPU, DSP, ASIC, FPGA, and the like.

RAM102は、スマート端末100の主記憶装置である。RAM102は、プロセッサ101に実行させるOS(Operating System)のプログラムやアプリケーションプログラムの少なくとも一部を一時的に記憶する。また、RAM102は、プロセッサ101による処理に用いる各種データを記憶する。   The RAM 102 is a main storage device of the smart terminal 100. The RAM 102 temporarily stores at least part of an OS (Operating System) program and application programs to be executed by the processor 101. The RAM 102 stores various data used for processing by the processor 101.

フラッシュメモリ103は、スマート端末100の補助記憶装置である。フラッシュメモリ103は、内蔵の記憶素子に対して、電気的にデータの書き込みおよび読み出しを行う。フラッシュメモリ103は、OSのプログラム、アプリケーションプログラム、および各種データを記憶する。   The flash memory 103 is an auxiliary storage device of the smart terminal 100. The flash memory 103 electrically writes data to and reads data from a built-in storage element. The flash memory 103 stores an OS program, application programs, and various data.

正面カメラ104は、スマート端末100のディスプレイ106と同じ面(正面)に設けられた撮像装置である。
背面カメラ105は、スマート端末100のディスプレイ106とは反対側の面(背面)に設けられた撮像装置である。
The front camera 104 is an imaging device provided on the same surface (front) as the display 106 of the smart terminal 100.
The rear camera 105 is an imaging device provided on the surface (back surface) opposite to the display 106 of the smart terminal 100.

スマート端末100は、正面カメラ104や背面カメラ105の他、作業者U1による作業領域を定点から撮像するカメラと接続されてもよい。
ディスプレイ106は、プロセッサ101からの命令に従って、画像を表示する表示装置である。ディスプレイ106は、正面カメラ104や背面カメラ105により撮像されている画像をリアルタイムに表示することができる。ディスプレイ106としては、例えば、液晶ディスプレイを用いることができる。
In addition to the front camera 104 and the rear camera 105, the smart terminal 100 may be connected to a camera that captures the work area of the worker U1 from a fixed point.
The display 106 is a display device that displays an image in accordance with a command from the processor 101. The display 106 can display images captured by the front camera 104 and the rear camera 105 in real time. As the display 106, for example, a liquid crystal display can be used.

スピーカ107は、プロセッサ101から音声データを取得し、所定の信号処理を行って音声データに対応する音声を再生する。
タッチパネル108は、ディスプレイ106に重ねて設けられ、作業者U1によるタッチ操作を受け付ける。タッチパネル108は、タッチ操作された位置を示す情報をプロセッサ101に出力する。
The speaker 107 acquires audio data from the processor 101, performs predetermined signal processing, and reproduces audio corresponding to the audio data.
The touch panel 108 is provided so as to overlap the display 106 and receives a touch operation by the worker U1. The touch panel 108 outputs information indicating the touched position to the processor 101.

マイク109は、作業者U1が発話した音声などの入力を受け付け、所定の信号処理を行うことで音声データを生成し、プロセッサ101に出力する。
媒体リーダ110は、記録媒体22に記憶されたデータを読み取り、また、記録媒体22にデータを格納する。記録媒体22には、例えば、スマート端末100に実行させるプログラムを記録することもできる。記録媒体22としては、例えば、半導体メモリを使用できる。媒体リーダ110は、例えば、プロセッサ101からの命令に従って、記録媒体22から読み取ったプログラムやデータをRAM102またはフラッシュメモリ103に格納する。
The microphone 109 receives input such as voice uttered by the worker U 1, generates voice data by performing predetermined signal processing, and outputs the voice data to the processor 101.
The medium reader 110 reads data stored in the recording medium 22 and stores data in the recording medium 22. For example, a program to be executed by the smart terminal 100 can be recorded on the recording medium 22. For example, a semiconductor memory can be used as the recording medium 22. For example, the medium reader 110 stores the program and data read from the recording medium 22 in the RAM 102 or the flash memory 103 in accordance with an instruction from the processor 101.

通信インタフェース111は、アクセスポイント21を介してストリーミングサーバ200を含む他の装置と通信を行う。第2の実施の形態の例では、通信インタフェース111として無線通信インタフェースを想定するが、有線通信インタフェースでもよい。   The communication interface 111 communicates with other devices including the streaming server 200 via the access point 21. In the example of the second embodiment, a wireless communication interface is assumed as the communication interface 111, but a wired communication interface may be used.

なお、正面カメラ104および背面カメラ105それぞれは、第1の実施の形態の撮像装置2の一例である。ディスプレイ106および通信インタフェース111それぞれは、第1の実施の形態の出力装置3の一例である。   Each of the front camera 104 and the rear camera 105 is an example of the imaging device 2 according to the first embodiment. Each of the display 106 and the communication interface 111 is an example of the output device 3 according to the first embodiment.

図5は、スマート端末の機能例を示す図である。スマート端末100は、画像記憶部120、AR情報記憶部130、フレームデータ記憶部140、画像受信部151、マーカー検出部152、AR情報管理部153、変形率計算部154、枠生成部155、画像合成部156、表示制御部157、タッチ処理部158、枠比率計算部159、AR画像生成部160、手操作画像処理部161および通信制御部162を有する。   FIG. 5 is a diagram illustrating an example of functions of a smart terminal. The smart terminal 100 includes an image storage unit 120, an AR information storage unit 130, a frame data storage unit 140, an image reception unit 151, a marker detection unit 152, an AR information management unit 153, a deformation rate calculation unit 154, a frame generation unit 155, an image It has a composition unit 156, a display control unit 157, a touch processing unit 158, a frame ratio calculation unit 159, an AR image generation unit 160, a manual operation image processing unit 161, and a communication control unit 162.

画像記憶部120、AR情報記憶部130およびフレームデータ記憶部140は、RAM102またはフラッシュメモリ103に確保された記憶領域として実現される。画像受信部151、マーカー検出部152、AR情報管理部153、変形率計算部154、枠生成部155、画像合成部156、表示制御部157、タッチ処理部158、枠比率計算部159、AR画像生成部160、手操作画像処理部161および通信制御部162は、RAM102に記憶されたプログラムをプロセッサ101が実行することで実現される。これらの機能は、FPGAやASICなどのハードワイヤードロジックにより実現されてもよい。   The image storage unit 120, the AR information storage unit 130, and the frame data storage unit 140 are realized as a storage area secured in the RAM 102 or the flash memory 103. Image reception unit 151, marker detection unit 152, AR information management unit 153, deformation rate calculation unit 154, frame generation unit 155, image composition unit 156, display control unit 157, touch processing unit 158, frame ratio calculation unit 159, AR image The generation unit 160, the manual operation image processing unit 161, and the communication control unit 162 are realized by the processor 101 executing a program stored in the RAM 102. These functions may be realized by hard wired logic such as FPGA and ASIC.

画像記憶部120は、正面カメラ104または背面カメラ105により撮像された画像を記憶する。画像記憶部120は、スマート端末100に外付けされたカメラにより撮像された画像を記憶してもよい。   The image storage unit 120 stores an image captured by the front camera 104 or the rear camera 105. The image storage unit 120 may store an image captured by a camera externally attached to the smart terminal 100.

AR情報記憶部130は、AR情報を記憶する。AR情報は、作業者U1が行う作業の作業ID(IDentifier)、作業時に読み取るARマーカーのマーカーID、当該作業の対象となる機器情報を含む。機器情報は、情報機器の輪郭形状やサイズなどの情報を含む。また、機器情報は、作業者U1に対する支援画像を配置するモジュール位置(情報機器に対して支援画像を配置する位置)の情報を含む。例えば、ある作業を識別する作業IDに対して、情報機器に付されるARマーカーのマーカーIDが予め割り振られている。また、AR情報記憶部130は、ARマーカーの基準サイズ(基準サイズから機器情報における機器のサイズに対するARマーカーのサイズ比率を把握可能である)や基準形状の情報もマーカーID毎に予め記憶している。   The AR information storage unit 130 stores AR information. The AR information includes a work ID (IDentifier) of work performed by the worker U1, a marker ID of an AR marker read at the time of work, and device information that is a target of the work. The device information includes information such as the contour shape and size of the information device. The device information includes information on a module position (a position where the support image is arranged with respect to the information device) where the support image for the worker U1 is arranged. For example, a marker ID of an AR marker attached to the information device is assigned in advance to a task ID for identifying a certain task. The AR information storage unit 130 also stores information on the reference size of the AR marker (the ratio of the size of the AR marker to the device size in the device information from the reference size) and reference shape information in advance for each marker ID. Yes.

フレームデータ記憶部140は、手操作画像処理部161による手操作画像抽出用のフレームデータを記憶する。フレームデータは、時系列に入力される前回のフレーム画像と最新のフレーム画像との各画素の色データや、今回のフレームの各画素に対するマスク対象要否を示す種別を含む。   The frame data storage unit 140 stores frame data for manual operation image extraction by the manual operation image processing unit 161. The frame data includes color data of each pixel of the previous frame image and the latest frame image input in time series, and a type indicating whether or not a mask target is necessary for each pixel of the current frame.

画像受信部151は、背面カメラ105により出力されたカメラ画像(時系列のコマ画像)を受信し、マーカー検出部152および画像合成部156に提供する。画像受信部151は、正面カメラ104やスマート端末100に外付けされたカメラなどにより出力されたカメラ画像を受信し、マーカー検出部152および画像合成部156に提供してもよい。ここで、作業者U1は、保守作業を開始する直前に、これから行う作業の作業IDをスマート端末100に入力する。すると、例えば、背面カメラ105は、撮像対象範囲の撮像を開始し、カメラ画像の出力を開始する。スマート端末100は、作業者U1の操作入力により、カメラ画像を出力するカメラの選択を受け付けてもよい。   The image receiving unit 151 receives a camera image (time-sequential frame image) output from the rear camera 105 and provides the received image to the marker detection unit 152 and the image composition unit 156. The image reception unit 151 may receive a camera image output by a camera attached to the front camera 104 or the smart terminal 100 and provide the image to the marker detection unit 152 and the image composition unit 156. Here, the worker U1 inputs the work ID of the work to be performed to the smart terminal 100 immediately before starting the maintenance work. Then, for example, the rear camera 105 starts imaging the imaging target range and starts outputting the camera image. The smart terminal 100 may accept selection of a camera that outputs a camera image by an operation input of the worker U1.

マーカー検出部152は、画像受信部151から取得したカメラ画像から、情報機器に付されたARマーカー(例えば、ARマーカー11,12)の画像(ARマーカー画像と称する)を検出する。ARマーカー画像の検出には、既存のパターン認識の方法を用いることができる。また、マーカー検出部152は、ARマーカーが検出されたカメラ画像を画像記憶部120に格納する。   The marker detection unit 152 detects an image (referred to as an AR marker image) of an AR marker (for example, the AR markers 11 and 12) attached to the information device from the camera image acquired from the image reception unit 151. An existing pattern recognition method can be used to detect the AR marker image. In addition, the marker detection unit 152 stores the camera image in which the AR marker is detected in the image storage unit 120.

AR情報管理部153は、AR情報記憶部130に対するデータの書き込みやAR情報記憶部130からのデータの読み出しを行う。また、AR情報管理部153は、各部の間での、データの受け渡しを管理する。   The AR information management unit 153 writes data to the AR information storage unit 130 and reads data from the AR information storage unit 130. The AR information management unit 153 manages data exchange between the units.

変形率計算部154は、画像記憶部120に記憶されたカメラ画像に含まれるARマーカー画像と、当該ARマーカー画像の基準のサイズ/形状とを比較することで、カメラ画像に含まれるARマーカー画像の変形率(ARマーカー変形率)を計算する。変形率計算部154は、計算したARマーカー変形率を、AR情報管理部153を介して、AR情報記憶部130に記録する。   The deformation rate calculation unit 154 compares the AR marker image included in the camera image stored in the image storage unit 120 with the reference size / shape of the AR marker image, thereby determining the AR marker image included in the camera image. The deformation rate of AR (AR marker deformation rate) is calculated. The deformation rate calculation unit 154 records the calculated AR marker deformation rate in the AR information storage unit 130 via the AR information management unit 153.

枠生成部155は、AR情報管理部153を介して、作業ID、および、検出されたARマーカーに対応する機器情報をAR情報記憶部130から読み出し、作業対象機器の形状に合った枠画像を生成して、枠画像の表示位置を示す座標(枠画像座標)を計算する。枠画像は、ディスプレイ106上の任意の位置に表示させることができる。例えば、枠生成部155は、ディスプレイ106の表示領域の中央に表示するように枠画像座標を計算する。枠生成部155は、計算した枠画像座標を、AR情報管理部153を介して、AR情報記憶部130に格納する。また、枠生成部155は、生成した枠画像を画像合成部156に提供する。   The frame generation unit 155 reads out the work ID and device information corresponding to the detected AR marker from the AR information storage unit 130 via the AR information management unit 153, and generates a frame image that matches the shape of the work target device. The coordinates (frame image coordinates) indicating the display position of the frame image are generated. The frame image can be displayed at an arbitrary position on the display 106. For example, the frame generation unit 155 calculates the frame image coordinates so as to be displayed at the center of the display area of the display 106. The frame generation unit 155 stores the calculated frame image coordinates in the AR information storage unit 130 via the AR information management unit 153. In addition, the frame generation unit 155 provides the generated frame image to the image composition unit 156.

画像合成部156は、画像受信部151から取得したカメラ画像に対し、枠生成部155によって生成された枠画像を合成する(カメラ画像を背景として枠画像をカメラ画像に重畳する)。画像合成部156は、AR情報記憶部130に格納された枠画像座標を基に、枠画像の配置位置を決定する(枠画像の配置は枠画像座標に固定される)。   The image synthesis unit 156 synthesizes the frame image generated by the frame generation unit 155 with the camera image acquired from the image reception unit 151 (superimposes the frame image on the camera image with the camera image as a background). The image composition unit 156 determines the arrangement position of the frame image based on the frame image coordinates stored in the AR information storage unit 130 (the arrangement of the frame images is fixed to the frame image coordinates).

画像合成部156は、画像受信部151から取得したカメラ画像に、AR画像生成部160によって生成された支援画像(作業支援用のAR画像)や手操作画像処理部161によって生成されたマスク画像を合成することもある。   The image composition unit 156 adds the support image (AR image for work support) generated by the AR image generation unit 160 and the mask image generated by the manual operation image processing unit 161 to the camera image acquired from the image reception unit 151. Sometimes synthesized.

表示制御部157は、画像合成部156により生成された画像を取得し、ディスプレイ106に出力する。ディスプレイ106は、表示制御部157により出力された画像を表示する。   The display control unit 157 acquires the image generated by the image composition unit 156 and outputs it to the display 106. The display 106 displays the image output by the display control unit 157.

タッチ処理部158は、作業者U1によるタッチパネル108に対するタッチ操作を受け付ける。例えば、作業者U1は、ディスプレイ106に表示されたボタンなどをタッチできる。タッチ処理部158は、タッチ位置に対応するボタンに応じた入力を受け付ける。例えば、作業者U1は、背面カメラと作業対象機器との位置関係を調整して、ディスプレイ106に表示された枠画像に、作業対象機器の画像(作業対象機器画像)の縁を合わせる。作業者U1は、一致を確認すると、一致したことを入力するためのボタン(例えば、「AR生成」などの文字列が付されたボタン)をタッチする。すると、タッチ処理部158は、当該タッチ操作に応じて、枠画像と、作業対象機器画像の縁とが一致していることを、AR情報管理部153を介して枠比率計算部159に通知する。   The touch processing unit 158 receives a touch operation on the touch panel 108 by the worker U1. For example, the worker U1 can touch a button or the like displayed on the display 106. The touch processing unit 158 receives an input corresponding to a button corresponding to the touch position. For example, the worker U1 adjusts the positional relationship between the rear camera and the work target device, and aligns the edge of the work target device image (work target device image) with the frame image displayed on the display 106. When confirming the match, the worker U1 touches a button (for example, a button with a character string such as “AR generation”) for inputting the match. Then, the touch processing unit 158 notifies the frame ratio calculation unit 159 via the AR information management unit 153 that the frame image matches the edge of the work target device image in accordance with the touch operation. .

枠比率計算部159は、タッチ処理部158からの通知を受け付けると、枠画像座標と当該通知のタイミングにおける、ARマーカー座標とARマーカーの変形率と、を取得する。枠比率計算部159は、取得した枠画像座標とARマーカー座標とARマーカーの変形率とに基づいて、AR画像(作業支援用の支援画像または作業対象機器以外をマスクするマスク画像)を表示させる座標(AR表示座標)を計算する。   When receiving the notification from the touch processing unit 158, the frame ratio calculation unit 159 acquires the frame image coordinates and the AR marker coordinates and the AR marker deformation rate at the notification timing. The frame ratio calculation unit 159 displays an AR image (a work support support image or a mask image that masks other than the work target device) based on the acquired frame image coordinates, the AR marker coordinates, and the deformation rate of the AR marker. Coordinates (AR display coordinates) are calculated.

AR表示座標を計算するために、まず、枠比率計算部159は、取得した枠画像座標とARマーカー座標とARマーカーの変形率とから、ARマーカー画像と枠画像との位置関係を取得する。そして、枠比率計算部159は、作業対象機器画像に対して支援画像を配置する位置(作業対象機器画像を基準とした位置)を機器情報から得る。枠比率計算部159は、ARマーカー画像と枠画像との位置関係から、支援画像を配置する位置の、ARマーカー画像を基準とした位置(支援画像のAR表示座標)を計算し、AR情報管理部153を介してAR情報記憶部130に格納する。また、枠比率計算部159は、マーカー画像と枠画像との位置関係を基に、カメラ画像のうち、作業対象機器画像以外の領域を特定し、当該領域の情報(マスク画像のAR表示座標)を、AR情報管理部153を介してAR情報記憶部130に格納する。   In order to calculate the AR display coordinates, first, the frame ratio calculation unit 159 acquires the positional relationship between the AR marker image and the frame image from the acquired frame image coordinates, the AR marker coordinates, and the deformation rate of the AR marker. Then, the frame ratio calculation unit 159 obtains, from the device information, a position where the support image is arranged with respect to the work target device image (a position based on the work target device image). The frame ratio calculation unit 159 calculates the position (AR display coordinates of the support image) of the position where the support image is to be arranged based on the positional relationship between the AR marker image and the frame image, and manages AR information. The information is stored in the AR information storage unit 130 via the unit 153. Also, the frame ratio calculation unit 159 identifies an area other than the work target device image in the camera image based on the positional relationship between the marker image and the frame image, and information on the area (AR display coordinates of the mask image) Are stored in the AR information storage unit 130 via the AR information management unit 153.

AR画像生成部160は、AR情報記憶部130に記憶されたAR形状情報、テキスト情報、マーカー変形率およびAR表示座標に基づいて、支援画像を生成し、画像合成部156に提供する。また、AR画像生成部160は、AR情報記憶部130に記憶された作業対象領域画像以外の領域に対するマスク画像を生成し、手操作画像処理部161に提供する。また、AR画像生成部160は、AR情報管理部153を介して、画像記憶部120に記憶されたカメラ画像を取得し、手操作画像処理部161に提供する。   The AR image generation unit 160 generates a support image based on the AR shape information, text information, marker deformation rate, and AR display coordinates stored in the AR information storage unit 130, and provides the support image to the image composition unit 156. In addition, the AR image generation unit 160 generates a mask image for an area other than the work target area image stored in the AR information storage unit 130 and provides the mask image to the manual operation image processing unit 161. In addition, the AR image generation unit 160 acquires the camera image stored in the image storage unit 120 via the AR information management unit 153, and provides it to the manual operation image processing unit 161.

手操作画像処理部161は、AR画像生成部160からカメラ画像を取得し、取得したカメラ画像からリングマーカー31の画像を識別する。手操作画像処理部161は、画像受信部151からカメラ画像を取得してもよい。手操作画像処理部161は、リングマーカー31の画像により、カメラ画像のうち、作業者U1の手作業を写した画像領域(手操作画像)を特定する。手操作画像処理部161は、最新のフレームのカメラ画像(最新のフレーム画像)と、前回のフレームのカメラ画像(前回のフレーム画像)とを比較し、リングマーカー31と連動して動いた画像領域を検出する。ここで、前回のフレーム画像は、最新のフレーム画像の1つ前のフレームのフレーム画像である。リングマーカー31は、作業者U1の手に取り付けられているので、リングマーカー31と連動して動いた画像領域は、作業者U1の手や手の中のケーブルなどを写した画像領域に相当する。したがって、手操作画像処理部161は、検出した画像領域を手操作画像として特定する。   The manual operation image processing unit 161 acquires a camera image from the AR image generation unit 160 and identifies an image of the ring marker 31 from the acquired camera image. The manual operation image processing unit 161 may acquire a camera image from the image receiving unit 151. The manual operation image processing unit 161 identifies an image region (manual operation image) in which the manual operation of the worker U1 is captured from the camera image by the image of the ring marker 31. The manual operation image processing unit 161 compares the camera image of the latest frame (latest frame image) with the camera image of the previous frame (previous frame image), and the image area moved in conjunction with the ring marker 31 Is detected. Here, the previous frame image is the frame image of the frame immediately before the latest frame image. Since the ring marker 31 is attached to the hand of the worker U1, the image area moved in conjunction with the ring marker 31 corresponds to an image area in which the hand of the worker U1 and a cable in the hand are copied. . Therefore, the manual operation image processing unit 161 identifies the detected image area as a manual operation image.

手操作画像処理部161は、手操作画像以外の領域に対するマスク画像を生成し、AR画像生成部160から取得したマスク画像と合成する。具体的には、手操作画像処理部161は、両マスク画像の各座標について、非配信部分を“1”(True)、配信部分を“0”(False)として各座標の論理積(AND)を計算することで、両マスク画像の合成を行う。その結果、手操作画像処理部161は、作業対象機器画像および手操作画像の両方以外の領域をマスクするマスク画像を得る。手操作画像処理部161は、合成により得られた新たなマスク画像(ARマスクと称する)を画像合成部156に提供する。   The manual operation image processing unit 161 generates a mask image for an area other than the manual operation image and combines it with the mask image acquired from the AR image generation unit 160. Specifically, for each coordinate of both mask images, the manual operation image processing unit 161 sets the non-distribution portion to “1” (True) and the distribution portion to “0” (False), and the logical product (AND) of the coordinates. Is calculated to synthesize both mask images. As a result, the manual operation image processing unit 161 obtains a mask image that masks an area other than both the work target device image and the manual operation image. The manual operation image processing unit 161 provides a new mask image (referred to as an AR mask) obtained by combining to the image combining unit 156.

通信制御部162は、画像合成部156によってカメラ画像と支援画像とARマスクとを合成することで生成された合成画像を、画像合成部156から取得する。通信制御部162は、ストリーミングサーバ200を宛先として、当該合成画像を通信インタフェース111から送信する。   The communication control unit 162 acquires a composite image generated by combining the camera image, the support image, and the AR mask from the image combining unit 156 by the image combining unit 156. The communication control unit 162 transmits the composite image from the communication interface 111 with the streaming server 200 as a destination.

図6は、フレーム画像の例を示す図である。フレーム画像51は、背面カメラ105などのカメラにより撮像されたコマ画像(動画の1フレーム分に相当する画像)である。フレーム画像51は、作業者U1による作業領域が撮像されて生成されたものである。フレーム画像51は、ARマーカー画像51aおよびリングマーカー画像51bを含む。ARマーカー画像51aは、作業対象機器に付されたARマーカーに対応する画像である。リングマーカー画像51bは、作業者U1の手に付されたリング30のリングマーカー31に対応する画像である。   FIG. 6 is a diagram illustrating an example of a frame image. The frame image 51 is a frame image (an image corresponding to one frame of a moving image) captured by a camera such as the rear camera 105. The frame image 51 is generated by imaging a work area by the worker U1. The frame image 51 includes an AR marker image 51a and a ring marker image 51b. The AR marker image 51a is an image corresponding to the AR marker attached to the work target device. The ring marker image 51b is an image corresponding to the ring marker 31 of the ring 30 attached to the hand of the worker U1.

ここで、フレーム画像51の座標系(XY座標系)は次のように定められている。原点O(0,0)は、フレーム画像51の左上の頂点である。X軸の正方向は、原点から右側へ向かう方向である。Y軸の正方向は、原点から下側へ向かう方向である。フレーム画像51のX座標の最大値は、“A−1”である。フレーム画像51のY座標の最大値は、“B−1”である。以下では、一例として、A=100、B=100とする。   Here, the coordinate system (XY coordinate system) of the frame image 51 is determined as follows. The origin O (0, 0) is the top left vertex of the frame image 51. The positive direction of the X axis is the direction from the origin to the right side. The positive direction of the Y axis is a direction from the origin toward the lower side. The maximum value of the X coordinate of the frame image 51 is “A-1”. The maximum value of the Y coordinate of the frame image 51 is “B−1”. In the following, it is assumed that A = 100 and B = 100 as an example.

例えば、フレーム画像51上のARマーカー画像51aの位置は、ARマーカー画像51aにおける第1の基準位置の座標(ARマーカー座標)により表される。ARマーカー座標は、例えば、ARマーカー画像51aの頂点の何れか、または、重心などである。同様に、フレーム画像51上のリングマーカー画像51bの位置は、リングマーカー画像51bにおける第2の基準位置の座標(リングマーカー座標)により表される。リングマーカー座標は、例えば、リングマーカー画像51bの重心などである。   For example, the position of the AR marker image 51a on the frame image 51 is represented by the coordinates of the first reference position (AR marker coordinates) in the AR marker image 51a. The AR marker coordinates are, for example, one of the vertices of the AR marker image 51a or the center of gravity. Similarly, the position of the ring marker image 51b on the frame image 51 is represented by the coordinates of the second reference position (ring marker coordinates) in the ring marker image 51b. The ring marker coordinates are, for example, the center of gravity of the ring marker image 51b.

図7は、色データテーブルの例を示す図である。色データテーブル141は、フレームデータ記憶部140に予め格納される。色データテーブル141は、色データおよび色名の項目を含む。   FIG. 7 is a diagram illustrating an example of a color data table. The color data table 141 is stored in advance in the frame data storage unit 140. The color data table 141 includes items of color data and color names.

色データの項目には、色を識別する番号(色データと称する)が登録される。色データで示される番号は、例えば“0,1,2,・・・”という正の整数である。色名の項目には、該当の色データの色名が登録される。色名は、カラーパレットにおける実際の色の情報(例えば、R(Red)G(Green)B(Blue)などで表される色の情報)に対応付けられる。   In the color data item, a number for identifying a color (referred to as color data) is registered. The numbers indicated by the color data are positive integers such as “0, 1, 2,. In the color name item, the color name of the corresponding color data is registered. The color name is associated with actual color information (for example, color information represented by R (Red), G (Green), and B (Blue)) in the color palette.

例えば、色データテーブル141には、色データが“0”、色名が“紫”という情報が登録される。これは、色データ“0”が、色名“紫”に対応することを示す。なお、色データ“0”は、リングマーカー31における図形パターンを形成する色である。   For example, information that color data is “0” and color name is “purple” is registered in the color data table 141. This indicates that the color data “0” corresponds to the color name “purple”. The color data “0” is a color that forms a graphic pattern in the ring marker 31.

また、色データテーブル141には、色データが“1”、色名が“黒”という情報が登録される。これは、色データ“1”が、色名“黒”に対応することを示す。
ここで、色データテーブル141では、2つの色データの差が小さいほど、当該2つの色データで示される色の類似度が高くなるように予め色データが設定されている。
In the color data table 141, information that the color data is “1” and the color name is “black” is registered. This indicates that the color data “1” corresponds to the color name “black”.
Here, in the color data table 141, color data is set in advance such that the smaller the difference between two color data, the higher the similarity between the colors indicated by the two color data.

図8は、前回フレームテーブルの例を示す図である。前回フレームテーブル142は、フレームデータ記憶部140に格納される。前回フレームテーブル142は、座標(X,Y)、色データおよび種別の項目を含む。   FIG. 8 is a diagram illustrating an example of the previous frame table. The previous frame table 142 is stored in the frame data storage unit 140. The previous frame table 142 includes items of coordinates (X, Y), color data, and type.

座標(X,Y)の項目には、前回のフレーム画像における画素の(X,Y)座標が登録される。色データの項目には、該当の画素の色を示す色データが登録される。種別の項目には、画素の種別を示す値が登録される。画素の種別は3つある。1つ目の種別は、該当の画素がリングマーカー画像の画素であることを表す種別である。1つ目の種別を表す値は“1”である。2つ目の種別は、配信対象候補(マスク対象外候補)の画素であることを表す種別である。2つ目の種別を表す値は“2”である。3つ目の種別は、配信対象外候補(マスク対象候補)の画素であることを表す種別である。3つ目の種別を表す値は“0”である。   In the item of coordinates (X, Y), the (X, Y) coordinates of the pixels in the previous frame image are registered. In the color data item, color data indicating the color of the corresponding pixel is registered. In the type item, a value indicating the type of pixel is registered. There are three types of pixels. The first type is a type indicating that the corresponding pixel is a pixel of the ring marker image. The value representing the first type is “1”. The second type is a type indicating that the pixel is a candidate for distribution target (candidate for non-mask target). The value representing the second type is “2”. The third type is a type indicating that the pixel is a candidate for non-delivery target (mask target candidate). The value representing the third type is “0”.

例えば、前回フレームテーブル142には、座標(X,Y)が“(0,0)”、色データが“22”、種別が“0”という情報が登録される。これは、前回のフレーム画像の座標(X,Y)=(0,0)の画素について、色データが“22”であり、当該画素の種別が“0”(マスクの対象とする候補の画素)であることを示す。   For example, information that coordinates (X, Y) is “(0, 0)”, color data is “22”, and type is “0” is registered in the previous frame table 142. This is because the color data is “22” for the pixel at the coordinate (X, Y) = (0, 0) of the previous frame image, and the pixel type is “0” (candidate pixel to be masked). ).

前回フレームテーブル142には、前回のフレーム画像の他の画素についても同様に、座標(X,Y)と色データと種別とが登録される。
図9は、最新フレームテーブルの例を示す図である。最新フレームテーブル143は、フレームデータ記憶部140に格納される。最新フレームテーブル143は、座標(X,Y)、色データおよび種別の項目を含む。
Similarly, coordinates (X, Y), color data, and type are registered in the previous frame table 142 for other pixels of the previous frame image.
FIG. 9 is a diagram illustrating an example of the latest frame table. The latest frame table 143 is stored in the frame data storage unit 140. The latest frame table 143 includes items of coordinates (X, Y), color data, and type.

座標(X,Y)の項目には、最新のフレーム画像における画素の(X,Y)座標が登録される。色データの項目には、該当の画素の色を示す色データが登録される。種別の項目には、画素の種別を示す値が登録される。種別の項目に登録される情報は、図8で例示した前回フレームテーブル142における種別の項目と同様である。   In the item of coordinates (X, Y), the (X, Y) coordinates of the pixel in the latest frame image are registered. In the color data item, color data indicating the color of the corresponding pixel is registered. In the type item, a value indicating the type of pixel is registered. The information registered in the type item is the same as the type item in the previous frame table 142 illustrated in FIG.

例えば、最新フレームテーブル143には、座標(X,Y)が“(0,0)”、色データが“22”、種別が“0”という情報が登録される。これは、最新のフレーム画像の座標(X,Y)=(0,0)の画素について、色データが“22”であり、当該画素の種別が“0”(マスク対象候補の画素)であることを示す。   For example, information that coordinates (X, Y) is “(0, 0)”, color data is “22”, and type is “0” is registered in the latest frame table 143. This is because the color data is “22” and the type of the pixel is “0” (mask target candidate pixel) for the pixel at the coordinates (X, Y) = (0, 0) of the latest frame image. It shows that.

最新フレームテーブル143には、最新のフレーム画像の他の画素についても同様に、座標(X,Y)と色データと種別とが登録される。
図10は、前回フレームAR検出情報の例を示す図である。前回フレームAR検出情報144は、フレームデータ記憶部140に格納される。前回フレームAR検出情報144は、ARマーカー検出フラグ、ARマーカー変形率およびARマーカー座標の項目を含む。
Similarly, coordinates (X, Y), color data, and type are registered in the latest frame table 143 for the other pixels of the latest frame image.
FIG. 10 is a diagram illustrating an example of the previous frame AR detection information. The previous frame AR detection information 144 is stored in the frame data storage unit 140. The previous frame AR detection information 144 includes items of an AR marker detection flag, an AR marker deformation rate, and an AR marker coordinate.

ARマーカー検出フラグの項目には、ARマーカー検出フラグが登録される。ARマーカー検出フラグは、前回のフレーム画像において、ARマーカー画像が検出されたか否かを示すフラグである。ARマーカー検出フラグの“1”は、前回のフレーム画像において、ARマーカー画像が検出されたことを示す。ARマーカー検出フラグの“0”は、前回のフレーム画像において、ARマーカー画像が検出されなかったことを示す。ARマーカー変形率の項目には、前回のフレーム画像におけるARマーカー画像の基準サイズに対する変形率が登録される。ARマーカー検出フラグが“0”の場合、ARマーカー変形率の項目は設定なしとなる。ARマーカー座標の項目には、前回のフレーム画像におけるARマーカー座標が登録される。ARマーカー検出フラグが“0”の場合、ARマーカー座標の項目は設定なしとなる。   The AR marker detection flag is registered in the AR marker detection flag item. The AR marker detection flag is a flag indicating whether or not an AR marker image is detected in the previous frame image. The AR marker detection flag “1” indicates that an AR marker image has been detected in the previous frame image. The AR marker detection flag “0” indicates that the AR marker image was not detected in the previous frame image. In the AR marker deformation rate item, the deformation rate with respect to the reference size of the AR marker image in the previous frame image is registered. When the AR marker detection flag is “0”, the AR marker deformation rate item is not set. The AR marker coordinate in the previous frame image is registered in the AR marker coordinate item. When the AR marker detection flag is “0”, the AR marker coordinate item is not set.

例えば、前回フレームAR検出情報144には、ARマーカー検出フラグが“1”、ARマーカー変形率が“2.5”、ARマーカー座標が“(23,45)”という情報が登録される。これは、前回のフレーム画像において、ARマーカー画像が検出されたこと、検出されたARマーカー画像のサイズが基準サイズの“2.5”倍であったこと、前回のフレーム画像上のARマーカー画像の位置が“(23,45)”であったことを示す。   For example, information that the AR marker detection flag is “1”, the AR marker deformation rate is “2.5”, and the AR marker coordinate is “(23, 45)” is registered in the previous frame AR detection information 144. This is because the AR marker image is detected in the previous frame image, the size of the detected AR marker image is “2.5” times the reference size, and the AR marker image on the previous frame image. Indicates that the position is “(23, 45)”.

図11は、マスク情報テーブルの例を示す図である。マスク情報テーブル145は、フレームデータ記憶部140に格納される。マスク情報テーブル145は、手操作画像処理部161によって生成された最新のマスク画像によるマスク対象領域を示す。マスク情報テーブル145は、座標(X,Y)、色データおよびマスクフラグの項目を含む。   FIG. 11 is a diagram illustrating an example of a mask information table. The mask information table 145 is stored in the frame data storage unit 140. The mask information table 145 indicates a mask target area based on the latest mask image generated by the manual operation image processing unit 161. The mask information table 145 includes items of coordinates (X, Y), color data, and mask flags.

座標(X,Y)の項目には、最新のフレーム画像における画素の(X,Y)座標が登録される。色データの項目には、該当の画素の色を示す色データが登録される。マスクフラグの項目には、マスク対象であるか否かを示すマスクフラグが登録される。マスクフラグ“1”は、マスク対象であることを示す。マスクフラグ“0”は、マスク非対象であることを示す。   In the item of coordinates (X, Y), the (X, Y) coordinates of the pixel in the latest frame image are registered. In the color data item, color data indicating the color of the corresponding pixel is registered. In the mask flag item, a mask flag indicating whether or not it is a mask target is registered. The mask flag “1” indicates that it is a mask target. The mask flag “0” indicates that the mask is not targeted.

例えば、マスク情報テーブル145には、座標(X,Y)が“(0,0)”、色データが“22”、マスクフラグが“1”という情報が登録される。これは、最新のフレーム画像の座標(X,Y)=(0,0)の画素について、色データが“22”であり、マスク対象であることを示す。   For example, information that coordinates (X, Y) is “(0, 0)”, color data is “22”, and mask flag is “1” is registered in the mask information table 145. This indicates that the color data of the pixel at the coordinates (X, Y) = (0, 0) of the latest frame image is “22” and is a mask target.

マスク情報テーブル145には、他の画素についても同様に、座標(X,Y)と色データとマスクフラグとが登録される。
次に、スマート端末100による作業者U1による作業支援の処理手順を説明する。
Similarly, coordinates (X, Y), color data, and mask flags are registered in the mask information table 145 for other pixels.
Next, a process procedure of work support by the worker U1 by the smart terminal 100 will be described.

図12は、スマート端末の処理例を示すフローチャートである。以下、図12に示す処理をステップ番号に沿って説明する。
(S1)スマート端末100は、作業者U1による作業開始の入力を受け付ける。作業開始の入力は、作業内容を識別するための作業IDを含む。スマート端末100は、背面カメラ105または他のカメラによる作業対象機器を含む領域の撮像を開始する。画像受信部151は、撮像されたカメラ画像を受信する。表示制御部157は、画像受信部151および画像合成部156を介してカメラ画像を取得し、ディスプレイ106に表示させる。
FIG. 12 is a flowchart illustrating a processing example of the smart terminal. In the following, the process illustrated in FIG. 12 will be described in order of step number.
(S1) The smart terminal 100 receives an input of work start by the worker U1. The work start input includes a work ID for identifying the work content. The smart terminal 100 starts imaging an area including the work target device using the rear camera 105 or another camera. The image receiving unit 151 receives a captured camera image. The display control unit 157 acquires a camera image via the image reception unit 151 and the image composition unit 156 and displays the camera image on the display 106.

(S2)マーカー検出部152は、画像受信部151からカメラ画像を取得する。マーカー検出部152は、ARマーカーに対応するARマーカー画像を、カメラ画像から認識する。マーカー検出部152は、取得したカメラ画像を画像記憶部120に格納する。マーカー検出部152は、ARマーカー画像を検出すると、AR情報管理部153を介して、AR情報記憶部130に、ARマーカー検出フラグ“True”およびARマーカー座標を記録する。マーカー検出部152は、ARマーカー画像から当該ARマーカー画像に対応するARマーカーIDを取得する。なお、マーカー検出部152は、カメラ画像の中からARマーカー画像を検出していない場合は、AR情報記憶部130に、ARマーカー検出フラグ“False”を記録する。以後、マーカー検出部152は、毎フレームのフレーム画像に対して、ARマーカー検出フラグを継続的に、“True”または“False”に設定する。   (S2) The marker detection unit 152 acquires a camera image from the image reception unit 151. The marker detection unit 152 recognizes an AR marker image corresponding to the AR marker from the camera image. The marker detection unit 152 stores the acquired camera image in the image storage unit 120. When detecting the AR marker image, the marker detection unit 152 records the AR marker detection flag “True” and the AR marker coordinates in the AR information storage unit 130 via the AR information management unit 153. The marker detection unit 152 acquires an AR marker ID corresponding to the AR marker image from the AR marker image. The marker detection unit 152 records an AR marker detection flag “False” in the AR information storage unit 130 when no AR marker image is detected from the camera image. Thereafter, the marker detection unit 152 continuously sets the AR marker detection flag to “True” or “False” for the frame image of each frame.

(S3)枠生成部155は、作業対象機器に対する枠画像を生成する。画像合成部156は、枠生成部155により生成された枠画像を、カメラ画像に合成した枠合成画像を生成する。表示制御部157は、画像合成により生成された枠合成画像をディスプレイ106により表示させる。ここで、枠生成部155は、作業対象機器の機器情報(形状やサイズなど)、および、ARマーカーの情報(基準となる形状やサイズに対するマーカー画像の変形率)、に応じた枠画像を生成する。作業対象機器の機器情報やARマーカーの情報は、作業IDおよびマーカーIDの組み合わせに対応づけてAR情報記憶部130に予め格納されている。また、表示制御部157は、枠画像の表示位置を、枠生成部155により求められた枠画像座標により決定する。   (S3) The frame generation unit 155 generates a frame image for the work target device. The image composition unit 156 generates a frame composite image in which the frame image generated by the frame generation unit 155 is combined with the camera image. The display control unit 157 causes the display 106 to display a frame composite image generated by image synthesis. Here, the frame generation unit 155 generates a frame image corresponding to the device information (shape, size, etc.) of the work target device and AR marker information (deformation rate of the marker image with respect to the reference shape or size). To do. The device information of the work target device and the AR marker information are stored in advance in the AR information storage unit 130 in association with the combination of the work ID and the marker ID. The display control unit 157 determines the display position of the frame image based on the frame image coordinates obtained by the frame generation unit 155.

(S4)表示制御部157は、作業対象機器の外縁に枠画像を合わせる。例えば、作業者U1は、スマート端末100を動かして背面カメラ105と作業対象機器との位置関係を調整することで、ディスプレイ106に表示された枠画像に、作業対象機器画像の縁を合わせることができる。表示制御部157は、このような作業者U1による操作に応じて、作業対象機器の外縁に枠画像を合わせてもよい。   (S4) The display control unit 157 aligns the frame image with the outer edge of the work target device. For example, the worker U1 moves the smart terminal 100 to adjust the positional relationship between the rear camera 105 and the work target device, thereby aligning the edge of the work target device image with the frame image displayed on the display 106. it can. The display control unit 157 may align the frame image with the outer edge of the work target device in accordance with such an operation by the worker U1.

(S5)タッチ処理部158は、作業対象機器の外縁に枠画像が合わさると、作業者U1によるAR生成開始の入力を受け付け、AR情報管理部153を介して当該入力を受け付けたことを、AR画像生成部160や手操作画像処理部161に通知する。また、表示制御部157は、枠画像の表示を停止する。   (S5) When the frame image is aligned with the outer edge of the work target device, the touch processing unit 158 accepts an input of AR generation start by the worker U1, and confirms that the input has been accepted via the AR information management unit 153. The image generation unit 160 and the manual operation image processing unit 161 are notified. Further, the display control unit 157 stops displaying the frame image.

(S6)手操作画像処理部161は、AR画像生成部160と連携して、ARマスクを生成する。処理の詳細は、後述される。手操作画像処理部161は、生成したARマスクを画像合成部156に提供する。   (S6) The manual operation image processing unit 161 generates an AR mask in cooperation with the AR image generation unit 160. Details of the processing will be described later. The manual operation image processing unit 161 provides the generated AR mask to the image composition unit 156.

(S7)画像合成部156は、手操作画像処理部161により生成されたARマスクを、画像受信部151から取得したカメラ画像(最新のフレーム画像)に合成して合成画像を生成する。通信制御部162は、画像合成部156により生成された合成画像を通信インタフェース111に出力し、ストリーミングサーバ200に送信する。また、表示制御部157は、画像合成部156により生成された合成画像をディスプレイ106に出力し、ディスプレイ106に合成画像を表示させる。   (S7) The image composition unit 156 generates a composite image by combining the AR mask generated by the manual operation image processing unit 161 with the camera image (latest frame image) acquired from the image reception unit 151. The communication control unit 162 outputs the composite image generated by the image composition unit 156 to the communication interface 111 and transmits it to the streaming server 200. In addition, the display control unit 157 outputs the composite image generated by the image composition unit 156 to the display 106 and causes the display 106 to display the composite image.

(S8)タッチ処理部158は、作業終了の入力があったか否かを判定する。作業終了の入力があった場合、タッチ処理部158は、処理を終了する。作業終了の入力がない場合、タッチ処理部158は、ステップS6に処理を進める。   (S8) The touch processing unit 158 determines whether or not there is an input of work completion. If there is an input to end the work, the touch processing unit 158 ends the process. If there is no work end input, the touch processing unit 158 advances the process to step S6.

なお、ステップS6〜S8では、スマート端末100は、カメラ画像内にARマーカーを認識できるかを継続的に確認し、ARマーカーを認識できない場合に、画像送信を強制的に停止してもよい。また、通信制御部162は、合成画像を生成できない場合には、該当のフレームの画像送信を行わないようにする(マスクされていないカメラ画像の配信を行わない)。   In steps S6 to S8, the smart terminal 100 may continuously check whether the AR marker can be recognized in the camera image, and may forcibly stop the image transmission when the AR marker cannot be recognized. In addition, when the composite image cannot be generated, the communication control unit 162 does not transmit the image of the corresponding frame (does not distribute the unmasked camera image).

図13は、ARマスク生成処理の例を示すフローチャートである。以下、図13に示す処理をステップ番号に沿って説明する。以下に示す手順は、図12のステップS6に相当し、毎フレームに実行される。   FIG. 13 is a flowchart illustrating an example of the AR mask generation process. Hereinafter, the process illustrated in FIG. 13 will be described in order of step number. The procedure shown below corresponds to step S6 in FIG. 12, and is executed every frame.

(S11)手操作画像処理部161は、最新のフレーム画像に基づいて、最新フレームテーブル143を作成する。処理の詳細は後述される。なお、前回フレームテーブル142は、フレームデータ記憶部140に格納されている。   (S11) The manual operation image processing unit 161 creates the latest frame table 143 based on the latest frame image. Details of the processing will be described later. The previous frame table 142 is stored in the frame data storage unit 140.

(S12)手操作画像処理部161は、最新のフレーム画像からリングマーカーの画像(リングマーカー画像)を検出する。処理の詳細は後述される。
(S13)手操作画像処理部161は、最新のフレーム画像のARマーカー検出フラグおよびARマーカー画像の検出座標(ARマーカー座標)を、AR画像生成部160を介してAR情報記憶部130から取得する。手操作画像処理部161は、取得した最新のフレームについてのAR検出情報をフレームデータ記憶部140に記録する。このとき、手操作画像処理部161は、最新のフレーム画像におけるARマーカー変形率の情報も、AR情報記憶部130から取得し、最新のフレームについてのAR検出情報に含める。なお、フレームデータ記憶部140には、前回のフレームに対して記録された前回フレームAR検出情報144が格納されている。
(S12) The manual operation image processing unit 161 detects a ring marker image (ring marker image) from the latest frame image. Details of the processing will be described later.
(S13) The manual operation image processing unit 161 acquires the AR marker detection flag of the latest frame image and the detection coordinates (AR marker coordinates) of the AR marker image from the AR information storage unit 130 via the AR image generation unit 160. . The manual operation image processing unit 161 records the AR detection information about the acquired latest frame in the frame data storage unit 140. At this time, the manual operation image processing unit 161 also acquires information on the AR marker deformation rate in the latest frame image from the AR information storage unit 130 and includes it in the AR detection information on the latest frame. The frame data storage unit 140 stores previous frame AR detection information 144 recorded for the previous frame.

(S14)手操作画像処理部161は、前回フレームテーブル142をフレームデータ記憶部140から取得する。
(S15)手操作画像処理部161は、最新のフレーム画像および前回のフレーム画像の両方に、ARマーカー画像およびリングマーカー画像が存在するか否かを判定する。最新のフレーム画像および前回のフレーム画像の両方に、ARマーカー画像およびリングマーカー画像の両方が存在する場合、手操作画像処理部161は、ステップS16に処理を進める。最新のフレーム画像および前回のフレーム画像の少なくとも一方に、ARマーカー画像およびリングマーカー画像の少なくとも一方が存在しない場合、手操作画像処理部161は、ステップS26に処理を進める。
(S14) The manual operation image processing unit 161 acquires the previous frame table 142 from the frame data storage unit 140.
(S15) The manual operation image processing unit 161 determines whether an AR marker image and a ring marker image exist in both the latest frame image and the previous frame image. When both the AR marker image and the ring marker image exist in both the latest frame image and the previous frame image, the manual operation image processing unit 161 advances the processing to step S16. When at least one of the AR marker image and the ring marker image does not exist in at least one of the latest frame image and the previous frame image, the manual operation image processing unit 161 advances the processing to step S26.

(S16)手操作画像処理部161は、前回および最新のフレーム間におけるリングマーカー画像の平行移動量、回転量および拡大縮小率を計算する。リングマーカー画像の平行移動量、回転量および拡大縮小率は、リングマーカー画像の移動量(リングマーカー31の移動量に対応する量)に相当する。手操作画像処理部161は、前回のフレーム画像におけるリングマーカー画像と、最新のフレーム画像におけるリングマーカー画像との位置を検出することで、リングマーカー画像の平行移動量や回転量を計算する。平行移動量を求める場合、手操作画像処理部161は、前回および最新のフレーム画像におけるARマーカー画像を基準にしたリングマーカー画像の位置の変化を検出する。また、手操作画像処理部161は、前回および最新のフレーム画像におけるリングマーカー画像の画像領域の面積の変化を検出することで、拡大縮小率を計算する。   (S16) The manual operation image processing unit 161 calculates the translation amount, rotation amount, and enlargement / reduction rate of the ring marker image between the previous and latest frames. The parallel movement amount, rotation amount, and enlargement / reduction ratio of the ring marker image correspond to the movement amount of the ring marker image (the amount corresponding to the movement amount of the ring marker 31). The manual operation image processing unit 161 calculates the translation amount and the rotation amount of the ring marker image by detecting the positions of the ring marker image in the previous frame image and the ring marker image in the latest frame image. When obtaining the parallel movement amount, the manual operation image processing unit 161 detects a change in the position of the ring marker image based on the AR marker image in the previous and latest frame images. The manual operation image processing unit 161 calculates the enlargement / reduction ratio by detecting a change in the area of the image area of the ring marker image in the previous and latest frame images.

(S17)手操作画像処理部161は、ステップS16の計算の結果、前回および最新のフレーム間で、ARマーカー画像とリングマーカー画像との位置関係に変化があるか否かを判定する。変化がある場合、手操作画像処理部161は、ステップS18に処理を進める。変化がない場合、手操作画像処理部161は、ステップS21に処理を進める。   (S17) As a result of the calculation in step S16, the manual operation image processing unit 161 determines whether or not there is a change in the positional relationship between the AR marker image and the ring marker image between the previous and latest frames. If there is a change, the manual operation image processing unit 161 proceeds to step S18. If there is no change, the manual operation image processing unit 161 proceeds to step S21.

ここで、手操作画像処理部161は、ステップS16の計算の結果、前回および最新のフレーム間での、リングマーカー画像の平行移動、回転または拡大縮小を検出した場合、ARマーカー画像とリングマーカー画像との位置関係に変化があると判定する。一方、前回および最新のフレーム間での、リングマーカー画像の平行移動、回転または拡大縮小を検出しなかった場合、手操作画像処理部161は、ARマーカー画像とリングマーカー画像との位置関係に変化がないと判定する。   When the manual operation image processing unit 161 detects the translation, rotation, or enlargement / reduction of the ring marker image between the previous and latest frames as a result of the calculation in step S16, the AR marker image and the ring marker image are detected. It is determined that there is a change in the positional relationship. On the other hand, when the translation, rotation, or enlargement / reduction of the ring marker image between the previous and latest frames is not detected, the manual operation image processing unit 161 changes to the positional relationship between the AR marker image and the ring marker image. Judge that there is no.

(S18)手操作画像処理部161は、手操作画像のマスク(手操作画像以外の領域をマスクするマスク画像)を生成する。処理の詳細は後述される。
(S19)手操作画像処理部161は、ステップS18で生成されたマスク画像と、AR画像生成部160により生成されたマスク画像とを合成して、手操作画像のマスク(ARマスク)を生成する。具体的には、手操作画像処理部161は、両マスク画像の各座標について、非配信部分を“1”(True)、配信部分を“0”(False)として各座標の論理積(AND)を計算することで、両マスク画像の合成を行う。その結果、手操作画像処理部161は、作業対象機器画像および手操作画像の両方以外の領域をマスクするARマスクを得る。なお、ステップS19が実行されるまでにAR画像生成部160によるマスク画像の生成が行われる。AR画像生成部160によるマスク画像の生成方法は、図21〜図24により説明される。
(S18) The manual operation image processing unit 161 generates a mask for the manual operation image (a mask image for masking an area other than the manual operation image). Details of the processing will be described later.
(S19) The manual operation image processing unit 161 combines the mask image generated in step S18 and the mask image generated by the AR image generation unit 160 to generate a mask (AR mask) of the manual operation image. . Specifically, for each coordinate of both mask images, the manual operation image processing unit 161 sets the non-distribution portion to “1” (True) and the distribution portion to “0” (False), and the logical product (AND) of the coordinates. Is calculated to synthesize both mask images. As a result, the manual operation image processing unit 161 obtains an AR mask that masks an area other than both the work target device image and the manual operation image. Note that the mask image is generated by the AR image generation unit 160 until step S19 is executed. A method of generating a mask image by the AR image generation unit 160 will be described with reference to FIGS.

(S20)手操作画像処理部161は、合成したARマスクを画像合成部156に入力する。そして、手操作画像処理部161は、ステップS25に処理を進める。
(S21)手操作画像処理部161は、カメラ画像の撮像に利用しているカメラ(例えば、背面カメラ105)において、カメラアングルまたはズームに変化があるか否かを判定する。カメラアングルまたはズームに変化がある場合、手操作画像処理部161は、ステップS22に処理を進める。カメラアングルまたはズームに変化がない場合、手操作画像処理部161は、ステップS24に処理を進める。
(S20) The manual operation image processing unit 161 inputs the combined AR mask to the image combining unit 156. Then, the manual operation image processing unit 161 proceeds to step S25.
(S21) The manual operation image processing unit 161 determines whether there is a change in the camera angle or zoom in the camera (for example, the rear camera 105) used for capturing the camera image. If there is a change in the camera angle or zoom, the manual operation image processing unit 161 proceeds to step S22. When there is no change in the camera angle or zoom, the manual operation image processing unit 161 advances the processing to step S24.

(S22)手操作画像処理部161は、前回のARマスクを、カメラアングル/ズームの変化に合わせて変形する。ここで、手操作画像処理部161は、前回のARマスクの情報を、フレームデータ記憶部140に記憶されたマスク情報テーブル145から取得する。   (S22) The manual operation image processing unit 161 transforms the previous AR mask in accordance with the change in camera angle / zoom. Here, the manual operation image processing unit 161 acquires the information of the previous AR mask from the mask information table 145 stored in the frame data storage unit 140.

(S23)手操作画像処理部161は、変形後のARマスクを画像合成部156に入力する。そして、手操作画像処理部161は、ステップS25に処理を進める。
(S24)手操作画像処理部161は、前回のARマスクを、画像合成部156に入力する。ここで、手操作画像処理部161は、前回のARマスクの情報を、フレームデータ記憶部140に記憶されたマスク情報テーブル145から取得する。そして、手操作画像処理部161は、ステップS26に処理を進める。
(S23) The manual operation image processing unit 161 inputs the deformed AR mask to the image composition unit 156. Then, the manual operation image processing unit 161 proceeds to step S25.
(S24) The manual operation image processing unit 161 inputs the previous AR mask to the image composition unit 156. Here, the manual operation image processing unit 161 acquires the information of the previous AR mask from the mask information table 145 stored in the frame data storage unit 140. Then, the manual operation image processing unit 161 advances the processing to step S26.

(S25)手操作画像処理部161は、画像合成部156に今回入力したARマスクの情報を、フレームデータ記憶部140に記憶されたマスク情報テーブル145に登録する。   (S25) The manual operation image processing unit 161 registers the AR mask information input this time to the image composition unit 156 in the mask information table 145 stored in the frame data storage unit 140.

(S26)手操作画像処理部161は、最新フレームテーブル143をフレームデータ記憶部140に保存する。最新フレームテーブル143は、次回フレームの処理では、前回フレームテーブルとして扱われることになる。そして、手操作画像処理部161は、ARマスク生成処理を終了する。   (S26) The manual operation image processing unit 161 stores the latest frame table 143 in the frame data storage unit 140. The latest frame table 143 is treated as the previous frame table in the next frame processing. Then, the manual operation image processing unit 161 ends the AR mask generation process.

このように、手操作画像処理部161は、直近の2フレームに写っている作業者の手に装着されたリングマーカーを検出する。手操作画像処理部161は、2フレーム間でのリングマーカーの動きを検出し、最新のフレーム画像において、リングマーカーと同じ動きをしている被写体部分の画像(手操作画像)以外の領域を抽出する。手操作画像処理部161は、手操作画像以外の領域をマスクするマスク画像を生成する。手操作画像処理部161は、生成したマスク画像を作業対象機器の画像に対して作成されたマスク画像と合成することで、作業対象機器の機器画像と手操作画像とを透過し、それ以外をマスクするARマスクを生成する。画像合成部156により、手操作画像処理部161により生成されたARマスクが、最新のフレーム画像に重畳されることで、作業対象機器の機器画像と手操作画像のみを配信可能となり、セキュリティ上問題となる作業に無関係の背景部分の配信を防げる。   As described above, the manual operation image processing unit 161 detects the ring marker attached to the operator's hand shown in the two most recent frames. The manual operation image processing unit 161 detects the movement of the ring marker between two frames, and extracts a region other than the image (manual operation image) of the subject portion that moves in the same manner as the ring marker in the latest frame image. To do. The manual operation image processing unit 161 generates a mask image that masks an area other than the manual operation image. The manual operation image processing unit 161 synthesizes the generated mask image with the mask image created with respect to the image of the work target device to transmit the device image and the manual operation image of the work target device, An AR mask to be masked is generated. The image composition unit 156 superimposes the AR mask generated by the manual operation image processing unit 161 on the latest frame image, so that only the device image and the manual operation image of the work target device can be distributed. The distribution of the background part unrelated to the work that becomes can be prevented.

ここで、背面カメラ105のように定点で撮像しないカメラを用いる場合、手操作画像処理部161は、ステップS15で例示したように、前回および最新のフレーム画像の両方に、ARマーカーとリングマーカーとが共に存在しているか否かを確認する。共に存在していない場合、ARマーカーを基準として、リングマーカーの動きを検出できないためである。定点で撮像するカメラを用いる場合には、カメラ画像内の所定の基準点に対してリングマーカーの動きを検出することができるので、ステップS15の判定は、リングマーカーが検出されていればYes、リングマーカーが検出されていなければ、Noとしてもよい。   Here, when using a camera that does not image at a fixed point, such as the rear camera 105, the manual operation image processing unit 161 includes an AR marker and a ring marker in both the previous and latest frame images, as illustrated in step S15. To see if both exist. This is because the movement of the ring marker cannot be detected with the AR marker as a reference when both are not present. When a camera that captures images at a fixed point is used, the movement of the ring marker can be detected with respect to a predetermined reference point in the camera image. Therefore, the determination in step S15 is Yes if the ring marker is detected. If no ring marker is detected, No may be used.

また、手操作画像処理部161は、カメラ画像中にリングマーカーを検出しなかった場合には、リングマーカーの動きを検出できないため、手操作画像の抽出を行わない。この場合、手操作画像処理部161は、AR画像生成部160から取得したマスク画像(作業対象機器以外をマスクするマスク画像)をそのまま画像合成部156に提供する。このように、リングマーカーが検出されない場合でも、AR画像生成部160により作成されたマスク画像を用いた配信を行うことで、支援端末300に何も表示されない状態を避けることができる。   In addition, when the ring marker is not detected in the camera image, the manual operation image processing unit 161 cannot detect the movement of the ring marker, and thus does not extract the manual operation image. In this case, the manual operation image processing unit 161 provides the image composition unit 156 with the mask image acquired from the AR image generation unit 160 (a mask image for masking other than the work target device) as it is. Thus, even when no ring marker is detected, a state in which nothing is displayed on the support terminal 300 can be avoided by performing distribution using the mask image created by the AR image generation unit 160.

図14は、最新フレームテーブル作成処理の例を示すフローチャートである。以下、図14に示す処理をステップ番号に沿って説明する。以下に示す手順は、図13のステップS11に相当する。   FIG. 14 is a flowchart illustrating an example of the latest frame table creation process. In the following, the process illustrated in FIG. 14 will be described in order of step number. The procedure shown below corresponds to step S11 in FIG.

(S31)手操作画像処理部161は、RAM102上の所定の領域に、“座標”、“色データ”および“種別”の列をもつ空のテーブル(最新フレームテーブル143の雛型)を作成する。   (S31) The manual operation image processing unit 161 creates an empty table (template of the latest frame table 143) having columns of “coordinates”, “color data”, and “type” in a predetermined area on the RAM 102. .

(S32)手操作画像処理部161は、最新フレームの各画素の座標および色データを取得する。手操作画像処理部161は、AR画像生成部160から取得した最新のフレーム画像から各画素の座標および色データの情報を抽出してもよいし、AR画像生成部160から各画素の座標および色データを取得してもよい。   (S32) The manual operation image processing unit 161 acquires the coordinates and color data of each pixel of the latest frame. The manual operation image processing unit 161 may extract the coordinate and color data information of each pixel from the latest frame image acquired from the AR image generation unit 160, or the coordinate and color of each pixel from the AR image generation unit 160. Data may be acquired.

(S33)手操作画像処理部161は、処理対象の座標を(X,Y)=(0,0)とする。
(S34)手操作画像処理部161は、最新フレームの座標(X,Y)および当該座標の色データを最新フレームテーブル143に登録する。なお、種別の項目については未設定としておく。
(S33) The manual operation image processing unit 161 sets the coordinates of the processing target to (X, Y) = (0, 0).
(S34) The manual operation image processing unit 161 registers the coordinates (X, Y) of the latest frame and the color data of the coordinates in the latest frame table 143. Note that the type item is left unset.

(S35)手操作画像処理部161は、XにX+1を代入する。
(S36)手操作画像処理部161は、X=A(フレーム画像のX座標の最大値)であるか否かを判定する。X=Aである場合、手操作画像処理部161は、ステップS37に処理を進める。X<Aである場合、手操作画像処理部161は、ステップS34に処理を進める。
(S35) The manual operation image processing unit 161 substitutes X + 1 for X.
(S36) The manual operation image processing unit 161 determines whether X = A (the maximum value of the X coordinate of the frame image). If X = A, the manual operation image processing unit 161 proceeds to step S37. If X <A, the manual operation image processing unit 161 proceeds to step S34.

(S37)手操作画像処理部161は、Xに0を代入する。
(S38)手操作画像処理部161は、YにY+1を代入する。
(S39)手操作画像処理部161は、Y=B(フレーム画像のY座標の最大値)であるか否かを判定する。Y=Bである場合、手操作画像処理部161は、最新フレームテーブル作成処理を終了する。Y<Bである場合、手操作画像処理部161は、ステップS34に処理を進める。
(S37) The manual operation image processing unit 161 substitutes 0 for X.
(S38) The manual operation image processing unit 161 substitutes Y + 1 for Y.
(S39) The manual operation image processing unit 161 determines whether Y = B (the maximum value of the Y coordinate of the frame image). When Y = B, the manual operation image processing unit 161 ends the latest frame table creation process. If Y <B, the manual operation image processing unit 161 proceeds to step S34.

図15は、リングマーカー検出処理の例を示すフローチャートである。以下、図15に示す処理をステップ番号に沿って説明する。以下に示す手順は、図13のステップS12に相当する。   FIG. 15 is a flowchart illustrating an example of the ring marker detection process. In the following, the process illustrated in FIG. 15 will be described in order of step number. The procedure shown below corresponds to step S12 in FIG.

(S41)手操作画像処理部161は、最新フレームテーブル143の先頭行を選択する。
(S42)手操作画像処理部161は、現在の座標(現在選択中の行の座標)の色データがリングマーカー31の色データと一致するか否かを判定する。一致する場合、手操作画像処理部161は、ステップS43に処理を進める。一致しない場合、手操作画像処理部161は、ステップS44に処理を進める。
(S41) The manual operation image processing unit 161 selects the first row of the latest frame table 143.
(S42) The manual operation image processing unit 161 determines whether or not the color data of the current coordinates (coordinates of the currently selected row) matches the color data of the ring marker 31. If they match, the manual operation image processing unit 161 proceeds to step S43. If they do not match, the manual operation image processing unit 161 advances the processing to step S44.

(S43)手操作画像処理部161は、最新フレームテーブル143の現在の座標の種別にリングマーカー31を意味する“1”を設定する。
(S44)手操作画像処理部161は、現在の行が最新フレームテーブル143の最後の行であるか否かを判定する。最後の行である場合、手操作画像処理部161は、リングマーカー検出処理を終了する。最後の行でない場合、手操作画像処理部161は、ステップS45に処理を進める。
(S43) The manual operation image processing unit 161 sets “1” indicating the ring marker 31 to the current coordinate type of the latest frame table 143.
(S44) The manual operation image processing unit 161 determines whether or not the current row is the last row of the latest frame table 143. If it is the last line, the manual operation image processing unit 161 ends the ring marker detection process. If it is not the last line, the manual operation image processing unit 161 advances the processing to step S45.

(S45)手操作画像処理部161は、最新フレームテーブル143の次の行を選択する。そして、手操作画像処理部161は、ステップS42に処理を進める。
図16は、手操作画像のマスク生成処理の例を示すフローチャートである。以下、図16に示す処理をステップ番号に沿って説明する。以下に示す手順は、図13のステップS18に相当する。
(S45) The manual operation image processing unit 161 selects the next row of the latest frame table 143. Then, the manual operation image processing unit 161 advances the processing to step S42.
FIG. 16 is a flowchart illustrating an example of a manual operation image mask generation process. In the following, the process illustrated in FIG. 16 will be described in order of step number. The procedure shown below corresponds to step S18 in FIG.

(S51)手操作画像処理部161は、前回フレームと最新フレームとで色データを比較する。処理の詳細は後述される。
(S52)手操作画像処理部161は、最新のフレーム画像でリングマーカー画像とつながっていない座標の、最新フレームテーブル143における種別を“0”に設定する。「リングマーカー画像とつながっていない座標」とは、最新のフレーム画像の画素のうち、種別“1”の画素と隣接しておらず、かつ、隣り合う種別“2”の画素を辿って種別“1”の画素に到達できない画素の座標である。一方、「リングマーカー画像とつながっている座標」とは、最新のフレーム画像の画素のうち、種別“1”の画素と隣接するか、または、隣り合う種別“2”の画素を辿って種別“1”の画素に到達可能な画素の座標である。
(S51) The manual operation image processing unit 161 compares the color data between the previous frame and the latest frame. Details of the processing will be described later.
(S52) The manual operation image processing unit 161 sets the type in the latest frame table 143 of the coordinates not connected to the ring marker image in the latest frame image to “0”. “Coordinates not connected to the ring marker image” refers to the type “2” that is not adjacent to the pixel of the type “1” and is adjacent to the pixel of the type “2” among the pixels of the latest frame image. This is the coordinates of a pixel that cannot reach the pixel 1 ″. On the other hand, the “coordinates connected to the ring marker image” refers to a type “2” that is adjacent to a pixel of type “1” or is adjacent to a pixel of type “2” among the pixels of the latest frame image. This is the coordinates of a pixel that can reach the pixel 1 ″.

(S53)手操作画像処理部161は、最新フレームテーブル143を基に、種別が“1”、“2”以外の座標を覆うマスク(マスク画像)を生成する。そして、手操作画像処理部161は、手操作画像のマスク生成処理を終了する。   (S53) Based on the latest frame table 143, the manual operation image processing unit 161 generates a mask (mask image) that covers coordinates other than the types “1” and “2”. Then, the manual operation image processing unit 161 ends the manual operation image mask generation process.

図17は、色データの比較処理の例を示すフローチャートである。以下、図17に示す処理をステップ番号に沿って説明する。以下に示す手順は、図16のステップS51に相当する。   FIG. 17 is a flowchart illustrating an example of color data comparison processing. In the following, the process illustrated in FIG. 17 will be described in order of step number. The procedure shown below corresponds to step S51 in FIG.

(S61)手操作画像処理部161は、前回フレームテーブル142の最初の座標を選択する。
(S62)手操作画像処理部161は、選択した座標に対し、図13のステップS16で計算されたリングマーカーの平行移動量、回転量、拡大縮小率を適用し、該当の座標に対応する最新フレームの座標を算出する。
(S61) The manual operation image processing unit 161 selects the first coordinate of the previous frame table 142.
(S62) The manual operation image processing unit 161 applies the translation amount, the rotation amount, and the enlargement / reduction rate of the ring marker calculated in step S16 of FIG. 13 to the selected coordinates, and the latest corresponding to the corresponding coordinates. Calculate frame coordinates.

(S63)手操作画像処理部161は、ステップS62で算出した座標が最新フレーム(最新のフレーム画像)の範囲内であるか否かを判定する。算出した座標が最新フレームの範囲内である場合、手操作画像処理部161は、ステップS64に処理を進める。算出した座標が最新フレームの範囲内でない場合、手操作画像処理部161は、ステップS66に処理を進める。例えば、算出した座標(x,y)が、(0,0)≦(x,y)≦(A−1,B−1)の条件を満たせば座標(x,y)は最新フレームの範囲内であり、同条件を満たさなければ座標(x,y)は最新フレームの範囲内でない。   (S63) The manual operation image processing unit 161 determines whether or not the coordinates calculated in step S62 are within the range of the latest frame (latest frame image). When the calculated coordinates are within the range of the latest frame, the manual operation image processing unit 161 advances the processing to step S64. When the calculated coordinates are not within the range of the latest frame, the manual operation image processing unit 161 advances the processing to step S66. For example, if the calculated coordinates (x, y) satisfy the condition (0, 0) ≦ (x, y) ≦ (A−1, B−1), the coordinates (x, y) are within the range of the latest frame. If the same condition is not satisfied, the coordinates (x, y) are not within the range of the latest frame.

(S64)手操作画像処理部161は、前回フレームの座標の色データと、当該座標に一致する最新フレームの座標の色データとを比較する。
(S65)手操作画像処理部161は、ステップS64で比較した両画素の色データが、同じ色または類似色であるか否かを判定する。同じ色または類似色である場合、手操作画像処理部161は、ステップS66に処理を進める。同じ色でも類似色でもない場合、手操作画像処理部161は、ステップS67に処理を進める。ここで、「類似色」とは、2つの色データの値の差が閾値以下である場合の当該2つの色データに対応する2つの色を示す。類似色を判定するための閾値は、例えば、フレームデータ記憶部140に予め設定される。
(S64) The manual operation image processing unit 161 compares the color data of the coordinates of the previous frame with the color data of the coordinates of the latest frame that matches the coordinates.
(S65) The manual operation image processing unit 161 determines whether the color data of both pixels compared in step S64 are the same color or similar colors. When the colors are the same or similar, the manual operation image processing unit 161 advances the processing to step S66. If the color is not the same color or a similar color, the manual operation image processing unit 161 advances the processing to step S67. Here, “similar colors” indicate two colors corresponding to the two color data when the difference between the values of the two color data is equal to or smaller than a threshold value. The threshold value for determining the similar color is preset in the frame data storage unit 140, for example.

(S66)手操作画像処理部161は、最新フレームテーブル143の該当の座標の種別を“2”に設定する。そして、手操作画像処理部161は、ステップS68に処理を進める。   (S66) The manual operation image processing unit 161 sets the corresponding coordinate type in the latest frame table 143 to “2”. Then, the manual operation image processing unit 161 advances the processing to step S68.

(S67)手操作画像処理部161は、最新フレームテーブル143の該当の座標の種別を“0”に設定する。そして、手操作画像処理部161は、ステップS68に処理を進める。   (S67) The manual operation image processing unit 161 sets the corresponding coordinate type in the latest frame table 143 to “0”. Then, the manual operation image processing unit 161 advances the processing to step S68.

(S68)手操作画像処理部161は、現在の座標が前回フレームテーブル142の最後の座標であるか否かを判定する。最後の座標である場合、手操作画像処理部161は、色データの比較処理を終了する。最後の座標でない場合、手操作画像処理部161は、ステップS69に処理を進める。   (S68) The manual operation image processing unit 161 determines whether or not the current coordinate is the last coordinate of the previous frame table 142. If it is the last coordinate, the manual operation image processing unit 161 ends the color data comparison process. If it is not the last coordinate, the manual operation image processing unit 161 proceeds to step S69.

(S69)手操作画像処理部161は、前回フレームテーブル142の次の座標を選択する。そして、手操作画像処理部161は、ステップS62に処理を進める。
図18は、リングマーカー画像の回転の例を示す図である。図18(A)は、第N(Nは正の整数)番目のフレームのフレーム画像52を示す。フレーム画像52は、リングマーカー画像52aを含む。図18(B)は、第N+1番目のフレームのフレーム画像53を示す。フレーム画像53は、リングマーカー画像53aを含む。
(S69) The manual operation image processing unit 161 selects the next coordinate in the previous frame table 142. Then, the manual operation image processing unit 161 advances the processing to step S62.
FIG. 18 is a diagram illustrating an example of rotation of the ring marker image. FIG. 18A shows a frame image 52 of the Nth (N is a positive integer) frame. The frame image 52 includes a ring marker image 52a. FIG. 18B shows a frame image 53 of the (N + 1) th frame. The frame image 53 includes a ring marker image 53a.

なお、フレーム画像52には、線分L1,L2および角W1を表す線が記されている。線分L1,L2および角W1を表す線は、便宜的に記されたものであり、フレーム画像52には含まれない。また、フレーム画像53には、線分L3,L4および角W2を表す線が記されている。線分L3,L4および角W2を表す線は、便宜的に記されたものであり、フレーム画像53には含まれない。   In the frame image 52, lines representing the line segments L1 and L2 and the corner W1 are marked. The lines representing the line segments L1 and L2 and the corner W1 are described for convenience and are not included in the frame image 52. Further, the frame image 53 has lines representing the line segments L3 and L4 and the corner W2. The lines representing the line segments L3 and L4 and the corner W2 are described for convenience and are not included in the frame image 53.

線分L1は、フレーム画像52のX軸方向に沿い、リングマーカー画像52aの中心C1(例えば、リングマーカー画像52aの重心)を通る線分である。線分L2は、リングマーカー画像52aの中心C1を通り、リングマーカー画像52aの長軸方向と直交する線分である。角W1は、線分L1,L2のなす角である。   The line segment L1 is a line segment that passes along the center C1 of the ring marker image 52a (for example, the center of gravity of the ring marker image 52a) along the X-axis direction of the frame image 52. The line segment L2 is a line segment that passes through the center C1 of the ring marker image 52a and is orthogonal to the major axis direction of the ring marker image 52a. The corner W1 is an angle formed by the line segments L1 and L2.

また、線分L3は、フレーム画像53のX軸方向に沿い、リングマーカー画像53aの中心C2(例えば、リングマーカー画像53aの重心)を通る線分である。線分L4は、リングマーカー画像53aの中心C2を通り、リングマーカー画像53aの長軸方向と直交する線分である。角W2は、線分L3,L4のなす角である。   The line segment L3 is a line segment that passes along the center C2 of the ring marker image 53a (for example, the center of gravity of the ring marker image 53a) along the X-axis direction of the frame image 53. The line segment L4 is a line segment that passes through the center C2 of the ring marker image 53a and is orthogonal to the major axis direction of the ring marker image 53a. The corner W2 is an angle formed by the line segments L3 and L4.

リングマーカー画像52aに対するリングマーカー画像53aの回転量(回転角)は、角W1,W2の差である。したがって、手操作画像処理部161は、角W1,W2の差を求めることで、リングマーカー画像52aに対するリングマーカー画像53aの回転量を求めることができる。   The rotation amount (rotation angle) of the ring marker image 53a with respect to the ring marker image 52a is a difference between the angles W1 and W2. Therefore, the manual operation image processing unit 161 can obtain the rotation amount of the ring marker image 53a with respect to the ring marker image 52a by obtaining the difference between the corners W1 and W2.

フレーム画像53に対する前回のフレーム画像52に、求めた回転量を適用する場合、リングマーカー画像52aの各画素に平行移動量(例えば、中心C1,C2の差)を適用し、適用後の各画素に、中心C2の座標を回転中心として当該回転量を適用する。   When applying the calculated rotation amount to the previous frame image 52 with respect to the frame image 53, a parallel movement amount (for example, the difference between the centers C1 and C2) is applied to each pixel of the ring marker image 52a, and each pixel after application is applied. In addition, the rotation amount is applied with the coordinate of the center C2 as the rotation center.

図19は、色データの比較例を示す図である。図19では、特に、リングマーカー画像について、前回フレームと最新フレームとでX座標方向に+1の平行移動量が検出された場合を例示する。なお、類似色として判定するための閾値を一例として“3”とする。   FIG. 19 is a diagram illustrating a comparative example of color data. FIG. 19 exemplifies a case where a translation amount of +1 in the X coordinate direction is detected in the previous frame and the latest frame, particularly for the ring marker image. Note that the threshold value for determining as a similar color is “3” as an example.

この場合、手操作画像処理部161は、前回フレームテーブル142における各X座標に1を加算した結果を、最新フレームテーブル143と比較する。
例えば、手操作画像処理部161は、前回フレームテーブル142における座標(0,0)の色データ“22”を、最新フレームテーブル143における座標(1,0)の色データ“23”と比較する。両色データの差は“1”(<閾値“3”)である。すなわち、両色データは類似色の関係にある。よって、手操作画像処理部161は、最新フレームテーブル143の座標“(1,0)”の種別を“2”に設定する。
In this case, the manual operation image processing unit 161 compares the result of adding 1 to each X coordinate in the previous frame table 142 with the latest frame table 143.
For example, the manual operation image processing unit 161 compares the color data “22” of the coordinate (0, 0) in the previous frame table 142 with the color data “23” of the coordinate (1, 0) in the latest frame table 143. The difference between the two color data is “1” (<threshold “3”). That is, both color data are in a similar color relationship. Therefore, the manual operation image processing unit 161 sets the type of the coordinates “(1,0)” in the latest frame table 143 to “2”.

また、例えば、手操作画像処理部161は、前回フレームテーブル142における座標(48,50)の色データ“35”を、最新フレームテーブル143における座標(49,50)の色データ“21”と比較する。両色データの差は“14”(>閾値“3”)である。すなわち、両色データは、互いに一致してもいないし類似色の関係にもない。よって、手操作画像処理部161は、最新フレームテーブル143の座標“(49,50)”の種別を“0”に設定する。   For example, the manual operation image processing unit 161 compares the color data “35” of the coordinates (48, 50) in the previous frame table 142 with the color data “21” of the coordinates (49, 50) in the latest frame table 143. To do. The difference between the two color data is “14” (> threshold “3”). In other words, the two color data do not match each other nor have a similar color relationship. Therefore, the manual operation image processing unit 161 sets the type of the coordinates “(49, 50)” in the latest frame table 143 to “0”.

手操作画像処理部161は、最新フレームテーブル143のそれ以外の座標についても同様に比較することで種別を設定する。ただし、手操作画像処理部161は、リングマーカー画像を示す色データ“0”で前回フレームと一致する最新フレームの座標については、種別“1”のままとする。   The manual operation image processing unit 161 sets the type by comparing the other coordinates in the latest frame table 143 in the same manner. However, the manual operation image processing unit 161 keeps the type “1” for the coordinates of the latest frame that matches the previous frame in the color data “0” indicating the ring marker image.

図19では、平行移動のみを考えたので、前回フレームテーブル142の座標と最新フレームテーブルの座標とは1対1に対応する。一方、拡大の場合には、前回フレームテーブル142の座標と最新フレームテーブルの座標とは1対多に対応することになる。また、縮小の場合には、前回フレームテーブル142の座標と最新フレームテーブルの座標とは多対1に対応することになる。何れの場合も、例えば、“多”に相当する座標群の色データの代表値(座標群で表される領域のうちの所定位置(例えば、中央)の画素の色データ、または、座標群に属する各座標の色データの平均値など)と相手の座標の色データとを比較する。   In FIG. 19, since only parallel movement is considered, the coordinates of the previous frame table 142 and the coordinates of the latest frame table have a one-to-one correspondence. On the other hand, in the case of enlargement, the coordinates of the previous frame table 142 and the coordinates of the latest frame table correspond one-to-many. In the case of reduction, the coordinates of the previous frame table 142 and the coordinates of the latest frame table correspond to many-to-one. In any case, for example, the representative value of the color data of the coordinate group corresponding to “many” (the color data of the pixel at a predetermined position (for example, the center) in the region represented by the coordinate group, or the coordinate group) The color data of the coordinate of the other party is compared with the average value of the color data of each coordinate to which it belongs.

手操作画像処理部161は、こうして作成された最新フレームテーブル143に基づいて、手操作画像領域を決定する。
図20は、手操作画像領域の決定例を示す図である。手操作画像処理部161は、最新フレームテーブル143に基づいて、種別“1”または種別“2”の画像領域(種別“1”または種別“2”が設定された座標の集合)を特定する。最新のフレーム画像54の例では、種別“2”の画素が連続する画像領域である画像領域54a,54bが存在する。それ以外の画像領域54cは、種別“0”の画像領域(種別“0”の座標の集合)である。画像領域54a,54bは隣接しておらず、種別“0”の画像領域によって分断された画像領域である。すなわち、画像領域54a,54bはつながっていない。
The manual operation image processing unit 161 determines a manual operation image region based on the latest frame table 143 created in this way.
FIG. 20 is a diagram illustrating an example of determining the manual operation image area. Based on the latest frame table 143, the manual operation image processing unit 161 identifies an image area of type “1” or type “2” (a set of coordinates in which type “1” or type “2” is set). In the example of the latest frame image 54, there are image regions 54a and 54b, which are image regions in which pixels of type “2” are continuous. The other image area 54c is an image area of type “0” (a set of coordinates of type “0”). The image areas 54a and 54b are not adjacent to each other, and are image areas divided by an image area of type “0”. That is, the image areas 54a and 54b are not connected.

手操作画像処理部161は、画像領域54a,54bのうち、リングマーカーの領域(種別“1”の座標の集合)と隣接、または、つながっている画像領域54a(ただし、リングマーカーの領域も含む)を手操作画像領域とする。画像領域54aは、リングマーカーの領域を含む画像領域であるということもできる。一方、手操作画像処理部161は、リングマーカーの領域とつながっていない(リングマーカーの領域を含まない)画像領域54bを手操作画像領域としない。この場合、手操作画像処理部161は、画像領域54bの種別を“2”から“0”に変更する。   The manual operation image processing unit 161 includes an image region 54a (including a ring marker region) adjacent to or connected to the ring marker region (a set of coordinates of type “1”) among the image regions 54a and 54b. ) As a manually operated image area. It can also be said that the image region 54a is an image region including a ring marker region. On the other hand, the manual operation image processing unit 161 does not set the image region 54b that is not connected to the ring marker region (not including the ring marker region) as the manual operation image region. In this case, the manual operation image processing unit 161 changes the type of the image area 54b from “2” to “0”.

そして、手操作画像処理部161は、手操作画像領域に含まれない画像領域54b,54cをマスク対象と決定する。一方、手操作画像処理部161は、手操作画像領域である画像領域54aをマスク対象外と決定する。   Then, the manual operation image processing unit 161 determines the image areas 54b and 54c that are not included in the manual operation image area as mask targets. On the other hand, the manual operation image processing unit 161 determines that the image region 54a, which is a manual operation image region, is not to be masked.

これにより、手操作画像処理部161は、作業を行う作業者U1の手および手に持たれたケーブルや工具などを含む手操作画像領域を適切に検出することができる。また、リングマーカー画像とつながらない画素を手操作画像領域から除外することで、偶然にリングマーカーと連動すると検出されてしまった画素(手作業領域とは無関係の画素)を、適切にマスク対象とし、情報漏洩を防げる。   Accordingly, the manual operation image processing unit 161 can appropriately detect the manual operation image area including the hand of the worker U1 who performs the work and the cables and tools held by the hand. In addition, by excluding pixels that are not connected to the ring marker image from the manual operation image area, pixels that have been detected by chance when interlocked with the ring marker (pixels unrelated to the manual work area) are appropriately masked, Information leakage can be prevented.

なお、より厳密にマスク対象となる背景画像を特定する方法も考えられる。例えば、スマート端末100によりマスク対象の背景画像を事前に撮像しておき、背景画像と最新のフレーム画像とを比較することで、最新のフレーム画像における背景画像を抽出し、抽出した背景画像をマスク対象とすることも考えられる。また、例えば、スマート端末100に手操作画像を予め認識させておき、予め認識させた手操作画像以外の領域を背景画像としてマスク対象とすることも考えられる。   A method for specifying a background image to be masked more strictly can be considered. For example, the background image to be masked is captured in advance by the smart terminal 100, the background image is compared with the latest frame image, the background image in the latest frame image is extracted, and the extracted background image is masked. It may be considered. Further, for example, it is also conceivable that the smart terminal 100 recognizes the manual operation image in advance and sets a region other than the recognized manual operation image as a mask target as a background image.

次に、スマート端末100のAR画像生成部160による枠画像を用いた作業対象機器以外の画像領域のマスキングの具体例を説明する。
図21は、枠画像の表示例を示す図である。例えば、作業者U1がスマート端末100を用いて、情報機器10aの保守を行う場合を考える。情報機器10aの横には、情報機器10b,10cが並べて設置されている。保守の作業対象である情報機器10aの正面の一部に、ARマーカー11aが付与されている。
Next, a specific example of masking an image area other than the work target device using the frame image by the AR image generation unit 160 of the smart terminal 100 will be described.
FIG. 21 is a diagram illustrating a display example of a frame image. For example, consider a case where the worker U1 uses the smart terminal 100 to perform maintenance on the information device 10a. Information devices 10b and 10c are arranged side by side next to the information device 10a. An AR marker 11a is provided on a part of the front surface of the information device 10a that is a maintenance work target.

なお、以下では、作業者U1がスマート端末100を操作する例を示すが、作業対象機器に対して手作業を行う作業者とスマート端末100を操作する作業者とは、別でもよい。この場合、作業対象機器に対して手作業を行う作業者が、リング30を腕に取り付けて作業を行う。   In the following, an example in which the worker U1 operates the smart terminal 100 will be described, but the worker who performs the manual operation on the work target device and the worker who operates the smart terminal 100 may be different. In this case, a worker who performs manual work on the work target device performs work by attaching the ring 30 to the arm.

作業者U1は、スマート端末100に保守作業の作業IDを入力し、背面カメラ105を、情報機器10aに向ける。すると、背面カメラ105は撮像を開始する。スマート端末100は、背面カメラ105により取得したカメラ画像をディスプレイ106に表示させる。ここで、背面カメラ105の視野には、情報機器10a,10b,10cが含まれる。このため、ディスプレイ106に表示されるカメラ画像には、情報機器10a,10b,10cそれぞれに対応する機器画像P11,P12,P13が含まれる。   The worker U1 inputs the work ID of the maintenance work to the smart terminal 100, and points the rear camera 105 toward the information device 10a. Then, the rear camera 105 starts imaging. The smart terminal 100 displays the camera image acquired by the rear camera 105 on the display 106. Here, the visual field of the rear camera 105 includes the information devices 10a, 10b, and 10c. For this reason, the camera images displayed on the display 106 include device images P11, P12, and P13 corresponding to the information devices 10a, 10b, and 10c, respectively.

また、スマート端末100は、ディスプレイ106に表示されるカメラ画像に対し、ボタンPt1,Pt2を重ねて表示する。ボタンPt1は、保守作業の終了をスマート端末100に入力するための作業終了ボタンである。ボタンPt2は、保守作業の支援画像およびマスク画像を含むAR画像の生成開始をスマート端末100に入力するためのAR生成ボタンである。   In addition, the smart terminal 100 displays the buttons Pt1 and Pt2 so as to overlap the camera image displayed on the display 106. The button Pt1 is a work end button for inputting the end of the maintenance work to the smart terminal 100. The button Pt2 is an AR generation button for inputting to the smart terminal 100 the start of generation of an AR image including a maintenance work support image and a mask image.

スマート端末100は、カメラ画像から、ARマーカー11aに対応するマーカー画像M11を検出する。すると、スマート端末100は、マーカー画像M11によって示されるマーカーIDを取得し、作業IDとマーカーIDとの組に対応する作業対象機器の枠画像Fr10を生成する。スマート端末100は、ディスプレイ106に表示されるカメラ画像に対し、枠画像Fr10を重ねて表示する。例えば、スマート端末100は、ディスプレイ106の表示領域の中央部に、枠画像Fr10を表示する。スマート端末100は、ディスプレイ106の表示領域に対する枠画像Fr10の配置を固定する。   The smart terminal 100 detects a marker image M11 corresponding to the AR marker 11a from the camera image. Then, the smart terminal 100 acquires the marker ID indicated by the marker image M11 and generates a frame image Fr10 of the work target device corresponding to the set of the work ID and the marker ID. The smart terminal 100 displays the frame image Fr10 so as to overlap the camera image displayed on the display 106. For example, the smart terminal 100 displays the frame image Fr10 in the center of the display area of the display 106. The smart terminal 100 fixes the arrangement of the frame image Fr10 with respect to the display area of the display 106.

この時点では、枠画像Fr10は、機器画像P11の縁に合っていない。
図22は、枠画像の表示例(続き)を示す図である。作業者U1は、スマート端末100の位置を変更して、機器画像P11の縁を、枠画像Fr10に合わせる。図22では、機器画像P11の縁が、枠画像Fr10に合わさった状態を例示している。作業者U1は、機器画像P11の縁を、枠画像Fr10に合わせると、ボタンPt2を押下操作する。すると、スマート端末100は、マーカー画像M11と枠画像Fr10との位置関係を算出する。具体的には、スマート端末100は、マーカー画像M11の基準点と、枠画像Fr10の各辺との距離(ピクセル値で表わされる)を算出する。これにより、スマート端末100は、マーカー画像M11が機器画像P11のどの位置に存在しているかを把握できる。
At this time, the frame image Fr10 does not match the edge of the device image P11.
FIG. 22 is a diagram illustrating a frame image display example (continued). The worker U1 changes the position of the smart terminal 100 and aligns the edge of the device image P11 with the frame image Fr10. FIG. 22 illustrates a state in which the edge of the device image P11 is aligned with the frame image Fr10. The worker U1 presses the button Pt2 when the edge of the device image P11 is aligned with the frame image Fr10. Then, the smart terminal 100 calculates the positional relationship between the marker image M11 and the frame image Fr10. Specifically, the smart terminal 100 calculates the distance (represented by a pixel value) between the reference point of the marker image M11 and each side of the frame image Fr10. Thereby, the smart terminal 100 can grasp | ascertain where the marker image M11 exists in the apparatus image P11.

また、スマート端末100は、機器画像P11以外の領域をマスクするマスク画像の生成を行う。
図23は、機器画像に対するマスク画像の生成例を示す図である。図23では、ディスプレイ106の表示領域における点C10,C11,C12,C13,C21,C22,C23,C24が示されている。点C10は、XY座標系のマーカー画像M11の基準点(x1,y1)である。点C11は、点C10からY軸の負の方向に延ばした直線と、枠画像Fr10の一辺とが交わる点である。点C12は、点C10からX軸の負の方向に延ばした直線と、枠画像Fr10の一辺とが交わる点である。点C13は、点C10からX軸の正の方向に延ばした直線と、枠画像Fr10の一辺とが交わる点である。点C21は、点C10からY軸の負の方向に延ばした直線と、ディスプレイ106の縁の一辺とが交わる点である。点C22は、点C10からX軸の負の方向に延ばした直線と、ディスプレイ106の縁の一辺とが交わる点である。点C23は、点C10からX軸の正の方向に延ばした直線と、ディスプレイ106の一辺とが交わる点である。点C24は、点C10からY軸の正の方向に延ばした直線と、ディスプレイ106の縁の一辺とが交わる点である。
In addition, the smart terminal 100 generates a mask image that masks an area other than the device image P11.
FIG. 23 is a diagram illustrating a generation example of a mask image for the device image. In FIG. 23, points C10, C11, C12, C13, C21, C22, C23, and C24 in the display area of the display 106 are shown. Point C10 is a reference point (x1, y1) of marker image M11 in the XY coordinate system. Point C11 is a point at which a straight line extending from point C10 in the negative direction of the Y axis intersects with one side of frame image Fr10. Point C12 is a point where a straight line extending from point C10 in the negative direction of the X-axis and one side of frame image Fr10 intersect. Point C13 is a point where a straight line extending from point C10 in the positive direction of the X-axis and one side of frame image Fr10 intersect. Point C21 is a point where a straight line extending from point C10 in the negative direction of the Y-axis and one side of the edge of display 106 intersect. Point C22 is a point where a straight line extending from point C10 in the negative direction of the X-axis and one side of the edge of display 106 intersect. Point C23 is a point where a straight line extending in the positive direction of the X axis from point C10 and one side of display 106 intersect. Point C24 is a point where a straight line extending from point C10 in the positive direction of the Y-axis and one side of the edge of display 106 intersect.

AR画像生成部160は、次の各点間の距離(ピクセル値)を得る。具体的には、点C10,C21間の距離は、αピクセルである。点C10,C22間の距離は、βピクセルである。点C11,C21間の距離はγピクセルである。点C12,C22間の距離は、δピクセルである。点C22,C23間の距離は、εピクセルである。点C21,C24間の距離は、ζピクセルである。   The AR image generation unit 160 obtains the distance (pixel value) between the following points. Specifically, the distance between the points C10 and C21 is α pixels. The distance between the points C10 and C22 is β pixels. The distance between the points C11 and C21 is γ pixels. The distance between points C12 and C22 is δ pixels. The distance between the points C22 and C23 is ε pixels. The distance between the points C21 and C24 is ζ pixels.

図24は、機器画像に対するマスク画像の生成例(続き)を示す図である。AR画像生成部160は、点C10に対して、X≦x1の領域を覆う、縦2ζピクセル、横εピクセルの長方形のマスク画像P21を生成する。AR画像生成部160は、マスク画像P21をX軸の負の方向に(β−δ)ピクセルだけ平行移動させる。図24では当該移動後のマスク画像P21を示している。   FIG. 24 is a diagram illustrating a generation example (continued) of the mask image for the device image. The AR image generation unit 160 generates a rectangular mask image P21 of 2ζ pixels in the vertical direction and ε pixels in the horizontal direction that covers the region of X ≦ x1 with respect to the point C10. The AR image generation unit 160 translates the mask image P21 by (β−δ) pixels in the negative direction of the X axis. FIG. 24 shows the mask image P21 after the movement.

AR画像生成部160は、点C10に対して、Y≦y1の領域を覆う、縦ζピクセル、横2εピクセルの長方形のマスク画像P22を生成する。AR画像生成部160は、マスク画像P22をY軸の負の方向に(α−γ)ピクセルだけ平行移動させる。図24では当該移動後のマスク画像P22を示している。   The AR image generation unit 160 generates a rectangular mask image P22 of vertical ζ pixels and horizontal 2ε pixels covering the region of Y ≦ y1 for the point C10. The AR image generation unit 160 translates the mask image P22 by (α−γ) pixels in the negative direction of the Y axis. FIG. 24 shows the mask image P22 after the movement.

同様に、AR画像生成部160は、点C10に対して、X≧x1の領域を覆う縦2ζピクセル、横εピクセルの長方形のマスク画像P23を生成する。そして、AR画像生成部160は、マスク画像P23を、X軸の正の方向に(マスク画像P23の左側の辺が枠画像Fr10の右側の辺に達するまで)平行移動させる。   Similarly, the AR image generation unit 160 generates, for the point C10, a rectangular mask image P23 having a vertical 2ζ pixel and a horizontal ε pixel that covers an area where X ≧ x1. Then, the AR image generation unit 160 translates the mask image P23 in the positive direction of the X axis (until the left side of the mask image P23 reaches the right side of the frame image Fr10).

また、AR画像生成部150は、点C10に対して、Y≧y1の領域を覆う縦ζピクセル、横2εピクセルの長方形のマスク画像P24を生成する。AR画像生成部160は、マスク画像P24をY軸の正の方向に(マスク画像P24の上辺が枠画像Fr10の下側の辺に達するまで)平行移動させる。   In addition, the AR image generation unit 150 generates a rectangular mask image P24 of vertical ζ pixels and horizontal 2ε pixels covering the region of Y ≧ y1 for the point C10. The AR image generation unit 160 translates the mask image P24 in the positive direction of the Y axis (until the upper side of the mask image P24 reaches the lower side of the frame image Fr10).

こうして、AR画像生成部160は、機器画像P11以外の領域を覆うマスク画像P21,P22,P23,P24を生成する。AR画像生成部160は、マスク画像P21,P22,P23,P24を結合して、1つのマスク画像P20とする。   In this way, the AR image generation unit 160 generates mask images P21, P22, P23, and P24 that cover an area other than the device image P11. The AR image generation unit 160 combines the mask images P21, P22, P23, and P24 into one mask image P20.

AR画像生成部160は、マスク画像P20を生成した後は、最新のフレーム画像内におけるARマーカー画像の位置や形状の変化に応じてマスク画像P20を移動および変形させ、ARマーカー画像の変化に追随してマスク画像P20の表示位置を変更する。   After generating the mask image P20, the AR image generation unit 160 moves and deforms the mask image P20 according to changes in the position and shape of the AR marker image in the latest frame image, and follows the change in the AR marker image. Thus, the display position of the mask image P20 is changed.

なお、上記のように、ディスプレイ106の縦横方向のピクセル数に応じてマスク画像を生成する理由は、AR画像として有限のサイズをもつ画像を生成することが求められるためである。その際、ディスプレイ106の縦横方向のピクセル数よりも2〜3倍程度覆えば十分であると考えられる。なお、スマート端末100は、背面カメラ105の視野からARマーカーがなくなり、ARマーカーが検出されなくなれば、画像送信を停止してもよい。   As described above, the reason why the mask image is generated according to the number of pixels in the vertical and horizontal directions of the display 106 is that it is required to generate an image having a finite size as the AR image. At that time, it is considered sufficient to cover about 2 to 3 times the number of pixels of the display 106 in the vertical and horizontal directions. The smart terminal 100 may stop the image transmission when the AR marker disappears from the view of the rear camera 105 and the AR marker is not detected.

図25は、ARマスクの合成例を示す図である。マスク画像P20は、最新のフレーム画像のうち、機器画像P11以外の領域をマスクする。マスク画像P30は、最新のフレーム画像のうち、手操作画像P15以外の領域をマスクする。マスク画像P40は、マスク画像P20,P30を合成して作成されたARマスクであり、機器画像P11および手操作画像P15の両方以外の領域をマスクする。   FIG. 25 is a diagram illustrating a synthesis example of an AR mask. The mask image P20 masks an area other than the device image P11 in the latest frame image. The mask image P30 masks an area other than the manual operation image P15 in the latest frame image. The mask image P40 is an AR mask created by combining the mask images P20 and P30, and masks areas other than both the device image P11 and the manual operation image P15.

手操作画像処理部161は、マスク画像P20,P30の各座標について、非配信部分を“1”(True)、配信部分を“0”(False)とする。そして、手操作画像処理部161は、マスク画像P20,P30における同じ座標の論理積(AND)を計算することで、マスク画像P20,P30の合成を行い、マスク画像P40を生成する。   The manual operation image processing unit 161 sets the non-delivery part to “1” (True) and the delivery part to “0” (False) for the coordinates of the mask images P20 and P30. Then, the manual operation image processing unit 161 calculates the logical product (AND) of the same coordinates in the mask images P20 and P30, thereby synthesizing the mask images P20 and P30 to generate the mask image P40.

図26は、支援端末の表示例を示す図である。ネットワーク機器などの保守現場では、ARによる作業支援のため、カメラを使用して作業対象機器の撮影を行い、撮影した画像に重畳データを表示させたり、遠地の支援者U2に画像や動画を送信したりすることがある。   FIG. 26 is a diagram illustrating a display example of the support terminal. At maintenance sites such as network equipment, in order to support work by AR, the camera is used to take pictures of the work target equipment, display superimposed data on the taken images, and send images and videos to the remote supporter U2 Sometimes.

しかし、顧客のサーバルームなどの保守作業の現場には、複数社の機器が入っている場合がある。社外の機器や、社内の機器であっても、作業対象外の機器を撮影し、当該機器の画像を配信してしまうことは、情報漏洩につながる可能性があり、セキュリティ上の問題がある。また、機器が密集している場合に、隣接している作業対象外の機器が意図せずに写り込んでしまう可能性がある。このため、作業対象機器の周囲の画像は配信されないようにすることが好ましい。一方で、後方の支援者U2により、現場での作業者U1または他の作業者の手40による手作業の状況を確認可能にし、支援者U2による適切な作業支援を行えるようにすることが考えられる。ところが、作業対象機器の周囲を全てマスクしてしまうと、現場での手作業の状況の確認が難しくなる。   However, there are cases where devices from a plurality of companies are contained in a maintenance work site such as a customer's server room. Even if it is an external device or an in-house device, photographing an unworked device and distributing the image of the device may lead to information leakage, which is a security problem. In addition, when the devices are dense, there is a possibility that the adjacent devices that are not the target of work are unintentionally reflected. For this reason, it is preferable not to distribute the image around the work target device. On the other hand, it is possible to make it possible for the supporter U2 at the back to check the status of manual work by the worker 40 on the site or the other worker's hand 40 and to perform appropriate work support by the supporter U2. It is done. However, if the entire periphery of the work target device is masked, it will be difficult to confirm the state of manual work on site.

そこで、スマート端末100は、マスク画像P40を含む表示画像G1の画像情報をストリーミングサーバ200に送信する。すると、ストリーミングサーバ200は、支援端末300に当該画像情報を配信する。支援端末300は、配信された画像情報に基づいて、表示画像G2を表示する。表示画像G2も、表示画像G1と同様にマスク画像P40を含む。このため、支援者U2に、作業対象である情報機器10a以外の機器画像を見せずに済む。更に、作業者U1による手作業状況を支援者U2により確認可能にできる。こうして、保守作業の現場に設置された、作業対象機器以外の情報機器に関する情報漏洩を防ぎつつ、作業者U1の手作業状況も確認可能とし、支援者U2による適切な支援が可能になる。   Therefore, the smart terminal 100 transmits image information of the display image G1 including the mask image P40 to the streaming server 200. Then, the streaming server 200 distributes the image information to the support terminal 300. The support terminal 300 displays the display image G2 based on the distributed image information. The display image G2 also includes a mask image P40 as with the display image G1. For this reason, it is not necessary to show the supporter U2 a device image other than the information device 10a that is the work target. Furthermore, it is possible to check the manual work situation by the worker U1 by the supporter U2. In this way, it is possible to check the manual work status of the worker U1 while preventing information leakage related to information devices other than the work target device installed at the maintenance work site, and appropriate support by the supporter U2 becomes possible.

また、現場の作業者(例えば、作業者U1または他の作業者)は、リングマーカー31を手40に取り付けておきさえすれば、手40と同じ動きをするものの画像を支援端末300に配信可能である。このため、事前に配信対象のものをスマート端末100により撮影したり、スマート端末100に登録したりせずに済み、手早く保守作業を完了させることができる。   Also, an operator on site (for example, the worker U1 or another worker) can distribute an image of the same movement as the hand 40 to the support terminal 300 as long as the ring marker 31 is attached to the hand 40. It is. For this reason, it is not necessary to photograph the distribution target in advance with the smart terminal 100 or register it in the smart terminal 100, and the maintenance work can be completed quickly.

ここで、上記の例では、スマート端末100により、枠画像を用いて作業対象機器に対するマスク対象領域を検出する方法を例示したが、それ以外の方法により、作業対象機器に対するマスク対象領域を決定してもよい。例えば、スマート端末100は、ARマーカーの取り付け位置に対する作業対象機器の相対的な位置の情報を予め保持しておき、当該情報に基づいて、ARマーカー画像の検出位置に対するマスク対象領域の位置を決定してもよい。   Here, in the above example, the method of detecting the mask target region for the work target device using the frame image by the smart terminal 100 is illustrated, but the mask target region for the work target device is determined by other methods. May be. For example, the smart terminal 100 stores in advance information on the relative position of the work target device with respect to the AR marker attachment position, and determines the position of the mask target region with respect to the detection position of the AR marker image based on the information. May be.

また、複数の機器にARマーカーが予め付されていることも考えられる。この場合、スマート端末100は、リングマーカー31の識別に用いられる情報と、リングマーカー31に対応する作業対象機器のARマーカーの識別に用いられる情報とを予め対応付けて保持しておいてもよい。そして、スマート端末100は、保持している情報によりリングマーカー31に対応するARマーカーのARマーカー画像をカメラ画像から特定し、当該ARマーカー画像に対して作業対象機器以外の機器をマスクするマスク画像を生成してもよい。   It is also conceivable that AR markers are attached in advance to a plurality of devices. In this case, the smart terminal 100 may hold information used for identifying the ring marker 31 and information used for identifying the AR marker of the work target device corresponding to the ring marker 31 in advance in association with each other. . Then, the smart terminal 100 identifies the AR marker image of the AR marker corresponding to the ring marker 31 from the camera image based on the stored information, and masks a device other than the work target device with respect to the AR marker image. May be generated.

また、第2の実施の形態の例では、作業者U1の腕(手首)に取り付け可能なリングマーカー31を例示したが、リングマーカー31またはリングマーカー31と同じ用途のマーカーを、指や手の甲などの別の箇所に取り付けることも考えられる。取り付け方もリング30を用いる場合に限らず、皮膚に接着させるシールによって取り付けるなど、他の方法も考えられる。   Further, in the example of the second embodiment, the ring marker 31 that can be attached to the arm (wrist) of the worker U1 has been exemplified, but the ring marker 31 or a marker of the same use as the ring marker 31 is used as a finger or the back of the hand. It is also possible to attach it to another part of the. The attachment method is not limited to the case where the ring 30 is used, and other methods such as attachment by a seal adhered to the skin are also conceivable.

更に、スマート端末100は、ヘッドマウント式のディスプレイ(ヘッドマウントディスプレイ)と接続されてもよい。ヘッドマウントディスプレイは、作業者U1による作業領域を撮像してカメラ画像をスマート端末100に入力するカメラを備えてもよい。この場合、作業者U1は、ヘッドマウントディスプレイにより、自身が作業を行う領域(手作業の部分を含む)を撮像しながら、ヘッドマウントディスプレイにより表示される画像を視認し、作業支援を受けることができる。   Furthermore, the smart terminal 100 may be connected to a head-mounted display (head-mounted display). The head mounted display may include a camera that images a work area of the worker U1 and inputs a camera image to the smart terminal 100. In this case, the worker U1 can receive work assistance by visually recognizing an image displayed on the head mounted display while imaging an area (including a manual work portion) on which the worker U1 is working with the head mounted display. it can.

なお、第1の実施の形態の情報処理は、検出部1b、算出部1cおよび画像処理部1dとして機能する処理装置にプログラムを実行させることで実現できる。また、第2の実施の形態の情報処理は、プロセッサ101にプログラムを実行させることで実現できる。プログラムは、コンピュータ読み取り可能な記録媒体22に記録できる。   Note that the information processing of the first embodiment can be realized by causing a processing device that functions as the detection unit 1b, the calculation unit 1c, and the image processing unit 1d to execute a program. The information processing according to the second embodiment can be realized by causing the processor 101 to execute a program. The program can be recorded on a computer-readable recording medium 22.

例えば、プログラムを記録した記録媒体22を配布することで、プログラムを流通させることができる。また、プログラムを他のコンピュータに格納しておき、ネットワーク経由でプログラムを配布してもよい。コンピュータは、例えば、記録媒体22に記録されたプログラムまたは他のコンピュータから受信したプログラムを、RAM102やフラッシュメモリ103などの記憶装置に格納し(インストールし)、当該記憶装置からプログラムを読み込んで実行してもよい。   For example, the program can be distributed by distributing the recording medium 22 on which the program is recorded. Alternatively, the program may be stored in another computer and distributed via a network. For example, the computer stores (installs) a program recorded on the recording medium 22 or a program received from another computer in a storage device such as the RAM 102 or the flash memory 103, and reads and executes the program from the storage device. May be.

1 端末
1a 記憶部
1b 検出部
1c 算出部
1d 画像処理部
2 撮像装置
3 出力装置
4,5 物体
6,9 マーカー
7 手
8 部品
P1,P2 入力画像
P3 出力画像
P1a,P1b,P2a,P2b,P3b 物体画像
P1c,P1d,P2c,P2d,P3c,P3d マーカー画像
P1e,P2e,P3e 手画像
P1f,P2f,P3f 部品画像
P3a マスク画像
DESCRIPTION OF SYMBOLS 1 Terminal 1a Memory | storage part 1b Detection part 1c Calculation part 1d Image processing part 2 Imaging device 3 Output device 4,5 Object 6,9 Marker 7 Hand 8 Parts P1, P2 Input image P3 Output image P1a, P1b, P2a, P2b, P3b Object image P1c, P1d, P2c, P2d, P3c, P3d Marker image P1e, P2e, P3e Hand image P1f, P2f, P3f Parts image P3a Mask image

Claims (15)

第1の画像および第2の画像からマーカーと前記マーカーの移動とを検出する検出部と、
前記マーカーの移動に応じた第1の画像領域を前記第2の画像から特定する算出部と、
前記第1の画像領域に第1の処理を行い、前記第2の画像のうちの第2の画像領域に前記第1の処理とは異なる第2の処理を行う画像処理部と、
を有する端末。
A detection unit for detecting a marker and movement of the marker from the first image and the second image;
A calculation unit for identifying a first image region corresponding to the movement of the marker from the second image;
An image processing unit that performs a first process on the first image area and performs a second process different from the first process on a second image area of the second image;
A terminal having
前記検出部は、前記マーカーの移動の移動量を検出し、
前記算出部は、前記移動量に基づいて前記マーカーと連動する画像領域を前記第1の画像領域として特定する、
請求項1記載の端末。
The detection unit detects a movement amount of the marker;
The calculation unit identifies, as the first image region, an image region that is linked to the marker based on the movement amount.
The terminal according to claim 1.
前記算出部は、前記第1の画像に含まれる第1の画素の座標を前記移動量により変換し、変換後の座標と同じ座標である前記第2の画像の第2の画素の色と前記第1の画素の色との比較に応じて、前記マーカーと連動する画像領域を特定する、
請求項2記載の端末。
The calculation unit converts the coordinates of the first pixel included in the first image by the movement amount, and the color of the second pixel of the second image that is the same as the coordinate after the conversion and the color Identifying an image region associated with the marker according to a comparison with the color of the first pixel;
The terminal according to claim 2.
前記算出部は、前記第1の画素の色と前記第2の画素の色とが一致または類似する場合に前記第2の画素を前記マーカーと連動する画素と決定し、前記第2の画像のうち前記第2の画素が連続する領域を前記マーカーと連動する画像領域と特定する、
請求項3記載の端末。
The calculation unit determines the second pixel as a pixel interlocked with the marker when the color of the first pixel and the color of the second pixel match or are similar to each other. Among them, an area in which the second pixels are continuous is specified as an image area linked with the marker.
The terminal according to claim 3.
前記算出部は、前記マーカーと連動する画像領域が複数である場合、前記マーカーを含む画像領域を前記第1の画像領域と特定し、前記マーカーを含まない画像領域を前記第1の画像領域の対象外とする、請求項2乃至4の何れか1項に記載の端末。   When there are a plurality of image areas linked to the marker, the calculation unit identifies the image area including the marker as the first image area, and sets the image area not including the marker as the first image area. The terminal according to any one of claims 2 to 4, wherein the terminal is excluded. 前記移動量は、前記マーカーの平行移動量、回転量および拡大縮小率の少なくとも1つを含む、請求項2乃至5の何れか1項に記載の端末。   The terminal according to claim 2, wherein the movement amount includes at least one of a parallel movement amount, a rotation amount, and an enlargement / reduction ratio of the marker. 前記第1の処理は、前記第1の画像領域をマスクせずに出力する処理であり、
前記第2の処理は、前記第2の画像領域をマスクして出力する処理である、
請求項1乃至6の何れか1項に記載の端末。
The first process is a process of outputting the first image area without masking;
The second process is a process of masking and outputting the second image area.
The terminal according to any one of claims 1 to 6.
前記検出部は、前記第2の画像に含まれる他のマーカーを検出し、
前記算出部は、前記他のマーカーの情報に応じて第3の画像領域を特定し、
前記画像処理部は、前記第2の画像領域のうち前記第3の画像領域をマスク対象外とする、
請求項7記載の端末。
The detection unit detects another marker included in the second image;
The calculation unit specifies a third image region according to the information of the other marker,
The image processing unit excludes the third image area from the second image area from being masked.
The terminal according to claim 7.
前記マーカーは、手に取り付けられており、
前記算出部は、前記マーカーの移動に応じて前記手が写された前記第1の画像領域を特定し、前記他のマーカーの情報に応じて前記手による作業対象機器が写された前記第3の画像領域を特定する、
請求項8記載の端末。
The marker is attached to the hand;
The calculation unit identifies the first image area in which the hand is copied in accordance with the movement of the marker, and the third device in which the work target device by the hand is copied in accordance with information on the other marker. Identify the image area of
The terminal according to claim 8.
前記検出部は、前記第1の画像および前記第2の画像の両方に含まれる前記他のマーカーの画像を基準として、前記マーカーの移動を検出する、請求項8または9記載の端末。   The terminal according to claim 8 or 9, wherein the detection unit detects movement of the marker with reference to images of the other markers included in both the first image and the second image. 前記マーカーは、手に取り付けられており、
前記算出部は、前記マーカーの移動に応じて、前記手が写された前記第1の画像領域を特定する、
請求項1乃至8の何れか1項に記載の端末。
The marker is attached to the hand;
The calculation unit specifies the first image region in which the hand is copied in accordance with the movement of the marker.
The terminal according to any one of claims 1 to 8.
前記第1の画像領域は、前記手と連動する物体の画像を含む、請求項9乃至11の何れか1項に記載の端末。   The terminal according to any one of claims 9 to 11, wherein the first image region includes an image of an object interlocked with the hand. 第1の画像および第2の画像を記憶する記憶装置と、
前記記憶装置に記憶された前記第1の画像および前記第2の画像からマーカーと前記マーカーの移動とを検出し、前記マーカーの移動に応じた第1の画像領域を前記第2の画像から特定し、前記第1の画像領域に第1の処理を行い、前記第2の画像のうちの第2の画像領域に前記第1の処理とは異なる第2の処理を行う処理装置と、
を有する画像処理システム。
A storage device for storing the first image and the second image;
A marker and a movement of the marker are detected from the first image and the second image stored in the storage device, and a first image area corresponding to the movement of the marker is specified from the second image A processing device that performs a first process on the first image area and performs a second process different from the first process on a second image area of the second image;
An image processing system.
第1の画像および第2の画像からマーカーと前記マーカーの移動とを検出し、
前記マーカーの移動に応じた第1の画像領域を前記第2の画像から特定し、
前記第1の画像領域に第1の処理を行い、前記第2の画像のうちの第2の画像領域に前記第1の処理とは異なる第2の処理を行う、
処理をコンピュータに実行させる画像処理プログラム。
Detecting a marker and movement of the marker from the first image and the second image;
A first image region corresponding to the movement of the marker is identified from the second image;
Performing a first process on the first image area, and performing a second process different from the first process on a second image area of the second image;
An image processing program that causes a computer to execute processing.
コンピュータが、
第1の画像および第2の画像からマーカーと前記マーカーの移動とを検出し、
前記マーカーの移動に応じた第1の画像領域を前記第2の画像から特定し、
前記第1の画像領域に第1の処理を行い、前記第2の画像のうちの第2の画像領域に前記第1の処理とは異なる第2の処理を行う、
画像処理方法。
Computer
Detecting a marker and movement of the marker from the first image and the second image;
A first image region corresponding to the movement of the marker is identified from the second image;
Performing a first process on the first image area, and performing a second process different from the first process on a second image area of the second image;
Image processing method.
JP2017109749A 2017-06-02 2017-06-02 Terminal, image processing system, image processing program, and method for processing image Pending JP2018207271A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017109749A JP2018207271A (en) 2017-06-02 2017-06-02 Terminal, image processing system, image processing program, and method for processing image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017109749A JP2018207271A (en) 2017-06-02 2017-06-02 Terminal, image processing system, image processing program, and method for processing image

Publications (1)

Publication Number Publication Date
JP2018207271A true JP2018207271A (en) 2018-12-27

Family

ID=64958439

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017109749A Pending JP2018207271A (en) 2017-06-02 2017-06-02 Terminal, image processing system, image processing program, and method for processing image

Country Status (1)

Country Link
JP (1) JP2018207271A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020202750A1 (en) * 2019-04-05 2020-10-08 株式会社 Preferred Networks Information processing system, robot, remote operation device, information processing method, and program
JP2021150866A (en) * 2020-03-19 2021-09-27 Necフィールディング株式会社 Video control device, video control system, video control method, and program
JP7294667B2 (en) 2020-10-27 2023-06-20 Necフィールディング株式会社 VIDEO TRANSMISSION SYSTEM, OPERATION METHOD OF VIDEO TRANSMISSION SYSTEM, AND OPERATION PROGRAM OF VIDEO TRANSMISSION SYSTEM

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020202750A1 (en) * 2019-04-05 2020-10-08 株式会社 Preferred Networks Information processing system, robot, remote operation device, information processing method, and program
JP2021150866A (en) * 2020-03-19 2021-09-27 Necフィールディング株式会社 Video control device, video control system, video control method, and program
JP7176775B2 (en) 2020-03-19 2022-11-22 Necフィールディング株式会社 VIDEO CONTROL DEVICE, VIDEO CONTROL SYSTEM, VIDEO CONTROL METHOD AND PROGRAM
JP7294667B2 (en) 2020-10-27 2023-06-20 Necフィールディング株式会社 VIDEO TRANSMISSION SYSTEM, OPERATION METHOD OF VIDEO TRANSMISSION SYSTEM, AND OPERATION PROGRAM OF VIDEO TRANSMISSION SYSTEM

Similar Documents

Publication Publication Date Title
US10095458B2 (en) Information processing apparatus, information processing method, non-transitory computer-readable storage medium, and system
JP4508049B2 (en) 360 ° image capturing device
US8751969B2 (en) Information processor, processing method and program for displaying a virtual image
JP2017108263A (en) Terminal, positional relation calculation program and positional relation calculation method
JP6230113B2 (en) Video instruction synchronization method, system, terminal, and program for synchronously superimposing instruction images on captured moving images
JP2018207271A (en) Terminal, image processing system, image processing program, and method for processing image
JP6970858B2 (en) Maintenance support system, maintenance support method, program and processed image generation method
JP2016213674A (en) Display control system, display control unit, display control method, and program
JP5152281B2 (en) Image processing apparatus, method, and program
JP6244069B1 (en) Remote work support system, remote work support method, and program
JPWO2017013986A1 (en) Information processing apparatus, terminal, remote communication system, and information processing program
JP6146869B2 (en) Video instruction display method, system, terminal, and program for superimposing instruction image on photographing moving image synchronously
JP6971788B2 (en) Screen display control method and screen display control system
JP2015184986A (en) Compound sense of reality sharing device
JP6117765B2 (en) Asset management system
JP2018032991A (en) Image display unit, image display method and computer program for image display
CN113920221A (en) Information processing apparatus, information processing method, and computer readable medium
JP2014158244A (en) Image processing device, image processing method, and image processing program
WO2017098999A1 (en) Information-processing device, information-processing system, method for controlling information-processing device, and computer program
JP5888094B2 (en) Video communication system, video communication method, and video communication program
JP2022184481A (en) Image restriction method, image restriction program, information processor, and support system
WO2020196276A1 (en) Maintenance assistance system, maintenance assistance method, program, method for generating processed image, and processed image
EP4345765A1 (en) Modifying images of an environment
US20230316661A1 (en) Method for preventing the viewing of data regarded as confidential in a shared augmented reality environment and system of protection
JP2006121580A (en) Image processing unit