JP2016017757A - Information registration device, information continuation registration device and method, and program - Google Patents

Information registration device, information continuation registration device and method, and program Download PDF

Info

Publication number
JP2016017757A
JP2016017757A JP2014138627A JP2014138627A JP2016017757A JP 2016017757 A JP2016017757 A JP 2016017757A JP 2014138627 A JP2014138627 A JP 2014138627A JP 2014138627 A JP2014138627 A JP 2014138627A JP 2016017757 A JP2016017757 A JP 2016017757A
Authority
JP
Japan
Prior art keywords
marker
image
information
range
work site
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014138627A
Other languages
Japanese (ja)
Other versions
JP6262610B2 (en
Inventor
智史 上野
Tomohito Ueno
智史 上野
内藤 整
Hitoshi Naito
整 内藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2014138627A priority Critical patent/JP6262610B2/en
Publication of JP2016017757A publication Critical patent/JP2016017757A/en
Application granted granted Critical
Publication of JP6262610B2 publication Critical patent/JP6262610B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information registration device for registering a work site for extended reality display pertaining to a subject facility when the work site in the subject facility deviates from the face of the subject facility and when there is a structure that partly hides the work site.SOLUTION: A photographing unit 11 acquires an image, in which a subject facility marked by a marker is photographed, in association with a depth map, and associates camera-based spatial coordinates corresponding to each pixel position in the image. A marker recognition unit 12 recognizes the position of the marker from the image. An indication input unit 14 accepts the input of a work site range in the image from a user. A three-dimensional position calculation unit 15 classifies each point in the inputted range on the basis of their spatial coordinates. A relative position determination unit 16 has the user select what corresponds to the work site from among the result of the classification, and registers it as the position of the work site, with the recognized marker serving as a point of reference.SELECTED DRAWING: Figure 5

Description

本発明は、対象機器の操作・点検・修理方法をディスプレイと拡張現実技術を利用して作業者に提示するために、操作・点検・修理方法に関する情報を対象機器と紐付けて登録する等に好適な、情報登録装置及び情報継続登録装置並びに方法及びプログラムに関する。   In order to present the operation / inspection / repair method of the target device to the worker using the display and augmented reality technology, the information related to the operation / inspection / repair method is registered in association with the target device. The present invention relates to a suitable information registration device, information continuation registration device, method and program.

作業者が機器の操作・点検・修理を行う際に、対象機器に関する情報(マニュアル等)を確認しながら作業をしたいニーズがある。これに対して、対象機器に関連する紙ベースのマニュアルを逐次参照しながら完全に人手のみに頼って作業を行う従来の方法がある。一方、当該方法では人手に依存する部分が過大であるため、対象機器の情報を電子データとして保持して、対象機器とは別の機器(例えばディスプレイ)を利用して、ディスプレイ上の対象機器の作業部位の画像に重畳して情報を提供する作業支援システムが提案されている。   When an operator operates, inspects, or repairs equipment, there is a need to work while confirming information (such as a manual) on the target equipment. On the other hand, there is a conventional method in which the work is completely relied upon only by hand while sequentially referring to a paper-based manual related to the target device. On the other hand, since the method is excessively dependent on human resources, information on the target device is stored as electronic data, and a device (for example, a display) different from the target device is used to display the target device on the display. A work support system that provides information superimposed on an image of a work site has been proposed.

特に、ルータなどの通信機器を対象とした場合は、類似の形状のポートが機器に複数存在することが多く、作業者はマニュアルで参照する以外に、視覚的に操作・点検・修理のための作業部位を確認できることが望まれる。   In particular, when targeting communication devices such as routers, there are often multiple ports with similar shapes, so that operators can visually check, repair, and repair in addition to referencing them manually. It is desirable to be able to confirm the work site.

特許文献1には、対象機器とは別の、カメラとディスプレイを有する機器を利用して、事前に貼り付けたマーカをカメラで読み取ることにより対象機器の特定、および作業部位を特定し、さらにディスプレイに対象機器の作業部位に対する事前に登録した拡張現実表示データ(操作方法等)を、現実の映像を重畳させて表現する方法が開示されている。   Patent Document 1 uses a device having a camera and a display, which is different from the target device, identifies the target device and the work site by reading a marker pasted in advance with the camera, and further displays the display. Discloses a method in which augmented reality display data (operation method and the like) registered in advance for a work site of a target device is expressed by superimposing a real image.

特開2013-258703号公報(情報提供システム)JP 2013-258703 A (Information Providing System)

特許文献1の従来技術は、画像認識技術により対象機器の作業部位の認識を実現し、対象機器の操作に対する機器の動きの遷移を視覚的に表示する。しかしながら、対象機器の操作方法などを提示する拡張現実表示データ等を、対象機器と紐付けて登録する、登録手法に関しての具体的な手法の提示がなかった。   The prior art of Patent Document 1 realizes recognition of a work site of a target device by using an image recognition technology, and visually displays a transition of the movement of the device with respect to the operation of the target device. However, there has been no presentation of a specific method regarding a registration method for registering augmented reality display data or the like for presenting the operation method of the target device in association with the target device.

当該登録方法に関しては、次のような課題となる種々の状況がある。   Regarding the registration method, there are various situations that cause the following problems.

まず、前提として、対象機器は基本的には、すでに運用されているものと想定する。さらに、対象機器に対して提示する拡張現実表示データ等の相対位置を計算するための基準点を決定するために、QRコード(登録商標)などのマーカを後から貼り付ける場合を想定する。   First, as a premise, it is assumed that the target device is basically already in operation. Furthermore, it is assumed that a marker such as a QR code (registered trademark) is pasted later to determine a reference point for calculating the relative position of the augmented reality display data to be presented to the target device.

この場合に、作業部位に対して拡張現実による提示をするためには、マーカに対する拡張現実情報の相対位置を算出して保存する必要がある。そして、マーカと機器の相対位置を正確に算出する方法の一つとして、マーカを装置に実際に貼り付け、そのマーカと作業部位を撮影して画像から幾何学的に算出する方法がある。この時、以下の課題(1)(2)が生じる。   In this case, in order to present the work site in augmented reality, it is necessary to calculate and store the relative position of the augmented reality information with respect to the marker. As one method for accurately calculating the relative position between the marker and the device, there is a method in which the marker is actually attached to the apparatus, the marker and the work site are photographed, and geometrically calculated from the image. At this time, the following problems (1) and (2) occur.

(1)対象機器が現用であるため、すでに機器には複数の別の機器が接続されている場合がある。この場合、拡張現実情報を表示する作業部位の一部が隠れている等のために、画像から幾何学的に算出する手法では、作業部位の特定が難しい場合がある。   (1) Since the target device is currently used, a plurality of other devices may already be connected to the device. In this case, since a part of the work part for displaying the augmented reality information is hidden, it may be difficult to specify the work part by the method of calculating geometrically from the image.

(2)上記のようなケースにおいて、単純にマーカと作業部位の2次元上の位置を保存すると、保存した撮影位置以外からの視点から観察した場合に、マーカと作業部位の相対位置に乖離が生じ、作業部位に正しく拡張現実情報が重畳されない場合がある。   (2) In the case as described above, if the two-dimensional position of the marker and the work part is simply saved, there is a difference between the relative position of the marker and the work part when observed from a viewpoint other than the saved imaging position. And augmented reality information may not be correctly superimposed on the work site.

図1は、当該課題(1)(2)を生じさせる対象機器の写真例(説明付き)である。対象機器は一例として通信機器であり、その筐体面に(a)に示すようにマーカが貼りつけられている。そして、既に運用されているため、(b)に示すようにポートにおける配線の切り替え等の作業対象となる領域においては、当該作業対象となりうるポートの中に、既に配線が施されることで一部隠れているポートや、それ自身には配線は施されていないものの別箇所の配線が横切ることで見えている部分の一部が遮られているポート等がある。   FIG. 1 is a photograph example (with description) of a target device that causes the problems (1) and (2). The target device is a communication device as an example, and a marker is attached to the surface of the casing as shown in (a). Since it is already in operation, as shown in (b), in the area that is the work target such as the switching of the wiring in the port, the wiring is already applied in the port that can be the work target. There are ports that are partially hidden, ports that are not wired themselves, but that are blocked by a portion of the portion that is visible when another portion of the wiring crosses.

このように、既に運用され配線等が施されて隠れる部分が現れることから、上記(1)の課題が生ずる。   As described above, since the portion that has already been operated and hidden by wiring and the like appears, the problem (1) occurs.

さらに、図2及び図3は、課題(2)を模式的に説明するための図である。図2は、図1のような通信機器を正面から見た際の模式的な図であり、筐体の面P1上にマーカM1が貼りつけられ、作業対象となるポート領域W1, W2, W3が示されている。なお、図2(及び図3)では、ポート領域を遮る配線は描くのを省略している。   Furthermore, FIG.2 and FIG.3 is a figure for demonstrating the subject (2) typically. FIG. 2 is a schematic diagram when the communication device as shown in FIG. 1 is viewed from the front. The marker M1 is pasted on the surface P1 of the housing, and the port areas W1, W2, W3 to be worked on. It is shown. In FIG. 2 (and FIG. 3), the wiring that blocks the port region is not shown.

ここで、作業対象となるポート領域W1, W2, W3は、図2のように正面から見た場合は、2次元上の領域として扱うことが可能であるが、実際には面P1から突出した立体的な形状である。これを図3に示す。図3は、正面から見ていた図2に対して、斜めから見た際の図である。   Here, the port areas W1, W2, and W3 to be worked on can be treated as two-dimensional areas when viewed from the front as shown in FIG. 2, but actually protrude from the plane P1. It is a three-dimensional shape. This is shown in FIG. FIG. 3 is a view of FIG. 2 as viewed from the front when viewed from an oblique direction.

図3に示すように、ポート領域W1, W2, W3は例えば直方体であり、作業領域としてはマーカM1が乗っている面P1から突出した上面部分を特定する必要がある。しかし、図2のように面P1内の2次元的な位置情報の形で登録してしまうと、このように斜めから見る場合などに、当該登録した2次元的な位置情報から幾何学的に算出しても、正しい位置に拡張現実表示を提示できない。例えば、図3のように見えている場合であれば、2次元的に登録した位置情報で拡張現実表示を行うと、ポート領域W1, W2, W3の上面部分ではなく、それらの下面で平面P1と接している部分を対象として表示が行われてしまう。   As shown in FIG. 3, the port areas W1, W2, and W3 are rectangular parallelepipeds, for example, and it is necessary to specify the upper surface portion that protrudes from the surface P1 on which the marker M1 is placed as the work area. However, if it is registered in the form of two-dimensional position information in the plane P1 as shown in FIG. 2, when viewed from an oblique direction as described above, it is geometrically determined from the registered two-dimensional position information. Even if it is calculated, the augmented reality display cannot be presented at the correct position. For example, in the case where it looks like FIG. 3, when augmented reality display is performed using the two-dimensionally registered position information, the plane P1 is not formed on the upper surface portion of the port areas W1, W2, W3 but on the lower surface thereof. The display is performed for the part in contact with.

すなわち、従来技術の枠組みではマーカM1の平面P1内に作業領域が存在することを前提として位置情報を登録しているが、実際の作業対象は当該ポートW1, W2, W3のように立体であるために当該前提が使えず、平面P1に対して立体となるような角度から見た場合には当該平面P1上に存在することを前提に登録した位置情報による拡張現実表示は不適切な表示となってしまう。   That is, the position information is registered on the premise that the work area exists in the plane P1 of the marker M1 in the framework of the prior art, but the actual work target is a three-dimensional object such as the ports W1, W2, and W3. Therefore, the augmented reality display based on the position information registered on the assumption that it exists on the plane P1 when viewed from an angle that makes a solid with respect to the plane P1 cannot be used as an inappropriate display. turn into.

以上、課題(2)では、当該ポートW1, W2, W3等の上面部分を平面P1から離れた平面上にあるものとして位置情報を登録することが望まれるが、従来技術では平面P1上の2次元座標としての登録が前提であり、このような登録の枠組みが提供されていない。また、前述の課題(1)は、当該課題(2)を解決しようとする際に、さらなる課題として生じうるものである。   As described above, in the problem (2), it is desired to register the position information on the plane P1 as the upper surface portions of the ports W1, W2, W3, etc. are on the plane away from the plane P1, but in the conventional technique, Registration as a dimensional coordinate is a premise, and no such registration framework is provided. The above-mentioned problem (1) can occur as a further problem when trying to solve the problem (2).

以上、課題(1)(2)に対してさらに、別の課題(3)もある。   As described above, there is another problem (3) in addition to the problems (1) and (2).

すなわち、同じ(同種類の)対象機器が複数存在するケースを考える。この場合、マーカはそれぞれの対象機器を識別するために別のマーカにすることが望ましいが、一方で機器の操作方法などの提示情報は同じである場合があるために、同操作方法の登録情報を流用できることが望ましい。このことより、以下の課題(3)が生ずる。   That is, consider a case where there are a plurality of the same (same type) target devices. In this case, it is desirable that the marker is a different marker for identifying each target device. However, since the presentation information such as the operation method of the device may be the same, the registration information of the operation method is the same. It is desirable that can be diverted. This causes the following problem (3).

(3)複数の機器に対して後からマーカを貼り付ける場合、そのマーカを装置に対して特定の位置に正確に貼り付けることが難しいことに起因して、拡張現実表示データが実際の作業部位にうまく重畳されない場合がある。   (3) When a marker is pasted on a plurality of devices later, augmented reality display data is an actual work site because it is difficult to accurately paste the marker at a specific position on the apparatus. May not superimpose well.

すなわち、同種類の対象機器について既に登録した位置情報を新たな対象機器に対してそのまま流用して拡張現実データ等の表示を行う場合は、当該流用しようとしている新たな対象機器に関して、既に登録した対象機器において貼りつけられているマーカの位置と全く同じ位置にマーカを張り付ける必要がある。しかしながら、マーカを手作業で張り付ける場合等特に、精度には限度があって正確な貼り付けは不可能であり、貼り付け位置はある程度ずれてしまうこととなる。この結果、流用した新たな対象機器において提示される拡張現実データ等は、貼り付けのずれの影響を受けることで、本来の位置に提示されないこととなってしまう。   In other words, when displaying the augmented reality data or the like by using the already registered location information for the target device of the same type as it is for the new target device, it has already been registered for the new target device to be used. It is necessary to attach a marker at the same position as the marker that is pasted on the target device. However, especially when the marker is attached manually, there is a limit to accuracy, and accurate attachment is impossible, and the attachment position will be deviated to some extent. As a result, the augmented reality data or the like presented in the diverted new target device is not presented at the original position due to the influence of the pasting deviation.

図4は、当該課題(3)を模式的に説明するための図であり、図2のマーカM1に対してポート領域W1, W2, W3の位置情報を登録した結果を、同種類の別の機器に流用する場合に生ずるずれを示している。マーカは位置M1に貼るべきであるが、右上側への平行移動及び反時計回りの回転を伴う形でずれて位置M10に貼ってしまった結果、本来のポート領域W1, W2, W3からずれた位置としてそれぞれポート領域W11, W12, W13が認識されてしまう。作業領域もP1からずれてP10となっている。この結果を用いて拡張現実データ等の表示を行おうとしても、ずれた位置に表示がなされてしまう。   FIG. 4 is a diagram for schematically explaining the problem (3). The result of registering the position information of the port areas W1, W2, and W3 with respect to the marker M1 in FIG. The deviation which occurs when diverting to equipment is shown. The marker should be pasted at position M1, but as a result of sticking to position M10 with a shift to the upper right side and a counterclockwise rotation, it shifted from the original port area W1, W2, W3. Port regions W11, W12, and W13 are recognized as positions. The work area is also shifted from P1 to P10. Even if an attempt is made to display augmented reality data or the like using this result, the display is made at a shifted position.

本発明は、上記課題(1)(2)に関連して、拡張現実データ等を表示させるために対象設備の作業部位の位置の登録を行う際に、作業部位が対象設備の面から乖離しており、且つ、作業部位を部分的に隠す構造が存在しうる状況であっても、作業部位の位置の登録が可能な情報登録装置並びに方法及びプログラムを提供することを第一の目的とする。   In the present invention, in relation to the above problems (1) and (2), when registering the position of the work site of the target equipment in order to display augmented reality data or the like, the work site deviates from the surface of the target equipment. The first object of the present invention is to provide an information registration apparatus, method and program capable of registering the position of a work part even in a situation where a work part may be partially hidden .

また、本発明は、上記課題(3)に関連して、前記情報登録装置又は方法にて既に登録した結果を、同種の別の対象設備の登録において流用できるようにする情報継続登録装置並びに方法及びプログラムを提供することを第二の目的とする。   In addition, the present invention relates to the above-mentioned problem (3), and the information continuation registration apparatus and method for enabling the result already registered by the information registration apparatus or method to be used in the registration of another target equipment of the same type. The second purpose is to provide a program.

上記第一の目的を達成するため、本発明は、対象設備における作業部位が対象設備の面から乖離しており、且つ、作業部位を部分的に隠す構造が存在しうる対象設備に関して、拡張現実表示のために作業部位の位置を登録する情報登録装置であって、マーカ付与された対象設備を撮影した画像を奥行マップと紐付けて取得し、当該画像において各画素位置に対応するカメラ基準の空間座標を紐付ける撮影部と、前記画像より前記マーカの位置を認識するマーカ認識部と、前記画像における作業部位の範囲の入力をユーザより受け付ける指示入力部と、前記入力された範囲の各点を、その空間座標に基づいて分類する三次元位置算出部と、前記分類された結果の中より、ユーザに対して作業部位に該当するものを選択させることで、前記入力された画像における作業部位の範囲の空間座標が当該選択された箇所に存在するものとして、前記認識されたマーカを基準とした作業部位の位置として登録する相対位置決定部と、を備えることを特徴とする。   In order to achieve the above first object, the present invention relates to a target facility in which the work site in the target facility is deviated from the surface of the target facility and there may be a structure that partially hides the work site. An information registration device for registering the position of a work part for display, acquiring an image obtained by photographing a target facility to which a marker is attached in association with a depth map, and using a camera reference corresponding to each pixel position in the image An imaging unit that associates spatial coordinates, a marker recognizing unit that recognizes the position of the marker from the image, an instruction input unit that receives an input of a range of a work part in the image, and each point of the input range The three-dimensional position calculation unit for classifying the input data based on the spatial coordinates, and by causing the user to select one corresponding to the work site from among the classified results, A relative position determination unit for registering the position of the working part in the selected image as the position of the working part with reference to the recognized marker, as a spatial coordinate of the range of the working part in the selected image is present at the selected location. To do.

また、本発明は、対象設備における作業部位が対象設備の面から乖離しており、且つ、作業部位を部分的に隠す構造が存在しうる対象設備に関して、拡張現実表示のために作業部位の位置を登録する情報登録方法であって、マーカ付与された対象設備を撮影した画像を奥行マップと紐付けて取得し、当該画像において各画素位置に対応するカメラ基準の空間座標を紐付ける撮影段階と、前記画像より前記マーカの位置を認識するマーカ認識段階と、前記画像における作業部位の範囲の入力をユーザより受け付ける指示入力段階と、前記入力された範囲の各点を、その空間座標に基づいて分類する三次元位置算出段階と、前記分類された結果の中より、ユーザに対して作業部位に該当するものを選択させることで、前記入力された画像における作業部位の範囲の空間座標が当該選択された箇所に存在するものとして、前記認識されたマーカを基準とした作業部位の位置として登録する相対位置決定段階と、を備えることを特徴とする。   Further, the present invention relates to the position of the work part for the augmented reality display with respect to the target equipment in which the work part in the target equipment is deviated from the surface of the target equipment and there may be a structure that partially hides the work part. An image registration step for acquiring an image obtained by photographing a target facility to which a marker is attached in association with a depth map, and for associating a camera-based spatial coordinate corresponding to each pixel position in the image; A marker recognition stage for recognizing the position of the marker from the image, an instruction input stage for accepting an input of a range of a work part in the image from a user, and each point of the input range based on its spatial coordinates In the input image, the three-dimensional position calculation stage to be classified and the user selects the one corresponding to the work site from the classified results. As business sites ranging spatial coordinates are present in the selected portion, characterized in that it comprises a relative position determining step of registering as the position of the work site relative to the said recognized marker.

また、本発明は、コンピュータに前記情報登録方法を実行させるプログラムであることを特徴とする。   Further, the present invention is a program for causing a computer to execute the information registration method.

また、上記第二の目的を達成するため、本発明は、マーカ付与された第一対象設備に関して前記情報登録装置により既に登録された作業部位の情報を、当該第一対象設備と同種の第二対象設備に対して流用して拡張現実表示のために登録する情報継続登録装置であって、前記既に登録された作業部位の情報を保存する登録情報保存部と、マーカ付与された第二対象設備を撮影した画像を奥行マップと紐付けて取得し、当該画像において各画素位置に対応するカメラ基準の空間座標を紐付ける撮影部と、前記画像より前記マーカの位置を認識するマーカ認識部と、前記認識されたマーカの平面を基準として、前記画像上に、前記既に登録された作業部位の範囲を表示する登録情報表示部と、前記登録情報表示部により表示された前記既に登録された作業部位の範囲を、前記画像における作業部位の範囲へと修正する情報をユーザから受け付ける指示入力部と、前記修正する情報として入力された範囲の各点に対し、その空間座標に基づいて、前記画像の空間座標と合致していると判定される範囲を特定することにより、登録する作業部位を特定する三次元位置調整部と、を備えることを特徴とする。   In order to achieve the second object described above, the present invention provides information on a work site that has already been registered by the information registration device with respect to the first target facility to which a marker has been assigned. An information continuation registration device for diverting to target equipment and registering for display of augmented reality, a registration information storage unit for storing information on the already registered work site, and a second target equipment with a marker attached An image obtained by associating with a depth map, a photographing unit for associating a camera-based spatial coordinate corresponding to each pixel position in the image, a marker recognizing unit for recognizing the position of the marker from the image, A registration information display unit that displays the range of the already registered work site on the image with the recognized marker plane as a reference, and the already registered unit displayed by the registration information display unit. An instruction input unit that accepts information for correcting the range of the work site to the range of the work site in the image from the user, and for each point of the range input as the information to be corrected, based on the spatial coordinates, And a three-dimensional position adjustment unit that identifies a work site to be registered by identifying a range determined to match the spatial coordinates of the image.

また、本発明は、マーカ付与された第一対象設備に関して前記情報登録方法により既に登録された作業部位の情報を、当該第一対象設備と同種の第二対象設備に対して流用して拡張現実表示のために登録する情報継続登録方法であって、前記既に登録された作業部位の情報を保存する登録情報保存段階と、マーカ付与された第二対象設備を撮影した画像を奥行マップと紐付けて取得し、当該画像において各画素位置に対応するカメラ基準の空間座標を紐付ける撮影段階と、前記画像より前記マーカの位置を認識するマーカ認識段階と、前記認識されたマーカの平面を基準として、前記画像上に、前記既に登録された作業部位の範囲を表示する登録情報表示段階と、前記登録情報表示段階により表示された前記既に登録された作業部位の範囲を、前記画像における作業部位の範囲へと修正する情報をユーザから受け付ける指示入力段階と、前記修正する情報として入力された範囲の各点に対し、その空間座標に基づいて、前記画像の空間座標と合致していると判定される範囲を特定することにより、登録する作業部位を特定する三次元位置調整段階と、を備えることを特徴とする。   Further, the present invention applies the information on the work site that has already been registered by the information registration method with respect to the first target facility provided with the marker to the second target facility of the same type as the first target facility. An information continuation registration method for registering for display, wherein a registration information storing step for storing information on the already registered work part is associated with an image obtained by imaging a marker-attached second target facility with a depth map. And taking a camera-based spatial coordinate corresponding to each pixel position in the image, a marker recognition stage for recognizing the marker position from the image, and the recognized marker plane as a reference A registration information display stage for displaying a range of the already registered work parts on the image, and a range of the already registered work parts displayed by the registration information display stage. An instruction input step for accepting information to be corrected to the range of the work site in the image from the user, and for each point in the range input as the information to be corrected, the spatial coordinates of the image are matched with the spatial coordinates. And a three-dimensional position adjustment step of specifying a work site to be registered by specifying a range determined to be correct.

さらに、本発明は、コンピュータに前記情報継続登録方法を実行させるプログラムであることを特徴とする。   Furthermore, the present invention is a program for causing a computer to execute the information continuation registration method.

本発明の情報登録装置又は方法若しくはプログラムによれば、マーカ付与された対象設備の画像を奥行マップと紐付けて取得することで各画素位置に対応するカメラ基準の空間座標を取得し、マーカ位置を認識すると共に、ユーザ入力を受けて画像上において作業部位の範囲を設定し、当該設定された範囲内の各点を、その空間座標に基づいて分類するので、ユーザ入力された範囲において、作業部位が対象設備の面から乖離する場合や、作業部位を部分的に隠す構造がある場合であっても、当該分類によって本来の作業部位の箇所を切り出すことができ、ユーザに当該切り出された本来の作業部位の箇所を選択させることができ、当該選択されマーカ基準で特定される箇所を対象として拡張現実データ等の登録が可能となる。   According to the information registration device or method or program of the present invention, the camera-referenced spatial coordinates corresponding to each pixel position are acquired by acquiring an image of the target facility to which the marker is attached in association with the depth map, and the marker position In addition, the range of the work site is set on the image in response to the user input, and each point within the set range is classified based on the spatial coordinates. Even if the part deviates from the surface of the target equipment or there is a structure that partially hides the work part, the original work part can be cut out by the classification, and the original cut out by the user Can be selected, and augmented reality data or the like can be registered for the selected portion specified by the marker criterion.

本発明の情報継続登録装置又は方法若しくはプログラムによれば、前記情報登録装置又は方法により既に登録された作業部位の情報を、同種の対象設備に対して登録するに際して、当該登録対象となる対象設備の画像においてマーカ平面を基準として、既に登録された作業部位を表示し、当該表示に対してユーザより修正させる形で画像における作業部位の範囲を受け付け、当該修正させる形で入力された範囲の空間座標に対して、当該対象設備における画像の空間座標の中で合致していると判定される範囲を特定することで、空間座標に反映された作業部位の形状の一致に基づいて、当該対象設備における作業部位を特定することができる。従って、ユーザの立場では微調整のための修正入力のみで、作業部位の情報を別の対象設備においても流用することができるようになる。   According to the information continuation registration apparatus or method or program of the present invention, when registering information on a work part already registered by the information registration apparatus or method with respect to the same type of target equipment, the target equipment to be registered In this image, the already registered work part is displayed on the basis of the marker plane, the range of the work part in the image is received in a form that is corrected by the user for the display, and the range of the range that is input in the form of the correction By identifying the range determined to match the coordinates in the spatial coordinates of the image of the target equipment with respect to the coordinates, the target equipment is based on the coincidence of the shape of the work site reflected in the spatial coordinates The work site in can be specified. Therefore, from the user's standpoint, the work site information can be diverted to another target facility only by a correction input for fine adjustment.

課題(1)(2)を生じさせる対象機器の写真例(説明付き)である。It is a photograph example (with description) of the object apparatus which produces a subject (1) (2). 課題(2)を模式的に説明する図であり、対象機器を正面から見た際の模式的な図である。It is a figure explaining a subject (2) typically, and is a typical figure at the time of seeing an object apparatus from the front. 課題(2)を模式的に説明する図であり、対象機器を斜めから見た際の、作業領域における立体的な効果を示す模式的な図である。It is a figure explaining a subject (2) typically, and is a mimetic diagram showing the three-dimensional effect in a work area when the object apparatus is seen from the slant. 課題(3)を模式的に説明する図である。It is a figure which illustrates subject (3) typically. 第一実施形態に係る情報登録装置の機能ブロック図である。It is a functional block diagram of the information registration device concerning a first embodiment. 図1の画像の例に対して検出されたマーカを示す図である。It is a figure which shows the marker detected with respect to the example of the image of FIG. 機器範囲入力部において、ユーザが指定する4隅の書き込みの例を示す図である。It is a figure which shows the example of writing of the four corners which a user designates in an apparatus range input part. 指示入力部により、ユーザが作業部位の領域を書き込んで指定する例を示す図である。It is a figure which shows the example which a user writes and designates the area | region of a work part by an instruction | indication input part. 図8にて指定した作業部位の近辺を拡大したものである。FIG. 9 is an enlarged view of the vicinity of the work site specified in FIG. 8. 図6(及び図7、図8)を機器の立面図(に対応する写真)とみたてた時の、平面図(上から見た図)の概念図であり、クラスタリング結果を模式的に説明するための図である。FIG. 6 (and FIG. 7 and FIG. 8) is a conceptual diagram of a plan view (viewed from above) when the device is viewed as an elevation view (corresponding photograph), and the clustering result is schematically shown. It is a figure for demonstrating. ユーザが設定する任意視点により平面候補を選択させる際の画面の例を示す図である。It is a figure which shows the example of the screen at the time of selecting a plane candidate with the arbitrary viewpoints which a user sets. 第二実施形態に係る情報継続登録装置の機能ブロック図である。It is a functional block diagram of the information continuation registration apparatus concerning a second embodiment.

以下、本発明の各実施形態について、図面を用いて詳細に説明する。まず、課題(1)、(2)に関連する第一実施形態を説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. First, a first embodiment related to issues (1) and (2) will be described.

図5は、第一実施形態に係る情報登録装置の機能ブロック図である。情報登録装置10は、撮影部11、マーカ認識部12、機器範囲入力部13、指示入力部14、三次元位置算出部15、相対位置決定部16及び情報登録部17を備える。図5にて、機能部間の矢印の上流側の機能部で取得された情報は、任意の下流側の機能部で利用可能となる。   FIG. 5 is a functional block diagram of the information registration apparatus according to the first embodiment. The information registration device 10 includes an imaging unit 11, a marker recognition unit 12, a device range input unit 13, an instruction input unit 14, a three-dimensional position calculation unit 15, a relative position determination unit 16, and an information registration unit 17. In FIG. 5, the information acquired by the functional unit upstream of the arrow between the functional units can be used by any downstream functional unit.

当該各部の詳細は以下の通りである。   Details of each part are as follows.

撮影部11では、マーカが付与されその作業部位が含まれた対象設備を撮影してその画像データを取得する。この際、同時に奥行きマップも取得する。当該撮影される対象設備は、図1の(a)に例を示したように、予め適切な位置にマーカが貼りつけられている。   The imaging unit 11 captures the target equipment that is provided with the marker and includes the work site, and acquires the image data. At this time, a depth map is also acquired. As shown in the example of FIG. 1 (a), the target equipment to be photographed has markers attached in advance at appropriate positions.

ここで、奥行きマップは、例えば既存の赤外線センサの計測に基づく手法や、可視光カメラを2つ以上並列に並べたステレオカメラの対応点検出に基づく手法等の周知手法により取得できる。当該奥行きマップを取得可能な具体的なデバイスとして例えば、カメラとデプスセンサとが備わる以下のURLに開示のタブレット等を利用することができる。
http://techcrunch.com/2014/06/05/googles-project-tango-tablet-is-a-1024-7-inch-tegra-k1-powered-device-with-depth-sensing/
Here, the depth map can be acquired by a known method such as a method based on measurement of an existing infrared sensor or a method based on corresponding point detection of a stereo camera in which two or more visible light cameras are arranged in parallel. As a specific device capable of acquiring the depth map, for example, a tablet disclosed in the following URL equipped with a camera and a depth sensor can be used.
http://techcrunch.com/2014/06/05/googles-project-tango-tablet-is-a-1024-7-inch-tegra-k1-powered-device-with-depth-sensing/

また、撮影部11にて取得の際に、可視光カメラによる画像と奥行きマップのピクセル上の位置(u,v)の対応を取っておく。すなわち、任意の画素(u,v)(ピクセル)に対して、色の画素値(RGB)に加えて、奥行マップd(u, v)を変換することにより、カメラ中心を基準値とした実空間の座標上の位置(x,y,z)(mm)が利用できる。例えば、xはカメラ平面に対して右向き、yはカメラ平面に対して上向き、zはカメラ平面に対して奥行に関する座標情報となる。可視光カメラを基準とした座標(x, y, z)と奥行マップd(u, v)の対応付けは、例えば以下の非特許文献1に記載のRGBDemoによる手法を利用できる。なお、z=d(u, v)である。   Further, at the time of acquisition by the photographing unit 11, a correspondence between the image by the visible light camera and the position (u, v) on the pixel of the depth map is reserved. That is, for an arbitrary pixel (u, v) (pixel), in addition to the color pixel value (RGB), the depth map d (u, v) is converted, so that the actual value with the camera center as the reference value is obtained. The position (x, y, z) (mm) on the space coordinates can be used. For example, x is rightward with respect to the camera plane, y is upward with respect to the camera plane, and z is coordinate information regarding the depth with respect to the camera plane. For example, the RGBDemo method described in Non-Patent Document 1 below can be used for associating the coordinates (x, y, z) with the reference to the visible light camera and the depth map d (u, v). Note that z = d (u, v).

[非特許文献1] : RGBDemo
http://labs.manctl.com/rgbdemo/index.php/Documentation/KinectCalibrationTheory
[Non-Patent Document 1]: RGBDemo
http://labs.manctl.com/rgbdemo/index.php/Documentation/KinectCalibrationTheory

続いてマーカ認識部12では、撮影部11で取得した画像からマーカを検出する。マーカ検出法は、例えば、以下の非特許文献2に記載のARToolKitによる手法を利用できる。
[非特許文献2]:ARToolKit: http://www.hitl.washington.edu/artoolkit/
Subsequently, the marker recognizing unit 12 detects the marker from the image acquired by the photographing unit 11. As the marker detection method, for example, a method using ARToolKit described in Non-Patent Document 2 below can be used.
[Non-Patent Document 2]: ARToolKit: http://www.hitl.washington.edu/artoolkit/

図6に、図1の画像の例に対して検出されたマーカを示す。当該検出されたマーカに関して、例えば4隅の位置情報(ui,vi,xi,yi,zi;i=1, 2, 3, 4;2次元画像上の位置およびカメラからの3次元位置)を保存する。なお、マーカ検出は画素(u,v)の値のみで可能であり、当該画素(u, v)の位置として検出されたマーカの4隅の位置に、予め撮影部11で紐付られているカメラ基準の3次元位置(x, y, z)を加えることで、上記情報(ui,vi,xi,yi,zi)が得られる。   FIG. 6 shows the detected markers for the example image of FIG. For the detected marker, for example, position information (ui, vi, xi, yi, zi; i = 1, 2, 3, 4; position on a two-dimensional image and three-dimensional position from the camera) is stored. To do. Note that marker detection is possible only with the value of the pixel (u, v), and the camera linked in advance by the photographing unit 11 at the positions of the four corners of the marker detected as the position of the pixel (u, v). By adding the reference three-dimensional position (x, y, z), the above information (ui, vi, xi, yi, zi) can be obtained.

機器範囲入力部13では、マーカ認識部12でマーカ認識された画像を対象として、マーカに対する機器(対象設備)の全体の位置をユーザに入力させて、その画素上の2次元位置(u, v)および対応する3次元位置(x, y, z)を保存する。ここで、入力は画素(u, v)を介してユーザに行わせることで、予め撮影部11で紐付けられている対応する3次元位置(x, y, z)が自動取得される。   The device range input unit 13 allows the user to input the entire position of the device (target equipment) with respect to the marker for the image recognized by the marker recognition unit 12, and the two-dimensional position (u, v) on the pixel. ) And the corresponding three-dimensional position (x, y, z). Here, the input is performed by the user via the pixel (u, v), and the corresponding three-dimensional position (x, y, z) linked in advance by the photographing unit 11 is automatically acquired.

具体的には例えば、画像をディスプレイに表示し、タッチパネルやマウスを利用することでユーザに対して機器の4隅を指定させる。当該ユーザが指定する4隅の書き込みの例を図7に示す。図7では、図6で示した[0]に示すマーカ検出された画像において、[1]〜[4]で示すようなユーザが書き込みをしたカギ型により4隅が指定されている。なお、機器範囲入力部13は省略されてもよい。   Specifically, for example, an image is displayed on a display, and the user is allowed to specify four corners of the device by using a touch panel or a mouse. FIG. 7 shows an example of writing at the four corners designated by the user. In FIG. 7, four corners are designated by a key shape written by the user as shown in [1] to [4] in the image detected by the marker shown in [0] shown in FIG. 6. Note that the device range input unit 13 may be omitted.

指示入力部14では、拡張現実表示等をするための部位としてユーザが所望する(あるいは作業マニュアル等に予め設定されている)作業部位を指定するために、撮影部11で得た後にマーカ認識部12等の処理を経た画像に対して、マーカとの相対位置の入力をユーザより受け付ける。   The instruction input unit 14 obtains the marker recognition unit after obtaining it by the imaging unit 11 in order to designate a work part desired by the user (or set in advance in a work manual or the like) as a part for displaying augmented reality or the like. An input of a relative position with respect to the marker is received from the user for the image that has undergone the processing of 12 or the like.

具体的には画像をディスプレイに表示し、ユーザはタッチパネルやマウスを利用して、作業部位に相当する一連の画素(u, v)を指定することにより、位置情報の書き込みができる。マーカ位置は既に認識されているので、当該指定によりマーカとの相対位置も自動で取得されることとなる。   Specifically, an image is displayed on the display, and the user can write position information by designating a series of pixels (u, v) corresponding to the work site using a touch panel or a mouse. Since the marker position has already been recognized, the relative position to the marker is automatically acquired by the designation.

作業部位を指定するためには、長方形、円形、楕円形その他の所定の幾何形状モデルが利用可能となっており、ユーザは所望の幾何形状モデルを選択して、種々の編集を加えることにより、一連の領域としての作業部位を画素(u, v)上に指定する。編集としては、平行移動、回転、拡大、射影変換等が利用可能であり、それらのパラメータはスライドバー等でユーザが調整可能となっている。また、既に指定した領域の中から、削除(指定対象から解除)するような編集も可能である。なお、作業部位の形状が予め決まっていれば、当該形状をパラメータ調整可能な幾何モデルとして用意しておくことが好ましい。   In order to specify the work site, a predetermined geometric model such as a rectangle, a circle, an ellipse or the like is available, and the user selects a desired geometric model and performs various edits. A work site as a series of areas is designated on the pixel (u, v). As editing, translation, rotation, enlargement, projective transformation, and the like can be used, and the parameters can be adjusted by the user with a slide bar or the like. In addition, it is possible to perform editing such as deletion (cancellation from the designation target) from the already designated area. If the shape of the work site is determined in advance, it is preferable to prepare the shape as a geometric model whose parameters can be adjusted.

指示入力部14により、ユーザが作業部位の領域を書き込んで指定する例(図6以降の一連の例に対応する例)を、図8に示す。[5]に示すように、ここでは矩形枠組みの形で、作業部位が指定されている。なお、当該矩形枠組みは幾何モデルとして予め用意しておいて入力するようにしてもよいし、大きな長方形の全体を指定したうえで、その内部から小さな長方形を指定解除することによって入力するようにしてもよいし、枠組みの4辺をそれぞれ長細い矩形として入力したものを組み合わせるようにしてもよい。   FIG. 8 shows an example (an example corresponding to a series of examples from FIG. 6 onward) in which the user writes and designates the region of the work site by the instruction input unit 14. As shown in [5], the work site is specified here in the form of a rectangular frame. The rectangular frame may be prepared and input in advance as a geometric model, or it may be input by designating the entire large rectangle and then deselecting the small rectangle from the inside. Alternatively, a combination of the four sides of the frame that are input as long and thin rectangles may be combined.

なお、図8の例では、作業部位のポートは、外形が長方形であり、内部に長方形の凹部があることで、当該矩形形状の枠組みの縁が形成されている、という形状であることを前提に、中空の矩形枠組みで作業部位の指定がなされている。そのような中空の構造を取らない作業部位であれば、例えば穴のない長方形として作業部位を指定してもよく、それぞれの個別具体的な作業部位の形状に応じて、指定をすればよい。   In the example of FIG. 8, it is assumed that the port of the work site has a shape in which the outer shape is rectangular and the edge of the rectangular frame is formed by having a rectangular recess inside. In addition, the work site is designated by a hollow rectangular frame. If the work site does not have such a hollow structure, the work site may be designated as a rectangle without a hole, for example, and may be designated according to the shape of each individual specific work site.

図9は、図8にて指定した作業部位の近辺を拡大したものである。図9より見て取れるように、前述の課題(1)が生じている。すなわち、指定範囲内のポートの前面にケーブルが存在することによりポートの一部が隠れてしまい、ポート全面が撮影されていない。また、このようなポートは、図9では正面から撮影されているので見て取れないものの立体形状であるため、前述の課題(2)も生じさせる。   FIG. 9 is an enlarged view of the vicinity of the work site specified in FIG. As can be seen from FIG. 9, the above-mentioned problem (1) occurs. That is, the presence of a cable in front of a port within the specified range hides part of the port, and the entire port surface is not photographed. In addition, since such a port is a three-dimensional shape that cannot be seen because it is taken from the front in FIG. 9, the above-described problem (2) also occurs.

このように一部分が隠れている場合があり、立体構造となっている作業部位としてのポートの領域を適切に見つけ出すために、三次元位置算出部15では、指示入力部14で取得したユーザ書き込み領域(u, v)が表している一連の3次元の点(x,y,z)を対象として、クラスタ分類を行う。空間座標(x, y, z)を対象としたクラスタ分類により、ユーザ書き込み領域(u, v)において立体構造で分かれている各部分を分離することが可能となる。   In this way, in order to appropriately find a port area as a work part having a three-dimensional structure that may be partially hidden, the three-dimensional position calculation unit 15 uses a user writing area acquired by the instruction input unit 14. Cluster classification is performed on a series of three-dimensional points (x, y, z) represented by (u, v). Cluster classification for spatial coordinates (x, y, z) makes it possible to separate the parts separated by the three-dimensional structure in the user writing area (u, v).

クラスタ分類手法としては、しきい値による分類や、一般的な教師なしクラスタ分類手法のK-means法を利用して自動的に分類することができる。分類の数Kは固定(例えばK=4)でもよいし、ユーザに選択させても良い。また複数のKを試し、各クラスタのクラス間分散の総和を各クラスタのクラス内分散の総和で除した値が最大値を取るKなど、統計的に算出した値を利用してもよい。   As a cluster classification method, classification can be performed automatically using threshold classification or the K-means method of a general unsupervised cluster classification method. The number K of classifications may be fixed (for example, K = 4) or may be selected by the user. Alternatively, a plurality of K may be tried, and a statistically calculated value such as K in which a value obtained by dividing the sum of variances between classes of each cluster by the sum of variances within the class of each cluster may be used.

また、図8、図9の例のように、ポートがオス型メス型等の凹凸がある型である場合に、当該型にフィットする矩形枠組み領域上の点を利用することで、正確に対象部位の3次元位置を登録できる。その他の形状である場合も、適切にフィットする形状を用いることで、正確に対象部位の3次元位置を登録できる。   In addition, when the port is a type having an irregularity such as a male type female type as in the examples of FIGS. 8 and 9, the point on the rectangular frame region that fits the type can be accurately used. The 3D position of the part can be registered. Even in the case of other shapes, the three-dimensional position of the target part can be accurately registered by using a shape that fits appropriately.

当該クラスタリングの際、一実施形態では、マーカ認識部12にて先に検出したマーカ位置の3次元位置から、三次元位置算出部15においてマーカ平面を算出しマーカ平面と平行な平面群(平行と判定できる平面群)として分類することができる。すなわち、分類された3次元位置の一連の点を平面フィッティングすると、所定基準でマーカ平面と平行になっていると判定できるような形で、分類を行う。   At the time of the clustering, in one embodiment, the three-dimensional position calculation unit 15 calculates a marker plane from the three-dimensional position of the marker position previously detected by the marker recognition unit 12, and a group of planes parallel to the marker plane (in parallel) Plane group that can be determined). That is, classification is performed in such a way that when a series of points at the classified three-dimensional position are plane-fitted, it can be determined that they are parallel to the marker plane on a predetermined basis.

なお、当該実施形態では、その位置情報を登録しようとしている作業部位は、マーカが貼られた対象設備の面とは乖離した、当該面と平行な面(所定基準で平行と判定できる面)上にあることを前提としている。また、貼りつけられていることによりマーカ平面は対象設備の面と一致(所定基準で一致と判定できる)していることを前提としている。   In this embodiment, the work site for which the position information is to be registered is on a plane parallel to the plane (a plane that can be determined to be parallel based on a predetermined reference) that is separated from the plane of the target facility on which the marker is attached. It is assumed that In addition, it is assumed that the marker plane matches the surface of the target facility by being attached (can be determined to match on a predetermined standard).

マーカ平面に平行な平面群に分類する一実施形態として、例えば、3次元座標(x, y, z)の値ではなく、奥行値zを各点を表す値としてクラスタリングする(奥行値zのみに基づいてクラスタリングする)ことで、マーカ平面と平行な平面群に分類することができる。なお、ここで前提として、撮影部11においては対象設備の前面にマーカを張り付け、概ね正面から撮影しているものとする。   As an embodiment for classifying into a plane group parallel to the marker plane, for example, the depth value z is clustered as a value representing each point instead of the value of the three-dimensional coordinates (x, y, z) (only the depth value z). (Based on clustering), it can be classified into a plane group parallel to the marker plane. Here, as a premise, it is assumed that the photographing unit 11 attaches a marker to the front surface of the target facility and photographs from the front.

また、マーカ平面に平行な平面群に分類する一実施形態として、マーカ平面に垂直な軸の方向における位置によってクラスタリングを行うようにしてもよい。すなわち、各点の3次元座標(x, y, z)を、マーカ平面に垂直なある軸に投影(マーカ平面に水平な向きに移動することで投影)し、当該軸上の位置に基づいて各点をクラスタリングしてもよい。なお、マーカ平面を撮影部11が真正面から撮影している場合は、当該実施形態は上記の奥行値zでクラスタリングする実施形態に一致する。   Further, as an embodiment for classifying into a plane group parallel to the marker plane, clustering may be performed according to the position in the direction of the axis perpendicular to the marker plane. That is, the three-dimensional coordinates (x, y, z) of each point are projected onto an axis perpendicular to the marker plane (projected by moving in a horizontal direction on the marker plane), and based on the position on the axis Each point may be clustered. In addition, when the imaging | photography part 11 image | photographs the marker plane from the front, the said embodiment corresponds with embodiment clustered by said depth value z.

以上、マーカ平面に平行な平面群に分類する各実施形態において、平面の検出方法は例えば、マーカの4隅の3次元位置から最小二乗法等を利用して統計的に平面を推定してもよいし、マーカ領域内の一連の3次元位置を利用して最小二乗法等を利用して統計的に平面を推定してもよい。   As described above, in each embodiment classified into the plane group parallel to the marker plane, the plane detection method may be, for example, that the plane is statistically estimated from the three-dimensional positions of the four corners of the marker using the least square method or the like. Alternatively, the plane may be statistically estimated using a least square method or the like using a series of three-dimensional positions in the marker region.

また、機器範囲入力部13を利用したことにより装置領域の入力がある場合は、その4隅の3次元位置により、あるいは当該4隅内全体より、上記同様に最小二乗法等を利用して統計的に平面を推定した結果をマーカ平面と見なして利用してもよい。   In addition, when there is an input of the device area by using the device range input unit 13, statistics are obtained by using the least-squares method or the like from the three-dimensional positions of the four corners or from the whole of the four corners as described above. Alternatively, the result of estimating the plane may be used as the marker plane.

また、特にマーカ平面は利用しないが、3次元座標(x, y, z)の各点の空間分布を考慮してクラスタリングする実施形態として、次が可能である。   Although the marker plane is not particularly used, the following is possible as an embodiment in which clustering is performed in consideration of the spatial distribution of each point of the three-dimensional coordinates (x, y, z).

一実施形態では、3次元座標(x, y, z)の点群に対して主成分分析(PCA)を行い、主成分となる2次元軸を算出し、そのうちの第一軸を基準にして3次元座標の点群をクラスタリングするようにしてよい。当該所定の軸方向のクラスタリングは、当該方向を対象として、前述のマーカ平面に垂直な軸の方向のクラスタリングで説明したのと同様に行えばよい。なお、PCAにより第一軸と第二軸はそれぞれ垂直になる。   In one embodiment, principal component analysis (PCA) is performed on a point cloud of three-dimensional coordinates (x, y, z) to calculate a two-dimensional axis that is a principal component, with the first axis as a reference. You may make it cluster the point group of a three-dimensional coordinate. The clustering in the predetermined axial direction may be performed in the same manner as described in the clustering in the direction of the axis perpendicular to the marker plane described above for the direction. Note that PCA makes the first axis and the second axis vertical.

一実施形態では、ユーザがマニュアル作業によって平面図等を参照してクラスタリングの角度を指定したうえで、当該指定された角度の軸方向でクラスタリングを行ってもよい。当該所定の軸方向のクラスタリングは、当該方向を対象として、前述のマーカ平面に垂直な軸の方向のクラスタリングで説明したのと同様に行えばよい。平面図に関しては、次に説明する図10のようなものと同様のものをユーザに提示すればよい。あるいは、平面図ではなく後述の図11のような任意視点の図をユーザに提示してもよい。ユーザは当該提示された3次元的な図を参照して直接、所望の方向を指定することができる。   In one embodiment, the clustering may be performed in the axial direction of the designated angle after the user designates a clustering angle by referring to a plan view or the like by manual work. The clustering in the predetermined axial direction may be performed in the same manner as described in the clustering in the direction of the axis perpendicular to the marker plane described above for the direction. As for the plan view, the same thing as that shown in FIG. 10 described below may be presented to the user. Or you may show a user the figure of the arbitrary viewpoints like FIG. 11 mentioned later instead of a top view. The user can directly specify a desired direction with reference to the presented three-dimensional diagram.

図10は、図6(及び図7、図8)を機器の立面図(に対応する写真)とみたてた時の、平面図(上から見た図)の概念図である。すなわち、図6等では機器をその作業対象となる前面から真っすぐ見ている状態に対応するのに対し、図10は当該機器を真上から見ることで、機器の前面に平行な方向で見ている状態の概念図であり、クラスタリング結果を模式的に説明するための図である。ここでは、マーカ平面に平行な平面群に分類した場合を例としている。   FIG. 10 is a conceptual diagram of a plan view (viewed from above) when FIG. 6 (and FIGS. 7 and 8) is regarded as an elevation view of the device (a corresponding photograph). 6 corresponds to a state in which the device is seen straight from the front surface to be worked on, whereas FIG. 10 shows the device viewed from directly above so that it can be viewed in a direction parallel to the front surface of the device. It is a conceptual diagram of the state which is in order to explain a clustering result typically. Here, the case where it classify | categorizes into the plane group parallel to a marker plane is taken as an example.

図10では、[1]にマーカ平面が示され、[2]〜[4]の点線の丸で囲まれた部分がクラスタリング対象となる一連の3次元座標の各々の帰属を表し、[5]がクラスタリング結果の説明を示している。[3]に示すユーザが入力した矩形枠組みに対応する3次元座標点は、実際にはそれぞれ[2]の装置平面(マーカを貼りつけるのでマーカ平面と一致)と、[3]の本来のポート部分と、[4]の本来のポート部分が見えるのを邪魔しているケーブル部分と、に対応するものであり、[5]に示すように、平面の向きを考慮したクラスタリングによってそのような実際の立体構造を反映した本来の各部分に(クラスタリング結果の平面C1, C2, C3)適切に分類されている。   In FIG. 10, a marker plane is shown in [1], and a portion surrounded by dotted circles [2] to [4] represents the attribution of each of a series of three-dimensional coordinates to be clustered, [5] Shows an explanation of the clustering result. The 3D coordinate points corresponding to the rectangular framework entered by the user shown in [3] are actually the device plane in [2] (which matches the marker plane because the marker is pasted) and the original port in [3] And the cable part that prevents the original port part of [4] from being seen, and as shown in [5] Are properly classified into the original parts reflecting the three-dimensional structure (planes C1, C2, and C3 of the clustering result).

すなわち、[5]のようにマーカ平面を基準に、マーカ平面と平行に3平面(クラスタリング結果の平面C1, C2,C3)に分類され、その結果が出力される。なお、出力の標準値(初期値)はマーカ平面と最も距離が小さい平面(ここでは実際にマーカ平面P1に一致している平面C1)とすればよい。   That is, as shown in [5], with reference to the marker plane, the plane is classified into three planes (planes C1, C2, and C3 of the clustering result) parallel to the marker plane, and the result is output. The standard value (initial value) of the output may be a plane that is the shortest distance from the marker plane (here, the plane C1 that actually matches the marker plane P1).

なお、抽出したい本来の作業領域に対して、画素(u, v)上においてある程度広い領域を指示入力部14においてユーザ入力で指定しておくことにより、図10に模式的に示すような分類結果が得られることとなる。   Note that the classification result as schematically shown in FIG. 10 can be obtained by designating a certain extent area on the pixel (u, v) by the user input in the instruction input unit 14 with respect to the original work area to be extracted. Will be obtained.

相対位置決定部16では、三次元位置算出部15で出力された複数の作業部位の平面候補をユーザに提示し、ユーザに対して作業部位の平面を選択させることで、複数の中から本来の作業部位となる平面を決定する。なお、ユーザによる選択が省略された場合は、前述の三次元位置算出部15による出力の標準値(初期値)、すなわちマーカ平面と最も距離が小さい平面を選択結果とすればよい。   The relative position determination unit 16 presents a plurality of work site plane candidates output from the three-dimensional position calculation unit 15 to the user, and allows the user to select a plane of the work site. Determine the plane that will be the work site. When selection by the user is omitted, the standard value (initial value) of the output by the above-described three-dimensional position calculation unit 15, that is, the plane having the shortest distance from the marker plane may be selected.

ユーザが平面を選択すると、相対位置決定部16では、指示入力部14においてユーザが画像(u, v)上の範囲として入力した作業部位の範囲が、従来技術における登録のようにマーカ平面上にあるのではなく、当該ユーザが選択した平面上にあるものとして、当該作業部位の範囲の空間座標(x, y, z)を決定する。当該決定された空間座標(x, y, z)は情報登録部17に登録され、その位置情報に基づいて拡張現実表示等が可能となる。   When the user selects a plane, the relative position determination unit 16 displays the range of the work site that the user inputs as the range on the image (u, v) in the instruction input unit 14 on the marker plane as in the registration in the prior art. Instead, the spatial coordinates (x, y, z) of the range of the work site are determined as being on the plane selected by the user. The determined spatial coordinates (x, y, z) are registered in the information registration unit 17, and augmented reality display or the like can be performed based on the position information.

ここで、当該決定された作業部位の範囲の空間座標(x, y, z)は、マーカ平面を基準として設定されるが、マーカ平面上には乗っていない範囲となる。例えば、図3の例であれば、平面P1から突出しているポートW1の前面を作業部位の範囲として登録する場合、マーカM1を基準として定まる平面P1(が定める空間座標)を基準として、その位置情報が設定されることとなる。なお、ユーザ選択した平面がマーカ平面と一致していた場合には、結果的に、従来技術と同様にマーカ平面上に作業部位がある(マーカ平面上に作業部位が乗っている)ものとして登録されることとなる。   Here, the spatial coordinates (x, y, z) of the determined range of the work site are set with reference to the marker plane, but are not on the marker plane. For example, in the example of FIG. 3, when the front surface of the port W1 protruding from the plane P1 is registered as the work site range, the position is determined with reference to the plane P1 (spatial coordinates determined by the marker M1). Information will be set. If the plane selected by the user matches the marker plane, as a result, it is registered that the work site is on the marker plane (the work site is on the marker plane) as in the prior art. Will be.

なお、マーカ平面及びマーカ位置(その四隅など)は三次元位置算出部15等においてカメラ基準の空間座標(x, y, z)内のものとして算出されている、ユーザの選択した平面も同様にして、カメラ基準の空間座標(x, y, z)内のものとして相対位置決定部16が算出すればよい。当該両平面の情報を用いて、指示入力部14において画素(u,v)上の領域として入力したものに対応する作業部位の範囲の空間座標(x, y, z)を、マーカ平面を基準に、また、拡張現実表示を可能とすべくマーカを基準に、ユーザ選択した平面上にあるものとして設定することができる。   It should be noted that the marker plane and the marker position (such as the four corners thereof) are calculated by the three-dimensional position calculation unit 15 and the like as those in the camera-based spatial coordinates (x, y, z), and the plane selected by the user is the same. Thus, the relative position determination unit 16 may calculate the value within the camera-based spatial coordinates (x, y, z). Using the information on the two planes, the spatial coordinates (x, y, z) of the range of the work site corresponding to the area input as the area on the pixel (u, v) in the instruction input unit 14 is referred to the marker plane. In addition, it can be set as being on the plane selected by the user on the basis of the marker to enable the augmented reality display.

ユーザに当該選択させる際には、種々の表示形式を利用することができる。例えば、前述の図10に示すような平面図の形式で、[5]に示すように平面C1, C2, C3の中からユーザに選択させることができる。この場合、平面C1はマーカ平面と一致している旨も、図10に示すように表示することでユーザに把握可能とさせることができる。なお、図10のような平面図は、撮影部11で取得済みのカメラ基準座標値(x, y, z)から作成することができる。   When the user makes the selection, various display formats can be used. For example, in the form of a plan view as shown in FIG. 10, the user can select from the planes C1, C2, and C3 as shown in [5]. In this case, the fact that the plane C1 is coincident with the marker plane can also be grasped by the user by displaying as shown in FIG. Note that the plan view as shown in FIG. 10 can be created from the camera reference coordinate values (x, y, z) acquired by the photographing unit 11.

例えば、図8及び図9のように矩形枠組みの領域(u, v)として入力したポート(作業部位)に対して、図10の平面C2を選択した場合、当該矩形枠組みの領域(u, v)が全て平面C2上にあるものとしてその3次元座標(x, y, z)が登録される。作業部位としてその他の形状(u, v)を入力した場合も全く同様である。当該登録された作業部位の3次元座標(x, y, z)は、マーカ基準の座標によって、マーカ平面と平行な何らかの平面上にあるものとして与えられることで、当該登録された作業部位の領域において拡張現実表示等が可能となる。   For example, when the plane C2 of FIG. 10 is selected for the port (working part) input as the rectangular frame region (u, v) as shown in FIGS. 8 and 9, the rectangular frame region (u, v) is selected. ) Are all on the plane C2, and their three-dimensional coordinates (x, y, z) are registered. The same applies when another shape (u, v) is entered as the work site. The three-dimensional coordinates (x, y, z) of the registered work part are given as being on some plane parallel to the marker plane according to the marker reference coordinates, so that the region of the registered work part The augmented reality display and the like can be performed.

なお、マーカ平面と作業部位の平面が平行でない場合は、上記平面図で確認できるクラスタ分類結果を元に、ユーザが任意に作業部位の3次元位置を指定しても良い。マーカ平面と作業部位の相対位置は、例えば、マーカ平面の左上を原点として3次元空間を設定し、3次元空間上の位置として保存する。   If the marker plane and the plane of the work part are not parallel, the user may arbitrarily designate the three-dimensional position of the work part based on the cluster classification result that can be confirmed from the above plan view. The relative position between the marker plane and the work site is stored as a position in the three-dimensional space, for example, by setting a three-dimensional space with the upper left corner of the marker plane as the origin.

また、クラスタリング結果の選択は、図10のような平面図の形式の他にも、分類された複数の平面候補を、その3次元座標の値によって実際に空間に配置して、ユーザが選択できるようにしてもよい。すなわち、平面図はある特定の視点として、対象設備前面を真上から見た状態に相当するが、ユーザが設定可能な任意視点で見た状態により、平面候補をユーザに選択させるようにしてもよい。なお、当該任意視点で見た状態による表示は、3次元CAD等の分野において周知であり、当該任意視点をユーザが自由に動かして空間内の各平面候補を把握可能とすることができる。   In addition to the plan view format as shown in FIG. 10, the clustering result can be selected by the user by actually arranging a plurality of classified plane candidates in the space according to their three-dimensional coordinate values. You may do it. That is, the plan view corresponds to a state where the front surface of the target facility is viewed from directly above as a specific viewpoint, but the plane candidate may be selected by the user according to a state viewed from an arbitrary viewpoint that can be set by the user. Good. The display according to the state viewed from the arbitrary viewpoint is well known in the field of 3D CAD and the like, and the user can freely move the arbitrary viewpoint to grasp each plane candidate in the space.

図11に、ユーザが設定する当該任意視点により平面候補を選択させる際の画面の例を示す。当該図11の例は、図10の例と対応している。図11では、クラスタリング結果の平面C1, C2, C3がそれぞれ空間的に表示されている。平面C1については、マーカ平面P1と共通である(マーカ平面P1内に平面C1がある)ことが空間的に表示されている。   FIG. 11 shows an example of a screen when plane candidates are selected from the arbitrary viewpoint set by the user. The example of FIG. 11 corresponds to the example of FIG. In FIG. 11, the planes C1, C2, and C3 of the clustering result are spatially displayed. The plane C1 is spatially displayed to be common with the marker plane P1 (the plane C1 is in the marker plane P1).

また、当該図11に示すような任意視点で表示された平面C1, C2, C3を提示するに際して、その表面に、対応する撮影部11で取得した画素(RGB値等としての画素)を張り付けることで、各平面が実際の写真上では何に対応しているのかを、ユーザが把握可能となるようにしてもよい。こうして、ユーザは立体表示された平面C1上に対象設備の前面部分の写真を、平面C2上にポート部分の写真を、平面C3上にケーブル部分の写真を、それぞれ実際に確認することで、より確実に平面C2を選択することができる。より確実に確認できるようさらに、マーカ平面P1上に対象設備の前面部分の写真を張り付けるようにしてもよい。   Further, when the planes C1, C2, and C3 displayed at an arbitrary viewpoint as shown in FIG. 11 are presented, pixels (pixels as RGB values or the like) acquired by the corresponding photographing unit 11 are pasted on the surfaces. Thus, the user may be able to grasp what each plane corresponds to on the actual photograph. In this way, the user can actually confirm the photograph of the front part of the target equipment on the three-dimensional plane C1, the photograph of the port part on the plane C2, and the photograph of the cable part on the plane C3. The plane C2 can be selected with certainty. In addition, a photograph of the front part of the target facility may be pasted on the marker plane P1 so that confirmation can be made more reliably.

なお、表面に対応する写真の部分を当該張り付ける手法としては、以下の非特許文献3に開示の手法等を利用すればよい。
[非特許文献3]:PCL - Point Cloud Library (PCL) [URL; pointcloud.org]
Note that, as a technique for pasting a portion of a photograph corresponding to the surface, a technique disclosed in Non-Patent Document 3 below may be used.
[Non-Patent Document 3]: PCL-Point Cloud Library (PCL) [URL; pointcloud.org]

情報登録部17は、相対位置決定部16にて選択されることで、マーカを基準としてその空間的な相対位置(及び範囲)が決定した当該作業部位に対して、ユーザ入力により、当該作業部位に関する作業指示その他の、作業に関連する情報を紐付けて登録する。当該登録に際しては、拡張現実表示等が可能な形で、表示する情報を登録してもよい。なお、作業に関連する情報は、ユーザがマニュアル入力するのに代えて、作業IDのみ等を入力することで、別途のサーバ等から作業に関連する情報が自動で取得されるようにしていてもよい。   The information registration unit 17 is selected by the relative position determination unit 16, and the work site is determined by user input with respect to the work site whose spatial relative position (and range) is determined with reference to the marker. Register work instructions and other information related to work. In the registration, information to be displayed may be registered in a form that enables augmented reality display or the like. Information related to work may be automatically acquired from a separate server etc. by entering only the work ID etc. instead of being manually input by the user. Good.

以上、図5の各部を説明した。ユーザが実際にある1つの対象設備の各作業部位に関して登録を行う場合には、次のようにすればよい。すなわち、当該対象設備について撮影部11により1枚の奥行マップ付きの画像を取得してマーカ認識部12によりマーカ認識したうえで、当該マーカ認識された1画像を対象として、登録する作業部位ごとに指示入力部14、三次元位置算出部15、相対位置決定部16及び情報登録部17を実行すればよい。機器範囲入力部13については、当該マーカ認識された1画像を対象として1回実行すれば、その情報を登録する作業部位の各々において共通して利用することができる。   In the above, each part of FIG. 5 was demonstrated. When a user performs registration regarding each work site of one actual target facility, the following may be performed. That is, after acquiring an image with a depth map for the target equipment by the imaging unit 11 and performing marker recognition by the marker recognition unit 12, for each work site to be registered for one image recognized by the marker The instruction input unit 14, the three-dimensional position calculation unit 15, the relative position determination unit 16, and the information registration unit 17 may be executed. The device range input unit 13 can be used in common in each of the work sites to register the information if it is executed once for one image recognized by the marker.

なお、情報登録装置10においては、(制約1)対象設備における作業部位が対象設備の面から乖離する場合、且つ、(制約2)作業部位を部分的に隠す構造がある場合、に対処して作業部位の情報を登録することが可能であるが、当該制約1,2の片方のみのが課された場合、あるいは当該制約1,2のいずれも課されていない場合、であっても、全く同様の動作により作業部位の情報を登録することが可能である。   In the information registration device 10, (Restriction 1) When the work site in the target facility deviates from the surface of the target facility, and (Restriction 2) When there is a structure that partially hides the work site, Although it is possible to register information on the work site, even if only one of the constraints 1 and 2 is imposed, or if neither of the constraints 1 and 2 is imposed, It is possible to register work site information by a similar operation.

なお、制約1,2の片方のみが課されている場合、両者が課された場合よりもクラスタリング結果の数が減ることとなる。制約1,2のいずれも課されていない場合、さらにクラスタリング結果の数が減ることとなる。   When only one of the constraints 1 and 2 is imposed, the number of clustering results is reduced as compared with the case where both are imposed. If neither of the constraints 1 and 2 is imposed, the number of clustering results is further reduced.

次に、課題(3)に関連する第二実施形態を説明する。課題(3)に関して図4で説明したように、第二実施形態では、次を前提とする。すなわち、第一実施形態の情報登録装置10によって、既にある対象設備E1の1箇所以上の作業部位Ri(i=1, 2, … , n)に対して、張り付けたマーカM1に対する相対位置がRM1i(i=1, 2, … , n)決定され、当該決定された位置において作業等に関連する情報が登録されている。   Next, a second embodiment related to the problem (3) will be described. As described in FIG. 4 regarding the problem (3), the second embodiment assumes the following. That is, by the information registration apparatus 10 of the first embodiment, the relative position with respect to the marker M1 attached to one or more work parts Ri (i = 1, 2,..., N) of the existing target equipment E1 is RM1i. (i = 1, 2,..., n) is determined, and information related to work or the like is registered at the determined position.

そして、第二実施形態においては、次の実現を目指す。すなわち、当該登録済みの対象設備E1と同種類(メーカー型番等が同一で、同一形状であるもの)の対象設備E2において、ユーザがマニュアルで対象設備E1にマーカM1を貼りつけたのと概ね同じ位置に同一種類のマーカM2を張り付けた場合に、既に決定されている相対位置RM1i(i=1, 2, … , n)の情報を流用することを目指す。   And in 2nd embodiment, it aims at the next realization. In other words, in the target equipment E2 of the same type (the manufacturer model number is the same and the same shape) as the registered target equipment E1, it is almost the same as when the user manually pasted the marker M1 to the target equipment E1. When the same type of marker M2 is attached to the position, the information of the already determined relative position RM1i (i = 1, 2,..., N) is used.

この際、相対位置RM1i(i=1, 2, … , n)の情報をそのまま流用すると、図4で説明したように、マーカM2を設備E2にマニュアルで張り付けた際の誤差(マーカM1を設備E2に貼りつけた位置との誤差)がそのまま反映されて拡張現実表示等を行うための位置がずれてしまう。そこで、相対位置RM1i(i=1, 2, … , n)の情報を流用して既に登録済みの作業の内容を活かすようにして、当該流用に伴う誤差(位置ずれ)を解消するようにするのが、第二実施形態である。   At this time, if the information of the relative position RM1i (i = 1, 2,..., N) is used as it is, as described in FIG. 4, an error when the marker M2 is manually attached to the equipment E2 (the marker M1 is installed in the equipment). (The error with the position pasted on E2) is reflected as it is, and the position for performing augmented reality display or the like shifts. Therefore, the information of the relative position RM1i (i = 1, 2,..., N) is diverted to make use of the contents of the already registered work so as to eliminate the error (positional deviation) associated with the diversion. This is the second embodiment.

図12は、第二実施形態に係る情報継続登録装置の機能ブロック図である。情報継続登録装置20は、撮影部21、マーカ認識部22、登録情報表示部29、機器範囲比較部23、指示入力部24、三次元位置調整部25、相対位置決定部26、情報登録部27及び登録情報保存部28を備える。図12にて、機能部間の矢印の上流側の機能部で取得された情報は、任意の下流側の機能部で利用可能となる。   FIG. 12 is a functional block diagram of the information continuation registration apparatus according to the second embodiment. The information continuation registration device 20 includes an imaging unit 21, a marker recognition unit 22, a registration information display unit 29, a device range comparison unit 23, an instruction input unit 24, a three-dimensional position adjustment unit 25, a relative position determination unit 26, and an information registration unit 27. And a registration information storage unit 28. In FIG. 12, the information acquired by the functional unit upstream of the arrow between the functional units can be used by any downstream functional unit.

図12の情報継続登録装置20は、図5の情報登録装置10により上記説明したように、既にある対象設備E1の1箇所以上の作業部位Ri(i=1, 2, … , n)に対して、張り付けたマーカM1に対する相対位置がRM1i(i=1, 2, … , n)決定され、当該決定された位置において作業等に関連する情報が登録されたことを前提に利用される。当該既に登録された相対位置RM1i(i=1, 2, … , n)や、対応して情報登録部17に登録された情報を、設備E1と同一種類の別設備E2にマーカM2を貼る際にも流用して活用すべく、登録情報保存部28が保存している。   As described above with reference to the information registration apparatus 10 in FIG. 5, the information continuation registration apparatus 20 in FIG. 12 applies to one or more work parts Ri (i = 1, 2,..., N) of the existing target equipment E1. Thus, the relative position with respect to the attached marker M1 is determined as RM1i (i = 1, 2,..., N), and it is used on the assumption that information related to work or the like is registered at the determined position. When pasting the marker M2 on the already registered relative position RM1i (i = 1, 2,..., N) and the corresponding information registered in the information registration unit 17 on another equipment E2 of the same type as the equipment E1 In addition, the registration information storage unit 28 stores the information so that it can be used.

図12の情報継続登録装置20と、図5の情報登録装置10とのそれぞれの機能ブロックにおいて、互いに対応する参照番号(下1桁が共通)を付しているものは、同一あるいは対応する機能を担う。なお、同一の装置(コンピュータ等)が、情報登録装置10と情報継続登録装置20との両者の機能を兼ねることも可能である。   In the functional blocks of the information continuation registration apparatus 20 in FIG. 12 and the information registration apparatus 10 in FIG. 5, those with reference numbers corresponding to each other (the last one digit is common) are the same or corresponding functions. Take on. The same device (such as a computer) can also function as both the information registration device 10 and the information continuation registration device 20.

情報継続登録装置20の各部の詳細は以下の通りである。   Details of each part of the information continuation registration apparatus 20 are as follows.

撮影部21は、その機能に関しては撮影部11と同一であり、画像の取得対象として、マーカM2が貼りつけられた対象設備E2において作業部位を含んだ画像データを取得する。同様に、同時に奥行きマップd(u,v)も取得し、カメラ基準の空間座標(x, y, z)となす。   The imaging unit 21 is the same as the imaging unit 11 in terms of its function, and acquires image data including a work site in the target facility E2 to which the marker M2 is attached as an image acquisition target. Similarly, the depth map d (u, v) is also acquired at the same time, and the camera-based spatial coordinates (x, y, z) are obtained.

続いて、マーカ認識部22はマーカ認識部12と同一の機能により、撮影部21で得た可視光画像中からマーカ領域を検出する。   Subsequently, the marker recognizing unit 22 detects a marker region from the visible light image obtained by the photographing unit 21 by the same function as the marker recognizing unit 12.

さらに、機器範囲比較部23では、対応する情報登録装置10の機器範囲入力部13で機器範囲が入力されている場合に、ユーザに指示入力画面を提示し、本設備E2に対しても情報登録装置10での処理と同様に対象機器範囲の入力を受け付ける。機器範囲入力部13で機器範囲が設定されていない場合は、本動作は省略される。   Further, the device range comparison unit 23 presents an instruction input screen to the user when the device range is input by the device range input unit 13 of the corresponding information registration device 10, and registers information also for the facility E2. The input of the target device range is accepted in the same manner as the processing in the device 10. When the device range is not set by the device range input unit 13, this operation is omitted.

登録情報表示部29では、設備E1を対象として情報登録装置10において先に登録した位置情報(x, y, z)(マーカM1平面を基準とした空間座標としての位置情報)を、当該情報を保存している登録情報保存部28から読み込んで、マーカM2平面を基準として作業部位ごとに、撮影部21の取得した対象設備E2の画像上に、その画素(u, v)上に当該作業部位の領域を表示することでユーザに対して表示する。当該表示は、次に説明する指示入力部24におけるユーザ入力のためのものである。   In the registration information display unit 29, the position information (x, y, z) (position information as a spatial coordinate based on the marker M1 plane) previously registered in the information registration apparatus 10 for the equipment E1 is used as the information. For each work site read from the saved registration information storage unit 28 and using the marker M2 plane as a reference, the work site on the pixel (u, v) on the image of the target equipment E2 acquired by the imaging unit 21 By displaying this area, it is displayed to the user. The display is for user input in the instruction input unit 24 described below.

ここで、登録情報保持部28ではマーカM1平面を基準点として作業部位の3次元位置が保存されているため、周知の透視投影変換を適用することにより、マーカM2平面を基準として、作業部位ごとに画面(撮像部21の取得した対象設備E2の画像が写った、ユーザに表示するための画面)上に画素(u, v)が占めている領域として当該保存されている3次元位置を表示できる。すなわち、登録情報保存部28に保存された設備E1のマーカM1基準の作業部位が、仮にマーカM1が当該対象設備E2におけるマーカM2の位置姿勢を取っていた場合には、連動して位置姿勢が変化することによりこのように見えることとなる、という変換関係が透視投影変換で与えられるので、上記のような表示が可能となる。   Here, in the registration information holding unit 28, since the three-dimensional position of the work site is stored with the marker M1 plane as a reference point, by applying a well-known perspective projection transformation, each work site with respect to the marker M2 plane as a reference Displays the saved 3D position as the area occupied by the pixel (u, v) on the screen (screen for displaying to the user, which shows the image of the target equipment E2 acquired by the imaging unit 21) it can. That is, if the marker M1 reference work part of the equipment E1 stored in the registered information storage unit 28 is assumed to have the position and orientation of the marker M2 in the target equipment E2, the position and orientation are linked to each other. Since the transformation relationship that the image looks like this by changing is given by the perspective projection transformation, the display as described above is possible.

なお、新たにマーカM2が付与された対象設備E2を撮影部21で撮影する場合と、登録情報保存部28に保存されたマーカM1が付与された対象設備E1を撮影部11で撮影した場合と、を比べると、各設備E1,E2に付与したマーカM1, M2の位置の違いの他に、撮影の際のカメラ位置姿勢の違いが存在している。登録情報表示部29における当該透視投影変換を利用した表示により、当該カメラ位置姿勢の違いが自ずと吸収されることとなり、カメラ位置姿勢の違いが問題となることはない。一方、以下の指示入力部24以降の処理により、マーカM1,M2の位置の違いによる問題が解消されることとなる。   In addition, when the target equipment E2 newly provided with the marker M2 is photographed by the photographing unit 21, and when the target equipment E1 provided with the marker M1 stored in the registration information storage unit 28 is photographed by the photographing unit 11, In addition to the difference in the positions of the markers M1 and M2 assigned to the facilities E1 and E2, there is a difference in the camera position and orientation at the time of shooting. The display using the perspective projection conversion in the registration information display unit 29 naturally absorbs the difference in camera position and orientation, and the difference in camera position and orientation does not cause a problem. On the other hand, the problem due to the difference in the positions of the markers M1 and M2 is solved by the following processing after the instruction input unit 24.

指示入力部24では、上記の登録情報表示部29で表示した作業部位の表示位置を、当該対象設備E2が撮影された画像内において、ユーザがその表示位置の修正を行えるようにする。   The instruction input unit 24 allows the user to correct the display position of the work site displayed by the registration information display unit 29 in the image where the target equipment E2 is captured.

なお、前述の図4は、指示入力部24によってユーザが当該修正する際に、登録情報表示部29に当該表示される画面の模式的な例を示す図でもある。図4にて、例えば登録情報保存部28にマーカM1を基準に作業部位W1が既に保存されていた場合、登録情報表示部29では新たに貼ったマーカM10(以上の説明におけるマーカM2に該当)を基準とした作業部位として領域W11を表示することとなる。この場合、ユーザは表示された領域W11を、実際の作業部位の領域である領域W1に可能な限り一致するように修正するための入力を、指示入力部24を介して行うこととなる。   Note that FIG. 4 described above is also a diagram illustrating a schematic example of the screen displayed on the registration information display unit 29 when the user makes the correction using the instruction input unit 24. In FIG. 4, for example, when the work site W1 is already stored in the registration information storage unit 28 based on the marker M1, the registration information display unit 29 adds a new marker M10 (corresponding to the marker M2 in the above description). The region W11 is displayed as a work site with reference to. In this case, the user performs an input via the instruction input unit 24 to correct the displayed area W11 so as to match the area W1 that is an actual work site area as much as possible.

指示入力部24にてユーザ入力として受け付ける表示位置の修正は主にマーカ平面上の平行移動と回転に基づくもので、ユーザが自身で調整が可能である。こうして、登録情報保存部28から読み込まれ、マーカM2を基準として表示された位置情報(ずれている)を、ユーザが調整することで、設備E2の画像上の作業部位に重なるようにすることで、ユーザは当該作業部位に関しての修正を終える。   The correction of the display position received as user input by the instruction input unit 24 is mainly based on translation and rotation on the marker plane, and can be adjusted by the user himself. In this way, the position information (shifted) read from the registered information storage unit 28 and displayed with reference to the marker M2 is adjusted by the user so that it overlaps the work site on the image of the equipment E2. The user finishes correcting the work site.

当該修正により、指示入力部24では、3次元座標(x, y, z)ではなく画素(u, v)上の位置関係として、マーカM2を基準とした修正された作業部位の領域の情報を受け取ることとなる。なお、最終的に必要な情報としての、マーカM2を基準とした作業部位の3次元座標(x, y, z)の位置の調整及び決定は、後述する三次元位置調整部25以降において行われる。   With this correction, the instruction input unit 24 uses the positional relationship on the pixel (u, v) instead of the three-dimensional coordinates (x, y, z) as information on the corrected region of the work part based on the marker M2. You will receive it. Note that the adjustment and determination of the position of the three-dimensional coordinates (x, y, z) of the work part with reference to the marker M2 as the finally necessary information are performed in the three-dimensional position adjustment unit 25 and later described later. .

なお、図4は、マーカを対象設備の面上に付与する際の、平面上における位置及び平面上の回転によるずれを模式的に示すものとなっている。マーカM1,M2は同種類の対象設備E1,E2にて互いに対応する面の概ね同じ箇所に手作業で貼られることとなるが、両者の間で、平面上の位置及び回転によるずれが発生することとなる。指示入力部24により、このようなずれが(ユーザ入力で可能な精度において)修正されることとなる。   FIG. 4 schematically shows the position on the plane and the shift due to the rotation on the plane when the marker is applied on the surface of the target facility. The markers M1 and M2 are manually attached to the same location on the corresponding surfaces of the same type of target equipment E1 and E2, but there is a displacement due to the position on the plane and rotation between them. It will be. The instruction input unit 24 corrects such a deviation (with an accuracy possible by user input).

また、機器範囲比較部23で機器範囲が設定されている場合は、それぞれの装置E1,E2のそれぞれのマーカM1,M2を基準とした3次元位置情報を元に、例えば最小二乗法を利用して機器E1,E2の3次元位置情報間のフィッティングを行い、指示入力部24によるユーザによるマニュアル作業による修正に代えるようにしてもよい。同一のマーカM1,M2を同一形状の面(機器範囲の面)に貼っていることから明らかなように、当該機器E1,E2間の3次元位置情報のフィッティングは、マーカM1,M2間における3次元位置情報のフィッティングと一致し、マーカM1,M2を貼った位置・向きの違いと、これを撮影した撮影部11,21での撮影位置姿勢の違いとが反映された情報となっている。   Further, when the device range is set by the device range comparison unit 23, for example, the least square method is used based on the three-dimensional position information based on the respective markers M1 and M2 of the respective devices E1 and E2. Thus, the fitting between the three-dimensional position information of the devices E1 and E2 may be performed, and the instruction input unit 24 may replace the manual correction by the user. As is clear from the fact that the same markers M1 and M2 are attached to the same shape surface (device range surface), the fitting of the three-dimensional position information between the devices E1 and E2 is performed between the markers M1 and M2. This information is consistent with the fitting of the dimensional position information, and reflects the difference in position / orientation where the markers M1 and M2 are pasted and the difference in shooting position and orientation in the shooting units 11 and 21 that shot them.

なお、指示入力部24では画素(u, v)上にてユーザ入力に基づく修正情報を取得したが、これに代えて機器範囲比較部23で修正情報を取得する場合は、上記のように、画素(u, v)上ではなく3次元座標(x, y, z)上で直接、修正情報が取得されることとなる。当該マーカM1,M2間における位置のフィッティングの情報は、透視投影変換の形で得られることとなる。   The instruction input unit 24 acquires correction information based on user input on the pixel (u, v), but instead of acquiring correction information in the device range comparison unit 23, as described above, The correction information is acquired directly on the three-dimensional coordinates (x, y, z), not on the pixel (u, v). Information on the position fitting between the markers M1 and M2 is obtained in the form of perspective projection transformation.

三次元位置調整部25では、指示入力部24により2次元上(画素位置(u, v)上)の位置合わせが行われた拡張現実情報位置に対して、対象設備E2の対象部位の3次元位置(x, y, z)の調整を行う。   In the three-dimensional position adjustment unit 25, the three-dimensional position of the target part of the target equipment E2 is compared with the augmented reality information position that has been aligned two-dimensionally (on the pixel position (u, v)) by the instruction input unit 24. Adjust the position (x, y, z).

流用により登録する対象機器E2に関して撮影部21で取得済みのデプスマップデータ(すなわちカメラ基準の座標(x, y, z)のデータ)から、機器E1に関して事前に登録され登録情報保存部28に保存されたマーカM1を基準とした作業部位の位置情報(主にマーカM1の平面と作業部位の位置情報との3次元位置の距離)を利用して、前記デプスマップに対してフィルタ処理を行う。例えば先に登録した作業部位の位置情報が、マーカM1平面に対してdの距離(分布がある場合、平均値を取ればよい)に存在する場合、登録する対象機器E2のデプスマップデータからマーカM2平面を基準にしてd±εの距離のデプス情報のみをフィルタ処理により選別して利用する。εは任意の小さな値である。   From the depth map data (that is, camera reference coordinates (x, y, z) data) acquired by the imaging unit 21 for the target device E2 to be registered by diversion, the device E1 is registered in advance and stored in the registration information storage unit 28. The depth map is subjected to filter processing by using the position information of the work part with reference to the marker M1 (mainly, the distance of the three-dimensional position between the plane of the marker M1 and the position information of the work part). For example, if the position information of the previously registered work part is present at a distance d (if there is a distribution, the average value may be taken) with respect to the marker M1 plane, the marker is obtained from the depth map data of the target device E2 to be registered. Only depth information at a distance of d ± ε with respect to the M2 plane is selected and used by filtering. ε is an arbitrarily small value.

当該フィルタ処理後に値が存在するデプスマップ情報と、指示入力部24で調整した位置情報(u, v)に対応する一連の空間座標(x, y, z)とのフィッティングを行う。そして、当該フィルタ処理後に値が存在するデプスマップ情報のうち、当該フィッティングした部分における3次元座標(x, y, z)の占める範囲が、最終的に求める機器E2におけるマーカM2基準の作業部位の範囲となる。   Fitting is performed between the depth map information having a value after the filtering process and a series of spatial coordinates (x, y, z) corresponding to the position information (u, v) adjusted by the instruction input unit 24. The range occupied by the three-dimensional coordinates (x, y, z) in the fitted part of the depth map information that has a value after the filtering process is the work area of the marker M2 reference in the device E2 to be finally obtained. It becomes a range.

なお、当初の機器E1(機器E2が流用した機器)を対象とした情報登録装置10の指示入力部14において作業部位の所定形状(例えば図9等)を入力しているので、当該所定形状を登録情報保存部28に記憶しておき、上記フィッティングで求まった3次元座標(x, y, z)の占める範囲に、当該保存された所定形状をさらにフィッティングして割り当てるようにすることで、拡張現実表示等の際の表示領域を定めるようにすればよい。   Since a predetermined shape (for example, FIG. 9) of the work site is input in the instruction input unit 14 of the information registration apparatus 10 for the original device E1 (device diverted by the device E2), the predetermined shape is It is stored in the registration information storage unit 28, and it is expanded by further fitting and assigning the stored predetermined shape to the range occupied by the three-dimensional coordinates (x, y, z) obtained by the fitting. A display area for actual display or the like may be determined.

上記のデプスマップ情報と一連の空間座標(x, y, z)とのフィッティングには例えばICP(iterative closest point)アルゴリズムを利用する。これによりマーカM1,M2を貼り付ける平面が装置E1,E2間で同一の場合は、マーカの貼り付け位置に多少位置ずれ(マーカ平面と水平な方向の位置ずれ)がある場合においても容易に位置情報の位置を修正でき、情報登録作業を容易にさせる。   For example, an ICP (iterative closest point) algorithm is used for fitting the depth map information and a series of spatial coordinates (x, y, z). As a result, if the plane where the markers M1 and M2 are pasted is the same between the devices E1 and E2, it can be easily positioned even if there is a slight misalignment in the marker pasting position (position misalignment in the direction parallel to the marker plane). The position of information can be corrected, and information registration work is facilitated.

なお、指示入力部24に代えて機器範囲比較部23を利用した場合、上記のフィルタ処理までは同様であり、フィッティング対象を以下の(A)に代えて(B)とすればよい。
(A)「指示入力部24で調整した位置情報(u, v)に対応する一連の空間座標(x, y, z)」
(B)「機器E1について登録情報保存部28に保存された作業部位のマーカM1基準の位置情報(x, y ,z)に対して、機器範囲比較部23で得たマーカM1,M2間のフィッティング情報を適用することで得られる、機器E2の作業部位のマーカM2基準の位置情報(x, y, z)」
Note that when the device range comparison unit 23 is used in place of the instruction input unit 24, the above processing is the same, and the fitting target may be (B) instead of (A) below.
(A) “A series of spatial coordinates (x, y, z) corresponding to position information (u, v) adjusted by the instruction input unit 24”
(B) “Regarding the position information (x, y, z) of the work part marker M1 stored in the registration information storage unit 28 for the device E1, between the markers M1 and M2 obtained by the device range comparison unit 23 Position information (x, y, z) based on the marker M2 of the work site of device E2 obtained by applying the fitting information.

当該処理はすなわち、距離d(基準距離)によって本来の作業部位に該当する部分を絞り込んだうえで、デプスマップデータすなわちカメラ基準の座標(x, y, z)データであり、その分布には作業部位の形状が反映されているデータ、を対象としてICPアルゴリズムを適用することにより、形状が一致する部分へと位置を修正することで、本来の作業部位の位置情報を取得する、というものである。   This processing is depth map data, that is, camera reference coordinate (x, y, z) data after narrowing down the part corresponding to the original work site by the distance d (reference distance), and the distribution is the work By applying the ICP algorithm to data reflecting the shape of the part, the position is corrected to the part where the shape matches, and the original work part position information is acquired. .

ここで特に、予め指示入力部24(あるいは機器範囲比較部23)によってその他の作業部位とは重ならないような位置に粗動調整しておくことにより、当該微動調整としての三次元位置調整部25が正常に機能することとなる。従って、機器E1,E2にてそれぞれ貼りつけられたマーカM1,M2のずれが十分に小さければ、粗動調整としての指示入力部24(あるいは機器範囲比較部23)を省略して、最初から三次元位置調整部25を機能させても、位置情報を調整することは可能である。   In particular, the three-dimensional position adjustment unit 25 as the fine movement adjustment is made by adjusting the coarse movement to a position that does not overlap with other work parts by the instruction input unit 24 (or the device range comparison unit 23) in advance. Will function normally. Therefore, if the deviation between the markers M1 and M2 attached to the devices E1 and E2 is sufficiently small, the instruction input unit 24 (or device range comparison unit 23) for coarse motion adjustment is omitted, and the third order from the beginning. The position information can be adjusted even if the original position adjustment unit 25 is made to function.

相対位置決定部26では、三次元位置調整部25までで調整した位置に対して、ユーザに対して最終確認を行い、位置合わせが完了している旨の確認が得られた場合、当該作業部位についての位置情報の登録は終了する。なお、ユーザ確認の結果、間違った位置である旨が確認された場合、当該作業部位に関しては、その登録を指示入力部24の処理からやり直すようにすればよい。あるいは、ユーザ判断により修正により登録することが困難と判断された場合は、情報継続登録装置20ではなく、改めて情報登録装置10を用いて最初から登録するようにしてもよい。あるいは、張り付けたマーカM2を位置調整して貼り直してから、再度、情報継続登録装置20を利用するようにしてもよい。   The relative position determination unit 26 performs a final confirmation for the user with respect to the position adjusted by the three-dimensional position adjustment unit 25, and if the confirmation that the alignment is complete is obtained, Registration of the position information about is ended. If it is confirmed as a result of the user confirmation that the position is wrong, the registration of the work site may be performed again from the processing of the instruction input unit 24. Alternatively, when it is determined by the user judgment that registration is difficult due to correction, the information registration device 10 may be used to register again from the beginning instead of the information continuation registration device 20. Alternatively, the information continuation registration device 20 may be used again after the position of the pasted marker M2 is adjusted and pasted again.

情報登録部27は、情報登録部17と同様に、当該作業部位に関する作業指示その他の、作業に関連する情報を紐付けて登録する。なお、機器E1について既に登録された当該作業部位についての作業指示その他の情報は、登録情報保存部28に保存しておき、機器E2への登録の際には、ユーザ入力を受けることなく自動で情報登録部27が登録を実施することができる。新たな情報を登録したい場合や既に登録された情報を修正したい場合には、情報登録部27ではユーザ入力を受け付けて、対応する情報を登録することができる。   Similar to the information registration unit 17, the information registration unit 27 registers work instructions related to the work site and other information related to the work in association with each other. In addition, work instructions and other information for the work site already registered for the device E1 are stored in the registration information storage unit 28, and automatically registered without receiving user input when registering to the device E2. The information registration unit 27 can perform registration. When it is desired to register new information or to correct already registered information, the information registration unit 27 can accept user input and register corresponding information.

なお、機器E2についても、情報継続登録装置20により、作業部位ごとに位置情報等の登録が可能となるが、この際、次のような各実施形態が可能である。一実施形態では、ある1つの作業部位について、機器E1に関して登録された位置情報から修正された位置情報を登録して、その他の作業部位については、当該既に登録された1つの作業部位における機器E1の位置情報からの修正部分の情報を、そのまま利用して、同様に位置情報を修正することによって登録してよい。   For the device E2, the information continuation registration device 20 can also register the position information and the like for each work site. In this case, the following embodiments are possible. In one embodiment, the position information corrected from the position information registered for the device E1 is registered for a certain work site, and the device E1 in the already registered one work site is registered for the other work sites. The information of the corrected part from the position information may be used as it is and registered by correcting the position information in the same manner.

別の一実施形態では、機器E2の各作業部位についてそれぞれ、情報継続登録装置20によって、既に登録された機器E1から位置情報を修正する形で登録を行った後に、各作業部位における位置情報の修正を平均したものを、機器E2の各作業部位について登録する最終的な位置情報として採用してもよい。この場合、平均することにより、各作業部位それぞれにおける個別の修正された位置情報における誤差が吸収されることで、ロバストに位置情報を登録することができる。   In another embodiment, for each work part of the device E2, the information continuation registration device 20 performs registration in a form in which the position information is corrected from the already registered device E1, and then the position information of each work part is stored. An average of corrections may be adopted as final position information registered for each work site of the device E2. In this case, by averaging, the error in the individually corrected position information in each work site is absorbed, so that the position information can be registered robustly.

本発明はコンピュータを情報登録装置10又は情報継続登録装置20として機能させるプログラムとしても提供可能である。当該コンピュータは、CPU(中央演算装置)、メモリ及び各種I/Fを備えた通常のハードウェア構成とすることができ、CPUが情報登録装置10又は情報継続登録装置20の各部の機能を実行することができる。   The present invention can also be provided as a program that causes a computer to function as the information registration device 10 or the information continuation registration device 20. The computer can have a normal hardware configuration including a CPU (Central Processing Unit), a memory, and various I / Fs, and the CPU executes the functions of each unit of the information registration device 10 or the information continuation registration device 20. be able to.

10…情報登録装置、11…撮影部、12…マーカ認識部、13…機器範囲入力部、14…指示入力部、15…三次元位置算出部、16…相対位置決定部、17…情報登録部、20…情報継続登録装置、21…撮影部、22…マーカ認識部、23…機器範囲比較部、24…指示入力部、25…三次元位置調整部、26…相対位置決定部、27…情報登録部、28…登録情報保存部、29…登録情報表示部   DESCRIPTION OF SYMBOLS 10 ... Information registration apparatus, 11 ... Image pick-up part, 12 ... Marker recognition part, 13 ... Device range input part, 14 ... Instruction input part, 15 ... Three-dimensional position calculation part, 16 ... Relative position determination part, 17 ... Information registration part , 20 ... Information continuation registration device, 21 ... Imaging unit, 22 ... Marker recognition unit, 23 ... Device range comparison unit, 24 ... Instruction input unit, 25 ... Three-dimensional position adjustment unit, 26 ... Relative position determination unit, 27 ... Information Registration part, 28 ... Registration information storage part, 29 ... Registration information display part

Claims (11)

対象設備における作業部位が対象設備の面から乖離しており、且つ、作業部位を部分的に隠す構造が存在しうる対象設備に関して、拡張現実表示のために作業部位の位置を登録する情報登録装置であって、
マーカ付与された対象設備を撮影した画像を奥行マップと紐付けて取得し、当該画像において各画素位置に対応するカメラ基準の空間座標を紐付ける撮影部と、
前記画像より前記マーカの位置を認識するマーカ認識部と、
前記画像における作業部位の範囲の入力をユーザより受け付ける指示入力部と、
前記入力された範囲の各点を、その空間座標に基づいて分類する三次元位置算出部と、
前記分類された結果の中より、ユーザに対して作業部位に該当するものを選択させることで、前記入力された画像における作業部位の範囲の空間座標が当該選択された箇所に存在するものとして、前記認識されたマーカを基準とした作業部位の位置として登録する相対位置決定部と、を備えることを特徴とする情報登録装置。
Information registration apparatus for registering the position of a work part for augmented reality display with respect to the target equipment in which the work part in the target equipment is deviated from the surface of the target equipment and there may be a structure that partially hides the work part Because
An image that captures the image of the target facility to which the marker is attached is acquired by associating it with the depth map, and an imaging unit that associates the camera-based spatial coordinates corresponding to each pixel position in the image,
A marker recognition unit for recognizing the position of the marker from the image;
An instruction input unit that receives an input of a range of a work part in the image from a user;
A three-dimensional position calculation unit that classifies each point of the input range based on its spatial coordinates;
By letting the user select one corresponding to the work part from among the classified results, the spatial coordinates of the range of the work part in the input image are present at the selected part, And a relative position determination unit that registers the position of the work part with the recognized marker as a reference.
前記三次元位置算出部はさらに、前記認識されたマーカの位置よりマーカ平面を算出し、当該マーカ平面に平行と判定できる平面群を形成するように、前記入力された範囲の各点を分類することを特徴とする請求項1に記載の情報登録装置。   The three-dimensional position calculation unit further calculates a marker plane from the recognized marker position, and classifies each point in the input range so as to form a plane group that can be determined to be parallel to the marker plane. The information registration apparatus according to claim 1. 前記三次元位置算出部は、前記入力された範囲の各点を、前記カメラ基準の空間座標の成分のうちのカメラ平面に対する奥行方向の成分に基づいて分類することを特徴とする請求項2に記載の情報登録装置。   The said three-dimensional position calculation part classify | categorizes each point of the said input range based on the component of the depth direction with respect to a camera plane among the components of the said camera reference | standard space coordinate. The information registration device described. ユーザより、前記画像における対象設備の面の範囲の入力を受け付ける機器範囲入力部をさらに備え、
前記三次元位置算出部は、前記画像において範囲を入力された対象設備の面を空間座標内において算出して、前記算出するマーカ平面に代えることを特徴とする請求項2または3に記載の情報登録装置。
From the user, further comprising a device range input unit that receives input of the range of the surface of the target equipment in the image,
The information according to claim 2 or 3, wherein the three-dimensional position calculation unit calculates a surface of the target facility whose range is input in the image in space coordinates and replaces the calculated marker plane. Registration device.
マーカ付与された第一対象設備に関して請求項1ないし4のいずれかに記載の情報登録装置により既に登録された作業部位の情報を、当該第一対象設備と同種の第二対象設備に対して流用して拡張現実表示のために登録する情報継続登録装置であって、
前記既に登録された作業部位の情報を保存する登録情報保存部と、
マーカ付与された第二対象設備を撮影した画像を奥行マップと紐付けて取得し、当該画像において各画素位置に対応するカメラ基準の空間座標を紐付ける撮影部と、
前記画像より前記マーカの位置を認識するマーカ認識部と、
前記認識されたマーカの平面を基準として、前記画像上に、前記既に登録された作業部位の範囲を表示する登録情報表示部と、
前記登録情報表示部により表示された前記既に登録された作業部位の範囲を、前記画像における作業部位の範囲へと修正する情報をユーザから受け付ける指示入力部と、
前記修正する情報として入力された範囲の各点に対し、その空間座標に基づいて、前記画像の空間座標と合致していると判定される範囲を特定することにより、登録する作業部位を特定する三次元位置調整部と、を備えることを特徴とする情報継続登録装置。
The information on the work site that has already been registered by the information registration device according to any one of claims 1 to 4 with respect to the first target facility provided with the marker is diverted to a second target facility of the same type as the first target facility. An information continuation registration device that registers for augmented reality display,
A registered information storage unit for storing information on the already registered work site;
An image obtained by linking the image obtained by imaging the second target facility with the marker attached to the depth map, and a camera reference space coordinate corresponding to each pixel position in the image,
A marker recognition unit for recognizing the position of the marker from the image;
On the basis of the recognized marker plane, a registration information display unit that displays the range of the already registered work site on the image;
An instruction input unit that receives from the user information for correcting the range of the already registered work site displayed by the registration information display unit to the range of the work site in the image;
For each point in the range input as the information to be corrected, the work site to be registered is specified by specifying the range determined to match the spatial coordinates of the image based on the spatial coordinates An information continuation registration apparatus comprising: a three-dimensional position adjustment unit.
マーカ付与された第一対象設備に関して請求項4に記載の情報登録装置により既に登録された作業部位の情報を、当該第一対象設備と同種の第二対象設備に対して流用して拡張現実表示のために登録する情報継続登録装置であって、
前記既に登録された作業部位の情報を保存する登録情報保存部と、
マーカ付与された第二対象設備を撮影した画像を奥行マップと紐付けて取得し、当該画像において各画素位置に対応するカメラ基準の空間座標を紐付ける撮影部と、
前記画像より前記マーカの位置を認識するマーカ認識部と、
ユーザより、前記画像における対象設備の面の範囲の入力を受け付け、当該入力された面の範囲と、前記情報登録装置が備える前記機器範囲入力部に入力された範囲との空間配置の相違を求める機器範囲比較部と、
前記画像における作業部位の範囲の設定を、前記認識されたマーカの平面を基準として、前記既に登録された作業部位の情報に対する修正として、前記求められた空間配置の相違を適用する形で設定し、当該修正の形で設定された範囲の各点に対し、その空間座標に基づいて、前記画像の空間座標と合致していると判定される範囲を特定することにより、登録する作業部位を特定する三次元位置調整部と、を備えることを特徴とする情報継続登録装置。
The augmented reality display by diverting the information on the work part already registered by the information registration device according to claim 4 to the second target equipment of the same type as the first target equipment regarding the first target equipment to which the marker is attached An information continuation registration device for registering for
A registered information storage unit for storing information on the already registered work site;
An image obtained by linking the image obtained by imaging the second target facility with the marker attached to the depth map, and a camera reference space coordinate corresponding to each pixel position in the image,
A marker recognition unit for recognizing the position of the marker from the image;
The input of the surface range of the target equipment in the image is received from the user, and the difference in spatial arrangement between the input surface range and the range input to the device range input unit provided in the information registration apparatus is obtained. A device range comparison unit;
The setting of the range of the work part in the image is set by applying the difference in the obtained spatial arrangement as a correction to the information on the already registered work part with reference to the plane of the recognized marker. For each point in the range set in the form of the correction, the work site to be registered is specified by specifying the range determined to match the spatial coordinate of the image based on the spatial coordinates An information continuation registration device comprising: a three-dimensional position adjustment unit.
前記三次元位置調整部は、前記既に登録された作業部位の情報におけるマーカ平面と当該作業部位との基準距離に基づき、前記画像の空間座標のうち、そのマーカ平面との距離と前記基準距離との相違が所定閾値基準内に収まるもののみを対象として、前記合致していると判定される範囲を特定することを特徴とする請求項5または6に記載の情報継続登録装置。   The three-dimensional position adjustment unit, based on the reference distance between the marker plane and the work part in the already registered work part information, out of the spatial coordinates of the image, the distance between the marker plane and the reference distance 7. The information continuation registration apparatus according to claim 5, wherein the range determined to be matched is specified only for a case where the difference falls within a predetermined threshold criterion. 対象設備における作業部位が対象設備の面から乖離しており、且つ、作業部位を部分的に隠す構造が存在しうる対象設備に関して、拡張現実表示のために作業部位の位置を登録する情報登録方法であって、
マーカ付与された対象設備を撮影した画像を奥行マップと紐付けて取得し、当該画像において各画素位置に対応するカメラ基準の空間座標を紐付ける撮影段階と、
前記画像より前記マーカの位置を認識するマーカ認識段階と、
前記画像における作業部位の範囲の入力をユーザより受け付ける指示入力段階と、
前記入力された範囲の各点を、その空間座標に基づいて分類する三次元位置算出段階と、
前記分類された結果の中より、ユーザに対して作業部位に該当するものを選択させることで、前記入力された画像における作業部位の範囲の空間座標が当該選択された箇所に存在するものとして、前記認識されたマーカを基準とした作業部位の位置として登録する相対位置決定段階と、を備えることを特徴とする情報登録方法。
An information registration method for registering the position of a work part for displaying an augmented reality with respect to the target equipment in which the work part in the target equipment is deviated from the surface of the target equipment and there may be a structure that partially hides the work part. Because
An image that captures the image of the target facility to which the marker is attached is obtained by associating it with the depth map, and an imaging stage that associates the camera-based spatial coordinates corresponding to each pixel position in the image,
A marker recognition stage for recognizing the position of the marker from the image;
An instruction input stage for accepting an input of a range of a work part in the image from a user;
A three-dimensional position calculation step of classifying each point of the input range based on its spatial coordinates;
By letting the user select one corresponding to the work part from among the classified results, the spatial coordinates of the range of the work part in the input image are present at the selected part, And a relative position determination step of registering as a position of a work part with the recognized marker as a reference.
マーカ付与された第一対象設備に関して請求項8に記載の情報登録方法により既に登録された作業部位の情報を、当該第一対象設備と同種の第二対象設備に対して流用して拡張現実表示のために登録する情報継続登録方法であって、
前記既に登録された作業部位の情報を保存する登録情報保存段階と、
マーカ付与された第二対象設備を撮影した画像を奥行マップと紐付けて取得し、当該画像において各画素位置に対応するカメラ基準の空間座標を紐付ける撮影段階と、
前記画像より前記マーカの位置を認識するマーカ認識段階と、
前記認識されたマーカの平面を基準として、前記画像上に、前記既に登録された作業部位の範囲を表示する登録情報表示段階と、
前記登録情報表示段階により表示された前記既に登録された作業部位の範囲を、前記画像における作業部位の範囲へと修正する情報をユーザから受け付ける指示入力段階と、
前記修正する情報として入力された範囲の各点に対し、その空間座標に基づいて、前記画像の空間座標と合致していると判定される範囲を特定することにより、登録する作業部位を特定する三次元位置調整段階と、を備えることを特徴とする情報継続登録方法。
Augmented reality display by diverting the information on the work site already registered by the information registration method according to claim 8 to the second target facility of the same type as the first target facility with respect to the first target facility to which the marker is attached An information continuation registration method for registering for
A registration information storage step for storing information on the already registered work site;
An image obtained by linking an image obtained by photographing the marker-attached second target facility with a depth map, and linking a camera-based spatial coordinate corresponding to each pixel position in the image;
A marker recognition stage for recognizing the position of the marker from the image;
A registration information display step for displaying a range of the already registered work site on the image with reference to the plane of the recognized marker;
An instruction input step for receiving from the user information for correcting the range of the already registered work site displayed by the registration information display step to the range of the work site in the image;
For each point in the range input as the information to be corrected, the work site to be registered is specified by specifying the range determined to match the spatial coordinates of the image based on the spatial coordinates And a three-dimensional position adjustment step.
対象設備における作業部位が対象設備の面から乖離しており、且つ、作業部位を部分的に隠す構造が存在しうる対象設備に関して、拡張現実表示のために作業部位の位置を登録する情報登録方法をコンピュータに実行させるプログラムであって、
マーカ付与された対象設備を撮影した画像を奥行マップと紐付けて取得し、当該画像において各画素位置に対応するカメラ基準の空間座標を紐付ける撮影段階と、
前記画像より前記マーカの位置を認識するマーカ認識段階と、
前記画像における作業部位の範囲の入力をユーザより受け付ける指示入力段階と、
前記入力された範囲の各点を、その空間座標に基づいて分類する三次元位置算出段階と、
前記分類された結果の中より、ユーザに対して作業部位に該当するものを選択させることで、前記入力された画像における作業部位の範囲の空間座標が当該選択された箇所に存在するものとして、前記認識されたマーカを基準とした作業部位の位置として登録する相対位置決定段階と、をコンピュータに実行させることを特徴とするプログラム。
An information registration method for registering the position of a work part for displaying an augmented reality with respect to the target equipment in which the work part in the target equipment is deviated from the surface of the target equipment and there may be a structure that partially hides the work part. A program for causing a computer to execute
An image that captures the image of the target facility to which the marker is attached is obtained by associating it with the depth map, and an imaging stage that associates the camera-based spatial coordinates corresponding to each pixel position in the image,
A marker recognition stage for recognizing the position of the marker from the image;
An instruction input stage for accepting an input of a range of a work part in the image from a user;
A three-dimensional position calculation step of classifying each point of the input range based on its spatial coordinates;
By letting the user select one corresponding to the work part from among the classified results, the spatial coordinates of the range of the work part in the input image are present at the selected part, A program for causing a computer to execute a relative position determination step of registering as a position of a work part based on the recognized marker.
マーカ付与された第一対象設備に関して請求項10に記載のプログラムをコンピュータに実行させることにより既に登録された作業部位の情報を、当該第一対象設備と同種の第二対象設備に対して流用して拡張現実表示のために登録する情報継続登録方法をコンピュータに実行させるプログラムであって、
前記既に登録された作業部位の情報を保存する登録情報保存段階と、
マーカ付与された第二対象設備を撮影した画像を奥行マップと紐付けて取得し、当該画像において各画素位置に対応するカメラ基準の空間座標を紐付ける撮影段階と、
前記画像より前記マーカの位置を認識するマーカ認識段階と、
前記認識されたマーカの平面を基準として、前記画像上に、前記既に登録された作業部位の範囲を表示する登録情報表示段階と、
前記登録情報表示段階により表示された前記既に登録された作業部位の範囲を、前記画像における作業部位の範囲へと修正する情報をユーザから受け付ける指示入力段階と、
前記修正する情報として入力された範囲の各点に対し、その空間座標に基づいて、前記画像の空間座標と合致していると判定される範囲を特定することにより、登録する作業部位を特定する三次元位置調整段階と、をコンピュータに実行させることを特徴とするプログラム。
The information on the work site that has already been registered by causing the computer to execute the program according to claim 10 with respect to the first target facility provided with the marker is diverted to the second target facility of the same type as the first target facility. A program for causing a computer to execute an information continuation registration method for registering for augmented reality display,
A registration information storage step for storing information on the already registered work site;
An image obtained by linking an image obtained by photographing the marker-attached second target facility with a depth map, and linking a camera-based spatial coordinate corresponding to each pixel position in the image;
A marker recognition stage for recognizing the position of the marker from the image;
A registration information display step for displaying a range of the already registered work site on the image with reference to the plane of the recognized marker;
An instruction input step for receiving from the user information for correcting the range of the already registered work site displayed by the registration information display step to the range of the work site in the image;
For each point in the range input as the information to be corrected, the work site to be registered is specified by specifying the range determined to match the spatial coordinates of the image based on the spatial coordinates A program for causing a computer to execute a three-dimensional position adjustment step.
JP2014138627A 2014-07-04 2014-07-04 Information registration device, information continuation registration device, method and program Active JP6262610B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014138627A JP6262610B2 (en) 2014-07-04 2014-07-04 Information registration device, information continuation registration device, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014138627A JP6262610B2 (en) 2014-07-04 2014-07-04 Information registration device, information continuation registration device, method and program

Publications (2)

Publication Number Publication Date
JP2016017757A true JP2016017757A (en) 2016-02-01
JP6262610B2 JP6262610B2 (en) 2018-01-17

Family

ID=55233083

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014138627A Active JP6262610B2 (en) 2014-07-04 2014-07-04 Information registration device, information continuation registration device, method and program

Country Status (1)

Country Link
JP (1) JP6262610B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101878375B1 (en) * 2017-11-30 2018-07-16 안경찬 Method and apparatus for guiding a user through accurate marking on a lotto ticket
JP2019121136A (en) * 2017-12-29 2019-07-22 富士通株式会社 Information processing apparatus, information processing system and information processing method
JP2021516827A (en) * 2018-08-16 2021-07-08 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 Identification code identification method and its devices, computer equipment and computer programs

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001099650A (en) * 1999-09-28 2001-04-13 Fujita Corp Construction line indication system
JP2005327204A (en) * 2004-05-17 2005-11-24 Canon Inc Image composing system, method, and device
JP2010181919A (en) * 2009-02-03 2010-08-19 Toyohashi Univ Of Technology Three-dimensional shape specifying device, three-dimensional shape specifying method, three-dimensional shape specifying program
JP2013258703A (en) * 2013-06-20 2013-12-26 Ricoh Co Ltd Information service system
JP2014123193A (en) * 2012-12-20 2014-07-03 Kddi Corp Field work support device
US20150302650A1 (en) * 2014-04-16 2015-10-22 Hazem M. Abdelmoati Methods and Systems for Providing Procedures in Real-Time

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001099650A (en) * 1999-09-28 2001-04-13 Fujita Corp Construction line indication system
JP2005327204A (en) * 2004-05-17 2005-11-24 Canon Inc Image composing system, method, and device
JP2010181919A (en) * 2009-02-03 2010-08-19 Toyohashi Univ Of Technology Three-dimensional shape specifying device, three-dimensional shape specifying method, three-dimensional shape specifying program
JP2014123193A (en) * 2012-12-20 2014-07-03 Kddi Corp Field work support device
JP2013258703A (en) * 2013-06-20 2013-12-26 Ricoh Co Ltd Information service system
US20150302650A1 (en) * 2014-04-16 2015-10-22 Hazem M. Abdelmoati Methods and Systems for Providing Procedures in Real-Time

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101878375B1 (en) * 2017-11-30 2018-07-16 안경찬 Method and apparatus for guiding a user through accurate marking on a lotto ticket
JP2019121136A (en) * 2017-12-29 2019-07-22 富士通株式会社 Information processing apparatus, information processing system and information processing method
US11238653B2 (en) 2017-12-29 2022-02-01 Fujitsu Limited Information processing device, information processing system, and non-transitory computer-readable storage medium for storing program
JP7017689B2 (en) 2017-12-29 2022-02-09 富士通株式会社 Information processing equipment, information processing system and information processing method
JP2021516827A (en) * 2018-08-16 2021-07-08 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 Identification code identification method and its devices, computer equipment and computer programs
JP7164127B2 (en) 2018-08-16 2022-11-01 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 Identification code identification method, its device, computer equipment and computer program
US11494577B2 (en) 2018-08-16 2022-11-08 Tencent Technology (Shenzhen) Company Limited Method, apparatus, and storage medium for identifying identification code

Also Published As

Publication number Publication date
JP6262610B2 (en) 2018-01-17

Similar Documents

Publication Publication Date Title
JP7231306B2 (en) Method, Apparatus and System for Automatically Annotating Target Objects in Images
JP4537557B2 (en) Information presentation system
US20200162629A1 (en) Method and apparatus for scanning and printing a 3d object
US10659750B2 (en) Method and system for presenting at least part of an image of a real object in a view of a real environment, and method and system for selecting a subset of a plurality of images
US7336814B2 (en) Method and apparatus for machine-vision
CA2507174C (en) Method of registering and aligning multiple images
JP5713159B2 (en) Three-dimensional position / orientation measurement apparatus, method and program using stereo images
Georgel et al. An industrial augmented reality solution for discrepancy check
CN109584307B (en) System and method for improving calibration of intrinsic parameters of a camera
Rashidi et al. Generating absolute-scale point cloud data of built infrastructure scenes using a monocular camera setting
Ahn et al. 2D drawing visualization framework for applying projection-based augmented reality in a panelized construction manufacturing facility: Proof of concept
JP5421624B2 (en) 3D measurement image capturing device
WO2016029939A1 (en) Method and system for determining at least one image feature in at least one image
CN109840950B (en) Method for obtaining real-size 3D model and surveying device
JP2011198330A (en) Method and program for collation in three-dimensional registration
US9542602B2 (en) Display control device and method
JP6262610B2 (en) Information registration device, information continuation registration device, method and program
JP2007212187A (en) Stereo photogrammetry system, stereo photogrammetry method, and stereo photogrammetry program
CN113763419B (en) Target tracking method, device and computer readable storage medium
JP7241812B2 (en) Information visualization system, information visualization method, and program
JP6854631B2 (en) Information visualization system, information visualization method, and program
JP6374812B2 (en) 3D model processing apparatus and camera calibration system
JP2015075389A (en) Photographic measurement plotting method and photographic measurement plotting device
JP6890422B2 (en) Information processing equipment, control methods and programs for information processing equipment
CN111527517A (en) Image processing apparatus and control method thereof

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160823

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171214

R150 Certificate of patent or registration of utility model

Ref document number: 6262610

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150