JP2011252917A - Method for arranging marker in on-site operation support system - Google Patents

Method for arranging marker in on-site operation support system Download PDF

Info

Publication number
JP2011252917A
JP2011252917A JP2011158900A JP2011158900A JP2011252917A JP 2011252917 A JP2011252917 A JP 2011252917A JP 2011158900 A JP2011158900 A JP 2011158900A JP 2011158900 A JP2011158900 A JP 2011158900A JP 2011252917 A JP2011252917 A JP 2011252917A
Authority
JP
Japan
Prior art keywords
camera
line
image
line marker
marker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011158900A
Other languages
Japanese (ja)
Other versions
JP5256330B2 (en
Inventor
Hirotake Ishii
裕剛 石井
Hiroshi Shimoda
宏 下田
Zhiqiang Bian
志強 卞
Yoshitsugu Morishita
喜嗣 森下
Masanori Izumi
正憲 泉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Atomic Energy Agency
Original Assignee
Japan Atomic Energy Agency
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Atomic Energy Agency filed Critical Japan Atomic Energy Agency
Priority to JP2011158900A priority Critical patent/JP5256330B2/en
Publication of JP2011252917A publication Critical patent/JP2011252917A/en
Application granted granted Critical
Publication of JP5256330B2 publication Critical patent/JP5256330B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a method for arranging a marker to achieve a reduction in tracking error in an on-site operation support system.SOLUTION: An on-site operation support system comprises line markers 5a and 5b positioned in a work site in advance, cameras 1a to 1c carried by an operator, a HMD2 which provides the operator with an image of the work site and instruction information by displaying them thereon, an information processing apparatus 3 which measures a position and a direction of the camera (operator) based on image positions of the line markers in photographic images obtained by taking pictures of the work site with the cameras and performs information processing for displaying an information image to be given to the operator on the HMD with the image of the work site superimposed thereon. Positions of the line markers are determined as a position where line marker positions can be calculated repeatedly to reduce errors, by (1) estimating a range of errors included in a code mark obtained by the image processing and (2) estimating tracking errors in a variety of line marker arrangements using results obtained from (1), an error calculation method, and a genetic algorithm.

Description

本発明は、拡張現実感(Augmented Reality;AR)技術を利用して現場作業を支援する現場作業支援システムにおけるマーカ配置方法に関する。   The present invention relates to a marker placement method in a field work support system that supports field work using augmented reality (AR) technology.

拡張現実感技術は、現実の光景にCG(Computer Graphics)情報を重ね合わせて表示する技術であり、現場作業に有用な情報を現場作業者に提供して現場作業を支援する現場作業支援システムに応用されている。   Augmented reality technology is a technology that superimposes and displays CG (Computer Graphics) information on a real scene. It is a field work support system that provides field workers with information useful for field work and supports field work. Applied.

特開2007−34238号公報JP 2007-34238 A 特開2007−18188号公報JP 2007-18188 A

拡張現実感技術を利用して作業者の作業を支援するためには、高精度のトラッキング(作業現場における作業者の位置と方向をリアルタイムに計測する技術)が必要である。   In order to support the worker's work using the augmented reality technology, high-precision tracking (technology for measuring the position and direction of the worker in the work site in real time) is required.

現在のトラッキング技術として、作業現場にマーカを貼付しておき、作業者が携行するカメラで作業現場を撮影して得た撮影画像中のマーカに基づいてカメラ(作業者)の位置と向きを計測する技術が提案されているが、作業現場の全体で高精度にトラッキングを行うことは困難であり、計測精度が場所によって高低する。計測精度が低い状態で作業者に対して情報(例えば、作業指示)を提供すると、間違った作業指示となって作業ミスを誘発する恐れがある。   As the current tracking technology, a marker is affixed to the work site, and the position and orientation of the camera (worker) are measured based on the marker in the photographed image obtained by photographing the work site with the camera carried by the worker. However, it is difficult to perform tracking with high accuracy in the entire work site, and the measurement accuracy varies depending on the location. If information (for example, a work instruction) is provided to an operator in a state where the measurement accuracy is low, there is a risk of causing a work mistake due to an incorrect work instruction.

本発明の目的は、現場作業支援システムにおけるトラッキング誤差の軽減を実現するのに好ましいマーカ配置方法を提案することにある。   An object of the present invention is to propose a marker arrangement method that is preferable for realizing a reduction in tracking error in a field work support system.

本発明は、予め作業現場に設置されたラインマーカと、作業者が携行するカメラと、作業現場の画像と指示情報を表示して作業者に提供する表示装置と、前記カメラで作業現場を撮影して得た撮影画像中の前記ラインマーカの画像位置に基づいてカメラ(作業者)の位置と向きを計測し、作業者に対して提供する情報画像を作業現場の画像に重ねて前記表示装置に表示させる情報処理を行う情報処理装置を備えた現場作業支援システムにおけるラインマーカの配置方法において、
前記ラインマーカは、前記カメラの位置の計測誤差が最小となるように、遺伝的アルゴリズムにより最適化配置処理を行うことで決定された位置に配置することを特徴とする。
The present invention relates to a line marker previously set at a work site, a camera carried by the worker, a display device that displays an image of the work site and instruction information and provides the worker, and photographs the work site with the camera. The display device measures the position and orientation of the camera (worker) based on the image position of the line marker in the captured image obtained in this manner, and superimposes the information image provided to the worker on the image of the work site. In the method of arranging line markers in a field work support system equipped with an information processing device that performs information processing to be displayed on
The line marker is arranged at a position determined by performing an optimization arrangement process using a genetic algorithm so that a measurement error of the position of the camera is minimized.

具体的には、ラインマーカに対して、
(1)画像処理によって得られるコードマークに含まれる誤差の大きさの推定し、
(2)(1)の結果と誤差計算手法及び遺伝的アルゴリズムを用いて、様々なラインマーカ配置における作業現場内のトラッキングの誤差の大きさを推定し、徐々に高い精度が期待できるラインマーカ配置を繰り返し計算により求める、ことにより実現する。
Specifically, for line markers,
(1) Estimating the size of an error included in a code mark obtained by image processing,
(2) Using the results of (1), the error calculation method and the genetic algorithm, estimate the size of tracking errors in the work site in various line marker arrangements, and gradually increase the accuracy of line marker arrangements Is obtained by iterative calculation.

本発明は、予め作業現場に設置されたラインマーカと、作業者が携行するカメラと、作業現場の画像と指示情報を表示して作業者に提供する表示装置と、前記カメラで作業現場を撮影して得た撮影画像中の前記ラインマーカの画像位置に基づいてカメラ(作業者)の位置と向きを計測し、作業者に対して提供する情報画像を作業現場の画像に重ねて前記表示装置に表示させる情報処理を行う情報処理装置を備えた現場作業支援システムにおけるラインマーカの配置において、トラッキング誤差を軽減するのに好ましいラインマーカの配置が可能となる。   The present invention relates to a line marker previously set at a work site, a camera carried by the worker, a display device that displays an image of the work site and instruction information and provides the worker, and photographs the work site with the camera. The display device measures the position and orientation of the camera (worker) based on the image position of the line marker in the captured image obtained in this manner, and superimposes the information image provided to the worker on the image of the work site. In the arrangement of the line marker in the field work support system including an information processing apparatus that performs information processing to be displayed on the line marker, it is possible to arrange the line marker preferable for reducing the tracking error.

本発明における実施例1の現場作業支援システムの機能ブロック図である。It is a functional block diagram of the field work support system of Example 1 in the present invention. 実施例1の現場作業支援システムにおけるカメラの配列状態を示す平面図である。It is a top view which shows the arrangement | sequence state of the camera in the field work assistance system of Example 1. FIG. 実施例1の現場作業支援システムにおけるラインマーカの平面図である。It is a top view of the line marker in the field work support system of Example 1. カメラのレンズ補正状態によって発生する誤差を説明するための撮影画像である。It is a picked-up image for demonstrating the error which generate | occur | produces with the lens correction | amendment state of a camera. 実施例1における情報処理装置が実行する情報処理のフローチャートである。3 is a flowchart of information processing executed by the information processing apparatus according to the first embodiment. 撮影画像に写り込んでいるラインマーカのコードマーク画像列と計算によって求められたコードマーク画像列の両端のコードマーク画像の写り込み予定位置を示す図面である。It is a figure which shows the code mark image sequence of the line marker currently reflected in the picked-up image, and the projected mark position of the code mark image of both ends of the code mark image sequence calculated | required by calculation. 撮影画像中のコードマーク画像列から近似した直線とコードマーク画像列の2端間の距離を求める内容を示す図面である。It is drawing which shows the content which calculates | requires the distance between the straight line approximated from the code mark image sequence in a picked-up image, and two ends of a code mark image sequence. 画像認識結果から求めたラインマーカの各コードマーク画像間の距離の誤差を求める内容を示す図面である。It is drawing which shows the content which calculates | requires the difference | error of the distance between each code mark image of the line marker calculated | required from the image recognition result. トラッキング誤差の大きさを推定する計算アルゴリズムにおける座標系を示す図である。It is a figure which shows the coordinate system in the calculation algorithm which estimates the magnitude | size of a tracking error. トラッキング誤差の大きさを推定する計算アルゴリズムにおけるTERの概念図である。It is a conceptual diagram of TER in the calculation algorithm which estimates the magnitude | size of a tracking error. トラッキング誤差の大きさを推定する計算アルゴリズムにおけるx座標に関する誤差限界曲線の計算方法の概念図である。It is a conceptual diagram of the calculation method of the error limit curve regarding x coordinate in the calculation algorithm which estimates the magnitude | size of a tracking error. トラッキング誤差の大きさを推定する計算アルゴリズムにおける誤差限界曲線の計算方法の概念図である。It is a conceptual diagram of the calculation method of the error limit curve in the calculation algorithm which estimates the magnitude | size of a tracking error. トラッキング誤差の大きさを推定する計算アルゴリズムにおけるy座標に関する誤差限界曲線の計算方法の概念図である。It is a conceptual diagram of the calculation method of the error limit curve regarding y coordinate in the calculation algorithm which estimates the magnitude | size of a tracking error. トラッキング誤差の大きさを推定する計算アルゴリズムにおける総ての誤差限界曲線で囲まれる領域(TER)を求める方法の概念図である。It is a conceptual diagram of the method of calculating | requiring the area | region (TER) enclosed by all the error limit curves in the calculation algorithm which estimates the magnitude | size of a tracking error. 評価実験で用いた擬似プラント環境の模式図である。It is a schematic diagram of the pseudo plant environment used in the evaluation experiment. 実験結果(各世代における誤差の最大値の平均値、最良値・最悪値)を示す曲線図である。It is a curve figure which shows an experimental result (The average value of the maximum value of the error in each generation, the best value, and the worst value). 適用例におけるラインマーカ設置位置を立体的に示す斜視図である。It is a perspective view which shows the line marker installation position in the example of application in three dimensions. 適用例におけるトラッキング誤差の分布図である。It is a distribution chart of tracking error in an application example.

本発明は、予め作業現場に設置されたラインマーカと、作業者が携行するカメラと、作業現場の画像と指示情報を表示して作業者に提供する表示装置と、前記カメラで作業現場を撮影して得た撮影画像中の前記ラインマーカの画像位置に基づいてカメラ(作業者)の位置と向きを計測し、作業者に対して提供する情報画像を作業現場の画像に重ねて前記表示装置に表示させる情報処理を行う情報処理装置を備えた現場作業支援システムにおける前記ラインマーカの配置方法におけるトラッキング誤差の軽減を実現するために好ましいマーカ配置方法として、前記カメラの位置の計測誤差が最小となるように、遺伝的アルゴリズムにより最適化配置処理を行うことで決定された位置に配置することにより実現するものであり、具体的には、ラインマーカに対して、
(1)画像処理によって得られるコードマークに含まれる誤差の大きさを推定し、
(2)(1)の結果と誤差計算手法及び遺伝的アルゴリズムを用いて、様々なラインマーカ配置における作業現場内のトラッキングの誤差の大きさを推定し、徐々に高い精度が期待できるラインマーカ配置を繰り返し計算により求めるように行うことにより実現する。
The present invention relates to a line marker previously set at a work site, a camera carried by the worker, a display device that displays an image of the work site and instruction information and provides the worker, and photographs the work site with the camera. The display device measures the position and orientation of the camera (worker) based on the image position of the line marker in the captured image obtained in this manner, and superimposes the information image provided to the worker on the image of the work site. As a preferable marker arrangement method for realizing a reduction in tracking error in the line marker arrangement method in an on-site work support system having an information processing apparatus for performing information processing to be displayed on the camera, the measurement error of the camera position is minimized. As shown in the figure, it is realized by arranging at a position determined by performing an optimized arrangement process by a genetic algorithm. For the marker,
(1) Estimating the magnitude of an error included in a code mark obtained by image processing,
(2) Using the results of (1), the error calculation method and the genetic algorithm, estimate the size of tracking errors in the work site in various line marker arrangements, and gradually increase the accuracy of line marker arrangements Is realized by repeatedly calculating.

図1は、現場作業支援システムの機能ブロック図である。   FIG. 1 is a functional block diagram of the field work support system.

作業現場(作業する施設)を撮影するカメラ1は、作業者が装着するAR機能付きのHMD(Head Mounted Display)2の頭上に該HMD2を装着した作業者の顔の向きの前方向(作業者の視界方向)を撮影するように取り付ける。   The camera 1 for photographing the work site (working facility) is a forward direction of the face of the worker wearing the HMD 2 on the head of an HMD (Head Mounted Display) 2 with an AR function worn by the worker (worker (Viewing direction) is attached.

この実施例は、表示装置をHMDを利用する例で説明するが、HMDに限らず、タブレットPCを採用しても実施することができる。また、カメラの向きは、ラインマーカの貼り付け位置との関係で、必ずしも作業者の顔の向きではなく、ラインマーカを天井面に貼り付けて設置するときは、カメラを上方向に向けてラインマーカを撮影してトラッキングを行うように変形することもできる。   Although this embodiment will be described with an example in which the display device uses an HMD, the present invention is not limited to the HMD and can be implemented even if a tablet PC is employed. Also, the orientation of the camera is not necessarily the orientation of the operator's face because of the relationship with the position where the line marker is affixed. When installing the line marker on the ceiling surface, the camera should be pointed upward. It can also be modified so that the marker is photographed for tracking.

カメラ1は、図2に示すように、3台のカメラ1a,1b,1cを横に並べて作業現場を広角度に撮影することができるように構成する。この実施例ではカメラを3台使用する例で説明するが、2台あるいは4台で実施するように変形することができる。   As shown in FIG. 2, the camera 1 is configured such that three cameras 1a, 1b, and 1c are arranged side by side so that the work site can be photographed at a wide angle. In this embodiment, an example in which three cameras are used will be described. However, the embodiment can be modified so that two or four cameras are used.

現場作業支援のための各種の情報処理を実行する情報処理装置(携帯型のパーソナルコンピュータ)3は、基本的には、前記カメラ1から撮影画像を入力して画像処理することによって作業現場における作業者の位置および向きを計測し、HMD2の表示画面に作業現場の撮影画像または予め記憶している設計情報に基づいて生成した作業現場のCG画像と指示情報を重ねて表示させる情報処理を行う。   An information processing apparatus (portable personal computer) 3 that executes various types of information processing for on-site work support basically works by inputting a photographed image from the camera 1 and performing image processing. The position and orientation of the person is measured, and information processing is performed in which the CG image of the work site generated based on the photographed image of the work site or the design information stored in advance and the instruction information are displayed on the display screen of the HMD 2.

作業現場4には設計情報に基づいて各種の機器41(41a,41b…)が設置されており、その幾つかの機器41a,41f…にはラインマーカ5(5a,5b…)が予め既知の位置に貼付される。このラインマーカ5は、カメラ1の撮影画像中の位置から該カメラ1の位置と向き(作業者の位置と向き)を算出するための画像情報として使用する。   Various kinds of equipment 41 (41a, 41b...) Are installed at the work site 4 based on the design information, and the line marker 5 (5a, 5b...) Is known in advance for some of the equipment 41a, 41f. Affixed to the position. The line marker 5 is used as image information for calculating the position and orientation of the camera 1 (the position and orientation of the operator) from the position in the captured image of the camera 1.

各ラインマーカ5は、図3に示すように、細長い帯状の基材51の表面に11ビットのコードマーク52(52a〜52k)を長さ方向に所定の間隔で並べて設け、裏面を施設内の幾つかの機器41a,41f…の表面に貼付して設置するように構成する。通常は、所定の高さ位置に縦長垂直状態に設置するのが望ましい。   As shown in FIG. 3, each line marker 5 is provided with 11-bit code marks 52 (52a to 52k) arranged at predetermined intervals in the length direction on the surface of an elongated belt-like base material 51, and the back surface is provided in the facility. It is configured to be attached to the surface of several devices 41a, 41f. Normally, it is desirable to install it vertically and vertically at a predetermined height position.

この実施例では、ラインマーカ5は、コードマーク52が11ビットの例を示したが、このビット数は必要に応じて自由に変更することができる。ちなみに、ビット数を増やすと、誤り訂正できるビット数を増加したり、一度に利用できるラインマーカの数を増加させることができる。   In this embodiment, the line marker 5 has an example in which the code mark 52 has 11 bits, but the number of bits can be freely changed as necessary. Incidentally, if the number of bits is increased, the number of bits that can be corrected for errors can be increased, or the number of line markers that can be used at one time can be increased.

各ラインマーカ5に設けたコードマーク52は、30mm×30mmの正方形が「0」,30mm×60mmの長さ方向の長方形が「1」のビットデータを表し、上から7ビットをマーカIDビット、下4ビットを誤り訂正ビットとして使用する。図示のラインマーカ5のコードデータは、「01010000101」である。   The code mark 52 provided in each line marker 5 represents bit data in which a 30 mm × 30 mm square is “0” and a 30 mm × 60 mm length rectangle is “1”, and the 7 bits from the top are the marker ID bits, The lower 4 bits are used as error correction bits. The code data of the illustrated line marker 5 is “01010000101”.

この実施例では、コードマーク52を30mm×30mmの正方形、30mm×60mmの長さ方向の長方形の例を示したが、ラインマーカ5を貼り付ける場所の大きさや、ラインマーカ5とカメラ1の間の平均距離によって、コードマーク52の大きさを、すべてのコードマーク52に対して統一して変更することができる。   In this embodiment, the code mark 52 is shown as a 30 mm × 30 mm square and a 30 mm × 60 mm long rectangle, but the size of the place where the line marker 5 is pasted and between the line marker 5 and the camera 1 are shown. Thus, the size of the code mark 52 can be changed uniformly for all the code marks 52.

HMD2の表示画面21には、作業現場4の撮影画像(CG画像)21a上に指示情報画像21bを重ねた状態で表示する。図示の例は、作業現場に設置されている機器(バルブ)41g,41hの開放操作を指示し、機器(バルブ)41i〜41kについては開放操作を禁止することを指示する指示情報を表示した状態である。   On the display screen 21 of the HMD 2, the instruction information image 21 b is displayed in a state of being superimposed on the photographed image (CG image) 21 a of the work site 4. In the example shown in the figure, instructions for opening the devices (valves) 41g and 41h installed at the work site are instructed, and instruction information for instructing to prohibit the opening operations for the devices (valves) 41i to 41k is displayed. It is.

このような画像表示は、情報処理装置3がカメラ1から入力した作業現場4の撮影画像(情報)中のラインマーカ5のコードマーク画像の画像位置情報に基づいて該作業現場4における作業者の位置および向きを計測し、作業現場4の撮影画像または予め記憶している設計情報に基づいて作業者の位置と向きを基準にして生成した作業現場のCG画像21aに該作業現場4の機器41に対して行う作業内容を予め設定して記憶させた作業指示情報(作業指示情報画像や作業禁止指示情報画像)21b1,21b2を読み出して重ねて表示する情報処理を行うことによって実現する。   Such image display is performed based on the image position information of the code mark image of the line marker 5 in the captured image (information) of the work site 4 input from the camera 1 by the information processing device 3. The position and orientation are measured, and the equipment 41 of the work site 4 is added to the CG image 21a of the work site generated on the basis of the photographed image of the work site 4 or the design information stored in advance on the basis of the position and orientation of the worker. This is realized by reading out and superimposing work instruction information (work instruction information image and work prohibition instruction information image) 21b1 and 21b2 in which work contents to be performed are stored in advance.

このように作業現場4の撮影画像中のラインマーカ5のコードマーク画像位置情報に基づいて該作業現場における作業者の位置および向きを計測するためには、各ラインマーカ5のコードマーク画像が正確な形状で撮影画像21a中に存在しなければならない。しかしながら、カメラ1のレンズの歪み補正が不十分である場合には、撮影画像を処理してラインマーカの位置を認識すると誤差が生じる。そして、この誤差を含んだ位置情報に基づいてカメラ1(作業者)の位置や姿勢を計算すると、当然に、誤差が発生する。   Thus, in order to measure the position and orientation of the worker at the work site based on the code mark image position information of the line marker 5 in the captured image of the work site 4, the code mark image of each line marker 5 is accurate. Must be present in the captured image 21a in a unique shape. However, if the distortion correction of the lens of the camera 1 is insufficient, an error occurs when the captured image is processed to recognize the position of the line marker. When the position and orientation of the camera 1 (worker) are calculated based on the position information including the error, an error naturally occurs.

しかも、誤差には、更に、作業現場4の機器41に対するラインマーカ5の取り付け誤差(予め設定した取り付け位置情報と実際の取り付け位置間の誤差)や計算処理上の誤差(情報処理装置3が扱う数字の桁数の制約や求解の最適化計算を途中で止めることによる誤差)などが加わる。   In addition, the error further includes an attachment error of the line marker 5 to the equipment 41 at the work site 4 (an error between preset attachment position information and an actual attachment position) and an error in calculation processing (the information processing apparatus 3 handles the error). And other factors such as restrictions on the number of digits and errors caused by stopping optimization calculations in the middle).

この発明は、カメラ1のレンズの歪み、カメラの解像度が有限であること、ラインマーカの貼り付け位置の情報に誤りや誤差が含まれること、照明が不完全であること等に因る計測誤差に起因するトラッキング誤差により作業者(HMD2)に誤った指示情報を提供(表示)するのを防止するものである。   The present invention provides a measurement error caused by distortion of the lens of the camera 1, the camera resolution being finite, error or error in the information on the position where the line marker is pasted, incomplete illumination, etc. It is possible to prevent erroneous instruction information from being provided (displayed) to the worker (HMD2) due to a tracking error caused by.

図4を参照して、カメラ1のレンズ補正が不十分であるために発生する誤差について説明する。   With reference to FIG. 4, an error that occurs due to insufficient lens correction of the camera 1 will be described.

図4の(a)は、レンズ補正が完全な状態にあるカメラ1で撮影した撮影画像21a中のラインマーカ5のコードマーク画像列5aであり、各コードマーク画像53は、直線状に並んだ状態に写る。しかしながら、レンズ補正が不十分なカメラ1で撮影した撮影画像21a中のラインマーカ5のコードマーク画像列5bの各コードマーク画像54は、(b)に示すように、わん曲して並んだ状態に写る。   4A shows a code mark image sequence 5a of the line marker 5 in the photographed image 21a photographed by the camera 1 in which the lens correction is complete, and the code mark images 53 are arranged in a straight line. It is reflected in the state. However, the code mark images 54 of the code mark image sequence 5b of the line marker 5 in the photographed image 21a photographed by the camera 1 with insufficient lens correction are bent and arranged as shown in FIG. It is reflected in.

この実施例1の現場作業支援システムは、このようなカメラ1のレンズの歪みに因る誤差(トラッキング誤差)の大きさを推定して作業者に提供する情報を制御(編集)する構成である。   The field work support system of the first embodiment is configured to control (edit) information to be provided to the worker by estimating the magnitude of such an error (tracking error) due to distortion of the lens of the camera 1. .

図5は、このような制御を実現するために情報処理装置3が実行する情報処理のフローチャートである。   FIG. 5 is a flowchart of information processing executed by the information processing apparatus 3 to realize such control.

ステップS301
カメラ1から作業現場(施設内)の撮影画像情報を取得する。
Step S301
Captured image information of the work site (inside the facility) is acquired from the camera 1.

ステップS302
取得した撮影画像情報を画像処理することによりラインマーカ5のコードマーク画像列を認識し、各コードマーク画像の重心位置を求める。この処理は、撮影画像中に存在する総てのラインマーカ5のコードマーク画像列に対して行う。
Step S302
By processing the acquired captured image information, the code mark image sequence of the line marker 5 is recognized, and the barycentric position of each code mark image is obtained. This process is performed on the code mark image sequences of all the line markers 5 present in the captured image.

具体的には、画像を2値化してラベリングし、正方形,長方形領域を検索し、正方形と長方形の領域が直線状に所定数(ラインマーカ5のコードマーク数)並んでいるものを検索してコードマーク画像列(ラインマーカ5)として認識し、コードマーク画像列の正方形を「0」,長方形を「1」としてマーカIDを認識する。また、コードマーク画像列の両端のコードマーク画像の重心位置をコードマーク画像列(ラインマーカ5)の両端の両端の位置とするように行う。   Specifically, the image is binarized and labeled, a square and a rectangular area are searched, and a square and a rectangular area are linearly searched for a predetermined number (the number of code marks of the line marker 5). It recognizes as a code mark image sequence (line marker 5), and recognizes the marker ID with the square of the code mark image sequence as “0” and the rectangle as “1”. Further, the positions of the center of gravity of the code mark images at both ends of the code mark image sequence are set to the positions at both ends of the code mark image sequence (line marker 5).

ステップS303
カメラ1のレンズの予め分かっている歪みパラメータを用いてステップS302の処理結果を補正する。
Step S303
The processing result of step S302 is corrected using a distortion parameter known in advance for the lens of the camera 1.

ステップS304
撮影画像中のコードマーク画像列の位置からラインマーカ5とカメラ1の相対的な位置関係を計算(トラッキング)する。
Step S304
The relative positional relationship between the line marker 5 and the camera 1 is calculated (tracked) from the position of the code mark image sequence in the captured image.

ステップS305
ステップS304の処理で得たカメラ1の位置情報、カメラ1の各種のパラメータ、ラインマーカ5の貼付位置情報を用いて、コードマーク画像列が撮影画像のどの位置に写り込んでいるべきかを計算(逆算)する。
Step S305
Using the position information of the camera 1 obtained in the process of step S304, various parameters of the camera 1, and the pasting position information of the line marker 5, the position where the code mark image sequence should be reflected is calculated. (Reverse calculation).

図6(a)は、撮影画像中に写り込んでいるラインマーカ5のコードマーク画像列と認識した両端のコードマーク画像の位置を示し、(b)は、計算によって求められたコードマーク画像列の両端のコードマーク画像の写り込み予定位置を示している。   FIG. 6A shows the positions of the code mark images at both ends recognized as the code mark image sequence of the line marker 5 reflected in the photographed image, and FIG. 6B shows the code mark image sequence obtained by calculation. Shows the projected positions of the code mark images at both ends.

ステップS306
画像処理によって認識したコードマーク画像列の端の位置(図6(a))とトラッキングの結果から逆算したコードマーク画像列の端の位置(図6(b))の撮影画像上での距離d RPを求める。ここで、iは、コードマーク画像列の端の通し番号(最大値は、コードマーク画像列の数の2倍になる)、d RPの最大値をdMAX RPとする。
Step S306
The distance d on the photographed image between the position of the end of the code mark image sequence recognized by the image processing (FIG. 6A) and the position of the end of the code mark image sequence reversely calculated from the tracking result (FIG. 6B). i Determine RP . Here, i is the serial number at the end of the code mark image sequence (the maximum value is twice the number of code mark image sequences), and the maximum value of d i RP is d MAX RP .

ステップS307
ステップS302で求めたラインマーカ5の各コードマーク画像の重心位置を用いてコードマーク画像列を直線で近似し、近似した直線とコードマーク画像列の2端間の距離d RVを求める。そして、d RVの最大値をdMAX RPとする。
Step S307
The code mark image sequence is approximated by a straight line using the barycentric position of each code mark image of the line marker 5 obtained in step S302, and a distance d i RV between the approximated straight line and the two ends of the code mark image sequence is obtained. And let d MAX RP be the maximum value of d i RV .

図7(a)〜(d)は、先のステップにおいて撮影画像中のコードマーク画像列(a)から各コードマーク画像の重心を求め、そして、本ステップ307において、最小二乗法により各コードマーク画像の重心に最も近い直線を求め、次いで、近似した直線とコードマーク画像列の2端間の距離d RVを求める内容を図示したものである。 7A to 7D show the center of gravity of each code mark image from the code mark image sequence (a) in the photographed image in the previous step, and in this step 307, each code mark is obtained by the least square method. The content of obtaining a straight line closest to the center of gravity of the image and then obtaining the distance d i RV between the approximated straight line and the two ends of the code mark image sequence is shown.

ステップS308
ステップS302で求めたラインマーカ5の各コードマーク画像の重心位置から求められる各コードマーク画像間の距離とラインマーカ5のマーカIDが示す該ラインマーカ5の実際の寸法から計算できる各コードマーク画像間の距離の差d RHを各コードマーク画像毎に求める(図8参照)。ここで、d RHの最大値をdMAX RHとする。
Step S308
Each code mark image that can be calculated from the distance between the code mark images obtained from the barycentric position of each code mark image of the line marker 5 obtained in step S302 and the actual dimension of the line marker 5 indicated by the marker ID of the line marker 5 A distance difference d i RH is obtained for each code mark image (see FIG. 8). Here, the maximum value of d i RH is defined as d MAX RH .

ステップS309
(数1)式を用いて、撮影画像から認識したコードマーク画像列の位置に含まれる可能性がある誤差の最大値(最大誤差推定値)dMAXを求める。
Step S309
The maximum error (maximum error estimated value) d MAX that may be included in the position of the code mark image sequence recognized from the photographed image is obtained using the equation (1).

Figure 2011252917
Figure 2011252917

ステップS310
各トラッキング毎の予想されるトラッキング誤差の大きさを推定する。トラッキング誤差の大きさを推定する計算アルゴリズムは、後述する。
Step S310
Estimate the magnitude of the expected tracking error for each tracking. A calculation algorithm for estimating the magnitude of the tracking error will be described later.

ステップS311
推定したトラッキング誤差の大きさに応じてHMDに表示して作業者に提供する情報を制御する。例えば、推定したトラッキング誤差が所定値よりも小さいときには作業指示(作業禁止)情報を表示して作業者に提供し、推定したトラッキング誤差が所定値以上のときには作業指示情報を表示せずにトラッキング誤差を減少させるための撮影画像情報を入力するためにカメラ1の向き(作業者の顔の向き)を変えるように指示する警告情報を表示する。
Step S311
Information displayed on the HMD and provided to the operator is controlled according to the estimated tracking error. For example, when the estimated tracking error is smaller than a predetermined value, work instruction (work prohibition) information is displayed and provided to the worker, and when the estimated tracking error is greater than a predetermined value, the work instruction information is not displayed and the tracking error is displayed. Warning information for instructing to change the orientation of the camera 1 (orientation of the operator's face) is displayed in order to input photographed image information for reducing.

前記ステップS310におけるトラッキング誤差の大きさの推定は、例えば、次ぎのような計算アルゴリズムによって行うことができる。   The size of the tracking error in step S310 can be estimated by, for example, the following calculation algorithm.

この実施例において使用するトラッキング誤差の計算アルゴリズムにおいて、トラッキングの誤差を計算する手法は、以下の要件を満たす必要がある。
(1)プラント内部で拡張現実感を利用する場合、想定する誤差よりも大きな誤差が発生する可能性がある場合、作業者に間違った指示を出してしまう可能性があり、危険である。そのため、トラッキングの誤差の計算方法は、「90%の確立で10mm以内の計測誤差」の様な確率的な結果ではなく、「最大誤差が13mm」の様な絶対的な結果を計算できる必要がある。
(2)ラインマーカの最適化では、様々なラインマーカ配置における誤差を繰り返し計算する必要がある。そのため、誤差の計算方法は、十分高速である必要がある。
In the tracking error calculation algorithm used in this embodiment, the method for calculating the tracking error needs to satisfy the following requirements.
(1) When using augmented reality inside the plant, if there is a possibility that an error larger than an assumed error may occur, an incorrect instruction may be given to the worker, which is dangerous. Therefore, the tracking error calculation method needs to be able to calculate an absolute result such as “maximum error is 13 mm” instead of a probabilistic result such as “measurement error within 10 mm at 90% establishment”. is there.
(2) In optimization of line markers, it is necessary to repeatedly calculate errors in various line marker arrangements. Therefore, the error calculation method needs to be sufficiently fast.

拡張現実感を利用するユーザ(作業者)は、発電プラントにおける作業を想定する。また、その支援の内容も、特定の作業現場へのナビゲーションや、配管に流れる流体の量や種類の指示等、プラント設備を眺めた際の情報提示を想定する。この場合、作業者の頭の位置(作業者が装着するカメラの位置)は、
(1)高さがほぼ一定(作業者の身長程度)である、
(2)左右・上下の首振り回転は頻繁に行うが、首を傾けることは希である、
という特徴があると考えられる。
A user (worker) who uses augmented reality assumes work in a power plant. In addition, the contents of the support are also assumed to be information presentation when viewing the plant equipment, such as navigation to a specific work site and instructions on the amount and type of fluid flowing in the piping. In this case, the position of the worker's head (the position of the camera worn by the worker) is
(1) The height is almost constant (about the height of the worker).
(2) Swing rotation from side to side and up and down is performed frequently, but tilting the head is rare.
It is thought that there is a feature.

そこで、この実施例1では、これらの特徴を利用して、トラッキング誤差の計算アルゴリズムを簡略化する。   Therefore, in the first embodiment, the tracking error calculation algorithm is simplified using these features.

座標系と各種定義
図9に座標系の定義を示す。スクリーン座標系の原点は、カメラ撮影画像の中心とし、x軸をカメラ撮影画像の左から右方向に、y軸を上方向とする。カメラ座標系の原点は、カメラの焦点位置とし、z軸方向をカメラの撮影視野方向、x軸とy軸をスクリーン座標と平行とする。
Coordinate system and various definitions Figure 9 shows the definition of the coordinate system. The origin of the screen coordinate system is the center of the camera photographed image, the x axis is from the left to the right of the camera photographed image, and the y axis is the upward direction. The origin of the camera coordinate system is the focal position of the camera, the z-axis direction is the shooting field of view of the camera, and the x-axis and y-axis are parallel to the screen coordinates.

カメラの位置姿勢は、6自由度のベクトル(カメラの位置で3自由度、カメラの姿勢で3自由度)で表現される。   The position and orientation of the camera is represented by a vector of 6 degrees of freedom (3 degrees of freedom at the camera position and 3 degrees of freedom at the camera orientation).

カメラとラインマーカ(コードマーク画像列)を用いたトラッキングでは、1つのラインマーカから計算の基準となる特徴点を複数認識して利用する場合もあるが、この実施例1では、1つのラインマーカから1つの特徴点を認識するものと仮定し、特に断りが無い限り、以下ではラインマーカと特徴点は同義とする。   In tracking using a camera and a line marker (code mark image sequence), there may be a case where a plurality of feature points serving as a calculation reference are recognized from one line marker and used, but in this embodiment, one line marker is used. Assuming that one feature point is recognized from the following, line marker and feature point are synonymous in the following unless otherwise noted.

Cをカメラの真の位置姿勢とし、Q(i=1,2,‥,n)をラインマーカの3次元位置とする。(nはカメラに写ったマーカの総数)。今、Cの位置姿勢にあるカメラでラインマーカを撮影した時、カメラ撮影画像上で、位置M(i=1,2,‥,n)にラインマーカが写ったと認識されたとする(Mは2次元ベクトル)。この結果を用いてカメラの位置姿勢を推定した結果をCestとする。位置Mに、カメラの解像度が有限であること、レンズの補正が充分でないこと等が原因で、最大でΔの誤差が含まれているとする。この時、ラインマーカのカメラ撮影画像上での位置M'(i=1,2,‥,n)が、下記式(数2)を満たす位置にくるカメラの位置姿勢C'の集合は、Cestのまわりのある程度の大きさを持った領域となる。 Let C be the true position and orientation of the camera, and Q i (i = 1, 2,..., N) be the three-dimensional position of the line marker. (N is the total number of markers reflected in the camera). Now, when a line marker is photographed with a camera in the position and orientation of C, it is assumed that the line marker is recognized at the position M i (i = 1, 2,..., N) on the camera photographed image (M i Is a two-dimensional vector). The result of estimating the position and orientation of the camera using this result is Cest. Assume that the position Mi includes an error of Δ at the maximum due to the fact that the camera resolution is finite and the lens correction is not sufficient. At this time, a set of camera positions and orientations C ′ where the position M i ′ (i = 1, 2,..., N) of the line marker on the camera-captured image satisfies the following formula (Equation 2) is This is an area having a certain size around Cest.

Figure 2011252917
Figure 2011252917

この実施例1では、この領域をTER(Tracking Error Region)と呼ぶ。   In the first embodiment, this area is called a TER (Tracking Error Region).

図10にTERの概念図を示す。カメラの真の位置Cは、このTERの領域の中に含まれるため、トラッキング誤差の最大値を求める計算アルゴリズムはTERの領域の中で、Cestから最も離れた点を求め、その点とCestの距離の差を求めるアルゴリズムである。   FIG. 10 shows a conceptual diagram of TER. Since the true position C of the camera is included in this TER area, the calculation algorithm for obtaining the maximum value of the tracking error finds the point farthest from Cest in the TER area. This is an algorithm for obtaining a difference in distance.

誤差限界曲線の計算
この実施例1において使用するトラッキング誤差の計算アルゴリズムでは、カメラが移動する高さが作業者の身長でほぼ変化せず、左右・上下の回転のみを行うという仮定のもと、以下の流れでTERを求める。
Calculation of error limit curve In the tracking error calculation algorithm used in the first embodiment, the height at which the camera moves does not substantially change depending on the height of the operator, and only the left / right / up / down rotation is performed. TER is obtained in the following flow.

(1)画像処理により認識されたラインマーカのすべての2個の組み合わせに関し、ラインマーカのカメラ撮影画像上でのx座標がそれぞれ、x±△、x±△の範囲内に常に入るカメラの位置姿勢の集合の境界(誤差限界曲線と呼ぶ)を求める(x、xはカメラが真の位置にあるときにカメラ撮影画像上に写る2つのラインマーカのx座標)。 (1) For all two combinations of line markers recognized by image processing, the x coordinate on the camera-captured image of the line marker always falls within the range of x 1 ± Δ and x 2 ± Δ, respectively. The boundary of the set of positions and orientations (referred to as error limit curves) is obtained (x 1 and x 2 are the x coordinates of two line markers appearing on the camera-captured image when the camera is at the true position).

(2)画像処理により認識されたすべてのラインマーカに関し、ラインマーカのカメラ撮影画像上でのy座標がy±△の範囲内に常に入るカメラの位置姿勢の集合の誤差限界曲線を求める(yはカメラが真の位置にあるときにカメラ撮影画像上に写るラインマーカのy座標)。   (2) For all line markers recognized by image processing, an error limit curve of a set of camera positions and orientations in which the y coordinate on the camera-captured image of the line marker always falls within the range of y ± Δ is obtained (y Is the y coordinate of the line marker that appears on the camera image when the camera is in the true position).

(3)前記(1)と(2)で求められた誤差限界曲線で囲まれる領域をTERとする。   (3) The region surrounded by the error limit curve obtained in (1) and (2) is defined as TER.

以下の説明では、n個のラインマーカがカメラで撮影され、その位置が認識されたと仮定する(nの値は3以上とする)。   In the following description, it is assumed that n line markers have been captured by the camera and their positions have been recognized (the value of n is 3 or more).

x座標に関する誤差限界曲線の計算
図11において、点Pおよび点PをラインマーカQ(x,y,z)およびQ(x,y,z)のx−z平面上への射影点とする。
Calculation of Error Limit Curve for X Coordinate In FIG. 11, point P A and point P B are represented by x− of line markers Q A (x a , y a , z a ) and Q B (x b , y b , z b ). Let it be a projection point on the z plane.

点Aを線分CPとカメラスクリーンのx軸との交点とし、点Bを線分CPとカメラスクリーンのX軸との交点とする。点A,A,A,B,B,Bは全てカメラスクリーンのX軸上にあるとし、‖AA‖=‖AA‖=‖BB‖=‖BB‖=△とする。このとき、ラインマーカのカメラ撮影画像上での真の座標x座標は、点Aと点Aの間および点Bと点Bとの間にくる。すなわち、以下の式を満たす位置姿勢C'が形成する領域の中に、カメラの真の位置姿勢Cが含まれる。 Point A is the intersection of line segment CP A and the x axis of the camera screen, and point B is the intersection of line segment CP B and the X axis of the camera screen. The points A, A 1 , A 2 , B, B 1 , B 2 are all on the X axis of the camera screen, and ‖A 1 A‖ = ‖AA 2 ‖ = ‖B 2 B‖ = ‖BB 1 ‖ = △. At this time, the true coordinate x coordinate of the line marker on the camera-captured image is between the points A 1 and A 2 and between the points B 1 and B 2 . That is, the true position and orientation C of the camera is included in the region formed by the position and orientation C ′ that satisfies the following expression.

Figure 2011252917
Figure 2011252917

ここで、α=∠ACBおよびα=∠ACBである。これらの2つの角度は、以下の4つの式を計算することにより求めることができる。 Here, α 2 = ∠A 2 CB 2 and α 1 = ∠A 1 CB 1 . These two angles can be obtained by calculating the following four equations.

Figure 2011252917
Figure 2011252917
Figure 2011252917
Figure 2011252917
Figure 2011252917
Figure 2011252917
Figure 2011252917
Figure 2011252917

ここで、Dは、カメラスクリーンの中心、fはカメラのレンズの焦点距離である。∠PC'P=αおよび∠PC'P=αを満たす位置姿勢C'の集合は、図12に示すように円となる。従って、式(数3)を満たす位置姿勢C'の集合は、図12における灰色に塗られた領域となる。 Here, D is the center of the camera screen, and f is the focal length of the camera lens. A set of positions and orientations C ′ satisfying ∠P A C′P B = α 1 and ∠P A C′P B = α 2 is a circle as shown in FIG. Accordingly, a set of position and orientation C ′ satisfying the equation (Equation 3) is a gray area in FIG.

図12中のCircle 1とCircle 2の求め方は同じであるため、以下ではCircle 1の求め方を示す。まず、Circle 1の中心を求める。点FをCircle 1上の点であり、‖PF‖=‖PF‖を満たすとする。また、Eを線分P上の点とし、‖PE‖=‖PE‖を満たすとする。この時、線分EFは、線分Pの垂直2等分線となる。従って、線分EF上にCircle 1の中心O(x,0,z)が存在する。ここで、‖OF‖=‖OP‖=Rであり、∠PFP=α1であるため(RはCircle1の半径)、∠OFP=∠OPF==α/2が成り立つ。従って、以下の式によりCircle 1の半径Rを求めることができる。 Since the method for obtaining Circle 1 and Circle 2 in FIG. 12 is the same, the method for obtaining Circle 1 is shown below. First, find the center of Circle 1. It is assumed that the point F is a point on Circle 1 and satisfies ‖P A F‖ = ‖P B F‖. Also, let E be a point on the line segment P A P B and satisfy ‖P A E‖ = ‖P B E‖. At this time, the line segment EF is a perpendicular bisector of the line segment P A P B. Therefore, the center O (x o , 0, z o ) of Circle 1 exists on the line segment EF. Here, since ‖OF‖ = ‖OP B ‖ = R and ∠P A FP B = α1 (R is the radius of Circle 1 ), ∠OFP B = ∠OP B F == α 1/2 holds. . Accordingly, the radius R of Circle 1 can be obtained by the following equation.

Figure 2011252917
Figure 2011252917

線分Pとx軸のなす角はγ==atan{(z−z)/(x−x)}で計算でき、線分POとx軸のなす角はθ=−(π/2−α−γ)で計算できる。従って、Circle 1の中心は以下の式(数9),(数10)で計算できる。 The angle between the line segment P A P B and the x axis can be calculated by γ == atan {(z b −z a ) / (x b −x a )}, and the angle between the line segment P A O and the x axis is It can be calculated by θ = − (π / 2−α 1 −γ). Therefore, the center of Circle 1 can be calculated by the following equations (Equation 9) and (Equation 10).

Figure 2011252917
Figure 2011252917
Figure 2011252917
Figure 2011252917

以上の方法で求められる円を以下ではX座標に関する誤差限界曲線と呼ぶ。   The circle obtained by the above method is hereinafter referred to as an error limit curve related to the X coordinate.

y座標に関する誤差限界曲線の計算
図13において、点Pを、ラインマーカQのx−z平面上への射影点、点Aを線分CQとスクリーンとの交点とする。点A、Aを‖AA‖=‖AA‖=△を満たすスクリーン上の点とし、線分Aはスクリーンのy軸に平行であるとする。点Dをスクリーンの中心とする(‖CD‖=f)。点Eは点Aのx−y平面上への射影点である。
In the calculation 13 of the error limit curve for y coordinates, the point P A, the projection points on the x-z plane of the line markers Q A, the point A and the intersection of the line segment CQ A and the screen. Points A 1 and A 2 are points on the screen that satisfy ‖A 1 A‖ = ‖AA 2 ‖ = Δ, and line segment A 1 A 2 is assumed to be parallel to the y-axis of the screen. Point D is the center of the screen (‖CD‖ = f). Point E is a projection point of point A onto the xy plane.

y座標に関する誤差限界曲線の計算方法
このとき、ラインマーカのカメラ撮影画像上での真のy座標は、点Aと点Aの間の間に来る。すなわち、以下の式を満たす位置姿勢C'が形成する領域の中に、カメラの真の位置姿勢Cが必ず含まれる。
Calculation Method of Error Limit Curve for y Coordinate At this time, the true y coordinate on the camera-captured image of the line marker is between point A 1 and point A 2 . That is, the true position / posture C of the camera is always included in the region formed by the position / posture C ′ that satisfies the following expression.

Figure 2011252917
Figure 2011252917

ここでβ=∠ACPおよびβ=∠ACPである、β=∠QC'Pおよび∠QC'P=βを満たすC'は共に点Pを中心とする円となり、その円の半径は‖Q‖ctanβおよび‖Q‖ctan∠βで計算できる。ここで

Figure 2011252917
Figure 2011252917
Figure 2011252917
である。以上の方法で求められる円を以下ではy座標に関する誤差限界曲線と呼ぶ。 Where β 2 = ∠A 2 CP A and β 1 = ∠A 1 CP A , β 2 = ∠Q A C′P A and C ′ satisfying Q Q A C′P A = β 1 are both points becomes a circle centered on P a, the radius of the circle can be calculated by ‖Q a P a ‖ctanβ 2 and ‖Q a P a ‖ctan∠β 1. here
Figure 2011252917
Figure 2011252917
Figure 2011252917
It is. The circle obtained by the above method is hereinafter referred to as an error limit curve regarding the y coordinate.

TERからのトラッキング誤差の計算方法
先に求めた全ての誤差限界曲線で囲まれる領域の中にカメラの真の位置が含まれる。そこで、総ての誤差限界曲線で囲まれる領域とカメラの真の位置との間で最も離れている点と、カメラの真の位置との距離を求めることができれば、トラッキングを実行する際に起こりうる誤差の最大値を求めることができる。図14に総ての誤差限界曲線で囲まれる領域(TER)を求める方法の概念図を示す。以下では説明を簡単にするために、カメラ撮影画像で認識されたラインマーカの数が3個の場合を説明する。ラインマーカの数がn個の場合は、ラインマーカの数が3個の場合の計算方法の内、円の交点を求める際の円の組み合わせの数が増えるだけである。
Method of calculating tracking error from TER The true position of the camera is included in the area surrounded by all the error limit curves obtained previously. Therefore, if the distance between the point farthest between the area surrounded by all error limit curves and the true position of the camera and the true position of the camera can be obtained, this will occur when tracking is performed. The maximum possible error can be determined. FIG. 14 shows a conceptual diagram of a method for obtaining a region (TER) surrounded by all error limit curves. Hereinafter, in order to simplify the description, a case will be described in which the number of line markers recognized in the camera-captured image is three. When the number of line markers is n, only the number of circle combinations when calculating the intersection of circles is increased in the calculation method when the number of line markers is three.

図14に示すように、ラインマーカQ、Q、Qのカメラ座標系におけるx−z平面への射影点をそれぞれP、P、Pとする。図14に示すArea 1は、ラインマーカQおよびQのx座標に関する誤差限界曲線に囲まれる領域であり、この領域内に真のカメラの位置姿勢が含まれる。QおよびQ、QおよびQの組み合わせに関しても同様の領域を求める。Area 2は、ラインマーカQのy座標に関する誤差限界曲線に囲まれる領域であり、この領域内に真のカメラの位置姿勢が含まれる。QおよびQに関しても同様の領域を求める。 As shown in FIG. 14, line markers Q A, Q B, respectively P A the projection point to the x-z plane in the camera coordinate system of Q C, P B, and P C. Area 1 shown in FIG. 14 is an area surrounded by an error limit curve regarding the x-coordinates of the line markers Q A and Q B , and the true camera position and orientation are included in this area. Q A and Q C, obtaining the same region with respect to the combination of Q B and Q C. Area 2 is an area surrounded by the error limit curve for y coordinates of the line marker Q A, include the position and orientation of the real camera in this region. Obtaining the same region with respect to Q B and Q C.

以上により求められた領域(この場合は合計6領域)に共通して含まれる領域がTERとなり、この中に真のカメラの位置姿勢が含まれる。前述の様に、誤差を含んだラインマーカの認識位置を用いて求めたカメラの位置と、TER領域内で最も離れた位置の距離が、トラッキングを実行する際に起こりうる誤差の最大値となる。ここで、誤差を含んだラインマーカの認識位置を用いて求めたカメラの位置からの最も離れたTER領域内の位置は、必ず誤差限界曲線同士の交点の内の1つであるという性質を用いると、トラッキングを実行する際に起こりうる誤差の最大値を求めることができる。   An area that is commonly included in the areas obtained as described above (in this case, a total of 6 areas) is TER, and the true camera position and orientation are included in this area. As described above, the distance between the position of the camera obtained using the recognized position of the line marker including an error and the position farthest in the TER area is the maximum error that can occur when tracking is executed. . Here, the property that the position in the TER region farthest from the camera position obtained by using the recognition position of the line marker including an error is necessarily one of the intersections of the error limit curves. Then, the maximum value of errors that can occur when tracking is executed can be obtained.

以上の流れを纏めると、認識されたラインマーカの総数がn個の場合、トラッキングを実行する際に起こりうる誤差の最大値を求めるためには、x座標に関する誤差限界曲線としてnC×2個、y座標に関する誤差限界曲線として2n個の円を求め、それらの全ての円(計n(n+1)個)の組み合わせに関して交点を求める必要がある。従って、トラッキングの誤差を求めるのに必要な計算量は、認識されるラインマーカの数の2乗に比例して大きくなるが、同時に認識されるラインマーカの総数は多い場合でも10程度であり、計算量としてはそれほど多くはならない。認識されるラインマーカの総数が10以上になる場合は、トラッキングに利用されないラインマーカが多くなるため非効率である。この場合は、作業現に貼り付けて設置するラインマーカの数を減らすべきである。 To summarize the above flow, when the total number of recognized line markers is n, nC 2 × 2 error limit curves related to the x-coordinate are obtained in order to obtain the maximum value of errors that can occur when tracking is performed. It is necessary to obtain 2n circles as error limit curves with respect to the y-coordinates, and obtain intersection points with respect to combinations of all these circles (total n (n + 1)). Accordingly, the amount of calculation required to obtain the tracking error increases in proportion to the square of the number of recognized line markers, but is about 10 even when the total number of recognized line markers is large. The calculation amount is not so much. When the total number of recognized line markers is 10 or more, the number of line markers that are not used for tracking increases, which is inefficient. In this case, the number of line markers to be installed on the work site should be reduced.

次に、この実施例の適用例について、図17及び図18を参照して説明する。   Next, an application example of this embodiment will be described with reference to FIGS.

図17に示すように、10m×15mの部屋内に6本のラインマーカ(長さ約60cm)5を貼付して設置し、カメラ(Dragonfly B&WXGA,f=6.37mm)1を1m間隔で格子状に移動(2m〜11m)し、実際のカメラの位置(手作業で計測)とトラッキングの結果の差をトラッキング誤差として計算することにより、図18に示すような結果が得られた。   As shown in FIG. 17, six line markers (length: about 60 cm) 5 are attached and installed in a 10 m × 15 m room, and the camera (Dragfly B & WXGA, f = 6.37 mm) 1 is latticed at intervals of 1 m. The result shown in FIG. 18 was obtained by calculating the difference between the actual camera position (measured manually) and the tracking result as a tracking error.

ここで、施設(作業領域)内におけるラインマーカ配置の最適化について説明する。   Here, optimization of the line marker arrangement in the facility (work area) will be described.

ラインマー力配置の最適化アルゴリズム
ラインマーカ配置の最適化アルゴリズムの目標は、拡張現実感の作業者がある領域内を移動する場合、ラインマーカの貼り付け位置を調整することにより、その領域内のトラッキングの精度を向上させることである。作業者が移動する領域とラインマーカを貼り付けることができる領域に関する情報を元に、直接、解析的な計算により最適なラインマーカ配置を求めることは、計算手法が非常に複雑になるため非常に困難である。そこで、この実施例では、遺伝的アルゴリズムを用いた適化繰り返し計算により、ラインマーカの貼り付け位置を求めることにした。その際、想定するトラッキング手法の応用先が、プラント内部での作業支援であることを考慮すると、ラインマーカを貼り付けることができる領域は、細長い配管の表面や壁や天井等の平面になると考えられる。そこで、ここでは、マーカを貼り付けることができる領域の形状を直線および平面の2種類とすることにした。
Line marker force optimization algorithm The goal of the line marker placement optimization algorithm is to adjust the location of the line marker when the augmented reality worker moves within the area, and to track within that area. Is to improve the accuracy. Finding the optimal line marker placement directly by analytical calculation based on information about the area where the operator moves and the area where the line marker can be pasted is very complicated because the calculation method becomes very complicated. Have difficulty. Therefore, in this embodiment, the line marker attachment position is determined by repeated optimization calculation using a genetic algorithm. At that time, considering that the application destination of the assumed tracking method is work support in the plant, the area where the line marker can be attached is considered to be the surface of a slender pipe, a plane such as a wall or ceiling. It is done. Therefore, here, the shape of the region where the marker can be pasted is determined to be two types, a straight line and a plane.

染色体のコード化
この実施例で使用する遺伝的アルゴリズムにおける個々の染色体は、環境に貼り付けるラインマーカの個数と同数の遺伝子を持ち、1つの遺伝子が、1つのラインマーカの位置情報を持つ。染色体M は、

Figure 2011252917
で定義される。ここで、nは環境に貼り付けるラインマーカの個数、fは染色体の個体番号、tは世代番号である。すなわち、m ikは、t番目の世代として求められた、f番目のラインマーカ配置におけるk番目のラインマーカの貼り付け位置を表す。 Chromosome coding Each chromosome in the genetic algorithm used in this embodiment has the same number of genes as the number of line markers to be attached to the environment, and one gene has position information of one line marker. Chromosome M t i is,
Figure 2011252917
Defined by Here, n is the number of line markers to be attached to the environment, f is the individual number of the chromosome, and t is the generation number. That is, m t ik represents the pasting position of the k-th line marker in the f-th line marker arrangement obtained as the t-th generation.

評価関数
e=g(x,M)を、ラインマーカ配置Mにおける位置姿勢xでのトラッキング誤差とする。この実施例では、この計算に前述したトラッキング誤差の計算方法を用いるが、そのためには、ラインマーカ配置、カメラの解像度、カメラのピクセルサイズ、レンズの焦点距離等の情報から、カメラにどのラインマーカが写っており、どのラインマーカが認識されるかを判断する必要がある。これは、カメラの視野と方向を解析的な計算で求め、ラインマーカの配置情報をもとにその視野内にラインマーカが入っているかどうかを調べることにより容易に判断できる。ただし、実際には、カメラの視野内にラインマーカが入っていても、カメラ画像上でのラインマーカの大きさが小さすぎる等の理由のために認識できない場合も起こりうるために、カメラとラインマーカの間の距離がある閾値以上の場合には、そのラインマーカが認識されないと判断する処理が必要である。ただし、以下では、説明を簡単にするために、カメラの視野に入ったラインマーカはその距離に関係なく、総て認識されるものとする。
The evaluation function e = g (x, M) is a tracking error at the position and orientation x in the line marker arrangement M. In this embodiment, the tracking error calculation method described above is used for this calculation. For this purpose, the line marker arrangement, camera resolution, camera pixel size, lens focal length, etc. It is necessary to determine which line marker is recognized. This can be easily determined by obtaining the visual field and direction of the camera by analytical calculation and examining whether or not the line marker is in the visual field based on the arrangement information of the line marker. However, in practice, even if a line marker is in the camera's field of view, it may not be recognized because the line marker is too small on the camera image. If the distance between the markers is greater than or equal to a certain threshold value, it is necessary to determine that the line marker is not recognized. However, in the following, in order to simplify the explanation, it is assumed that all the line markers that have entered the field of view of the camera are recognized regardless of the distance.

ラインマーカの配置を最適化するために遺伝的アルゴリズムを用いるにあたり、その評価関数は、最適化の基準に応じて設定するべきである。この実施例では、プラント内部で拡張現実感を利用する際のラインマーカの配置を最適化することを考えるが、その場含、作業者に提示する情報の正確性が問題になる。すなわち、トラッキングの精度が悪く、間違った位置や方向情報を作業者に提供してしまうと、ヒューマンエラーを誘発する原因となってしまうため、これは避けるべきである。従って、この実施例では、ラインマーカ配置最適化の1つの例として、「作業者が移動する範囲内全体での最も大きい誤差の大きさを最小化する」ことを今回の評価関数設定の目標とする。   In using a genetic algorithm to optimize the placement of line markers, the evaluation function should be set according to optimization criteria. In this embodiment, it is considered to optimize the arrangement of line markers when using augmented reality inside the plant, but the accuracy of the information presented to the worker in that case becomes a problem. In other words, tracking accuracy is poor, and providing incorrect position and direction information to an operator can cause human error, so this should be avoided. Therefore, in this embodiment, as one example of the line marker arrangement optimization, the objective of setting the evaluation function this time is to “minimize the largest error in the entire range in which the operator moves”. To do.

この様なラインマーカ配置の最適化の目標を定めた場合、本来は、作業者が移動する範囲内で起こりうる総ての位置姿勢に関してトラッキングの位置姿勢を評価し、その最大値を求めることが理想であるが、そのためには膨大な位置姿勢におけるトラッキング誤差の計算を繰り返す必要があり計算量が膨大になるために現実的ではない。そこでこの実施例では、予め定めた有限の位置姿勢に関してトラッキングの誤差を計算し、その結果の中の最大値を小さくする方向でラインマーカの配置を変化させる。すなわち、この実施例では、遺伝的アルゴリズムにおける評価関数を以下の式で定義する。   When the goal of optimizing the line marker arrangement is determined, tracking position and orientation can be evaluated with respect to all possible positions and orientations that can occur within the range of movement of the operator, and the maximum value can be obtained. Although it is ideal, for this purpose, it is necessary to repeat calculation of tracking errors in a huge position and orientation, and the calculation amount becomes enormous, which is not realistic. Therefore, in this embodiment, the tracking error is calculated with respect to a predetermined finite position and orientation, and the arrangement of the line markers is changed in the direction of decreasing the maximum value among the results. That is, in this embodiment, the evaluation function in the genetic algorithm is defined by the following formula.

Figure 2011252917
Figure 2011252917

ここで、xはj番目のカメラの位置姿勢であり、nは評価に用いられる位置姿勢の総数である。 Here, x j is the position and orientation of the j-th camera, and n p is the total number of positions and orientations used for evaluation.

この方法を用いると、予め選定された位置姿勢では、トラッキングの精度が上がり、それ以外の位置姿勢では、トラッキングの精度が下がる可能性がある。しかし、一般に、カメラに写るラインマーカの種類と数が同じである場合、隣り合う位置姿勢のトラッキングの精度は似た傾向になる傾向があり、予め選定された位置姿勢の周辺に関しても、トラッキングの精度が向上すると予想される。そのため、拡張現実感で支援する作業の特性や領域の配置に応じて、高いトラッキング精度が要求される領域の周辺で多くの位置姿勢を選定し、低いトラッキング精度で十分な領域では、少数の位置姿勢を選定すれば、目的の特性を持ったラインマーカ配置を得ることができると考えられる。ただし、この方法では「トラッキングの誤差の最大値は10mmである」のような精度を保証することはできない。従って、この実施例で提案する遺伝的アルゴリズムを用いたラインマーカの最適化手法を実用化する場合には、前述した様に、実際にトラッキングを行う際にも、ラインマーカの配置情報とトラッキングによって得られた位置姿勢を元に、前述のトラッキング誤差の計算アルゴリズムを実行し、誤差の大きさを推定し、その結果を基に情報提示をするかどうかを判断するべきである。   When this method is used, there is a possibility that the tracking accuracy increases at a position and orientation selected in advance, and the tracking accuracy decreases at other positions and orientations. However, in general, when the types and number of line markers appearing in the camera are the same, the tracking accuracy of adjacent positions and orientations tends to be similar, and tracking around the positions and orientations selected in advance also tends to be similar. The accuracy is expected to improve. Therefore, many positions and orientations are selected around the area where high tracking accuracy is required, depending on the characteristics of the work supported by augmented reality and the arrangement of the area. If the posture is selected, it is considered that a line marker arrangement having a desired characteristic can be obtained. However, this method cannot guarantee an accuracy such as “the maximum value of the tracking error is 10 mm”. Therefore, when the line marker optimization method using the genetic algorithm proposed in this embodiment is put into practical use, as described above, even when tracking is actually performed, the line marker arrangement information and tracking are used. Based on the obtained position and orientation, the above-described tracking error calculation algorithm should be executed to estimate the magnitude of the error and determine whether or not to present information based on the result.

初期化
この実施例では、遺伝的アルゴリズムの第1世代として、染色体の遺伝子の数を、ラインマーカを貼り付けることができる領域の数と同数(ラインマーカを配置可能な領域1つに対して1つのラインマーカを配置)とし、各遺伝子にラインマーカを貼り付けることができる領域の範囲内でランダムに定められた位置情報を持たせる。
Initialization In this embodiment, as the first generation of the genetic algorithm, the number of chromosome genes is the same as the number of regions to which line markers can be attached (one for each region where line markers can be placed). One line marker is arranged), and each gene has position information randomly determined within a region where the line marker can be pasted.

再初期化
この実施例では、初期化の際にラインマーカの初朗配置をランダムに定めるため、評価の対象となる位置姿勢の中で、カメラに十分な数のラインマーカが写らない位置姿勢ができる可能性がある。この場合、ラインマーカの初期配置を何回か繰り返し定め直すと、カメラに十分な数のラインマーカが写るようになる可能性もあるが、必ず十分な数のラインマーカが写るようになるとは限らない。そこで、この実施例では、初期化の際にカメラに十分な数のラインマーカが写らない位置姿勢ができた場合には、その位置姿勢でのカメラに写るように新しいラインマーカを1つ配置する(位置は、ラインマーカを貼り付けることができる領域内からランダムに定める)。この処理をこの実施例では再初期化と呼ぶ。この際、遺伝的アルゴリズムにおける染色体が持つ遺伝子の数は1つ増えることになる。ラインマーカを貼り付けることができる領域の制限が原因で、問題となる位置姿勢でのカメラに写るように新しいラインマーカを貼り付けることができない場合、目的とする領域でのトラッキングが実現できないと判断される。この場合は、ラインマーカを貼り付けることができる領域を新たに確保する必要がある。
Re-initialization In this embodiment, in order to randomly determine the initial arrangement of line markers at the time of initialization, among the positions and orientations to be evaluated, there are positions and orientations where a sufficient number of line markers are not reflected in the camera. There is a possibility. In this case, if the initial arrangement of the line markers is repeatedly determined several times, a sufficient number of line markers may appear in the camera, but a sufficient number of line markers may not always appear. Absent. Therefore, in this embodiment, when a position and orientation that does not capture a sufficient number of line markers on the camera at the time of initialization is set, one new line marker is arranged so that it is reflected on the camera at that position and orientation. (The position is randomly determined from within the area where the line marker can be pasted). This process is called reinitialization in this embodiment. At this time, the number of genes of the chromosome in the genetic algorithm is increased by one. If a new line marker cannot be pasted so that it appears in the camera at the position and orientation in question due to restrictions on the area where the line marker can be pasted, it is determined that tracking in the target area cannot be realized. Is done. In this case, it is necessary to secure a new area where the line marker can be pasted.

交叉
交叉は一般に用いられる遺伝的アルゴリズムと同様、2つの親染色体をランダムに選択し、遺伝子のある一点で入れ替えることにより行うすなわち、hを[1,n]の範囲内のランダムな整数とした場合、交叉は以下の式で表ざれる。
Crossover Crossover is performed by selecting two parent chromosomes at random and replacing them at a certain point in the same way as a commonly used genetic algorithm. That is, when h is a random integer in the range of [1, n] Crossover is expressed by the following equation.

Figure 2011252917
Figure 2011252917

突然変異
この実施例における突然変異は、以下の式で表現される。
Mutation The mutation in this example is expressed by the following formula:

Figure 2011252917
Figure 2011252917

ここで、hは[1,n]の範囲内のランダムな整数であり、mt+1 ihは、h番目のラインマーカを貼り付ける新しい位置の候補(予め設定されたラインマーカを貼り付けることができる領域の範囲内でランダムに選ぶ)である。 Here, h is a random integer in the range of [1, n], and m t + 1 ih is a new position candidate (a preset line marker can be pasted) for pasting the h th line marker. Select at random within the range of the area).

選択
この実施例における選択はルーレット選択を用いる・すなわち、'番目の染色体が選択される確率を以下の式で計算する。
Selection The selection in this example uses roulette selection, i.e., the probability that the 'th chromosome is selected is calculated by the following equation.

Figure 2011252917
Figure 2011252917

ここで、f(M)およびf(M)は、i番目およびk番目の染色体の評価関数値、pは染色体の総数(人口)である。この実施例では、一般の遺伝的アルゴリズムと同様に、上記確率に応じて優秀な染色体を残し、優秀ではない染色体を削除する。 Here, f (M i ) and f (M k ) are evaluation function values of the i-th and k-th chromosomes, and p is the total number (population) of chromosomes. In this embodiment, as in the case of a general genetic algorithm, excellent chromosomes are left according to the probability, and non-excellent chromosomes are deleted.

遺伝的アルゴリズムの染色体総数と世代数の設定
遺伝的アルゴリズムを実行するにあたり生成する染色体の総数は、環境に貼り付けられるラインマーカの総数に応じて決定するべきである。すなわち、1つのラインマーカに対してk個の位置の候補を評価する為には、ラインマーカの総数がn個の場合、最低nk個の染色体を生成するべきである。
Setting the total number of chromosomes and the number of generations in the genetic algorithm The total number of chromosomes to be generated when the genetic algorithm is executed should be determined according to the total number of line markers that are attached to the environment. That is, in order to evaluate k position candidates for one line marker, if the total number of line markers is n, at least nk chromosomes should be generated.

遺伝的アルゴリズムでは一般に、交叉を実行する世代数が多くなるほど、より適切な結果が得られる。しかし、非常に大きい世代数まで交叉させると、計算量が多くなり、結果を得るまでに要する時問が長くなる。どの世代で計算をうち切るべきかに関する詳しい議論はこの実施例では行わないが、実際の現場で拡張現実感を利用することを考えた場合、必ずしも最適なラインマーカ配置を求める必要はなく、現場で要求される精度を満たしたラインマーカ配置が求められれば最適でなくても良いとも考えられる。従って、遺伝的アルゴリズムで実行する世代数は、使用するコンピュータの性能や費やすことができる時問によっても変化するが、基本的には、評価関数で得られた値を元に、要求される精度のトラッキングを実現できるラインマーカ配置が求まったかどうかを各世代で判断し、既に求まっている場合には、そこで計算をうち切るという方針が適切であると考えられる。   In general, in genetic algorithms, the more generations that perform crossover, the more appropriate results are obtained. However, when crossing up to a very large number of generations, the amount of calculation increases and the time required to obtain the result becomes longer. A detailed discussion on which generation should be cut off is not given in this example. However, considering the use of augmented reality in the actual field, it is not always necessary to find the optimal line marker arrangement. If a line marker arrangement that satisfies the accuracy required in (1) is required, it may not be optimal. Therefore, the number of generations executed by the genetic algorithm varies depending on the performance of the computer used and the time that can be spent, but basically, the required accuracy is based on the value obtained by the evaluation function. It is considered appropriate for each generation to determine whether or not a line marker arrangement that can realize tracking is obtained, and if it has already been obtained, the calculation is cut off.

提案手法の試用とその結果
この実施例で提案する遺伝的アルゴリズムを用いたラインマーカの最適化手法の効果を確認するために、シミュレーションベースの評価実験を行った。
Trial of the Proposed Method and its Results In order to confirm the effect of the line marker optimization method using the genetic algorithm proposed in this example, a simulation-based evaluation experiment was conducted.

実験に用いた疑似プラント環境
図15にこの評価実験で用いた疑似プラント環境を示す。この環境は大きさが奥行き8m、幅10m、高さ4mの直方体であり、ラインマーカを貼り付けることができる領域として、直線状の領域と平面状の領域の2種類の領域を設定した。これらの領域は、プラント内部に多数存在する配管の表面や、プラントの壁、天井、床等を想定している。表1に、この実験で想定したラインマーカを貼り付け可能な領域の種類と大きさ、位置等を示す。図15中、灰色の円がラインマーカ、ラインマーカから出る矢印をラインマーカの移動可能方向を示す。なお、ワールド座標系の原点を、図15における左手前の隅に設定し、右向きをx軸、上向きをy軸、手前方向をz軸とする。
Pseudo plant environment used in the experiment FIG. 15 shows a pseudo plant environment used in the evaluation experiment. This environment is a rectangular parallelepiped having a depth of 8 m, a width of 10 m, and a height of 4 m, and two types of areas, a linear area and a planar area, are set as areas where a line marker can be pasted. These areas are assumed to be the surface of a large number of pipes existing in the plant, the wall, ceiling, floor, etc. of the plant. Table 1 shows the type, size, position, and the like of the area where the line marker assumed in this experiment can be pasted. In FIG. 15, a gray circle indicates a line marker, and an arrow from the line marker indicates a movable direction of the line marker. The origin of the world coordinate system is set to the left front corner in FIG. 15, the right direction is the x axis, the upward direction is the y axis, and the front direction is the z axis.

実際にトラッキングを実行する際には、画像処理によりラインマーカの位置と種類を認識する必要があるため、ラインマーカはある程度の大きさを持ち、互いに重なり合った配置はできない。そこで、この実験では、突然変異でラインマーカの新しい位置を生成する際に、ラインマーカ間の最小距離を50mmとする制限を加えた。   When tracking is actually executed, it is necessary to recognize the position and type of the line marker by image processing. Therefore, the line marker has a certain size and cannot be arranged so as to overlap each other. Therefore, in this experiment, when a new position of the line marker is generated by mutation, a restriction is set such that the minimum distance between the line markers is 50 mm.

Figure 2011252917
Figure 2011252917

表2に、この実験で評価関数を求める際に用いるカメラの位置姿勢を示す、図15における矢印の位置と方向が、カメラの位置姿勢を表している。カメラの位置姿勢は、8つの位置と各位置における3姿勢の計24位置姿勢で構成しており、プラント内部において近傍に点検すべき機器や配管がある等の理由により、高精度にトラッキングを行う必要がある位置姿勢であると想定する。   In Table 2, the position and orientation of the arrow in FIG. 15 showing the position and orientation of the camera used when obtaining the evaluation function in this experiment represent the position and orientation of the camera. The camera position and orientation is composed of a total of 24 positions and postures of 8 positions and 3 positions at each position, and tracking is performed with high accuracy because there are equipment and piping to be inspected nearby in the plant. Assume that the position and orientation is necessary.

しかし、実際にこれらの24位置姿勢のみにおけるトラッキングの誤差を小さくすることを目標に既述の遺伝的アルゴリズムを実行した場合には、局所的に高精度が実現され、その隣接する領域で低精度になるラインマーカ配置が求められてしまうため、この実施例では、遺伝的アルゴリズムの各世代で、トラッキング誤差を評価する位置姿勢を設定した24位置姿勢の周りで微少変化させることにした。すなわち、位置に関してx軸方向とz軸方向に100mm、姿勢に関して左右見回し方向に5度の範囲で評価する位置姿勢を毎世代で変化させた。   However, when the above-described genetic algorithm is executed with the goal of actually reducing the tracking error only in these 24 positions and postures, high accuracy is realized locally, and low accuracy is obtained in the adjacent region. Therefore, in this embodiment, in each generation of the genetic algorithm, a slight change is made around the 24 position / posture in which the position / posture for evaluating the tracking error is set. That is, the position and orientation to be evaluated in a range of 100 mm in the x-axis direction and the z-axis direction with respect to the position and 5 degrees in the left-right direction with respect to the orientation were changed every generation.

Figure 2011252917
Figure 2011252917

表3に、実験で用いた遺伝的アルゴリズムの各パラメータを示す。カメラは解像度が1024x766pixels、レンズの焦点距離は3.94mm、ピクセルサイズは0.00465mmとし、△は0.5ピクセルとした。   Table 3 shows the parameters of the genetic algorithm used in the experiment. The camera had a resolution of 1024 × 766 pixels, the lens focal length was 3.94 mm, the pixel size was 0.00465 mm, and Δ was 0.5 pixel.

Figure 2011252917
Figure 2011252917

実験結果
図16に、遺伝的アルゴリズムを用いたマーカ配置の最適化を200世代まで、20回実行した際の各世代におけるトラッキング誤差の最大値の平均値・最良値・最悪値を示す。今回の設定条件では、初期化を行った際に十分な数のラインマーカを撮影できない位置姿勢が生じたため、再初期化が2回行われ、最終的なラインマーカの個数は11個となった第1世代では、最も悪い場合で150mm程度あったトラッキング誤差の最大値が、50世代あたりから、50mm程度まで減少していることが確認できる。
Experimental Results FIG. 16 shows the average value, the best value, and the worst value of the maximum value of the tracking error in each generation when marker placement optimization using a genetic algorithm is executed 20 times up to 200 generations. Under this setting condition, there was a position and orientation that could not capture a sufficient number of line markers when initialization was performed, so re-initialization was performed twice, and the final number of line markers was 11. In the first generation, it can be confirmed that the maximum value of the tracking error which was about 150 mm in the worst case has decreased from around the 50th generation to about 50 mm.

この実施例で提案するマーカ配置の最適化手法の実行速度に関して、1世代分の計算に要する時問は、Core 2 Duo 2.66 GHzを搭載したパソコンを用いた場合、1〜2秒程度であった(実行ソフトウエアはC#を用いて開発した)。   Regarding the execution speed of the marker placement optimization method proposed in this embodiment, the time required for calculation for one generation was about 1 to 2 seconds when using a personal computer equipped with Core 2 Duo 2.66 GHz. (Execution software was developed using C #).

Figure 2011252917
Figure 2011252917

表4に、最適化する前のラインマーカ配置(第1世代)および200世代におけるラインマーカ配置を示す。これを見ると、(1)ラインマーカ間の距離が長い方が精度が高い、(2)ラインマーカが直線状に並ぶと精度が低い、(3)ラインマーカ配置のz軸方向(奥行き方向)の距離が長い方が、精度が高い、ことが確認できる。   Table 4 shows the line marker arrangement (first generation) before optimization and the line marker arrangement in the 200th generation. Looking at this, (1) the longer the distance between the line markers, the higher the accuracy, (2) the accuracy when the line markers are arranged in a straight line, (3) the z-axis direction (depth direction) of the line marker arrangement It can be confirmed that the longer the distance, the higher the accuracy.

実際にプラントでのラインマーカ配置の最適化に適用する際の注意点
この実施例で提案する手法を、実際の原子力発電プラントでのラインマーカ配置の最適化に適用する際には、以下の点を注意する必要がある。
(1)この実施例では、カメラのレンズの歪みは適切に補正されているという前提でラインマーカの最適化手法を提案している。なんらかの理由で、カメラのレンズの歪みを適切に補正することができない場合は、この実施例で提案する手法を適当して得られた結果は、参考資料として利用するべきである。
(2)この実施例では、カメラ画像上でのラインマーカの認識誤差△は、既知であるとした。△は、ラインマーカのデザイン、照明条件等で異なることが予想され、実際に本研究で提案する手法を用いるためには、△を実測する必要がある。
(3)この実施例では、ラインマーカの配置を最適化するにあたり、遺伝的アルゴリズムを実行する際の各種パラメータ(計算を実行する世代数、突然変異の割合等)として、実際にどのような値を用いるべきかの厳密な議論は行っていない。これらのパラメータは、最適化の収束速度や、最終的なトラッキング誤差の大きさに影響することが予想される。将来的には、これらのパラメータとして、どのような値を設定するべきかを検討することが望ましい。
Points to note when optimizing the line marker arrangement in the plant When applying the method proposed in this example to the optimization of the line marker arrangement in the actual nuclear power plant, the following points Need to be careful.
(1) In this embodiment, a line marker optimization method is proposed on the assumption that the distortion of the lens of the camera is appropriately corrected. If the camera lens distortion cannot be corrected appropriately for some reason, the results obtained by appropriately using the method proposed in this embodiment should be used as reference data.
(2) In this embodiment, the line marker recognition error Δ on the camera image is known. Δ is expected to vary depending on the design of the line marker, lighting conditions, etc. In order to actually use the method proposed in this research, it is necessary to actually measure Δ.
(3) In this embodiment, in optimizing the arrangement of line markers, what values are actually used as various parameters (number of generations to be calculated, mutation rate, etc.) when executing the genetic algorithm There is no strict discussion about whether to use. These parameters are expected to affect the convergence speed of the optimization and the magnitude of the final tracking error. In the future, it is desirable to consider what values should be set for these parameters.

結論と今後の課題
この実施例では広い範囲でトラッキングの誤差を小さくできるラインマーカ配置を求めることができる新しい手法の実現を目指し、カメラの解像度が有限であることに起因するカメラ画像上でのラインマーカの位直の認識誤差からトラッキングの誤差を計算するTECアルゴリズムと、遺伝的アルゴリズムを用いたラインマーカの最適化手法を提案した。原子力発電プラント内でのトラッキングをシミュレーションする評価実験により、提案する手法により、実用的な時間内でトラッキングの誤差を小さくできるラインマーカ配置を求めることができることを確認した。
Conclusion and Future Issues In this example, we aim to realize a new method that can obtain a line marker arrangement that can reduce tracking errors over a wide range. Lines on the camera image due to the limited camera resolution We proposed a TEC algorithm that calculates tracking error from the recognition error of the marker position, and a line marker optimization method using a genetic algorithm. Through an evaluation experiment that simulates tracking in a nuclear power plant, it was confirmed that the proposed method can determine a line marker arrangement that can reduce tracking errors within a practical time.

1(1a〜1c)…カメラ、2…HMD(Head Mounted Display)、3…情報処理装置、4…作業現場、41(41a,41b…)…機器、5(5a,5b)…ラインマーカ、51…基材、52(52a〜52k)…コードマーク。   DESCRIPTION OF SYMBOLS 1 (1a-1c) ... Camera, 2 ... HMD (Head Mounted Display), 3 ... Information processing apparatus, 4 ... Work site, 41 (41a, 41b ...) ... Equipment, 5 (5a, 5b) ... Line marker, 51 ... base material, 52 (52a to 52k) ... code mark.

Claims (2)

予め作業現場に設置されたラインマーカと、作業者が携行するカメラと、作業現場の画像と指示情報を表示して作業者に提供する表示装置と、前記カメラで作業現場を撮影して得た撮影画像中の前記ラインマーカの画像位置に基づいてカメラ(作業者)の位置と向きを計測し、作業者に対して提供する情報画像を作業現場の画像に重ねて前記表示装置に表示させる情報処理を行う情報処理装置を備えた現場作業支援システムにおけるラインマーカの配置方法において、
前記ラインマーカは、前記カメラの位置の計測誤差が最小となるように、遺伝的アルゴリズムにより最適化配置処理を行うことで決定された位置に配置することを特徴とするマーカの配置方法。
Obtained by photographing the work site with the line marker installed in advance at the work site, the camera carried by the worker, the display device for displaying the work site image and instruction information and providing it to the worker Information for measuring the position and orientation of the camera (worker) based on the image position of the line marker in the photographed image and displaying the information image provided to the worker on the work site image on the display device In the method for arranging line markers in a field work support system equipped with an information processing device for processing,
The marker placement method, wherein the line marker is placed at a position determined by performing an optimized placement process using a genetic algorithm so that a measurement error of the camera position is minimized.
請求項1において、ラインマーカの位置の決定は、
(1)画像処理によって得られるコードマークに含まれる誤差の大きさの推定し、
(2)(1)の結果と誤差計算手法及び遺伝的アルゴリズムを用いて、様々なラインマーカ配置における作業現場内のトラッキングの誤差の大きさを推定し、徐々に高い精度が期待できるラインマーカ配置を繰り返し計算により求めることにより行うことを特徴とするマーカの配置方法。
In claim 1, the determination of the position of the line marker is:
(1) Estimating the size of an error included in a code mark obtained by image processing,
(2) Using the results of (1), the error calculation method and the genetic algorithm, estimate the size of tracking errors in the work site in various line marker arrangements, and gradually increase the accuracy of line marker arrangements This is a marker placement method characterized in that it is obtained by repeatedly calculating.
JP2011158900A 2011-07-20 2011-07-20 Marker placement method in field work support system Expired - Fee Related JP5256330B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011158900A JP5256330B2 (en) 2011-07-20 2011-07-20 Marker placement method in field work support system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011158900A JP5256330B2 (en) 2011-07-20 2011-07-20 Marker placement method in field work support system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2007146824A Division JP4896823B2 (en) 2007-06-01 2007-06-01 Field work support system

Publications (2)

Publication Number Publication Date
JP2011252917A true JP2011252917A (en) 2011-12-15
JP5256330B2 JP5256330B2 (en) 2013-08-07

Family

ID=45416932

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011158900A Expired - Fee Related JP5256330B2 (en) 2011-07-20 2011-07-20 Marker placement method in field work support system

Country Status (1)

Country Link
JP (1) JP5256330B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014203593A1 (en) * 2013-06-21 2014-12-24 株式会社エルム Control system for remote-control unmanned flight vehicle
JP5991423B2 (en) * 2013-02-21 2016-09-14 富士通株式会社 Display device, display method, display program, and position setting system
KR101734746B1 (en) 2013-04-12 2017-05-11 아셀산 엘렉트로닉 사나이 베 티카렛 아노님 시르케티 A system and method for optimizing fiducial marker and camera positions/orientations
CN109212466A (en) * 2018-09-01 2019-01-15 哈尔滨工程大学 A kind of broadband direction-finding method based on quantum dragonfly mechanism of Evolution

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09198504A (en) * 1996-01-16 1997-07-31 Atr Tsushin Syst Kenkyusho:Kk Attitude detector
JP2000076441A (en) * 1998-08-31 2000-03-14 Meidensha Corp Position data correction method, medium having recorded software realizing the method thereon, and device for executing the method
JP2003090714A (en) * 2001-09-18 2003-03-28 Shigenori Tanaka Image processor and image processing program
JP2004347488A (en) * 2003-05-23 2004-12-09 Mitsubishi Electric Corp Field work support device
JP2005037222A (en) * 2003-07-14 2005-02-10 National Aerospace Laboratory Of Japan Method for automatically processing position correction in image information
JP2007064684A (en) * 2005-08-29 2007-03-15 Canon Inc Marker arrangement assisting method and device therefor

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09198504A (en) * 1996-01-16 1997-07-31 Atr Tsushin Syst Kenkyusho:Kk Attitude detector
JP2000076441A (en) * 1998-08-31 2000-03-14 Meidensha Corp Position data correction method, medium having recorded software realizing the method thereon, and device for executing the method
JP2003090714A (en) * 2001-09-18 2003-03-28 Shigenori Tanaka Image processor and image processing program
JP2004347488A (en) * 2003-05-23 2004-12-09 Mitsubishi Electric Corp Field work support device
JP2005037222A (en) * 2003-07-14 2005-02-10 National Aerospace Laboratory Of Japan Method for automatically processing position correction in image information
JP2007064684A (en) * 2005-08-29 2007-03-15 Canon Inc Marker arrangement assisting method and device therefor

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5991423B2 (en) * 2013-02-21 2016-09-14 富士通株式会社 Display device, display method, display program, and position setting system
JPWO2014128760A1 (en) * 2013-02-21 2017-02-02 富士通株式会社 Display device, display method, display program, and position setting system
KR101734746B1 (en) 2013-04-12 2017-05-11 아셀산 엘렉트로닉 사나이 베 티카렛 아노님 시르케티 A system and method for optimizing fiducial marker and camera positions/orientations
WO2014203593A1 (en) * 2013-06-21 2014-12-24 株式会社エルム Control system for remote-control unmanned flight vehicle
CN109212466A (en) * 2018-09-01 2019-01-15 哈尔滨工程大学 A kind of broadband direction-finding method based on quantum dragonfly mechanism of Evolution

Also Published As

Publication number Publication date
JP5256330B2 (en) 2013-08-07

Similar Documents

Publication Publication Date Title
JP4896823B2 (en) Field work support system
US10086955B2 (en) Pattern-based camera pose estimation system
EP3104329B1 (en) Image processing device and image processing method
CN108227929B (en) Augmented reality lofting system based on BIM technology and implementation method
JP6008397B2 (en) AR system using optical see-through HMD
CN103512548B (en) Distance-measuring device and distance measurement method
US10451403B2 (en) Structure-based camera pose estimation system
JPWO2015045834A1 (en) Marker image processing system
JP6464938B2 (en) Image processing apparatus, image processing method, and image processing program
JP5256330B2 (en) Marker placement method in field work support system
WO2015132981A1 (en) Position measurement device and position measurement method
JP2012033043A (en) Information display device and information display method
US9858669B2 (en) Optimized camera pose estimation system
JP2019020997A (en) Information processing apparatus, control method thereof, and program
JP2021136017A (en) Augmented reality system using visual object recognition and stored geometry to create and render virtual objects
JP2014106642A (en) Ar system using optical see-through type hmd
CN110517347A (en) A kind of construction project data model environment method for visualizing and its device and application
JP2021170272A (en) Positioning system, positioning device, positioning method, and positioning program
Xiang et al. Towards mobile projective AR for construction co-robots
JP2002324239A (en) Information presenting system
JP2013092888A (en) Data processor
US11348321B2 (en) Augmented viewing of a scenery and subsurface infrastructure
JP2009162516A (en) Brdf measuring device and method
CN111179347B (en) Positioning method, positioning equipment and storage medium based on regional characteristics
Aoki et al. Self-position estimation based on road sign using augmented reality technology

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130422

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160426

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees