JP4726191B2 - Position / orientation correction apparatus, position / orientation correction method, program thereof, and storage medium - Google Patents

Position / orientation correction apparatus, position / orientation correction method, program thereof, and storage medium Download PDF

Info

Publication number
JP4726191B2
JP4726191B2 JP2005029828A JP2005029828A JP4726191B2 JP 4726191 B2 JP4726191 B2 JP 4726191B2 JP 2005029828 A JP2005029828 A JP 2005029828A JP 2005029828 A JP2005029828 A JP 2005029828A JP 4726191 B2 JP4726191 B2 JP 4726191B2
Authority
JP
Japan
Prior art keywords
correction
parameter
orientation
parameters
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005029828A
Other languages
Japanese (ja)
Other versions
JP2006215924A5 (en
JP2006215924A (en
Inventor
清秀 佐藤
晋二 内山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2005029828A priority Critical patent/JP4726191B2/en
Publication of JP2006215924A publication Critical patent/JP2006215924A/en
Publication of JP2006215924A5 publication Critical patent/JP2006215924A5/ja
Application granted granted Critical
Publication of JP4726191B2 publication Critical patent/JP4726191B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、物体の位置及び姿勢、特に撮像装置の位置及び姿勢を計測する方法及び装置に関するものである。   The present invention relates to a method and apparatus for measuring the position and orientation of an object, particularly the position and orientation of an imaging apparatus.

近年、現実空間と仮想空間の繋ぎ目のない結合を目的とした、複合現実感に関する研究が盛んに行われている。複合現実感の提示を行う画像表示装置は、ビデオカメラなどの撮像装置によって撮影された現実空間の画像に、撮像装置の位置及び姿勢に応じて生成した仮想空間の画像(たとえばコンピュータ・グラフィックスにより描画された仮想物体や文字情報など)を重畳描画した画像を表示する装置として実現することができる。   In recent years, research on mixed reality has been actively conducted for the purpose of seamless connection between the real space and the virtual space. An image display device that presents a mixed reality is a virtual space image (for example, by computer graphics) that is generated according to the position and orientation of an imaging device on a real space image captured by an imaging device such as a video camera. It can be realized as a device that displays an image in which a drawn virtual object, character information, etc.) are superimposed and drawn.

このような画像表示装置を実現するには、現実空間中に定義した基準座標系(重畳しようとする仮想物体の位置及び姿勢を決定する基準となる現実空間中の座標系)と、撮像装置の座標系(カメラ座標系)との間の、相対的な位置及び姿勢を計測することが不可欠である。これは、仮想物体(仮想空間画像)を現実空間上の位置に合わせて描画するには、基準座標系に対する撮像装置の現実のカメラパラメータと同一のカメラパラメータを用いて仮想物体の画像を生成しなければならないからである。例えば、現実の室内のある位置に仮想物体を重畳表示する場合には、部屋に基準座標系を定義し、その基準座標系における撮像装置の位置及び姿勢を求めればよい。また、観察者が手に保持する現実の箱に何らかの仮想の模様やラベルを重畳表示する場合には、箱自身の物体座標系を基準座標系と考え、撮像装置に対する箱(基準座標系)の位置及び姿勢を求めればよい。   In order to realize such an image display device, a reference coordinate system defined in the real space (a coordinate system in the real space serving as a reference for determining the position and orientation of the virtual object to be superimposed) It is essential to measure the relative position and orientation with respect to the coordinate system (camera coordinate system). In order to draw a virtual object (virtual space image) according to a position in the real space, an image of the virtual object is generated using the same camera parameters as the real camera parameters of the imaging device with respect to the reference coordinate system. Because it must be. For example, when a virtual object is superimposed and displayed at a position in an actual room, a reference coordinate system is defined in the room, and the position and orientation of the imaging device in the reference coordinate system may be obtained. In addition, when a virtual pattern or label is superimposed and displayed on an actual box held by an observer, the object coordinate system of the box itself is considered as a reference coordinate system, and the box (reference coordinate system) of the image pickup apparatus is considered. What is necessary is just to obtain | require a position and attitude | position.

撮像装置の位置及び姿勢を計測する方法として、現実空間中に複数の指標(人為的なマーカや自然特徴など)を配置あるいは設定し、撮像装置によって撮像された画像内における指標の投影像の座標を検出して、指標の座標情報との関係に基づいて撮像装置の位置及び姿勢を求めることが一般的に行われている(例えば、非特許文献1)。しかし、このアプローチを用いる場合、常に指標が撮像されなくてはならないという制約がある。   As a method for measuring the position and orientation of the imaging device, a plurality of indices (artificial markers, natural features, etc.) are arranged or set in the real space, and the coordinates of the projected image of the indices in the image captured by the imaging device In general, the position and orientation of the imaging device are obtained based on the relationship with the coordinate information of the index (for example, Non-Patent Document 1). However, when using this approach, there is a restriction that the index must always be imaged.

一方、撮像装置に磁気センサや超音波センサなどを用いた6自由度位置姿勢センサを装着し、これによって計測した撮像装置の位置及び姿勢の誤差を、指標を撮像した画像を用いて得られる情報(画像情報)によって補正する試みがなされている(例えば、特許文献1,特許文献2)。特許文献2で開示されている方法では、撮像画像中に指標が検出された場合にはその情報に基づいてセンサ計測値の誤差が補正され、指標が検出されない場合には6自由位置姿勢センサの計測値がそのまま撮像装置の位置及び姿勢として使用される。指標の検出の有無に関わらずに撮像装置の位置及び姿勢が得られるため、複合現実感の提示を安定して行うことができる。   On the other hand, a 6-DOF position / orientation sensor using a magnetic sensor, an ultrasonic sensor, or the like is attached to the image pickup device, and the information obtained by using the image obtained by imaging the index of the position and orientation error of the image pickup device measured thereby. Attempts to correct by (image information) have been made (for example, Patent Document 1 and Patent Document 2). In the method disclosed in Patent Document 2, if an index is detected in the captured image, the error of the sensor measurement value is corrected based on the information, and if the index is not detected, the 6-free-position / posture sensor is detected. The measured value is used as it is as the position and orientation of the imaging apparatus. Since the position and orientation of the imaging device can be obtained regardless of whether or not the index is detected, it is possible to stably present the mixed reality.

また、特許文献2の方法では、検出された指標の数が3点以上の場合には、撮像装置の位置及び姿勢の6自由度が画像情報に基づいて算出され、検出された指標の数が2点及び1点の場合には、センサによって計測された撮像装置の位置あるいは姿勢のいずれか(2または3自由度)のみを補正する処理が適用される。すなわち、検出された指標の数を判定基準として、撮像装置の位置及び姿勢の算出に利用するアルゴリズムを切り替えることが行われている。これにより、画像情報のみからでは撮像装置の位置及び姿勢を求められない場合(撮像された指標の数が3点に満たない場合)であっても、センサ計測値を基準としながら、その誤差を極力打ち消すような補正のなされた位置及び姿勢を取得することができる。   In the method of Patent Document 2, when the number of detected indices is three or more, six degrees of freedom of the position and orientation of the imaging device are calculated based on the image information, and the number of detected indices is In the case of two points and one point, a process for correcting only one of the position and orientation of the imaging apparatus measured by the sensor (2 or 3 degrees of freedom) is applied. That is, the algorithm used for calculating the position and orientation of the imaging apparatus is switched using the number of detected indices as a criterion. As a result, even when the position and orientation of the imaging device cannot be obtained from only the image information (when the number of captured images is less than 3 points), the error is reduced based on the sensor measurement value. It is possible to acquire a position and orientation that have been corrected to cancel as much as possible.

一方、特許文献1の方法では、検出された指標の数に関わらず、センサによって計測された撮像装置の位置あるいは姿勢のいずれかのみを画像情報に基づいて補正する処理が適用される。この補正方法では、姿勢を補正する場合には、検出された指標毎に指標上における誤差を打ち消すような回転補正値を個別に求め、それらを平均化することで姿勢計測値に対する補正値が算出される。また、位置を補正する場合には、検出された指標毎に指標上における誤差を打ち消すような平行移動補正値を個別に求め、それらを平均化することで位置計測値に対する補正値が算出される。指標の数に関わらず補正の自由度を2または3に限定するため、情報量が不十分な場合であっても安定した解を得ることができる。   On the other hand, in the method of Patent Document 1, a process of correcting only one of the position and orientation of the imaging device measured by the sensor based on the image information is applied regardless of the number of detected indices. In this correction method, when correcting the posture, a correction value for the posture measurement value is calculated by individually obtaining a rotation correction value that cancels the error on the indicator for each detected indicator and averaging them. Is done. In addition, when correcting the position, a parallel movement correction value that cancels the error on the index is obtained for each detected index, and the correction value for the position measurement value is calculated by averaging them. . Since the degree of freedom of correction is limited to 2 or 3 regardless of the number of indices, a stable solution can be obtained even when the amount of information is insufficient.

加藤ら:”マーカー追跡に基づく拡張現実感システムとそのキャリブレーション”,日本バーチャルリアリティ学会論文誌, vol.4, no.4, pp.607-616, 1999.Kato et al: “Augmented Reality System Based on Marker Tracking and Its Calibration”, Transactions of the Virtual Reality Society of Japan, vol.4, no.4, pp.607-616, 1999. J. Park, B. Jiang, and U. Neumann: "Vision-based pose computation: robust and accurate augmented reality tracking," Proc. 2nd International Workshop on Augmented Reality (IWAR'99), pp.3-12, 1999.J. Park, B. Jiang, and U. Neumann: "Vision-based pose computation: robust and accurate augmented reality tracking," Proc. 2nd International Workshop on Augmented Reality (IWAR'99), pp.3-12, 1999. D. G. Lowe: "Fitting parameterized three−dimensional models to images," IEEE Transactions on PAMI, vol.13, no.5, pp.441−450, 1991.D. G. Lowe: "Fitting parameterized three-dimensional models to images," IEEE Transactions on PAMI, vol.13, no.5, pp.441-450, 1991. 特開2003-222509号公報JP 2003-222509 A 特開2003-279310号公報JP 2003-279310 A 特開2003-344018号公報JP2003-344018

上記特許文献2の手法では、指標が3点以上観測されている際には必ず、位置及び姿勢の6自由度を画像情報から求めるアルゴリズムが選択される。しかし実際には、画像上の一部の領域に指標が偏在して観測されている場合のように、指標の数が3点以上であっても、位置及び姿勢の6自由度を安定して求めるのに十分な画像情報が入力画像中に含まれていない状況が存在する。特許文献2の手法は、このような状況下において、得られる解の精度や安定性が不十分となることがあった。   In the method of the above-mentioned Patent Document 2, whenever three or more indices are observed, an algorithm for obtaining 6 degrees of freedom of position and orientation from image information is selected. However, in reality, even if the number of indices is 3 or more, as in the case where the indices are unevenly distributed in a part of the image, the 6 degrees of freedom of the position and orientation can be stabilized. There are situations where the input image does not contain enough image information to find. In such a situation, the method of Patent Document 2 sometimes has insufficient accuracy and stability of the obtained solution.

一方、上記特許文献1の手法は、精度よりも安定性を重視した手法であり、画像上の一部の領域に指標が偏在して観測されている場合のような画像情報が不十分な状況下であっても、特許文献2の手法と比較して安定した計測を行うことができる。しかし、十分な画像情報が得られている場合でも一部のパラメータの補正のみしか行わないので、画像情報を最大限に生かした精度を得ることができなかった。   On the other hand, the method of Patent Document 1 is a method in which stability is more important than accuracy, and there is insufficient image information as in the case where an index is unevenly observed in a part of an image. Even if it is below, it can measure stably compared with the method of patent document 2. FIG. However, even when sufficient image information is obtained, only correction of some parameters is performed, and thus it is impossible to obtain the accuracy that makes the best use of the image information.

また、上記特許文献1の手法では、個々の指標に対する2次元的な補正値の平均を求めているだけであるので、全指標上での誤差の和を最小とするような最適な補正を行うことができなかった。   Further, since the method of Patent Document 1 only calculates the average of two-dimensional correction values for each index, optimal correction is performed so as to minimize the sum of errors on all indices. I couldn't.

本発明はこのような従来技術の問題点に鑑みてなされたものであり、計測対象物体の位置及び姿勢の計測を、安定性と精度とを両立しながら行うことが可能な位置姿勢測定方法及び装置を提供することを目的とする。   The present invention has been made in view of such problems of the prior art, and a position and orientation measurement method capable of measuring the position and orientation of a measurement target object while achieving both stability and accuracy, and An object is to provide an apparatus.

上述の目的は、撮像装置の位置姿勢を構成する複数のパラメータの1つ以上を補正する位置姿勢補正装置であって、複数のパラメータを入力する位置姿勢入力手段と、現実空間に複数配置された指標を撮像装置で撮像した画像を入力する画像入力手段と、画像から指標の画像座標の実測値を検出する検出手段と、検出手段による検出結果に基づいて、複数のパラメータのうち何れを補正対象とするか決定する決定手段と、複数のパラメータおよび実測値に基づいて、複数のパラメータのうち、決定手段によって補正対象のパラメータと決定されなかったパラメータを補正せず、補正対象のパラメータと決定されたパラメータを補正する補正手段と、を有し、補正手段が、指標の座標と複数のパラメータとに基づいて、指標の画像座標の理論値を算出する理論値算出手段と、実測値と理論値との誤差を小さくするように、補正対象と決定されたパラメータの補正値を算出する補正値算出手段と、補正値に基づいて、複数のパラメータのうち補正対象のパラメータと決定されなかったパラメータを補正せず、補正対象のパラメータと決定されたパラメータを補正するパラメータ補正手段と、を有することを特徴とする位置姿勢補正装置によって達成される。 The above-described object is a position / orientation correction apparatus that corrects one or more of a plurality of parameters constituting the position / orientation of the imaging apparatus, and a plurality of position / orientation input means for inputting a plurality of parameters and a plurality of parameters are arranged in the real space. An image input unit that inputs an image obtained by imaging an index with an imaging device, a detection unit that detects an actual measurement value of the image coordinates of the index from the image, and which of a plurality of parameters is to be corrected based on a detection result by the detection unit Based on the plurality of parameters and the actual measurement values, the parameter to be corrected is determined as the parameter to be corrected without correcting the parameter that has not been determined as the parameter to be corrected by the determining unit. Correction means for correcting the parameters, the correction means based on the index coordinates and a plurality of parameters, the theoretical value of the index image coordinates A theoretical value calculating means for calculating, a correction value calculating means for calculating a correction value of a parameter determined as a correction target so as to reduce an error between the actual measurement value and the theoretical value, and a plurality of parameters based on the correction value This is achieved by a position / orientation correction apparatus comprising: a parameter to be corrected and a parameter correction unit that corrects the determined parameter without correcting the parameter to be corrected and the parameter that has not been determined .

また、上述の目的は、計測対象物体の位置姿勢を構成する複数のパラメータを補正する位置姿勢補正装置であって、複数のパラメータを入力する位置姿勢入力手段と、計測対象物体に複数配置された指標を撮像装置で撮像した画像を入力する画像入力手段と、撮像画像から指標の画像座標の実測値を検出する検出手段と、検出手段による検出結果に基づいて、複数のパラメータのうち何れを補正対象とするか決定する決定手段と、複数のパラメータおよび実測値に基づいて、複数のパラメータのうち決定手段によって補正対象のパラメータと決定されなかったパラメータを補正せず、補正対象のパラメータと決定されたパラメータを補正する補正手段と、を有し、補正手段が、複数のパラメータに基づいて、指標の画像座標の理論値を算出する理論値算出手段と、実測値と理論値との誤差を小さくするように、補正対象のパラメータと決定されたパラメータの補正値を算出する補正値算出手段と、補正値に基づいて、複数のパラメータのうち補正対象のパラメータと決定されなかったパラメータを補正せず、補正対象のパラメータと決定されたパラメータを補正するパラメータ補正手段と、を有することを特徴とする位置姿勢補正装置によっても達成される。 The above-described object is a position / orientation correction apparatus that corrects a plurality of parameters constituting the position / orientation of a measurement target object, and is provided with a plurality of position / orientation input means for inputting a plurality of parameters and a plurality of measurement target objects. An image input unit that inputs an image obtained by imaging an index with an imaging device, a detection unit that detects an actual measurement value of the index image from the captured image, and which of a plurality of parameters is corrected based on a detection result by the detection unit Based on a plurality of parameters and actual measurement values, a determination unit that determines whether to be a target, a parameter that has not been determined as a correction target parameter by the determination unit, is determined as a correction target parameter without correcting the parameter. Correction means for correcting the parameter, and the correction means calculates a theoretical value of the image coordinate of the index based on the plurality of parameters. A theoretical value calculating means, a correction value calculating means for calculating a correction value of the parameter to be corrected and the determined parameter so as to reduce an error between the actually measured value and the theoretical value, and a plurality of parameters based on the correction value And a parameter correction unit that corrects the parameter to be corrected and the determined parameter without correcting the parameter to be corrected and the parameter that has not been determined. .

また、上述の目的は、撮像装置の位置姿勢を構成する複数のパラメータを補正する位置姿勢補正装置であって、複数のパラメータを入力する位置姿勢入力手段と、現実空間に複数配置され、位置が既知である指標を、撮像装置で撮像した画像を入力する画像入力手段と、画像から指標の画像座標の実測値を検出する検出手段と、検出手段による検出結果に基づいて、複数のパラメータのうち何れを補正対象とするか決定する決定手段と、複数のパラメータおよび実測値に基づいて、複数のパラメータのうち決定手段によって補正対象のパラメータと決定されなかったパラメータを補正せず、補正対象のパラメータと決定されたパラメータを補正する補正手段と、を有し、補正手段が、指標の位置と複数のパラメータとに基づいて、指標の画像座標の理論値を算出する理論値算出手段と、実測値と理論値との誤差を小さくするように、補正対象のパラメータと決定されたパラメータの補正値を算出する補正値算出手段と、補正値に基づいて、複数のパラメータのうち補正対象のパラメータと決定されなかったパラメータを補正せず、補正対象のパラメータと決定されたパラメータを補正するパラメータ補正手段と、を有し、複数のパラメータは、位置を示す3つの位置成分および姿勢を示す3つの姿勢成分の6成分に相当するパラメータであって、決定手段が、検出手段で検出された指標が1つである場合に、複数のパラメータのうち2成分以下に相当するパラメータを補正対象のパラメータとして決定し、検出手段で検出された指標が2つである場合に、検出された指標の画像座標間の距離に基づいて、複数のパラメータのうち3成分以下に相当するパラメータを補正対象のパラメータとして決定し、検出手段で検出された指標が3つ以上である場合に、検出された指標の画像座標から得られる領域の面積に基づいて、複数のパラメータのうち6成分以下に相当するパラメータを補正対象のパラメータとして決定することを特徴とする位置姿勢補正装置によっても達成される。 The above-described object is a position / orientation correction apparatus that corrects a plurality of parameters constituting the position / orientation of the imaging apparatus, and a plurality of position / orientation input means for inputting a plurality of parameters are arranged in the real space, and the positions are Based on the detection result of the detection means by the image input means for inputting the image captured by the imaging device, the image input means for inputting a known index, the actual value of the image coordinates of the index from the image, and a plurality of parameters Based on a plurality of parameters and actual measurement values, a determination unit that determines which one is to be corrected, and a parameter that is not determined as a correction target parameter by the determination unit among the plurality of parameters is not corrected. A correction unit that corrects the determined parameter, and the correction unit is configured to display the index image based on the position of the index and the plurality of parameters. A theoretical value calculating means for calculating the theoretical value of the standard, a correction value calculating means for calculating the correction value of the parameter to be corrected and the determined parameter so as to reduce an error between the actually measured value and the theoretical value, and a correction value A correction target parameter and a parameter correction unit that corrects the determined parameter without correcting the correction target parameter among the plurality of parameters, and the plurality of parameters, Parameters corresponding to six components of three position components indicating positions and three posture components indicating postures, and when the determining means has one index detected by the detecting means, among the plurality of parameters When the parameters corresponding to two or less components are determined as parameters to be corrected, and there are two indices detected by the detection means, the image coordinates of the detected indices Based on the distance, a parameter corresponding to three or less components among a plurality of parameters is determined as a correction target parameter, and when there are three or more indices detected by the detection means, the image coordinates of the detected indices The position / orientation correction apparatus is characterized in that a parameter corresponding to six or less components among a plurality of parameters is determined as a correction target parameter based on the area of the region obtained from the above.

また、上述の目的は、計測対象物体の位置姿勢を構成する複数のパラメータを補正する位置姿勢補正装置であって、複数のパラメータを入力する位置姿勢入力手段と、計測対象物体に複数配置された指標を撮像装置で撮像した画像を入力する画像入力手段と、撮像画像から指標の画像座標の実測値を検出する検出手段と、検出手段による検出結果に基づいて、複数のパラメータのうち何れを補正対象とするか決定する決定手段と、複数のパラメータおよび実測値に基づいて、複数のパラメータのうち決定手段によって補正対象のパラメータと決定されなかったパラメータを補正せず、補正対象のパラメータと決定されたパラメータを補正する補正手段と、を有し、補正手段が、複数のパラメータに基づいて、指標の画像座標の理論値を算出する理論値算出手段と、実測値と理論値との誤差を小さくするように、補正対象のパラメータと決定されたパラメータの補正値を算出する補正値算出手段と、補正値に基づいて、複数のパラメータのうち補正対象のパラメータと決定されなかったパラメータを補正せず、補正対象のパラメータと決定されたパラメータを補正するパラメータ補正手段と、を有し、複数のパラメータは、位置を示す3つの位置成分および姿勢を示す3つの姿勢成分の6成分に相当するパラメータであって、決定手段が、検出手段で検出された指標が1つである場合に、複数のパラメータのうち2成分以下に相当するパラメータを補正対象のパラメータとして決定し、検出手段で検出された指標が2つである場合に、検出された指標の画像座標間の距離に基づいて、複数のパラメータのうち3成分以下に相当するパラメータを補正対象のパラメータとして決定し、検出手段で検出された指標が3つ以上である場合に、検出された指標の画像座標から得られる領域の面積に基づいて、複数のパラメータのうち6成分以下に相当するパラメータを補正対象のパラメータとして決定することを特徴とする位置姿勢補正装置によっても達成される。 The above-described object is a position / orientation correction apparatus that corrects a plurality of parameters constituting the position / orientation of a measurement target object, and is provided with a plurality of position / orientation input means for inputting a plurality of parameters and a plurality of measurement target objects. An image input unit that inputs an image obtained by imaging an index with an imaging device, a detection unit that detects an actual measurement value of the index image from the captured image, and which of a plurality of parameters is corrected based on a detection result by the detection unit Based on a plurality of parameters and actual measurement values, a determination unit that determines whether to be a target, a parameter that has not been determined as a correction target parameter by the determination unit, is determined as a correction target parameter without correcting the parameter. Correction means for correcting the parameter, and the correction means calculates a theoretical value of the image coordinate of the index based on the plurality of parameters. A theoretical value calculating means, a correction value calculating means for calculating a correction value of the parameter to be corrected and the determined parameter so as to reduce an error between the actually measured value and the theoretical value, and a plurality of parameters based on the correction value A correction target parameter and parameter correction means for correcting the determined parameter without correcting the correction target parameter and the parameter that has not been determined, and the plurality of parameters include three position components indicating the position. And a parameter corresponding to six components of the three posture components indicating the posture, and when the determination unit has one index detected by the detection unit, a parameter corresponding to two or less components among the plurality of parameters Is determined as a parameter to be corrected, and when there are two indices detected by the detection means, based on the distance between the image coordinates of the detected indices, When a parameter corresponding to three or less components among the number of parameters is determined as a parameter to be corrected, and there are three or more indices detected by the detection means, the area of the region obtained from the image coordinates of the detected indices This is achieved by a position and orientation correction apparatus characterized in that a parameter corresponding to six or less components among a plurality of parameters is determined as a correction target parameter .

本発明に係る位置姿勢計測装置によれば、指標の画像座標の理論値と実測値との誤差を最小とする補正値を求め、この補正値によってセンサの計測値を補正することで、従来の方法と比べて安定性と精度に優れた計測が実現できる。   According to the position and orientation measurement apparatus according to the present invention, a correction value that minimizes the error between the theoretical value and the actual measurement value of the image coordinate of the index is obtained, and the measurement value of the sensor is corrected by this correction value. Compared to the method, measurement with superior stability and accuracy can be realized.

以下添付図面を参照して、本発明を好適な実施形態に従って詳細に説明する。
[第1の実施形態]
本実施形態に係る位置姿勢計測装置は、撮像装置と計測対象物体の位置及び姿勢の計測を行う。以下、本実施形態に係る位置姿勢計測装置及び位置姿勢計測方法について説明する。
Hereinafter, the present invention will be described in detail according to preferred embodiments with reference to the accompanying drawings.
[First Embodiment]
The position / orientation measurement apparatus according to the present embodiment measures the positions and orientations of the imaging apparatus and the measurement target object. Hereinafter, the position and orientation measurement apparatus and the position and orientation measurement method according to the present embodiment will be described.

図1は、本実施形態における位置姿勢計測装置の構成を示している。同図に示したように、本実施形態における位置姿勢計測装置100は、画像入力部160、指標検出部110、センサ計測値入力部150、及び位置姿勢算出部120によって構成される。そして、撮像装置130及び、撮像装置130と計測対象物体170に取り付けられた位置姿勢センサ140(140a,140b)に接続されている。   FIG. 1 shows a configuration of a position / orientation measurement apparatus according to the present embodiment. As shown in the figure, the position / orientation measurement apparatus 100 according to this embodiment includes an image input unit 160, an index detection unit 110, a sensor measurement value input unit 150, and a position / orientation calculation unit 120. And it is connected to the imaging device 130 and the position and orientation sensor 140 (140a, 140b) attached to the imaging device 130 and the measurement target object 170.

計測対象物体170上の複数の位置には、物体座標系(計測対象物体170上に定義される座標系)における位置が既知である複数個の指標Q(k=1,2,・・・,K)が配置されている。図1の例は、K=9、すなわち9個の指標Q〜Qが配置されている状況を示している。指標Qは、例えば、それぞれが異なる色を有する同一形状(図では円形)のマーカによって構成してもよいし、それぞれが異なるテクスチャ特徴を有する自然特徴等の特徴点によって構成してもよい。また、ある程度の面積を有する四角形の単色領域によって形成されるような、四角形指標を用いることも可能である。撮影画像上における投影像の画像座標が検出可能であって、かついずれの指標であるかが何らかの方法で識別可能であるような指標であれば、何れの形態であってもよい。また指標は故意に設定されたものであっても良いし、故意に設定されたものではない、自然形状のものを用いても良い。 The plurality of positions on the measurement target object 170 include a plurality of indices Q k (k = 1, 2,...) Whose positions in the object coordinate system (the coordinate system defined on the measurement target object 170) are known. , K). The example of FIG. 1 shows a situation in which K = 9, that is, nine indices Q 1 to Q 9 are arranged. The index Q k may be constituted by, for example, markers of the same shape (circular in the figure) each having a different color, or may be constituted by feature points such as natural features each having a different texture feature. It is also possible to use a square index formed by a rectangular single color area having a certain area. Any form may be used as long as the image coordinates of the projected image on the photographed image can be detected and the index can be identified by any method. The indicator may be set intentionally, or may be a natural shape that is not set intentionally.

例えばビデオカメラである撮像装置130が出力する画像(以下、これを撮影画像と呼ぶ)は、位置姿勢計測装置100に入力される。   For example, an image output from the imaging device 130 that is a video camera (hereinafter referred to as a captured image) is input to the position and orientation measurement device 100.

6自由度センサである位置姿勢センサ140a及び140bは、それぞれ撮像装置130及び計測対象物体170に装着されており、基準座標系における撮像装置130及び計測対象物体170の位置及び姿勢を計測する。位置姿勢センサ140が出力する計測値は、位置姿勢計測装置100に入力される。位置姿勢センサ140は、例えば、米国Polhemus社のFASTRAK等によって構成される。なお、位置姿勢センサ140によって計測される位置及び姿勢は、磁場の歪み等の影響によって誤差を含んだものとなっている。   Position and orientation sensors 140a and 140b, which are six-degree-of-freedom sensors, are attached to the imaging device 130 and the measurement target object 170, respectively, and measure the positions and orientations of the imaging device 130 and the measurement target object 170 in the reference coordinate system. The measurement value output by the position / orientation sensor 140 is input to the position / orientation measurement apparatus 100. The position / orientation sensor 140 is constituted by, for example, FASTRAK of Polhemus, USA. Note that the position and orientation measured by the position and orientation sensor 140 include errors due to the influence of magnetic field distortion and the like.

画像入力部160は、位置姿勢装置100へ入力される撮影画像をデジタルデータに変換し、指標検出部110へと出力する。   The image input unit 160 converts a captured image input to the position / orientation apparatus 100 into digital data and outputs the digital data to the index detection unit 110.

センサ計測値入力部150は、位置姿勢センサ140(140a,140b)から夫々の計測値を入力し、位置姿勢算出部120へと出力する。   The sensor measurement value input unit 150 inputs each measurement value from the position / orientation sensor 140 (140a, 140b), and outputs it to the position / orientation calculation unit 120.

指標検出部110は、画像入力部160より撮影画像を入力し、入力した画像中に撮影されている指標Qの画像座標を検出する。例えば、指標Qの各々が異なる色を有するマーカによって構成されている場合には、撮影画像上から各々のマーカ色に対応する領域を検出し、その重心位置を指標の検出座標とする。また、指標Qの各々が異なるテクスチャ特徴を有する特徴点によって構成されている場合には、既知の情報として予め保持している各々の指標のテンプレート画像によるテンプレートマッチングを撮影画像上に施すことにより、指標の位置を検出する。また、四角形指標を用いる場合は、画像に2値化処理を施した後にラベリングを行い、4つの直線によって形成されている領域を指標候補として検出する。さらに、候補領域の中に特定のパターンがあるか否かを判定することによって誤検出を排除し、また、指標の識別子を取得する。なお、このようにして検出される四角形指標は、本明細書では、4つの頂点の個々によって形成される4つの指標であると考える。 Index detecting section 110 receives the captured image from the image input unit 160, detects the image coordinates of the indices Q k has been taken in the input image. For example, when each of the indices Q k is composed of markers having different colors, an area corresponding to each marker color is detected from the photographed image, and the barycentric position is set as the detected coordinates of the index. Further, when each of the indices Q k is composed of feature points having different texture characteristics, template matching is performed on the captured image by using a template image of each index that is held in advance as known information. , Detect the position of the indicator. In addition, when a quadratic index is used, labeling is performed after binarizing the image, and an area formed by four straight lines is detected as an index candidate. Further, by detecting whether or not there is a specific pattern in the candidate area, false detection is eliminated, and the identifier of the index is acquired. In the present specification, the quadrangular indices detected in this way are considered to be four indices formed by four individual vertices.

指標検出部110は、さらに、検出された各々の指標Qknの画像座標uQknとその識別子kを位置姿勢算出部120へと出力する。ここで、n(n=1,,,N)は検出された指標夫々に対するインデックスであり、Nは検出された指標の総数を表している。 Index detecting section 110 further outputs the image coordinates u Qkn of the index Q kn each detected and the identifier k n to the position and orientation calculation unit 120. Here, n (n = 1,..., N) is an index for each detected index, and N represents the total number of detected indices.

位置姿勢算出部120は、センサ計測値入力部150の出力である撮像装置130及び計測対象物体170の位置及び姿勢の計測値と、指標検出部110の出力である各々の指標Qknの画像座標uQknを入力し、入力した情報に基づいて、計測対象物体170あるいは撮像装置130の位置及び姿勢の計測値の誤差を補正し、補正後の位置及び姿勢のデータを出力する。 The position / orientation calculation unit 120 measures the position and orientation measurement values of the imaging device 130 and the measurement target object 170, which are outputs from the sensor measurement value input unit 150, and the image coordinates of each index Qkn , which is an output from the index detection unit 110. u Qkn is input, based on the input information, the error of the measurement value of the position and orientation of the measurement target object 170 or the imaging device 130 is corrected, and the corrected position and orientation data is output.

なお、図1に示した画像入力部160、指標検出部110、センサ計測値入力部150、及び位置姿勢算出部120の少なくとも一部は、独立した装置として実現しても良いし、夫々1つもしくは複数のコンピュータにインストールし、コンピュータのCPUにより実行することで、その機能を実現するソフトウェアとして実現しても良い。本実施形態では、各部(画像入力部160、指標検出部110、センサ計測値入力部150、及び位置姿勢算出部120)は、それぞれソフトウェアにより実現され、同一のコンピュータにインストールされているものとする。   Note that at least a part of the image input unit 160, the index detection unit 110, the sensor measurement value input unit 150, and the position / orientation calculation unit 120 illustrated in FIG. 1 may be realized as independent devices, or one each. Alternatively, it may be implemented as software that implements its function by being installed in a plurality of computers and executed by the CPU of the computer. In the present embodiment, each unit (image input unit 160, index detection unit 110, sensor measurement value input unit 150, and position / orientation calculation unit 120) is realized by software and installed in the same computer. .

図2は、画像入力部160、指標検出部110、センサ計測値入力部150、及び位置姿勢算出部120の夫々の機能を、ソフトウェアを実行することで実現するためのコンピュータの基本構成を示す図である。   FIG. 2 is a diagram illustrating a basic configuration of a computer for realizing the functions of the image input unit 160, the index detection unit 110, the sensor measurement value input unit 150, and the position / orientation calculation unit 120 by executing software. It is.

CPU1001は、RAM1002やROM1003に格納されたプログラムやデータを用いてコンピュータ全体の制御を行うと共に、画像入力部160、指標検出部110、センサ計測値入力部150、及び位置姿勢算出部120の夫々のソフトウェアの実行を制御して、各部の機能を実現する。   The CPU 1001 controls the entire computer using programs and data stored in the RAM 1002 and the ROM 1003, and controls the image input unit 160, the index detection unit 110, the sensor measurement value input unit 150, and the position / orientation calculation unit 120. The execution of software is controlled to realize the functions of each unit.

RAM1002は、外部記憶装置1007や記憶媒体ドライブ1008からロードされたプログラムやデータを一時的に記憶するエリアを備えると共に、CPU1001が各種の処理を行うために必要とするワークエリアを備える。   The RAM 1002 includes an area for temporarily storing programs and data loaded from the external storage device 1007 and the storage medium drive 1008, and a work area required for the CPU 1001 to perform various processes.

ROM1003は、一般にコンピュータのプログラムや設定データなどが格納されている。キーボード1004、マウス1005は入力デバイスであり、操作者はこれらを用いて、各種の指示をCPU1001に入力することができる。   The ROM 1003 generally stores computer programs and setting data. A keyboard 1004 and a mouse 1005 are input devices, and an operator can input various instructions to the CPU 1001 using these devices.

表示部1006は、CRTや液晶ディスプレイなどにより構成されており、例えば、位置姿勢計測のために表示すべきメッセージ等を表示することができる。   The display unit 1006 includes a CRT, a liquid crystal display, or the like, and can display, for example, a message to be displayed for position and orientation measurement.

外部記憶装置1007は、ハードディスクドライブなどの大容量情報記憶装置として機能する装置であって、ここにOS(オペレーティングシステム)やCPU1001が実行するプログラム等を保存する。また本実施形態の説明において、既知であると説明する情報はここに保存されており、必要に応じてRAM1002にロードされる。   The external storage device 1007 is a device that functions as a large-capacity information storage device such as a hard disk drive, and stores an OS (operating system), a program executed by the CPU 1001, and the like. In the description of the present embodiment, information that is described as being known is stored here, and loaded into the RAM 1002 as necessary.

記憶媒体ドライブ1008は、CD−ROMやDVD−ROMなどの記憶媒体に記憶されているプログラムやデータをCPU1001からの指示に従って読み出して、RAM1002や外部記憶装置1007に出力する。   The storage medium drive 1008 reads a program or data stored in a storage medium such as a CD-ROM or DVD-ROM in accordance with an instruction from the CPU 1001 and outputs it to the RAM 1002 or the external storage device 1007.

I/F1009は、撮像装置130を接続するためのアナログビデオポートあるいはIEEE1394等のデジタル入出力ポート、位置姿勢センサ140を接続するためのRS232CあるいはUSB等のシリアルポート、また、算出した位置及び姿勢を外部へ出力するためのイーサネット(登録商標)ポート等によって構成される。夫々が入力したデータはI/F1009を介してRAM1002に取り込まれる。画像入力部160及びセンサ計測値入力部150の機能の一部は、I/F1009によって実現される。
上述した各構成要素は、バス1010によって相互に接続される。
The I / F 1009 is an analog video port for connecting the imaging device 130 or a digital input / output port such as IEEE1394, a serial port such as RS232C or USB for connecting the position / orientation sensor 140, and the calculated position and orientation. It is composed of an Ethernet (registered trademark) port for output to the outside. The data input by each is taken into the RAM 1002 via the I / F 1009. Part of the functions of the image input unit 160 and the sensor measurement value input unit 150 are realized by the I / F 1009.
The above-described components are connected to each other by a bus 1010.

図3は、位置姿勢算出部120の処理手順を示すフローチャートであり、本実施形態ではCPU1001が位置姿勢算出部120の機能を実現するプログラムを実行することにより実現される。なお、以下の処理を行う前段で、同フローチャートに従ったプログラムコードは、例えば外部記憶装置1007からRAM1002に既にロードされているものとする。   FIG. 3 is a flowchart showing a processing procedure of the position / orientation calculation unit 120. In the present embodiment, the CPU 1001 is implemented by executing a program that realizes the function of the position / orientation calculation unit 120. It is assumed that the program code according to the flowchart is already loaded from, for example, the external storage device 1007 to the RAM 1002 in the previous stage of performing the following processing.

ステップS3000において、位置姿勢算出部120は、検出された各々の指標Qknの画像座標uQknとその識別子kを指標抽出部110から入力する。なお、各指標の物体座標系における3次元座標x Qknは、既知の値としてRAM1002に予めロードされているものとする。 In step S3000, the position and orientation calculation unit 120 inputs the image coordinates u Qkn of the index Q kn each detected and the identifier k n from the index extraction unit 110. It is assumed that the three-dimensional coordinates x O Qkn in the object coordinate system of each index are loaded in advance in the RAM 1002 as known values.

ステップS3005において、位置姿勢算出部120は、撮像装置130及び計測対象物体170の位置及び姿勢のセンサによる計測値をセンサ計測値入力部150から入力する。   In step S <b> 3005, the position / orientation calculation unit 120 inputs, from the sensor measurement value input unit 150, measurement values obtained by the position and orientation sensors of the imaging device 130 and the measurement target object 170.

ステップS3010において、位置姿勢算出部120は、指標が検出されているか否かを判定する。指標が検出されていない場合はステップS3080に処理を進め、それ以外の場合はステップS3020に処理を進める。   In step S3010, the position / orientation calculation unit 120 determines whether an index is detected. If no index is detected, the process proceeds to step S3080, and otherwise, the process proceeds to step S3020.

ステップS3020において、位置姿勢算出部120は、検出された指標の総数が一つか否かを判定する.指標の総数が一つの場合はステップS3025に処理を進め、それ以外の場合はステップS3030に処理を進める。   In step S3020, the position / orientation calculation unit 120 determines whether or not the total number of detected indices is one. If the total number of indices is one, the process proceeds to step S3025. Otherwise, the process proceeds to step S3030.

ステップS3025において、位置姿勢算出部120は、ステップS3005で得た撮像装置130の姿勢の計測値のうちのパン及びチルト角に対して、検出されている指標上での誤差(物体座標系における指標の3次元座標x Qknと撮像装置130及び計測対象物体170の位置及び姿勢の計測値から導出する投影座標の理論値uQkn*と、実際の検出座標uQknとの誤差)を打ち消すような補正を加え、ステップS3080に処理を進める。ステップS3025における補正処理としては、周知の処理を適用することが可能であるため、これ以上の説明は行わない。具体的には、例えば特許文献1(ランドマーク1点を利用したカメラの回転による補正方法(段落「0019」〜「0029」)およびランドマークを複数点利用したカメラの回転による補正方法(段落「0039」〜「0050」))に開示されている方法を用いることができる。 In step S3025, the position / orientation calculation unit 120 determines an error (an index in the object coordinate system) on the detected index with respect to the pan and tilt angles in the orientation measurement value of the imaging device 130 obtained in step S3005. The error between the theoretical value u Qkn * of the projected coordinates derived from the measured values of the three-dimensional coordinates x O Qkn of the imaging device 130 and the measurement object 170 and the actual detected coordinates u Qkn ). Correction is added, and the process proceeds to step S3080. As the correction process in step S3025, since a known process can be applied, no further explanation will be given. Specifically, for example, Patent Document 1 (a correction method by rotation of a camera using one landmark (paragraphs “0019” to “0029”) and a correction method by rotation of a camera using a plurality of landmarks (paragraph “ 0039 "-" 0050 "))) can be used.

ステップS3030において、位置姿勢算出部120は、検出された指標の総数が二つか否かを判定する.指標の総数が二つの場合はステップS3033に処理を進め、それ以外の場合はステップS3040に処理を進める。   In step S3030, the position / orientation calculation unit 120 determines whether the total number of detected indices is two. If the total number of indices is two, the process proceeds to step S3033. Otherwise, the process proceeds to step S3040.

ステップS3033において、位置姿勢算出部120は、検出された二つの指標の画像上での距離を算出し、その値と所定の値として定められている閾値T(例えば、画像の対角線長の1/4)との比較を行う。距離が閾値T以上の場合にはステップS3035に処理を進め、それ以外の場合はステップS3025に処理を進め、上述した処理を行う。 In step S <b> 3033, the position / orientation calculation unit 120 calculates the distance between the two detected indices on the image, and the threshold value T 1 (for example, 1 of the diagonal length of the image) defined as a predetermined value. Comparison with / 4). Distance advances to step S3035 in the case of thresholds T 1 or more, the flow advances to step S3025 otherwise, performing the processing described above.

ステップS3035において、位置姿勢算出部120は、ステップS3005で得た計測対象物体170の位置及び姿勢の計測値と、撮像装置130の位置の計測値を固定値として、撮像装置130の姿勢の計測値を表す3パラメータ(パン,チルト及びロール角)に対して、検出されている全指標上での誤差の和を最小とするような補正を加え、ステップS3080に処理を進める。この処理工程の詳細は後述する。   In step S3035, the position / orientation calculation unit 120 uses the measurement values of the position and orientation of the measurement target object 170 obtained in step S3005 and the measurement values of the position of the imaging device 130 as fixed values, and the measurement values of the orientation of the imaging device 130. Is corrected so as to minimize the sum of errors on all detected indices, and the process proceeds to step S3080. Details of this processing step will be described later.

ステップS3040において、位置姿勢算出部120は、検出された全指標(このステップが実行されるのは、検出された指標の総数が三つ以上の場合のみである)の画像座標を包含する凸包を算出する。画像上の点群に対する凸包の算出方法は画像処理の基本的事項として広く公知のものであるので、その詳細な説明は省略する。   In step S3040, the position / orientation calculation unit 120 determines that the convex hull includes the image coordinates of all detected indices (this step is executed only when the total number of detected indices is three or more). Is calculated. Since the convex hull calculation method for the point cloud on the image is widely known as a basic matter of image processing, detailed description thereof is omitted.

図6,図7,及び図8は、撮像装置130によって計測対象物体170を撮影することで取得される撮影画像の一例を示している。図6に示す撮影画像600上では指標Q1,Q5,Q6,Q9が、図7の撮影画像700上では指標Q1,Q2,Q6,Q7が,図8の撮影画像800上では指標Q2,Q6,Q7が観測されており、それ以外の指標は、他の物体(本実施形態においてはユーザの手610)によって隠蔽されているものとする。   6, 7, and 8 illustrate an example of a captured image acquired by capturing the measurement target object 170 with the imaging device 130. Indices Q1, Q5, Q6, and Q9 are shown on the photographed image 600 shown in FIG. 6, indicators Q1, Q2, Q6, and Q7 are on the photographed image 700 in FIG. 7, and indicators Q2, Q6, and Q6 are on the photographed image 800 in FIG. It is assumed that Q7 is observed and other indices are hidden by another object (in this embodiment, the user's hand 610).

これらの撮影画像に対して指標の検出を行い、図3のフローチャートで示した位置姿勢算出部120の処理ステップを実行すると、各画像において検出される指標の数は3以上であるので、ステップS3040以降の処理が実行されることになる。図9,図10及び図11は、それぞれ撮影画像600,700,800に対してステップS3040の処理を実行した際に得られる、検出指標の成す凸包(900,1000,1100)を示している。なお、以下では、各凸包の面積をそれぞれA900,A1000,及びA1100と表記したときに、以下に述べる閾値T及び閾値Tに対して、A1100<T<A1000<T<A900という関係が満たされているものとする。 When indices are detected for these captured images and the processing steps of the position / orientation calculation unit 120 shown in the flowchart of FIG. 3 are executed, the number of indices detected in each image is 3 or more, so step S3040. Subsequent processing is executed. 9, FIG. 10 and FIG. 11 show the convex hull (900, 1000, 1100) formed by the detection index, which is obtained when the processing of step S3040 is performed on the captured images 600, 700, 800, respectively. . In the following, when the area of each convex hull is expressed as A 900 , A 1000 , and A 1100 , A 1100 <T 2 <A 1000 <with respect to threshold T 2 and threshold T 3 described below. It is assumed that the relationship T 3 <A 900 is satisfied.

ステップS3050において、位置姿勢算出部120は、ステップS3040で算出した凸包の面積と、所定の値として定められている閾値T(例えば、撮影画像全体の面積の1/16)との比較を行う。面積が閾値T以上の場合はステップS3060に処理を進め、それ以外の場合はステップS3025へと処理を進める。図6〜図11の例では、撮影画像800についてはステップS3025へ、撮影画像700及び600についてはステップS3060へと処理が進行する。 In step S3050, the position / orientation calculation unit 120 compares the area of the convex hull calculated in step S3040 with a threshold T 2 (for example, 1/16 of the total area of the captured image) set as a predetermined value. Do. The process advances to step S3060 when the area is the threshold T 2 or more, the process proceeds to step S3025 otherwise. 6 to 11, the process proceeds to step S3025 for the captured image 800, and to step S3060 for the captured images 700 and 600.

ステップS3060において、位置姿勢算出部120は、ステップS3040で算出した凸包の面積と、所定の値として定められている閾値T(例えば、撮影画像全体の面積の1/9)との比較を行う。面積が閾値T以上の場合はステップS3070に処理を進め、それ以外の場合はステップS3035へと処理を進める。図6〜図11の例では、撮影画像700についてはステップS3035へ、撮影画像600についてはステップS3070へと処理が進行する。 In step S <b> 3060, the position / orientation calculation unit 120 compares the area of the convex hull calculated in step S <b> 3040 with a threshold T 3 (for example, 1/9 of the area of the entire captured image) set as a predetermined value. Do. The process advances to step S3070 If the area is not less than the threshold value T 3, the process proceeds to step S3035 otherwise. 6 to 11, the process proceeds to step S3035 for the captured image 700 and to step S3070 for the captured image 600.

ステップS3070において、位置姿勢算出部120は、検出されている全指標上での誤差の和を最小とするような撮像装置130の位置と姿勢を算出する。この処理工程の詳細は後述する。   In step S3070, the position / orientation calculation unit 120 calculates the position and orientation of the imaging apparatus 130 that minimizes the sum of errors on all the detected indices. Details of this processing step will be described later.

ステップS3080において、位置姿勢算出部120は、ステップS3025、S3035及びS3070で得られた撮像装置130及び計測対象物体170の位置及び姿勢を表すデータを、I/F1009を介して外部へと出力する。あるいは、これらのデータを、他のアプリケーションから利用可能な状態としてRAM1002上に格納する。   In step S3080, the position / orientation calculation unit 120 outputs data representing the positions and orientations of the imaging device 130 and the measurement target object 170 obtained in steps S3025, S3035, and S3070 to the outside via the I / F 1009. Alternatively, these data are stored on the RAM 1002 in a state where they can be used by other applications.

なお、ステップS3025,S3035,S3070の各工程では、撮像装置130に関する計測値のみに補正を加えているので、ステップS3080で出力される位置及び姿勢のデータは、計測対象物体170に関しては、ステップS3005で入力したセンサによる計測値そのものとなる。しかし、位置及び姿勢の出力形態はこれに限られるものではなく、逆に、撮像装置130の位置及び姿勢の計測値には補正を加えずにセンサによる計測値をそのまま出力し、計測対象物体170の位置及び姿勢の計測値に補正を加えて出力しても良い。この場合は、ステップS3080において、以下に述べる座標変換処理を行った後に、変換後の位置及び姿勢を出力する。   In each of the steps S3025, S3035, and S3070, only the measurement value related to the imaging device 130 is corrected. Therefore, the position and orientation data output in step S3080 is related to the measurement target object 170 in step S3005. It becomes the measurement value itself by the sensor input in. However, the output form of the position and orientation is not limited to this, and conversely, the measurement value by the sensor is output as it is without correcting the measurement value of the position and orientation of the imaging device 130, and the measurement target object 170 is output. The measured values of the position and orientation may be corrected and output. In this case, in step S3080, the coordinate conversion process described below is performed, and then the converted position and orientation are output.

同次座標系を用いた4×4の座標変換行列によって位置及び姿勢を表記すると、計測対象物体170の補正後の位置及び姿勢MWOは、センサ計測値として得られた撮像装置130の位置及び姿勢M# WC(以下、# はセンサによる計測値を表す記号)と、センサ計測値として得られた計測対象物体170の位置及び姿勢M# WOと、ステップS3070までの処理結果として得られた撮像装置130の補正後の位置及び姿勢MWCに基づいて、次式によって算出される。 When the position and orientation are expressed by a 4 × 4 coordinate transformation matrix using a homogeneous coordinate system, the corrected position and orientation M WO of the measurement target object 170 are the position of the imaging device 130 obtained as a sensor measurement value, and Posture M # WC (hereinafter, # is a symbol representing a measurement value by the sensor), position and posture M # WO of the measurement target object 170 obtained as the sensor measurement value, and imaging obtained as a result of processing up to step S3070 Based on the corrected position and orientation M WC of the device 130, the following calculation is performed.

Figure 0004726191
Figure 0004726191

このとき、撮像装置130によって定義されるカメラ座標系における計測対象物体170の位置及び姿勢は、   At this time, the position and orientation of the measurement target object 170 in the camera coordinate system defined by the imaging device 130 are:

Figure 0004726191
Figure 0004726191

となる。すなわち、ステップS3070までの処理結果として得られた撮像装置130の補正後の位置及び姿勢(MWC)と、センサ計測値として得られた計測対象物体170の位置及び姿勢(M# WO)とを出力する場合と、センサ計測値として得られた撮像装置130の位置及び姿勢(M# WC)と、式1によって求められる計測対象物体170の補正後の位置及び姿勢(MWO)とを出力する場合では、計測対象物体170と撮像装置130の相対的な位置及び姿勢の関係は等価となる。したがって、本装置の出力を利用するアプリケーションが要求する形態に合わせて、出力形態を選択できるようになっていることが好ましい。 It becomes. That is, the corrected position and orientation (M WC ) of the imaging device 130 obtained as a result of the processing up to step S3070 and the position and orientation (M # WO ) of the measurement target object 170 obtained as sensor measurement values are obtained. When outputting, the position and orientation (M # WC ) of the imaging device 130 obtained as sensor measurement values, and the corrected position and orientation (M WO ) of the measurement target object 170 obtained by Equation 1 are output. In this case, the relative positions and orientations of the measurement target object 170 and the imaging device 130 are equivalent. Therefore, it is preferable that the output form can be selected according to the form required by the application using the output of the apparatus.

また、カメラ座標系における計測対象物体170の位置及び姿勢(MCO)を式2から算出してこれを出力しても良いし、物体座標系における撮像装置130の位置及び姿勢(MCO -1)を求めて、これを出力してもよい。 Further, the position and orientation (M CO ) of the measurement target object 170 in the camera coordinate system may be calculated from Equation 2 and output, or the position and orientation (M CO -1) of the imaging device 130 in the object coordinate system. ) May be obtained and output.

ステップS3090において、位置姿勢算出部120は、処理を終了するか否かの判定を行い、処理を終了しない場合には、ステップS3000へと処理を進める。
以上によって、撮像装置の位置及び姿勢が計測される。
In step S3090, the position / orientation calculation unit 120 determines whether or not to end the process. If the process is not ended, the process proceeds to step S3000.
As described above, the position and orientation of the imaging apparatus are measured.

次に、図4のフローチャートを用いて、上記ステップS3035における撮像装置130の姿勢算出の処理工程を説明する。以下では、算出すべき未知パラメータである撮像装置130の姿勢を、3値ベクトル
s = ωWC = [ξWC ψWC ζWC]T
によって内部的に表現している。
Next, the processing steps for calculating the posture of the image capturing apparatus 130 in step S3035 will be described with reference to the flowchart of FIG. In the following, the attitude of the imaging device 130, which is an unknown parameter to be calculated, is expressed as a ternary vector.
s = ω WC = [ξ WC ψ WC ζ WC ] T
Is expressed internally.

姿勢を3値によって表現する方法には様々なものが存在するが、ここでは、ベクトルの大きさによって回転角を、ベクトルの向きによって回転軸方向を定義するような3値のベクトルによって表現されているものとする。なお、姿勢ωは、次式、   There are various methods for expressing the posture by ternary values, but here, the rotation angle is expressed by the magnitude of the vector, and the ternary vector is defined by defining the rotation axis direction by the vector direction. It shall be. The posture ω is expressed by the following equation:

Figure 0004726191
Figure 0004726191

によって、3×3の回転行列Rによっても表現可能であり、ωとRとは、互いに一意に変換することができる。Rからωへの変換方法は公知であるので、その詳細な説明は省略する。 Can also be represented by a 3 × 3 rotation matrix R, and ω and R can be uniquely converted from each other. Since the conversion method from R to ω is known, the detailed description thereof is omitted.

ステップS4000において、位置姿勢算出部120は、センサ計測値として得られた撮像装置130の姿勢を、sの初期値とする。   In step S4000, the position / orientation calculation unit 120 sets the orientation of the imaging device 130 obtained as the sensor measurement value as an initial value of s.

ステップS4010において、位置姿勢算出部120は、各々の指標Qknに対して、その画像座標の推定値uQkn*を算出する。uQkn*の算出は、sによって定義される指標の観測方程式、すなわち、指標Qkn各々の物体座標系における座標x Qkn(既知な情報として予め保持している)から画像座標を算出する関数: In step S4010, the position and orientation calculation unit 120, for each of the indices Q kn, we calculate an estimated value u Qkn * of the image coordinates. The calculation of u Qkn * is an index observation equation defined by s, that is, a function for calculating image coordinates from coordinates x O Qkn (previously held as known information) of each index Q kn in the object coordinate system. :

Figure 0004726191
Figure 0004726191

に基づいて行われる。具体的には、観測方程式Fc()は、x Qknとsから当該指標のカメラ座標(撮像装置130の視点位置を原点として定義し、更に互いに直交する3軸を夫々X軸、Y軸、Z軸として定義した座標系)x Qknを求める次式、 Based on. Specifically, the observation equation Fc () is defined from x O Qkn and s as camera coordinates of the index (the viewpoint position of the imaging device 130 is defined as the origin, and three axes orthogonal to each other are defined as the X axis, the Y axis, (Coordinate system defined as Z axis) x C Qkn

Figure 0004726191
Figure 0004726191

及び、カメラ座標x Qknから画像座標uQkn*を求める次式、 And the following equation for obtaining the image coordinates u Qkn * from the camera coordinates x C Qkn :

Figure 0004726191
Figure 0004726191

によって構成されている。ここでtWC及びtWOは、撮像装置130と計測対象物体170の夫々の位置計測値(平行移動成分)を表す3次元ベクトルであり、ここでは固定値として取り扱われる。また、RWOは計測対象物体170の姿勢計測値(回転成分)を表す3×3の回転行列であり、同様に固定値として取り扱われる。また、f 及びf は、それぞれx軸方向及びy軸方向における撮像装置130の焦点距離であり、既知の値として予め保持されているものとする。 It is constituted by. Here, t WC and t WO are three-dimensional vectors representing the position measurement values (parallel movement components) of the imaging device 130 and the measurement target object 170, and are treated as fixed values here. Also, R WO is a 3 × 3 rotation matrix representing the orientation measurement value (rotation component) of the measurement target object 170, and is similarly handled as a fixed value. Further, f C x and f C y are focal lengths of the imaging device 130 in the x-axis direction and the y-axis direction, respectively, and are held in advance as known values.

ステップS4020において、位置姿勢算出部120は、各々の指標Qknに対して、画像座標の推定値uQkn*と実測値uQknとの誤差ΔuQknを、次式によって算出する。 In step S4020, the position / orientation calculation unit 120 calculates an error Δu Qkn between the estimated value u Qkn * of the image coordinates and the actual measurement value u Qkn for each index Q kn according to the following equation.

Figure 0004726191
Figure 0004726191

ステップS4030において、位置姿勢算出部120は、各々の指標Qknに対して、sに関する画像ヤコビアン(すなわち、式4の観測方程式Fc()をsの各要素で偏微分した解を各要素に持つ2行×3列のヤコビ行列)Jus Qkn(=∂u/∂s)を算出する。具体的には、式6の右辺をカメラ座標x Qknの各要素で偏微分した解を各要素に持つ2行×3列のヤコビ行列Jux Qkn(=∂u/∂x)と、式5の右辺をベクトルsの各要素で偏微分した解を各要素に持つ3行×3列のヤコビ行列Jxs Qkn(=∂x/∂s)を算出し、次式によってJus Qknを算出する。 In step S4030, the position / orientation calculation unit 120 has, for each index Q kn , each element having a solution obtained by partially differentiating the image Jacobian relating to s (that is, the observation equation Fc () of Equation 4 by each element of s). 2 rows × 3 columns Jacobian matrix) J us Qkn (= ∂u / ∂s) is calculated. Specifically, a Jacobian matrix J ux Qkn (= ∂u / ∂x) of 2 rows × 3 columns having a solution obtained by partial differentiation of the right side of Equation 6 with each element of camera coordinates x C Qkn , and an equation 5) A 3 row × 3 column Jacobian matrix J xs Qkn (= ∂x / ∂s) having a solution obtained by partial differentiation of the right side of 5 with each element of the vector s is calculated, and J us Qkn is calculated by the following equation: To do.

Figure 0004726191
Figure 0004726191

ステップS4040において、位置姿勢算出部120は、ステップS4020及びステップS4030において算出した誤差ΔuQkn及び画像ヤコビアンJus Qknに基づいて、sの補正値Δsを算出する。具体的には、誤差ΔuQknを垂直に並べた2N次元の誤差ベクトル In step S4040, the position / orientation calculation unit 120 calculates a correction value Δs of s based on the error Δu Qkn and the image Jacobian J us Qkn calculated in steps S4020 and S4030. Specifically, a 2N-dimensional error vector in which errors Δu Qkn are arranged vertically

Figure 0004726191
Figure 0004726191

及び、画像ヤコビアンJus Qknを垂直に並べた2N行×3列の行列 And a matrix of 2N rows × 3 columns in which the image Jacobian J us Qkn are arranged vertically

Figure 0004726191
Figure 0004726191

を作成し、Θの擬似逆行列Θ+を用いて、 And using the pseudo inverse matrix Θ + of Θ,

Figure 0004726191
Figure 0004726191

として算出する。このように、本実施形態では補正値Δsを、最急降下法を用いて算出している。 Calculate as Thus, in this embodiment, the correction value Δs is calculated using the steepest descent method.

ステップS4050において、位置姿勢算出部120は、ステップS4040において算出した補正値Δsを用いて式12に従ってsを補正し、得られた値をsの新たな推定値とする。   In step S4050, the position / orientation calculation unit 120 corrects s according to Equation 12 using the correction value Δs calculated in step S4040, and sets the obtained value as a new estimated value of s.

Figure 0004726191
Figure 0004726191

ステップS4060において、位置姿勢算出部120は、誤差ベクトルUが予め定めた閾値より小さいかどうか、あるいは、補正値Δsが予め定めた閾値より小さいかどうかといった何らかの判定基準を用いて、計算が収束しているか否かの判定を行う。収束してない場合には、補正後のsを用いて、再度ステップS4010以降の処理を行う。一方、収束していると判断した場合には、ステップS4070へと処理を進める。   In step S4060, the position / orientation calculation unit 120 converges the calculation by using some criterion such as whether the error vector U is smaller than a predetermined threshold or whether the correction value Δs is smaller than a predetermined threshold. It is determined whether or not. If not converged, the processing from step S4010 is performed again using the corrected s. On the other hand, if it is determined that it has converged, the process proceeds to step S4070.

ステップS4070において、位置姿勢算出部120は、ステップS4060までの処理によって得られたsを、撮像装置130の姿勢の(補正後の)推定値 ωWCとする。 In step S4070, the position / orientation calculation unit 120 sets s obtained through the processing up to step S4060 as an estimated value ω WC (after correction) of the attitude of the imaging device 130.

以上によって、センサ計測値として得られた位置パラメータを固定して、全指標上での誤差の和を最小化するような姿勢パラメータを求めることができる。   As described above, the position parameter obtained as the sensor measurement value is fixed, and the posture parameter that minimizes the sum of errors on all the indices can be obtained.

次に、図5のフローチャートを用いて、上記ステップS3070における撮像装置130の位置及び姿勢算出の処理工程を説明する。以下では、算出すべき未知パラメータである撮像装置130の位置及び姿勢を、6値ベクトルs = [tWC T ωWC T]T = [xWC yWC zWC ξWC ψWC ζWC]Tによって内部的に表現している。 Next, the processing steps for calculating the position and orientation of the imaging device 130 in step S3070 will be described with reference to the flowchart of FIG. In the following, the position and orientation of the imaging device 130, which are unknown parameters to be calculated, are expressed by a six-value vector s = [ tWC T ω WC T ] T = [x WC y WC z WC ξ WC ψ ψ WC ζ WC ] T Expressed internally.

ステップS5000において、位置姿勢算出部120は、センサ計測値として得られた撮像装置130の位置及び姿勢を、sの初期値とする。   In step S5000, the position / orientation calculation unit 120 sets the position and orientation of the imaging device 130 obtained as the sensor measurement values as the initial value of s.

ステップS5010において、位置姿勢算出部120は、各々の指標Qknに対して、その画像座標の推定値uQkn*を算出する。uQkn*の算出は、sによって定義される指標の観測方程式、すなわち、各指標Qknの物体座標系における座標x Qknから画像座標を算出する関数: In step S5010, the position and orientation calculation unit 120, for each of the indices Q kn, we calculate an estimated value u Qkn * of the image coordinates. The calculation of u Qkn * is an observation equation of an index defined by s, that is, a function for calculating image coordinates from coordinates x O Qkn in the object coordinate system of each index Q kn :

Figure 0004726191
Figure 0004726191

に基づいて行われる。具体的には、観測方程式F’c()は、x Qknとsから当該指標のカメラ座標x Qknを求める式5、及び、カメラ座標x Qknから画像座標uQkn*を求める式6によって構成されている。ただしここでは、式5におけるtWC(撮像装置130の位置を表す)を、固定値としてではなく、sを構成するパラメータの一部として取り扱う。一方、計測対象物体170の位置tWO及び姿勢RWOに関しては、センサによる計測値をそのまま固定値として使用する。 Based on. Specifically, the observation equation F′c () is an expression 5 for obtaining the camera coordinates x C Qkn of the index from x O Qkn and s, and an expression 6 for obtaining the image coordinates u Qkn * from the camera coordinates x C Qkn. It is constituted by. However, t WC (representing the position of the imaging device 130) in Equation 5 is treated as a part of parameters constituting s, not as a fixed value. On the other hand, with respect to the position t WO and orientation R WO of the measurement object 170, used as it is as a fixed value the measured value by the sensor.

ステップS5020において、位置姿勢算出部120は、各々の指標Qknに対して、画像座標の推定値uQkn*と実測値uQknとの誤差ΔuQknを、式7によって算出する。 In step S5020, the position / orientation calculation unit 120 calculates an error Δu Qkn between the estimated value u Qkn * of the image coordinates and the actual measurement value u Qkn for each index Q kn using Equation 7.

ステップS5030において、位置姿勢算出部120は、各々の指標Qknに対して、sに関する画像ヤコビアン(すなわち、式13の観測方程式F’c()をsの各要素で偏微分した解を各要素に持つ2行×6列のヤコビ行列)Jus Qkn(=∂u/∂s)を算出する。具体的には、式6の右辺をカメラ座標x Qknの各要素で偏微分した解を各要素に持つ2行×3列のヤコビ行列Jux Qkn(=∂u/∂x)と、式5の右辺をベクトルsの各要素で偏微分した解を各要素に持つ3行×6列のヤコビ行列Jxs Qkn(=∂x/∂s)を算出し、式8によってJus Qknを算出する。 In step S5030, the position / orientation calculation unit 120 obtains, for each index Q kn , an image Jacobian relating to s (that is, a solution obtained by partially differentiating the observation equation F′c () of Equation 13 with each element of s. 2 rows × 6 columns Jacobian matrix) J us Qkn (= ∂u / ∂s). Specifically, a Jacobian matrix J ux Qkn (= ∂u / ∂x) of 2 rows × 3 columns having a solution obtained by partial differentiation of the right side of Equation 6 with each element of camera coordinates x C Qkn , and an equation 5. Calculate a Jacobian matrix J xs Qkn (= ∂x / ∂s) of 3 rows × 6 columns having a solution obtained by partial differentiation of the right side of 5 with each element of the vector s, and calculate J us Qkn by Equation 8. To do.

ステップS5040において、位置姿勢算出部120は、ステップS5020及びステップS5030において算出した誤差ΔuQkn及び画像ヤコビアンJus Qknに基づいて、sの補正値Δsを算出する。具体的には、誤差ΔuQknを垂直に並べた2N次元の誤差ベクトルU及び、画像ヤコビアンJus Qknを垂直に並べた2N行×6列の行列Θを作成し、Θの擬似逆行列Θ+を用いて、式11によって算出する。 In step S5040, the position / orientation calculation unit 120 calculates a correction value Δs of s based on the error Δu Qkn and the image Jacobian J us Qkn calculated in steps S5020 and S5030. Specifically, a 2N-dimensional error vector U in which errors Δu Qkn are arranged vertically and a matrix Θ of 2N rows × 6 columns in which image Jacobians J us Qkn are arranged vertically are created, and a pseudo inverse matrix Θ + And is calculated by Equation 11.

ステップS5050において、位置姿勢算出部120は、ステップS5040において算出した補正値Δsを用いて式12に従ってsを補正し、得られた値をsの新たな推定値とする。   In step S5050, the position / orientation calculation unit 120 corrects s according to Equation 12 using the correction value Δs calculated in step S5040, and sets the obtained value as a new estimated value of s.

ステップS5060において、位置姿勢算出部120は、誤差ベクトルUが予め定めた閾値より小さいかどうか、あるいは、補正値Δsが予め定めた閾値より小さいかどうかといった何らかの判定基準を用いて、計算が収束しているか否かの判定を行う。収束していない場合には、補正後のsを用いて、再度ステップS5010以降の処理を行う。一方、収束していると判定された場合には、ステップS5070へと処理を進める。   In step S5060, the position / orientation calculation unit 120 converges the calculation by using some criterion such as whether the error vector U is smaller than a predetermined threshold or whether the correction value Δs is smaller than the predetermined threshold. It is determined whether or not. If not converged, the processing from step S5010 is performed again using the corrected s. On the other hand, if it is determined that it has converged, the process proceeds to step S5070.

ステップS5070において、位置姿勢算出部120は、ステップS5060までの処理によって得られたsを、撮像装置130の補正後の位置及び姿勢の推定値とする。   In step S5070, the position / orientation calculation unit 120 sets s obtained by the processing up to step S5060 as an estimated value of the corrected position and orientation of the imaging apparatus 130.

なお、本実施形態では、ステップS3070の処理において、撮像装置130の位置及び姿勢を補正の対象としていたが、計測対象物体170の位置及び姿勢を補正の対象として処理を行っても良い。この場合は、算出すべき未知パラメータを、計測対象物体170の位置及び姿勢を表す6値ベクトルs = [tWO T ωWO T]T = [xWO yWO zWO ξWO ψWO ζWO]Tによって内部的に表現し、センサ計測値として得られた計測対象物体170の位置及び姿勢をsの初期値とする。また、観測方程式F’c()を構成する式5を、次式のように変形する。 In the present embodiment, in the process of step S3070, the position and orientation of the imaging device 130 are targeted for correction. However, the process may be performed using the position and orientation of the measurement target object 170 as the subject of correction. In this case, the unknown parameter to be calculated is a six-value vector s = [t WO T ω WO T ] T = [x WO y WO z WO ξ WO ψ WO ζ WO ] representing the position and orientation of the measurement target object 170. The position and orientation of the measurement target object 170 expressed internally by T and obtained as a sensor measurement value are used as the initial value of s. Further, Equation 5 constituting the observation equation F′c () is transformed as the following equation.

Figure 0004726191
Figure 0004726191

このとき、撮像装置130の位置tWC及び姿勢RWCに関しては、センサによる計測値をそのまま固定値として使用する。 At this time, with respect to the position t WC and the posture R WC of the imaging device 130, the measured value by the sensor is used as a fixed value as it is.

また、カメラ座標系における計測対象物体170の位置及び姿勢や、物体座標系における撮像装置130の位置及び姿勢を未知のパラメータとして求めても良い。   Further, the position and orientation of the measurement target object 170 in the camera coordinate system and the position and orientation of the imaging device 130 in the object coordinate system may be obtained as unknown parameters.

前者の場合、算出すべき未知パラメータを、カメラ座標系における計測対象物体170の位置及び姿勢を表す6値ベクトルs = [tCO T ωCO T]T = [xCO yCO zCO ξCO ψCO ζCO]Tによって内部的に表現する。また、カメラ座標系における計測対象物体170の位置及び姿勢(M# CO)を、次式、 In the former case, the unknown parameters to be calculated, 6 values representing the position and orientation of the measurement object 170 in the camera coordinate system vector s = [t CO T ω CO T] T = [x CO y CO z CO ξ CO ψ CO ζ CO ] T expresses internally. In addition, the position and orientation (M # CO ) of the measurement target object 170 in the camera coordinate system are expressed by the following equation:

Figure 0004726191
Figure 0004726191

によってセンサ計測値(M# WC及びM# WO)に基づいて求め、これをsの初期値とする。また、観測方程式F’c()を構成する式5を、次式のように変形する。 Based on the sensor measurement values (M # WC and M # WO ), this is used as the initial value of s. Further, Equation 5 constituting the observation equation F′c () is transformed as the following equation.

Figure 0004726191
Figure 0004726191

一方、後者の場合は、算出すべき未知パラメータを、物体座標系における撮像装置130の位置及び姿勢を表す6値ベクトルs = [tOC T ωOC T]T = [xOC yOC zOC ξOC ψOC ζOC]Tによって内部的に表現する。また、物体座標系における撮像装置130の位置及び姿勢(M# CO)を、次式、 On the other hand, in the latter case, an unknown parameter to be calculated is a six-value vector s = [t OC T ω OC T ] T = [x OC y OC z OC ξ] representing the position and orientation of the imaging device 130 in the object coordinate system. OC ψ OC ζ OC ] T Further, the position and orientation (M # CO ) of the imaging device 130 in the object coordinate system are expressed by the following equation:

Figure 0004726191
Figure 0004726191

によってセンサ計測値(M# WC及びM# WO)に基づいて求め、これをsの初期値とする。また、観測方程式F’c()を構成する式5を、次式のように変形する。 Based on the sensor measurement values (M # WC and M # WO ), this is used as the initial value of s. Further, Equation 5 constituting the observation equation F′c () is transformed as the following equation.

Figure 0004726191
Figure 0004726191

以上のようにして、計測対象物体170と撮像装置130との間の相対的な位置及び姿勢の関係を未知のパラメータとして、センサによる位置及び姿勢計測値の誤差を補正することができる。   As described above, it is possible to correct the error of the position and orientation measurement values obtained by the sensor using the relative position and orientation relationship between the measurement target object 170 and the imaging device 130 as an unknown parameter.

従来の位置姿勢計測装置では、指標の分布を考慮していないため、画像上の一部の領域に指標が偏在して観測されている場合に解が不安定になる。一方、本実施形態に係る位置姿勢計測装置によれば、ステップS3033や、ステップS3040,S3050,S3060によって指標の分布範囲の大きさを考慮した手法の選択が行われるため、例えば検出された指標の数が多くても、それらが画像上の小領域に偏在しているような場合に、位置及び姿勢の6自由度を安定して求めるのに不十分であるという判定を行うことができる。そのため、画像上の一部の領域に指標が偏在して観測されている場合であっても適切な位置姿勢推定手法が選択され、不安定な解が得られる状況に陥る可能性が低下し、従来手法と比して安定した解を得ることができる。   In the conventional position and orientation measurement apparatus, since the distribution of the index is not taken into consideration, the solution becomes unstable when the index is unevenly observed in a part of the area on the image. On the other hand, according to the position / orientation measurement apparatus according to the present embodiment, since the method considering the size of the index distribution range is selected in step S3033 or steps S3040, S3050, and S3060, for example, the detected index Even if the number is large, when they are unevenly distributed in a small area on the image, it can be determined that it is insufficient to stably obtain the 6 degrees of freedom of the position and orientation. Therefore, even if the index is unevenly distributed in some areas on the image, the appropriate position and orientation estimation method is selected, and the possibility of falling into an unstable solution situation is reduced, A stable solution can be obtained as compared with the conventional method.

また、本実施形態に係る位置姿勢計測装置によれば、撮像装置の位置及び姿勢を構成する一部のパラメータのみを選択してセンサ計測値の補正を行う場合に、その制約の中で指標上での誤差の和を最小化するような補正を行うことができる。したがって、未知とするパラメータを減らすことによって撮像装置の位置及び姿勢の計測を安定化させようとする場合であっても、従来と比べて高精度な計測を行うことができる。   Further, according to the position / orientation measurement apparatus according to the present embodiment, when only some parameters constituting the position and orientation of the imaging apparatus are selected to correct the sensor measurement value, It is possible to perform correction so as to minimize the sum of errors. Therefore, even when it is intended to stabilize the measurement of the position and orientation of the imaging apparatus by reducing the unknown parameters, it is possible to perform measurement with higher accuracy than in the past.

[第2の実施形態]
本実施形態に係る位置姿勢計測装置は、室内等に設定された基準座標系における任意の計測対象物体の位置及び姿勢の計測を行う。
[Second Embodiment]
The position and orientation measurement apparatus according to the present embodiment measures the position and orientation of an arbitrary measurement target object in a reference coordinate system set in a room or the like.

本実施形態に係る位置姿勢計測装置は、撮像装置に位置姿勢センサが取り付けられておらず、三脚等によって既知の位置及び姿勢に固定して設置されていることが、第1の実施形態とは異なっている。以下では、第1の実施形態との相違点のみを説明する。   The position / orientation measurement apparatus according to the present embodiment has a position / orientation sensor attached to the imaging apparatus, and is fixedly installed at a known position and attitude using a tripod or the like. Is different. Only the differences from the first embodiment will be described below.

図12は、本実施形態における位置姿勢計測装置の構成を示している。同図に示したように、本実施形態における位置姿勢計測装置1200は、画像入力部160、指標検出部110、センサ計測値入力部150、及び位置姿勢算出部1220によって構成されており、撮像装置130及び位置姿勢センサ140に接続されている。   FIG. 12 shows the configuration of the position / orientation measurement apparatus according to this embodiment. As shown in the figure, the position / orientation measurement apparatus 1200 according to this embodiment includes an image input unit 160, an index detection unit 110, a sensor measurement value input unit 150, and a position / orientation calculation unit 1220. 130 and the position / orientation sensor 140.

撮像装置130は、三脚1280によって、空間中の既知の位置、姿勢に固定して設置されている。撮像装置130が出力する撮影画像は、位置姿勢計測装置1200の画像入力部160に入力される。基準座標系における撮像装置130の位置及び姿勢は、既知の値として予め保持されているものとする。   The imaging device 130 is fixedly installed at a known position and posture in the space by a tripod 1280. The captured image output by the imaging device 130 is input to the image input unit 160 of the position / orientation measurement apparatus 1200. It is assumed that the position and orientation of the imaging device 130 in the reference coordinate system are held in advance as known values.

センサ計測値入力部150は、計測対象物体170の位置及び姿勢の計測値を位置姿勢センサ140から入力し、位置姿勢算出部1220へと出力する。   The sensor measurement value input unit 150 receives the measurement values of the position and orientation of the measurement target object 170 from the position and orientation sensor 140 and outputs them to the position and orientation calculation unit 1220.

位置姿勢算出部1220は、センサ計測値入力部150の出力である計測対象物体170の位置及び姿勢の計測値と、指標検出部110の出力である各々の指標Qknの画像座標uQknを入力し、入力した情報に基づいて、計測対象物体170の位置及び姿勢の計測値の誤差を補正し、補正後の位置及び姿勢のデータを出力する。 The position / orientation calculation unit 1220 receives the measurement value of the position and orientation of the measurement target object 170 that is output from the sensor measurement value input unit 150 and the image coordinates u Qkn of each index Q kn that is output from the index detection unit 110. Then, based on the input information, the error of the measurement value of the position and orientation of the measurement target object 170 is corrected, and the corrected position and orientation data is output.

なお、図12に示した画像入力部160、指標検出部110、センサ計測値入力部150、及び位置姿勢算出部1220の少なくとも一部は、独立した装置として実現しても良いし、夫々1つもしくは複数のコンピュータにインストールし、コンピュータのCPUにより実行することで、その機能を実現するソフトウェアとして実現しても良い。本実施形態では、各部(画像入力部160、指標検出部110、センサ計測値入力部150、及び位置姿勢算出部1220)は、それぞれソフトウェアにより実現され、同一のコンピュータにインストールされているものとする。ソフトウェアを実行することで、各部の機能を実現するためのコンピュータの基本構成は、第1の実施形態と同様であるので説明を省略する。   Note that at least a part of the image input unit 160, the index detection unit 110, the sensor measurement value input unit 150, and the position / orientation calculation unit 1220 illustrated in FIG. 12 may be realized as independent devices, or one each. Alternatively, it may be implemented as software that implements its function by being installed in a plurality of computers and executed by the CPU of the computer. In this embodiment, each unit (the image input unit 160, the index detection unit 110, the sensor measurement value input unit 150, and the position / orientation calculation unit 1220) is realized by software and installed in the same computer. . Since the basic configuration of the computer for realizing the functions of the respective units by executing the software is the same as that of the first embodiment, the description thereof is omitted.

本実施形態における位置姿勢算出部1220の処理手順は、第1の実施形態における位置姿勢算出部120の処理手順(図3のフローチャートに対応)とほぼ同一である。唯一の違いは、撮像装置130の位置及び姿勢が、計測値として与えられるのではなく、既知の値として予め保持されていることである。位置姿勢算出部1220は、撮像装置130の位置及び姿勢の既知の値を、撮像装置130の位置及び姿勢の仮の計測値とおき、第1の実施形態におけるステップS3000からステップS3070までと同一の工程によって撮像装置130の位置及び姿勢の計測値の補正を行い、この補正結果に基づいて、ステップS3080において、第1の実施形態と同様に計測対象物体170の位置及び姿勢の計測値を補正する(式1)。本実施形態では、位置姿勢算出部1220がステップS3080において出力するのは、計測対象物体170の位置及び姿勢のみである。   The processing procedure of the position / orientation calculation unit 1220 in this embodiment is almost the same as the processing procedure (corresponding to the flowchart of FIG. 3) of the position / orientation calculation unit 120 in the first embodiment. The only difference is that the position and orientation of the imaging device 130 are not given as measurement values but are held in advance as known values. The position / orientation calculation unit 1220 puts known values of the position and orientation of the image capturing apparatus 130 as provisional measurement values of the position and orientation of the image capturing apparatus 130, and is the same as steps S3000 to S3070 in the first embodiment. The measurement value of the position and orientation of the imaging device 130 is corrected according to the process, and based on the correction result, the measurement value of the position and orientation of the measurement target object 170 is corrected in step S3080 as in the first embodiment. (Formula 1). In the present embodiment, the position / orientation calculation unit 1220 outputs only the position and orientation of the measurement target object 170 in step S3080.

以上によって、計測対象物体の位置及び姿勢が計測される。このように、本実施形態に係る位置姿勢計測装置によっても、指標の分布範囲の大きさを考慮した手法の選択が行われるため、画像上の一部の領域に指標が偏在して観測されている場合であっても適切な位置姿勢推定手法が選択され、従来手法と比して安定した解を得ることができる。   As described above, the position and orientation of the measurement object are measured. As described above, the position / orientation measurement apparatus according to the present embodiment also selects a method in consideration of the size of the distribution range of the index, and therefore, the index is unevenly observed in a partial region on the image. Even in such a case, an appropriate position and orientation estimation method is selected, and a stable solution can be obtained as compared with the conventional method.

[第3の実施形態]
本実施形態に係る位置姿勢計測装置は、室内等の空間中における撮像装置の位置及び姿勢の計測を行う。以下、本実施形態に係る位置姿勢計測装置について説明する。
[Third Embodiment]
The position / orientation measurement apparatus according to the present embodiment measures the position and orientation of an imaging apparatus in a space such as a room. The position / orientation measurement apparatus according to this embodiment will be described below.

本実施形態においては撮像装置以外の計測対象物体は存在せず、本実施形態に係る位置姿勢計測装置は、撮像装置の位置及び姿勢の計測のみを行うことが、第1の実施形態とは異なっている。以下では、第1の実施形態との相違点のみを説明する。   Unlike the first embodiment, there is no measurement target object other than the imaging device in the present embodiment, and the position / orientation measurement device according to the present embodiment only measures the position and orientation of the imaging device. ing. Only the differences from the first embodiment will be described below.

図13は、本実施形態における位置姿勢計測装置の構成を示している。同図に示したように、本実施形態における位置姿勢計測装置1300は、画像入力部160、指標検出部110、センサ計測値入力部150、及び位置姿勢算出部1320によって構成されており、撮像装置130及び位置姿勢センサ140に接続されている。   FIG. 13 shows the configuration of the position / orientation measurement apparatus according to this embodiment. As shown in the figure, the position / orientation measurement apparatus 1300 according to this embodiment includes an image input unit 160, an index detection unit 110, a sensor measurement value input unit 150, and a position / orientation calculation unit 1320. 130 and the position / orientation sensor 140.

また、現実空間中の複数の位置には、撮像装置130によって撮影するための指標として、基準座標系における位置が既知である複数個の指標Qが配置されている。指標Qは、第1の実施形態と同様に、撮影画像上における投影像の画像座標が検出可能であって、かついずれの指標であるかが何らかの方法で識別可能であるような指標であれば、どのような形態であってもよい。 In addition, a plurality of indices Q k whose positions in the reference coordinate system are known are disposed at a plurality of positions in the real space as indices for photographing by the imaging device 130. As in the first embodiment, the index Q k is an index that can detect the image coordinates of the projected image on the captured image and can identify which index is somehow. Any form may be used.

センサ計測値入力部150は、撮像装置130の位置及び姿勢の計測値を位置姿勢センサ140から入力し、位置姿勢算出部1320へと出力する。   The sensor measurement value input unit 150 receives the position and orientation measurement values of the imaging device 130 from the position and orientation sensor 140 and outputs them to the position and orientation calculation unit 1320.

位置姿勢算出部1320は、センサ計測値入力部150の出力である撮像装置130の位置及び姿勢の計測値と、指標検出部110の出力である各々の指標Qknの画像座標uQknを入力し、入力した情報に基づいて、撮像装置130の位置及び姿勢の計測値の誤差を補正し、補正後の位置及び姿勢のデータを出力する。 The position / orientation calculation unit 1320 receives the measurement values of the position and orientation of the imaging device 130 that are outputs of the sensor measurement value input unit 150 and the image coordinates u Qkn of each index Q kn that are outputs of the index detection unit 110. Based on the input information, the error of the measurement value of the position and orientation of the imaging device 130 is corrected, and the corrected position and orientation data is output.

なお、図13に示した画像入力部160、指標検出部110、センサ計測値入力部150、及び位置姿勢算出部1320の少なくとも一部は、独立した装置として実現しても良いし、夫々1つもしくは複数のコンピュータにインストールし、コンピュータのCPUにより実行することで、その機能を実現するソフトウェアとして実現しても良い。本実施形態では、各部(画像入力部160、指標検出部110、センサ計測値入力部150、及び位置姿勢算出部1320)は、それぞれソフトウェアにより実現され、同一のコンピュータにインストールされているものとする。ソフトウェアを実行することで、各部の機能を実現するためのコンピュータの基本構成は、第1の実施形態と同様であるので説明を省略する。   Note that at least a part of the image input unit 160, the index detection unit 110, the sensor measurement value input unit 150, and the position / orientation calculation unit 1320 illustrated in FIG. 13 may be realized as independent devices, or one each. Alternatively, it may be implemented as software that implements its function by being installed in a plurality of computers and executed by the CPU of the computer. In the present embodiment, each unit (the image input unit 160, the index detection unit 110, the sensor measurement value input unit 150, and the position / orientation calculation unit 1320) is realized by software and installed in the same computer. . Since the basic configuration of the computer for realizing the functions of the respective units by executing the software is the same as that of the first embodiment, the description thereof is omitted.

本実施形態における位置姿勢算出部1320の処理手順は、第1の実施形態における位置姿勢算出部120の処理手順(図3のフローチャートに対応)と類似しているため、図3を参照しながら、第1の実施形態との相違点のみについて説明する。   The processing procedure of the position / orientation calculation unit 1320 in this embodiment is similar to the processing procedure (corresponding to the flowchart of FIG. 3) of the position / orientation calculation unit 120 in the first embodiment. Only differences from the first embodiment will be described.

ステップS3005において、位置姿勢算出部1320は、センサによって計測された撮像装置130の位置及び姿勢を、センサ計測値入力部150から入力する。   In step S3005, the position / orientation calculation unit 1320 inputs the position and orientation of the imaging apparatus 130 measured by the sensor from the sensor measurement value input unit 150.

ステップS3025において、位置姿勢算出部1320は、ステップS3005で得た撮像装置130の姿勢計測値のうちのパン及びチルト角に対して、検出されている指標上での誤差(基準座標系における指標の3次元座標x Qknと撮像装置130の位置及び姿勢の計測値から導出する投影座標の理論値uQkn*と、実際の検出座標uQknとの誤差)を打ち消すような補正を加え、ステップS3080に処理を進める。 In step S3025, the position / orientation calculation unit 1320 determines an error on the detected index (the index in the reference coordinate system) with respect to the pan and tilt angles of the orientation measurement values of the imaging device 130 obtained in step S3005. A correction is made so as to cancel the error between the three-dimensional coordinate x W Qkn and the theoretical value u Qkn * of the projected coordinate derived from the measured values of the position and orientation of the imaging device 130 and the actual detected coordinate u Qkn ), step S3080 Proceed with the process.

このような補正処理としては、周知の方法を用いることができるため、これ以上の説明は行わない。具体的には、例えば特許文献1(ランドマーク1点を利用したカメラの回転による補正方法(段落「0019」〜「0029」)およびランドマークを複数点利用したカメラの回転による補正方法(段落「0039」〜「0050」))に開示されている方法を用いることができる。   As such correction processing, since a known method can be used, no further explanation will be given. Specifically, for example, Patent Document 1 (a correction method by rotation of a camera using one landmark (paragraphs “0019” to “0029”) and a correction method by rotation of a camera using a plurality of landmarks (paragraph “ 0039 "-" 0050 "))) can be used.

ステップS3035において、位置姿勢算出部1320は、ステップS3005で得た撮像装置130の位置計測値を固定値として、撮像装置130の姿勢計測値を表す3パラメータ(パン,チルト及びロール角)に対して、検出されている全指標上での誤差の和を最小とするような補正を加え、ステップS3080に処理を進める。この補正処理工程は、第1の実施形態におけるステップS3035の補正処理工程(図4のフローチャートに対応)と類似したものとなる。ただし、本実施形態の場合、指標の観測方程式F’’c()が、基準座標系における指標Qknの座標x Qkn(既知な情報として予め保持している)から画像座標を算出する関数となる。すなわち、観測方程式F’’c()は次式によって表される。 In step S3035, the position / orientation calculation unit 1320 sets the position measurement value of the imaging device 130 obtained in step S3005 as a fixed value, and performs three parameters (pan, tilt, and roll angle) representing the orientation measurement value of the imaging device 130. Then, correction is performed so as to minimize the sum of errors on all the detected indices, and the process proceeds to step S3080. This correction processing step is similar to the correction processing step (corresponding to the flowchart of FIG. 4) in step S3035 in the first embodiment. However, in the case of the present embodiment, the observation equation F ″ c () of the index is a function for calculating the image coordinates from the coordinates x W Qkn (preliminarily stored as known information) of the index Q kn in the reference coordinate system. It becomes. That is, the observation equation F ″ c () is expressed by the following equation.

Figure 0004726191
Figure 0004726191

具体的には、観測方程式F’’c()は、x Qknとsから当該指標のカメラ座標x Qknを求める次式、 Specifically, the observation equation F ″ c () is expressed by the following equation for obtaining the camera coordinates x C Qkn of the index from x W Qkn and s:

Figure 0004726191
Figure 0004726191

及び、カメラ座標x Qknから画像座標uQkn*を求める式6によって構成されており、この点のみが異なっている。ここでtWCは、撮像装置130の位置計測値を表す3次元ベクトルであり、ここでは固定値として取り扱われる。 And is constituted by a camera coordinate x C Qkn by Equation 6 for obtaining the image coordinates u Qkn *, only this point is different. Here, t WC is a three-dimensional vector representing the position measurement value of the imaging device 130, and is treated as a fixed value here.

ステップS3070において、位置姿勢算出部1320は、検出されている全指標上での誤差の和を最小とするような撮像装置130の位置と姿勢を算出する。この処理工程での具体的な処理は、例えば特許文献2に開示されているような周知技術を用いて実現することが可能であるので、ここでの説明は省略する。   In step S3070, the position / orientation calculation unit 1320 calculates the position and orientation of the imaging apparatus 130 that minimizes the sum of errors on all detected indices. The specific processing in this processing step can be realized by using a well-known technique as disclosed in, for example, Patent Document 2, and thus the description thereof is omitted here.

ステップS3080において、位置姿勢算出部1320は、ステップS3070までの結果として得られた撮像装置130の位置及び姿勢を、I/F1009を介して外部へと出力する。あるいは、このデータを、他のアプリケーションから利用可能な状態としてRAM1002上に格納する。   In step S3080, the position / orientation calculation unit 1320 outputs the position and orientation of the imaging device 130 obtained as a result up to step S3070 to the outside via the I / F 1009. Alternatively, this data is stored on the RAM 1002 in a state where it can be used by other applications.

以上によって、撮像装置の位置及び姿勢が計測される。このように、本実施形態に係る位置姿勢計測装置によっても、指標の分布範囲の大きさを考慮した手法の選択が行われるため、画像上の一部の領域に指標が偏在して観測されている場合であっても適切な位置姿勢推定手法が選択され、従来手法と比して安定した解を得ることができる。   As described above, the position and orientation of the imaging apparatus are measured. As described above, the position / orientation measurement apparatus according to the present embodiment also selects a method in consideration of the size of the distribution range of the index, and therefore, the index is unevenly observed in a partial region on the image. Even in such a case, an appropriate position and orientation estimation method is selected, and a stable solution can be obtained as compared with the conventional method.

[第4の実施形態]
本実施形態に係る位置姿勢計測装置は、室内等の空間中における任意の計測対象物体の位置及び姿勢の計測を行う。以下、本実施形態に係る位置姿勢計測装置について説明する。本実施形態においては、撮像装置ではなく、任意の計測対象物体の位置及び姿勢を計測することが、第3の実施形態と異なっている。以下では、第3の実施形態との相違点のみを説明する。
[Fourth Embodiment]
The position and orientation measurement apparatus according to the present embodiment measures the position and orientation of an arbitrary measurement target object in a space such as a room. The position / orientation measurement apparatus according to this embodiment will be described below. In the present embodiment, it is different from the third embodiment in that the position and orientation of an arbitrary measurement target object, not an imaging device, are measured. Only the differences from the third embodiment will be described below.

図14は、本実施形態における位置姿勢計測装置の構成を示している。同図に示したように、本実施形態における位置姿勢計測装置1400は、画像入力部160、指標検出部110、センサ計測値入力部150、撮像部1430、位置姿勢計測部1440、及び位置姿勢算出部1420によって構成されており、計測対象物体1470に接続されている。   FIG. 14 shows the configuration of the position / orientation measurement apparatus according to this embodiment. As shown in the figure, the position / orientation measurement apparatus 1400 in this embodiment includes an image input unit 160, an index detection unit 110, a sensor measurement value input unit 150, an imaging unit 1430, a position / orientation measurement unit 1440, and a position / orientation calculation. The unit 1420 is connected to a measurement target object 1470.

撮像部1430は、位置及び姿勢を計測したい対象である計測対象物体1470に固定して取り付けられており、指標を含む現実空間の映像を撮影する。   The imaging unit 1430 is fixedly attached to a measurement target object 1470 that is a target whose position and orientation are to be measured, and captures an image of a real space including an index.

位置姿勢計測部1440は、撮像部1430に固定して装着されており、基準座標系における撮像部1430の位置及び姿勢を計測してセンサ計測値入力部150へと出力する。位置姿勢計測部1440は、例えば、米国Polhemus社のFASTRAK等によって構成される。   The position / orientation measurement unit 1440 is fixedly attached to the imaging unit 1430, measures the position and orientation of the imaging unit 1430 in the reference coordinate system, and outputs the measured value to the sensor measurement value input unit 150. The position / orientation measurement unit 1440 is configured by, for example, FASTRAK from Polhemus, USA.

画像入力部160は、撮像部1430が撮影した撮影画像をデジタルデータに変換し、指標検出部110へと出力する。   The image input unit 160 converts the captured image captured by the imaging unit 1430 into digital data and outputs the digital data to the index detection unit 110.

センサ計測値入力部150は、撮像部1430の位置及び姿勢の計測値を位置姿勢計測部1440から入力し、位置姿勢算出部1420へと出力する。   The sensor measurement value input unit 150 inputs measurement values of the position and orientation of the imaging unit 1430 from the position / orientation measurement unit 1440 and outputs them to the position / orientation calculation unit 1420.

位置姿勢算出部1420は、センサ計測値入力部150の出力である撮像部1430の位置及び姿勢の計測値と、指標検出部110の出力である各々の指標Qknの画像座標uQknを入力し、入力した情報に基づいて、撮像部1430の位置及び姿勢の計測値の誤差を補正する。
位置姿勢算出部1420はさらに、得られた撮像部1430の位置及び姿勢と、既知の値として予め保持している撮像部1430と計測対象物体1470との相対的な位置姿勢の関係についての情報(具体的には、計測対象物体1470上のどの位置に撮像部1430が設置されているかという情報。計測対象物体1470によって定義される物体座標系における、撮像部1430の位置及び姿勢によって表現される)から、基準座標系における計測対象物体1470の位置及び姿勢を算出し、I/F1009を介してこのデータを外部へと出力する。あるいは、このデータを、他のアプリケーションから利用可能な状態としてRAM1002上に格納する。なお、この変換工程は必ずしも必要ではなく、撮像部1430の位置及び姿勢をそのまま出力することも可能である。
The position / orientation calculation unit 1420 receives the measurement values of the position and orientation of the imaging unit 1430 that are outputs of the sensor measurement value input unit 150 and the image coordinates u Qkn of each index Q kn that are outputs of the index detection unit 110. Based on the input information, the error in the measured values of the position and orientation of the imaging unit 1430 is corrected.
The position / orientation calculation unit 1420 further includes information on the obtained position and orientation of the imaging unit 1430 and the relative position / orientation relationship between the imaging unit 1430 and the measurement target object 1470 held in advance as known values ( Specifically, information on which position on the measurement target object 1470 the imaging unit 1430 is installed (expressed by the position and orientation of the imaging unit 1430 in the object coordinate system defined by the measurement target object 1470) From this, the position and orientation of the measurement target object 1470 in the reference coordinate system are calculated, and this data is output to the outside via the I / F 1009. Alternatively, this data is stored on the RAM 1002 in a state where it can be used by other applications. Note that this conversion step is not always necessary, and the position and orientation of the imaging unit 1430 can be output as they are.

なお、本実施形態では、位置姿勢計測部1440は撮像部1430の位置及び姿勢を計測していたが、位置姿勢計測部1440は計測対象物体1470の位置及び姿勢を計測するように構成されていても良い。この場合には、位置姿勢算出部1420は、既知の値として予め保持している撮像部1430と計測対象物体1470との相対的な位置姿勢の関係を用いて、計測値として得られた計測対象物体1470の位置及び姿勢から撮像部1430の位置及び姿勢を算出し、これを初期値として上記と同様な処理を実行する。   In the present embodiment, the position / orientation measurement unit 1440 measures the position and orientation of the imaging unit 1430, but the position / orientation measurement unit 1440 is configured to measure the position and orientation of the measurement target object 1470. Also good. In this case, the position / orientation calculation unit 1420 uses a relative position / orientation relationship between the imaging unit 1430 and the measurement target object 1470 held in advance as a known value, and obtains a measurement target. The position and orientation of the imaging unit 1430 are calculated from the position and orientation of the object 1470, and the same processing as described above is executed using this as the initial value.

また、位置姿勢算出部1420は、ステップS3025,S3035,S3070の何れの工程においても、撮像部1430の姿勢あるいは位置及び姿勢を補正し、その後計測対象物体1470の位置及び姿勢を求めていた。しかし、ステップS3035及びS3070の工程においては、計測対象物体1470の位置及び姿勢を直接求めるような構成としても良い。   Further, the position and orientation calculation unit 1420 corrects the orientation or position and orientation of the imaging unit 1430 in any of the steps S3025, S3035, and S3070, and then obtains the position and orientation of the measurement target object 1470. However, the steps S3035 and S3070 may be configured to directly obtain the position and orientation of the measurement target object 1470.

位置姿勢計測部1440が撮像部1430の位置及び姿勢を計測している場合には、位置姿勢算出部1420は、既知の値として予め保持している撮像部1430と計測対象物体1470との相対的な位置姿勢の関係を用いて、計測値として得られた撮像部1430の位置及び姿勢から計測対象物体1470の位置及び姿勢を算出し、これを初期値とする。   When the position / orientation measurement unit 1440 measures the position and orientation of the imaging unit 1430, the position / orientation calculation unit 1420 compares the imaging unit 1430 and the measurement target object 1470 that are held in advance as known values. The position and orientation of the measurement target object 1470 are calculated from the position and orientation of the imaging unit 1430 obtained as the measurement value using the position and orientation relationship, and this is used as the initial value.

ステップS3035においては、計測対象物体1470の姿勢を表す3値ベクトルs = ωWO = [ξWO ψWO ζWO]Tと未知パラメータとする。また、ステップS3070においては、計測対象物体1470の位置及び姿勢を表す6値ベクトルs = [tWO T ωWO T]T = [xWO yWO zWO ξWO ψWO ζWO]Tを未知パラメータとする。そして、観測方程式F’’c()を定義するのに必要な式20を、 In step S3035, a ternary vector s = ω WO = [ξ WO ψ WO ζ WO ] T representing the posture of the measurement target object 1470 is set as an unknown parameter. In step S3070, a six-value vector s = [t WO T ω WO T ] T = [x WO y WO z WO ξ WO ψ WO ζ WO ] T representing the position and orientation of the measurement target object 1470 is set as an unknown parameter. And And the equation 20 necessary to define the observation equation F ″ c () is

Figure 0004726191
Figure 0004726191

に変更する。ここで、tOC 及びROCは、計測対象物体170によって定義される物体座標系における撮像部1430の姿勢を表す3×3の回転行列及び位置を表す3次元ベクトルであり、撮像部1430と計測対象物体1470との相対的な位置姿勢の関係を表す既知の値として、予め保持されているものとする。なお、ステップS3035では、tWOは固定値として設定する。 Change to Here, t OC and R OC are a 3 × 3 rotation matrix and a three-dimensional vector representing the orientation of the imaging unit 1430 in the object coordinate system defined by the measurement target object 170, and are measured with the imaging unit 1430. It is assumed that it is held in advance as a known value representing the relative position and orientation relationship with the target object 1470. In step S3035, t WO is set as a fixed value.

以上によって、任意の物体の位置及び姿勢が計測される。このように、本実施形態に係る位置姿勢計測装置によっても、指標の分布範囲の大きさを考慮した手法の選択が行われるため、画像上の一部の領域に指標が偏在して観測されている場合であっても適切な位置姿勢推定手法が選択され、従来手法と比して安定した解を得ることができる。   As described above, the position and orientation of an arbitrary object are measured. As described above, the position / orientation measurement apparatus according to the present embodiment also selects a method in consideration of the size of the distribution range of the index, and therefore, the index is unevenly observed in a partial region on the image. Even in such a case, an appropriate position and orientation estimation method is selected, and a stable solution can be obtained as compared with the conventional method.

[第5の実施形態]
本実施形態に係る位置姿勢計測装置は、室内等の空間中における撮像装置の位置及び姿勢の計測を行う。以下、本実施形態に係る位置姿勢計測装置について説明する。
[Fifth Embodiment]
The position / orientation measurement apparatus according to the present embodiment measures the position and orientation of an imaging apparatus in a space such as a room. The position / orientation measurement apparatus according to this embodiment will be described below.

図15は、本実施形態における位置姿勢計測装置の構成を示している。同図に示したように、本実施形態における位置姿勢計測装置1500は、画像入力部160、指標検出部110、センサ計測値入力部1550、及び位置姿勢算出部1520によって構成されており、撮像装置130及び姿勢センサ1540に接続されている。   FIG. 15 shows the configuration of the position / orientation measurement apparatus according to this embodiment. As shown in the figure, the position / orientation measurement apparatus 1500 according to the present embodiment includes an image input unit 160, an index detection unit 110, a sensor measurement value input unit 1550, and a position / orientation calculation unit 1520. 130 and the attitude sensor 1540.

本実施形態においては、撮像装置130に、位置姿勢センサではなく姿勢センサが装着されている点が、第3の実施形態と異なっている。姿勢センサを用いることで、位置姿勢センサを用いる場合に存在する、センサの計測範囲以外の領域を計測できないという制約を回避することができる。以下では、第3の実施形態との相違点のみを説明する。   The present embodiment is different from the third embodiment in that an image sensor 130 is equipped with a posture sensor instead of a position and posture sensor. By using the posture sensor, it is possible to avoid the restriction that a region other than the measurement range of the sensor, which is present when the position and posture sensor is used, cannot be measured. Only the differences from the third embodiment will be described below.

姿勢センサ1540は、撮像装置130に装着されており、姿勢センサ1540自身の現在の姿勢を計測してセンサ計測値入力部1550へと出力する。姿勢センサ1540は、例えばジャイロセンサをベースとしたセンサユニットであり、具体的には、株式会社トキメックのTISS-5-40や、米国InterSense社のInertiaCube2等によって構成される。これらのセンサによって計測される姿勢計測値は、真の姿勢とは異なった、誤差を有する姿勢である。ただし、これらの姿勢センサは、地球の重力方向を観測する傾斜角センサを構成要素として有しており、傾斜角方向(ピッチ角及びロール角)のドリフト誤差の蓄積をキャンセルする機能を有しているので、傾斜角方向に関してはドリフト誤差を発生しないという性質を有している。言い換えれば、方位角方向(ヨー角方向)に関しては時間の経過に伴って蓄積されるドリフト誤差を有している。   The posture sensor 1540 is attached to the imaging device 130, measures the current posture of the posture sensor 1540 itself, and outputs it to the sensor measurement value input unit 1550. The attitude sensor 1540 is a sensor unit based on, for example, a gyro sensor, and specifically includes a TISS-5-40 manufactured by Tokimec Corporation, InertiaCube2 manufactured by InterSense, Inc., and the like. The posture measurement values measured by these sensors are postures having errors that are different from the true posture. However, these attitude sensors have a tilt angle sensor that observes the direction of gravity of the earth as a constituent element, and have a function of canceling accumulation of drift errors in the tilt angle direction (pitch angle and roll angle). Therefore, there is a property that no drift error occurs in the tilt angle direction. In other words, the azimuth angle direction (yaw angle direction) has a drift error that accumulates with time.

センサ計測値入力部1550は、方位ドリフト誤差補正値の更新値を位置姿勢算出部1520から入力し、姿勢センサ1540の現在の方位ドリフト誤差補正値を更新し保持する。また、姿勢センサ1540から姿勢計測値を入力し、現在の方位ドリフト誤差補正値によってこれを補正して、撮像装置130の姿勢の予測値として位置姿勢算出部1520へと出力する。   The sensor measurement value input unit 1550 receives an updated value of the azimuth drift error correction value from the position / orientation calculation unit 1520, and updates and holds the current azimuth drift error correction value of the orientation sensor 1540. Further, a posture measurement value is input from the posture sensor 1540, corrected by the current azimuth drift error correction value, and output to the position / orientation calculation unit 1520 as a predicted value of the posture of the imaging device 130.

位置姿勢算出部1520は、センサ計測値入力部1550の出力である撮像装置130の姿勢の予測値と、指標検出部110の出力である各々の指標Qknの画像座標uQknを入力データとして、撮像装置130の位置及び姿勢を算出して出力する。また、位置及び姿勢の算出工程で導出される姿勢センサ1540の方位ドリフト誤差補正値の更新値を、センサ計測値入力部1550へと出力する。 The position / orientation calculation unit 1520 receives, as input data, a predicted value of the orientation of the imaging device 130 that is an output of the sensor measurement value input unit 1550 and an image coordinate u Qkn of each index Q kn that is an output of the index detection unit 110. The position and orientation of the imaging device 130 are calculated and output. Also, the updated value of the orientation drift error correction value of the orientation sensor 1540 derived in the position and orientation calculation step is output to the sensor measurement value input unit 1550.

なお、図15に示した画像入力部160、指標検出部110、センサ計測値入力部150、及び位置姿勢算出部1520の少なくとも一部は、独立した装置として実現しても良いし、夫々1つもしくは複数のコンピュータにインストールし、コンピュータのCPUにより実行することで、その機能を実現するソフトウェアとして実現しても良い。本実施形態では、各部(画像入力部160、指標検出部110、センサ計測値入力部150、及び位置姿勢算出部1520)は、それぞれソフトウェアにより実現され、同一のコンピュータにインストールされているものとする。ソフトウェアを実行することで、各部の機能を実現するためのコンピュータの基本構成は、第1の実施形態と同様であるので説明を省略する。   Note that at least a part of the image input unit 160, the index detection unit 110, the sensor measurement value input unit 150, and the position / orientation calculation unit 1520 illustrated in FIG. 15 may be realized as independent devices, or one each. Alternatively, it may be implemented as software that implements its function by being installed in a plurality of computers and executed by the CPU of the computer. In the present embodiment, each unit (image input unit 160, index detection unit 110, sensor measurement value input unit 150, and position / orientation calculation unit 1520) is realized by software and installed in the same computer. . Since the basic configuration of the computer for realizing the functions of the respective units by executing the software is the same as that of the first embodiment, the description thereof is omitted.

図16は、撮像装置130の位置及び姿勢を示すパラメータを算出する処理のフローチャートであり、CPU1001が位置姿勢算出部1520のソフトウェアのプログラムを実行することで行われる。   FIG. 16 is a flowchart of processing for calculating parameters indicating the position and orientation of the imaging apparatus 130, and is performed by the CPU 1001 executing a software program of the position / orientation calculation unit 1520.

ステップS15000において、位置姿勢算出部1520は、検出された各々の指標Qknの画像座標uQknとその識別子kを指標抽出部110から入力する。なお、各指標の基準座標系における3次元座標xQknは、既知の値としてRAM1002に予めロードされているものとする。 In step S15000, the position and orientation calculation unit 1520 inputs the image coordinates u Qkn of the index Q kn each detected and the identifier k n from the index extraction unit 110. It is assumed that the three-dimensional coordinate x Qkn in the reference coordinate system of each index is preloaded in the RAM 1002 as a known value.

ステップS15005において、位置姿勢算出部1520は、撮像装置130の姿勢の予測値R*をセンサ計測値入力部1550から入力し、これを、撮像装置130の姿勢の初期値として設定する。また、2回目以降の処理では、1ループ前の処理において算出された撮像装置130の位置を、撮像装置130の姿勢の初期値として設定する。 In step S15005, the position / orientation calculation unit 1520 inputs the predicted value R * of the orientation of the imaging device 130 from the sensor measurement value input unit 1550, and sets this as an initial value of the orientation of the imaging device 130. In the second and subsequent processing, the position of the imaging device 130 calculated in the processing one loop before is set as the initial value of the orientation of the imaging device 130.

ステップS15010において、位置姿勢算出部1520は、指標が検出されているか否かを判定する。指標が検出されていない場合はステップS15090に処理を進め、それ以外の場合はステップS15020に処理を進める。   In step S15010, the position / orientation calculation unit 1520 determines whether an index has been detected. If no index is detected, the process proceeds to step S15090; otherwise, the process proceeds to step S15020.

ステップS15020において、位置姿勢算出部1520は、検出された指標の総数が一つか否かを判定する.指標の総数が一つの場合はステップS15025に処理を進め、それ以外の場合はステップS15030に処理を進める。   In step S15020, the position / orientation calculation unit 1520 determines whether the total number of detected indices is one. If the total number of indices is one, the process proceeds to step S15025; otherwise, the process proceeds to step S15030.

ステップS15025において、位置姿勢算出部1520は、ステップS15005で設定した初期値の平行移動成分のうちの視軸と直交する2軸方向の値を補正対象として、検出されている指標上での誤差を打ち消すような補正を加え、ステップS15090に処理を進める。ステップS15025での処理工程のとしては、周知の処理を提供することが可能であるため、これ以上の説明は行わない。具体的には、例えば特許文献1(ランドマーク1点を利用したカメラの平行移動による補正方法(段落「0030」〜「0036」)およびランドマークを複数点利用したカメラの平行移動による補正方法(段落「0051」〜「0056」)に開示されている方法を用いることができる。ただし、特許文献1では6自由度位置姿勢センサの計測値を誤差補正の対象とした場合を説明しているが、本実施形態では、前フレームで求めた位置と姿勢センサの計測値とを組み合わせたものが補正対象となる点が異なっている。   In step S15025, the position / orientation calculation unit 1520 corrects an error on the detected index using a value in the biaxial direction orthogonal to the visual axis in the parallel translation component of the initial value set in step S15005 as a correction target. Correction for canceling is added, and the process proceeds to step S15090. As a processing process in step S15025, since a known process can be provided, no further description will be given. Specifically, for example, Patent Document 1 (Correction method by translation of camera using one landmark (paragraphs “0030” to “0036”) and Correction method by translation of camera using a plurality of landmarks ( The method disclosed in paragraphs “0051” to “0056”) can be used, although Patent Document 1 describes the case where the measurement value of the 6-DOF position / orientation sensor is the target of error correction. The present embodiment is different in that a combination of the position obtained in the previous frame and the measured value of the orientation sensor is a correction target.

ステップS15030において、位置姿勢算出部1520は、検出された指標の総数が二つか否かを判定する.指標の総数が二つの場合はステップS15032に処理を進め、それ以外の場合はステップS15040に処理を進める。   In step S15030, the position / orientation calculation unit 1520 determines whether the total number of detected indices is two. If the total number of indices is two, the process proceeds to step S15032. Otherwise, the process proceeds to step S15040.

ステップS15032において、位置姿勢算出部1520は、検出された二つの指標の画像上での距離を算出し、その値と所定の値として定められている閾値T(例えば、画像の対角線長の1/8)との比較を行う。距離が閾値T以上の場合にはステップS15034に処理を進め、それ以外の場合はステップS15025に処理を進める。 In step S15032, the position / orientation calculation unit 1520 calculates the distance between the two detected indices on the image, and the threshold value T 1 (for example, 1 of the diagonal length of the image) defined as the predetermined value. Comparison with / 8). Distance the flow advances to step S15034 when the thresholds T 1 or more, otherwise the process advances to step S15025.

ステップS15034において、位置姿勢算出部1520は、検出された二つの指標の画像上での距離と所定の値として定められている閾値T(例えば、画像の対角線長の1/4)との比較を行う。距離が閾値T以上の場合にはステップS15038に処理を進め、それ以外の場合はステップS15036に処理を進める。 In step S15034, the position / orientation calculation unit 1520 compares the detected distance between the two indices on the image and a threshold T 2 (for example, ¼ of the diagonal length of the image) defined as a predetermined value. I do. Distance the flow advances to step S15038 when the threshold T 2 or higher, otherwise the process advances to step S15036.

ステップS15036において、位置姿勢算出部1520は、ステップS15005で設定した初期値のうち、位置を表す3パラメータ(平行移動成分)を更新対象として(すなわち、姿勢計測値には誤差は含まれていないものと仮定して)、検出されている指標上での誤差を最小とするような補正を位置のパラメータのみに加え、ステップS15090に処理を進める。この処理工程の詳細は、例えば特許文献3(第6の実施形態)に開示されているので、ここでの説明は省略する。また、位置を表す3パラメータを未知変数とした観測方程式を構成し、画像ヤコビアンを用いた誤差最小化計算を行うことによっても、画像上での誤差を最小とするような位置の補正を行うことができる。   In step S15036, the position / orientation calculation unit 1520 sets three parameters (parallel movement components) representing the position among the initial values set in step S15005 as update targets (that is, the attitude measurement value does not include an error). Assuming that the correction is made to minimize the error on the detected index, only the position parameter is added, and the process proceeds to step S15090. The details of this processing step are disclosed in, for example, Patent Document 3 (sixth embodiment), and a description thereof will be omitted here. It is also possible to correct the position so that the error on the image is minimized by constructing an observation equation with the three parameters representing the position as unknown variables and performing error minimization calculation using the image Jacobian. Can do.

ステップS15038において、位置姿勢算出部1520は、ステップS15005で設定した初期値のうちの位置を表す3パラメータ(平行移動成分)と、姿勢センサ1340の方位ドリフト誤差補正値の更新値φの合計4パラメータとを、算出すべき未知パラメータとして取り扱い、検出されている指標の情報を用いてこれらを算出する。この処理工程の詳細は、例えば特許文献3(第7の実施形態)に開示されているので、ここでの説明は省略する。また、これら4パラメータを未知変数とした観測方程式を構成し、画像ヤコビアンを用いた誤差最小化計算を行うことによっても、画像上での誤差を最小とするような位置と方位ドリフト誤差補正値の更新値の算出を行うことができる。さらに、ステップS15080へと処理を進める。   In step S15038, the position / orientation calculation unit 1520 has a total of four parameters including three parameters (translation component) representing the position among the initial values set in step S15005 and the updated value φ of the azimuth drift error correction value of the attitude sensor 1340. Are treated as unknown parameters to be calculated, and these are calculated using information of detected indices. Details of this processing step are disclosed in, for example, Patent Document 3 (seventh embodiment), and thus description thereof is omitted here. Also, by constructing an observation equation with these four parameters as unknown variables and performing error minimization calculation using the image Jacobian, the position and orientation drift error correction values that minimize the error on the image can be obtained. An update value can be calculated. Further, the process proceeds to step S15080.

ステップS15040において、位置姿勢算出部1520は、検出された全指標(このステップが実行されるのは、指標の総数が三つ以上の場合のみである)の画像座標を包含する凸包を算出する。   In step S15040, the position / orientation calculation unit 1520 calculates a convex hull including the image coordinates of all detected indices (this step is executed only when the total number of indices is three or more). .

ステップS15050において、位置姿勢算出部1520は、S15040で算出した凸包の面積と所定の値として定められている閾値T(例えば、画像の面積の1/16)との比較を行う。面積が閾値T以上の場合はステップS15060に処理を進め、それ以外の場合はステップS15036へと処理を進め、上述した処理を行う。 In step S15050, the position / orientation calculation unit 1520 compares the area of the convex hull calculated in S15040 with a threshold T 3 (for example, 1/16 of the area of the image) set as a predetermined value. The process advances to step S15060 when the area is not less than the threshold value T 3, the process advances to step S15036. Otherwise, perform the above-described processing.

ステップS15060において、位置姿勢算出部1520は、S15040で算出した凸包の面積と所定の値として定められている閾値Tとの比較を行う。面積が閾値T(例えば、画像の面積の1/9)以上の場合はステップS15070に処理を進め、それ以外の場合はステップS15038へと処理を進め、上述した処理を行う。 In step S15060, the position and orientation calculation unit 1520 performs the comparison with the threshold value T 4 which is defined as an area with a predetermined value of the convex hull calculated in S15040. If the area is greater than or equal to a threshold T 4 (for example, 1/9 of the area of the image), the process proceeds to step S15070. Otherwise, the process proceeds to step S15038, and the above-described process is performed.

ステップS15070において、位置姿勢算出部1520は、検出されている全指標上での誤差の和を最小とするような撮像装置130の位置と姿勢を算出する。この算出は、例えば、撮像装置130の位置と姿勢を表す6パラメータを変数として、ステップS15005で設定した初期値を用いて、非線形方程式の反復解法によって誤差を最小化するパラメータを求めることによって実現される。すなわち、位置と姿勢を表す6パラメータを未知変数とした観測方程式を構成し、これに基づいて求められる指標投影位置の誤差と各パラメータに関する画像ヤコビアンとを用いて当該パラメータの補正値を求め、補正処理を反復的に行うことで画像上での誤差を最小とするような位置と姿勢を算出する。
位置姿勢算出部1520はさらに、ステップS15005で設定した姿勢の初期値と求められた姿勢との変化分を算出し、その方位成分を方位ドリフト誤差補正値の更新値φとする。
In step S15070, the position / orientation calculation unit 1520 calculates the position and orientation of the imaging apparatus 130 that minimizes the sum of errors on all detected indices. This calculation is realized, for example, by obtaining a parameter that minimizes an error by an iterative solution of a nonlinear equation using the six parameters representing the position and orientation of the imaging device 130 as variables and using the initial value set in step S15005. The That is, an observation equation having six parameters representing position and orientation as unknown variables is constructed, and the correction value of the parameter is obtained using the error of the index projection position obtained based on this and the image Jacobian related to each parameter, and the correction is performed. By repeatedly performing the process, the position and orientation that minimize the error on the image are calculated.
The position / orientation calculation unit 1520 further calculates a change between the initial value of the attitude set in step S15005 and the obtained attitude, and sets the azimuth component as the updated value φ of the azimuth drift error correction value.

ステップS15080において、位置姿勢算出部1520は、ステップS15038あるいはステップS15070において得られた方位ドリフト誤差補正値の更新値φを、センサ計測値入力部処理1550へと出力する。   In step S15080, the position / orientation calculation unit 1520 outputs the updated value φ of the azimuth drift error correction value obtained in step S15038 or step S15070 to the sensor measurement value input unit processing 1550.

ステップS15090において、位置姿勢算出部1520は、ステップS15080までの結果として得られた撮像装置130の位置及び姿勢を、I/F1009を介して外部へと出力する。あるいは、これらのデータを、他のアプリケーションから利用可能な状態としてRAM1002上に格納する。   In step S15090, the position / orientation calculation unit 1520 outputs the position and orientation of the imaging device 130 obtained as a result up to step S15080 to the outside via the I / F 1009. Alternatively, these data are stored on the RAM 1002 in a state where they can be used by other applications.

ステップS15100において、位置姿勢算出部1520は、処理を終了するか否かの判定を行い、処理を終了しない場合には、処理をステップS15000へと進める。   In step S15100, the position / orientation calculation unit 1520 determines whether or not to end the process. If the process is not ended, the process proceeds to step S15000.

以上によって、撮像装置の位置及び姿勢が計測される。
本実施形態に係る位置姿勢計測装置によれば、ステップS15034やステップS15050によって指標の分布範囲の大きさを考慮した手法の選択(方位ドリフト誤差補正値の更新を行うか否かの判断)が行われるため、画像上の一部の領域に指標が偏在して観測されている場合に、方位ドリフト誤差補正値の更新を不正確に行ってしまうという状況を回避することができる。
As described above, the position and orientation of the imaging apparatus are measured.
According to the position / orientation measurement apparatus according to the present embodiment, the selection of a method in consideration of the size of the index distribution range (determination as to whether or not to update the azimuth drift error correction value) is performed in steps S15034 and S15050. Therefore, it is possible to avoid a situation in which the azimuth drift error correction value is incorrectly updated when the index is unevenly observed in a partial region on the image.

また、本実施形態に係る位置姿勢計測装置によれば、第3の実施形態の効果に加え、ステップS15060による手法の選択によって、画像情報が不足する場合であっても姿勢センサによる傾斜角情報を信頼することで位置及び姿勢を安定して導出できるほか、画像情報が十分得られる場合であれば位置及び姿勢の推定を高精度に行えるという、通常の画像情報に基づく位置姿勢推定手法が有する利点を両立することができる。   Further, according to the position / orientation measurement apparatus according to the present embodiment, in addition to the effects of the third embodiment, the inclination angle information obtained by the attitude sensor can be obtained even when image information is insufficient due to the selection of the technique in step S15060. Advantages of the position and orientation estimation method based on normal image information that the position and orientation can be stably derived by reliability and the position and orientation can be estimated with high accuracy if sufficient image information is available Can be compatible.

[他の実施形態]
(変形例1)
上記の実施形態の各々では、画像上における指標の分布に基づいて、適用する補正アルゴリズムが選択される。これらの補正アルゴリズム(第1の実施形態におけるステップS3025,S3035,S3070、第2乃至第4の実施形態におけるこれらの変形、及び、第5の実施形態におけるステップS15025,S15036,S15038,S15070)は、必ずしも上記の実施形態で示したものである必要はなく、指標の分布に従って見込まれる画像情報の情報量に応じて適切に設定されたものであれば、他の補正アルゴリズムに変更することも可能である。
[Other Embodiments]
(Modification 1)
In each of the above embodiments, the correction algorithm to be applied is selected based on the distribution of the indices on the image. These correction algorithms (steps S3025, S3035, S3070 in the first embodiment, these modifications in the second to fourth embodiments, and steps S15025, S15036, S15038, S15070 in the fifth embodiment) are: It does not necessarily have to be the one shown in the above embodiment, and can be changed to another correction algorithm as long as it is appropriately set according to the information amount of image information expected according to the distribution of indices. is there.

例えば、第1乃至第4の実施形態におけるステップS3025やS3035において、姿勢の計測値を補正するのではなく、位置の計測値を補正する構成としてもよい。この場合、ステップS3025では、例えば、特許文献1の段落「0030」〜「0036」および「0051」〜「0056」に開示されているような、1つ又は複数の指標を利用したカメラの平行移動による補正方法に基づいて、位置計測値のうちのカメラの視軸と直交する2軸方向の値を補正対象として、検出されている指標上での誤差を打ち消すような補正を加えることができる。   For example, in steps S3025 and S3035 in the first to fourth embodiments, the position measurement value may be corrected instead of correcting the posture measurement value. In this case, in step S3025, for example, parallel translation of the camera using one or a plurality of indices as disclosed in paragraphs “0030” to “0036” and “0051” to “0056” of Patent Document 1. Based on the correction method according to (1), a correction that cancels the error on the detected index can be applied with the value in the biaxial direction orthogonal to the visual axis of the camera among the position measurement values as a correction target.

また、ステップS3035では、算出すべき未知パラメータを、撮像装置130の位置を表す3値ベクトルs = tWC = [xWC yWC zWC ]Tとして、図5と同様な処理手順によって位置の補正を行う。第1の実施形態との相違点は、観測方程式を構成する式5を、次式のように変更することである。 In step S3035, the unknown parameter to be calculated is a ternary vector s = t WC = [x WC y WC z WC ] T representing the position of the imaging device 130, and the position is corrected by the same processing procedure as in FIG. I do. The difference from the first embodiment is that Equation 5 constituting the observation equation is changed to the following equation.

Figure 0004726191
Figure 0004726191

ここで、RWCは、固定値として用いる撮像装置130のセンサによる姿勢計測値を表している。また、RWO 及びtWOは、第1の実施形態における式5と同様に、計測対象物体170の位置及び姿勢のセンサによる計測値を表しており、固定値として取り扱われる。 Here, R WC represents a posture measurement value by the sensor of the imaging device 130 used as a fixed value. Further, R WO and t WO represent measurement values obtained by the sensor of the position and orientation of the measurement target object 170, and are treated as fixed values, as in Equation 5 in the first embodiment.

なお、式22は線形方程式であるので、式6と組み合わせた観測方程式から連立方程式を作成しこれを解くことで、繰り返し演算を用いなくても補正値を得ることができる。   Since Equation 22 is a linear equation, a correction value can be obtained without using iterative calculation by creating a simultaneous equation from the observation equation combined with Equation 6 and solving it.

なお、不図示のUIを介して、姿勢の補正と位置の補正の何れを優先させるかをユーザが自由に選択できるようにしてもよい。この場合、ステップS3025及びS3035の実行時に、ユーザの選択に応じて、姿勢あるいは位置の補正アルゴリズムが実行される。これにより、特性の異なる位置姿勢センサを用いた場合でも、より好ましい計測を行うことができる。   Note that the user may freely select which of the posture correction and the position correction is prioritized via a UI (not shown). In this case, at the time of executing steps S3025 and S3035, an attitude or position correction algorithm is executed in accordance with the user's selection. Thereby, even when a position and orientation sensor having different characteristics is used, more preferable measurement can be performed.

また、ステップS3025においては、計測値として得られる6パラメータのうちの任意の2パラメータを補正対象として選択し、これを未知数として上述した方法と記と同様にして求めてもよい。同様に、ステップS3035においては、計測値として得られる6パラメータのうちの任意の3パラメータを補正対象として選択し、これを未知数として上述した方法と同様な枠組みによって求めてもよい。   In step S3025, any two parameters out of the six parameters obtained as measurement values may be selected as correction targets, and these may be obtained as unknowns in the same manner as described above. Similarly, in step S3035, any three parameters out of six parameters obtained as measurement values may be selected as correction targets, and these may be determined as unknowns using the same framework as described above.

(変形例2)
上記第1乃至第4の実施形態では、画像上における指標の分布に基づいて、3種類のアルゴリズムへと処理を分岐させていた(ステップS3033、ステップS3050及びステップS3060)。しかし、指標の分布に基づいて行う分岐数は3通りに限られるものではない。例えば、ステップS3050の処理を省いて、閾値Tと凸包の面積の大小関係によってステップS3035あるいはステップS3070へと処理を分岐させるだけでもよい。また、より多数の閾値を設けて、4通り以上の分岐を行ってもよい。例えば、補正対象とするパラメータの数(2〜6)を凸包の面積に応じて変更し、これを未知数として同様な方法により位置姿勢を算出してもよい。
(Modification 2)
In the first to fourth embodiments, the processing is branched into three types of algorithms based on the distribution of indices on the image (steps S3033, S3050, and S3060). However, the number of branches performed based on the index distribution is not limited to three. For example, by omitting the processing in step S3050, it may be simply the process branches to step S3035 or step S3070 by the magnitude relation of the area of the threshold value T 3 and the convex hull. Further, more than four thresholds may be provided to perform four or more branches. For example, the number of parameters to be corrected (2 to 6) may be changed according to the area of the convex hull, and the position and orientation may be calculated by a similar method using this as an unknown.

(変形例3)
上記の実施形態の各々では、位置姿勢センサや姿勢センサによる計測値と、撮像装置によって得られる画像情報を併用することにより、計測対象(計測対象物体や撮像装置)の位置及び姿勢を求めていた。しかし、画像上における指標の分布に基づいて、位置及び姿勢を求めるために用いるアルゴリズムを選択するという基本的な技術思想は、これらのセンサによる計測値を用いずに、画像情報のみから計測対象の位置及び姿勢を得る場合であっても適用できる。
例えば、図13に示した第3の実施形態の構成において、位置姿勢計測装置1300がセンサ計測値入力部150を有さず、また、位置姿勢センサ140が撮像装置130に設置されていない場合を考える。この場合、位置姿勢算出部1320は、初期値として位置姿勢センサ140による撮像装置130の位置及び姿勢の計測値を用いるのではなく、前フレームで求めた撮像装置130の位置及び姿勢の算出値(あるいは、過去の算出値から予測した現フレームにおける位置及び姿勢)を用いることにすると、これを仮の計測値とおいて図3と同様な処理を行うことで、指標の分布に応じて適切な位置及び姿勢の算出アルゴリズムを選択することが可能となる。
(Modification 3)
In each of the above-described embodiments, the position and orientation of the measurement target (measurement target object or imaging device) are obtained by using the measurement values obtained by the position and orientation sensor or the orientation sensor and the image information obtained by the imaging device together. . However, the basic technical idea of selecting an algorithm to be used for obtaining the position and orientation based on the distribution of the indices on the image is that the measurement target is determined from only the image information without using the measurement values of these sensors. Even when the position and orientation are obtained, the present invention can be applied.
For example, in the configuration of the third embodiment illustrated in FIG. 13, the position / orientation measurement apparatus 1300 does not include the sensor measurement value input unit 150 and the position / orientation sensor 140 is not installed in the imaging apparatus 130. Think. In this case, the position / orientation calculation unit 1320 does not use the measured values of the position and orientation of the imaging device 130 by the position / orientation sensor 140 as initial values, but calculates the calculated values of the position and orientation of the imaging device 130 obtained in the previous frame ( Alternatively, if the position and orientation in the current frame predicted from the past calculated values are used, this is used as a temporary measurement value and the same processing as in FIG. And an attitude calculation algorithm can be selected.

(変形例4)
上記の実施形態の各々では、指標の分布を計る尺度として、指標が3点以上検出されている場合には、指標が成す凸包を求めてその面積を利用していた。しかし、指標の分布を測る尺度はこれに限られるものではなく、他の尺度を用いてもよい。例えば、画像中心から最も遠い位置にある指標を第1の指標として選択し、第1の指標から最も遠い位置にある指標を第2の指標として選択し、さらに、第1,第2の指標を結ぶ直線から最も遠い距離にある指標を第3の指標として選択し、これら第1,第2,第3の指標が成す三角形の面積を分布の尺度として、凸包の面積の変わりに用いても良い。また、簡易的には、このような第1,第2の指標間の距離を分布の尺度としても良いし、指標の画像座標の分散や標準偏差といった、分布を数値で表しうる他の任意の情報を分布の尺度として用いてもよい。
(Modification 4)
In each of the above embodiments, when three or more indices are detected as a scale for measuring the distribution of the indices, the convex hull formed by the indices is obtained and the area is used. However, the scale for measuring the distribution of the index is not limited to this, and other scales may be used. For example, the index farthest from the image center is selected as the first index, the index farthest from the first index is selected as the second index, and the first and second indices are further selected. The index that is farthest from the connecting line is selected as the third index, and the area of the triangle formed by these first, second, and third indices can be used as a distribution scale instead of the convex hull area. good. For simplicity, the distance between the first and second indices may be used as a scale of the distribution, or any other arbitrary value that can represent the distribution numerically, such as dispersion of image coordinates or standard deviation of the indices. Information may be used as a measure of distribution.

(変形例5)
第1の実施形態におけるステップS3035では、図4のステップS4040にて詳細に説明したように、誤差ベクトルUと行列Θに基づく補正値Δsの算出に、式11で表現される最急降下法を用いている。しかし、補正値Δsの算出は必ずしも最急降下法によって行わなくてもよい。例えば公知の非線形方程式の反復解法であるLM法(Levenberg-Marquardt法)を用いて求めてもよいし、公知のロバスト推定手法であるM推定等の統計的手法を組み合わせてもよいし、他の何れの数値計算手法を適用しても発明の本質が損なわれないことは言うまでもない。また、上記の実施形態におけるsを状態ベクトル、式4を観測方程式とすることで、画像ヤコビアンを利用して位置姿勢センサによる計測値のうちの一部のパラメータのみを補正するという効果を有した拡張カルマンフィルタ(Extended Kalman Filter)や、反復拡張カルマンフィルタ(iterative Extended Kalman Filter)を構成することができる。なお、拡張カルマンフィルタ及び反復拡張カルマンフィルタについては非特許文献2に記載されるように周知であるので、その詳細に関するこれ以上の説明は省略する。
(Modification 5)
In step S3035 in the first embodiment, as described in detail in step S4040 of FIG. 4, the steepest descent method expressed by equation 11 is used to calculate the correction value Δs based on the error vector U and the matrix Θ. ing. However, the correction value Δs need not always be calculated by the steepest descent method. For example, the LM method (Levenberg-Marquardt method) which is an iterative solution of a known nonlinear equation may be obtained, or a statistical method such as M estimation which is a known robust estimation method may be combined. It goes without saying that the essence of the invention is not impaired by any numerical calculation method. Further, by using s as a state vector and Equation 4 as an observation equation in the above-described embodiment, there is an effect that only some of the parameters measured by the position and orientation sensor are corrected using the image Jacobian. An extended Kalman filter and an iterative extended Kalman filter can be configured. Note that the extended Kalman filter and the iterative extended Kalman filter are well known as described in Non-Patent Document 2, and thus further description regarding the details is omitted.

(変形例6)
上記の実施形態の各々においては、各々が一つの座標を表すような指標(以下、これを点指標と呼ぶ)を用いていた。しかし、点指標以外の指標を用いることも可能である。例えば、公知の位置姿勢計測装置(例えば、非特許文献3を参照)に用いられているような、線特徴によって構成される指標(以下、これを線指標と呼ぶ)を用いてもよい。例えば、原点から線指標までの距離を評価のための基準として画像からの検出値とsによる推定値から算出する誤差によって誤差ベクトルUを構成し、観測方程式をsの各要素で偏微分した解を各要素に持つ1行×6列のヤコビ行列によって行列Θを構成することで、上記実施形態と同様にして位置及び姿勢の計測(補正)を行うことができる。また、線指標と点指標、その他の指標から得られる誤差及び画像ヤコビアンを積み重ねることによって、それらの特徴を併用することも可能である。
(Modification 6)
In each of the above embodiments, an index (hereinafter referred to as a point index) that represents one coordinate is used. However, an index other than the point index can be used. For example, you may use the parameter | index (henceforth a line parameter | index) comprised by a line feature like what is used for a well-known position and orientation measurement apparatus (for example, refer nonpatent literature 3). For example, an error vector U is constituted by an error calculated from a detected value from an image and an estimated value by s using a distance from the origin to a line index as a reference for evaluation, and a solution obtained by partial differentiation of the observation equation by each element of s By configuring the matrix Θ by a 1 × 6 Jacobian matrix having as elements, position and orientation can be measured (corrected) in the same manner as in the above embodiment. In addition, it is also possible to use these features together by stacking error and image Jacobian obtained from line indexes and point indexes, and other indexes.

(変形例7)
上記の実施形態の各々では、画像面積に対する指標の分布に応じて以降の処理を選択していた。しかし、計測対象物体に対する相対的な比率を尺度としてもよい。例えば、第1の実施形態において、ステップS3040で、全検出指標の成す凸包の面積Sに加えて、画像上への計測対象物体170(その大まかな形状を表す3次元データが記憶されているものとする)の投影像の面積Sを求め、これらの比率(S/S)を得る。そして、上記比率に対して適宜設定した閾値を用いてステップS3050とステップS3060での条件分岐を行えばよい。
(Modification 7)
In each of the above embodiments, the subsequent processing is selected according to the distribution of the index with respect to the image area. However, a relative ratio to the measurement target object may be used as a scale. For example, in the first embodiment, in step S3040, in addition to the area S H of the convex hull formed by the total detected indices, the measurement object 170 onto the image (three-dimensional data representing the general shape is stored The area S O of the projected image is obtained, and these ratios (S H / S O ) are obtained. Then, conditional branching in steps S3050 and S3060 may be performed using a threshold that is appropriately set for the ratio.

また、画像中ではなく、物理空間における指標の分布を尺度とすることも可能である。例えば、第1の実施形態において、ステップS3040で、物体座標系における全検出指標の3次元座標によって構成される3次元凸包を求め、その体積Vを算出し、計測対象物体170の体積Vとの比率(V/V)を得ることで、計測対象物体170上における検出指標の分布の割合を導出する。そして、上記比率に対して適宜設定した閾値を用いてステップS3050とステップS3060での条件分岐を行えばよい。また、物体座標系における互いが最も遠い3点の検出指標によって構成される三角形の面積を求め、計測対象物体170のサイズ(例えば、外接直方体の最も長い2辺が成す矩形の面積)との比率を求め、これを尺度として用いることも可能である。 It is also possible to use the distribution of the index in the physical space as a scale, not in the image. For example, in the first embodiment, in step S3040, a three-dimensional convex hull composed of the three-dimensional coordinates of all detection indices in the object coordinate system is obtained, the volume V H is calculated, and the volume V of the measurement target object 170 is calculated. By obtaining the ratio (V H / V O ) with O , the ratio of the distribution of the detection index on the measurement target object 170 is derived. Then, conditional branching in steps S3050 and S3060 may be performed using a threshold that is appropriately set for the ratio. Further, the area of a triangle formed by the detection indices of the three points farthest from each other in the object coordinate system is obtained, and the ratio to the size of the measurement target object 170 (for example, the rectangular area formed by the two longest sides of the circumscribed cuboid) Can be obtained and used as a scale.

本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体(または記録媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても達成される。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   An object of the present invention is to supply a storage medium (or recording medium) in which a program code of software for realizing the functions of the above-described embodiments is recorded to a system or apparatus, and a computer (or CPU or MPU) of the system or apparatus. Is also achieved by reading and executing the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention. Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an operating system (OS) running on the computer based on the instruction of the program code. It goes without saying that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included.

さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Furthermore, after the program code read from the storage medium is written into a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer, the function is determined based on the instruction of the program code. It goes without saying that the CPU or the like provided in the expansion card or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.

本発明を上記記憶媒体に適用する場合、その記憶媒体には先に説明したフローチャートに対応するプログラムコードが格納されることになる。   When the present invention is applied to the above-mentioned storage medium, the program code corresponding to the flowchart described above is stored in the storage medium.

第1の実施形態における位置姿勢計測装置の構成を示す図である。It is a figure which shows the structure of the position and orientation measurement apparatus in 1st Embodiment. 位置姿勢計測装置の各部をソフトウェアにより実現することのできるコンピュータの基本構成を示す図である。It is a figure which shows the basic composition of the computer which can implement | achieve each part of a position and orientation measurement apparatus with software. 実施形態における、撮像装置130及び計測対象物体170の位置及び姿勢を算出する処理を説明するフローチャートである。6 is a flowchart illustrating processing for calculating the positions and orientations of the imaging device 130 and the measurement target object 170 in the embodiment. 図3のステップS3035における位置及び姿勢算出処理の詳細を説明するフローチャートである。It is a flowchart explaining the detail of the position and attitude | position calculation process in step S3035 of FIG. 図3のステップS3070における位置及び姿勢算出処理の詳細を説明するフローチャートである。It is a flowchart explaining the detail of the position and attitude | position calculation process in step S3070 of FIG. 撮像装置130によって計測対象物体170を撮影することで取得される撮影画像の一例を示す図である。6 is a diagram illustrating an example of a captured image acquired by capturing a measurement target object 170 with the imaging device 130. FIG. 撮像装置130によって計測対象物体170を撮影することで取得される撮影画像の一例を示す図である。6 is a diagram illustrating an example of a captured image acquired by capturing a measurement target object 170 with the imaging device 130. FIG. 撮像装置130によって計測対象物体170を撮影することで取得される撮影画像の一例を示す図である。6 is a diagram illustrating an example of a captured image acquired by capturing a measurement target object 170 with the imaging device 130. FIG. 図6の撮影画像(撮影画像600)に対してステップS3040の処理を実行した際に得られる凸包を示す図である。It is a figure which shows the convex hull obtained when the process of step S3040 is performed with respect to the picked-up image (captured image 600) of FIG. 図7の撮影画像(撮影画像700)に対してステップS3040の処理を実行した際に得られる凸包を示す図である。It is a figure which shows the convex hull obtained when the process of step S3040 is performed with respect to the picked-up image (photographed image 700) of FIG. 図8の撮影画像(撮影画像800)に対してステップS3040の処理を実行した際に得られる凸包を示す図である。It is a figure which shows the convex hull obtained when the process of step S3040 is performed with respect to the picked-up image (photographed image 800) of FIG. 第2の実施形態における位置姿勢計測装置の構成を示す図である。It is a figure which shows the structure of the position and orientation measurement apparatus in 2nd Embodiment. 第3の実施形態における位置姿勢計測装置の構成を示す図である。It is a figure which shows the structure of the position and orientation measurement apparatus in 3rd Embodiment. 第4の実施形態における位置姿勢計測装置の構成を示す図である。It is a figure which shows the structure of the position and orientation measuring apparatus in 4th Embodiment. 第5の実施形態における位置姿勢計測装置の構成を示す図である。It is a figure which shows the structure of the position and orientation measurement apparatus in 5th Embodiment. 第5の実施形態における、撮像装置130の位置及び姿勢を算出する処理を説明するフローチャートである。14 is a flowchart for describing processing for calculating the position and orientation of an imaging apparatus according to a fifth embodiment.

Claims (26)

撮像装置の位置姿勢を構成する複数のパラメータの1つ以上を補正する位置姿勢補正装置であって、A position and orientation correction device that corrects one or more of a plurality of parameters constituting the position and orientation of an imaging device,
前記複数のパラメータを入力する位置姿勢入力手段と、  Position and orientation input means for inputting the plurality of parameters;
現実空間に複数配置された指標を前記撮像装置で撮像した画像を入力する画像入力手段と、  Image input means for inputting an image captured by the imaging device with a plurality of indicators arranged in real space;
前記画像から前記指標の画像座標の実測値を検出する検出手段と、  Detecting means for detecting an actual value of image coordinates of the index from the image;
前記検出手段による検出結果に基づいて、前記複数のパラメータのうち何れを補正対象とするか決定する決定手段と、  A determination unit for determining which of the plurality of parameters is to be corrected based on a detection result by the detection unit;
前記複数のパラメータおよび前記実測値に基づいて、前記複数のパラメータのうち、前記決定手段によって前記補正対象のパラメータと決定されなかったパラメータを補正せず、前記補正対象のパラメータと決定されたパラメータを補正する補正手段と、  Based on the plurality of parameters and the actually measured value, the parameter that has not been determined as the correction target parameter by the determining unit is not corrected, and the parameter determined as the correction target parameter is not corrected. Correction means for correcting;
を有し、Have
前記補正手段が、  The correction means is
前記指標の座標と前記複数のパラメータとに基づいて、前記指標の画像座標の理論値を算出する理論値算出手段と、    A theoretical value calculating means for calculating a theoretical value of the image coordinates of the index based on the coordinates of the index and the plurality of parameters;
前記実測値と前記理論値との誤差を小さくするように、前記補正対象と決定されたパラメータの補正値を算出する補正値算出手段と、    Correction value calculation means for calculating a correction value of the parameter determined as the correction target so as to reduce an error between the actual measurement value and the theoretical value;
前記補正値に基づいて、前記複数のパラメータのうち前記補正対象のパラメータと決定されなかったパラメータを補正せず、前記補正対象のパラメータと決定されたパラメータを補正するパラメータ補正手段と、    Parameter correcting means for correcting the parameter to be corrected and the determined parameter without correcting the parameter to be corrected among the plurality of parameters based on the correction value;
を有することを特徴とする位置姿勢補正装置。A position / orientation correction apparatus comprising:
前記指標は、前記現実空間に固定され、位置が既知であることを特徴とする請求項1に記載の位置姿勢補正装置。The position and orientation correction apparatus according to claim 1, wherein the index is fixed in the real space and has a known position. 前記指標は、現実空間に存在する撮像対象物体に取り付けられ、The index is attached to an object to be imaged that exists in real space,
前記位置姿勢補正装置は、  The position / orientation correction apparatus includes:
前記撮像対象物体の位置姿勢を構成する複数のパラメータを入力する撮像対象位置姿勢入力手段  Imaging target position and orientation input means for inputting a plurality of parameters constituting the position and orientation of the imaging target object
を更に有することを特徴とする請求項1に記載の位置姿勢補正装置。The position / orientation correction apparatus according to claim 1, further comprising:
計測対象物体の位置姿勢を構成する複数のパラメータを補正する位置姿勢補正装置であって、A position and orientation correction apparatus that corrects a plurality of parameters constituting the position and orientation of a measurement target object,
前記複数のパラメータを入力する位置姿勢入力手段と、  Position and orientation input means for inputting the plurality of parameters;
前記計測対象物体に複数配置された指標を撮像装置で撮像した画像を入力する画像入力手段と、  An image input means for inputting an image obtained by imaging an index placed on the measurement target object with an imaging device;
前記撮像画像から前記指標の画像座標の実測値を検出する検出手段と、  Detecting means for detecting an actual measurement value of the image coordinates of the index from the captured image;
前記検出手段による検出結果に基づいて、前記複数のパラメータのうち何れを補正対象とするか決定する決定手段と、  A determination unit for determining which of the plurality of parameters is to be corrected based on a detection result by the detection unit;
前記複数のパラメータおよび前記実測値に基づいて、前記複数のパラメータのうち前記決定手段によって前記補正対象のパラメータと決定されなかったパラメータを補正せず、前記補正対象のパラメータと決定されたパラメータを補正する補正手段と、  Based on the plurality of parameters and the actually measured value, the parameter that has not been determined as the correction target parameter by the determination unit is corrected without correcting the parameter that has been determined as the correction target parameter. Correction means for
を有し、Have
前記補正手段が、  The correction means is
前記複数のパラメータに基づいて、前記指標の画像座標の理論値を算出する理論値算出手段と、    Based on the plurality of parameters, a theoretical value calculation means for calculating a theoretical value of the image coordinates of the index;
前記実測値と前記理論値との誤差を小さくするように、前記補正対象のパラメータと決定されたパラメータの補正値を算出する補正値算出手段と、    Correction value calculating means for calculating a correction value of the parameter to be corrected and the determined parameter so as to reduce an error between the actual measurement value and the theoretical value;
前記補正値に基づいて、前記複数のパラメータのうち前記補正対象のパラメータと決定されなかったパラメータを補正せず、前記補正対象のパラメータと決定されたパラメータを補正するパラメータ補正手段と、    Parameter correcting means for correcting the parameter to be corrected and the determined parameter without correcting the parameter to be corrected among the plurality of parameters based on the correction value;
を有することを特徴とする位置姿勢補正装置。A position / orientation correction apparatus comprising:
前記位置姿勢入力手段が入力する前記複数のパラメータは、位置姿勢センサによって計測した計測値であることを特徴とする請求項1乃至4の何れか1項に記載の位置姿勢補正装置。5. The position / orientation correction apparatus according to claim 1, wherein the plurality of parameters input by the position / orientation input unit are measurement values measured by a position / orientation sensor. 6. 前記位置姿勢入力手段が入力する前記複数のパラメータのうち姿勢成分は、姿勢センサによって計測した計測値であって、Of the plurality of parameters input by the position and orientation input means, the orientation component is a measurement value measured by an orientation sensor,
前記決定手段が、前記検出手段による検出結果に基づいて、前記複数のパラメータの前記姿勢成分の全てを、前記複数のパラメータの位置成分よりも優先して前記補正対象のパラメータと決定することを特徴とする請求項1乃至4の何れか1項に記載の位置姿勢補正装置。  The determining means determines all the posture components of the plurality of parameters as parameters to be corrected in preference to the position components of the plurality of parameters based on the detection result by the detecting means. The position and orientation correction apparatus according to any one of claims 1 to 4.
前記位置姿勢入力手段が現実空間に固定され、既知の位置姿勢を構成する複数のパラメータを入力することを特徴とする請求項4に記載の位置姿勢補正装置。The position / orientation correction apparatus according to claim 4, wherein the position / orientation input unit is fixed in a real space and inputs a plurality of parameters constituting a known position / orientation. 前記補正値算出手段が、前記実測値と前記理論値との誤差および、前記指標の画像ヤコビアンに基づいて、前記補正値を算出することを特徴とする請求項1乃至7の何れか1項に記載の位置姿勢計測装置。The correction value calculation unit calculates the correction value based on an error between the actual measurement value and the theoretical value and an image Jacobian of the index, according to any one of claims 1 to 7. The position and orientation measurement apparatus described. 前記決定手段が、前記検出結果に基づく個数のパラメータを前記補正対象のパラメータとして決定することを特徴とする請求項1乃至8の何れか1項に記載の位置姿勢補正装置。The position / orientation correction apparatus according to claim 1, wherein the determination unit determines a number of parameters based on the detection result as a parameter to be corrected. 前記複数のパラメータは、位置を示す3つの位置成分および姿勢を示す3つの姿勢成分の計6成分に相当するパラメータであることを特徴とする請求項1乃至9の何れか1項に記載の位置姿勢補正装置。10. The position according to claim 1, wherein the plurality of parameters are parameters corresponding to a total of six components including three position components indicating a position and three posture components indicating a position. Attitude correction device. 前記決定手段が、前記検出手段で検出された指標が1つである場合に、前記複数のパラメータのうち2成分以下に相当するパラメータを前記補正対象のパラメータとして決定することを特徴とする請求項10に記載の位置姿勢補正装置。The determination unit, when there is one index detected by the detection unit, determines a parameter corresponding to two or less components among the plurality of parameters as the parameter to be corrected. The position and orientation correction apparatus according to 10. 前記決定手段が、前記検出手段で検出された指標が2つである場合に、前記複数のパラメータのうち3成分以下に相当するパラメータを前記補正対象のパラメータとして決定することを特徴とする請求項10又は11に記載の位置姿勢補正装置。The determination unit, when there are two indexes detected by the detection unit, determines a parameter corresponding to three or less components among the plurality of parameters as the parameter to be corrected. The position and orientation correction apparatus according to 10 or 11. 前記決定手段が、前記検出手段で検出された指標が2つである場合に、該指標の画像座標間の距離に基づいて、前記複数のパラメータのうち3成分以下に相当するパラメータを前記補正対象のパラメータとして決定することを特徴とする請求項12に記載の位置姿勢補正装置。When the determination means has two indices detected by the detection means, based on the distance between the image coordinates of the indices, parameters corresponding to three or less components among the plurality of parameters are corrected. The position / orientation correction apparatus according to claim 12, wherein the position / orientation correction apparatus is determined as a parameter. 前記決定手段が、前記検出手段で検出された指標が2つである場合に、該指標の画像座標間の距離が、予め設定された距離の閾値以上であれば前記複数のパラメータのうち3成分に相当するパラメータを、該距離の閾値未満であれば3成分未満に相当するパラメータを、前記補正対象のパラメータとして決定することを特徴とする請求項13に記載の位置姿勢補正装置。When the determination means has two indices detected by the detection means, and the distance between the image coordinates of the indices is equal to or greater than a preset distance threshold, three components of the plurality of parameters The position / orientation correction apparatus according to claim 13, wherein a parameter corresponding to less than three components is determined as the parameter to be corrected if the parameter corresponding to is less than the distance threshold. 前記決定手段が、前記検出手段で検出された指標が3つ以上である場合に、前記複数のパラメータのうち6成分以下に相当するパラメータを前記補正対象のパラメータとして決定することを特徴とする請求項11乃至14の何れか1項に記載の位置姿勢補正装置。The determining unit determines a parameter corresponding to six or less components among the plurality of parameters as the correction target parameter when there are three or more indices detected by the detecting unit. Item 15. The position and orientation correction apparatus according to any one of Items 11 to 14. 前記決定手段が、前記検出手段で検出された指標が3つ以上である場合に、検出された指標の画像座標から得られる領域の面積に基づいて、前記複数のパラメータのうち6成分以下に相当するパラメータを前記補正対象のパラメータとして決定することを特徴とする請求項15に記載の位置姿勢補正装置。When the determination means has three or more indices detected by the detection means, it corresponds to 6 components or less of the plurality of parameters based on the area of the area obtained from the image coordinates of the detected indices. The position / orientation correction apparatus according to claim 15, wherein a parameter to be corrected is determined as a parameter to be corrected. 前記決定手段が、前記検出手段で検出された指標が3つ以上である場合に、検出された指標の画像座標から得られる領域の面積が、予め設定された面積の閾値以上であれば前記複数のパラメータのうち6成分に相当するパラメータを補正対象とし、該距離の閾値未満であれば6成分未満に相当するパラメータを補正対象のパラメータとして決定することを特徴とする請求項16に記載の位置姿勢補正装置。When the determination means has three or more indices detected by the detection means, and the area of the region obtained from the image coordinates of the detected indices is equal to or more than a preset area threshold, the plurality 17. The position according to claim 16, wherein a parameter corresponding to six components is selected as a correction target, and a parameter corresponding to less than six components is determined as a correction target parameter if the parameter is less than a threshold of the distance. Attitude correction device. 前記面積は、前記検出された指標の画像座標から得られる凸包の面積であることを特徴とする請求項16又は17に記載の位置姿勢補正装置。The position / orientation correction apparatus according to claim 16, wherein the area is an area of a convex hull obtained from image coordinates of the detected index. 撮像装置の位置姿勢を構成する複数のパラメータを補正する位置姿勢補正装置であって、A position and orientation correction device that corrects a plurality of parameters constituting the position and orientation of an imaging device,
前記複数のパラメータを入力する位置姿勢入力手段と、  Position and orientation input means for inputting the plurality of parameters;
現実空間に複数配置され、位置が既知である指標を、前記撮像装置で撮像した画像を入力する画像入力手段と、  An image input means for inputting an image captured by the imaging device, with a plurality of indicators arranged in real space and having known positions;
前記画像から前記指標の画像座標の実測値を検出する検出手段と、  Detecting means for detecting an actual value of image coordinates of the index from the image;
前記検出手段による検出結果に基づいて、前記複数のパラメータのうち何れを補正対象とするか決定する決定手段と、  A determination unit for determining which of the plurality of parameters is to be corrected based on a detection result by the detection unit;
前記複数のパラメータおよび前記実測値に基づいて、前記複数のパラメータのうち前記決定手段によって前記補正対象のパラメータと決定されなかったパラメータを補正せず、前記補正対象のパラメータと決定されたパラメータを補正する補正手段と、  Based on the plurality of parameters and the actually measured value, the parameter that has not been determined as the correction target parameter by the determination unit is corrected without correcting the parameter that has been determined as the correction target parameter. Correction means for
を有し、Have
前記補正手段が、  The correction means is
前記指標の位置と前記複数のパラメータとに基づいて、前記指標の画像座標の理論値を算出する理論値算出手段と、    Based on the position of the index and the plurality of parameters, theoretical value calculation means for calculating a theoretical value of the image coordinates of the index;
前記実測値と前記理論値との誤差を小さくするように、前記補正対象のパラメータと決定されたパラメータの補正値を算出する補正値算出手段と、    Correction value calculating means for calculating a correction value of the parameter to be corrected and the determined parameter so as to reduce an error between the actual measurement value and the theoretical value;
前記補正値に基づいて、前記複数のパラメータのうち前記補正対象のパラメータと決定されなかったパラメータを補正せず、前記補正対象のパラメータと決定されたパラメータを補正するパラメータ補正手段と、    Parameter correcting means for correcting the parameter to be corrected and the determined parameter without correcting the parameter to be corrected among the plurality of parameters based on the correction value;
を有し、Have
前記複数のパラメータは、位置を示す3つの位置成分および姿勢を示す3つの姿勢成分の6成分に相当するパラメータであって、  The plurality of parameters are parameters corresponding to six components of three position components indicating positions and three posture components indicating postures,
前記決定手段が、  The determining means is
前記検出手段で検出された指標が1つである場合に、前記複数のパラメータのうち2成分以下に相当するパラメータを前記補正対象のパラメータとして決定し、    When the index detected by the detecting means is one, a parameter corresponding to two or less components among the plurality of parameters is determined as the parameter to be corrected,
前記検出手段で検出された指標が2つである場合に、該検出された指標の画像座標間の距離に基づいて、前記複数のパラメータのうち3成分以下に相当するパラメータを前記補正対象のパラメータとして決定し、    When there are two indices detected by the detection means, a parameter corresponding to three or less components among the plurality of parameters is selected based on the distance between the image coordinates of the detected indices. Determined as
前記検出手段で検出された指標が3つ以上である場合に、該検出された指標の画像座標から得られる領域の面積に基づいて、前記複数のパラメータのうち6成分以下に相当するパラメータを前記補正対象のパラメータとして決定することを特徴とする位置姿勢補正装置。    When there are three or more indices detected by the detection means, parameters corresponding to six or less components among the plurality of parameters are selected based on the area of the area obtained from the image coordinates of the detected indices. A position / orientation correction apparatus characterized by being determined as a parameter to be corrected.
計測対象物体の位置姿勢を構成する複数のパラメータを補正する位置姿勢補正装置であって、A position and orientation correction apparatus that corrects a plurality of parameters constituting the position and orientation of a measurement target object,
前記複数のパラメータを入力する位置姿勢入力手段と、  Position and orientation input means for inputting the plurality of parameters;
前記計測対象物体に複数配置された指標を撮像装置で撮像した画像を入力する画像入力手段と、  An image input means for inputting an image obtained by imaging an index placed on the measurement target object with an imaging device;
前記撮像画像から前記指標の画像座標の実測値を検出する検出手段と、  Detecting means for detecting an actual measurement value of the image coordinates of the index from the captured image;
前記検出手段による検出結果に基づいて、前記複数のパラメータのうち何れを補正対象とするか決定する決定手段と、  A determination unit for determining which of the plurality of parameters is to be corrected based on a detection result by the detection unit;
前記複数のパラメータおよび前記実測値に基づいて、前記複数のパラメータのうち前記決定手段によって前記補正対象のパラメータと決定されなかったパラメータを補正せず、前記補正対象のパラメータと決定されたパラメータを補正する補正手段と、  Based on the plurality of parameters and the actually measured value, the parameter that has not been determined as the correction target parameter by the determination unit is corrected without correcting the parameter that has been determined as the correction target parameter. Correction means for
を有し、Have
前記補正手段が、  The correction means is
前記複数のパラメータに基づいて、前記指標の画像座標の理論値を算出する理論値算出手段と、    Based on the plurality of parameters, a theoretical value calculation means for calculating a theoretical value of the image coordinates of the index;
前記実測値と前記理論値との誤差を小さくするように、前記補正対象のパラメータと決定されたパラメータの補正値を算出する補正値算出手段と、    Correction value calculating means for calculating a correction value of the parameter to be corrected and the determined parameter so as to reduce an error between the actual measurement value and the theoretical value;
前記補正値に基づいて、前記複数のパラメータのうち前記補正対象のパラメータと決定されなかったパラメータを補正せず、前記補正対象のパラメータと決定されたパラメータを補正するパラメータ補正手段と、    Parameter correcting means for correcting the parameter to be corrected and the determined parameter without correcting the parameter to be corrected among the plurality of parameters based on the correction value;
を有し、Have
前記複数のパラメータは、位置を示す3つの位置成分および姿勢を示す3つの姿勢成分の6成分に相当するパラメータであって、  The plurality of parameters are parameters corresponding to six components of three position components indicating positions and three posture components indicating postures,
前記決定手段が、  The determining means is
前記検出手段で検出された指標が1つである場合に、前記複数のパラメータのうち2成分以下に相当するパラメータを前記補正対象のパラメータとして決定し、    When the index detected by the detecting means is one, a parameter corresponding to two or less components among the plurality of parameters is determined as the parameter to be corrected,
前記検出手段で検出された指標が2つである場合に、該検出された指標の画像座標間の距離に基づいて、前記複数のパラメータのうち3成分以下に相当するパラメータを前記補正対象のパラメータとして決定し、    When there are two indices detected by the detection means, a parameter corresponding to three or less components among the plurality of parameters is selected based on the distance between the image coordinates of the detected indices. Determined as
前記検出手段で検出された指標が3つ以上である場合に、該検出された指標の画像座標から得られる領域の面積に基づいて、前記複数のパラメータのうち6成分以下に相当するパラメータを前記補正対象のパラメータとして決定することを特徴とする位置姿勢補正装置。    When there are three or more indices detected by the detection means, parameters corresponding to six or less components among the plurality of parameters are selected based on the area of the area obtained from the image coordinates of the detected indices. A position / orientation correction apparatus characterized by being determined as a parameter to be corrected.
撮像装置の位置姿勢を構成する複数のパラメータを補正する位置姿勢補正装置が行う位置姿勢補正方法であって、A position and orientation correction method performed by a position and orientation correction apparatus that corrects a plurality of parameters constituting the position and orientation of an imaging apparatus,
前記位置姿勢補正装置の位置姿勢入力手段が、前記複数のパラメータを入力する位置姿勢入力工程と、  A position and orientation input step in which the position and orientation input means of the position and orientation correction apparatus inputs the plurality of parameters;
前記位置姿勢補正装置の画像入力手段が、現実空間に複数配置され、位置が既知である指標を、前記撮像装置で撮像した画像を入力する画像入力工程と、  An image input step of inputting an image in which a plurality of image input means of the position and orientation correction device are arranged in the real space and the position is known, and is captured by the imaging device;
前記位置姿勢補正装置の検出手段が、前記画像から前記指標の画像座標の実測値を検出する検出工程と、  A detection step in which the detection means of the position and orientation correction apparatus detects an actual measurement value of the image coordinates of the index from the image;
前記位置姿勢補正装置の決定手段が、前記検出工程による検出結果に基づいて、前記複数のパラメータのうち何れを補正対象とするか決定する決定工程と、  A determination step in which the determination unit of the position and orientation correction device determines which of the plurality of parameters is to be corrected based on the detection result of the detection step;
前記位置姿勢補正装置の補正手段が、前記複数のパラメータおよび前記実測値に基づいて、前記複数のパラメータのうち前記決定工程によって前記補正対象のパラメータと決定されなかったパラメータを補正せず、前記補正対象のパラメータと決定されたパラメータを補正する補正工程とを有し、  The correction means of the position / orientation correction apparatus does not correct the parameter that has not been determined as the correction target parameter by the determination step, based on the plurality of parameters and the actually measured value, and the correction A correction process for correcting the target parameter and the determined parameter,
前記補正工程が、  The correction step includes
前記補正手段の理論値算出手段が、前記指標の位置と前記複数のパラメータとに基づいて、前記指標の画像座標の理論値を算出する理論値算出工程と、    A theoretical value calculating step of calculating a theoretical value of image coordinates of the index based on the position of the index and the plurality of parameters;
前記補正手段の補正値算出手段が、前記実測値と前記理論値との誤差を小さくするように、前記補正対象のパラメータと決定されたパラメータの補正値を算出する補正値算出工程と、    A correction value calculation step of calculating a correction value of the parameter to be corrected and the parameter determined so that the correction value calculation unit of the correction unit reduces an error between the actual measurement value and the theoretical value;
前記補正手段のパラメータ補正手段が、前記補正値に基づいて、前記複数のパラメータのうち前記補正対象のパラメータと決定されなかったパラメータを補正せず、前記補正対象のパラメータと決定されたパラメータを補正するパラメータ補正工程と、    Based on the correction value, the parameter correction unit of the correction unit does not correct the parameter that is not determined as the correction target parameter among the plurality of parameters, and corrects the parameter that is determined as the correction target parameter. Parameter correction process to
を有することを特徴とする位置姿勢補正方法。A position and orientation correction method characterized by comprising:
計測対象物体の位置姿勢を構成する複数のパラメータを補正する位置姿勢補正装置が行う位置姿勢補正方法であって、A position and orientation correction method performed by a position and orientation correction apparatus that corrects a plurality of parameters constituting the position and orientation of a measurement target object,
前記位置姿勢補正装置の位置姿勢入力手段が、前記複数のパラメータを入力する位置姿勢入力工程と、  A position and orientation input step in which the position and orientation input means of the position and orientation correction apparatus inputs the plurality of parameters;
前記位置姿勢補正装置の画像入力手段が、前記計測対象物体に複数配置された指標を撮像装置で撮像した画像を入力する画像入力工程と、  An image input step in which the image input means of the position / orientation correction apparatus inputs an image obtained by imaging an index placed on the measurement target object by an imaging apparatus;
前記位置姿勢補正装置の検出手段が、前記撮像画像から前記指標の画像座標の実測値を検出する検出工程と、  A detection step in which the detection means of the position and orientation correction device detects an actual measurement value of the image coordinates of the index from the captured image;
前記位置姿勢補正装置の決定手段が、前記検出工程による検出結果に基づいて、前記複数のパラメータのうち何れを補正対象とするか決定する決定工程と、  A determination step in which the determination unit of the position and orientation correction device determines which of the plurality of parameters is to be corrected based on the detection result of the detection step;
前記位置姿勢補正装置の補正手段が、前記複数のパラメータおよび前記実測値に基づいて、前記複数のパラメータのうち前記決定工程によって前記補正対象のパラメータと決定されなかったパラメータを補正せず、前記補正対象のパラメータと決定されたパラメータを補正する補正工程とを有し、  The correction means of the position / orientation correction apparatus does not correct the parameter that has not been determined as the correction target parameter by the determination step, based on the plurality of parameters and the actually measured value, and the correction A correction process for correcting the target parameter and the determined parameter,
前記補正工程が、  The correction step includes
前記補正手段の理論値算出手段が、前記複数のパラメータに基づいて、前記指標の画像座標の理論値を算出する理論値算出工程と、    A theoretical value calculating step in which the theoretical value calculating means of the correcting means calculates the theoretical value of the image coordinates of the index based on the plurality of parameters;
前記補正手段の補正値算出手段が、前記実測値と前記理論値との誤差を小さくするように、前記補正対象のパラメータと決定されたパラメータの補正値を算出する補正値算出工程と、    A correction value calculation step of calculating a correction value of the parameter to be corrected and the parameter determined so that the correction value calculation unit of the correction unit reduces an error between the actual measurement value and the theoretical value;
前記補正手段のパラメータ補正手段が、前記補正値に基づいて、前記複数のパラメータのうち前記補正対象のパラメータと決定されなかったパラメータを補正せず、前記補正対象のパラメータと決定されたパラメータを補正するパラメータ補正工程と、    Based on the correction value, the parameter correction unit of the correction unit does not correct the parameter that is not determined as the correction target parameter among the plurality of parameters, and corrects the parameter that is determined as the correction target parameter. Parameter correction process to
を有することを特徴とする位置姿勢補正方法。A position and orientation correction method characterized by comprising:
撮像装置の位置姿勢を構成する複数のパラメータを補正する位置姿勢補正装置が行う位置姿勢補正方法であって、A position and orientation correction method performed by a position and orientation correction apparatus that corrects a plurality of parameters constituting the position and orientation of an imaging apparatus,
前記位置姿勢補正装置の位置姿勢入力手段が、前記複数のパラメータを入力する位置姿勢入力工程と、  A position and orientation input step in which the position and orientation input means of the position and orientation correction apparatus inputs the plurality of parameters;
前記位置姿勢補正装置の画像入力手段が、現実空間に複数配置され、位置が既知である指標を、前記撮像装置で撮像した画像を入力する画像入力工程と、  An image input step of inputting an image in which a plurality of image input means of the position and orientation correction device are arranged in the real space and the position is known, and is captured by the imaging device;
前記位置姿勢補正装置の検出手段が、前記画像から前記指標の画像座標の実測値を検出する検出工程と、  A detection step in which the detection means of the position and orientation correction apparatus detects an actual measurement value of the image coordinates of the index from the image;
前記位置姿勢補正装置の決定手段が、前記検出工程による検出結果に基づいて、前記複数のパラメータのうち何れを補正対象とするか決定する決定工程と、  A determination step in which the determination unit of the position and orientation correction device determines which of the plurality of parameters is to be corrected based on the detection result of the detection step;
前記位置姿勢補正装置の補正手段が、前記複数のパラメータおよび前記実測値に基づいて、前記複数のパラメータのうち前記決定工程によって前記補正対象のパラメータと決定されなかったパラメータを補正せず、前記補正対象のパラメータと決定されたパラメータを補正する補正工程と  The correction means of the position / orientation correction apparatus does not correct the parameter that has not been determined as the correction target parameter by the determination step, based on the plurality of parameters and the actually measured value, and the correction A correction process for correcting the target parameter and the determined parameter;
を有し、Have
前記補正工程が、  The correction step includes
前記補正手段の理論値算出手段が、前記指標の位置と前記複数のパラメータとに基づいて、前記指標の画像座標の理論値を算出する理論値算出工程と、    A theoretical value calculating step of calculating a theoretical value of image coordinates of the index based on the position of the index and the plurality of parameters;
前記補正手段の補正値算出手段が、前記実測値と前記理論値との誤差を小さくするように、前記補正対象のパラメータと決定されたパラメータの補正値を算出する補正値算出工程と、    A correction value calculation step of calculating a correction value of the parameter to be corrected and the parameter determined so that the correction value calculation unit of the correction unit reduces an error between the actual measurement value and the theoretical value;
前記補正手段のパラメータ補正手段が、前記補正値に基づいて、前記複数のパラメータのうち前記補正対象のパラメータと決定されなかったパラメータを補正せず、前記補正対象のパラメータと決定されたパラメータを補正するパラメータ補正工程と、    Based on the correction value, the parameter correction unit of the correction unit does not correct the parameter that is not determined as the correction target parameter among the plurality of parameters, and corrects the parameter that is determined as the correction target parameter. Parameter correction process to
を有し、Have
前記複数のパラメータは、位置を示す3つの位置成分および姿勢を示す3つの姿勢成分の6成分に相当するパラメータであって、  The plurality of parameters are parameters corresponding to six components of three position components indicating positions and three posture components indicating postures,
前記決定工程では、  In the determination step,
前記検出工程で検出された指標が1つである場合に、前記複数のパラメータのうち2成分以下に相当するパラメータを前記補正対象のパラメータとして決定し、    When the number of indices detected in the detection step is one, a parameter corresponding to two or less components among the plurality of parameters is determined as the parameter to be corrected,
前記検出工程で検出された指標が2つである場合に、該検出された指標の画像座標間の距離に基づいて、前記複数のパラメータのうち3成分以下に相当するパラメータを前記補正対象のパラメータとして決定し、    When there are two indices detected in the detection step, parameters corresponding to three or less components among the plurality of parameters based on the distance between the image coordinates of the detected indices are parameters to be corrected. Determined as
前記検出工程で検出された指標が3つ以上である場合に、該検出された指標の画像座標から得られる領域の面積に基づいて、前記複数のパラメータのうち6成分以下に相当するパラメータを前記補正対象のパラメータとして決定することを特徴とする位置姿勢補正方法。    When there are three or more indices detected in the detection step, parameters corresponding to 6 components or less of the plurality of parameters are selected based on the area of the area obtained from the image coordinates of the detected indices. A position / orientation correction method, wherein the position / orientation correction method is determined as a correction target parameter.
計測対象物体の位置姿勢を構成する複数のパラメータを補正する位置姿勢補正装置が行う位置姿勢補正方法であって、A position and orientation correction method performed by a position and orientation correction apparatus that corrects a plurality of parameters constituting the position and orientation of a measurement target object,
前記位置姿勢補正装置の位置姿勢入力手段が、前記複数のパラメータを入力する位置姿勢入力工程と、  A position and orientation input step in which the position and orientation input means of the position and orientation correction apparatus inputs the plurality of parameters;
前記位置姿勢補正装置の画像入力手段が、前記計測対象物体に複数配置された指標を撮像した画像を入力する画像入力工程と、  An image input step in which the image input means of the position and orientation correction apparatus inputs an image obtained by imaging a plurality of indices arranged on the measurement target object;
前記位置姿勢補正装置の検出手段が、前記画像から前記指標の画像座標の実測値を検出する検出工程と、  A detection step in which the detection means of the position and orientation correction apparatus detects an actual measurement value of the image coordinates of the index from the image;
前記位置姿勢補正装置の決定手段が、前記検出工程による検出結果に基づいて、前記複数のパラメータのうち何れを補正対象とするか決定する決定工程と、  A determination step in which the determination unit of the position and orientation correction device determines which of the plurality of parameters is to be corrected based on the detection result of the detection step;
前記位置姿勢補正装置の補正手段が、前記複数のパラメータおよび前記実測値に基づいて、前記複数のパラメータのうち前記決定工程によって前記補正対象のパラメータと決定されなかったパラメータを補正せず、前記補正対象のパラメータと決定されたパラメータを補正する補正工程と  The correction means of the position / orientation correction apparatus does not correct the parameter that has not been determined as the correction target parameter by the determination step, based on the plurality of parameters and the actually measured value, and the correction A correction process for correcting the target parameter and the determined parameter;
を有し、Have
前記補正工程が、  The correction step includes
前記補正手段の理論値算出手段が、前記複数のパラメータに基づいて、前記指標の画像座標の理論値を算出する理論値算出工程と、    A theoretical value calculating step in which the theoretical value calculating means of the correcting means calculates the theoretical value of the image coordinates of the index based on the plurality of parameters;
前記補正手段の補正値算出手段が、前記実測値と前記理論値との誤差を小さくするように、前記補正対象のパラメータと決定されたパラメータの補正値を算出する補正値算出工程と、    A correction value calculation step of calculating a correction value of the parameter to be corrected and the parameter determined so that the correction value calculation unit of the correction unit reduces an error between the actual measurement value and the theoretical value;
前記補正手段のパラメータ補正手段が、前記補正値に基づいて、前記複数のパラメータのうち前記補正対象のパラメータと決定されなかったパラメータを補正せず、前記補正対象のパラメータと決定されたパラメータを補正するパラメータ補正工程と、    Based on the correction value, the parameter correction unit of the correction unit does not correct the parameter that is not determined as the correction target parameter among the plurality of parameters, and corrects the parameter that is determined as the correction target parameter. Parameter correction process to
を有し、Have
前記複数のパラメータは、位置を示す3つの位置成分および姿勢を示す3つの姿勢成分の6成分に相当するパラメータであって、  The plurality of parameters are parameters corresponding to six components of three position components indicating positions and three posture components indicating postures,
前記決定工程では、  In the determination step,
前記検出工程で検出された指標が1つである場合に、前記複数のパラメータのうち2成分以下に相当するパラメータを前記補正対象のパラメータとして決定し、    When the number of indices detected in the detection step is one, a parameter corresponding to two or less components among the plurality of parameters is determined as the parameter to be corrected,
前記検出工程で検出された指標が2つである場合に、該検出された指標の画像座標間の距離に基づいて、前記複数のパラメータのうち3成分以下に相当するパラメータを前記補正対象のパラメータとして決定し、    When there are two indices detected in the detection step, parameters corresponding to three or less components among the plurality of parameters based on the distance between the image coordinates of the detected indices are parameters to be corrected. Determined as
前記検出工程で検出された指標が3つ以上である場合に、該検出された指標の画像座標から得られる領域の面積に基づいて、前記複数のパラメータのうち6成分以下に相当するパラメータを前記補正対象のパラメータとして決定することを特徴とする位置姿勢補正方法。    When there are three or more indices detected in the detection step, parameters corresponding to 6 components or less of the plurality of parameters are selected based on the area of the area obtained from the image coordinates of the detected indices. A position / orientation correction method, wherein the position / orientation correction method is determined as a correction target parameter.
請求項21乃至24のいずれか1項に記載の位置姿勢補正方法の各工程をコンピュータに実行させるためのプログラム。The program for making a computer perform each process of the position and orientation correction | amendment method of any one of Claim 21 thru | or 24. 請求項25に記載のプログラムを格納したコンピュータ読み取り可能な記録媒体。A computer-readable recording medium storing the program according to claim 25.
JP2005029828A 2005-02-04 2005-02-04 Position / orientation correction apparatus, position / orientation correction method, program thereof, and storage medium Expired - Fee Related JP4726191B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005029828A JP4726191B2 (en) 2005-02-04 2005-02-04 Position / orientation correction apparatus, position / orientation correction method, program thereof, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005029828A JP4726191B2 (en) 2005-02-04 2005-02-04 Position / orientation correction apparatus, position / orientation correction method, program thereof, and storage medium

Publications (3)

Publication Number Publication Date
JP2006215924A JP2006215924A (en) 2006-08-17
JP2006215924A5 JP2006215924A5 (en) 2008-03-21
JP4726191B2 true JP4726191B2 (en) 2011-07-20

Family

ID=36979103

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005029828A Expired - Fee Related JP4726191B2 (en) 2005-02-04 2005-02-04 Position / orientation correction apparatus, position / orientation correction method, program thereof, and storage medium

Country Status (1)

Country Link
JP (1) JP4726191B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009014481A (en) * 2007-07-04 2009-01-22 Ihi Corp Distance measuring device and its calibration method
US8044991B2 (en) * 2007-09-28 2011-10-25 The Boeing Company Local positioning system and method
JP2009168626A (en) * 2008-01-16 2009-07-30 Canon Inc Position attitude measurement device and method
FR2960082B1 (en) * 2010-05-17 2012-08-10 Commissariat Energie Atomique METHOD AND SYSTEM FOR MERGING DATA FROM IMAGE SENSORS AND MOTION OR POSITION SENSORS
KR101758058B1 (en) * 2011-01-20 2017-07-17 삼성전자주식회사 Apparatus and method for estimating camera motion using depth information, augmented reality system
JP6947194B2 (en) * 2019-02-13 2021-10-13 Tdk株式会社 Signal processing circuit and magnetic sensor system
CN113074686B (en) * 2021-03-24 2023-03-31 西安米索软件有限公司 Method and device for creating measured coordinate system
CN114329943B (en) * 2021-12-23 2023-01-24 哈尔滨工业大学(深圳) Control performance boundary design method, device and medium based on attitude rotation matrix

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003279310A (en) * 2002-03-22 2003-10-02 Canon Inc Apparatus and method for correcting position and attitude
JP2004233201A (en) * 2003-01-30 2004-08-19 Canon Inc Position attitude measuring method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003279310A (en) * 2002-03-22 2003-10-02 Canon Inc Apparatus and method for correcting position and attitude
JP2004233201A (en) * 2003-01-30 2004-08-19 Canon Inc Position attitude measuring method

Also Published As

Publication number Publication date
JP2006215924A (en) 2006-08-17

Similar Documents

Publication Publication Date Title
JP4859205B2 (en) Information processing apparatus, information processing method, and program
JP4785416B2 (en) Position and orientation measurement method and apparatus
JP5036260B2 (en) Position and orientation calculation method and apparatus
JP5230114B2 (en) Information processing apparatus and information processing method
JP4726191B2 (en) Position / orientation correction apparatus, position / orientation correction method, program thereof, and storage medium
JP4914039B2 (en) Information processing method and apparatus
JP4532982B2 (en) Arrangement information estimation method and information processing apparatus
JP5746477B2 (en) Model generation device, three-dimensional measurement device, control method thereof, and program
JP4960754B2 (en) Information processing apparatus and information processing method
JP5058686B2 (en) Information processing method and information processing apparatus
JP4914019B2 (en) Position and orientation measurement method and apparatus
JP5132138B2 (en) Position and orientation measurement method, position and orientation measurement device
EP1596332A2 (en) Information processing method and apparatus for finding position and orientation of targeted object
JP2008116373A (en) Position and attitude-measuring method and instrument
JP2008261755A (en) Information processing apparatus and information processing method
JP5728372B2 (en) Information processing apparatus, information processing apparatus control method, and program
JP4566786B2 (en) Position and orientation measurement method and information processing apparatus
JP2009168626A (en) Position attitude measurement device and method
JP4612804B2 (en) Position and orientation measurement method and information processing apparatus
JP5726024B2 (en) Information processing method and apparatus
JP5620972B2 (en) Information processing apparatus and information processing method
JP5127165B2 (en) Information processing method and apparatus
JP2016065830A (en) Image processor and image processing method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080204

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110408

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110411

R150 Certificate of patent or registration of utility model

Ref document number: 4726191

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140422

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees