JP4533090B2 - Index calibration apparatus and information processing method - Google Patents

Index calibration apparatus and information processing method Download PDF

Info

Publication number
JP4533090B2
JP4533090B2 JP2004320637A JP2004320637A JP4533090B2 JP 4533090 B2 JP4533090 B2 JP 4533090B2 JP 2004320637 A JP2004320637 A JP 2004320637A JP 2004320637 A JP2004320637 A JP 2004320637A JP 4533090 B2 JP4533090 B2 JP 4533090B2
Authority
JP
Japan
Prior art keywords
viewpoint
index
objective
subjective
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004320637A
Other languages
Japanese (ja)
Other versions
JP2005351883A (en
Inventor
清秀 佐藤
まほろ 穴吹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2004320637A priority Critical patent/JP4533090B2/en
Priority to US11/127,000 priority patent/US7613361B2/en
Priority to EP05252972A priority patent/EP1596333B1/en
Priority to DE602005009994T priority patent/DE602005009994D1/en
Publication of JP2005351883A publication Critical patent/JP2005351883A/en
Application granted granted Critical
Publication of JP4533090B2 publication Critical patent/JP4533090B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)

Description

本発明は、撮像装置に装着した指標の撮像装置に対する配置情報を較正するものである。   The present invention calibrates arrangement information of an index attached to an imaging apparatus with respect to the imaging apparatus.

近年、現実空間と仮想空間の繋ぎ目のない結合を目的とした、複合現実感に関する研究が盛んに行われている。複合現実感の提示を行う画像表示装置は、ビデオカメラなどの撮像装置によって撮影された現実空間の画像に、撮像装置の位置及び姿勢に応じて生成した仮想空間(たとえばコンピュータ・グラフィックスにより描画された仮想物体や文字情報など)の画像を重畳描画してそれを表示するビデオシースルー方式によって実現される。   In recent years, research on mixed reality has been actively conducted for the purpose of seamless connection between the real space and the virtual space. An image display device that presents a mixed reality is drawn on a virtual space (for example, computer graphics) generated in accordance with the position and orientation of an imaging device on an image of a real space that is captured by an imaging device such as a video camera. This is realized by a video see-through method in which an image of a virtual object, character information, etc.) is overlaid and displayed.

このような画像表示装置の応用としては、患者の体表面に体内の様子を重畳表示する手術支援や、現実空間に浮遊する仮想の敵と戦う複合現実感ゲームなど、今までのバーチャルリアリティとは異なった新たな分野が期待されている。   Applications of such image display devices include virtual reality, such as surgical support that superimposes the state of the body on the patient's body surface, and mixed reality games that fight against virtual enemies floating in real space. Different new fields are expected.

これらの応用に対して共通に要求されるのは、現実空間と仮想空間の間の位置合わせをいかに正確に行うかということであり、従来から多くの取り組みが行われてきた。複合現実感における位置合わせの問題は、情景中における(すなわち、世界座標系における)撮像装置の位置及び姿勢を求める問題に帰結される。   A common requirement for these applications is how to accurately align the real space and the virtual space, and many efforts have been made in the past. The alignment problem in mixed reality results in the problem of determining the position and orientation of the imaging device in the scene (ie, in the world coordinate system).

この問題を解決する方法として、情景中に複数の指標を配置あるいは設定し、その指標の世界座標系における座標と、撮像装置が撮像した画像内における指標の投影像の座標とを利用して、情景中における該撮像装置の位置及び姿勢を求めることが一般的に行われている。   As a method of solving this problem, by arranging or setting a plurality of indicators in the scene, using the coordinates in the world coordinate system of the indicators and the coordinates of the projected image of the indicators in the image captured by the imaging device, Generally, the position and orientation of the imaging device in a scene are obtained.

情景中の指標の世界座標系における座標とその投影像の画像座標の組から撮像装置の位置及び姿勢を算出する方法は、写真測量等の分野において古くから提案されている(例えば、非特許文献1、非特許文献2を参照)。   A method for calculating the position and orientation of an imaging device from a set of coordinates in a world coordinate system of an index in a scene and image coordinates of a projected image has been proposed for a long time in the field of photogrammetry (for example, non-patent literature). 1, see Non-Patent Document 2).

また、計測対象物体に複数の指標を設定し、外部に設置した客観視点カメラによって対象物体を撮影し、撮像した客観視点画像内における指標の投影像の画像座標を検出することで、対象物体の位置及び姿勢を求めることも行われている(例えば、非特許文献2、特許文献1を参照)。   In addition, by setting a plurality of indices on the measurement target object, photographing the target object with an objective viewpoint camera installed outside, and detecting the image coordinates of the projected image of the index in the captured objective viewpoint image, The position and orientation are also obtained (see, for example, Non-Patent Document 2 and Patent Document 1).

さらに、本件の発明者らも、特願2003−323101において、計測対象物体である撮像装置自身が撮像した画像から情景中の指標の投影像を検出することで撮像装置の位置及び姿勢を算出する方法と、計測対象物体である撮像装置を客観視点位置から撮像した客観視点画像から撮像装置自身の上に設定した指標の投影像を検出することで撮像装置の位置及び姿勢を算出する方法を統合した、撮像装置の位置及び姿勢の計測方法を提案している。
特開平09−323280号公報 R.M.Haralick,C.Lee,K.Ottenberg,and M.Nolle:Review and analysis of solutions of the three point perspective pose estimation problem,International Journal of Computer Vision,vol.13,no.3,pp.331−356,1994. D.G.Lowe:Fitting parameterized three−dimensional models to images, IEEE Transactions on PAMI,vol.13,no.5,pp.441−450,1991. 内山,山本,田村,複合現実感のためのハイブリッド位置合わせ手法−6自由度センサとビジョン手法の併用−,日本バーチャルリアリティ学会論文誌,vol.8,no.1,pp.119−125,2003. 藤井,神原,岩佐,竹村,横矢,拡張現実のためのジャイロセンサを併用したステレオカメラによる位置合わせ,電子情報通信学会技術研究報告PRMU99−192(信学技報vol.99,no.574,pp.1−8),1999. A.I.Comport,E.Marchand,F.Chaumette,A real−time tracker for markerless augmented reality,Proc.Int’l Symp.on Mixed and Augmented Reality 2004,pp.36−45,2004.
Further, the inventors of the present invention also calculate the position and orientation of the imaging device by detecting the projected image of the index in the scene from the image captured by the imaging device itself that is the measurement target object in Japanese Patent Application No. 2003-323101. The method and the method for calculating the position and orientation of the imaging device by detecting the projected image of the index set on the imaging device itself from the objective viewpoint image obtained by imaging the imaging device that is the measurement target object from the objective viewpoint position Thus, a method for measuring the position and orientation of the imaging apparatus has been proposed.
JP 09-323280 A R. M.M. Haralick, C.I. Lee, K.M. Ottenberg, and M.M. Nole: Review and analysis of solutions of the three point perspective positive estimation lab, International Journal of Computer Vision, vol. 13, no. 3, pp. 331-356, 1994. D. G. Low: Fitting parametrized three-dimensional models to images, IEEE Transactions on PAMI, vol. 13, no. 5, pp. 441-450, 1991. Uchiyama, Yamamoto, Tamura, Hybrid Registration Method for Mixed Reality -Combination of 6 DOF Sensor and Vision Method-, Transactions of the Virtual Reality Society of Japan, vol. 8, no. 1, pp. 119-125, 2003. Fujii, Kanbara, Iwasa, Takemura, Yokoya, Positioning with stereo camera combined with gyro sensor for augmented reality, IEICE Technical Report PRMU99-192 (Science Tech. Vol.99, no. 574, pp. .1-8), 1999. A. I. Comfort, E.M. Marchand, F.M. Chaumette, A real-time tracker for markerless augmented reality, Proc. Int'l Symp. on Mixed and Augmented Reality 2004, pp. 36-45, 2004.

ところで、客観視点画像内における指標の投影像の画像座標を検出することで対象物体の位置及び姿勢を算出する方法においては、計測対象物体に設定した複数の指標と、計測対象物体との相対的な位置関係は、既知でなければならない。個々の指標の相対的な位置関係が未知である場合、例えば、着色された球状の指標や円形状の指標を用いてその画像上における指標の投影像の重心位置を特徴として利用する場合のように、特徴が一つの点で記述されるような指標が計測対象物体上に個々に設置されている場合には、計測対象物体座標系における個々の指標の3次元位置が予め計測されていなくてはならない。一方、指標同士の相対的な位置関係が既知である場合、例えば、上記と同様な指標を用いる場合であっても、それらの指標が予めベースとなる治具に装着されており、この治具の座標系(このように指標の相対的な位置を記述するための座標系を以下では指標座標系と呼ぶ)における各指標の位置が既に計測されており、この治具が計測対象物体に装着されているような場合には、計測対象物体座標系におけるこの治具の位置と姿勢が既知であれば良い(なお、特徴が複数の点で記述されるような指標、例えば、形状の既知な四角形や三角形の指標を用いてその画像上における指標の投影像の各頂点を特徴として利用する場合は、この指標自体が複数の指標の集まりであると解釈して、「指標同士の相対的な位置関係が既知である場合」の一種として考えることにする)。しかしながら、これらを正確に較正する方法は一般的に知られておらず、従来までは手動計測によって得られる不正確な位置または位置及び姿勢を既知の値として利用する以外に方策がなかった。その結果、上記の客観視点画像内における指標の投影像の画像座標を検出することで対象物体の位置及び姿勢を算出する方法においては、対象物体の位置及び姿勢を実用上低い精度でしか計測できないという改善の余地があった。   By the way, in the method of calculating the position and orientation of the target object by detecting the image coordinates of the projected image of the index in the objective viewpoint image, the relative of the plurality of indices set to the measurement target object and the measurement target object The correct positional relationship must be known. When the relative positional relationship of each index is unknown, for example, when using the colored spherical index or the circular index and using the center of gravity of the projected image of the index on the image as a feature In addition, in the case where an index whose feature is described by one point is individually installed on the measurement target object, the three-dimensional position of each index in the measurement target object coordinate system is not measured in advance. Must not. On the other hand, when the relative positional relationship between the indices is known, for example, even when the indices similar to those described above are used, these indices are mounted on a base jig in advance. The position of each index has already been measured in this coordinate system (the coordinate system for describing the relative position of the index is referred to as the index coordinate system in the following), and this jig is attached to the object to be measured In such a case, the position and orientation of the jig in the measurement target object coordinate system need only be known (in addition, an index whose feature is described by a plurality of points, for example, a known shape If each vertex of the projected image of the index on the image is used as a feature using a square or triangle index, the index itself is interpreted as a collection of a plurality of indices, "When the positional relationship is known" To be considered as). However, a method for accurately calibrating them is not generally known, and until now there has been no measure other than using an inaccurate position or position and orientation obtained by manual measurement as a known value. As a result, in the method for calculating the position and orientation of the target object by detecting the image coordinates of the projected image of the index in the objective viewpoint image, the position and orientation of the target object can be measured only with practically low accuracy. There was room for improvement.

本発明は以上の問題を鑑みてなされたものであり、撮像装置に対する指標の配置情報を簡便かつ正確に取得できるようにすることを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to enable easy and accurate acquisition of index placement information with respect to an imaging apparatus.

上記目的を達成するために、請求項1記載の発明は、主観視点撮像装置に装着した複数の客観視点指標の該主観視点撮像装置に対する配置情報を補正する指標較正装置であって、前記主観視点撮像装置に装着された複数の客観視点指標を含む客観視点画像、世界座標系で固定されて既知である客観視点位置姿勢から撮影する客観視点撮像手段と、前記主観視点撮像装置から現実空間に配置された前記世界座標系における位置が既知である複数の主観視点指標を含む主観視点画像を入力する主観視点画像入力手段と、前記客観視点撮像手段から前記客観視点画像を入力する客観視点画像入力手段と、前記複数の主観視点指標の各々の画像座標を前記主観視点画像から検出する主観視点指標検出手段と、前記複数の客観視点指標の画像座標を前記客観視点画像から検出する客観視点指標検出手段と、前記主観視点撮像装置に対する前記複数の客観視点指標の各々の配置情報の初期値を入力する初期値入力手段と、前記主観視点指標検出手段で検出された前記複数の主観視点指標の各々の画像座標、及び当該主観視点指標の前記世界座標系における位置に基づいて、前記主観視点撮像装置の主観視点位置姿勢を算出する位置姿勢算出手段と、前記主観視点位置姿勢と、前記客観視点位置姿勢と、前記初期値と、予め保持された前記客観視点撮像手段に特有のカメラパラメータに基づいて、前記客観視点画像における前記複数の客観視点指標の各々の画像座標の理論値を算出する理論値算出手段と、前記客観視点画像から検出された複数の客観視点指標の各々の画像座標と当該客観視点指標の画像座標の理論値との誤差に基づいて複数の較正対象客観視点指標の該主観視点撮像装置に対する配置情報の補正値を算出する補正値算出手段と、前記補正値に基づいて、複数の客観視点指標の該主観視点撮像装置に対する配置情報を補正する補正手段と、を有することを特徴とする。
また、上記目的を達成するために、請求項2記載の発明は、主観視点撮像装置に装着した複数の客観視点指標の該主観視点撮像装置に対する配置情報を補正する指標較正装置であって、前記主観視点撮像装置に装着された複数の客観視点指標を含む客観視点画像を、世界座標系で固定されて既知である客観視点位置姿勢から撮影する客観視点撮像手段と、前記主観視点撮像装置から現実空間に配置された前記世界座標系における位置が既知である複数の主観視点指標を含む主観視点画像を入力する主観視点画像入力手段と、前記客観視点撮像手段から前記客観視点画像を入力する客観視点画像入力手段と、前記複数の主観視点指標の各々の画像座標を前記主観視点画像から検出する主観視点指標検出手段と、前記複数の客観視点指標の画像座標を前記客観視点画像から検出する客観視点指標検出手段と、前記主観視点撮像装置に対する前記複数の客観視点指標の各々の配置情報の初期値を入力する初期値入力手段と、前記客観視点指標検出手段で検出された前記複数の客観視点指標の各々の画像座標に基づいて、前記客観視点撮像装置と前記客観視点指標との相対的な位置姿勢を算出する位置姿勢算出手段と、前記客観視点位置姿勢と、前記客観視点撮像装置と前記客観視点指標との相対的な位置姿勢と、前記初期値と、予め保持された前記客観視点撮像手段に特有のカメラパラメータと、前記主観視点指標の前記世界座標系における位置に基づいて、前記主観視点画像における前記複数の主観視点指標の各々の画像座標の理論値を算出する理論値算出手段と、前記主観視点画像から検出された複数の主観視点指標の各々の画像座標と当該主観視点指標の画像座標の理論値との誤差に基づいて、複数の較正対象客観視点指標の該主観視点撮像装置に対する配置情報の補正値を算出する補正値算出手段と、前記補正値に基づいて、複数の客観視点指標の該主観視点撮像装置に対する配置情報を補正する補正手段と、を有することを特徴とする。
To achieve the above object, the invention according to claim 1 is an index calibration device for correcting the location information for the main view view imaging apparatus of the plurality of objective viewpoint index attached to the subjective-view imaging apparatus, the subjective-view Objective viewpoint imaging means for imaging an objective viewpoint image including a plurality of objective viewpoint indices attached to the imaging apparatus from a known objective viewpoint position and orientation fixed in the world coordinate system, and from the subjective viewpoint imaging apparatus to the real space a subjective-view image input means for inputting the person view image position in arranged the world coordinate system comprises a plurality of subjective-view-indices are known, the objective viewpoint image input for inputting the objective viewpoint image from the objective viewpoint image pickup means It means a person view marker detecting means for detecting each of the image coordinates of the plurality of subjective-view-indices from the subjective-view image, the image coordinates of the plurality of objective-view-index before And an objective-view-index detection means for detecting from an objective viewpoint image, and initial value input means for inputting an initial value of the allocation information of each of the plurality of objective viewpoint index to the subjective-view imaging apparatus, detected by the subjective-view-index detection unit Position and orientation calculation means for calculating the subjective viewpoint position and orientation of the subjective viewpoint imaging device based on the image coordinates of each of the plurality of subjective viewpoint indicators and the position of the subjective viewpoint indicator in the world coordinate system; Based on the subjective viewpoint position / posture, the objective viewpoint position / posture, the initial value, and camera parameters specific to the objective viewpoint imaging means stored in advance, each of the plurality of objective viewpoint indices in the objective viewpoint image A theoretical value calculating means for calculating a theoretical value of image coordinates, image coordinates of each of the plurality of objective viewpoint indices detected from the objective viewpoint image, and the objective viewpoint finger On the basis of the error between the theoretical value of the image coordinates, the correction value calculating means for calculating a correction value of the placement information for the main view view imaging apparatus of a plurality of calibrated objective viewpoint index, based on the correction value, a plurality of Correction means for correcting arrangement information of the objective viewpoint index with respect to the subjective viewpoint imaging apparatus .
In order to achieve the above object, the invention according to claim 2 is an index calibration apparatus that corrects arrangement information of a plurality of objective viewpoint indices attached to a subjective viewpoint imaging apparatus with respect to the subjective viewpoint imaging apparatus, Objective viewpoint imaging means for imaging an objective viewpoint image including a plurality of objective viewpoint indices attached to the subjective viewpoint imaging apparatus from a known objective viewpoint position and orientation fixed in the world coordinate system, and realization from the subjective viewpoint imaging apparatus Subjective viewpoint image input means for inputting a subjective viewpoint image including a plurality of subjective viewpoint indices whose positions in the world coordinate system arranged in space are known; and an objective viewpoint for inputting the objective viewpoint image from the objective viewpoint imaging means Image input means, subjective viewpoint index detection means for detecting image coordinates of each of the plurality of subjective viewpoint indices from the subjective viewpoint image, and image locations of the plurality of objective viewpoint indices Objective viewpoint index detecting means for detecting the objective viewpoint index from the objective viewpoint image, initial value input means for inputting initial values of arrangement information of the plurality of objective viewpoint indices for the subjective viewpoint imaging device, and the objective viewpoint index detecting means Position / orientation calculation means for calculating a relative position / orientation between the objective viewpoint imaging device and the objective viewpoint index based on the image coordinates of each of the plurality of objective viewpoint indices detected in step, and the objective viewpoint position / orientation Relative position and orientation of the objective viewpoint imaging device and the objective viewpoint index, the initial value, camera parameters specific to the objective viewpoint imaging means stored in advance, and the world coordinates of the subjective viewpoint index A theoretical value calculating means for calculating a theoretical value of image coordinates of each of the plurality of subjective viewpoint indices in the subjective viewpoint image based on a position in the system; Based on an error between each detected image coordinate of the plurality of subjective viewpoint indices and a theoretical value of the image coordinate of the subjective viewpoint index, a correction value of the arrangement information of the plurality of calibration target objective viewpoint indices with respect to the subjective viewpoint imaging device And a correction means for correcting the arrangement information of a plurality of objective viewpoint indices with respect to the subjective viewpoint imaging device based on the correction values.

本発明によれば、撮像装置に対する指標の配置情報を、簡便かつ正確に取得することができる。   According to the present invention, it is possible to easily and accurately acquire index placement information with respect to an imaging apparatus.

以下、添付図面を参照して本発明の好適な実施形態について詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

[第1の実施形態]
本実施形態に係る指標較正装置は、撮像装置に装着した指標の撮像装置に対する位置を、指標ごとに取得する。以下、本実施形態に係る指標較正装置及び指標較正方向について説明する。
[First Embodiment]
The index calibration apparatus according to the present embodiment acquires the position of the index attached to the imaging apparatus with respect to the imaging apparatus for each index. Hereinafter, the index calibration apparatus and index calibration direction according to the present embodiment will be described.

図1は、本実施形態に係る指標較正装置100の概略構成を示す図である。図1に示したように、本実施形態に係る指標較正装置100は、主観視点指標検出部110、位置姿勢算出部120、客観視点カメラ140、客観視点指標検出部150、指示部160、データ管理部170、較正情報算出部180によって構成されており、較正対象である撮像装置130に接続されている。   FIG. 1 is a diagram illustrating a schematic configuration of an index calibration apparatus 100 according to the present embodiment. As shown in FIG. 1, the index calibration apparatus 100 according to the present embodiment includes a subjective viewpoint index detection unit 110, a position / orientation calculation unit 120, an objective viewpoint camera 140, an objective viewpoint index detection unit 150, an instruction unit 160, data management. The unit 170 and the calibration information calculation unit 180 are connected to the imaging device 130 that is a calibration target.

なお、撮像装置130上には、本実施形態に係る指標較正装置を使用する使用者によって、較正される対象である指標P(k=1,,,K)(以下、これを客観視点指標と呼ぶ)が1つ以上設定されているものとする。主観視点カメラ座標系(撮像装置130上の1点を原点として定義し、更に互いに直交する3軸を夫々X軸、Y軸、Z軸として定義した座標系)における客観視点指標の位置は未知であり、この未知である主観視点カメラ座標系における客観視点指標の位置が、本実施形態に係る指標較正装置が較正する情報、すなわち、本実施形態に係る指標較正装置の出力となる。 On the imaging device 130, an index P k (k = 1,, K 2 ) (hereinafter referred to as an objective viewpoint) to be calibrated by a user who uses the index calibration apparatus according to the present embodiment. It is assumed that at least one (referred to as an index) is set. The position of the objective viewpoint index in the subjective viewpoint camera coordinate system (a coordinate system in which one point on the imaging device 130 is defined as the origin and three orthogonal axes are defined as the X axis, the Y axis, and the Z axis, respectively) is unknown. The position of the objective viewpoint index in the unknown subjective viewpoint camera coordinate system is information that is calibrated by the index calibration apparatus according to the present embodiment, that is, the output of the index calibration apparatus according to the present embodiment.

現実空間中の複数の位置には、撮像装置130によって撮影するための指標(以下、主観視点指標(基準指標))として、世界座標系(現実空間の1点を原点として定義し、更に互いに直交する3軸を夫々X軸、Y軸、Z軸として定義した座標系)における位置が既知である複数個の主観視点指標Q(k=1,,,K)が配置されている。主観視点指標Qは、指標較正用のデータを取得する時の撮像装置130によって、少なくとも3個以上の指標が観測されるように設置されていることが望ましい。図1の例は、4個の主観視点指標Q,Q,Q,Qが配置されており、そのうちの3個Q,Q,Qが撮像装置130の視野内に含まれている状況を示している。 At a plurality of positions in the real space, the world coordinate system (one point in the real space is defined as the origin as an index for photographing with the imaging device 130 (hereinafter referred to as a subjective viewpoint index (reference index)) and orthogonal to each other. A plurality of subjective viewpoint indices Q k (k = 1,, K 1 ) whose positions in the three axes are defined in the coordinate system defined as the X axis, the Y axis, and the Z axis, respectively, are arranged. It is desirable that the subjective viewpoint index Q k is installed so that at least three or more indices are observed by the imaging device 130 when acquiring the data for index calibration. In the example of FIG. 1, four subjective viewpoint indices Q 1 , Q 2 , Q 3 , and Q 4 are arranged, and three of them, Q 1 , Q 3 , and Q 4, are included in the field of view of the imaging device 130. Shows the situation.

主観視点指標Qは、例えば、それぞれが異なる色を有する円形状のマーカによって構成してもよいし、それぞれが異なるテクスチャ特徴を有する自然特徴等の特徴点によって構成してもよい。また、ある程度の面積を有する四角形領域によって形成されるような四角形指標を用いることも可能である。撮影画像上における投影像の画像座標が検出可能であって、かついずれの指標であるかが識別可能であるような指標であれば、何れの形態であってもよい。 The subjective viewpoint index Q k may be constituted by, for example, circular markers each having a different color, or may be constituted by feature points such as natural features each having a different texture feature. It is also possible to use a square index formed by a square area having a certain area. Any form may be used as long as the image coordinates of the projected image on the photographed image can be detected and the index can be identified.

撮像装置130が出力する画像(以下、これを主観視点画像と呼ぶ)は、主観視点指標検出部110に入力される。   An image output from the imaging device 130 (hereinafter referred to as a subjective viewpoint image) is input to the subjective viewpoint index detection unit 110.

主観視点指標検出部110は、撮像装置130より主観視点画像を入力し、入力した画像中に撮影されている主観視点指標Qの画像座標を検出する。例えば、主観視点指標Qの各々が異なる色を有するマーカによって構成されている場合には、主観視点画像上から各々のマーカ色に対応する領域を検出し、その重心位置を指標の検出座標とする。また、主観視点指標Qの各々が異なるテクスチャ特徴を有する特徴点によって構成されている場合には、既知の情報として予め保持している各々の指標のテンプレート画像によるテンプレートマッチングを主観視点画像上に施すことにより、指標の位置を検出する。基準指標として四角形指標を用いる場合は、画像に2値化処理を施した後にラベリングを行い、一定面積以上の領域の中から4つの直線によって形成されているものを指標候補として検出する。さらに、候補領域の中に特定のパターンがあるか否かを判定することによって誤検出を排除し、また、指標の方向と識別子を取得する。なお、このようにして検出される四角形指標は、本明細では、4つの頂点の個々によって形成される4つの指標であると考える。 Person view marker detecting unit 110 inputs the subjective-view image from the imaging device 130, detects the image coordinates of the subjective-view-indices Q k has been taken in the input image. For example, when each of the subjective viewpoint indices Q k is composed of markers having different colors, an area corresponding to each marker color is detected from the subjective viewpoint image, and the center of gravity position is detected as the detected coordinate of the index. To do. Further, when each of the subjective viewpoint indices Q k is composed of feature points having different texture characteristics, template matching based on the template image of each index held in advance as known information is performed on the subjective viewpoint image. By applying, the position of the index is detected. When a quadratic index is used as the reference index, labeling is performed after binarizing the image, and an area formed by four straight lines is detected as an index candidate from a region having a certain area or more. Further, by detecting whether or not there is a specific pattern in the candidate area, false detection is eliminated, and the direction and identifier of the index are acquired. In the present specification, the quadrangular indices detected in this way are considered to be four indices formed by four vertices.

さらに、主観視点指標検出部110は、検出された各々の主観視点指標Qknの画像座標uQknとその識別子kを位置姿勢算出部120へと出力する。ここで、n(n=1,,,N)は検出された指標夫々に対するインデックスであり、Nは検出された指標の総数を表している。例えば図1の場合には、N=3であり、識別子k=1,k=3,k=4とこれらに対応する画像座標uQk1,uQk2,uQk3が出力される。本実施形態における主観視点指標検出部110は、撮像装置130からの画像の入力をトリガとして上記の指標検出処理を逐次実行しているが、位置姿勢算出部120からの要求に応じて(その時点で入力している主観視点画像を利用して)処理を実行する構成としても良い。 Furthermore, subjective-view-index detection unit 110 outputs the image coordinates u Qkn of the subjective-view-indices Q kn each detected and the identifier k n to the position and orientation calculation unit 120. Here, n (n = 1,..., N) is an index for each detected index, and N represents the total number of detected indices. For example, in the case of FIG. 1, N = 3, identifiers k 1 = 1, k 2 = 3, k 3 = 4 and the corresponding image coordinates u Qk1 , u Qk2 , u Qk3 are output. The subjective viewpoint index detection unit 110 according to the present embodiment sequentially executes the index detection process triggered by the input of an image from the imaging device 130, but in response to a request from the position / orientation calculation unit 120 (at that time) The process may be executed using the subjective viewpoint image input in (1).

位置姿勢算出部120は、検出された各々の主観視点指標Qknの画像座標uQknと、既知な情報として予め保持している指標の世界座標x Qknとの対応関係に基づいて、撮像装置130の位置及び姿勢を算出する。主観視点指標の世界座標と画像座標の組から撮像装置の位置及び姿勢を算出する方法は、写真測量等の分野において古くから提案されている(例えば、非特許文献1、非特許文献2を参照)。例えば、主観視点指標が同一平面上に配置されている場合には、4点以上の指標を検出することで、2次元ホモグラフィの計算に基づいて撮像装置の位置及び姿勢を得ることができる。また、同一平面上にない6点以上の指標を用いて撮像装置の位置と姿勢を用いる方法も良く知られている。また、撮像装置の位置と姿勢の推定値から算出される指標の画像座標の理論値と指標の画像座標の実測値との誤差を、画像ヤコビアンを用いたガウス・ニュートン法のような繰り返し計算によって最小化することにより、位置と姿勢の推定値を最適化する方法などを用いることもできる。算出した撮像装置130の世界座標系における位置及び姿勢は、データ管理部170の要求に従って、データ管理部170へと出力される。なお、本実施形態における位置姿勢算出部120は、主観視点指標検出部110からのデータの入力をトリガとして上記の位置及び姿勢の算出処理を逐次実行しているが、データ管理部170からの要求に応じて(その時点での入力データを利用して)処理を実行する構成としても良い。以下では、撮像装置130の位置及び姿勢は、4×4の同次座標行列MWC(モデリング変換行列;主観視点カメラ座標系における座標を世界座標系における座標に変換する行列)によって保持されているものとする。 The position / orientation calculation unit 120 is based on the correspondence relationship between the detected image coordinates u Qkn of each subjective viewpoint index Q kn and the world coordinates x W Qkn of the indices previously stored as known information. 130 positions and orientations are calculated. A method for calculating the position and orientation of an imaging device from a set of world coordinates and image coordinates of a subjective viewpoint index has been proposed for a long time in the field of photogrammetry and the like (for example, see Non-Patent Document 1 and Non-Patent Document 2). ). For example, when the subjective viewpoint indices are arranged on the same plane, the position and orientation of the imaging device can be obtained based on the calculation of two-dimensional homography by detecting four or more indices. In addition, a method of using the position and orientation of an imaging device using six or more indices that are not on the same plane is also well known. In addition, the error between the theoretical value of the index image coordinates calculated from the estimated position and orientation of the imaging device and the actual measurement value of the index image coordinates is calculated by repeated calculation such as the Gauss-Newton method using the image Jacobian. By minimizing, a method for optimizing the estimated values of the position and orientation can be used. The calculated position and orientation of the imaging device 130 in the world coordinate system are output to the data management unit 170 in accordance with a request from the data management unit 170. Note that the position / orientation calculation unit 120 in this embodiment sequentially executes the above-described position and orientation calculation processing triggered by the input of data from the subjective viewpoint index detection unit 110, but the request from the data management unit 170 It is also possible to adopt a configuration in which processing is executed in accordance with (using input data at that time). In the following, the position and orientation of the imaging device 130 are held by a 4 × 4 homogeneous coordinate matrix M WC (modeling conversion matrix; a matrix that converts coordinates in the subjective viewpoint camera coordinate system into coordinates in the world coordinate system). Shall.

客観視点カメラ140は、指標較正用のデータ取得を行う時の撮像装置130を撮像可能な位置に固定して配置されている。世界座標系における客観視点カメラ140の位置及び姿勢は、既知の値として較正情報算出部180に予め保持されているものとする。   The objective viewpoint camera 140 is fixedly arranged at a position where the imaging device 130 for acquiring the data for index calibration can be imaged. It is assumed that the position and orientation of the objective viewpoint camera 140 in the world coordinate system are held in advance in the calibration information calculation unit 180 as known values.

客観視点指標検出部150は、客観視点カメラ140が撮影した画像(客観視点画像)を入力し、主観視点指標検出部110と同様な処理によって画像中に撮影されている客観視点指標Pの画像座標を検出し、データ管理部170の要求に従って検出された客観視点指標Pkmの画像座標uPkmとその識別子kをデータ管理部170へと出力する。ここで、m(m=1,,,M)は検出された指標夫々に付けられたインデックスであり、Mは検出された指標の総数を表している。例えば図1の場合には、M=2であり、識別子k=1,k=2とこれらに対応する画像座標uPk1,uPk2が出力される。本実施形態における客観視点指標検出部150は、客観視点画像の入力をトリガとして上記の指標検出処理を逐次実行しているが、データ管理部170からの要求に応じて(その時点で入力している客観視点画像を利用して)処理を実行する構成としても良い。 The objective viewpoint index detection unit 150 inputs an image (objective viewpoint image) captured by the objective viewpoint camera 140, and an image of the objective viewpoint index Pk captured in the image by the same processing as the subjective viewpoint index detection unit 110. detecting the coordinates, and outputs the image coordinates u Pkm of the objective-view-index P miles detected according to the requirements of the data management unit 170 and the identifier k m to the data management unit 170. Here, m (m = 1,..., M) is an index attached to each detected index, and M represents the total number of detected indices. For example, in the case of FIG. 1, M = 2, identifiers k 1 = 1, k 2 = 2 and image coordinates u Pk1 and u Pk2 corresponding to these are output. The objective viewpoint index detection unit 150 in the present embodiment sequentially executes the above-described index detection processing triggered by the input of the objective viewpoint image, but in response to a request from the data management unit 170 (input at that time) The processing may be performed using an objective viewpoint image.

指示部160は、不図示のオペレータからデータ取得コマンドが入力された時には「データ取得」の指示をデータ管理部170に、較正情報算出コマンドが入力されたときには「較正情報算出」の指示を較正情報算出部180に送信する。指示部160へのコマンド入力は、例えばキーボードを用いて、特定のコマンドを割り当てたキーを押すことによって行うことができる。また、コマンドの入力は、ディスプレイ上に表示されたGUIで行うなどの、いずれの方法で行ってもよい。   The instruction unit 160 sends a “data acquisition” instruction to the data management unit 170 when a data acquisition command is input from an operator (not shown) and a “calibration information calculation” instruction when the calibration information calculation command is input. Transmit to the calculation unit 180. The command input to the instruction unit 160 can be performed by pressing a key to which a specific command is assigned, for example, using a keyboard. In addition, the command may be input by any method such as a GUI displayed on the display.

データ管理部170は、指示部160から「データ取得」の指示を受けると、位置姿勢算出部120から撮像装置130の世界座標系における位置及び姿勢を入力し、客観視点指標検出部150から客観視点指標の画像座標とその識別子を入力し、[撮像装置130の位置及び姿勢−客観視点指標の画像座標]の組を、客観視点指標の識別子毎に用意したデータリストに追加しこれを保持する。ここで、位置姿勢算出部120から入力される撮像装置130の位置及び姿勢は、客観視点指標検出部150から入力される客観視点指標の画像座標を検出した画像の撮影時刻と、同一時刻のものである。また、データ管理部170は、較正情報算出部180からの要求にしたがって、生成した客観視点指標の識別子毎のデータリストを較正情報算出部180に出力する。   When receiving the “data acquisition” instruction from the instruction unit 160, the data management unit 170 inputs the position and orientation of the imaging apparatus 130 in the world coordinate system from the position / orientation calculation unit 120, and receives an objective viewpoint from the objective viewpoint index detection unit 150. The image coordinate of the index and its identifier are input, and the set of [position and orientation of the imaging device 130-image coordinate of the objective viewpoint index] is added to the data list prepared for each identifier of the objective viewpoint index and is retained. Here, the position and orientation of the imaging device 130 input from the position / orientation calculation unit 120 are the same time as the image capturing time when the image coordinates of the objective viewpoint index input from the objective viewpoint index detection unit 150 are detected. It is. Further, the data management unit 170 outputs a data list for each identifier of the generated objective viewpoint index to the calibration information calculation unit 180 in accordance with a request from the calibration information calculation unit 180.

較正情報算出部180は、指示部160から「較正情報算出」の指示を受けると、データ管理部170からデータリストを入力し、これをもとに較正処理を行い、その結果として得られた較正情報(すなわち、各客観視点指標の主観視点カメラ座標系における位置)を出力する。   Upon receiving an instruction “calculation information calculation” from the instruction unit 160, the calibration information calculation unit 180 inputs a data list from the data management unit 170, performs a calibration process based on the data list, and obtains the calibration obtained as a result. Information (that is, the position of each objective viewpoint index in the subjective viewpoint camera coordinate system) is output.

図2は、本実施形態の較正装置が較正情報を求める際に行う処理のフローチャートである。なお、同フローチャートに従ったプログラムコードは、本実施形態の装置内の、不図示のRAMやROMなどのメモリ内に格納され、不図示のCPUにより読み出され、実行される。   FIG. 2 is a flowchart of processing performed when the calibration apparatus according to the present embodiment obtains calibration information. The program code according to the flowchart is stored in a memory such as a RAM or a ROM (not shown) in the apparatus according to the present embodiment, and is read and executed by a CPU (not shown).

ステップS2010において、指示部160は、データ取得コマンドがオペレータから入力されたか否かの判定を行う。オペレータは、指標較正用のデータ取得を行う位置に撮像装置130を配置した時に、データ取得コマンドを入力する。指示部160は、データ取得コマンドが入力されている場合には、ステップS2020へと処理を移行させる。   In step S2010, the instruction unit 160 determines whether or not a data acquisition command has been input from the operator. The operator inputs a data acquisition command when the imaging device 130 is placed at a position where data for index calibration is acquired. If the data acquisition command is input, the instruction unit 160 shifts the process to step S2020.

ステップS2020において、データ管理部170は、位置姿勢算出部120から、撮像装置130の世界座標系における位置及び姿勢MWCを入力する。 In step S2020, the data management unit 170 inputs the position and orientation M WC of the imaging apparatus 130 in the world coordinate system from the position / orientation calculation unit 120.

ステップS2030において、データ管理部170は、客観視点指標検出部150から、客観視点指標検出部150によって検出された客観視点指標Pkmの画像座標uPkmとその識別子kを入力する。以上のステップS2020,S2030の処理により、撮像装置の位置と姿勢がMWCであるときの客観視点指標の画像座標を得ることができる。なお、客観視点指標検出部150から入力される情報は、必ずしも全ての客観視点指標に関するものである必要はなく、その時点で客観視点画像上において検出されている指標に関する情報であればよい。 In step S2030, the data management unit 170, the objective-view-index detection unit 150, and inputs the image coordinates u Pkm of the objective-view-index P miles detected by an objective-view-index detection unit 150 and the identifier k m. By the above processing of steps S2020, S2030, the position and orientation of the imaging device can obtain an image coordinate of the objective-view-index when an M WC. Note that the information input from the objective viewpoint index detection unit 150 is not necessarily related to all objective viewpoint indices, and may be information regarding the index detected on the objective viewpoint image at that time.

次に、ステップS2040において、データ管理部170は、検出された客観視点指標Pkm毎に、入力したデータの組をデータリストLPkに追加する。具体的には、位置姿勢算出部120から入力するMWCをMWCiとし、客観視点指標検出部150から入力するuPkmをu Pkとして、[MWCi,u Pk]の組を、客観視点指標検出部150から入力する識別子kを参照することで振り分けながら、Pに関するi番目のデータとして客観視点指標Pに関するデータリストLPkに登録する。ここでi(i=1,,,IPk)は、データリストLPkに登録したデータの組夫々に対するインデックスであり、IPkは、客観視点指標Pに関して登録したデータの総組数を表している。 Next, in step S2040, the data management unit 170 adds the input data set to the data list L Pk for each detected objective viewpoint index P km . Specifically, the M WC input from the position / orientation calculation unit 120 is M WCi , the u Pkm input from the objective viewpoint index detection unit 150 is u i Pk , and the set of [M WCi , u i Pk ] is objective. while sorting by referring to the identifiers k m input from the view-index detection unit 150, and registers in the data list L Pk on objective view-index P k as i-th data about P k. Here, i (i = 1,..., I Pk ) is an index for each set of data registered in the data list L Pk , and I Pk represents the total number of sets of data registered for the objective viewpoint index P k. ing.

以上の処理によって、データの取得が行われる。   Data is acquired by the above processing.

ステップS2050では、データ管理部170によって、それまでに取得された、全ての客観視点指標に関するデータリスト、もしくは、少なくとも1つの客観視点指標に関するデータリストが、較正情報を算出するに足るだけの情報を有しているかどうかの判定が行われる。少なくとも1つのデータリスト、もしくは、全てのデータリストが条件を満たしていない場合には、再びステップS2010へと戻り、データ取得コマンドの入力を待つ。一方、全てのデータリスト、もしくは、少なくとも1つのデータリストが較正情報算出の条件を満たしている場合には、ステップS2060へと処理を移行させる。ある客観視点指標Pに関するデータリストが較正情報を算出するに足るだけの情報を有す条件としては、例えば、データリストLPkが異なるデータ[MWCi,u Pk]を2組以上得ていること、が挙げられる。後述するように、1組のデータから2つの方程式が得られるため(式3参照)、2組以上のデータを得ていれば、4つの方程式から3パラメータである客観視点指標の主観視点カメラ座標系における位置を決定することができる。ただし、入力データの多様性が増すほどに導出される較正情報の精度は向上するので、より多くのデータを要求するように条件を設定してもよい。 In step S2050, the data list related to all objective viewpoint indexes or the data list related to at least one objective viewpoint index acquired so far by the data management unit 170 is sufficient to calculate calibration information. A determination is made as to whether it has. If at least one data list or all data lists do not satisfy the condition, the process returns to step S2010 and waits for the input of a data acquisition command. On the other hand, if all the data lists or at least one data list satisfies the condition for calculating the calibration information, the process proceeds to step S2060. As a condition that a data list related to an objective viewpoint index P k has enough information to calculate calibration information, for example, two or more sets of data [M WCi , u i Pk ] having different data lists L Pk are obtained. It can be mentioned. As will be described later, two equations are obtained from one set of data (see Equation 3). If two or more sets of data are obtained, the subjective viewpoint camera coordinates of the objective viewpoint index, which is three parameters from the four equations, are obtained. The position in the system can be determined. However, since the accuracy of the calibration information derived as the diversity of input data increases, the condition may be set so as to request more data.

次にステップS2060において、較正情報算出コマンドがオペレータから入力されたか否かの判定を行う。較正情報算出コマンドが入力されている場合には、ステップS2070へと処理を移行し、入力されていない場合には、再びステップS2010へと戻り、データ取得コマンドの入力を待つ。   In step S2060, it is determined whether a calibration information calculation command has been input from the operator. If the calibration information calculation command has been input, the process proceeds to step S2070. If not input, the process returns to step S2010 and waits for the input of the data acquisition command.

較正情報算出部180は、求めるべき較正情報、すなわち客観視点指標の主観視点カメラ座標系における位置を3値ベクトル[xとして扱う。以下では、この未知パラメータを状態ベクトルsPk=[x Pk Pk Pkと記述する。以下、ある客観視点指標Pに対する処理を想定して説明を続けるが、各処理は較正情報算出の条件を満たしたデータリストに対応する全ての客観視点指標に対して共通に行われるものとする。 The calibration information calculation unit 180 handles the calibration information to be obtained, that is, the position of the objective viewpoint index in the subjective viewpoint camera coordinate system as a ternary vector [x C y C z C ] T. Hereinafter, this unknown parameter is described as a state vector s Pk = [x C Pky y C Pk z C Pk ] T. Hereinafter, the description will be continued assuming a process for a certain objective viewpoint index Pk, but each process is performed in common for all objective viewpoint indices corresponding to the data list that satisfies the conditions for calculating the calibration information. .

ステップS2070において、較正情報算出部180は、状態ベクトルsPkに適当な初期値(例えば[000])を与える。 In step S2070, the calibration information calculation unit 180 gives an appropriate initial value (for example, [000] T ) to the state vector s Pk .

ステップS2080において、較正情報算出部180は、データリストLPk中の各データ[MWCi,u Pk](i=1,2,,,,IPk)および状態ベクトルsPkから、全てのiに対して、客観視点指標Pの客観視点画像座標の理論値u Pk’=[uxi Pk’,uyi Pk’]を算出する。ここで客観視点指標の客観視点画像座標の理論値とは、主観視点カメラ座標系における位置が与えられている客観視点指標Pの、客観視点画像中に見えるべき位置(座標)のデータを指す。u Pk’の算出は、客観視点指標Pの主観視点カメラ座標系における位置を表す状態ベクトルsPkの関数 In step S2080, the calibration information calculation unit 180 calculates all i values from each data [M WCi , u i Pk ] (i = 1, 2, ... , I Pk ) and the state vector s Pk in the data list L Pk. against an objective-view-index P k of the objective viewpoint image coordinates of theory u i Pk '= [u xi Pk', u yi Pk '] is calculated. Here, the theoretical value of the objective viewpoint image coordinates of the objective viewpoint index refers to data of the position (coordinates) that should be visible in the objective viewpoint image of the objective viewpoint index P k given the position in the subjective viewpoint camera coordinate system. . The calculation of u i Pk ′ is a function of the state vector s Pk representing the position of the objective viewpoint index P k in the subjective viewpoint camera coordinate system.

Figure 0004533090
に基づいて行われる。
Figure 0004533090
Based on.

具体的には、関数F( )は、i番目のデータを取得した時の(すなわち、撮像装置130の位置と姿勢がMWCiである時の)客観視点指標Pの客観視点カメラ座標における位置ベクトルxBi Pkを、sPkから求める次式、 Specifically, the function F i () is obtained from the objective viewpoint camera coordinates of the objective viewpoint index P k when the i-th data is acquired (that is, when the position and orientation of the imaging device 130 are M WCi ). The following equation for obtaining the position vector x Bi Pk from s Pk :

Figure 0004533090
Figure 0004533090

及び、xBi Pkから客観視点指標Pの客観視点画像上の座標u Pk’を求める次式、 And the following equation for obtaining the coordinates u i Pk ′ on the objective viewpoint image of the objective viewpoint index P k from x Bi Pk ,

Figure 0004533090
Figure 0004533090

によって構成されている。ここでf 及びf は、それぞれx軸方向及びy軸方向における客観視点カメラ140の焦点距離であり、既知の値として予め保持されているものとする。また、MWBは客観視点カメラ座標系における座標を世界座標に変換する変換行列であり、既知の値として予め保持されている世界座標系における客観視点カメラ140の位置及び姿勢に基づいて、予め算出されているものとする。 It is constituted by. Here, f B x and f B y are focal lengths of the objective viewpoint camera 140 in the x-axis direction and the y-axis direction, respectively, and are held in advance as known values. MWB is a transformation matrix for converting coordinates in the objective viewpoint camera coordinate system into world coordinates, and is calculated in advance based on the position and orientation of the objective viewpoint camera 140 in the world coordinate system that is held in advance as a known value. It is assumed that

ステップS2090において、較正情報算出部180は、全てのiに対して、データリストLPk中の各データに含まれる客観視点指標Pの実際の画像座標u Pkと、それに対応する画像座標の理論値u Pk’との誤差△u Pkを次式によって算出する。 In step S2090, the calibration information calculating unit 180, for all i, the actual image coordinates u i Pk objective-view-index P k included in each data in the data list L Pk, the image coordinates of the corresponding an error △ u i Pk of the theoretical value u i Pk 'is calculated by the following equation.

Figure 0004533090
Figure 0004533090

ステップS2100において、較正情報算出部180は、全てのiに対して、状態ベクトルsPkに関する画像ヤコビアン(すなわち、式1の関数F()を状態ベクトルsPkの各要素で偏微分した解を各要素に持つ2行×3列のヤコビ行列)Juis Pk(=∂u Pk/∂sPk)を算出する。具体的には、式3の右辺を客観視点カメラ座標系上の位置ベクトルxBi Pkの各要素で偏微分した解を各要素に持つ2行×3列のヤコビ行列JuixBi Pk(=∂u Pk/∂xBi Pk)と、式2の右辺を状態ベクトルsPkの各要素で偏微分した解を各要素に持つ3行×3列のヤコビ行列JxBis Pk(=∂xBi Pk/∂sPk)を算出し、次式によってJuis Pkを算出する。 In step S2100, the calibration information calculating unit 180, for all i, the image Jacobian about the state vector s Pk (i.e., solutions obtained by partially differentiating the function of Equation 1 F i () for each element of the state vector s Pk Jacobian matrix of 2 rows × 3 columns having, in each element) J uis Pk (= ∂u i Pk / ∂s Pk) is calculated. Specifically, a 2-row × 3-column Jacobian matrix J uxBi Pk (= ∂u) having a solution obtained by partial differentiation of the right side of Expression 3 with each element of the position vector x Bi Pk on the objective viewpoint camera coordinate system. i Pk / ∂x Bi Pk ) and a 3 × 3 Jacobian matrix J xBis Pk (= ∂x Bi Pk /) having a solution obtained by partial differentiation of the right side of Equation 2 with each element of the state vector s Pk. ∂s Pk), and calculates the J uis Pk by the following equation.

Figure 0004533090
Figure 0004533090

ステップS2110において、較正情報算出部180は、以上のステップで算出した、全てのiに対する誤差△u Pk及びヤコビ行列Juis Pkに基づいて、sPkの補正値△sPkを算出する。具体的には、全てのiに対する誤差△u Pkを垂直に並べた2IPk次元ベクトルの誤差ベクトル In step S2110, the calibration information calculating unit 180 is calculated in the above step, based on the error △ u i Pk and the Jacobian matrix J uis Pk for all i, and calculates the correction value △ s Pk of s Pk. Specifically, an error vector of a 2I Pk dimensional vector in which errors Δu i Pk for all i are arranged vertically

Figure 0004533090
Figure 0004533090

及びヤコビ行列Juis Pkを垂直に並べた2IPk行×3列の行列 And a Jacobian matrix Juis Pk vertically arranged in 2I Pk rows × 3 columns matrix

Figure 0004533090
Figure 0004533090

を作成し、Φの擬似逆行列Φを用いて、△sPkを次式より算出する。 And Δs Pk is calculated from the following equation using the pseudo inverse matrix Φ + of Φ.

Figure 0004533090
Figure 0004533090

ここで、△sPkは3次元ベクトルであるから、2IPkが3以上、すなわちIPkが2以上であれば、△sPkを求めることができる。なおΦは、例えばΦ=(ΦΦ)−1Φによって求めることができるが、他の方法によって求めてもよい。 Here, since Δs Pk is a three-dimensional vector, if 2I Pk is 3 or more, that is, I Pk is 2 or more, Δs Pk can be obtained. Note that Φ + can be determined by, for example, Φ + = (Φ T Φ) −1 Φ T , but may be determined by other methods.

ステップS2120において、較正情報算出部180は、ステップS2110において算出した補正値△sPkを用いて、式11に従って客観視点指標Pの主観視点カメラ座標系における位置ベクトルsPkを補正し、得られた値を新たなsPkとする。 In step S2120, the calibration information calculation unit 180 uses the correction value Δs Pk calculated in step S2110 to correct the position vector s Pk in the subjective viewpoint camera coordinate system of the objective viewpoint index P k according to Equation 11 to obtain The new value is set as a new sPk .

Figure 0004533090
Figure 0004533090

ステップS2130において、較正情報算出部180は、誤差ベクトルUが予め定めた閾値より小さいかどうか、あるいは、補正値△sPkが予め定めた閾値より小さいかどうかといった何らかの判断基準を用いて、計算が収束しているか否かの判定を行う。収束していない場合には、補正後の状態ベクトルsPkを用いて、再度ステップS2080以降の処理を行う。 In step S2130, the calibration information calculation unit 180 uses some criteria such as whether the error vector U is smaller than a predetermined threshold or whether the correction value Δs Pk is smaller than a predetermined threshold. It is determined whether or not it has converged. If not converged, the processing after step S2080 is performed again using the corrected state vector s Pk .

ステップS2130において計算が収束したと判定されると、ステップS2140において、較正情報算出部180は、得られた状態ベクトルsPkを、客観視点指標Pの主観視点カメラ座標系における位置を示すパラメータとして出力する。 The calculation is determined to have converged in step S2130, in step S2140, the calibration information calculating unit 180, the state vector s Pk obtained, as a parameter indicating the position in the subjective-view camera coordinate system of the objective-view-index P k Output.

最後にステップS2150では、較正処理を終了するか否かの判定が行われる。オペレータが、指標較正装置100に対して、較正処理の終了を指示した場合には、処理を終了させ、較正処理の継続(再較正)を指示した場合には、再びステップS2010へと戻り、データ取得コマンドの入力を待つ。   Finally, in step S2150, it is determined whether or not to end the calibration process. When the operator instructs the index calibration apparatus 100 to end the calibration process, the process is terminated. When the operator instructs the continuation (recalibration) of the calibration process, the process returns to step S2010 again, and the data Wait for input of get command.

以上の処理によって、撮像装置に装着した指標の撮像装置に対する位置を、簡便かつ正確に取得することができる。   Through the above processing, the position of the index attached to the imaging apparatus with respect to the imaging apparatus can be acquired easily and accurately.

<変形例1−1>
なお、本実施形態においては、状態ベクトルの補正値の算出に式10で表現される最急降下法を用いているが、補正値の算出は必ずしも最急降下法によって行わなくてもよい。例えば公知の非線形方程式の反復解法であるLM法(Levenberg−Marquardt法)を用いて求めてもよいし、公知のロバスト推定手法であるM推定等の統計的手法を組み合わせてもよいし、他の何れの数値計算手法を適用しても本発明の本質が損なわれないことは言うまでもない。また、本実施形態では、ステップS2070からステップS2130までの処理において、求めるべき指標の位置に初期値を与え、画像ヤコビアンを利用した繰り返し演算によって最適値を求めたが、より簡便な計算方法によって指標の位置を求めることも可能である。例えば、式3を展開すると、
<Modification 1-1>
In the present embodiment, the steepest descent method expressed by Equation 10 is used to calculate the correction value of the state vector. However, the correction value need not necessarily be calculated by the steepest descent method. For example, the LM method (Levenberg-Marquardt method) which is an iterative solution of a known nonlinear equation may be used, or a statistical method such as M estimation which is a known robust estimation method may be combined. Needless to say, the essence of the present invention is not impaired by any numerical calculation method. In this embodiment, in the processing from step S2070 to step S2130, an initial value is given to the position of the index to be obtained, and the optimum value is obtained by iterative calculation using the image Jacobian. However, the index is calculated by a simpler calculation method. It is also possible to obtain the position of. For example, if Equation 3 is expanded,

Figure 0004533090
Figure 0004533090

Figure 0004533090
Figure 0004533090

の関係が得られる。この関係を利用すると、 The relationship is obtained. Using this relationship,

Figure 0004533090
Figure 0004533090

のようにして、データリストLPk=[MWCi,u Pk](i=1,,,IPk)から、sPkを直接得ることができる。ここで、 Thus, s Pk can be obtained directly from the data list L Pk = [M WCi , u i Pk ] (i = 1,, I Pk ). here,

Figure 0004533090
Figure 0004533090

を表している。 Represents.

<変形例1−2>
また、本実施形態では、位置姿勢算出部120は、撮像装置130の撮影画像から検出された各々の主観視点指標Qknの画像座標uQknと、既知な情報として予め保持している指標の世界座標x Qknとの対応関係に基づいて、撮像装置130の位置及び姿勢を算出したが、撮像装置の位置及び姿勢を求めるために用いる画像特徴は必ずしも点で表されるようなものである必要はない。例えば、非特許文献2に示されているような線特徴を用いて撮像装置の位置及び姿勢を求める手法や、非特許文献5に示されているような楕円などの幾何特徴を用いて撮像装置の位置及び姿勢を求める手法によって、主観視点指標検出部110及び位置姿勢算出部120を実現しても良いし、これらを組み合わせたものであっても良いし、他の何れの画像特徴を用いるカメラ位置姿勢推定方法を用いても良い。また、磁気センサのような6自由度位置姿勢センサや、ジャイロセンサのような3自由度姿勢センサを撮像装置130に取り付け、撮像装置130の撮影画像から検出された画像特徴と、既知な情報として予め保持している指標の世界座標との対応関係、ならびに、撮像値130に取り付けたセンサの計測値、の両方に基づいたハイブリッドな方法で、撮像装置130の位置及び姿勢を算出しても良い(具体的な算出方法は、例えば、非特許文献3、非特許文献4を参照)。
<Modification 1-2>
Further, in the present embodiment, the position / orientation calculation unit 120 includes the image coordinates u Qkn of each subjective viewpoint index Q kn detected from the captured image of the imaging device 130 and the world of indices previously stored as known information. The position and orientation of the imaging device 130 are calculated based on the correspondence with the coordinates x W Qkn . However, the image features used to obtain the position and orientation of the imaging device need to be represented by dots. There is no. For example, a method for obtaining the position and orientation of an imaging apparatus using line features as shown in Non-Patent Document 2, and an imaging apparatus using geometric features such as an ellipse as shown in Non-Patent Document 5 The subjective viewpoint index detection unit 110 and the position / orientation calculation unit 120 may be realized by a method for obtaining the position and orientation of the camera, or may be a combination of these, or a camera using any other image feature A position and orientation estimation method may be used. In addition, a 6-DOF position and orientation sensor such as a magnetic sensor and a 3-DOF orientation sensor such as a gyro sensor are attached to the imaging device 130, and image characteristics detected from the captured image of the imaging device 130 and known information The position and orientation of the imaging device 130 may be calculated by a hybrid method based on both the correspondence relationship between the index held in advance and the world coordinates and the measurement value of the sensor attached to the imaging value 130. (For specific calculation methods, see, for example, Non-Patent Document 3 and Non-Patent Document 4).

[第2の実施形態]
本実施形態に係る指標較正装置は、撮像装置に装着した複数の指標が指標座標系を有しており、指標座標系における各指標の座標は既知であるとした場合の、撮像装置に対する指標座標系の位置と姿勢、あるいは、撮像装置に対する各指標の位置を取得する。以下、本実施形態に係る指標較正装置及び指標較正方向について説明する。
[Second Embodiment]
In the index calibration apparatus according to the present embodiment, the index coordinates for the imaging apparatus when a plurality of indices mounted on the imaging apparatus have an index coordinate system and the coordinates of each index in the index coordinate system are known. The position and orientation of the system, or the position of each index with respect to the imaging device is acquired. Hereinafter, the index calibration apparatus and index calibration direction according to the present embodiment will be described.

図3は、本実施形態に係る指標較正装置の概略構成を示す図である。図1と同じ部分については同じ番号、記号を付けており、その詳細な説明は省略する。図3に示したように、本実施形態に係る指標較正装置300は、主観視点指標検出部110、位置姿勢算出部120、客観視点カメラ140、客観視点指標検出部150、指示部160、データ管理部370、較正情報算出部380によって構成されており、較正対象である撮像装置130に接続されている。   FIG. 3 is a diagram illustrating a schematic configuration of the index calibration apparatus according to the present embodiment. The same parts as those in FIG. 1 are given the same numbers and symbols, and detailed description thereof will be omitted. As shown in FIG. 3, the index calibration apparatus 300 according to the present embodiment includes a subjective viewpoint index detection unit 110, a position / orientation calculation unit 120, an objective viewpoint camera 140, an objective viewpoint index detection unit 150, an instruction unit 160, data management. The unit 370 and the calibration information calculation unit 380 are connected to the imaging device 130 that is a calibration target.

なお、撮像装置130上には、本実施形態に係る指標較正装置を使用する使用者によって、較正される対象である複数の指標P(k=1,,,K)(第一の実施形態と同様、以下ではこれを客観視点指標と呼ぶ)が設定されているものとする。第一の実施形態と同様に、主観視点カメラ座標系における客観視点指標の位置は未知であるが、本実施形態では、各指標の相対的な位置関係は既知であるとする。例えば、4点の客観視点指標P(k=1,2,3,4)の集合が、サイズが既知な1つの四角形指標Rを形成する場合が相当する。図3は、その状況を示している。この時、四角形指標R上のある1点を原点として定義し、更に互いに直交する3軸を夫々X軸、Y軸、Z軸として定義した座標系を指標座標系と呼ぶと、指標座標系における各客観視点指標Pの座標は既知である。よって、主観視点カメラ座標系における指標座標系の位置及び姿勢(=指標座標系における座標を主観視点カメラ座標に変換する変換行列)が判明すれば、未知である夫々の客観視点指標Pの主観視点カメラ座標系における位置を算出することができる。このことより、本実施形態に係る指標較正装置が較正する情報は、主観視点カメラ座標系における指標座標系の位置及び姿勢であるとする。 On the imaging device 130, a plurality of indices P k (k = 1,, K 2 ) (first implementation) to be calibrated by a user who uses the index calibration apparatus according to this embodiment. In the following, it is assumed that, similarly to the form, this is referred to as an objective viewpoint index). As in the first embodiment, the position of the objective viewpoint index in the subjective viewpoint camera coordinate system is unknown, but in this embodiment, the relative positional relationship between the indices is known. For example, a case where a set of four objective viewpoint indices P k (k = 1, 2, 3, 4) forms one square index R 1 having a known size is equivalent. FIG. 3 shows the situation. At this time, one point on the square indices R 1 is defined as an origin, further triaxial respective X-axis orthogonal to each other, Y-axis and a coordinate system that is defined as Z-axis called an index coordinate system, index coordinate system The coordinates of each objective viewpoint index P k in are known. Therefore, if the position and orientation of the index coordinate system in the subjective viewpoint camera coordinate system (= conversion matrix for converting the coordinates in the index coordinate system to the subjective viewpoint camera coordinates) is found, the subjective viewpoint of each objective viewpoint index P k that is unknown is known. The position in the viewpoint camera coordinate system can be calculated. From this, it is assumed that the information calibrated by the index calibration device according to the present embodiment is the position and orientation of the index coordinate system in the subjective viewpoint camera coordinate system.

現実空間中の複数の位置には、第1の実施形態と同様に、撮像装置130によって撮影するための指標として、世界座標系における位置が既知である主観視点指標Qが設定されている。 The plurality of positions in real space, as in the first embodiment, as an index for taking by the imaging apparatus 130, the position is the subjective-view-indices Q k is known is set in the world coordinate system.

主観視点指標検出部110は、第1の実施形態と同様に、撮像装置130が撮影した主観視点画像を入力し、画像中に撮影されている主観視点指標Qの画像座標を検出し、検出された主観視点指標Qknの画像座標uQknとその識別子kを位置姿勢算出部120へと出力する。 Person view marker detecting unit 110, like the first embodiment, enter the subjective-view image capturing apparatus 130 is captured, it detects the image coordinates of the subjective-view-indices Q k has been taken in an image, detected image coordinates u Qkn of the subjective-view-indices Q kn to output the identifier k n to the position and orientation calculation unit 120.

位置姿勢算出部120は、第1の実施形態と同様に、検出された各々の主観視点指標Qknの画像座標uQknと、既知な情報として予め保持している指標の世界座標x Qknとの対応関係に基づいて、撮像装置130の位置及び姿勢を算出する。この算出方法については、第1の実施形態を説明する部分で述べたとおりである。算出した撮像装置130の世界座標系における位置及び姿勢は、データ管理部370の要求に従って、データ管理部370へと出力される。 Similar to the first embodiment, the position / orientation calculation unit 120 includes the detected image coordinates u Qkn of each subjective viewpoint index Q kn , and the world coordinates x W Qkn of the indices previously stored as known information. The position and orientation of the imaging device 130 are calculated based on the corresponding relationship. This calculation method is as described in the portion explaining the first embodiment. The calculated position and orientation of the imaging device 130 in the world coordinate system are output to the data management unit 370 in accordance with a request from the data management unit 370.

客観視点カメラ140は、第1の実施形態と同様に、指標較正用のデータ取得を行う時の撮像装置130を撮像可能な位置に固定して配置されている。世界座標系における客観視点カメラ140の位置及び姿勢は、既知の値として較正情報算出部380に予め保持されているものとする。   Similar to the first embodiment, the objective viewpoint camera 140 is fixedly disposed at a position where the image capturing apparatus 130 when capturing the data for index calibration can be imaged. It is assumed that the position and orientation of the objective viewpoint camera 140 in the world coordinate system are held in advance in the calibration information calculation unit 380 as known values.

客観視点指標検出部150は、第1の実施形態と同様に、客観視点カメラ140が撮影した客観視点画像を入力し、主観視点指標検出部110と同様な処理によって画像中に撮影されている客観視点指標Pの画像座標を検出し、データ管理部370の要求に従って検出された客観視点指標Pkmの画像座標uPkmとその識別子kをデータ管理部370へと出力する。図3の例では、指標として四角形指標を用いているので、第1の実施形態で述べた四角形指標の検出処理が実行される。 The objective viewpoint index detection unit 150 receives the objective viewpoint image captured by the objective viewpoint camera 140, as in the first embodiment, and is objectively captured in the image by the same processing as the subjective viewpoint index detection unit 110. detecting the image coordinates of the viewpoint index P k, and outputs the image coordinates u Pkm of the objective-view-index P miles detected according to the requirements of the data management unit 370 and the identifier k m to the data management unit 370. In the example of FIG. 3, since a square index is used as the index, the square index detection processing described in the first embodiment is executed.

指示部160は、第1の実施形態と同様に、不図示のオペレータからデータ取得コマンドが入力された時には「データ取得」の指示をデータ管理部370に、較正情報算出コマンドが入力されたときには「較正情報算出」の指示を較正情報算出部380に送信する。   In the same way as in the first embodiment, the instruction unit 160 gives a “data acquisition” instruction to the data management unit 370 when a data acquisition command is input from an operator (not shown), and “ An instruction “calibration information calculation” is transmitted to the calibration information calculation unit 380.

データ管理部370は、指示部160から「データ取得」の指示を受けると、位置姿勢算出部120から撮像装置130の世界座標系における位置及び姿勢を入力し、客観視点指標検出部150から客観視点指標の画像座標とその識別子を入力し、[撮像装置130の位置及び姿勢−客観視点指標の画像座標−客観視点指標の識別子]の組を、一つのデータリストに追加しこれを保持する。ここで、位置姿勢算出部120から入力される撮像装置130の位置及び姿勢は、客観視点指標検出部150から入力される客観視点指標の画像座標を検出した画像の撮影時刻と、同一時刻のものである。また、データ管理部370は、較正情報算出部380からの要求にしたがって、生成したデータリストを較正情報算出部380に出力する。   Upon receiving the “data acquisition” instruction from the instruction unit 160, the data management unit 370 inputs the position and orientation in the world coordinate system of the imaging device 130 from the position / orientation calculation unit 120, and receives an objective viewpoint from the objective viewpoint index detection unit 150. The image coordinate of the index and its identifier are input, and a set of [position and orientation of the imaging device 130 -image coordinate of the objective viewpoint index -identifier of the objective viewpoint index] is added to one data list and held. Here, the position and orientation of the imaging device 130 input from the position / orientation calculation unit 120 are the same time as the image capturing time when the image coordinates of the objective viewpoint index input from the objective viewpoint index detection unit 150 are detected. It is. In addition, the data management unit 370 outputs the generated data list to the calibration information calculation unit 380 in accordance with a request from the calibration information calculation unit 380.

較正情報算出部380は、指示部160から「較正情報算出」の指示を受けると、データ管理部370からデータリストを入力し、これをもとに較正処理を行い、その結果として得られた較正情報(すなわち、主観視点カメラ座標系における指標座標系の位置と姿勢)を出力する。   When the calibration information calculation unit 380 receives an instruction of “calibration information calculation” from the instruction unit 160, the calibration information calculation unit 380 inputs a data list from the data management unit 370, performs a calibration process based on the data list, and obtains the calibration obtained as a result. Information (that is, the position and orientation of the index coordinate system in the subjective viewpoint camera coordinate system) is output.

図4は、本実施形態の較正装置が較正情報を求める際に行う処理のフローチャートである。図2と同じ部分については同じ番号、記号を付けており、その詳細な説明は省略する。なお、同フローチャートに従ったプログラムコードは、本実施形態の装置内の、不図示のRAMやROMなどのメモリ内に格納され、不図示のCPUにより読み出され、実行される。   FIG. 4 is a flowchart of processing performed when the calibration apparatus according to the present embodiment obtains calibration information. The same parts as those in FIG. 2 are given the same numbers and symbols, and detailed description thereof is omitted. The program code according to the flowchart is stored in a memory such as a RAM or a ROM (not shown) in the apparatus according to the present embodiment, and is read and executed by a CPU (not shown).

ステップS2010からステップS2030までは、第1の実施形態と同様の処理を行う。ステップS2030を終えると、ステップS4040へと処理を移行する。   From step S2010 to step S2030, processing similar to that of the first embodiment is performed. When step S2030 is completed, the process proceeds to step S4040.

次に、ステップS4040において、データ管理部370は、検出された客観視点指標Pkm全てについて、入力したデータの組をデータリストLにデータDとして追加する。具体的には、位置姿勢算出部120から入力するMWCをMWCjとし、客観視点指標検出部150から入力する識別子kをkとし、同じく客観視点指標検出部150から入力するuPkmをu Pkjとして、D=[MWCj,u Pkj,k]の組を、j番目のデータとしてデータリストLに登録する。ここでj(j=1,,,J)は、データリストLに登録したデータの組夫々に対するインデックスであり、Jは、登録したデータの総組数を表している。 Next, in step S4040, the data management unit 370 adds the input data set as data D j to the data list L for all the detected objective viewpoint indices P km . Specifically, the M WC input from the position and orientation calculation unit 120 as M WCJ, the identifier k m input from the objective-view-index detection unit 150 and k j, the u Pkm similarly input from an objective-view-index detection unit 150 As u j Pkj , a set of D j = [M WCj , u j Pkj , k j ] is registered in the data list L as the j-th data. Here, j (j = 1,..., J) is an index for each data set registered in the data list L, and J represents the total number of registered data sets.

以上の処理によって、データの取得が行われる。   Data is acquired by the above processing.

ステップS4050では、データ管理部370によって、それまでに取得されたデータリストが、較正情報を算出するに足るだけの情報を有しているかどうかの判定が行われる。条件を満たしていない場合には、再びステップS2010へと戻り、データ取得コマンドの入力を待つ。一方、データリストが較正情報算出の条件を満たしている場合には、ステップS2060へと処理を移行させる。データリストが較正情報を算出するに足るだけの情報を有す条件としては、例えば、少なくとも異なる3つ以上の客観視点指標Pに関するデータが、データリストLに含まれていること、が挙げられる。ただし、入力データの多様性が増すほどに導出される較正情報の精度は向上するので、より多くのデータを要求するように条件を設定してもよい。 In step S4050, the data management unit 370 determines whether the data list acquired so far has enough information to calculate calibration information. If the condition is not satisfied, the process returns to step S2010 again and waits for the input of a data acquisition command. On the other hand, if the data list satisfies the conditions for calculating calibration information, the process proceeds to step S2060. The condition that the data list has sufficient information to calculate the calibration information includes, for example, that the data list L includes data relating to at least three different objective viewpoint indices P k. . However, since the accuracy of the calibration information derived as the diversity of input data increases, the condition may be set so as to request more data.

次にステップS2060において、較正情報算出コマンドがオペレータから入力されたか否かの判定を行う。較正情報算出コマンドが入力されている場合には、ステップS4070へと処理を移行し、入力されていない場合には、再びステップS2010へと戻り、データ取得コマンドの入力を待つ。   In step S2060, it is determined whether a calibration information calculation command has been input from the operator. If the calibration information calculation command has been input, the process proceeds to step S4070. If not input, the process returns to step S2010 and waits for the input of the data acquisition command.

較正情報算出部380は、求めるべき較正情報、すなわち指標系座標の主観視点カメラ座標系における位置及び姿勢を6値ベクトル[xyzξψζ]として扱う。以下では、この未知パラメータを状態ベクトルs=[xyzξψζ]と記述する。 The calibration information calculation unit 380 handles the calibration information to be obtained, that is, the position and orientation of the index system coordinates in the subjective viewpoint camera coordinate system as a 6-value vector [xyzξψζ] T. Hereinafter, this unknown parameter is described as a state vector s = [xyzξψζ] T.

ステップS4070において、較正情報算出部380は、状態ベクトルsに適当な初期値を与える。初期値としては、オペレータが指示部160を介しておおよその値を手入力しても良いし、ある同一時刻に入力された(すなわち、同一の客観視点画像から検出された)複数の客観視点指標の検出座標をリストLから抽出し、このデータを用いて、客観視点座標系における指標座標系の同時刻における位置と姿勢を公知の方法によって算出し、得られた位置と姿勢から指標座標系における座標を客観視点カメラ座標系に変換する変換行列MBMを求め、さらに、リストL中に保持されている、同時刻において入力された撮像装置の位置と姿勢MWCを用いて、次式によって、主観視点カメラ座標系における指標系座標の位置及び姿勢を表す変換行列MCMを得て、この行列によって表される位置と姿勢をsの初期値として利用しても良い。 In step S4070, the calibration information calculation unit 380 gives an appropriate initial value to the state vector s. As an initial value, an operator may manually input an approximate value via the instruction unit 160, or a plurality of objective viewpoint indices input at a certain same time (that is, detected from the same objective viewpoint image). Are extracted from the list L, and using this data, the position and orientation of the index coordinate system in the objective viewpoint coordinate system at the same time are calculated by a known method, and the obtained position and orientation are used in the index coordinate system. A transformation matrix M BM for transforming the coordinates into the objective viewpoint camera coordinate system is obtained, and further, using the position and orientation M WC of the imaging device input at the same time held in the list L, to obtain a conversion matrix M CM representing the position and orientation of the index-based coordinates in the subjective-view camera coordinate system, it may be using the position and orientation represented by this matrix as an initial value of s.

Figure 0004533090
Figure 0004533090

ここで、MWBは、客観視点カメラ座標系における座標を世界座標に変換する変換行列であり、既知の値として予め保持されている世界座標系における客観視点カメラ140の位置及び姿勢に基づいて、予め算出されているものとする。 Here, MWB is a transformation matrix that converts coordinates in the objective viewpoint camera coordinate system into world coordinates, and is based on the position and orientation of the objective viewpoint camera 140 in the world coordinate system that is held in advance as a known value. It is assumed that it has been calculated in advance.

なお、客観視点座標系における指標座標系の位置と姿勢を算出する公知の手法としては、例えば、指標が同一平面上に配置されている場合には、4点以上の指標を用いて2次元ホモグラフィの計算に基づいて指標座標系の位置と姿勢を得る手法を用いることが可能である。また、同一平面上にない6点以上の指標を用いる手法や、これらの解を初期値にして、ガウス・ニュートン法のような繰り返し計算によって最適解を得る手法を用いることもできる。   As a known method for calculating the position and orientation of the index coordinate system in the objective viewpoint coordinate system, for example, when the indices are arranged on the same plane, two-dimensional homology is used by using four or more indices. It is possible to use a technique for obtaining the position and orientation of the index coordinate system based on the calculation of the graphic. It is also possible to use a technique that uses six or more indices that are not on the same plane, or a technique that uses these solutions as initial values and obtains an optimal solution by iterative calculations such as the Gauss-Newton method.

ステップS4080において、較正情報算出部380は、データリストL中の各データD=[MWCj,u Pkj,k](j=1,2,,,,J)および状態ベクトルsから、全てのjに対して、各客観視点指標Pkjの客観視点画像座標の理論値u Pkj’=[uxj Pkj’,uyj Pkj’]を算出する。ここで客観視点指標の客観視点画像座標の理論値とは、指標座標系における位置ベクトルx Pkjが既知な客観視点指標Pkjの、主観視点カメラ座標系における指標座標系の位置及び姿勢がsである時に客観視点画像中に見えるべき位置(座標)のデータを指す。u Pkj’の算出は、指標座標系の主観視点カメラ座標系における位置を表す状態ベクトルsの関数 In step S4080, the calibration information calculation unit 380 determines that each data D j = [M WCj , u j Pkj , k j ] (j = 1, 2, ... J) in the data list L and the state vector s are The theoretical value u j Pkj ′ = [u xj Pkj ′, u yj Pkj ′] of the objective viewpoint image coordinates of each objective viewpoint index P kj is calculated for all j. Here, the theoretical value of the objective viewpoint image coordinate of the objective viewpoint index means that the position and orientation of the index coordinate system in the subjective viewpoint camera coordinate system of the objective viewpoint index P kj whose position vector x M Pkj in the index coordinate system is known is s. Is the data of the position (coordinates) that should be visible in the objective viewpoint image. The calculation of u j Pkj ′ is a function of the state vector s representing the position of the index coordinate system in the subjective viewpoint camera coordinate system.

Figure 0004533090
Figure 0004533090

に基づいて行われる。 Based on.

具体的には、関数F( )は、j番目のデータを取得した時の(すなわち、撮像装置130の位置と姿勢がMWCjである時の)客観視点指標Pkjの客観視点カメラ座標における位置ベクトルxBj Pkjを、sから求める次式、 Specifically, the function F j () is obtained from the objective viewpoint camera coordinates of the objective viewpoint index P kj when the j-th data is acquired (that is, when the position and orientation of the imaging device 130 are M WCj ). A position vector x Bj Pkj is obtained from s as follows:

Figure 0004533090
Figure 0004533090

及び、xBj Pkjから客観視点指標Pkjの客観視点画像上の座標u Pkj’を求める次式、 And the following equation for obtaining the coordinates u j Pkj ′ on the objective viewpoint image of the objective viewpoint index P kj from x Bj Pkj :

Figure 0004533090
Figure 0004533090

によって構成されている。ここでf 及びf は、それぞれx軸方向及びy軸方向における客観視点カメラ140の焦点距離であり、既知の値として予め保持されているものとする。また、MCM(s)はsによって定まるモデリング変換行列(指標座標系における座標を主観視点カメラ座標系における座標に変換する行列)であり、次式によって定義される。 It is constituted by. Here, f B x and f B y are focal lengths of the objective viewpoint camera 140 in the x-axis direction and the y-axis direction, respectively, and are held in advance as known values. M CM (s) is a modeling conversion matrix (matrix for converting coordinates in the index coordinate system to coordinates in the subjective viewpoint camera coordinate system) determined by s, and is defined by the following equation.

Figure 0004533090
Figure 0004533090

ただし、 However,

Figure 0004533090
Figure 0004533090

である。 It is.

ステップS4090において、較正情報算出部380は、全てのjに対して、データリストL中の各データに含まれる客観視点指標Pkjの実際の画像座標u Pkjと、それに対応する画像座標の理論値u Pkj’との誤差△u Pkjを次式によって算出する。 In step S4090, the calibration information calculation unit 380 calculates the actual image coordinates u j Pkj of the objective viewpoint index P kj included in each data in the data list L and the corresponding image coordinate theory for all j. error △ u j PKJ the value u j PKJ 'is calculated by the following equation.

Figure 0004533090
Figure 0004533090

ステップS4100において、較正情報算出部380は、全てのjに対して、状態ベクトルsに関する画像ヤコビアン(すなわち、式17の関数F()を状態ベクトルsの各要素で偏微分した解を各要素に持つ2行×6列のヤコビ行列)Juj Pkj (=∂u Pkj/∂s)を算出する。具体的には、式19の右辺を客観視点カメラ座標系上の位置ベクトルxBj Pkjの各要素で偏微分した解を各要素に持つ2行×3列のヤコビ行列JujxBj Pkj(=∂u Pkj/∂xBj Pkj)と、式18の右辺を状態ベクトルsの各要素で偏微分した解を各要素に持つ3行×6列のヤコビ行列JxBj Pkj (=∂xBj Pkj/∂s)を算出し、次式によってJuj Pkj を算出する。 In step S4100, the calibration information calculation unit 380 performs, for each j, a solution obtained by partially differentiating the image Jacobian relating to the state vector s (that is, the function F j () of Expression 17 by each element of the state vector s). 2 rows × 6 columns Jacobian matrix) J uj Pkj s (= ∂u j Pkj / ∂s). Specifically, a 2-row × 3-column Jacobian matrix J ujxBj Pkj (= 持 u) having a solution obtained by partial differentiation of the right side of Expression 19 with each element of the position vector x Bj Pkj on the objective viewpoint camera coordinate system. j Pkj / ∂x Bj Pkj ) and a 3 × 6 Jacobian matrix J xBj Pkj s (= ∂x Bj Pkj /) having a solution obtained by partial differentiation of the right side of Equation 18 with each element of the state vector s. ∂s) is calculated, and J uj Pkj s is calculated by the following equation.

Figure 0004533090
Figure 0004533090

ステップS4110において、較正情報算出部380は、以上のステップで算出した、全てのjに対する誤差△u Pkj及びヤコビ行列Juj Pkj に基づいて、sの補正値△sを算出する。具体的には、全てのjに対する誤差△u Pkjを垂直に並べた2J次元ベクトルの誤差ベクトル In step S4110, the calibration information calculation unit 380 calculates the correction value Δs of s based on the error Δu j Pkj and the Jacobian matrix J uj Pkj s for all j calculated in the above steps. Specifically, an error vector of a 2J-dimensional vector in which errors Δu j Pkj for all j are arranged vertically

Figure 0004533090
Figure 0004533090

及びヤコビ行列Juj Pkj を垂直に並べた2J行×6列の行列 And Jacobi matrix J uj Pkj s vertically arranged in 2J rows × 6 columns matrix

Figure 0004533090
Figure 0004533090

を作成し、Φの擬似逆行列Φを用いて、△sを次式より算出する。 And Δs is calculated from the following equation using the pseudo inverse matrix Φ + of Φ.

Figure 0004533090
Figure 0004533090

ここで、△sは6次元ベクトルであるから、2Jが6以上、すなわちJが3以上であれば、△sを求めることができる。なおΦは、例えばΦ=(ΦΦ)−1Φによって求めることができるが、他の方法によって求めてもよい。 Here, since Δs is a six-dimensional vector, Δs can be obtained when 2J is 6 or more, that is, J is 3 or more. Note that Φ + can be determined by, for example, Φ + = (Φ T Φ) −1 Φ T , but may be determined by other methods.

ステップS4120において、較正情報算出部380は、ステップS4110において算出した補正値△sを用いて、式27に従って指標系座標の主観視点カメラ座標系における位置及び姿勢を表す状態ベクトルsを補正し、得られた値を新たなsとする。   In step S4120, the calibration information calculation unit 380 uses the correction value Δs calculated in step S4110 to correct the state vector s representing the position and orientation of the index system coordinates in the subjective viewpoint camera coordinate system according to Equation 27, and obtain Let the obtained value be a new s.

Figure 0004533090
Figure 0004533090

ステップS4130において、較正情報算出部380は、誤差ベクトルUが予め定めた閾値より小さいかどうか、あるいは、補正値△sが予め定めた閾値より小さいかどうかといった何らかの判断基準を用いて、計算が収束しているか否かの判定を行う。収束していない場合には、補正後の状態ベクトルsを用いて、再度ステップS4080以降の処理を行う。   In step S4130, calibration information calculation section 380 converges the calculation using some criterion such as whether error vector U is smaller than a predetermined threshold or whether correction value Δs is smaller than a predetermined threshold. It is determined whether or not. If not converged, the processing after step S4080 is performed again using the corrected state vector s.

ステップS4130において計算が収束したと判定されると、ステップS4140において、較正情報算出部380は、得られた状態ベクトルsを、較正情報、すなわち、主観視点カメラ座標系における指標座標系の位置及び姿勢として出力する。この時の出力の形態は、sそのものであっても良いし、sの位置成分を3値のベクトルで表し、姿勢成分をオイラー角や3×3の回転行列で表したものであっても良いし、sから生成した座標変換行列MCMであっても良い。 If it is determined in step S4130 that the calculation has converged, in step S4140, the calibration information calculation unit 380 uses the obtained state vector s as calibration information, that is, the position and orientation of the index coordinate system in the subjective viewpoint camera coordinate system. Output as. The form of output at this time may be s itself, or the position component of s may be represented by a ternary vector, and the posture component may be represented by an Euler angle or a 3 × 3 rotation matrix. then, it may be a coordinate transformation matrix M CM generated from s.

最後にステップS2150では、較正処理を終了するか否かの判定が行われる。オペレータが、指標較正装置300に対して較正処理の終了を指示した場合には、処理を終了させ、較正処理の継続(再較正)を指示した場合には、再びステップS2010へと戻り、データ取得コマンドの入力を待つ。   Finally, in step S2150, it is determined whether or not to end the calibration process. If the operator instructs the index calibration device 300 to end the calibration process, the process is terminated. If the operator instructs the continuation (recalibration) of the calibration process, the process returns to step S2010 again to acquire data. Wait for command input.

以上の処理によって、撮像装置に装着した指標の撮像装置に対する位置または位置姿勢を、簡便かつ正確に取得することができる。   Through the above processing, the position or position / orientation of the index attached to the imaging apparatus with respect to the imaging apparatus can be acquired easily and accurately.

<変形例2−1>
なお、本実施形態においては、較正情報として、主観視点カメラ座標系における指標座標系の位置及び姿勢を出力していたが、得られた状態ベクトルsから、主観視点カメラ座標系における客観視点指標Pの位置を個々に算出して、これらを較正情報として出力しても良い。この場合、主観視点カメラ座標系における客観視点指標Pの位置は、sから求められる座標変換行列MCMと、指標座標系における客観視点指標Pの既知の位置x Pkとの積によって得ることができる。
<Modification 2-1>
In this embodiment, the position and orientation of the index coordinate system in the subjective viewpoint camera coordinate system are output as the calibration information, but the objective viewpoint index P in the subjective viewpoint camera coordinate system is obtained from the obtained state vector s. The positions of k may be calculated individually and output as calibration information. In this case, the position of the objective viewpoint index P k in the subjective viewpoint camera coordinate system is obtained by the product of the coordinate transformation matrix M CM obtained from s and the known position x M Pk of the objective viewpoint index P k in the index coordinate system. be able to.

<変形例2−2>
また、本実施形態では、位置姿勢算出部120は、撮像装置130の撮影画像から検出された各々の主観視点指標Qknの画像座標uQknと、既知な情報として予め保持している指標の世界座標x Qknとの対応関係に基づいて、撮像装置130の位置及び姿勢を算出したが、第1の実施例の<変形例1−2>と同様に、他の画像情報を利用した位置姿勢算出や、他のセンサを併用した位置姿勢算出を行っても良い。
<Modification 2-2>
Further, in the present embodiment, the position / orientation calculation unit 120 includes the image coordinates u Qkn of each subjective viewpoint index Q kn detected from the captured image of the imaging device 130 and the world of indices previously stored as known information. The position and orientation of the imaging device 130 are calculated based on the correspondence relationship with the coordinate x W Qkn , but the position and orientation using other image information is the same as <Modification 1-2> of the first embodiment. Calculation and position / orientation calculation using other sensors may also be performed.

<変形例2−3>
なお、本実施形態においては、状態ベクトルの補正値の算出に式26で表現される最急降下法を用いているが、補正値の算出は必ずしも最急降下法によって行わなくてもよい。例えば公知の非線形方程式の反復解法であるLM法(Levenberg−Marquardt法)を用いて求めてもよいし、公知のロバスト推定手法であるM推定等の統計的手法を組み合わせてもよいし、他の何れの数値計算手法を適用しても本発明の本質が損なわれないことは言うまでもない。また、本実施形態においては、主観視点カメラ座標系における指標座標系の位置及び姿勢sに適当な初期値を与え、画像ヤコビアンを用いた繰り返し計算によって、全入力データに対するsの最適値を求める方法について説明したが、他の簡易的な算出方法を用いることでも、主観視点カメラ座標系における指標座標系の位置及び姿勢を得ることができる。例えば、ステップS4070の説明で述べたような処理手順によって、1枚の客観視点画像上における複数の客観視点指標の検出座標のみを用いて、主観視点カメラ座標系における指標系座標の位置及び姿勢を得て、これを較正情報として出力してもよい。
<Modification 2-3>
In the present embodiment, the steepest descent method expressed by Expression 26 is used to calculate the correction value of the state vector. However, the correction value need not necessarily be calculated by the steepest descent method. For example, the LM method (Levenberg-Marquardt method) which is an iterative solution of a known nonlinear equation may be used, or a statistical method such as M estimation which is a known robust estimation method may be combined. Needless to say, the essence of the present invention is not impaired by any numerical calculation method. Further, in the present embodiment, a method for obtaining an optimal value of s for all input data by giving appropriate initial values to the position and orientation s of the index coordinate system in the subjective viewpoint camera coordinate system, and by iterative calculation using the image Jacobian. However, the position and orientation of the index coordinate system in the subjective viewpoint camera coordinate system can also be obtained by using another simple calculation method. For example, the position and orientation of the index system coordinates in the subjective viewpoint camera coordinate system are determined by using only the detection coordinates of a plurality of objective viewpoint indices on one objective viewpoint image by the processing procedure described in the description of step S4070. It may be obtained and output as calibration information.

<変形例2−4>
なお、本実施形態においては、客観視点指標として四角形指標を用いていたが、指標座標系における各指標の位置が既知である指標群であれば、指標の種類は何れのものでもよい。例えば、第一の実施形態で用いたような複数の円形状指標の組であってもよいし、複数種の指標が混在していてもよい。また、複数の指標座標系を有する場合であっても、個々の指標座標系毎に上記の処理を個別に行うか、或いは、個々の指標座標系毎に上記の処理を並列的に行うことで、同様に較正することが可能である。
<Modification 2-4>
In the present embodiment, a square index is used as the objective viewpoint index, but any index type may be used as long as the index group has a known position of each index in the index coordinate system. For example, it may be a set of a plurality of circular indicators as used in the first embodiment, or a plurality of types of indicators may be mixed. Further, even when a plurality of index coordinate systems are provided, the above processing is performed individually for each index coordinate system, or the above processing is performed in parallel for each index coordinate system. Can be calibrated as well.

[第3の実施形態]
本実施形態に係る指標較正装置は、第2の実施形態と同様に、撮像装置に装着した複数の指標が指標座標系を有しており、指標座標系における各指標の座標は既知であるとした場合の、撮像装置に対する指標座標系の位置と姿勢、あるいは、撮像装置に対する各指標の位置を取得する。以下、本実施形態に係る指標較正装置及び指標較正方向について説明する。
[Third Embodiment]
In the index calibration device according to the present embodiment, as in the second embodiment, a plurality of indexes mounted on the imaging apparatus have an index coordinate system, and the coordinates of each index in the index coordinate system are known. In this case, the position and orientation of the index coordinate system with respect to the imaging apparatus or the position of each index with respect to the imaging apparatus is acquired. Hereinafter, the index calibration apparatus and index calibration direction according to the present embodiment will be described.

図5は、本実施形態に係る指標較正装置の概略構成を示す図である。図3と同じ部分については同じ番号、記号を付けており、その詳細な説明は省略する。図5に示したように、本実施形態に係る指標較正装置500は、主観視点指標検出部110、客観視点カメラ140、客観視点指標検出部150、指示部160、位置姿勢算出部520、データ管理部570、較正情報算出部580によって構成されており、較正対象である撮像装置130に接続されている。なお、撮像装置130上には、第2の実施形態と同様に、較正される対象である複数の指標P(k=1,,,K)が設定されているものとする。
現実空間中の複数の位置には、第2の実施形態と同様に主観視点指標Qが設定されており、また、主観視点指標検出部110、客観視点カメラ140、客観視点指標検出部150、指示部160の動作も第2の実施形態と同様であるので、詳細な説明は省略する。ただし、主観視点指標検出部110がデータ管理部570の要求に応じてデータ管理部570へ検出結果を出力する点と、客観視点指標検出部150が位置姿勢算出部520へ検出結果を出力する点が、第2の実施形態とは異なっている。また、第2の実施形態では、主観視点指標の検出結果を用いて撮像装置130の位置と姿勢を求めていたので、撮像装置130の位置と姿勢を算出するのに必要なだけの指標が1枚の主観視点画像から検出されていなければならなかったが、本実施形態では、1枚の主観視点画像から検出される指標の数は1点以上であればよい。
FIG. 5 is a diagram showing a schematic configuration of the index calibration device according to the present embodiment. The same parts as those in FIG. 3 are given the same numbers and symbols, and detailed description thereof is omitted. As shown in FIG. 5, the index calibration apparatus 500 according to the present embodiment includes a subjective viewpoint index detection unit 110, an objective viewpoint camera 140, an objective viewpoint index detection unit 150, an instruction unit 160, a position and orientation calculation unit 520, and data management. 570 and a calibration information calculation unit 580, which are connected to the imaging device 130 to be calibrated. It is assumed that a plurality of indices P k (k = 1,, K 2 ) to be calibrated are set on the imaging device 130 as in the second embodiment.
The subjective viewpoint index Q k is set at a plurality of positions in the real space, as in the second embodiment, and the subjective viewpoint index detection unit 110, the objective viewpoint camera 140, the objective viewpoint index detection unit 150, Since the operation of the instruction unit 160 is the same as that of the second embodiment, detailed description thereof is omitted. However, the subjective viewpoint index detection unit 110 outputs the detection result to the data management unit 570 in response to a request from the data management unit 570, and the objective viewpoint index detection unit 150 outputs the detection result to the position / orientation calculation unit 520. However, this is different from the second embodiment. In the second embodiment, since the position and orientation of the imaging device 130 are obtained using the detection result of the subjective viewpoint index, the number of indexes necessary for calculating the position and orientation of the imaging device 130 is 1. Although it has been necessary to detect from one subjective viewpoint image, in the present embodiment, the number of indices detected from one subjective viewpoint image may be one or more.

位置姿勢算出部520は、客観視点指標検出部150から客観視点指標Pkmの画像座標uPkmとその識別子を入力し、既知な情報として予め保持している指標座標系における各指標の3次元座標x Pkmとの対応関係に基づいて、客観視点カメラ座標系における指標座標系の位置及び姿勢を算出する。この算出方法は第2の実施形態のステップS4070で述べた処理と同様のものであるので、詳細な説明は省略する。算出した位置及び姿勢は、データ管理部370の要求に従って、データ管理部370へと出力される。以下では、客観視点カメラ座標系における指標座標系の位置及び姿勢は、4×4の同次座標行列MBM(指標座標系における座標を客観視点カメラ座標系における座標に変換する行列)によって保持されているものとする。 The position / orientation calculation unit 520 receives the image coordinates uPkm of the objective viewpoint index P km and its identifier from the objective viewpoint index detection unit 150, and the three-dimensional coordinates of each index in the index coordinate system held in advance as known information. Based on the correspondence with x M Pkm , the position and orientation of the index coordinate system in the objective viewpoint camera coordinate system are calculated. Since this calculation method is the same as the processing described in step S4070 of the second embodiment, detailed description thereof is omitted. The calculated position and orientation are output to the data management unit 370 in accordance with a request from the data management unit 370. In the following, the position and orientation of the index coordinate system in the objective viewpoint camera coordinate system are held by a 4 × 4 homogeneous coordinate matrix M BM (matrix that converts coordinates in the index coordinate system into coordinates in the objective viewpoint camera coordinate system). It shall be.

データ管理部570は、指示部160から「データ取得」の指示を受けると、主観視点指標検出部110から主観視点指標の画像座標とその識別子を入力し、位置姿勢算出部520から客観視点カメラ座標系における指標座標系の位置及び姿勢を入力し、[客観視点カメラ座標系における指標座標系の位置及び姿勢−主観視点指標の画像座標−主観視点指標の識別子]の組を、入力した夫々の主観視点指標毎に作成し、一つのデータリストに追加しこれを保持する。また、データ管理部570は、較正情報算出部580からの要求にしたがって、生成したデータリストを較正情報算出部580に出力する。   Upon receiving the “data acquisition” instruction from the instruction unit 160, the data management unit 570 inputs the image coordinates of the subjective viewpoint index and its identifier from the subjective viewpoint index detection unit 110, and the objective viewpoint camera coordinates from the position / orientation calculation unit 520. The position and orientation of the index coordinate system in the system is input, and the pair of [position and orientation of the index coordinate system in the objective viewpoint camera coordinate system−image coordinates of the subjective viewpoint index−identifier of the subjective viewpoint index] is input. Created for each viewpoint index, added to one data list and retained. Further, the data management unit 570 outputs the generated data list to the calibration information calculation unit 580 in accordance with a request from the calibration information calculation unit 580.

較正情報算出部580は、指示部160から「較正情報算出」の指示を受けると、データ管理部570からデータリストを入力し、これをもとに較正処理を行い、その結果として得られた較正情報(すなわち、主観視点カメラ座標系における指標座標系の位置と姿勢)を出力する。   When the calibration information calculation unit 580 receives an instruction of “calibration information calculation” from the instruction unit 160, the calibration information calculation unit 580 inputs a data list from the data management unit 570, performs a calibration process based on the data list, and obtains the calibration obtained as a result. Information (that is, the position and orientation of the index coordinate system in the subjective viewpoint camera coordinate system) is output.

図6は、本実施形態の較正装置が較正情報を求める際に行う処理のフローチャートである。なお、同フローチャートに従ったプログラムコードは、本実施形態の装置内の、不図示のRAMやROMなどのメモリ内に格納され、不図示のCPUにより読み出され、実行される。   FIG. 6 is a flowchart of processing performed when the calibration apparatus according to the present embodiment obtains calibration information. The program code according to the flowchart is stored in a memory such as a RAM or a ROM (not shown) in the apparatus according to the present embodiment, and is read and executed by a CPU (not shown).

ステップS6010において、指示部160は、データ取得コマンドがオペレータから入力されたか否かの判定を行う。オペレータは、指標較正用のデータ取得を行う位置に撮像装置130を配置した時に、データ取得コマンドを入力する。指示部160は、データ取得コマンドが入力されている場合には、ステップS6020へと処理を移行させる。   In step S6010, the instruction unit 160 determines whether a data acquisition command has been input from the operator. The operator inputs a data acquisition command when the imaging device 130 is placed at a position where data for index calibration is acquired. If the data acquisition command is input, the instruction unit 160 shifts the process to step S6020.

ステップS6020において、データ管理部570は、位置姿勢算出部520から、客観視点カメラ座標系における指標座標系の位置及び姿勢MBMを入力する。 In step S6020, the data management unit 570, from the position and orientation calculation unit 520 inputs the position and orientation M BM index coordinate system in the objective view camera coordinate system.

ステップS6030において、データ管理部570は、主観視点指標検出部110から、主観視点指標検出部110によって検出された夫々の主観視点指標Qknの画像座標uQknとその識別子kを入力する。 In step S6030, the data management unit 570, from the subjective-view-index detection unit 110, and inputs the image coordinates u Qkn of the subjective-view-indices Q kn of people each detected by the subjective-view-index detection unit 110 and the identifier k n.

ステップS6040において、データ管理部570は、入力した夫々の主観視点指標Qknを、データリストLにデータDとして追加する。具体的には、位置姿勢算出部520から入力する客観視点カメラ座標系における指標座標系の位置及び姿勢MBMをMBMjとし、主観視点指標検出部110から入力する識別子kをkとし、同じく主観視点指標検出部110から入力するuQknをu Qkjとして、D=[MBMj,u Qkj,k]の組を、j番目のデータとしてデータリストLに登録する。ここでj(j=1,,,J)は、データリストLに登録したデータの組夫々に対するインデックスであり、Jは、登録したデータの総組数を表している。 In step S6040, the data management unit 570 adds each input subjective viewpoint index Q kn to the data list L as data D j . Specifically, the objective viewpoint camera coordinate position and orientation M BM index coordinate system in system input from the position and orientation calculating section 520 and M BMj, the identifier k n input from the subjective-view-index detection unit 110 and k j, Similarly, a group of D j = [M BMj , u j Qkj , k j ] is registered in the data list L as j-th data, where u Qkn inputted from the subjective viewpoint index detection unit 110 is u j Qkj . Here, j (j = 1,..., J) is an index for each data set registered in the data list L, and J represents the total number of registered data sets.

以上の処理によって、データの取得が行われる。   Data is acquired by the above processing.

ステップS6050では、データ管理部570によって、それまでに取得されたデータリストが、較正情報を算出するに足るだけの情報を有しているかどうかの判定が行われる。条件を満たしていない場合には、再びステップS6010へと戻り、データ取得コマンドの入力を待つ。一方、データリストが較正情報算出の条件を満たしている場合には、ステップS6060へと処理を移行させる。データリストが較正情報を算出するに足るだけの情報を有す条件としては、例えば、少なくとも異なる3つ以上の主観視点指標Qに関するデータが、データリストLに含まれていること、が挙げられる。ただし、入力データの多様性が増すほどに導出される較正情報の精度は向上するので、より多くのデータを要求するように条件を設定してもよい。 In step S6050, the data management unit 570 determines whether the data list acquired so far has enough information to calculate calibration information. If the condition is not satisfied, the process returns to step S6010 again and waits for the input of a data acquisition command. On the other hand, if the data list satisfies the conditions for calculating calibration information, the process proceeds to step S6060. The condition that the data list has sufficient information to calculate the calibration information includes, for example, that the data list L includes data relating to at least three different subjective viewpoint indices Q k. . However, since the accuracy of the calibration information derived as the diversity of input data increases, the condition may be set so as to request more data.

次にステップS6060において、較正情報算出コマンドがオペレータから入力されたか否かの判定を行う。較正情報算出コマンドが入力されている場合には、ステップS6070へと処理を移行し、入力されていない場合には、再びステップS6010へと戻り、データ取得コマンドの入力を待つ。   In step S6060, it is determined whether a calibration information calculation command has been input from the operator. If the calibration information calculation command has been input, the process proceeds to step S6070. If not, the process returns to step S6010 again to wait for the input of the data acquisition command.

較正情報算出部580は、第2の実施形態と同様に、求めるべき較正情報、すなわち指標系座標の主観視点カメラ座標系における位置及び姿勢を6値ベクトル[xyzξψζ]として扱う。以下では、この未知パラメータを状態ベクトルs=[xyzξψζ]と記述する。 As in the second embodiment, the calibration information calculation unit 580 handles the calibration information to be obtained, that is, the position and orientation of the index system coordinates in the subjective viewpoint camera coordinate system as a six-value vector [xyzξψζ] T. Hereinafter, this unknown parameter is described as a state vector s = [xyzξψζ] T.

ステップS6070において、較正情報算出部580は、状態ベクトルsに適当な初期値を与える。初期値としては、例えば、オペレータが指示部160を介しておおよその値を手入力する。   In step S6070, the calibration information calculation unit 580 gives an appropriate initial value to the state vector s. As the initial value, for example, the operator manually inputs an approximate value via the instruction unit 160.

ステップS6080において、較正情報算出部580は、データリストL中の各データD(j=1,2,,,,J)および状態ベクトルsから、全てのjに対して、各主観視点指標Qkjの主観視点画像座標の理論値u Qkj’=[uxj Qkj’,uyj Qkj’]を算出する。ここで主観視点指標の主観視点画像座標の理論値とは、客観視点カメラ座標系における指標座標系の位置及び姿勢がMBMj、主観視点カメラ座標系における指標座標系の位置及び姿勢がsである時に、世界座標系における位置x Qkjが既知な主観視点指標Qkjの、主観視点画像中に見えるべき位置(座標)のデータを指す。u Qkj’の算出は、sの関数 In step S6080, the calibration information calculation unit 580 determines each subjective viewpoint index Q for all j from the data D j (j = 1, 2,..., J) and the state vector s in the data list L. The theoretical value u j Qkj ′ = [u xj Qkj ′, u yj Qkj ′] of the subjective viewpoint image coordinates of kj is calculated. Here, the theoretical values of the subjective viewpoint image coordinates of the subjective viewpoint index are M BMj for the position and orientation of the index coordinate system in the objective viewpoint camera coordinate system, and s for the position and orientation of the index coordinate system in the subjective viewpoint camera coordinate system. Sometimes, the position x W Qkj in the world coordinate system refers to the data of the position (coordinates) that should be visible in the subjective viewpoint image of the subjective viewpoint index Q kj . The calculation of u j Qkj 'is a function of s

Figure 0004533090
Figure 0004533090

に基づいて行われる。 Based on.

具体的には、関数F( )は、j番目のデータを取得した時の(すなわち、客観視点カメラ座標系における指標座標系の位置及び姿勢がMBMjである時の)主観視点指標Qkjの主観視点カメラ座標における位置xCj Qkjを、sから求める次式、 Specifically, the function F j () is the subjective viewpoint index Q kj when the j-th data is acquired (that is, when the position and orientation of the index coordinate system in the objective viewpoint camera coordinate system is M BMj ). The position x Cj Qkj in the subjective viewpoint camera coordinates of

Figure 0004533090
Figure 0004533090

及び、xCj Qkjから主観視点指標Qkjの主観視点画像上の座標u Qkj’を求める次式、 And the following equation for obtaining the coordinates u j Qkj ′ on the subjective viewpoint image of the subjective viewpoint index Q kj from x Cj Qkj :

Figure 0004533090
Figure 0004533090

によって構成されている。ここでf 及びf は、それぞれx軸方向及びy軸方向における撮像装置130の焦点距離、MWBは客観視点カメラ座標系における座標を世界座標に変換する変換行列であり、それぞれ既知の値として予め保持されているものとする。また、MCM(s)はsによって定まるモデリング変換行列(指標座標系における座標を主観視点カメラ座標系における座標に変換する行列)であり、式20によって定義される。なお、式29における右辺の行列の積(MCM(s)・MBMj −1・MWB −1)は、s及びMBMjによって定まる世界座標系における撮像装置130の位置及び姿勢(MWC −1)を表している。 It is constituted by. Here, f C x and f C y are the focal lengths of the imaging device 130 in the x-axis direction and the y-axis direction, respectively, and M WB is a transformation matrix that converts coordinates in the objective viewpoint camera coordinate system into world coordinates, respectively. It is assumed that this value is held in advance. M CM (s) is a modeling conversion matrix (matrix for converting coordinates in the index coordinate system to coordinates in the subjective viewpoint camera coordinate system) determined by s, and is defined by Expression 20. Note that the product (M CM (s) · M BMj −1 · M WB −1 ) of the right-hand side matrix in Expression 29 is the position and orientation (M WC ) of the imaging device 130 in the world coordinate system determined by s and M BMj . 1 ).

ステップS6090において、較正情報算出部580は、全てのjに対して、データリストL中の各データに含まれる主観視点指標Qkjの実際の画像座標u Qkjと、それに対応する画像座標の理論値u Qkj’との誤差△u Qkjを次式によって算出する。 In step S6090, the calibration information calculation unit 580 calculates the actual image coordinates u j Qkj of the subjective viewpoint index Q kj included in each data in the data list L and the corresponding image coordinate theory for all j. error △ u j Qkj the value u j Qkj 'is calculated by the following equation.

Figure 0004533090
Figure 0004533090

ステップS6100において、較正情報算出部580は、全てのjに対して、状態ベクトルsに関する画像ヤコビアン(すなわち、式28の関数F()を状態ベクトルsの各要素で偏微分した解を各要素に持つ2行×6列のヤコビ行列)Juj Qkj (=∂u Qkj/∂s)を算出する。具体的には、式30の右辺を主観視点カメラ座標系上の位置ベクトルxCj Qkjの各要素で偏微分した解を各要素に持つ2行×3列のヤコビ行列JujxCj Qkj(=∂u Qkj/∂xCj Qkj)と、29の右辺を状態ベクトルsの各要素で偏微分した解を各要素に持つ3行×6列のヤコビ行列JxCj Qkj (=∂xCj Qkj/∂s)を算出し、次式によってJuj Qkj を算出する。 In step S6100, the calibration information calculation unit 580 performs, for each j, an element obtained by partially differentiating the image Jacobian relating to the state vector s (that is, the function F j () of Equation 28 with respect to each element of the state vector s. (2 rows × 6 columns Jacobian matrix) J uj Qkj s (= ∂u j Qkj / ∂s). Specifically, a 2-row × 3-column Jacobian matrix J ujxCj Qkj (= ∂u) having a solution obtained by partial differentiation of the right side of Expression 30 with each element of the position vector x Cj Qkj on the subjective viewpoint camera coordinate system. j Qkj / ∂x Cj Qkj ) and a 3 × 6 Jacobian matrix J xCj Qkj s (= ∂x Cj Qkj /) each having a solution obtained by partial differentiation of the right side of 29 with each element of the state vector s s) and J uj Qkj s is calculated by the following equation.

Figure 0004533090
Figure 0004533090

ステップS6110において、較正情報算出部580は、以上のステップで算出した、全てのjに対する誤差△u Qkj及びヤコビ行列Juj Qkj に基づいて、sの補正値△sを算出する。具体的には、全てのjに対する誤差△u Qkjを垂直に並べた2J次元ベクトルの誤差ベクトルU及びヤコビ行列Juj Qkj を垂直に並べた2J行×6列の行列Φを作成し、Φの擬似逆行列Φを用いて、△sを式26より算出する。ここで、△sは6次元ベクトルであるから、2Jが6以上、すなわちJが3以上であれば、△sを求めることができる。なおΦは、例えばΦ=(ΦΦ)−1Φによって求めることができるが、他の方法によって求めてもよい。 In step S6110, the calibration information calculation unit 580 calculates the correction value Δs of s based on the error Δu j Qkj and the Jacobian matrix J uj Qkj s for all j calculated in the above steps. Specifically, an error vector U of 2J-dimensional vectors in which errors Δu j Qkj for all j are arranged vertically and a Jacobian matrix J uj Qkj s are arranged in a matrix of 2J rows × 6 columns, Δs is calculated from Equation 26 using the pseudo inverse matrix Φ + of Φ. Here, since Δs is a six-dimensional vector, Δs can be obtained when 2J is 6 or more, that is, J is 3 or more. Note that Φ + can be determined by, for example, Φ + = (Φ T Φ) −1 Φ T , but may be determined by other methods.

ステップS6120において、較正情報算出部580は、ステップS6110において算出した補正値△sを用いて、式27に従って状態ベクトルsを補正し、得られた値を新たなsとする。   In step S6120, calibration information calculation section 580 corrects state vector s according to equation 27 using correction value Δs calculated in step S6110, and sets the obtained value as new s.

ステップS6130において、較正情報算出部580は、誤差ベクトルUが予め定めた閾値より小さいかどうか、あるいは、補正値△sが予め定めた閾値より小さいかどうかといった何らかの判断基準を用いて、計算が収束しているか否かの判定を行う。収束していない場合には、補正後の状態ベクトルsを用いて、再度ステップS6080以降の処理を行う。   In step S6130, calibration information calculation section 580 converges the calculation using some criterion such as whether error vector U is smaller than a predetermined threshold or whether correction value Δs is smaller than a predetermined threshold. It is determined whether or not. If not converged, the processing after step S6080 is performed again using the corrected state vector s.

ステップS6130において計算が収束したと判定されると、ステップS6140において、較正情報算出部580は、得られた状態ベクトルsを、較正情報、すなわち、主観視点カメラ座標系における指標座標系の位置及び姿勢として出力する。この時の出力の形態は、sそのものであっても良いし、sの位置成分を3値のベクトルで表し、姿勢成分をオイラー角や3×3の回転行列で表したものであっても良いし、sから生成した座標変換行列MCMであっても良い。 If it is determined in step S6130 that the calculation has converged, in step S6140, the calibration information calculation unit 580 uses the obtained state vector s as calibration information, that is, the position and orientation of the index coordinate system in the subjective viewpoint camera coordinate system. Output as. The form of output at this time may be s itself, or the position component of s may be represented by a ternary vector, and the posture component may be represented by an Euler angle or a 3 × 3 rotation matrix. then, it may be a coordinate transformation matrix M CM generated from s.

最後にステップS6150では、較正処理を終了するか否かの判定が行われる。オペレータが、指標較正装置500に対して較正処理の終了を指示した場合には、処理を終了させ、較正処理の継続(再較正)を指示した場合には、再びステップS6010へと戻り、データ取得コマンドの入力を待つ。   Finally, in step S6150, it is determined whether or not to end the calibration process. When the operator instructs the index calibration device 500 to end the calibration process, the process is ended. When the operator instructs the continuation (recalibration) of the calibration process, the process returns to step S6010 again to acquire data. Wait for command input.

以上の処理によって、撮像装置に装着した指標の撮像装置に対する位置または位置姿勢を、簡便かつ正確に取得することができる。   Through the above processing, the position or position / orientation of the index attached to the imaging apparatus with respect to the imaging apparatus can be acquired easily and accurately.

<変形例3−1>
なお、本実施形態においては、較正情報として、主観視点カメラ座標系における指標座標系の位置及び姿勢を出力していたが、得られた状態ベクトルsから、主観視点カメラ座標系における客観視点指標Pの位置を個々に算出して、これらを較正情報として出力しても良い。
<Modification 3-1>
In this embodiment, the position and orientation of the index coordinate system in the subjective viewpoint camera coordinate system are output as the calibration information, but the objective viewpoint index P in the subjective viewpoint camera coordinate system is obtained from the obtained state vector s. The positions of k may be calculated individually and output as calibration information.

<変形例3−2>
なお、本実施形態においては、状態ベクトルの補正値の算出に式26で表現される最急降下法を用いているが、補正値の算出は必ずしも最急降下法によって行わなくてもよい。例えば公知の非線形方程式の反復解法であるLM法(Levenberg−Marquardt法)を用いて求めてもよいし、公知のロバスト推定手法であるM推定等の統計的手法を組み合わせてもよいし、他の何れの数値計算手法を適用しても本発明の本質は損なわれない。
<Modification 3-2>
In the present embodiment, the steepest descent method expressed by Expression 26 is used to calculate the correction value of the state vector. However, the correction value need not necessarily be calculated by the steepest descent method. For example, the LM method (Levenberg-Marquardt method) which is an iterative solution of a known nonlinear equation may be used, or a statistical method such as M estimation which is a known robust estimation method may be combined. Regardless of which numerical calculation method is applied, the essence of the present invention is not impaired.

<変形例3−3>
なお、本実施形態においては、客観視点指標として四角形指標を用いていたが、指標座標系における各指標の位置が既知である指標群であれば、指標の種類は何れのものでもよい。例えば、第一の実施形態で用いたような複数の円形状指標の組であってもよいし、複数種の指標が混在していてもよい。また、複数の指標座標系を有する場合であっても、個々の指標座標系毎に上記の処理を個別に行うか、或いは、個々の指標座標系毎に上記の処理を並列的に行うことで、同様に較正することが可能である。
<Modification 3-3>
In the present embodiment, a square index is used as the objective viewpoint index, but any index type may be used as long as the index group has a known position of each index in the index coordinate system. For example, it may be a set of a plurality of circular indicators as used in the first embodiment, or a plurality of types of indicators may be mixed. Further, even when a plurality of index coordinate systems are provided, the above processing is performed individually for each index coordinate system, or the above processing is performed in parallel for each index coordinate system. Can be calibrated as well.

<変形例3−4>
また、本実施形態においては、画像上で2次元座標を与えるような指標を主観視点指標として用いているが、非特許文献2や非特許文献5で開示されているような線特徴や幾何特徴を、評価のための基準指標として用いてもよい。例えば、線特徴を用いる場合には、直線の原点からの距離を誤差評価基準として、画像からの検出値dと状態ベクトルsからの推定値d’から算出する誤差△dによって誤差ベクトルUを構成し、d’の算出式を状態ベクトルsの各要素で偏微分した解を各要素に持つ1行×4列のヤコビ行列Jds(=∂d/∂s)によって行列Φを構成することで、上記実施形態と同様な枠組みによって補正値の算出を行うことが出来る。なお、d’の算出式は、非特許文献2や非特許文献5等で撮像装置の位置姿勢の関数として開示されており、かつ、撮像装置の位置姿勢はsの関数として得られる(式29右辺の3行列の積)ので、これらから容易に得ることができる。また、線特徴と点特徴、その他の指標から得られる誤差及び画像ヤコビアンを積み重ねることによって、それらの特徴を併用することが可能である。
<Modification 3-4>
In this embodiment, an index that gives a two-dimensional coordinate on an image is used as a subjective viewpoint index. However, line features and geometric features as disclosed in Non-Patent Document 2 and Non-Patent Document 5 are used. May be used as a reference index for evaluation. For example, when a line feature is used, the error vector U is constituted by an error Δd calculated from the detected value d from the image and the estimated value d ′ from the state vector s using the distance from the origin of the straight line as an error evaluation criterion. Then, the matrix Φ is constituted by a 1 row × 4 column Jacobian matrix J ds (= ∂d / ∂s) having a solution obtained by partial differentiation of the calculation formula of d ′ with each element of the state vector s. The correction value can be calculated by the same framework as in the above embodiment. Note that the calculation formula of d ′ is disclosed as a function of the position and orientation of the imaging apparatus in Non-Patent Document 2, Non-Patent Document 5, and the like, and the position and orientation of the imaging apparatus is obtained as a function of s (Formula 29) Therefore, it can be easily obtained from these. In addition, it is possible to use these features together by stacking line features and point features, errors obtained from other indices, and image Jacobians.

[他の実施形態]
本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体(または記録媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
[Other Embodiments]
An object of the present invention is to supply a storage medium (or recording medium) in which a program code of software for realizing the functions of the above-described embodiments is recorded to a system or apparatus, and a computer (or CPU or MPU) of the system or apparatus. Needless to say, this can also be achieved by reading and executing the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention. Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an operating system (OS) running on the computer based on the instruction of the program code. It goes without saying that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included.

さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Furthermore, after the program code read from the storage medium is written into a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer, the function is determined based on the instruction of the program code. It goes without saying that the CPU or the like provided in the expansion card or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.

本発明を上記記憶媒体に適用する場合、その記憶媒体には先に説明した(図2、図4及び/又は図6に示す)フローチャートに対応するプログラムコードが格納されることになる。   When the present invention is applied to the storage medium, the storage medium stores program codes corresponding to the flowcharts described above (shown in FIGS. 2, 4, and / or 6).

第1の実施形態に係る指標較正装置の概略構成を示す図である。It is a figure which shows schematic structure of the parameter | index calibration apparatus which concerns on 1st Embodiment. 第1の実施形態に係る指標較正方法の概略処理を示すフローチャートである。It is a flowchart which shows the schematic process of the parameter | index calibration method which concerns on 1st Embodiment. 第2の実施形態に係る指標較正装置の概略構成を示す図である。It is a figure which shows schematic structure of the parameter | index calibration apparatus which concerns on 2nd Embodiment. 第2の実施形態に係る指標較正方法の概略処理を示すフローチャートである。It is a flowchart which shows the schematic process of the parameter | index calibration method which concerns on 2nd Embodiment. 第3の実施形態に係る指標較正装置の概略構成を示す図である。It is a figure which shows schematic structure of the parameter | index calibration apparatus which concerns on 3rd Embodiment. 第3の実施形態に係る指標較正方法の概略処理を示すフローチャートである。It is a flowchart which shows the schematic process of the parameter | index calibration method which concerns on 3rd Embodiment.

Claims (9)

主観視点撮像装置に装着した複数の客観視点指標の該主観視点撮像装置に対する配置情報を補正する指標較正装置であって、
前記主観視点撮像装置に装着された複数の客観視点指標を含む客観視点画像、世界座標系で固定されて既知である客観視点位置姿勢から撮影する客観視点撮像手段と、
前記主観視点撮像装置から現実空間に配置された前記世界座標系における位置が既知である複数の主観視点指標を含む主観視点画像を入力する主観視点画像入力手段と、
前記客観視点撮像手段から前記客観視点画像を入力する客観視点画像入力手段と、
前記複数の主観視点指標の各々の画像座標を前記主観視点画像から検出する主観視点指標検出手段と、
前記複数の客観視点指標の画像座標を前記客観視点画像から検出する客観視点指標検出手段と、
前記主観視点撮像装置に対する前記複数の客観視点指標の各々の配置情報の初期値を入力する初期値入力手段と、
前記主観視点指標検出手段で検出された前記複数の主観視点指標の各々の画像座標、及び当該主観視点指標の前記世界座標系における位置に基づいて、前記主観視点撮像装置の主観視点位置姿勢を算出する位置姿勢算出手段と、
前記主観視点位置姿勢と、前記客観視点位置姿勢と、前記初期値と、予め保持された前記客観視点撮像手段に特有のカメラパラメータに基づいて、前記客観視点画像における前記複数の客観視点指標の各々の画像座標の理論値を算出する理論値算出手段と、
前記客観視点画像から検出された複数の客観視点指標の各々の画像座標と当該客観視点指標の画像座標の理論値との誤差に基づいて複数の較正対象客観視点指標の該主観視点撮像装置に対する配置情報の補正値を算出する補正値算出手段と
前記補正値に基づいて、複数の客観視点指標の該主観視点撮像装置に対する配置情報を補正する補正手段と、
を有することを特徴とする指標較正装置。
An index calibration device for correcting the location information for the main view view imaging apparatus of the plurality of objective viewpoint index attached to the subjective-view imaging apparatus,
Objective viewpoint imaging means for capturing an objective viewpoint image including a plurality of objective viewpoint indices attached to the subjective viewpoint imaging device from an objective viewpoint position and orientation that is fixed and known in the world coordinate system ;
Subjective viewpoint image input means for inputting a subjective viewpoint image including a plurality of subjective viewpoint indices whose positions in the world coordinate system arranged in the real space are known from the subjective viewpoint imaging device;
And objective viewpoint image input means for inputting the objective viewpoint image from the objective-view imaging means,
Subjective viewpoint index detection means for detecting the image coordinates of each of the plurality of subjective viewpoint indices from the subjective viewpoint image;
Objective viewpoint index detection means for detecting image coordinates of the plurality of objective viewpoint indices from the objective viewpoint image;
An initial value input means for inputting an initial value of each arrangement information of the plurality of objective viewpoint indices with respect to the subjective viewpoint imaging device;
Based on the image coordinates of each of the plurality of subjective viewpoint indices detected by the subjective viewpoint index detecting means, and the position of the subjective viewpoint index in the world coordinate system, the subjective viewpoint position and orientation of the subjective viewpoint imaging device is calculated. Position and orientation calculation means for
Each of the plurality of objective viewpoint indices in the objective viewpoint image based on the subjective viewpoint position / orientation, the objective viewpoint position / orientation, the initial value, and camera parameters specific to the objective viewpoint imaging means stored in advance. A theoretical value calculating means for calculating a theoretical value of the image coordinates of
Based on the error between the image coordinates of each of the plurality of objective viewpoint indices detected from the objective viewpoint image and the theoretical value of the image coordinates of the objective viewpoint index , a plurality of calibration target objective viewpoint indices for the subjective viewpoint imaging device Correction value calculating means for calculating the correction value of the arrangement information ;
Correction means for correcting the arrangement information of the plurality of objective viewpoint indices with respect to the subjective viewpoint imaging device based on the correction value;
An index calibration device characterized by comprising:
主観視点撮像装置に装着した複数の客観視点指標の該主観視点撮像装置に対する配置情報を補正する指標較正装置であって、An index calibration apparatus that corrects arrangement information of a plurality of objective viewpoint indices attached to a subjective viewpoint imaging apparatus with respect to the subjective viewpoint imaging apparatus,
前記主観視点撮像装置に装着された複数の客観視点指標を含む客観視点画像を、世界座標系で固定されて既知である客観視点位置姿勢から撮影する客観視点撮像手段と、Objective viewpoint imaging means for capturing an objective viewpoint image including a plurality of objective viewpoint indices attached to the subjective viewpoint imaging device from an objective viewpoint position and orientation that is fixed and known in the world coordinate system;
前記主観視点撮像装置から現実空間に配置された前記世界座標系における位置が既知である複数の主観視点指標を含む主観視点画像を入力する主観視点画像入力手段と、Subjective viewpoint image input means for inputting a subjective viewpoint image including a plurality of subjective viewpoint indices whose positions in the world coordinate system arranged in the real space are known from the subjective viewpoint imaging device;
前記客観視点撮像手段から前記客観視点画像を入力する客観視点画像入力手段と、Objective viewpoint image input means for inputting the objective viewpoint image from the objective viewpoint imaging means;
前記複数の主観視点指標の各々の画像座標を前記主観視点画像から検出する主観視点指標検出手段と、Subjective viewpoint index detection means for detecting the image coordinates of each of the plurality of subjective viewpoint indices from the subjective viewpoint image;
前記複数の客観視点指標の画像座標を前記客観視点画像から検出する客観視点指標検出手段と、Objective viewpoint index detection means for detecting image coordinates of the plurality of objective viewpoint indices from the objective viewpoint image;
前記主観視点撮像装置に対する前記複数の客観視点指標の各々の配置情報の初期値を入力する初期値入力手段と、An initial value input means for inputting an initial value of each arrangement information of the plurality of objective viewpoint indices with respect to the subjective viewpoint imaging device;
前記客観視点指標検出手段で検出された前記複数の客観視点指標の各々の画像座標に基づいて、前記客観視点撮像装置と前記客観視点指標との相対的な位置姿勢を算出する位置姿勢算出手段と、Position and orientation calculation means for calculating a relative position and orientation between the objective viewpoint imaging device and the objective viewpoint index based on the image coordinates of each of the plurality of objective viewpoint indices detected by the objective viewpoint index detection means; ,
前記客観視点位置姿勢と、前記客観視点撮像装置と前記客観視点指標との相対的な位置姿勢と、前記初期値と、予め保持された前記客観視点撮像手段に特有のカメラパラメータと、前記主観視点指標の前記世界座標系における位置に基づいて、前記主観視点画像における前記複数の主観視点指標の各々の画像座標の理論値を算出する理論値算出手段と、The objective viewpoint position and orientation, the relative position and orientation of the objective viewpoint imaging device and the objective viewpoint index, the initial value, the camera parameters specific to the objective viewpoint imaging means stored in advance, and the subjective viewpoint A theoretical value calculating means for calculating a theoretical value of each image coordinate of the plurality of subjective viewpoint indices in the subjective viewpoint image based on a position of the index in the world coordinate system;
前記主観視点画像から検出された複数の主観視点指標の各々の画像座標と当該主観視点指標の画像座標の理論値との誤差に基づいて、複数の較正対象客観視点指標の該主観視点撮像装置に対する配置情報の補正値を算出する補正値算出手段と、Based on the error between the image coordinates of each of the plurality of subjective viewpoint indices detected from the subjective viewpoint image and the theoretical value of the image coordinates of the subjective viewpoint index, a plurality of calibration target objective viewpoint indices for the subjective viewpoint imaging device Correction value calculating means for calculating the correction value of the arrangement information;
前記補正値に基づいて、複数の客観視点指標の該主観視点撮像装置に対する配置情報を補正する補正手段と、Correction means for correcting the arrangement information of the plurality of objective viewpoint indices with respect to the subjective viewpoint imaging device based on the correction value;
を有することを特徴とする指標較正装置。An index calibration device characterized by comprising:
前記カメラパラメータは、焦点距離であることを特徴とする請求項1又は2に記載の指標較正装置。The index calibration apparatus according to claim 1, wherein the camera parameter is a focal length. 前記誤差が予め設定された閾値よりも小さいか否かを判定する判定手段と、Determining means for determining whether or not the error is smaller than a preset threshold;
を更に備え、Further comprising
前記初期値入力手段が、The initial value input means includes
前記誤差が予め設定された閾値よりも小さくないと判定された場合に、前記補正された配置情報を、前記初期値として再入力することを特徴とする請求項1乃至3の何れか1項に記載の指標較正装置。4. The method according to claim 1, wherein when the error is determined not to be smaller than a preset threshold value, the corrected arrangement information is re-input as the initial value. 5. The indicator calibration device described.
前記客観視点指標の画像座標は、該客観視点指標によって定まる1点または複数点の画像座標であることを特徴とする請求項1乃至請求項4のいずれかに記載の指標較正装置。 The image coordinates of the objective viewpoint index, the index calibration apparatus according to any one of claims 1 to 4, characterized in that an image coordinates of one point or more points defined by 該客view view-indices. 主観視点撮像装置に装着した複数の客観視点指標の該主観視点撮像装置に対する配置情報を補正する指標較正装置が行う指標較正方法であって、
前記指標較正装置が有する客観視点撮像手段が、前記主観視点撮像装置に装着された複数の客観視点指標を含む客観視点画像を、世界座標系で固定されて既知である客観視点位置姿勢から撮影する客観視点撮像工程と、
前記指標較正装置が有する主観視点画像入力手段が、前記主観視点撮像装置から現実空間に配置された前記世界座標系における位置が既知である複数の主観視点指標を含む主観視点画像を入力する主観視点画像入力工程と、
前記指標較正装置が有する客観視点画像入力手段が、前記客観視点撮像手段から前記客観視点画像を入力する客観視点画像入力工程と、
前記指標較正装置が有する主観視点指標検出手段が、前記複数の主観視点指標の各々の画像座標を前記主観視点画像から検出する主観視点指標検出工程と、
前記指標較正装置が有する客観視点指標検出手段が、前記複数の客観視点指標の画像座標を前記客観視点画像から検出する客観視点指標検出工程と、
前記指標較正装置が有する初期値入力手段が、前記主観視点撮像装置に対する前記複数の客観視点指標の各々の配置情報の初期値を入力する初期値入力工程と、
前記指標較正装置が有する位置姿勢算出手段が、前記主観視点指標検出工程で検出された前記複数の主観視点指標の各々の画像座標、及び当該主観視点指標の前記世界座標系における位置に基づいて、前記主観視点撮像装置の主観視点位置姿勢を算出する位置姿勢算出工程と、
前記指標較正装置が有する理論値算出手段が、前記主観視点位置姿勢と、前記客観視点位置姿勢と、前記初期値と、予め保持された前記客観視点撮像手段に特有のカメラパラメータに基づいて、前記客観視点画像における前記複数の客観視点指標の各々の画像座標の理論値を算出する理論値算出工程と、
前記指標較正装置が有する補正値算出手段が、前記客観視点画像から検出された複数の客観視点指標の各々の画像座標と当該客観視点指標の画像座標の理論値との誤差に基づいて、複数の較正対象客観視点指標の該主観視点撮像装置に対する配置情報の補正値を算出する補正値算出工程と、
前記指標較正装置が有する補正手段が、前記補正値に基づいて、複数の客観視点指標の該主観視点撮像装置に対する配置情報を補正する補正工程と、
を有することを特徴とする指標較正方法。
An index calibration method indicator calibration device for correcting the location information for the main view view imaging apparatus of the plurality of objective viewpoint index attached to the subjective-view imaging apparatus performs,
The objective viewpoint imaging means possessed by the index calibration apparatus captures an objective viewpoint image including a plurality of objective viewpoint indices attached to the subjective viewpoint imaging apparatus from a known objective viewpoint position and orientation fixed in the world coordinate system. Objective viewpoint imaging process,
Subjective viewpoint image input means possessed by the index calibration apparatus inputs a subjective viewpoint image including a plurality of subjective viewpoint indices whose positions in the world coordinate system are known that are arranged in the real space from the subjective viewpoint imaging apparatus. An image input process;
An objective viewpoint image input unit that the index calibration apparatus has, an objective viewpoint image input step of inputting the objective viewpoint image from the objective viewpoint imaging unit;
Subjective viewpoint index detection means included in the index calibration apparatus, a subjective viewpoint index detection step of detecting image coordinates of each of the plurality of subjective viewpoint indices from the subjective viewpoint image;
An objective viewpoint index detection unit that the index calibration device has, an objective viewpoint index detection step of detecting image coordinates of the plurality of objective viewpoint indices from the objective viewpoint image;
An initial value input unit that the index calibration device has, an initial value input step of inputting an initial value of arrangement information of each of the plurality of objective viewpoint indexes with respect to the subjective viewpoint imaging device;
The position and orientation calculation means of the index calibration device is based on the image coordinates of each of the plurality of subjective viewpoint indices detected in the subjective viewpoint index detection step, and the position of the subjective viewpoint index in the world coordinate system. A position and orientation calculation step of calculating a subjective viewpoint position and orientation of the subjective viewpoint imaging device;
The theoretical value calculation means possessed by the index calibration device is based on the subjective viewpoint position and orientation, the objective viewpoint position and orientation, the initial value, and camera parameters specific to the objective viewpoint imaging means stored in advance. A theoretical value calculating step of calculating a theoretical value of each image coordinate of the plurality of objective viewpoint indices in the objective viewpoint image;
The correction value calculation means included in the index calibration device has a plurality of values based on errors between the image coordinates of each of the plurality of objective viewpoint indices detected from the objective viewpoint image and the theoretical value of the image coordinates of the objective viewpoint index. A correction value calculating step of calculating a correction value of the arrangement information of the objective viewpoint index to be calibrated with respect to the subjective viewpoint imaging device;
A correcting step in which the correction means included in the index calibration device corrects arrangement information of a plurality of objective viewpoint indexes with respect to the subjective viewpoint imaging device based on the correction value;
An index calibration method characterized by comprising:
主観視点撮像装置に装着した複数の客観視点指標の該主観視点撮像装置に対する配置情報を補正する指標較正装置が行う指標較正方法であって、An index calibration method performed by an index calibration apparatus that corrects arrangement information of a plurality of objective viewpoint indices mounted on a subjective viewpoint imaging apparatus with respect to the subjective viewpoint imaging apparatus,
前記指標較正装置が有する客観視点撮像手段が、前記主観視点撮像装置に装着された複数の客観視点指標を含む客観視点画像を、世界座標系で固定されて既知である客観視点位置姿勢から撮影する客観視点撮像工程と、The objective viewpoint imaging means possessed by the index calibration apparatus captures an objective viewpoint image including a plurality of objective viewpoint indices attached to the subjective viewpoint imaging apparatus from a known objective viewpoint position and orientation fixed in the world coordinate system. Objective viewpoint imaging process,
前記指標較正装置が有する主観視点画像入力手段が、前記主観視点撮像装置から現実空間に配置された前記世界座標系における位置が既知である複数の主観視点指標を含む主観視点画像を入力する主観視点画像入力工程と、Subjective viewpoint image input means possessed by the index calibration apparatus inputs a subjective viewpoint image including a plurality of subjective viewpoint indices whose positions in the world coordinate system are known that are arranged in the real space from the subjective viewpoint imaging apparatus. An image input process;
前記指標較正装置が有する客観視点画像入力手段が、前記客観視点撮像手段から前記客観視点画像を入力する客観視点画像入力工程と、An objective viewpoint image input unit that the index calibration apparatus has, an objective viewpoint image input step of inputting the objective viewpoint image from the objective viewpoint imaging unit;
前記指標較正装置が有する主観視点指標検出手段が、前記複数の主観視点指標の各々の画像座標を前記主観視点画像から検出する主観視点指標検出工程と、Subjective viewpoint index detection means included in the index calibration apparatus, a subjective viewpoint index detection step of detecting image coordinates of each of the plurality of subjective viewpoint indices from the subjective viewpoint image;
前記指標較正装置が有する客観視点指標検出手段が、前記複数の客観視点指標の画像座標を前記客観視点画像から検出する客観視点指標検出工程と、An objective viewpoint index detection unit that the index calibration device has, an objective viewpoint index detection step of detecting image coordinates of the plurality of objective viewpoint indices from the objective viewpoint image;
前記指標較正装置が有する初期値入力手段が、前記主観視点撮像装置に対する前記複数の客観視点指標の各々の配置情報の初期値を入力する初期値入力工程と、An initial value input unit that the index calibration device has, an initial value input step of inputting an initial value of arrangement information of each of the plurality of objective viewpoint indexes with respect to the subjective viewpoint imaging device;
前記指標較正装置が有する位置姿勢算出手段が、前記客観視点指標検出工程で検出された前記複数の客観視点指標の各々の画像座標に基づいて、前記客観視点撮像装置と前記客観視点指標との相対的な位置姿勢を算出する位置姿勢算出工程と、The position / orientation calculation means of the index calibration device is configured to determine whether the objective viewpoint imaging device and the objective viewpoint index are relative to each other based on the image coordinates of each of the plurality of objective viewpoint indices detected in the objective viewpoint index detection step. Position and orientation calculation step for calculating a general position and orientation;
前記指標較正装置が有する理論値算出手段が、前記客観視点位置姿勢と、前記客観視点撮像装置と前記客観視点指標との相対的な位置姿勢と、前記初期値と、予め保持された前記客観視点撮像手段に特有のカメラパラメータと、前記主観視点指標の前記世界座標系における位置に基づいて、前記主観視点画像における前記複数の主観視点指標の各々の画像座標の理論値を算出する理論値算出工程と、The theoretical value calculation means included in the index calibration device includes the objective viewpoint position and orientation, the relative position and orientation of the objective viewpoint imaging device and the objective viewpoint index, the initial value, and the objective viewpoint stored in advance. A theoretical value calculation step of calculating a theoretical value of each image coordinate of the plurality of subjective viewpoint indices in the subjective viewpoint image based on a camera parameter unique to the imaging means and a position of the subjective viewpoint index in the world coordinate system. When,
前記指標較正装置が有する補正値算出手段が、前記主観視点画像から検出された複数の主観視点指標の各々の画像座標と当該主観視点指標の画像座標の理論値との誤差に基づいて、複数の較正対象客観視点指標の該主観視点撮像装置に対する配置情報の補正値を算出する補正値算出工程と、The correction value calculation means included in the index calibration device has a plurality of errors based on the error between the image coordinates of each of the plurality of subjective viewpoint indices detected from the subjective viewpoint image and the theoretical value of the image coordinates of the subjective viewpoint index. A correction value calculating step of calculating a correction value of the arrangement information of the objective viewpoint index to be calibrated with respect to the subjective viewpoint imaging device;
前記指標較正装置が有する補正手段が、前記補正値に基づいて、複数の客観視点指標の該主観視点撮像装置に対する配置情報を補正する補正工程と、A correcting step in which the correction means included in the index calibration device corrects arrangement information of a plurality of objective viewpoint indexes with respect to the subjective viewpoint imaging device based on the correction value;
を有することを特徴とする指標較正方法。An index calibration method characterized by comprising:
請求項6又は7に記載の指標較正方法が有する各工程をコンピュータに実行させるためのプログラム。 The program for making a computer perform each process which the parameter | index calibration method of Claim 6 or 7 has. 請求項に記載のプログラムを格納したコンピュータ読み取り可能な記憶媒体。 A computer-readable storage medium storing the program according to claim 8 .
JP2004320637A 2004-05-14 2004-11-04 Index calibration apparatus and information processing method Expired - Fee Related JP4533090B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2004320637A JP4533090B2 (en) 2004-05-14 2004-11-04 Index calibration apparatus and information processing method
US11/127,000 US7613361B2 (en) 2004-05-14 2005-05-11 Information processing method and device
EP05252972A EP1596333B1 (en) 2004-05-14 2005-05-13 Calibration for mixed reality
DE602005009994T DE602005009994D1 (en) 2004-05-14 2005-05-13 Calibration for Mixed Reality

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004144895 2004-05-14
JP2004320637A JP4533090B2 (en) 2004-05-14 2004-11-04 Index calibration apparatus and information processing method

Publications (2)

Publication Number Publication Date
JP2005351883A JP2005351883A (en) 2005-12-22
JP4533090B2 true JP4533090B2 (en) 2010-08-25

Family

ID=35586476

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004320637A Expired - Fee Related JP4533090B2 (en) 2004-05-14 2004-11-04 Index calibration apparatus and information processing method

Country Status (1)

Country Link
JP (1) JP4533090B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4914038B2 (en) * 2004-11-04 2012-04-11 キヤノン株式会社 Information processing method and apparatus
JP4914039B2 (en) * 2005-07-27 2012-04-11 キヤノン株式会社 Information processing method and apparatus
JP5314428B2 (en) * 2005-12-23 2013-10-16 ジーコデール システムズ アクチボラゲット Positioning pattern
JP4886560B2 (en) * 2007-03-15 2012-02-29 キヤノン株式会社 Information processing apparatus and information processing method
US8259169B2 (en) * 2008-02-28 2012-09-04 Panasonic Corporation Eye-gaze detecting device and eye-gaze detecting method
JP6789624B2 (en) * 2015-11-20 2020-11-25 キヤノン株式会社 Information processing device, information processing method
JP2019087791A (en) 2017-11-01 2019-06-06 キヤノン株式会社 Information processing apparatus, information processing method, and program
US11519780B2 (en) 2017-11-14 2022-12-06 Nec Corporation Measurement system, correction processing apparatus, correction processing method, and computer-readable recording medium
JP2022089269A (en) * 2020-12-04 2022-06-16 株式会社日立製作所 Calibration device and calibration method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001074428A (en) * 1999-09-03 2001-03-23 Sanyo Electric Co Ltd Method and jig for calibrating shape measuring apparatus
JP2003329423A (en) * 2002-05-14 2003-11-19 Sanyo Electric Co Ltd Camera parameter calibrating method in three- dimensional shape measuring instrument

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001074428A (en) * 1999-09-03 2001-03-23 Sanyo Electric Co Ltd Method and jig for calibrating shape measuring apparatus
JP2003329423A (en) * 2002-05-14 2003-11-19 Sanyo Electric Co Ltd Camera parameter calibrating method in three- dimensional shape measuring instrument

Also Published As

Publication number Publication date
JP2005351883A (en) 2005-12-22

Similar Documents

Publication Publication Date Title
JP4914038B2 (en) Information processing method and apparatus
EP1596333B1 (en) Calibration for mixed reality
JP4136859B2 (en) Position and orientation measurement method
JP4914039B2 (en) Information processing method and apparatus
JP4593968B2 (en) Position and orientation measurement method and apparatus
JP4689380B2 (en) Information processing method and apparatus
JP4976756B2 (en) Information processing method and apparatus
JP4886560B2 (en) Information processing apparatus and information processing method
JP5036260B2 (en) Position and orientation calculation method and apparatus
JP4708752B2 (en) Information processing method and apparatus
US7630555B2 (en) Position and orientation measuring method and apparatus
JP5196825B2 (en) Image processing apparatus and image processing method
JP4533193B2 (en) Information processing apparatus and information processing method
JP2005326275A (en) Information processing method and device
JP4956456B2 (en) Image processing apparatus and image processing method
JP2008261755A (en) Information processing apparatus and information processing method
JP2008134161A (en) Position attitude measuring method, and position attitude measuring device
JP4533090B2 (en) Index calibration apparatus and information processing method
JP4095320B2 (en) Sensor calibration device, sensor calibration method, program, storage medium
JP4566786B2 (en) Position and orientation measurement method and information processing apparatus
JP5726024B2 (en) Information processing method and apparatus
JP6109213B2 (en) Information processing apparatus and method, program
JP5620972B2 (en) Information processing apparatus and information processing method
CN100430686C (en) Information processing method and device therefor
JP4810403B2 (en) Information processing apparatus and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100126

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100201

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100329

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100518

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100611

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130618

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees