JP4533193B2 - Information processing apparatus and information processing method - Google Patents

Information processing apparatus and information processing method Download PDF

Info

Publication number
JP4533193B2
JP4533193B2 JP2005065356A JP2005065356A JP4533193B2 JP 4533193 B2 JP4533193 B2 JP 4533193B2 JP 2005065356 A JP2005065356 A JP 2005065356A JP 2005065356 A JP2005065356 A JP 2005065356A JP 4533193 B2 JP4533193 B2 JP 4533193B2
Authority
JP
Japan
Prior art keywords
orientation
index
coordinate system
indices
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005065356A
Other languages
Japanese (ja)
Other versions
JP2005353036A (en
Inventor
真一 荒谷
清秀 佐藤
大輔 小竹
まほろ 穴吹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2005065356A priority Critical patent/JP4533193B2/en
Priority to US11/127,000 priority patent/US7613361B2/en
Priority to EP05252972A priority patent/EP1596333B1/en
Priority to DE602005009994T priority patent/DE602005009994D1/en
Publication of JP2005353036A publication Critical patent/JP2005353036A/en
Application granted granted Critical
Publication of JP4533193B2 publication Critical patent/JP4533193B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、物体上に設置した指標の、物体座標系における位置または位置姿勢を求めるものに関する。   The present invention relates to a method for obtaining a position or position / orientation of an index placed on an object in an object coordinate system.

近年、現実空間と仮想空間の繋ぎ目のない結合を目的とした、複合現実感に関する研究が盛んに行われている。複合現実感の提示を行う画像表示装置は、ビデオカメラなどの撮像装置によって撮影された現実空間の画像に、撮像装置の位置及び姿勢に応じて生成した仮想空間(たとえばコンピュータ・グラフィックスにより描画された仮想物体や文字情報など)の画像を重畳描画してそれを表示するビデオシースルー方式によって実現される。   In recent years, research on mixed reality has been actively conducted for the purpose of seamless connection between the real space and the virtual space. An image display device that presents a mixed reality is drawn on a virtual space (for example, computer graphics) generated in accordance with the position and orientation of an imaging device on an image of a real space that is captured by an imaging device such as a video camera. This is realized by a video see-through method in which an image of a virtual object, character information, etc.) is overlaid and displayed.

このような画像表示装置の応用としては、患者の体表面に体内の様子を重畳表示する手術支援や、現実空間に浮遊する仮想の敵と戦う複合現実感ゲームなど、今までのバーチャルリアリティとは異なった新たな分野が期待されている。   Applications of such image display devices include virtual reality, such as surgical support that superimposes the state of the body on the patient's body surface, and mixed reality games that fight against virtual enemies floating in real space. Different new fields are expected.

これらの応用に対して共通に要求されるのは、現実空間と仮想空間の間の位置合わせをいかに正確に行うかということであり、従来から多くの取り組みが行われてきた。複合現実感における位置合わせの問題は、仮想の情報を重畳しようとする対象物体と撮像装置との間の、相対的な位置及び姿勢の関係(以下ではこれを、撮像装置に対する対象物体の位置及び姿勢と称する)を求める問題に帰結される。   A common requirement for these applications is how to accurately align the real space and the virtual space, and many efforts have been made in the past. The problem of alignment in mixed reality is that the relative position and orientation relationship between the target object on which virtual information is to be superimposed and the imaging device (hereinafter referred to as the position of the target object relative to the imaging device and Resulting in the problem of seeking a posture.

この問題を解決する方法として、対象物体上に、対象物体の座標系における配置が既知であるような複数の指標を設置あるいは設定し、既知の情報であるその指標の物体座標系における座標と、撮像装置が撮像した画像内における指標の投影像の座標とを利用して、撮像装置に対する対象物体の位置及び姿勢を求めることが一般的に行われている。   As a method for solving this problem, on the target object, a plurality of indicators whose arrangement in the coordinate system of the target object is known is set or set, and the coordinates of the indicator in the object coordinate system, which is known information, In general, the position and orientation of a target object with respect to an imaging device are obtained by using the coordinates of a projected image of an index in an image captured by the imaging device.

物体座標系における指標の座標とその投影像の画像座標の組から撮像装置に対する対象物体の位置及び姿勢を算出する方法は、写真測量等の分野において古くから提案されている(例えば、非特許文献1、非特許文献2を参照)。   A method for calculating the position and orientation of a target object with respect to an imaging apparatus from a set of index coordinates in an object coordinate system and image coordinates of a projected image has been proposed for a long time in the field of photogrammetry (for example, non-patent literature). 1, see Non-Patent Document 2).

また、磁気センサのような6自由度位置姿勢センサを撮像装置と対象物体の双方に取り付け、撮像装置が撮像した画像内における指標の投影像の座標に加え、センサによって計測された(センサが基準としている基準座標系における)撮像装置と対象物体の夫々の位置及び姿勢の計測値もさらに利用して、撮像装置に対する対象物体の位置及び姿勢を求めるハイブリッドな位置姿勢計測方法も提案されている(例えば、特許文献1では、画像上で検出された指標の投影像の情報を用いて、センサ計測値の誤差が補正される)。   In addition, a 6-DOF position and orientation sensor such as a magnetic sensor is attached to both the imaging device and the target object, and is measured by the sensor in addition to the coordinates of the projected image of the index in the image captured by the imaging device (the sensor is the reference A hybrid position / orientation measurement method for obtaining the position and orientation of the target object with respect to the imaging device by further using the measured values of the position and orientation of each of the imaging device and the target object (in the reference coordinate system) is also proposed ( For example, in Patent Document 1, an error of a sensor measurement value is corrected using information on a projected image of an index detected on an image).

また、本出願人は、特願2003−323101において、ある基準座標系における対象物体の位置及び姿勢を計測したいという目的において、対象物体に指標を設置し、基準座標系に固定したカメラによってこれを撮影することで、固定カメラに対する対象物体の位置及び姿勢を求め、これによって、基準座標系における対象物体の位置及び姿勢を得るという方法を提案している。
R.M.Haralick,C.Lee,K.Ottenberg,and M.Nolle:Review and analysis of solutions of the three point perspective pose estimation problem,International Journal of Computer Vision,vol.13,no.3,pp.331−356,1994. D.G.Lowe:Fitting parameterized three−dimensional models to images,IEEE Transactions on PAMI,vol.13,no.5,pp.441−450,1991. 内山,山本,田村:“複合現実感のためのハイブリッド位置合わせ手法−6自由度センサとビジョン手法の併用−”,日本バーチャルリアリティ学会論文誌,vol.8,no.1,pp.119−125,2003. 藤井博文,神原誠之,岩佐英彦,竹村治雄,横矢直和,拡張現実のためのジャイロセンサを併用したステレオカメラによる位置合わせ,電子情報通信学会技術研究報告PRMU99−192(信学技報vol.99,no.574,pp.1−8,1999. A.I.Comport,E.Marchand,F.Chaumette,A real−time tracker for markerless augmented reality,Proc.Int'l Symp.on Mixed and Augmented Reality 2004,pp.36−45,2004.
In addition, in the Japanese Patent Application No. 2003-323101, the present applicant sets an index on the target object for the purpose of measuring the position and orientation of the target object in a certain reference coordinate system, and uses a camera fixed to the reference coordinate system. A method has been proposed in which the position and orientation of the target object with respect to the fixed camera are obtained by photographing, and thereby the position and orientation of the target object in the reference coordinate system are obtained.
R. M.M. Haralick, C.I. Lee, K.M. Ottenberg, and M.M. Nole: Review and analysis of solutions of the three point perspective positive estimation lab, International Journal of Computer Vision, vol. 13, no. 3, pp. 331-356, 1994. D. G. Low: Fitting parametrized three-dimensional models to images, IEEE Transactions on PAMI, vol. 13, no. 5, pp. 441-450, 1991. Uchiyama, Yamamoto, Tamura: “Hybrid registration method for mixed reality: combined use of 6-DOF sensor and vision method”, Transactions of the Virtual Reality Society of Japan, vol. 8, no. 1, pp. 119-125, 2003. Hirofumi Fujii, Noriyuki Kanbara, Hidehiko Iwasa, Haruo Takemura, Naokazu Yokoya, alignment with stereo camera combined with gyro sensor for augmented reality, IEICE technical report PRMU99-192 (IEICE technical report vol.99) No. 574, pp. 1-8, 1999. A. I. Comfort, E.M. Marchand, F.M. Chaumette, A real-time tracker for markerless augmented reality, Proc. Int'l Symp. on Mixed and Augmented Reality 2004, pp. 36-45, 2004.

ところで、撮像装置が撮影した画像内における指標の投影像の画像座標を検出することで対象物体の位置及び姿勢を算出する上記の方法においては、対象物体に設定した複数の指標と、対象物体との相対的な位置関係は、既知でなければならない。個々の指標の相対的な位置関係が未知である場合、例えば、着色された球状の指標や円形状の指標を用いてその画像上における指標の投影像の重心位置を特徴として利用する場合のように、特徴が一つの点で記述されるような指標が対象物体上に個々に設置されている場合には、対象物体座標系における個々の指標の3次元位置が予め計測されていなくてはならない。一方、指標同士の相対的な位置関係が既知である場合、例えば、上記と同様な指標を用いる場合であっても、それらの指標が予めベースとなる治具に装着されており、この治具の座標系(このように指標の相対的な位置を記述するための座標系を以下では指標座標系と呼ぶ)における各指標の位置が既に計測されており、この治具が対象物体に装着されているような場合には、対象物体座標系におけるこの治具の位置と姿勢が既知であれば良い(なお、特徴が複数の点で記述されるような指標、例えば、形状の既知な四角形や三角形の指標を用いてその画像上における指標の投影像の各頂点を特徴として利用する場合は、この指標自体が複数の指標の集まりであると解釈して、「指標同士の相対的な位置関係が既知である場合」の一種として考えることにする)。しかしながら、これらを正確に較正する方法は一般的に知られておらず、従来までは手動計測によって得られる不正確な位置または位置及び姿勢を既知の値として利用する以外に方策がなかった。その結果、上記の撮像装置が撮影した画像内における指標の投影像の画像座標を検出することで対象物体の位置及び姿勢を算出する方法においては、対象物体の位置及び姿勢を実用上低い精度でしか計測できないという改善の余地があった。   By the way, in the above method for calculating the position and orientation of the target object by detecting the image coordinates of the projected image of the index in the image captured by the imaging device, a plurality of indices set for the target object, the target object, The relative positional relationship of must be known. When the relative positional relationship of each index is unknown, for example, when using the colored spherical index or the circular index and using the center of gravity of the projected image of the index on the image as a feature In addition, in the case where an index whose feature is described by one point is individually installed on the target object, the three-dimensional position of each index in the target object coordinate system must be measured in advance. . On the other hand, when the relative positional relationship between the indices is known, for example, even when the indices similar to those described above are used, these indices are mounted on a base jig in advance. (The coordinate system for describing the relative position of the index is called the index coordinate system in the following.) The position of each index has already been measured, and this jig is attached to the target object. In such a case, the position and orientation of the jig in the target object coordinate system need only be known (note that an index whose features are described by a plurality of points, for example, a square having a known shape, When using each index of the projected image on the image as a feature using a triangular index, the index itself is interpreted as a collection of multiple indices, and the `` relative positional relationship between the indices As a kind of `` if known '' To be obtained). However, a method for accurately calibrating them is not generally known, and until now there has been no measure other than using an inaccurate position or position and orientation obtained by manual measurement as a known value. As a result, in the method of calculating the position and orientation of the target object by detecting the image coordinates of the projected image of the index in the image captured by the imaging device, the position and orientation of the target object are practically low in accuracy. There was room for improvement that only measurement was possible.

本発明は以上の問題を鑑みてなされたものであり、物体に装着した指標の、対象物体に対する(すなわち、対象物体座標系における)位置または位置及び姿勢を、簡便かつ正確に取得することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to easily and accurately acquire the position or position and orientation of an index attached to an object with respect to the target object (that is, in the target object coordinate system). And

上記目的を達成するために、本願発明は以下の構成を有するIn order to achieve the above object, the present invention has the following configuration .

物体に配置された複数の指標の各々の物体を基準とした物体座標系における位置を補正する情報処理装置であって、前記物体の世界座標系における位置姿勢を計測する物体位置姿勢計測手段と、前記物体に配置された複数の指標を撮像手段で撮像した撮像画像を入力する撮像画像入力手段と、前記撮像手段の世界座標系における位置姿勢を計測する撮像位置姿勢計測手段と、前記撮像画像から前記複数の指標の各々の画像座標を検出する指標検出手段と、前記複数の指標の各々の物体座標系における位置の設定値を入力する設定値入力手段と、前記物体の世界座標系における位置姿勢、及び前記撮像手段の世界座標系における位置に基づいて、前記物体と前記撮像手段との間の相対的な相対位置姿勢を算出する相対位置姿勢算出手段と、前記設定値、前記相対位置姿勢、及び予め保持された前記撮像手段に特有のカメラパラメータに基づいて、前記複数の指標の各々の前記撮像画像の面における座標の計算値を計算する指標計算手段と、前記検出された複数の指標の各々の画像座標と、前記計算された複数の指標の各々の前記撮像画像の面における座標の計算値との誤差を算出する誤差算出手段と、前記誤差に基づいて、前記複数の指標の各々の物体座標系における位置の補正値を算出する補正値算出手段と、前記補正値に基づいて、前記複数の指標の各々の物体座標系における位置の設定値を補正する補正手段と、を有する。 An information processing apparatus for correcting the position in the object coordinate system with reference to the each of the objects of the plurality of indices allocated on the object, and the object position and orientation measurement means for measuring the position and orientation in the world coordinate system of the object A picked-up image input unit that inputs a picked-up image obtained by picking up a plurality of indices arranged on the object with a pick-up unit, a pick-up position and orientation measuring unit that measures a position and orientation of the image pick-up unit in the world coordinate system, and the picked-up image Index detecting means for detecting image coordinates of each of the plurality of indices, setting value input means for inputting position setting values of each of the plurality of indices in the object coordinate system, and positions of the objects in the world coordinate system orientation, and on the basis of the position in the world coordinate system of the imaging means, and the relative position and orientation calculation means for calculating the relative relative position and orientation between the object and the imaging means, before Index calculation means for calculating a calculated value of coordinates on the surface of the captured image of each of the plurality of indices based on a set value, the relative position and orientation, and camera parameters specific to the imaging means held in advance; An error calculating means for calculating an error between each of the detected image coordinates of the plurality of indices and a calculated value of the coordinates of each of the calculated plurality of indices on the surface of the captured image; and Correction value calculating means for calculating a correction value of the position of each of the plurality of indices in the object coordinate system, and correcting a set value of the position of each of the plurality of indices in the object coordinate system based on the correction value Correction means .

本発明によれば物体に対する指標の位置または位置姿勢を、簡便かつ正確に取得することができる。   According to the present invention, the position or position and orientation of an index with respect to an object can be acquired simply and accurately.

以下、添付図面を参照して本発明の好適な実施形態について詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

[第1の実施形態]
本実施形態に係る指標較正装置は、対象物体に装着した指標の較正を行うためのものであり、対象物体に装着した6自由度位置姿勢センサと、固定位置に設置した客観視点カメラを利用して、対象物体に対する(すなわち、対象物体座標系における)夫々の指標の位置を、指標ごとに算出する。以下、本実施形態に係る指標較正装置及び指標較正方法について説明する。なお、本実施形態では、「対象物体上に装着されている撮像装置と、世界座標系における位置が既知である基準指標」によって、6自由度位置姿勢センサが構成されているものとする。また、その6自由度位置姿勢センサが取り付けられている対象物体は、「撮像装置」自体であるとする。すなわち、本実施形態に係る指標較正装置は、撮像装置に装着した(他の撮像装置によって観測されるための)指標の較正を行うためのものであり、撮像装置の座標系(以下、これを主観視点カメラ座標系と呼ぶ)における夫々の指標の位置を、指標ごとに算出するものといえる。
[First Embodiment]
The index calibration apparatus according to this embodiment is for calibrating an index mounted on a target object, and uses a 6-DOF position and orientation sensor mounted on the target object and an objective viewpoint camera installed at a fixed position. Thus, the position of each index with respect to the target object (that is, in the target object coordinate system) is calculated for each index. Hereinafter, an index calibration device and an index calibration method according to the present embodiment will be described. In the present embodiment, it is assumed that a 6-DOF position / orientation sensor is configured by “an imaging device mounted on a target object and a reference index whose position in the world coordinate system is known”. Further, it is assumed that the target object to which the 6-DOF position / orientation sensor is attached is the “imaging device” itself. That is, the index calibration apparatus according to the present embodiment is for calibrating an index (to be observed by another imaging apparatus) mounted on the imaging apparatus, and the coordinate system of the imaging apparatus (hereinafter referred to as this). It can be said that the position of each index in the subjective viewpoint camera coordinate system is calculated for each index.

図1は、本実施形態に係る指標較正装置100の概略構成を示す図である。図1に示したように、本実施形態に係る指標較正装置100は、主観視点指標検出部110、位置姿勢算出部120、客観視点カメラ140、客観視点指標検出部150、指示部160、データ管理部170、較正情報算出部180によって構成されており、較正対象である指標が装着された撮像装置130に接続されている。   FIG. 1 is a diagram illustrating a schematic configuration of an index calibration apparatus 100 according to the present embodiment. As shown in FIG. 1, the index calibration apparatus 100 according to the present embodiment includes a subjective viewpoint index detection unit 110, a position / orientation calculation unit 120, an objective viewpoint camera 140, an objective viewpoint index detection unit 150, an instruction unit 160, data management. The unit 170 and the calibration information calculation unit 180 are connected to the imaging device 130 to which the index to be calibrated is attached.

なお、撮像装置130上には、較正される対象である指標P(k=1,,,K)(以下、これを客観視点指標と呼ぶ)が1つ以上設定されているものとする。主観視点カメラ座標系(=対象物体座標系:撮像装置130上の1点を原点として定義し、更に互いに直交する3軸を夫々X軸、Y軸、Z軸として定義した座標系)における客観視点指標の位置は未知であり、この未知である客観視点指標の位置が、本実施形態に係る指標較正装置が較正する情報となる。 It should be noted that one or more indices P k (k = 1,, K 2 ) (hereinafter referred to as objective viewpoint indices) to be calibrated are set on the imaging device 130. . Objective viewpoint in the subjective viewpoint camera coordinate system (= target object coordinate system: a coordinate system in which one point on the imaging device 130 is defined as an origin and three axes orthogonal to each other are defined as an X axis, a Y axis, and a Z axis, respectively) The position of the index is unknown, and the position of the unknown objective viewpoint index is information that is calibrated by the index calibration apparatus according to the present embodiment.

現実空間中の複数の位置には、撮像装置130によって撮影するための指標(以下、主観視点指標(基準指標))として、世界座標系(現実空間の1点を原点として定義し、更に互いに直交する3軸を夫々X軸、Y軸、Z軸として定義した座標系)における位置が既知である複数個の主観視点指標Q(k=1,,,K)が配置されている。主観視点指標Qは、指標較正用のデータを取得する時の撮像装置130によって、少なくとも3個以上の指標が観測されるように設置されていることが望ましい。図1の例は、4個の主観視点指標Q,Q,Q,Qが配置されており、そのうちの3個Q,Q,Qが撮像装置130の視野内に含まれている状況を示している。 At a plurality of positions in the real space, the world coordinate system (one point in the real space is defined as the origin as an index for photographing with the imaging device 130 (hereinafter referred to as a subjective viewpoint index (reference index)) and orthogonal to each other. A plurality of subjective viewpoint indices Q k (k = 1,, K 1 ) whose positions in the three axes are defined in the coordinate system defined as the X axis, the Y axis, and the Z axis, respectively, are arranged. It is desirable that the subjective viewpoint index Q k is installed so that at least three or more indices are observed by the imaging device 130 when acquiring the data for index calibration. In the example of FIG. 1, four subjective viewpoint indices Q 1 , Q 2 , Q 3 , and Q 4 are arranged, and three of them, Q 1 , Q 3 , and Q 4, are included in the field of view of the imaging device 130. Shows the situation.

主観視点指標Qは、例えば、それぞれが異なる色を有する円形状のマーカによって構成してもよいし、それぞれが異なるテクスチャ特徴を有する自然特徴等の特徴点によって構成してもよい。また、ある程度の面積を有する四角形領域によって形成されるような四角形指標を用いることも可能である。撮影画像上における投影像の画像座標が検出可能であって、かついずれの指標であるかが識別可能であるような指標であれば、何れの形態であってもよい。 The subjective viewpoint index Q k may be constituted by, for example, circular markers each having a different color, or may be constituted by feature points such as natural features each having a different texture feature. It is also possible to use a square index formed by a square area having a certain area. Any form may be used as long as the image coordinates of the projected image on the photographed image can be detected and the index can be identified.

撮像装置130が出力する画像(以下、これを主観視点画像と呼ぶ)は、主観視点指標検出部110に入力される。   An image output from the imaging device 130 (hereinafter referred to as a subjective viewpoint image) is input to the subjective viewpoint index detection unit 110.

主観視点指標検出部110は、撮像装置130より主観視点画像を入力し、入力した画像中に撮影されている主観視点指標Qの画像座標を検出する。例えば、主観視点指標Qの各々が異なる色を有するマーカによって構成されている場合には、主観視点画像上から各々のマーカ色に対応する領域を検出し、その重心位置を指標の検出座標とする。また、主観視点指標Qの各々が異なるテクスチャ特徴を有する特徴点によって構成されている場合には、既知の情報として予め保持している各々の指標のテンプレート画像によるテンプレートマッチングを主観視点画像上に施すことにより、指標の位置を検出する。基準指標として四角形指標を用いる場合は、画像に2値化処理を施した後にラベリングを行い、一定面積以上の領域の中から4つの直線によって形成されているものを指標候補として検出する。さらに、候補領域の中に特定のパターンがあるか否かを判定することによって誤検出を排除し、また、指標の方向と識別子を取得する。なお、このようにして検出される四角形指標は、本明細では、4つの頂点の個々によって形成される4つの指標であると考える。 Person view marker detecting unit 110 inputs the subjective-view image from the imaging device 130, detects the image coordinates of the subjective-view-indices Q k has been taken in the input image. For example, when each of the subjective viewpoint indices Q k is composed of markers having different colors, an area corresponding to each marker color is detected from the subjective viewpoint image, and the center of gravity position is detected as the detected coordinate of the index. To do. Further, when each of the subjective viewpoint indices Q k is composed of feature points having different texture characteristics, template matching based on the template image of each index held in advance as known information is performed on the subjective viewpoint image. By applying, the position of the index is detected. When a quadratic index is used as the reference index, labeling is performed after binarizing the image, and an area formed by four straight lines is detected as an index candidate from a region having a certain area or more. Further, by detecting whether or not there is a specific pattern in the candidate area, false detection is eliminated, and the direction and identifier of the index are acquired. In the present specification, the quadrangular indices detected in this way are considered to be four indices formed by four vertices.

さらに、主観視点指標検出部110は、検出された各々の主観視点指標Qknの画像座標uQknとその識別子kを位置姿勢算出部120へと出力する。ここで、n(n=1,,,N)は検出された指標夫々に対するインデックスであり、Nは検出された指標の総数を表している。例えば図1の場合には、N=3であり、識別子k=1,k=3,k=4とこれらに対応する画像座標uQk1,uQk2,uQk3が出力される。本実施形態における主観視点指標検出部110は、撮像装置130からの画像の入力をトリガとして上記の指標検出処理を逐次実行しているが、位置姿勢算出部120からの要求に応じて(その時点で入力している主観視点画像を利用して)処理を実行する構成としても良い。 Furthermore, subjective-view-index detection unit 110 outputs the image coordinates u Qkn of the subjective-view-indices Q kn each detected and the identifier k n to the position and orientation calculation unit 120. Here, n (n = 1,..., N) is an index for each detected index, and N represents the total number of detected indices. For example, in the case of FIG. 1, N = 3, identifiers k 1 = 1, k 2 = 3, k 3 = 4 and the corresponding image coordinates u Qk1 , u Qk2 , u Qk3 are output. The subjective viewpoint index detection unit 110 according to the present embodiment sequentially executes the index detection process triggered by the input of an image from the imaging device 130, but in response to a request from the position / orientation calculation unit 120 (at that time) The process may be executed using the subjective viewpoint image input in (1).

位置姿勢算出部120は、検出された各々の主観視点指標Qknの画像座標uQknと、既知な情報として予め保持している指標の世界座標x Qknとの対応関係に基づいて、撮像装置130の位置及び姿勢を算出する。主観視点指標の世界座標と画像座標の組から撮像装置の位置及び姿勢を算出する方法は、写真測量等の分野において古くから提案されている(例えば、非特許文献1、非特許文献2を参照)。例えば、主観視点指標が同一平面上に配置されている場合には、4点以上の指標を検出することで、2次元ホモグラフィの計算に基づいて撮像装置の位置及び姿勢を得ることができる。また、同一平面上にない6点以上の指標を用いて撮像装置の位置と姿勢を用いる方法も良く知られている。また、撮像装置の位置と姿勢の推定値から算出される指標の画像座標の理論値と指標の画像座標の実測値との誤差を、画像ヤコビアンを用いたガウス・ニュートン法のような繰り返し計算によって最小化することにより、位置と姿勢の推定値を最適化する方法などを用いることもできる。算出した撮像装置130の世界座標系における位置及び姿勢は、データ管理部170の要求に従って、データ管理部170へと出力される。なお、本実施形態における位置姿勢算出部120は、主観視点指標検出部110からのデータの入力をトリガとして上記の位置及び姿勢の算出処理を逐次実行しているが、データ管理部170からの要求に応じて(その時点での入力データを利用して)処理を実行する構成としても良い。以下では、撮像装置130の位置及び姿勢は、それぞれ3値ベクトル[x y z]及び[ξ ψ ζ]によって保持されているものとする。姿勢を3値によって表現する方法には様々なものが存在するが、ここでは、ベクトルの大きさによって回転角を、ベクトルの向きによって回転軸方向を定義するような3値のベクトルによって表現されているものとする。このとき、位置及び姿勢は、6次元ベクトル[x y z ξ ψ ζ]で表される。 The position / orientation calculation unit 120 is based on the correspondence relationship between the detected image coordinates u Qkn of each subjective viewpoint index Q kn and the world coordinates x W Qkn of the indices previously stored as known information. 130 positions and orientations are calculated. A method for calculating the position and orientation of an imaging device from a set of world coordinates and image coordinates of a subjective viewpoint index has been proposed for a long time in the field of photogrammetry and the like (for example, see Non-Patent Document 1 and Non-Patent Document 2). ). For example, when the subjective viewpoint indices are arranged on the same plane, the position and orientation of the imaging device can be obtained based on the calculation of two-dimensional homography by detecting four or more indices. In addition, a method of using the position and orientation of an imaging device using six or more indices that are not on the same plane is also well known. In addition, the error between the theoretical value of the index image coordinates calculated from the estimated position and orientation of the imaging device and the actual measurement value of the index image coordinates is calculated by repeated calculation such as the Gauss-Newton method using the image Jacobian. By minimizing, a method for optimizing the estimated values of the position and orientation can be used. The calculated position and orientation of the imaging device 130 in the world coordinate system are output to the data management unit 170 in accordance with a request from the data management unit 170. Note that the position / orientation calculation unit 120 in this embodiment sequentially executes the above-described position and orientation calculation processing triggered by the input of data from the subjective viewpoint index detection unit 110, but the request from the data management unit 170 It is also possible to adopt a configuration in which processing is executed in accordance with (using input data at that time). In the following, it is assumed that the position and orientation of the imaging device 130 are held by ternary vectors [x yz] T and [ξ ψ ζ] T , respectively. There are various methods for expressing the posture by ternary values, but here, the rotation angle is expressed by the magnitude of the vector, and the ternary vector is defined by defining the rotation axis direction by the vector direction. It shall be. At this time, the position and orientation are represented by a 6-dimensional vector [x yz ξ ψ ζ] T.

客観視点カメラ140は、指標較正用のデータ取得を行う時の撮像装置130を撮像可能な位置に固定して配置されている。世界座標系における客観視点カメラ140の位置及び姿勢は、既知の値として較正情報算出部180に予め保持されているものとする。   The objective viewpoint camera 140 is fixedly arranged at a position where the imaging device 130 for acquiring the data for index calibration can be imaged. It is assumed that the position and orientation of the objective viewpoint camera 140 in the world coordinate system are held in advance in the calibration information calculation unit 180 as known values.

客観視点指標検出部150は、客観視点カメラ140が撮影した画像(客観視点画像)を入力し、主観視点指標検出部110と同様な処理によって画像中に撮影されている客観視点指標Pの画像座標を検出し、データ管理部170の要求に従って検出された客観視点指標Pkmの画像座標uPkmとその識別子kをデータ管理部170へと出力する。ここで、m(m=1,,,M)は検出された指標夫々に付けられたインデックスであり、Mは検出された指標の総数を表している。例えば図1の場合には、M=2であり、識別子k=1,k=2とこれらに対応する画像座標uPk1,uPk2が出力される。本実施形態における客観視点指標検出部150は、客観視点画像の入力をトリガとして上記の指標検出処理を逐次実行しているが、データ管理部170からの要求に応じて(その時点で入力している客観視点画像を利用して)処理を実行する構成としても良い。 The objective viewpoint index detection unit 150 inputs an image (objective viewpoint image) captured by the objective viewpoint camera 140, and an image of the objective viewpoint index Pk captured in the image by the same processing as the subjective viewpoint index detection unit 110. detecting the coordinates, and outputs the image coordinates u Pkm of the objective-view-index P miles detected according to the requirements of the data management unit 170 and the identifier k m to the data management unit 170. Here, m (m = 1,..., M) is an index attached to each detected index, and M represents the total number of detected indices. For example, in the case of FIG. 1, M = 2, identifiers k 1 = 1, k 2 = 2 and image coordinates u Pk1 and u Pk2 corresponding to these are output. The objective viewpoint index detection unit 150 in the present embodiment sequentially executes the above-described index detection processing triggered by the input of the objective viewpoint image, but in response to a request from the data management unit 170 (input at that time) The processing may be performed using an objective viewpoint image.

指示部160は、不図示のオペレータからデータ取得コマンドが入力された時には「データ取得」の指示をデータ管理部170に、較正情報算出コマンドが入力されたときには「較正情報算出」の指示を較正情報算出部180に送信する。指示部160へのコマンド入力は、例えばキーボードを用いて、特定のコマンドを割り当てたキーを押すことによって行うことができる。また、コマンドの入力は、ディスプレイ上に表示されたGUIで行うなどの、いずれの方法で行ってもよい。   The instruction unit 160 sends a “data acquisition” instruction to the data management unit 170 when a data acquisition command is input from an operator (not shown) and a “calibration information calculation” instruction when the calibration information calculation command is input. Transmit to the calculation unit 180. The command input to the instruction unit 160 can be performed by pressing a key to which a specific command is assigned, for example, using a keyboard. In addition, the command may be input by any method such as a GUI displayed on the display.

データ管理部170は、指示部160から「データ取得」の指示を受けると、位置姿勢算出部120から撮像装置130の世界座標系における位置及び姿勢を入力し、客観視点指標検出部150から客観視点指標の画像座標とその識別子を入力し、[撮像装置130の位置及び姿勢−客観視点指標の画像座標]の組を、客観視点指標の識別子毎に用意したデータリストに追加しこれを保持する。ここで、位置姿勢算出部120から入力される撮像装置130の位置及び姿勢は、客観視点指標検出部150から入力される客観視点指標の画像座標を検出した画像の撮影時刻と、同一時刻のものである。また、データ管理部170は、較正情報算出部180からの要求にしたがって、生成した客観視点指標の識別子毎のデータリストを較正情報算出部180に出力する。   When receiving the “data acquisition” instruction from the instruction unit 160, the data management unit 170 inputs the position and orientation of the imaging apparatus 130 in the world coordinate system from the position / orientation calculation unit 120, and receives an objective viewpoint from the objective viewpoint index detection unit 150. The image coordinate of the index and its identifier are input, and the set of [position and orientation of the imaging device 130-image coordinate of the objective viewpoint index] is added to the data list prepared for each identifier of the objective viewpoint index and is retained. Here, the position and orientation of the imaging device 130 input from the position / orientation calculation unit 120 are the same time as the image capturing time when the image coordinates of the objective viewpoint index input from the objective viewpoint index detection unit 150 are detected. It is. Further, the data management unit 170 outputs a data list for each identifier of the generated objective viewpoint index to the calibration information calculation unit 180 in accordance with a request from the calibration information calculation unit 180.

較正情報算出部180は、指示部160から「較正情報算出」の指示を受けると、データ管理部170からデータリストを入力し、これをもとに較正処理を行い、その結果として得られた較正情報(すなわち、各客観視点指標の主観視点カメラ座標系における位置)を出力する。   Upon receiving an instruction “calculation information calculation” from the instruction unit 160, the calibration information calculation unit 180 inputs a data list from the data management unit 170, performs a calibration process based on the data list, and obtains the calibration obtained as a result. Information (that is, the position of each objective viewpoint index in the subjective viewpoint camera coordinate system) is output.

図2は、本実施形態の較正装置が較正情報を求める際に行う処理のフローチャートである。なお、同フローチャートに従ったプログラムコードは、本実施形態の装置内の、不図示のRAMやROMなどのメモリ内に格納され、不図示のCPUにより読み出され、実行される。   FIG. 2 is a flowchart of processing performed when the calibration apparatus according to the present embodiment obtains calibration information. The program code according to the flowchart is stored in a memory such as a RAM or a ROM (not shown) in the apparatus according to the present embodiment, and is read and executed by a CPU (not shown).

ステップS2010において、指示部160は、データ取得コマンドがオペレータから入力されたか否かの判定を行う。オペレータは、指標較正用のデータ取得を行う位置に撮像装置130を配置した時に、データ取得コマンドを入力する。指示部160は、データ取得コマンドが入力されている場合には、ステップS2020へと処理を移行させる。   In step S2010, the instruction unit 160 determines whether or not a data acquisition command has been input from the operator. The operator inputs a data acquisition command when the imaging device 130 is placed at a position where data for index calibration is acquired. If the data acquisition command is input, the instruction unit 160 shifts the process to step S2020.

ステップS2020において、データ管理部170は、位置姿勢算出部120から、撮像装置130の世界座標系における位置及び姿勢t=[x y z ξ ψ ζ]を入力する。 In step S2020, the data management unit 170 inputs the position and orientation t = [x yz ξ ψ ζ] T of the imaging device 130 in the world coordinate system from the position / orientation calculation unit 120.

ステップS2030において、データ管理部170は、客観視点指標検出部150から、客観視点指標検出部150によって検出された客観視点指標Pkmの画像座標uPkmとその識別子kを入力する。客観視点指標検出部150は、入力された客観視点画像に対して常に指標の検出処理を行っており、以上のステップS2020,S2030の処理により、撮像装置の位置と姿勢がtであるときの客観視点指標の画像座標を得ることができる。なお、客観視点指標検出部150から入力される情報は、必ずしも全ての客観視点指標に関するものである必要はなく、その時点で客観視点画像上において検出されている指標に関する情報であればよい。 In step S2030, the data management unit 170, the objective-view-index detection unit 150, and inputs the image coordinates u Pkm of the objective-view-index P miles detected by an objective-view-index detection unit 150 and the identifier k m. The objective viewpoint index detection unit 150 always performs index detection processing on the input objective viewpoint image, and objective processing when the position and orientation of the imaging apparatus is t is performed by the processing in steps S2020 and S2030 described above. The image coordinates of the viewpoint index can be obtained. Note that the information input from the objective viewpoint index detection unit 150 is not necessarily related to all objective viewpoint indices, and may be information regarding the index detected on the objective viewpoint image at that time.

次に、ステップS2040において、データ管理部170は、検出された客観視点指標Pkm毎に、入力したデータの組をデータリストLPkに追加する。具体的には、位置姿勢算出部120から入力するtをt=[x ξ ψ ζとし、客観視点指標検出部150から入力するuPkmをu Pkとして、[t,u Pk]の組を、客観視点指標検出部150から入力する識別子kを参照することで振り分けながら、Pに関するi番目のデータとして客観視点指標Pに関するデータリストLPkに登録する。ここでi(i=1,,,IPk)は、データリストLPkに登録したデータの組夫々に対するインデックスであり、IPkは、客観視点指標Pに関して登録したデータの総組数を表している。 Next, in step S2040, the data management unit 170 adds the input data set to the data list L Pk for each detected objective viewpoint index P km . Specifically, t input from the position / orientation calculation unit 120 is set as t i = [x i y i z i ξ i ψ i ζ i ] T, and u Pkm input from the objective viewpoint index detection unit 150 is u i Pk. as, [t i, u i Pk] a set of an objective-view-index while sorting by referring to the identifiers k m input from the detection unit 150, a data list related to the objective-view-index P k as i-th data about P k Register with LPk . Here, i (i = 1,..., I Pk ) is an index for each set of data registered in the data list L Pk , and I Pk represents the total number of sets of data registered for the objective viewpoint index P k. ing.

以上の処理によって、データの取得が行われる。   Data is acquired by the above processing.

ステップS2050では、データ管理部170によって、それまでに取得された、全ての客観視点指標に関するデータリスト、もしくは、少なくとも1つの客観視点指標に関するデータリストが、較正情報を算出するに足るだけの情報を有しているかどうかの判定が行われる。少なくとも1つのデータリスト、もしくは、全てのデータリストが条件を満たしていない場合には、再びステップS2010へと戻り、データ取得コマンドの入力を待つ。一方、全てのデータリスト、もしくは、少なくとも1つのデータリストが較正情報算出の条件を満たしている場合には、ステップS2060へと処理を移行させる。ある客観視点指標Pに関するデータリストが較正情報を算出するに足るだけの情報を有す条件としては、例えば、データリストLPkが異なるデータ[t,u Pk]を2組以上得ていること、が挙げられる。後述するように、1組のデータから2つの方程式が得られるため(式3参照)、2組以上のデータを得ていれば、4つの方程式から3パラメータである客観視点指標の主観視点カメラ座標系における位置を決定することができる。ただし、入力データの多様性が増すほどに導出される較正情報の精度は向上するので、より多くのデータを要求するように条件を設定してもよい。 In step S2050, the data list related to all objective viewpoint indexes or the data list related to at least one objective viewpoint index acquired so far by the data management unit 170 is sufficient to calculate calibration information. A determination is made as to whether it has. If at least one data list or all data lists do not satisfy the condition, the process returns to step S2010 and waits for the input of a data acquisition command. On the other hand, if all the data lists or at least one data list satisfies the condition for calculating the calibration information, the process proceeds to step S2060. As a condition that the data list related to a certain objective viewpoint index P k has enough information to calculate calibration information, for example, two or more sets of data [t i , u i Pk ] having different data lists L Pk are obtained. It can be mentioned. As will be described later, two equations are obtained from one set of data (see Equation 3). If two or more sets of data are obtained, the subjective viewpoint camera coordinates of the objective viewpoint index, which is three parameters from the four equations, are obtained. The position in the system can be determined. However, since the accuracy of the calibration information derived as the diversity of input data increases, the condition may be set so as to request more data.

次にステップS2060において、較正情報算出コマンドがオペレータから入力されたか否かの判定を行う。較正情報算出コマンドが入力されている場合には、ステップS2070へと処理を移行し、入力されていない場合には、再びステップS2010へと戻り、データ取得コマンドの入力を待つ。   In step S2060, it is determined whether a calibration information calculation command has been input from the operator. If the calibration information calculation command has been input, the process proceeds to step S2070. If not input, the process returns to step S2010 and waits for the input of the data acquisition command.

較正情報算出部180は、求めるべき較正情報、すなわち客観視点指標の主観視点カメラ座標系における位置を3値ベクトル[x y z]として扱う。以下では、この未知パラメータを状態ベクトルsPk=[xPkPkPkと記述する。以下、ある客観視点指標Pに対する処理を想定して説明を続けるが、各処理は較正情報算出の条件を満たしたデータリストに対応する全ての客観視点指標に対して共通に行われるものとする。 The calibration information calculation unit 180 handles the calibration information to be obtained, that is, the position of the objective viewpoint index in the subjective viewpoint camera coordinate system as a ternary vector [x y z] T. Hereinafter, this unknown parameter is described as a state vector s Pk = [x Pky y Pk z Pk ] T. Hereinafter, the description will be continued assuming a process for a certain objective viewpoint index Pk, but each process is performed in common for all objective viewpoint indices corresponding to the data list that satisfies the conditions for calculating the calibration information. .

ステップS2070において、較正情報算出部180は、状態ベクトルsPkに適当な初期値(例えば[0 0 0])を与える。 In step S2070, the calibration information calculation unit 180 gives an appropriate initial value (for example, [0 0 0] T ) to the state vector s Pk .

ステップS2080において、較正情報算出部180は、データリストLPk中の各データ[t,u Pk](i=1,2,,,,IPk)および状態ベクトルsPkから、全てのiに対して、客観視点指標Pの客観視点画像座標の理論値u Pk'=[uxi Pk',uyi Pk']を算出する。ここで客観視点指標の客観視点画像座標の理論値とは、主観視点カメラ座標系における位置が与えられている客観視点指標Pの、客観視点画像中に見えるべき位置(座標)のデータを指す。u Pk'の算出は、客観視点指標Pの主観視点カメラ座標系における位置を表す状態ベクトルsPkの関数 In step S2080, the calibration information calculation unit 180 calculates all i from the data [t i , u i Pk ] (i = 1, 2,..., I Pk ) and the state vector s Pk in the data list L Pk. against an objective-view-index P k of the objective viewpoint image coordinates of theory u i Pk '= [u xi Pk', u yi Pk '] is calculated. Here, the theoretical value of the objective viewpoint image coordinates of the objective viewpoint index refers to data of the position (coordinates) that should be visible in the objective viewpoint image of the objective viewpoint index P k given the position in the subjective viewpoint camera coordinate system. . The calculation of u i Pk ′ is a function of the state vector s Pk representing the position of the objective viewpoint index P k in the subjective viewpoint camera coordinate system.

Figure 0004533193
Figure 0004533193

に基づいて行われる。 Based on.

具体的には、関数F()は、i番目のデータを取得した時の(すなわち、撮像装置130の位置と姿勢がtである時の)客観視点指標Pの客観視点カメラ座標における位置ベクトルb Pkを、sPkから求める次式、 Specifically, the function F i () is obtained from the objective viewpoint camera coordinates of the objective viewpoint index P k when the i-th data is acquired (that is, when the position and orientation of the imaging device 130 are t i ). The following equation for obtaining the position vector b i Pk from s Pk :

Figure 0004533193
Figure 0004533193

及び、b Pkから客観視点指標Pの客観視点画像上の座標u Pk'を求める次式、 And, following expression from b i Pk obtaining an objective-view-index P k coordinates u i Pk on objective viewpoint images'

Figure 0004533193
Figure 0004533193

によって構成されている。ここでf 及びf は、それぞれx軸方向及びy軸方向における客観視点カメラ140の焦点距離であり、既知の値として予め保持されているものとする。また、MWBは客観視点カメラ座標系における座標を世界座標に変換する変換行列であり、既知の値として予め保持されている世界座標系における客観視点カメラ140の位置及び姿勢に基づいて、予め算出されているものとする。MWCiはtによって定まるモデリング変換行列(主観視点カメラ座標系における座標を世界座標系における座標に変換する行列)であり、次式によって定義される。 It is constituted by. Here, f B x and f B y are focal lengths of the objective viewpoint camera 140 in the x-axis direction and the y-axis direction, respectively, and are held in advance as known values. MWB is a transformation matrix for converting coordinates in the objective viewpoint camera coordinate system into world coordinates, and is calculated in advance based on the position and orientation of the objective viewpoint camera 140 in the world coordinate system that is held in advance as a known value. It is assumed that M WCi is a modeling conversion matrix (matrix for converting coordinates in the subjective viewpoint camera coordinate system to coordinates in the world coordinate system) determined by t i , and is defined by the following equation.

Figure 0004533193
Figure 0004533193

ただし、   However,

Figure 0004533193
である。
Figure 0004533193
It is.

ステップS2090において、較正情報算出部180は、全てのiに対して、データリストLPk中の各データに含まれる客観視点指標Pの実際の画像座標u Pkと、それに対応する画像座標の理論値u Pk'との誤差△u Pkを次式によって算出する。 In step S2090, the calibration information calculating unit 180, for all i, the actual image coordinates u i Pk objective-view-index P k included in each data in the data list L Pk, the image coordinates of the corresponding an error △ u i Pk of the theoretical value u i Pk 'is calculated by the following equation.

Figure 0004533193
Figure 0004533193

ステップS2100において、較正情報算出部180は、全てのiに対して、状態ベクトルsPkに関する画像ヤコビアン(すなわち、式1の関数F()を状態ベクトルsPkの各要素で偏微分した解を各要素に持つ2行×3列のヤコビ行列)Juis Pk(=∂u Pk/∂sPk)を算出する。具体的には、式3の右辺を客観視点カメラ座標系上の位置ベクトルb Pkの各要素で偏微分した解を各要素に持つ2行×3列のヤコビ行列Juibi Pk(=∂u Pk/∂b Pk)と、式2の右辺を状態ベクトルsPkの各要素で偏微分した解を各要素に持つ3行×3列のヤコビ行列Jbis Pk(=∂b Pk/∂sPk)を算出し、次式によってJuis Pkを算出する。 In step S2100, the calibration information calculating unit 180, for all i, the image Jacobian about the state vector s Pk (i.e., solutions obtained by partially differentiating the function of Equation 1 F i () for each element of the state vector s Pk Jacobian matrix of 2 rows × 3 columns having, in each element) J uis Pk (= ∂u i Pk / ∂s Pk) is calculated. Specifically, a 2 × 3 Jacobian matrix J ubi Pk (= ( u) having a solution obtained by partial differentiation of the right side of Equation 3 with each element of the position vector b i Pk on the objective viewpoint camera coordinate system. i Pk / ∂b i Pk ) and a 3 × 3 Jacobian matrix J bis Pk (= ∂b i Pk /) having a solution obtained by partial differentiation of the right side of Equation 2 with each element of the state vector s Pk. ∂s Pk), and calculates the J uis Pk by the following equation.

Figure 0004533193
Figure 0004533193

ステップS2110において、較正情報算出部180は、以上のステップで算出した、全てのiに対する誤差△u Pk及びヤコビ行列Juis Pkに基づいて、sPkの補正値△sPkを算出する。具体的には、全てのiに対する誤差△u Pkを垂直に並べた2IPk次元ベクトルの誤差ベクトル In step S2110, the calibration information calculating unit 180 is calculated in the above step, based on the error △ u i Pk and the Jacobian matrix J uis Pk for all i, and calculates the correction value △ s Pk of s Pk. Specifically, an error vector of a 2I Pk dimensional vector in which errors Δu i Pk for all i are arranged vertically

Figure 0004533193
Figure 0004533193

及びヤコビ行列Juis Pkを垂直に並べた2IPk行×3列の行列 And a Jacobian matrix Juis Pk vertically arranged in 2I Pk rows × 3 columns matrix

Figure 0004533193
Figure 0004533193

を作成し、Φの擬似逆行列Φを用いて、△sPkを次式より算出する。 And Δs Pk is calculated from the following equation using the pseudo inverse matrix Φ + of Φ.

Figure 0004533193
Figure 0004533193

ここで、△sPkは3次元ベクトルであるから、2IPkが3以上、すなわちIPkが2以上であれば、△sPkを求めることができる。なおΦは、例えばΦ=(ΦΦ)−1Φによって求めることができるが、他の方法によって求めてもよい。 Here, since Δs Pk is a three-dimensional vector, if 2I Pk is 3 or more, that is, I Pk is 2 or more, Δs Pk can be obtained. Note that Φ + can be determined by, for example, Φ + = (Φ T Φ) −1 Φ T , but may be determined by other methods.

ステップS2120において、較正情報算出部180は、ステップS2110において算出した補正値△sPkを用いて、式11に従って客観視点指標Pの主観視点カメラ座標系における位置ベクトルsPkを補正し、得られた値を新たなsPkとする。 In step S2120, the calibration information calculation unit 180 uses the correction value Δs Pk calculated in step S2110 to correct the position vector s Pk in the subjective viewpoint camera coordinate system of the objective viewpoint index P k according to Equation 11 to obtain The new value is set as a new sPk .

Figure 0004533193
Figure 0004533193

ステップS2130において、較正情報算出部180は、誤差ベクトルUが予め定めた閾値より小さいかどうか、あるいは、補正値△sPkが予め定めた閾値より小さいかどうかといった何らかの判断基準を用いて、計算が収束しているか否かの判定を行う。収束していない場合には、補正後の状態ベクトルsPkを用いて、再度ステップS2080以降の処理を行う。 In step S2130, the calibration information calculation unit 180 uses some criteria such as whether the error vector U is smaller than a predetermined threshold or whether the correction value Δs Pk is smaller than a predetermined threshold. It is determined whether or not it has converged. If not converged, the processing after step S2080 is performed again using the corrected state vector s Pk .

ステップS2130において計算が収束したと判定されると、ステップS2140において、較正情報算出部180は、得られた状態ベクトルsPkを、客観視点指標Pの主観視点カメラ座標系における位置を示すパラメータとして出力する。 The calculation is determined to have converged in step S2130, in step S2140, the calibration information calculating unit 180, the state vector s Pk obtained, as a parameter indicating the position in the subjective-view camera coordinate system of the objective-view-index P k Output.

最後にステップS2150では、較正処理を終了するか否かの判定が行われる。オペレータが、指標較正装置100に対して、較正処理の終了を指示した場合には、処理を終了させ、較正処理の継続(再較正)を指示した場合には、再びステップS2010へと戻り、データ取得コマンドの入力を待つ。   Finally, in step S2150, it is determined whether or not to end the calibration process. When the operator instructs the index calibration apparatus 100 to end the calibration process, the process is terminated. When the operator instructs the continuation (recalibration) of the calibration process, the process returns to step S2010 again, and the data Wait for input of get command.

以上の処理によって、対象物体(撮像装置)に装着した指標の対象物体に対する(すなわち、対象物体座標系における)位置を、簡便かつ正確に取得することができる。   With the above processing, the position of the index attached to the target object (imaging device) with respect to the target object (that is, in the target object coordinate system) can be acquired easily and accurately.

<変形例1−1>
なお、本実施形態においては、状態ベクトルの補正値の算出に式10で表現されるニュートン法を用いているが、補正値の算出は必ずしもニュートン法によって行わなくてもよい。例えば公知の非線形方程式の反復解法であるLM法(Levenberg−Marquardt法)を用いて求めてもよいし、公知のロバスト推定手法であるM推定等の統計的手法を組み合わせてもよいし、他の何れの数値計算手法を適用しても本発明の本質が損なわれないことは言うまでもない。また、本実施形態では、ステップS2070からステップS2130までの処理において、求めるべき指標の位置に初期値を与え、画像ヤコビアンを利用した繰り返し演算によって最適値を求めたが、より簡便な計算方法によって指標の位置を求めることも可能である。例えば、式3を展開すると、
<Modification 1-1>
In the present embodiment, the Newton method expressed by Equation 10 is used to calculate the correction value of the state vector. However, the correction value need not necessarily be calculated by the Newton method. For example, the LM method (Levenberg-Marquardt method) which is an iterative solution of a known nonlinear equation may be used, or a statistical method such as M estimation which is a known robust estimation method may be combined. Needless to say, the essence of the present invention is not impaired by any numerical calculation method. In this embodiment, in the processing from step S2070 to step S2130, an initial value is given to the position of the index to be obtained, and the optimum value is obtained by iterative calculation using the image Jacobian. However, the index is calculated by a simpler calculation method. It is also possible to obtain the position of. For example, if Equation 3 is expanded,

Figure 0004533193
Figure 0004533193

Figure 0004533193
Figure 0004533193

の関係が得られる。この関係を利用すると、 The relationship is obtained. Using this relationship,

Figure 0004533193
Figure 0004533193

のようにして、sを直接得ることができる。ここで、 Thus, s can be obtained directly. here,

Figure 0004533193
Figure 0004533193

を表している。 Represents.

<変形例1−2>
また、本実施形態では、6自由度位置姿勢センサとして、「対象物体上に装着されている撮像装置と、世界座標系における位置が既知である基準指標」を組み合わせたものを用いたが、世界座標系における対象物体の位置と姿勢が計測可能であれば、それ以外方法によって6自由度位置姿勢センサを構成してもよい。例えば、磁気センサのような6自由度位置姿勢センサや、ジャイロセンサのような3自由度姿勢センサを撮像装置130に取り付け、撮像装置130の撮影画像から検出された各々の主観視点指標Qknの画像座標uQknと、既知な情報として予め保持している指標の世界座標x Qknとの対応関係、ならびに、撮像値130に取り付けたセンサの計測値、の両方に基づいたハイブリッドな方法で、撮像装置130の位置及び姿勢を算出しても良い(具体的な算出方法は、例えば〔非特許文献3〕、〔非特許文献4〕を参照)。
<Modification 1-2>
In the present embodiment, a combination of “an imaging device mounted on a target object and a reference index whose position in the world coordinate system is known” is used as a 6-DOF position and orientation sensor. If the position and orientation of the target object in the coordinate system can be measured, the 6-DOF position and orientation sensor may be configured by other methods. For example, a six-degree-of-freedom position and orientation sensor such as a magnetic sensor or a three-degree-of-freedom posture sensor such as a gyro sensor is attached to the imaging device 130, and each subjective viewpoint index Q kn detected from a captured image of the imaging device 130 is detected. In a hybrid method based on both the correspondence between the image coordinates u Qkn and the world coordinates x W Qkn of the index held in advance as known information, and the measured value of the sensor attached to the imaging value 130, The position and orientation of the imaging device 130 may be calculated (refer to, for example, [Non-Patent Document 3] and [Non-Patent Document 4] for specific calculation methods).

<変形例1−3>
本実施形態では、対象物体が撮像装置の場合であったので、世界座標系における対象物体の位置と姿勢の計測に、対象物体自身が撮影する映像情報を利用することができた。対象物体が任意の物体である場合には、その位置と姿勢の計測に、磁気センサのような6自由度位置姿勢センサを用いることができる。その場合の構成を図5に示す。
<Modification 1-3>
In the present embodiment, since the target object is an imaging device, video information captured by the target object itself can be used to measure the position and orientation of the target object in the world coordinate system. When the target object is an arbitrary object, a 6-DOF position and orientation sensor such as a magnetic sensor can be used to measure the position and orientation. The configuration in that case is shown in FIG.

図5に示した本実施形態の変形例に係る指標較正装置500は、任意の対象物体510に装着した指標の較正を行うためのものであり、対象物体510に装着した6自由度位置姿勢センサ520と、固定位置に設置した客観視点カメラ140を利用して、対象物体510に対する(すなわち、対象物体座標系における)夫々の指標の位置を、指標ごとに算出する。6自由度位置姿勢センサ520としては、磁気式の位置姿勢センサ(米Polhemus社のFASTRAKや米Ascension Tech.社のFlock of Birds)や超音波センサなどを用いることが可能であるし、他の何れの6自由度位置姿勢センサを用いてもよい。指標較正装置500は、図1における主観視点指標検出部110及び位置姿勢算出部120に代替する構成要素として、位置姿勢算出部530を有している。位置姿勢算出部530は、6自由度位置姿勢センサ520より位置姿勢計測値(センサ座標系におけるセンサ自身の位置及び姿勢)を入力し、その位置姿勢計測値から、既知の較正情報を用いて世界座標系における対象物体510の位置及び姿勢を算出し、データ管理部170の要求に従って、これをデータ管理部170へと出力する。それ以外の部分に関しては、指標較正装置100とまったく同様である。   An index calibration apparatus 500 according to a modification of the present embodiment shown in FIG. 5 is for calibrating an index mounted on an arbitrary target object 510, and is a 6-DOF position / orientation sensor mounted on the target object 510. The position of each index with respect to the target object 510 (that is, in the target object coordinate system) is calculated for each index using 520 and the objective viewpoint camera 140 installed at a fixed position. As the six-degree-of-freedom position / orientation sensor 520, a magnetic position / orientation sensor (FASTRAK of Polhemus, USA, Flock of Birds, USA) can be used, or an ultrasonic sensor can be used. A 6-DOF position / orientation sensor may be used. The index calibration apparatus 500 includes a position / orientation calculation unit 530 as a component that replaces the subjective viewpoint index detection unit 110 and the position / orientation calculation unit 120 in FIG. The position / orientation calculation unit 530 inputs a position / orientation measurement value (the position and orientation of the sensor itself in the sensor coordinate system) from the six-degree-of-freedom position / orientation sensor 520, and uses the known calibration information from the position / orientation measurement value. The position and orientation of the target object 510 in the coordinate system are calculated and output to the data management unit 170 in accordance with a request from the data management unit 170. The other parts are exactly the same as those of the index calibration apparatus 100.

<変形例1−4>
なお、本実施形態において、対象物体を撮影するカメラとして固定位置に設置した客観視点カメラを用いていたが、世界座標系におけるカメラの位置及び姿勢が計測可能であれば客観視点カメラを固定しなくてもよい。
<Modification 1-4>
In this embodiment, an objective viewpoint camera installed at a fixed position is used as a camera for photographing the target object. However, if the position and orientation of the camera in the world coordinate system can be measured, the objective viewpoint camera is not fixed. May be.

例えば、磁気センサ(米Polhemus社のFASTRAKや米Ascension Tech.社のFlock of Birds)や、光学式センサ(加NDI社のOptotrakや英VICON社のVICON)、超音波センサといった6自由度位置姿勢センサを客観視点カメラに取り付けて、画像撮影時に客観視点カメラの世界座標系に対する位置姿勢をセンサ計測値から得てもよい。また、客観視点カメラによって撮影される主観視点指標Qknの画像座標uQknと予め既知な情報として保持されている指標の世界座標XwQknから客観視点カメラの位置姿勢を求めてもよい。また、客観視点カメラに前述の6自由度位置姿勢センサや3自由度姿勢センサを取り付け、客観視点画像とセンサの計測値の両方に基づいたハイブッドな手法(〔非特許文献3〕〔非特許文献4〕)によって客観視点カメラの位置姿勢を求めてもよい。 For example, a 6 DOF position and orientation sensor such as a magnetic sensor (Folstrak from Polhemus, USA, Flock of Birds from Ascension Tech.), An optical sensor (Optontrak from Canada, VICON from UK VICON), or an ultrasonic sensor. May be attached to the objective viewpoint camera, and the position and orientation of the objective viewpoint camera with respect to the world coordinate system may be obtained from the sensor measurement values at the time of image capturing. Further, the position and orientation of the objective viewpoint camera may be obtained from the image coordinates u Qkn of the subjective viewpoint index Q kn photographed by the objective viewpoint camera and the world coordinates Xw Qkn of the index previously held as known information. In addition, the above-described 6-DOF position and orientation sensor and 3-DOF orientation sensor are attached to the objective viewpoint camera, and a hybrid method based on both the objective viewpoint image and the measured value of the sensor ([Non-patent Document 3] [Non-patent Document] 4]), the position and orientation of the objective viewpoint camera may be obtained.

この場合、上記のような手段によって計測された客観視点カメラの位置姿勢は、ステップS2020において撮像装置130の位置姿勢と同時に取得され、ステップS2040においてデータリストに保存される。そして、ステップ2080において、式2におけるMWB(世界座標系における客観視点カメラの位置姿勢を表している)として、既知の値として予め保持されている固定値ではなく、データリスト中に保持されている位置姿勢計測値に基づいて算出した値を使用すればよい。 In this case, the position and orientation of the objective viewpoint camera measured by the above-described means are acquired simultaneously with the position and orientation of the imaging device 130 in step S2020, and stored in the data list in step S2040. In step 2080, M WB in Expression 2 (representing the position and orientation of the objective viewpoint camera in the world coordinate system) is stored in the data list, not a fixed value previously stored as a known value. A value calculated based on the measured position and orientation values may be used.

[第2の実施形態]
本実施形態に係る指標較正装置は、対象物体に装着した複数の指標が指標座標系を有しており、指標座標系における各指標の座標が既知である場合において、対象物体に装着した指標の較正を行うためのものであり、対象物体に装着した6自由度位置姿勢センサと、固定位置に設置した客観視点カメラを利用して、対象物体に対する(すなわち、対象物体座標系における)指標座標系の位置と姿勢、あるいは、対象物体に対する各指標の位置を算出する。以下、本実施形態に係る指標較正装置及び指標較正方法について説明する。なお、本実施形態においても、第1の実施形態と同様に、「対象物体上に装着されている撮像装置と、世界座標系における位置が既知である基準指標」によって、6自由度位置姿勢センサが構成されているものとする。また、その6自由度位置姿勢センサが取り付けられている対象物体は、「撮像装置」自体であるとする。
[Second Embodiment]
In the index calibration device according to the present embodiment, when a plurality of indices attached to the target object has an index coordinate system, and the coordinates of each index in the index coordinate system are known, the indices attached to the target object An index coordinate system for the target object (that is, in the target object coordinate system) that uses a 6-DOF position and orientation sensor attached to the target object and an objective viewpoint camera installed at a fixed position. And the position of each index with respect to the target object. Hereinafter, an index calibration device and an index calibration method according to the present embodiment will be described. In this embodiment as well, as in the first embodiment, a 6-DOF position / orientation sensor based on “an imaging device mounted on a target object and a reference index whose position in the world coordinate system is known”. Is configured. Further, it is assumed that the target object to which the 6-DOF position / orientation sensor is attached is the “imaging device” itself.

図3は、本実施形態に係る指標較正装置の概略構成を示す図である。図1と同じ部分については同じ番号、記号を付けており、その詳細な説明は省略する。図3に示したように、本実施形態に係る指標較正装置300は、主観視点指標検出部110、位置姿勢算出部120、客観視点カメラ140、客観視点指標検出部150、指示部160、データ管理部370、較正情報算出部380によって構成されており、較正対象である指標が装着された撮像装置130に接続されている。   FIG. 3 is a diagram illustrating a schematic configuration of the index calibration apparatus according to the present embodiment. The same parts as those in FIG. 1 are given the same numbers and symbols, and detailed description thereof will be omitted. As shown in FIG. 3, the index calibration apparatus 300 according to the present embodiment includes a subjective viewpoint index detection unit 110, a position / orientation calculation unit 120, an objective viewpoint camera 140, an objective viewpoint index detection unit 150, an instruction unit 160, data management. The unit 370 and the calibration information calculation unit 380 are connected to the imaging device 130 on which an index to be calibrated is attached.

なお、撮像装置130上の複数の位置には、較正される対象である客観視点指標P(k=1,,,K)が設定されているものとする。主観視点カメラ座標系(=対象物体座標系)上における各指標の位置は未知であるが、夫々の相対的な位置関係は既知であるとする。例えば、4点の客観視点指標P(k=1,2,3,4)の集合が、サイズが既知な1つの四角形指標Rを形成する場合が相当する。図3は、その状況を示している。この時、四角形指標R上のある1点を原点として定義し、更に互いに直交する3軸を夫々X軸、Y軸、Z軸として定義した座標系を指標座標系と呼ぶと、指標座標系における各客観視点指標Pの座標は既知である。よって、主観視点カメラ座標系における指標座標系の位置及び姿勢(=指標座標系における座標を主観視点カメラ座標に変換する変換行列)が判明すれば、未知である客観視点指標Pの主観視点カメラ座標系における位置を算出することができる。このことより、本実施形態に係る指標較正装置が較正する情報は、主観視点カメラ座標系における指標座標系の位置及び姿勢であるとする。 It is assumed that objective viewpoint indices P k (k = 1,..., K 2 ) that are objects to be calibrated are set at a plurality of positions on the imaging device 130. It is assumed that the position of each index on the subjective viewpoint camera coordinate system (= target object coordinate system) is unknown, but the relative positional relationship of each index is known. For example, a case where a set of four objective viewpoint indices P k (k = 1, 2, 3, 4) forms one square index R 1 having a known size is equivalent. FIG. 3 shows the situation. At this time, one point on the square indices R 1 is defined as an origin, further triaxial respective X-axis orthogonal to each other, Y-axis and a coordinate system that is defined as Z-axis called an index coordinate system, index coordinate system The coordinates of each objective viewpoint index P k in are known. Therefore, if the position and orientation of the index coordinate system in the subjective viewpoint camera coordinate system (= conversion matrix for converting the coordinates in the index coordinate system to the subjective viewpoint camera coordinates) is found, the subjective viewpoint camera of the unknown objective viewpoint index P k is known. The position in the coordinate system can be calculated. From this, it is assumed that the information calibrated by the index calibration device according to the present embodiment is the position and orientation of the index coordinate system in the subjective viewpoint camera coordinate system.

現実空間中の複数の位置には、第1の実施形態と同様に、撮像装置130によって撮影するための指標として、世界座標系における位置が既知である主観視点指標Qが設定されている。 The plurality of positions in real space, as in the first embodiment, as an index for taking by the imaging apparatus 130, the position is the subjective-view-indices Q k is known is set in the world coordinate system.

主観視点指標検出部110は、第1の実施形態と同様に、撮像装置130が撮影した主観視点画像を入力し、画像中に撮影されている主観視点指標Qの画像座標を検出し、検出された主観視点指標Qknの画像座標uQknとその識別子kを位置姿勢算出部120へと出力する。 Person view marker detecting unit 110, like the first embodiment, enter the subjective-view image capturing apparatus 130 is captured, it detects the image coordinates of the subjective-view-indices Q k has been taken in an image, detected image coordinates u Qkn of the subjective-view-indices Q kn to output the identifier k n to the position and orientation calculation unit 120.

位置姿勢算出部120は、第1の実施形態と同様に、検出された各々の主観視点指標Qknの画像座標uQknと、既知な情報として予め保持している指標の世界座標x Qknとの対応関係に基づいて、撮像装置130の位置及び姿勢を算出する。算出した撮像装置130の世界座標系における位置及び姿勢は、データ管理部370の要求に従って、データ管理部370へと出力される。 Similar to the first embodiment, the position / orientation calculation unit 120 includes the detected image coordinates u Qkn of each subjective viewpoint index Q kn , and the world coordinates x W Qkn of the indices previously stored as known information. The position and orientation of the imaging device 130 are calculated based on the corresponding relationship. The calculated position and orientation of the imaging device 130 in the world coordinate system are output to the data management unit 370 in accordance with a request from the data management unit 370.

客観視点カメラ140は、第1の実施形態と同様に、指標較正用のデータ取得を行う時の撮像装置130を撮像可能な位置に固定して配置されている。世界座標系における客観視点カメラ140の位置及び姿勢は、既知の値として較正情報算出部380に予め保持されているものとする。   Similar to the first embodiment, the objective viewpoint camera 140 is fixedly disposed at a position where the image capturing apparatus 130 when capturing the data for index calibration can be imaged. It is assumed that the position and orientation of the objective viewpoint camera 140 in the world coordinate system are held in advance in the calibration information calculation unit 380 as known values.

客観視点指標検出部150は、第1の実施形態と同様に、客観視点カメラ140が撮影した客観視点画像を入力し、主観視点指標検出部110と同様な処理によって画像中に撮影されている客観視点指標Pの画像座標を検出し、データ管理部370の要求に従って検出された客観視点指標Pkmの画像座標uPkmとその識別子kをデータ管理部370へと出力する。ただし、図3の例では、指標として四角形指標を用いているので、第1の実施形態で述べた四角形指標の検出処理が実行される。 The objective viewpoint index detection unit 150 receives the objective viewpoint image captured by the objective viewpoint camera 140, as in the first embodiment, and is objectively captured in the image by the same processing as the subjective viewpoint index detection unit 110. detecting the image coordinates of the viewpoint index P k, and outputs the image coordinates u Pkm of the objective-view-index P miles detected according to the requirements of the data management unit 370 and the identifier k m to the data management unit 370. However, in the example of FIG. 3, since the square index is used as the index, the detection process of the square index described in the first embodiment is executed.

指示部160は、第1の実施形態と同様に、不図示のオペレータからデータ取得コマンドが入力された時には「データ取得」の指示をデータ管理部370に、較正情報算出コマンドが入力されたときには「較正情報算出」の指示を較正情報算出部380に送信する。   In the same way as in the first embodiment, the instruction unit 160 gives a “data acquisition” instruction to the data management unit 370 when a data acquisition command is input from an operator (not shown), and “ An instruction “calibration information calculation” is transmitted to the calibration information calculation unit 380.

データ管理部370は、指示部160から「データ取得」の指示を受けると、位置姿勢算出部120から撮像装置130の世界座標系における位置及び姿勢を入力し、客観視点指標検出部150から客観視点指標の画像座標とその識別子を入力し、[撮像装置130の位置及び姿勢−客観視点指標の画像座標−客観視点指標の識別子]の組を、一つのデータリストに追加しこれを保持する。ここで、位置姿勢算出部120から入力される撮像装置130の位置及び姿勢は、客観視点指標検出部150から入力される客観視点指標の画像座標を検出した画像の撮影時刻と、同一時刻のものである。また、データ管理部370は、較正情報算出部380からの要求にしたがって、生成したデータリストを較正情報算出部380に出力する。   Upon receiving the “data acquisition” instruction from the instruction unit 160, the data management unit 370 inputs the position and orientation in the world coordinate system of the imaging device 130 from the position / orientation calculation unit 120, and receives an objective viewpoint from the objective viewpoint index detection unit 150. The image coordinate of the index and its identifier are input, and a set of [position and orientation of the imaging device 130 -image coordinate of the objective viewpoint index -identifier of the objective viewpoint index] is added to one data list and held. Here, the position and orientation of the imaging device 130 input from the position / orientation calculation unit 120 are the same time as the image capturing time when the image coordinates of the objective viewpoint index input from the objective viewpoint index detection unit 150 are detected. It is. In addition, the data management unit 370 outputs the generated data list to the calibration information calculation unit 380 in accordance with a request from the calibration information calculation unit 380.

較正情報算出部380は、指示部160から「較正情報算出」の指示を受けると、データ管理部370からデータリストを入力し、これをもとに較正処理を行い、その結果として得られた較正情報(すなわち、主観視点カメラ座標系における指標座標系の位置と姿勢)を出力する。   When the calibration information calculation unit 380 receives an instruction of “calibration information calculation” from the instruction unit 160, the calibration information calculation unit 380 inputs a data list from the data management unit 370, performs a calibration process based on the data list, and obtains the calibration obtained as a result. Information (that is, the position and orientation of the index coordinate system in the subjective viewpoint camera coordinate system) is output.

図4は、本実施形態の較正装置が較正情報を求める際に行う処理のフローチャートである。図2と同じ部分については同じ番号、記号を付けており、その詳細な説明は省略する。なお、同フローチャートに従ったプログラムコードは、本実施形態の装置内の、不図示のRAMやROMなどのメモリ内に格納され、不図示のCPUにより読み出され、実行される。   FIG. 4 is a flowchart of processing performed when the calibration apparatus according to the present embodiment obtains calibration information. The same parts as those in FIG. 2 are given the same numbers and symbols, and detailed description thereof is omitted. The program code according to the flowchart is stored in a memory such as a RAM or a ROM (not shown) in the apparatus according to the present embodiment, and is read and executed by a CPU (not shown).

ステップS2010からステップS2030までは、第1の実施形態と同様の処理を行う。ステップS2030を終えると、ステップS4040へと処理を移行する。   From step S2010 to step S2030, processing similar to that of the first embodiment is performed. When step S2030 is completed, the process proceeds to step S4040.

次に、ステップS4040において、データ管理部370は、検出された客観視点指標Pkm全てについて、入力したデータの組をデータリストLにデータDとして追加する。具体的には、位置姿勢算出部120から入力するtをt=[x ξ ψ ζとし、客観視点指標検出部150から入力する識別子kをkとし、同じく客観視点指標検出部150から入力するuPkmをu Pkjとして、D=[t,u Pkj,k]の組を、j番目のデータとしてデータリストLに登録する。ここでj(j=1,,,NPk)は、データリストLに登録したデータの組夫々に対するインデックスであり、NPkは、登録したデータの総組数を表している。 Next, in step S4040, the data management unit 370 adds the input data set as data D j to the data list L for all the detected objective viewpoint indices P km . Specifically, the t input from the position and orientation calculation unit 120 t j = [x j y j z j ξ j ψ j ζ j] is T, the identifier k m input from the objective-view-index detection unit 0.99 k j Similarly, u Pkm inputted from the objective viewpoint index detection unit 150 is set as u j Pkj , and a set of D j = [t j , u j Pkj , k j ] is registered in the data list L as the j-th data. Here, j (j = 1,..., N Pk ) is an index for each data set registered in the data list L, and N Pk represents the total number of registered data sets.

以上の処理によって、データの取得が行われる。   Data is acquired by the above processing.

ステップS4050では、データ管理部370によって、それまでに取得されたデータリストが、較正情報を算出するに足るだけの情報を有しているかどうかの判定が行われる。条件を満たしていない場合には、再びステップS2010へと戻り、データ取得コマンドの入力を待つ。一方、データリストが較正情報算出の条件を満たしている場合には、ステップS2060へと処理を移行させる。データリストが較正情報を算出するに足るだけの情報を有す条件としては、例えば、少なくとも異なる3つ以上の客観視点指標Pに関するデータが、データリストLに含まれていること、が挙げられる。ただし、入力データの多様性が増すほどに導出される較正情報の精度は向上するので、より多くのデータを要求するように条件を設定してもよい。 In step S4050, the data management unit 370 determines whether the data list acquired so far has enough information to calculate calibration information. If the condition is not satisfied, the process returns to step S2010 again and waits for the input of a data acquisition command. On the other hand, if the data list satisfies the conditions for calculating calibration information, the process proceeds to step S2060. The condition that the data list has sufficient information to calculate the calibration information includes, for example, that the data list L includes data relating to at least three different objective viewpoint indices P k. . However, since the accuracy of the calibration information derived as the diversity of input data increases, the condition may be set so as to request more data.

次にステップS2060において、較正情報算出コマンドがオペレータから入力されたか否かの判定を行う。較正情報算出コマンドが入力されている場合には、ステップS4070へと処理を移行し、入力されていない場合には、再びステップS2010へと戻り、データ取得コマンドの入力を待つ。   In step S2060, it is determined whether a calibration information calculation command has been input from the operator. If the calibration information calculation command has been input, the process proceeds to step S4070. If not input, the process returns to step S2010 and waits for the input of the data acquisition command.

較正情報算出部380は、求めるべき較正情報、すなわち指標系座標の主観視点カメラ座標系における位置及び姿勢を6値ベクトル[x y z ξ ψ ζ]として扱う。以下では、この未知パラメータを状態ベクトルs=[x y z ξ ψ ζ]と記述する。 The calibration information calculation unit 380 handles the calibration information to be obtained, that is, the position and orientation of the index system coordinates in the subjective viewpoint camera coordinate system as a 6-value vector [x yz ξ ψ ζ] T. Hereinafter, this unknown parameter is described as a state vector s = [x yz ξ ψ ζ] T.

ステップS4070において、較正情報算出部380は、状態ベクトルsに適当な初期値を与える。初期値としては、オペレータが指示部160を介しておおよその値を手入力しても良いし、ある同一時刻に入力された(すなわち、同一の客観視点画像から検出された)複数の客観視点指標の検出座標をリストLから抽出し、このデータを用いて、客観視点座標系における指標座標系の同時刻における位置と姿勢を公知の方法によって算出し、得られた位置と姿勢から指標座標系における座標を客観視点カメラ座標系に変換する変換行列MBMを求め、さらに、リストL中に保持されている、同時刻において入力された撮像装置の位置と姿勢tに基づいて、数式4によって定まる変換行列MWCを求め、次式によって、主観視点カメラ座標系における指標系座標の位置及び姿勢を表す変換行列MCMを得て、この行列によって表される位置と姿勢をsの初期値として利用しても良い。 In step S4070, the calibration information calculation unit 380 gives an appropriate initial value to the state vector s. As an initial value, an operator may manually input an approximate value via the instruction unit 160, or a plurality of objective viewpoint indices input at a certain same time (that is, detected from the same objective viewpoint image). Are extracted from the list L, and using this data, the position and orientation of the index coordinate system in the objective viewpoint coordinate system at the same time are calculated by a known method, and the obtained position and orientation are used in the index coordinate system. A transformation matrix M BM for transforming the coordinates into the objective viewpoint camera coordinate system is obtained, and further, a transformation determined by Equation 4 based on the position and orientation t of the imaging device input at the same time held in the list L calculated matrix M WC, by the following equation, to obtain a transformation matrix M CM representing the position and orientation of the index-based coordinates in the subjective-view camera coordinate system, the position represented by this matrix Attitude may be used as the initial value of s a.

Figure 0004533193
Figure 0004533193

ここで、MWBは、客観視点カメラ座標系における座標を世界座標に変換する変換行列であり、既知の値として予め保持されている世界座標系における客観視点カメラ140の位置及び姿勢に基づいて、予め算出されているものとする。 Here, MWB is a transformation matrix that converts coordinates in the objective viewpoint camera coordinate system into world coordinates, and is based on the position and orientation of the objective viewpoint camera 140 in the world coordinate system that is held in advance as a known value. It is assumed that it has been calculated in advance.

なお、客観視点座標系における指標座標系の位置と姿勢を算出する公知の手法としては、例えば、指標が同一平面上に配置されている場合には、4点以上の指標を用いて2次元ホモグラフィの計算に基づいて指標座標系の位置と姿勢を得る手法を用いることが可能である。また、同一平面上にない6点以上の指標を用いる手法や、これらの解を初期値にして、ガウス・ニュートン法のような繰り返し計算によって最適解を得る手法を用いることもできる。   As a known method for calculating the position and orientation of the index coordinate system in the objective viewpoint coordinate system, for example, when the indices are arranged on the same plane, two-dimensional homology is used by using four or more indices. It is possible to use a technique for obtaining the position and orientation of the index coordinate system based on the calculation of the graphic. It is also possible to use a technique that uses six or more indices that are not on the same plane, or a technique that uses these solutions as initial values and obtains an optimal solution by iterative calculations such as the Gauss-Newton method.

ステップS4080において、較正情報算出部380は、データリストL中の各データD=[t,u Pkj,k](j=1,2,,,,NPk)および状態ベクトルsから、全てのjに対して、各客観視点指標Pkjの客観視点画像座標の理論値u Pkj'=[uxj Pkj',uyj Pkj']を算出する。ここで客観視点指標の客観視点画像座標の理論値とは、指標座標系における位置ベクトルh Pkjが既知な客観視点指標Pkjの、主観視点カメラ座標系における指標座標系の位置及び姿勢がsである時に客観視点画像中に見えるべき位置(座標)のデータを指す。u Pkj'の算出は、指標座標系の主観視点カメラ座標系における位置を表す状態ベクトルsの関数 In step S4080, the calibration information calculation unit 380 determines from the data D j = [t j , u j Pkj , k j ] (j = 1, 2, ... , N Pk ) and the state vector s in the data list L. The theoretical value u j Pkj ′ = [u xj Pkj ′, u yj Pkj ′] of the objective viewpoint image coordinates of each objective viewpoint index P kj is calculated for all j. Here, the theoretical value of the objective viewpoint image coordinate of the objective viewpoint index is the position and orientation of the index coordinate system in the subjective viewpoint camera coordinate system of the objective viewpoint index P kj whose position vector h M Pkj in the index coordinate system is known s Is the data of the position (coordinates) that should be visible in the objective viewpoint image. The calculation of u j Pkj ′ is a function of the state vector s representing the position of the index coordinate system in the subjective viewpoint camera coordinate system.

Figure 0004533193
Figure 0004533193

に基づいて行われる。 Based on.

具体的には、関数F()は、j番目のデータを取得した時の(すなわち、撮像装置130の位置と姿勢がtである時の)客観視点指標Pkjの客観視点カメラ座標における位置ベクトルb Pkjを、sから求める次式、 Specifically, the function F j () is obtained from the objective viewpoint camera coordinates of the objective viewpoint index P kj when the j-th data is acquired (that is, when the position and orientation of the imaging device 130 are t j ). A position vector b j Pkj is obtained from s as follows:

Figure 0004533193
Figure 0004533193

及び、b Pkjから客観視点指標Pkjの客観視点画像上の座標u Pkj'を求める次式、 And the following equation for obtaining the coordinates u j Pkj ′ on the objective viewpoint image of the objective viewpoint index P kj from b j Pkj :

Figure 0004533193
Figure 0004533193

によって構成されている。ここでf 及びf は、それぞれx軸方向及びy軸方向における客観視点カメラ140の焦点距離であり、既知の値として予め保持されているものとする。また、MWCjはtによって定まるモデリング変換行列であり、式4のiをjに読み替えた式によって定義される。また、MCM(s)はsによって定まるモデリング変換行列(指標座標系における座標を主観視点カメラ座標系における座標に変換する行列)であり、次式によって定義される。 It is constituted by. Here, f B x and f B y are focal lengths of the objective viewpoint camera 140 in the x-axis direction and the y-axis direction, respectively, and are held in advance as known values. M WCj is a modeling transformation matrix determined by t j and is defined by an expression in which i in Expression 4 is replaced with j. M CM (s) is a modeling conversion matrix (matrix for converting coordinates in the index coordinate system to coordinates in the subjective viewpoint camera coordinate system) determined by s, and is defined by the following equation.

Figure 0004533193
Figure 0004533193

ただし、   However,

Figure 0004533193
Figure 0004533193

である。 It is.

ステップS4090において、較正情報算出部380は、全てのjに対して、データリストL中の各データに含まれる客観視点指標Pkjの実際の画像座標u Pkjと、それに対応する画像座標の理論値u Pkj'との誤差△u Pkjを次式によって算出する。 In step S4090, the calibration information calculation unit 380 calculates the actual image coordinates u j Pkj of the objective viewpoint index P kj included in each data in the data list L and the corresponding image coordinate theory for all j. error △ u j PKJ the value u j PKJ 'is calculated by the following equation.

Figure 0004533193
Figure 0004533193

ステップS4100において、較正情報算出部380は、全てのjに対して、状態ベクトルsに関する画像ヤコビアン(すなわち、式17の関数F()を状態ベクトルsの各要素で偏微分した解を各要素に持つ2行×6列のヤコビ行列)Juj Pkj (=∂u Pkj/∂s)を算出する。具体的には、式19の右辺を客観視点カメラ座標系上の位置ベクトルb Pkjの各要素で偏微分した解を各要素に持つ2行×3列のヤコビ行列Jujbj Pkj(=∂u Pkj/∂b Pkj)と、数18の右辺を状態ベクトルsの各要素で偏微分した解を各要素に持つ3行×6列のヤコビ行列Jbj Pkj (=∂b Pkj/∂s)を算出し、次式によってJuj Pkj を算出する。 In step S4100, the calibration information calculation unit 380 performs, for each j, a solution obtained by partially differentiating the image Jacobian relating to the state vector s (that is, the function F j () of Expression 17 by each element of the state vector s). 2 rows × 6 columns Jacobian matrix) J uj Pkj s (= ∂u j Pkj / ∂s). Specifically, a 2 × 3 Jacobian matrix J ujbj Pkj (= ( u ) having a solution obtained by partial differentiation of the right side of Expression 19 with each element of the position vector b j Pkj on the objective viewpoint camera coordinate system. j Pkj / ∂b j Pkj ) and a 3 × 6 Jacobian matrix J bj Pkj s (= ∂b j Pkj /) having a solution obtained by partial differentiation of the right side of Equation 18 with each element of the state vector s. ∂s) is calculated, and J uj Pkj s is calculated by the following equation.

Figure 0004533193
Figure 0004533193

ステップS4110において、較正情報算出部380は、以上のステップで算出した、全てのjに対する誤差△u Pkj及びヤコビ行列Juj Pkj に基づいて、sの補正値△sを算出する。具体的には、全てのjに対する誤差△u Pkjを垂直に並べた2J次元ベクトルの誤差ベクトル In step S4110, the calibration information calculation unit 380 calculates the correction value Δs of s based on the error Δu j Pkj and the Jacobian matrix J uj Pkj s for all j calculated in the above steps. Specifically, an error vector of a 2J-dimensional vector in which errors Δu j Pkj for all j are arranged vertically

Figure 0004533193
Figure 0004533193

及びヤコビ行列Juj Pkj を垂直に並べた2J行×6列の行列 And Jacobi matrix J uj Pkj s vertically arranged in 2J rows × 6 columns matrix

Figure 0004533193
Figure 0004533193

を作成し、Φの擬似逆行列Φを用いて、△sを次式より算出する。 And Δs is calculated from the following equation using the pseudo inverse matrix Φ + of Φ.

Figure 0004533193
Figure 0004533193

ここで、△sは6次元ベクトルであるから、2Jが6以上、すなわちJが3以上であれば、△sを求めることができる。なおΦは、例えばΦ=(ΦΦ)−1Φによって求めることができるが、他の方法によって求めてもよい。 Here, since Δs is a six-dimensional vector, Δs can be obtained when 2J is 6 or more, that is, J is 3 or more. Note that Φ + can be determined by, for example, Φ + = (Φ T Φ) −1 Φ T , but may be determined by other methods.

ステップS4120において、較正情報算出部380は、ステップS4110において算出した補正値△sを用いて、式27に従って指標系座標の主観視点カメラ座標系における位置及び姿勢を表す状態ベクトルsを補正し、得られた値を新たなsとする。   In step S4120, the calibration information calculation unit 380 uses the correction value Δs calculated in step S4110 to correct the state vector s representing the position and orientation of the index system coordinates in the subjective viewpoint camera coordinate system according to Equation 27, and obtain Let the obtained value be a new s.

Figure 0004533193
Figure 0004533193

ステップS4130において、較正情報算出部380は、誤差ベクトルUが予め定めた閾値より小さいかどうか、あるいは、補正値△sが予め定めた閾値より小さいかどうかといった何らかの判断基準を用いて、計算が収束しているか否かの判定を行う。収束していない場合には、補正後の状態ベクトルsを用いて、再度ステップS4080以降の処理を行う。   In step S4130, calibration information calculation section 380 converges the calculation using some criterion such as whether error vector U is smaller than a predetermined threshold or whether correction value Δs is smaller than a predetermined threshold. It is determined whether or not. If not converged, the processing after step S4080 is performed again using the corrected state vector s.

ステップS4130において計算が収束したと判定されると、ステップS4140において、較正情報算出部380は、得られた状態ベクトルsを、較正情報、すなわち、主観視点カメラ座標系における指標座標系の位置及び姿勢として出力する。この時の出力の形態は、sそのものであっても良いし、sの位置成分を3値のベクトルで表し、姿勢成分をオイラー角や3×3の回転行列で表したものであっても良いし、sから生成した座標変換行列MCMであっても良い。 If it is determined in step S4130 that the calculation has converged, in step S4140, the calibration information calculation unit 380 uses the obtained state vector s as calibration information, that is, the position and orientation of the index coordinate system in the subjective viewpoint camera coordinate system. Output as. The form of output at this time may be s itself, or the position component of s may be represented by a ternary vector, and the posture component may be represented by an Euler angle or a 3 × 3 rotation matrix. then, it may be a coordinate transformation matrix M CM generated from s.

最後にステップS2150では、較正処理を終了するか否かの判定が行われる。オペレータが、指標較正装置300に対して、較正処理の終了を指示した場合には、処理を終了させ、較正処理の継続(再較正)を指示した場合には、再びステップS2010へと戻り、データ取得コマンドの入力を待つ。   Finally, in step S2150, it is determined whether or not to end the calibration process. When the operator instructs the index calibration device 300 to end the calibration process, the process is ended. When the operator instructs the continuation of calibration process (recalibration), the process returns to step S2010 again, and the data Wait for input of get command.

以上の処理によって、対象物体(撮像装置)に装着した指標の対象物体に対する(すなわち、対象物体座標系における)位置または位置及び姿勢を、簡便かつ正確に取得することができる。   With the above processing, the position or position and orientation of the index attached to the target object (imaging device) with respect to the target object (that is, in the target object coordinate system) can be acquired easily and accurately.

<変形例2−1>
なお、本実施形態においては、較正情報として、主観視点カメラ座標系における指標座標系の位置及び姿勢を出力していたが、得られた状態ベクトルsから、主観視点カメラ座標系における客観視点指標Pの位置を個々に算出して、これらを較正情報として出力しても良い。この場合、主観視点カメラ座標系における客観視点指標Pの位置は、sから求められる座標変換行列MCMと、指標座標系における客観視点指標Pの既知の位置h Pkとの積によって得ることができる。
<Modification 2-1>
In this embodiment, the position and orientation of the index coordinate system in the subjective viewpoint camera coordinate system are output as the calibration information, but the objective viewpoint index P in the subjective viewpoint camera coordinate system is obtained from the obtained state vector s. The positions of k may be calculated individually and output as calibration information. In this case, the position of the objective viewpoint index P k in the subjective viewpoint camera coordinate system is obtained by the product of the coordinate transformation matrix M CM obtained from s and the known position h M Pk of the objective viewpoint index P k in the index coordinate system. be able to.

<変形例2−2>
また、本実施形態では、6自由度位置姿勢センサとして、「対象物体上に装着されている撮像装置と、世界座標系における位置が既知である基準指標」を組み合わせたものを用いたが、世界座標系における対象物体の位置と姿勢が計測可能であれば、それ以外の方法によって6自由度位置姿勢センサを構成してもよい。例えば、第1の実施例と同様に、磁気センサのような6自由度位置姿勢センサや、ジャイロセンサのような3自由度姿勢センサを撮像装置130に取り付け、撮像装置130の撮影画像から検出された各々の主観視点指標Qknの画像座標uQknと、既知な情報として予め保持している指標の世界座標x Qknとの対応関係、ならびに、撮像値130に取り付けたセンサの計測値、の両方に基づいたハイブリッドな方法で、撮像装置130の位置及び姿勢を算出しても良い(具体的な算出方法は、例えば非特許文献3、非特許文献4を参照)。
<Modification 2-2>
In the present embodiment, a combination of “an imaging device mounted on a target object and a reference index whose position in the world coordinate system is known” is used as a 6-DOF position and orientation sensor. If the position and orientation of the target object in the coordinate system can be measured, the 6-DOF position and orientation sensor may be configured by other methods. For example, as in the first embodiment, a six-degree-of-freedom position and orientation sensor such as a magnetic sensor and a three-degree-of-freedom posture sensor such as a gyro sensor are attached to the imaging device 130 and detected from the captured image of the imaging device 130. Further , the correspondence between the image coordinates u Qkn of each subjective viewpoint index Q kn and the world coordinates x W Qkn of the index held in advance as known information, and the measured value of the sensor attached to the imaging value 130 The position and orientation of the imaging device 130 may be calculated by a hybrid method based on both (see, for example, Non-Patent Document 3 and Non-Patent Document 4 for specific calculation methods).

<変形例2−3>
なお、本実施形態においては、状態ベクトルの補正値の算出に式26で表現される最急降下法を用いているが、補正値の算出は必ずしも最急降下法によって行わなくてもよい。例えば公知の非線形方程式の反復解法であるLM法(Levenberg−Marquardt法)を用いて求めてもよいし、公知のロバスト推定手法であるM推定等の統計的手法を組み合わせてもよいし、他の何れの数値計算手法を適用しても本発明の本質が損なわれないことは言うまでもない。また、本実施形態においては、主観視点カメラ座標系における指標座標系の位置及び姿勢sに適当な初期値を与え、画像ヤコビアンを用いた繰り返し計算によって、全入力データに対するsの最適値を求める方法について説明したが、他の簡易的な算出方法を用いることでも、主観視点カメラ座標系における指標座標系の位置及び姿勢を得ることができる。例えば、ステップS4070の説明で述べたような処理手順によって、1枚の客観視点画像上における複数の客観視点指標の検出座標のみを用いて、主観視点カメラ座標系における指標系座標の位置及び姿勢を得て、これを較正情報として出力してもよい。
<Modification 2-3>
In the present embodiment, the steepest descent method expressed by Expression 26 is used to calculate the correction value of the state vector. However, the correction value need not necessarily be calculated by the steepest descent method. For example, the LM method (Levenberg-Marquardt method) which is an iterative solution of a known nonlinear equation may be used, or a statistical method such as M estimation which is a known robust estimation method may be combined. Needless to say, the essence of the present invention is not impaired by any numerical calculation method. Further, in the present embodiment, a method for obtaining an optimal value of s for all input data by giving appropriate initial values to the position and orientation s of the index coordinate system in the subjective viewpoint camera coordinate system, and by iterative calculation using the image Jacobian. However, the position and orientation of the index coordinate system in the subjective viewpoint camera coordinate system can also be obtained by using another simple calculation method. For example, the position and orientation of the index system coordinates in the subjective viewpoint camera coordinate system are determined by using only the detection coordinates of a plurality of objective viewpoint indices on one objective viewpoint image by the processing procedure described in the description of step S4070. It may be obtained and output as calibration information.

<変形例2−4>
なお、本実施形態においては、客観視点指標として四角形指標を用いていたが、指標座標系における各指標の位置が既知である指標群であれば、指標の種類は何れのものでもよい。例えば、第一の実施形態で用いたような複数の円形状指標の組であってもよいし、複数種の指標が混在していてもよい。また、複数の指標座標系を有する場合であっても、個々の指標座標系毎に上記の処理を個別に行うか、或いは、個々の指標座標系毎に上記の処理を並列的に行うことで、同様に較正することが可能である。
<Modification 2-4>
In the present embodiment, a square index is used as the objective viewpoint index, but any index type may be used as long as the index group has a known position of each index in the index coordinate system. For example, it may be a set of a plurality of circular indicators as used in the first embodiment, or a plurality of types of indicators may be mixed. Further, even when a plurality of index coordinate systems are provided, the above processing is performed individually for each index coordinate system, or the above processing is performed in parallel for each index coordinate system. Can be calibrated as well.

<変形例2−5>
本実施形態では、対象物体が撮像装置の場合であったので、世界座標系における対象物体の位置と姿勢の計測に、対象物体自身が撮影する映像情報を利用することができた。対象物体が任意の物体である場合には、その位置と姿勢の計測に、磁気センサのような6自由度位置姿勢センサを用いることができる。その場合の構成は、図5に示した第1の実施形態の<変形例1−3>と同様である。6自由度位置姿勢センサとしては、磁気式の位置姿勢センサ(米Polhemus社のFASTRAKや米Ascension Tech.社のFlock of Birds)や光学式センサ(加NDI社のOptotrakや英VICON社のVICON)、超音波センサなどを用いることが可能であるし、他の何れの6自由度位置姿勢センサを用いてもよい。
<Modification 2-5>
In the present embodiment, since the target object is an imaging device, video information captured by the target object itself can be used to measure the position and orientation of the target object in the world coordinate system. When the target object is an arbitrary object, a 6-DOF position and orientation sensor such as a magnetic sensor can be used to measure the position and orientation. The configuration in that case is the same as <Modification 1-3> of the first embodiment shown in FIG. As a six-degree-of-freedom position and orientation sensor, a magnetic position and orientation sensor (Folstral of Polhemus, USA, Flock of Birds of Ascension Tech.) And an optical sensor (Optontrak of Canada, VICON of UK VICON), An ultrasonic sensor or the like can be used, and any other 6-degree-of-freedom position / orientation sensor may be used.

<変形例2−6>
なお、本実施形態において、対象物体を撮影するカメラとして固定位置に設置した客観視点カメラを用いていたが、第1の実施形態の<変形例1−4>と同様に、世界座標系におけるカメラの位置及び姿勢が計測可能であれば客観視点カメラを固定しなくてもよい。
<Modification 2-6>
In this embodiment, an objective viewpoint camera installed at a fixed position is used as a camera for photographing a target object. However, as in <Modification 1-4> of the first embodiment, a camera in the world coordinate system is used. If the position and orientation of the camera can be measured, the objective viewpoint camera need not be fixed.

この場合、計測された客観視点カメラの位置姿勢は、ステップS2020において撮像装置130の位置姿勢と同時に取得され、ステップS4040においてデータリストに保存される。そして、ステップ4080において、式18におけるMWB(世界座標系における客観視点カメラの位置姿勢を表している)として、既知の値として予め保持されている固定値ではなく、データリスト中に保持されている位置姿勢計測値に基づいて算出した値を使用すればよい。 In this case, the measured position and orientation of the objective viewpoint camera are acquired at the same time as the position and orientation of the imaging device 130 in step S2020, and stored in the data list in step S4040. In step 4080, M WB in Expression 18 (representing the position and orientation of the objective viewpoint camera in the world coordinate system) is stored in the data list, not a fixed value previously stored as a known value. A value calculated based on the measured position and orientation values may be used.

[第3の実施形態]
本実施形態に係る指標較正装置では、対象物体に装着した複数の指標の較正を、6自由度位置姿勢センサを有する移動可能な撮像装置で対象物体を撮影することにより行う。第1または第2の実施形態では、指標の位置または位置姿勢のみを未知パラメータとして取り扱っていたが、本実施形態では指標の位置又は位置姿勢だけでなく物体に対するカメラの位置姿勢も未知パラメータとして取り扱う。以下、本実施形態に係る指標較正装置及び指標較正方法について説明する。
[Third Embodiment]
In the index calibration apparatus according to the present embodiment, calibration of a plurality of indices mounted on a target object is performed by photographing the target object with a movable imaging apparatus having a 6-DOF position and orientation sensor. In the first or second embodiment, only the position or position and orientation of the index are handled as unknown parameters, but in this embodiment, not only the position or position and orientation of the index but also the position and orientation of the camera relative to the object are handled as unknown parameters. . Hereinafter, an index calibration device and an index calibration method according to the present embodiment will be described.

本実施形態の指標はは、同一直線上にない3個以上の点群から構成される。指標を構成する複数の点の相対位置は既知、つまり各指標において規定される指標座標系における指標を構成する各点の位置は既知であるとする。本実施形態では、前述の指標が物体上に複数配置されている場合に、各指標に規定される指標座標系の、物体を基準とした(つまり物体座標系に対する)位置姿勢を較正情報として求める。   The index of the present embodiment is composed of three or more point groups that are not on the same straight line. Assume that the relative positions of a plurality of points constituting the index are known, that is, the positions of the points constituting the index in the index coordinate system defined by each index are known. In the present embodiment, when a plurality of the above-described indices are arranged on the object, the position and orientation of the index coordinate system defined by each index with respect to the object (that is, with respect to the object coordinate system) is obtained as calibration information. .

図6は、本実施形態に係る指標較正装置1100の概略構成を示す図である。図6に示すように、本実施形態に係る指標較正装置1100は、指標検出部1020、位置姿勢算出部1030、撮像部1010、指示部1050、データ管理部1040、較正情報算出部1060によって構成されており、指標が装着された物体1000に接続されている。   FIG. 6 is a diagram showing a schematic configuration of an index calibration apparatus 1100 according to this embodiment. As shown in FIG. 6, the index calibration apparatus 1100 according to the present embodiment includes an index detection unit 1020, a position / orientation calculation unit 1030, an imaging unit 1010, an instruction unit 1050, a data management unit 1040, and a calibration information calculation unit 1060. And connected to the object 1000 on which the index is mounted.

また、物体1000には6自由度位置姿勢センサA2が装着されており、世界座標系に対する物体の位置姿勢を計測することが可能になっている。6自由度位置姿勢センサA2は位置姿勢算出部1030に接続されている。また、撮像部1010には6自由度位置姿勢センサA1が装着されており、撮像部を構成するカメラの世界座標系に対する位置姿勢を計測することが可能になっている。6自由度位置姿勢センサA1は位置姿勢算出部1030に接続されている。   The object 1000 is equipped with a 6-DOF position / orientation sensor A2, and can measure the position and orientation of the object with respect to the world coordinate system. The 6-DOF position and orientation sensor A2 is connected to the position and orientation calculation unit 1030. The imaging unit 1010 is equipped with a 6-degree-of-freedom position / orientation sensor A1, and can measure the position and orientation of the camera constituting the imaging unit with respect to the world coordinate system. The 6-DOF position and orientation sensor A1 is connected to the position and orientation calculation unit 1030.

なお、物体1000上には、前述の定義に基づく指標が複数配置されている。ここで、物体に配置された指標をP(k=1,,,K)で表す。但し、Kは物体上に配置された較正対象となる指標の数である。また、指標Pは点pki((k=1,,,K)、(i=1,,,N))により構成される。但し、Nは、指標Pを構成する点の総数を表す。 On the object 1000, a plurality of indices based on the above definition are arranged. Here, the index arranged on the object is represented by P k (k = 1,, K o ). Here, Ko is the number of indices to be calibrated arranged on the object. The index P k is composed of points p ki ((k = 1,, K o ), (i = 1,, N k )). Here, N k represents the total number of points constituting the index P k .

前述したように、物体上に配置された指標は、夫々を構成する点の指標座標系における位置は既知であるが、物体座標系(物体上の一点を原点として定義し、互いに直交する3軸を夫々X軸、Y軸、Z軸として定義した座標系)における位置姿勢は未知である。なお、物体上には、物体座標系を規定するための基準指標として、同一直線上にない物体座標系における位置が既知な指標が3点以上配置されている。すべての基準指標は、指標較正用のデータを取得する撮像部1010によって他の較正対象のマーカと同一画像内で観測される必要がある。また、指標Pは、撮影画像上における投影像の画面座標が検出可能であって、かついずれの指標であるか、さらには指標を構成する各点が識別可能であるような指標であれば、何れの形態であってもよい。 As described above, the indices arranged on the object have known positions in the index coordinate system of the points constituting each of the indices, but the object coordinate system (one axis on the object is defined as an origin and three axes orthogonal to each other is defined. In the coordinate system defined as X axis, Y axis and Z axis, respectively, is unknown. On the object, as a reference index for defining the object coordinate system, three or more indices whose positions in the object coordinate system which are not on the same straight line are known are arranged. All the reference indices need to be observed in the same image as other calibration target markers by the imaging unit 1010 that acquires index calibration data. In addition, the index P k is an index that can detect the screen coordinates of the projected image on the captured image, and is an index that can identify each point that constitutes the index. Any form may be adopted.

撮像部1010は、物体上に配置された指標を様々な位置や方向から撮影する。撮影された画像は、指標検出部1020に入力される。   The imaging unit 1010 captures an index placed on the object from various positions and directions. The captured image is input to the index detection unit 1020.

指標検出部1020は、撮像部1010より画像を入力し、入力した画像中に撮影されている指標Pを構成する各点の画像座標を検出する。 The index detection unit 1020 receives an image from the imaging unit 1010, and detects image coordinates of each point constituting the index Pk photographed in the input image.

さらに、指標検出部1020は、検出された各々の指標Pknを構成する点pkniの画像座標uPkniとその識別子kをデータ管理部1040へと出力する。ここで、n(n=1,,,M)は検出された指標夫々に対するインデックスであり、Mは検出された指標の総数を表している。例えば図6の場合は、識別子が1、2,3である四角形形状の指標が撮影される場合を示しており、M=3であり、識別子k=1、k=2、k=3とこれらに対応する画像座標uPk1i、uPk2i、uPk3i、(i=1、2、3、4)が出力される。 Furthermore, the index detector 1020 outputs the image coordinates u Pkni of p kni points constituting the index P kn each detected and the identifier k n to the data management unit 1040. Here, n (n = 1,..., M) is an index for each detected index, and M represents the total number of detected indices. For example, the case of FIG. 6 shows a case where a square-shaped index having identifiers 1, 2, and 3 is captured, M = 3, identifiers k 1 = 1, k 2 = 2 and k 3 = 3 and corresponding image coordinates u Pk1i , u Pk2i , u Pk3i , (i = 1, 2, 3, 4) are output.

位置姿勢算出部1030は、カメラに装着された6自由度位置姿勢センサA1と、物体に装着された6自由度位置姿勢センサA2から得られるカメラと物体の世界座標系における位置姿勢から、物体座標系におけるカメラの位置姿勢を算出する。この物体座標系におけるカメラの位置姿勢を、データ管理部1040の要求に従って、データ管理部1040へ出力する。   The position / orientation calculation unit 1030 calculates the object coordinates from the position / orientation in the world coordinate system of the camera and the object obtained from the 6-DOF position / orientation sensor A1 attached to the camera and the 6-DOF position / orientation sensor A2 attached to the object. Calculate the position and orientation of the camera in the system. The position and orientation of the camera in the object coordinate system are output to the data management unit 1040 in accordance with a request from the data management unit 1040.

また、位置姿勢算出部1030は、物体座標系におけるカメラの位置及び姿勢を、夫々3値ベクトル[x y z]及び[ξ ψ ζ]によって内部的に表現している。姿勢を3値によって表現する方法には様々なものが存在するが、ここでは、ベクトルの大きさによって回転角を、ベクトルの向きによって回転軸方向を定義するような3値のベクトルによって表現されているものとする。このとき、位置及び姿勢は夫々、6次元ベクトル[x y z ξ ψ ζ]で表される。 In addition, the position / orientation calculation unit 1030 internally represents the position and orientation of the camera in the object coordinate system by a ternary vector [x y z] T and [ξ ψ ζ] T , respectively. There are various methods for expressing the posture by ternary values, but here, the rotation angle is expressed by the magnitude of the vector, and the ternary vector is defined by defining the rotation axis direction by the vector direction. It shall be. At this time, the position and orientation are each represented by a 6-dimensional vector [x y z ξ ψ ζ] T.

指示部1050は、不図示のオペレータからデータ取得コマンドが入力されたとき時には「データ取得」の指示をデータ管理部1040に、較正情報算出コマンドが入力されたときには「較正情報算出」の指示を較正情報算出部1060に送信する。   The instruction unit 1050 calibrates a “data acquisition” instruction to the data management unit 1040 when a data acquisition command is input from an operator (not shown), and a “calibration information calculation” instruction when a calibration information calculation command is input. It transmits to the information calculation part 1060.

データ管理部1040は、指示部1050から「データ取得」の指示を受けると、位置姿勢算出部1030から物体座標系におけるカメラの位置と姿勢を入力し、指標検出部1020から指標の画像座標とその識別子を入力し、[カメラの物体座標系での位置姿勢−指標の画像座標−指標の識別子]の組を一つのデータリストに追加しこれを保持する。ここで、位置姿勢算出部から入力されるカメラの物体座標系での位置姿勢は、指標検出部1020から入力される指標の画像座標を検出した画像の撮影時刻と同一時刻のものである。また、データ管理部1040は、較正情報算出部1060からの要求に従って、生成したデータリストを較正情報算出部1060に出力する。   Upon receiving the “data acquisition” instruction from the instruction unit 1050, the data management unit 1040 inputs the position and orientation of the camera in the object coordinate system from the position / orientation calculation unit 1030, and the index image coordinates and the image coordinates thereof from the index detection unit 1020. An identifier is input, and a pair of [position and orientation in the object coordinate system of the camera−index image coordinate−index identifier] is added to one data list and held. Here, the position and orientation of the camera in the object coordinate system input from the position and orientation calculation unit is the same time as the image capturing time when the image coordinates of the index input from the index detection unit 1020 are detected. Further, the data management unit 1040 outputs the generated data list to the calibration information calculation unit 1060 in accordance with a request from the calibration information calculation unit 1060.

較正情報算出部1060は、指示部1050から「較正情報算出」の指示を受け取ると、データ管理部1040からデータリストを入力し、これをもとに較正処理を行い、その結果として得られた較正情報(すなわち、物体座標系における指標座標の位置と姿勢)を出力する。   When the calibration information calculation unit 1060 receives an instruction “calculation information calculation” from the instruction unit 1050, the calibration information calculation unit 1060 inputs a data list from the data management unit 1040, performs a calibration process based on the data list, and obtains a calibration obtained as a result. Information (that is, the position and orientation of the index coordinates in the object coordinate system) is output.

図7は、本実施形態の較正装置が較正情報を求める際に行う処理のフローチャートである。なお同フローチャートに従ったプログラムコードは、本実施形態の、不図示のRAMやROMなどのメモリ内に格納され、不図示のCPUにより読み出され、実行される。   FIG. 7 is a flowchart of processing performed when the calibration apparatus according to the present embodiment obtains calibration information. Note that the program code according to the flowchart is stored in a memory such as a RAM or a ROM (not shown) of the present embodiment, and is read and executed by a CPU (not shown).

ステップS6010において、指示部1050は、データ取得コマンドがオペレータから入力されたか否かの判定を行う。オペレータは、指標較正用のデータ取得を行う位置に物体1000を配置した時に、データ取得コマンドを入力する。指示部1050は、データ取得コマンドが入力されている場合には、ステップS6020へと処理を移行させる。   In step S6010, the instruction unit 1050 determines whether a data acquisition command is input from the operator. The operator inputs a data acquisition command when the object 1000 is placed at a position where data for index calibration is acquired. When the data acquisition command is input, the instruction unit 1050 shifts the process to step S6020.

ステップS6020において、データ管理部1040は、位置姿勢算出部1030から、物体座標系におけるカメラの位置及び姿勢tOC=[xOCOCOC ξOC ψOC ζOCを入力する。位置姿勢算出部1030は常にtOCの算出を行っている。カメラに装着した6自由度位置姿勢センサA1の計測値sA1=[xA1CA1CA1C ξA1C ψA1C ζA1Cから得られる世界座標系におけるカメラの位置姿勢を表す変換行列をMwc(sA1)、物体に装着した6自由度位置姿勢センサA2の計測値sA2=[xA2OA2OA2O ξA2O ψA2O ζA2Oから得られる世界座標系における物体の位置姿勢を表す変換行列をMwoと表すと、物体座標系におけるカメラの位置姿勢を表す変換行列Mocは、式(33)のように表される。 In step S6020, the data management unit 1040 inputs the camera position and orientation in the object coordinate system t OC = [x OC y OC z OC ξ OC ψ OC ζ OC ] T from the position and orientation calculation unit 1030. The position / orientation calculation unit 1030 always calculates t OC . A measurement matrix s A1 = [x A1C y A1C z A1C ξ A1C ψ A1C ζ A1C ] T obtained from the six-degree-of-freedom position and orientation sensor A1 attached to the camera represents a transformation matrix representing the position and orientation of the camera in the world coordinate system M wc (s A1), representing the measured value s A2 = [x A2O y A2O z A2O ξ A2O ψ A2O ζ A2O] position and orientation of an object in the world coordinate system obtained from T in and attached to the object 6 DOF position and orientation sensor A2 When the transformation matrix is represented as M wo , the transformation matrix M oc representing the position and orientation of the camera in the object coordinate system is represented as Expression (33).

Figure 0004533193
Figure 0004533193

式28で得られる行列Mocから並進成分と姿勢成分を分離することにより、物体座標系における撮像装置の位置と姿勢tOC=[xOCOCOC ξOC ψOC ζOCを得ることができる。 By separating the translation component and the posture component from the matrix M oc obtained by Expression 28, the position and posture of the imaging device in the object coordinate system t OC = [x OC y OC z OC ξ OC ψ OC ζ OC ] T is obtained. be able to.

ステップS6030において、データ管理部1040は、指標検出部1020から、指標検出部1020によって検出された指標Pknを構成する点の画像座標群uPkniとその識別子kを入力する。指標検出部1020は、入力された画像に対して常に指標の検出処理を行っており、本ステップの処理により、撮像装置の位置と姿勢がtOCであるときの指標の画像座標を得ることができる。なお、指標検出部1020から入力される情報は、必ずしも全ての指標に関するものである必要はなく、その時点で画像上において検出されている指標に関する情報であればよい。 In step S6030, the data management unit 1040, the index detection unit 1020, and inputs the image coordinates group u Pkni of points constituting the index P kn detected by the index detector 1020 and the identifier k n. The index detection unit 1020 always performs index detection processing on the input image, and the processing of this step can obtain the image coordinates of the index when the position and orientation of the imaging device are t OC. it can. Note that the information input from the index detection unit 1020 is not necessarily related to all the indices, and may be information regarding the indices detected on the image at that time.

次に、ステップS6040において、データ管理部1040は、検出された指標Pkn全てについて、入力したデータの組をデータリストDLにデータDとして追加する。具体的には、位置姿勢算出部1030から入力するtOCをtOCj=[xOCjOCjOCj ξOCj ψOCj ζOCjとし、指標検出部1020から入力する識別子kをknjとし、同じく指標検出部1020から入力するuPkniをu Pknjiとして、D=[tOCj,u Pknji,knj]の組を、L番目のデータとしてデータリストDLに登録する。ここでj(j=1,,,N)は、撮影した画像に対するインデックスであり、L(L=1,,,N)は、データリストDLに登録したデータの組夫々に対するインデックスであり、Nは、撮影した画像の総数を表し、Nは、登録したデータの総組数を表している。 Next, in step S6040, the data management unit 1040, the indices P kn all detection is added as data D L sets of input data in the data list DL. Specifically, a t OC input from the position and orientation calculation unit 1030 and t OCj = [x OCj y OCj z OCj ξ OCj ψ OCj ζ OCj] T, the identifier k n input from the index detector 1020 and k nj Similarly, u Pkni input from the index detection unit 1020 is set as u L Pknji , and a set of D L = [t OCj , u L Pknji , k nj ] is registered in the data list DL as the Lth data. Here, j (j = 1,..., N J ) is an index for the captured image, and L (L = 1,, N L ) is an index for each set of data registered in the data list DL. , N J represents the total number of captured images, and N L represents the total number of registered data sets.

以上の処理によって、データの取得が行われる。   Data is acquired by the above processing.

ステップS6050では、データ管理部1040によって、それまでに取得されたデータリストが、較正情報を算出するに足るだけの情報を有しているかどうかの判定が行われる。条件を満たしていない場合には、再びステップS6010へと戻り、データ取得コマンドの入力を待つ。一方、データリストが較正情報算出の条件を満たしている場合には、ステップS6060へと処理を移行させる。データリストが較正情報を算出するに足るだけの情報を有す条件としては、例えば、少なくとも異なる3つ以上の基準指標に関するデータが、データリストDLに含まれていること、が挙げられる。ただし、入力データの多様性が増すほどに導出される較正情報の精度は向上するので、より多くのデータを要求するように条件を設定してもよい。   In step S6050, the data management unit 1040 determines whether the data list acquired so far has enough information to calculate calibration information. If the condition is not satisfied, the process returns to step S6010 again and waits for the input of a data acquisition command. On the other hand, if the data list satisfies the conditions for calculating calibration information, the process proceeds to step S6060. The condition that the data list has information sufficient to calculate the calibration information includes, for example, that the data list DL includes data on at least three different reference indices. However, since the accuracy of the calibration information derived as the diversity of input data increases, the condition may be set so as to request more data.

次にステップS6060において、較正情報算出コマンドがオペレータから入力されたか否かの判定を行う。較正情報算出コマンドが入力されている場合には、ステップS6070へと処理を移行し、入力されていない場合には、再びステップS6010へと戻り、データ取得コマンドの入力を待つ。   In step S6060, it is determined whether a calibration information calculation command has been input from the operator. If the calibration information calculation command has been input, the process proceeds to step S6070. If not, the process returns to step S6010 again to wait for the input of the data acquisition command.

較正情報算出部1060は、第2の実施形態と同様に求めるべき較正情報、すなわち物体座標系における指標の位置姿勢を6値ベクトルとして扱う。以下では、この未知パラメータを状態ベクトルs=[x ξ ψ ζと記述する。また、本実施形態では物体に対するカメラの位置姿勢tOCjも未知パラメータとして取り扱う。tOCjを状態ベクトルscj=[xocjocjocj ξocj ψocj ζocjと記述する。 The calibration information calculation unit 1060 handles the calibration information to be obtained as in the second embodiment, that is, the position and orientation of the index in the object coordinate system as a six-value vector. Hereinafter, this unknown parameter is described as a state vector s m = [x m y m z m ξ m ψ m ζ m ] T. In this embodiment, the camera position and orientation t OCj with respect to the object is also handled as an unknown parameter. t OCj is described as a state vector s cj = [x ocj y ocj z ocj ξ ocj ψ ocj ζ ocj ] T

ステップS6070において、較正情報算出部1060は、夫々の状態ベクトルs、scjに適当な初期値を与える。scjの初期値は、センサ出力から得られたtOCjを用いる。sの初期値としては、オペレータが指示部1050を介しておおよその値を手入力しても良い。カメラ座標系から物体座標系への変換行列をMOC、物体座標系から物体に装着された指標座標系への変換行列をMMOとすると、カメラ座標系から指標座標への変換行列MMCを得る。 In step S6070, the calibration information calculation unit 1060 gives appropriate initial values to the respective state vectors s m and s cj . As the initial value of s cj , t OCj obtained from the sensor output is used. The initial value of s m, the operator may manually input the approximate values via the instruction unit 1050. If the transformation matrix from the camera coordinate system to the object coordinate system is M oc and the transformation matrix from the object coordinate system to the index coordinate system attached to the object is M MO , the transformation matrix M MC from the camera coordinate system to the index coordinates is obtain.

Figure 0004533193
Figure 0004533193

ステップS4080において、較正情報算出部1060は、データリストDL中の各データD=[tOCj,u Pknji,k]、((j=1,2,,,,N)(L=1,2,,,,N)および状態ベクトルs、scj、から、全てのLに対して、指標Pknjの画像座標の計算値ulL Pknji'=[uxL Pknji',uyL Pknji']を求める。ここで指標の画像座標の計算値とは、物体座標系における位置及び姿勢がsである指標の指標座標系における位置ベクトルh Pknjが既知な点Pknjの、画像中に見えるべき位置(座標)のデータを指す。u Pknji'の算出は、物体座標系における指標座標系の位置を表す状態ベクトルs=[sCj]の関数 In step S4080, the calibration information calculation unit 1060 obtains each data D L = [t OCj , u L Pknji , k j ], ((j = 1, 2, ... , N J ) (L = 1,2 ,,,, N L) and the state vector s m, s cj from, for all L, calculated values u lL Pknji of the image coordinates of the index P knj '= [u xL Pknji ', u yL Request Pknji ']. here, the calculated value of the image coordinates of the indices, the position vector h M Pknj known point P Knj in index coordinate system of the marker position and orientation are s m in the object coordinate system, image The data of the position (coordinates) that should be seen in. The calculation of u L Pknji 'is a function of the state vector s = [s m s Cj ] representing the position of the index coordinate system in the object coordinate system

Figure 0004533193
Figure 0004533193

に基づいて行われる。 Based on.

具体的には、関数F()は、L番目のデータを取得した時の(すなわち、同データセット中の撮像装置1010の位置と姿勢がtOCjである時の)指標Pknjのカメラ座標における位置ベクトルc Pknjiを、s,scjから求める次式、 Specifically, the function F L () is the camera coordinates of the index P knj when the Lth data is acquired (that is, when the position and orientation of the imaging device 1010 in the data set is t OCj ). A position vector c L Pknji at is obtained from s m , s cj as follows:

Figure 0004533193
Figure 0004533193

及び、c Pknjiから指標Pknjの画像上の座標u Pknji'を求める次式、 And the following equation for obtaining the coordinates u L Pknji ′ on the image of the index P knj from c L Pknji :

Figure 0004533193
Figure 0004533193

によって構成されている。ここでf 及びf は、それぞれx軸方向及びy軸方向におけるカメラ1010の焦点距離であり、既知の値として予め保持されているものとする。また、 It is constituted by. Here, f B x and f B y are the focal lengths of the camera 1010 in the x-axis direction and the y-axis direction, respectively, and are held in advance as known values. Also,

Figure 0004533193
Figure 0004533193

によって定まる変換行列(指標座標系から物体座標系に変換する行列)であり、 Is a transformation matrix (matrix that transforms from the index coordinate system to the object coordinate system),

Figure 0004533193
Figure 0004533193

はscjによって定まるモデリング変換行列(物体座標系からカメラ座標系に変換する行列)である。 Is a modeling transformation matrix (matrix for transformation from the object coordinate system to the camera coordinate system) determined by s cj .

Figure 0004533193
Figure 0004533193

は次式によって定義される。 Is defined by:

Figure 0004533193
Figure 0004533193

ただし、   However,

Figure 0004533193
Figure 0004533193

である。また、 It is. Also,

Figure 0004533193
Figure 0004533193

ただし、   However,

Figure 0004533193
Figure 0004533193

である。 It is.

ステップS6090において、較正情報算出部1060は、全てのLに対して、データリストDL中の各データに含まれる指標Pknjの実際の画像座標u Pknjiと、それに対応する画像座標の計算値u Pknji'との誤差△u Pknjiを次式によって算出する。 In step S6090, the calibration information calculation unit 1060 for all L, the actual image coordinates u L Pknji of the index P knj included in each data in the data list DL and the calculated values u of the image coordinates corresponding thereto. error △ u L Pknji of the L Pknji 'is calculated by the following equation.

Figure 0004533193
Figure 0004533193

ステップS6100において、較正情報算出部1060は、全てのLに対して、状態ベクトルs=[scj]に関する画像ヤコビアン(すなわち、式30の関数F()を状態ベクトルs、scjの各要素で偏微分した解を各要素に持つ(2×N)行×(6×K+6×KNJ)列のヤコビ行列)JuL Pknji (=∂u Pknji/∂s)を算出する。ここで、Nは検出したすべての指標の総数であり、Kは、較正対象となる指標の総数である。KNJは画像の撮影枚数である。 In step S6100, the calibration information calculation unit 1060 applies the image Jacobian (that is, the function F j () of Equation 30 to the state vectors s m and s cj for the state vector s = [s m s cj ] for all L. (2 × N L ) rows × (6 × K o + 6 × K NJ ) Jacobian matrix) J uL Pknji s (= ∂u L Pknji / ∂s) Is calculated. Here, N L is the total number of all detected indices, and K o is the total number of indices to be calibrated. K NJ is the number of images taken.

ステップS6110において、較正情報算出部1060は、以上のステップで算出した、全てのLに対する誤差△u Pknji及びヤコビ行列JuL Pknji に基づいて、sの補正値△sを算出する。具体的には、全てのLに対する誤差△u Pkndjiを垂直に並べた2N次元ベクトルの誤差ベクトル In step S6110, the calibration information calculation unit 1060 calculates the correction value Δs of s based on the error Δu L Pknji and the Jacobian matrix J uL Pknji s for all L calculated in the above steps. Specifically, an error vector of 2N L- dimensional vectors in which errors Δu L Pkndji for all Ls are arranged vertically

Figure 0004533193
Figure 0004533193

及びヤコビ行列JuL Pknji を垂直に並べた(2N)行×(6×K+6×KNJ)列の行列 And Jacobian matrix J uL Pknji s aligned vertically (2N L) matrix of rows × (6 × K o + 6 × K NJ) column

Figure 0004533193
Figure 0004533193

を作成し、Φの擬似逆行列Φを用いて、△sを次式より算出する。 And Δs is calculated from the following equation using the pseudo inverse matrix Φ + of Φ.

Figure 0004533193
Figure 0004533193

ここで、△sは(6×K+6×KNJ)次元ベクトルであるから、2Nが(6×K+6×KNJ)以上であれば、△sを求めることができる。なおΦは、例えばΦ=(ΦΦ)−1Φによって求めることができるが、他の方法によって求めてもよい。 Here, since Δs is a (6 × K o + 6 × K NJ ) dimensional vector, if 2N L is (6 × K o + 6 × K NJ ) or more, Δs can be obtained. Note that Φ + can be determined by, for example, Φ + = (Φ T Φ) −1 Φ T , but may be determined by other methods.

ステップS6120において、較正情報算出部1060は、ステップS6110において算出した補正値△sを用いて、式41に従ってsを補正し、得られた値を新たなsとする。ここで状態ベクトルs=[scj]は、物体座標系における指標の位置姿勢の状態ベクトルs、物体座標系におけるカメラ位置姿勢の状態ベクトルsCjである。 In step S6120, calibration information calculation unit 1060 corrects s according to equation 41 using correction value Δs calculated in step S6110, and sets the obtained value as new s. Here, the state vector s = [s m s cj ] is the index position / posture state vector s m in the object coordinate system and the camera position / posture state vector s Cj in the object coordinate system.

Figure 0004533193
Figure 0004533193

ステップS6130において、較正情報算出部1060は、誤差ベクトルUが予め定めた閾値より小さいかどうか、あるいは、補正値△sが予め定めた閾値より小さいかどうかといった何らかの判断基準を用いて、計算が収束しているか否かの判定を行う。収束していない場合には、補正後の状態ベクトルsを用いて、再度ステップS6080以降の処理を行う。   In step S6130, the calibration information calculation unit 1060 converges the calculation by using some criterion such as whether the error vector U is smaller than a predetermined threshold or whether the correction value Δs is smaller than a predetermined threshold. It is determined whether or not. If not converged, the processing after step S6080 is performed again using the corrected state vector s.

ステップS6130において計算が収束したと判定されると、ステップS6140において、較正情報算出部1060は、得られた状態ベクトルsのうちsを、較正情報、すなわち、物体座標系における指標座標系の位置及び姿勢として出力する。この時の出力の形態は、sそのものであっても良いし、sの位置成分を3値のベクトルで表し、姿勢成分をオイラー角や3×3の回転行列で表したものであっても良いし、sから生成した座標変換行列MOMであっても良い。 If it is determined in step S6130 that the calculation has converged, in step S6140, the calibration information calculation unit 1060 uses s m in the obtained state vector s as calibration information, that is, the position of the index coordinate system in the object coordinate system. And output as a posture. The output form at this time may be s m itself, the position component of s m is represented by a ternary vector, and the posture component is represented by an Euler angle or a 3 × 3 rotation matrix. it also may be a coordinate conversion matrix M OM generated from s m.

最後にステップS6150では、較正処理を終了するか否かの判定が行われる。オペレータが、指標較正装置1100に対して、較正処理の終了を指示した場合には、処理を終了させ、較正処理の継続(再較正)を指示した場合には、再びステップS6010へと戻り、データ取得コマンドの入力を待つ。   Finally, in step S6150, it is determined whether or not to end the calibration process. When the operator instructs the index calibration apparatus 1100 to end the calibration process, the process is ended. When the operator instructs the continuation (recalibration) of the calibration process, the process returns to step S6010 again, and the data Wait for input of get command.

以上の処理によって、対象物体に対する(すなわち、対象物体座標系における)対象物体に装着した指標の位置または位置と姿勢を、簡便かつ正確に取得することができる。   Through the above processing, the position or position and orientation of the index attached to the target object with respect to the target object (that is, in the target object coordinate system) can be acquired easily and accurately.

<変形例3−1>
なお、本実施形態において、撮像部1010は自由に移動可能な構成であったが、第1及び第2の実施形態における客観視点カメラと同様に、撮像部1010を固定位置に設置しても良い。この場合、6自由度位置姿勢センサA1は不要であり、位置姿勢算出部1030は、既知の値として予め保持されている世界座標系における撮像部1010の位置姿勢と、6自由度位置姿勢センサA1から得られる世界座標系における物体の位置姿勢に基づいて、物体座標系における撮像部1010の位置姿勢を算出する。第1の実施形態や第2の実施形態においては、客観視点カメラの位置姿勢は既知の値として正確に得られている必要があったが、本実施形態では、位置姿勢算出部1030が出力する物体座標系におけるカメラの位置姿勢に補正処理が施されるため、既知の値としては大まかな位置姿勢のみが入力されていればよいという利点がある。
<Modification 3-1>
In the present embodiment, the imaging unit 1010 is configured to be freely movable, but the imaging unit 1010 may be installed at a fixed position as in the objective viewpoint cameras in the first and second embodiments. . In this case, the 6-DOF position / orientation sensor A1 is unnecessary, and the position / orientation calculation unit 1030 includes the position / orientation of the imaging unit 1010 in the world coordinate system held in advance as a known value and the 6-DOF position / orientation sensor A1. Based on the position and orientation of the object in the world coordinate system obtained from the above, the position and orientation of the imaging unit 1010 in the object coordinate system are calculated. In the first embodiment and the second embodiment, the position / orientation of the objective viewpoint camera needs to be accurately obtained as a known value, but in this embodiment, the position / orientation calculation unit 1030 outputs. Since correction processing is performed on the position and orientation of the camera in the object coordinate system, there is an advantage that only a rough position and orientation need be input as known values.

<変形例3−2>
なお、本実施形態において、カメラと物体との相対的な位置関係を求めるために6自由度位置姿勢センサを用いるが,物体座標系におけるカメラの位置及び姿勢が計測可能であればいずれのセンサでもよい。
<Modification 3-2>
In this embodiment, a 6-DOF position / orientation sensor is used to obtain the relative positional relationship between the camera and the object. However, any sensor can be used as long as the position and orientation of the camera in the object coordinate system can be measured. Good.

例えば、磁気センサ(米Polhemus社のFASTRAKや米Ascension Tech.社のFlock of Birds)、光学式センサ(加NDI社のOptotrakや英VICON社のVICON)、超音波センサといった6自由度位置姿勢センサをカメラと物体に取り付けて、画像撮影時のカメラの物体座標系に対する位置姿勢をセンサ計測値から得てもよい。また、実施例1及び2と同様に,物体に装着されているカメラと世界座標系における位置が既知である基準指標によって構成される6自由度位置姿勢センサの計測値から,物体とそれを撮影するカメラの相対的な位置姿勢を求めてもよい。また、物体とそれを撮影するカメラに前述の6自由度位置姿勢センサや3自由度姿勢センサを取り付け、撮影画像とセンサの計測値の両方に基づいたハイブリッドな手法によって物体とそれを撮影するカメラの相対的な位置姿勢を求めてもよい。   For example, a 6-DOF position and orientation sensor such as a magnetic sensor (Folstrak of Polhemus, USA, Flock of Birds of Ascension Tech.), An optical sensor (Optotrak of NDI, VICON of UK), or an ultrasonic sensor. It may be attached to the camera and the object, and the position and orientation with respect to the object coordinate system of the camera at the time of image capturing may be obtained from the sensor measurement value. Similarly to the first and second embodiments, the object and the object are photographed from the measurement values of the six-degree-of-freedom position and orientation sensor configured by the camera mounted on the object and the reference index whose position in the world coordinate system is known. You may obtain | require the relative position and orientation of the camera to perform. Further, the above-described 6-degree-of-freedom position and orientation sensor and 3-degree-of-freedom orientation sensor are attached to the object and the camera that photographs the object, and the object and the camera that photographs the object by a hybrid method based on both the photographed image and the sensor measurement The relative position and orientation may be obtained.

<変形例3−3>
なお、本実施形態における指標較正装置によって物体に装着された指標の物体に対する位置と姿勢を較正した後、カメラに装着した6自由度位置姿勢センサA1のカメラに対する位置と姿勢を求めることも可能である.ここで位置と姿勢は、位置を表す3次元の並進ベクトルtと、姿勢を表す3×3回転行列Rを使って、式42のような4×4行列Mで表す。
<Modification 3-3>
Note that the position and orientation of the 6-DOF position and orientation sensor A1 attached to the camera can be obtained after the position and orientation of the indicator attached to the object is calibrated by the indicator calibration apparatus according to the present embodiment. is there. Here, the position and orientation are represented by a 4 × 4 matrix M as shown in Expression 42 using a three-dimensional translation vector t representing the position and a 3 × 3 rotation matrix R representing the orientation.

Figure 0004533193
Figure 0004533193

第3の実施形態において説明したように、物体に装着された指標の物体に対する位置と姿勢を求める際に、較正に利用した画像を撮影した時点でのカメラの物体に対する位置と姿勢MOCも同時に求まる。また、カメラに装着した6自由度位置姿勢センサと物体に装着した6自由度位置姿勢センサの相対的な位置と姿勢MA2A1はそれぞれのセンサ出力値から計算できる。物体に装着した6自由度位置姿勢センサの物体に対する位置と姿勢MOA2が何らかの方法で求まっている場合に、式43が成り立つ。 As described in the third embodiment, when obtaining the position and orientation relative to the object of index attached to the object, the position and orientation M OC with respect to the object of the camera at the time of photographing the image using the calibration time I want. The relative position and orientation M A2A1 of the 6- DOF position / orientation sensor attached to the camera and the 6-DOF position / orientation sensor attached to the object can be calculated from the sensor output values. When the position and orientation MOA2 with respect to the object of the six-degree-of-freedom position / orientation sensor attached to the object are obtained by some method, Expression 43 is established.

Figure 0004533193
Figure 0004533193

ここで既知の情報であるMOA2とMA2A1を次のようにまとめる。 Here summarized M OA2 and M A2A1 is known information as follows.

Figure 0004533193
Figure 0004533193

式44を用いて式43を式45のように表す。   Expression 43 is expressed as Expression 45 using Expression 44.

Figure 0004533193
Figure 0004533193

枚の画像を撮影すると、撮影画像ごとに存在するMOC,MOA1と、カメラに装着した6自由度位置姿勢センサのカメラに対する位置と姿勢MA1Cを用いて式46のように表せる。 When N J images are captured, M OC and M OA1 that exist for each captured image, and the position and orientation M A1C of the six-degree-of-freedom position / orientation sensor attached to the camera can be expressed as in Expression 46.

Figure 0004533193
Figure 0004533193

ここで、   here,

Figure 0004533193
Figure 0004533193

Figure 0004533193
Figure 0004533193

とすると、式46は式49のように表せる。 Then, Expression 46 can be expressed as Expression 49.

Figure 0004533193
Figure 0004533193

撮影した画像が複数ある場合には、MA1Cを求めるためにBの一般化逆行列を用いて式50のように計算することが可能である。 When there are a plurality of captured images, it is possible to calculate as shown in Equation 50 using a generalized inverse matrix of B to obtain M A1C .

Figure 0004533193
Figure 0004533193

また、AとBを用いてMA1Cを求めるために他の手法で計算してもよい。 In addition, in order to obtain M A1C using A and B, another method may be used.

算出した位置と姿勢を表す4×4行列MA1Cより、式42のように姿勢を表す3×3回転行列Rと位置を表す3次元並進ベクトルtを分解し求める。以上のようにしてカメラに装着した6自由度位置姿勢センサのカメラに対する位置と姿勢を求めることが可能である。 From the 4 × 4 matrix M A1C representing the calculated position and orientation, a 3 × 3 rotation matrix R representing the orientation and a three-dimensional translation vector t representing the position are obtained by decomposition as shown in Equation 42. As described above, the position and orientation of the 6-DOF position and orientation sensor attached to the camera with respect to the camera can be obtained.

[他の実施形態]
本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体(または記録媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
[Other Embodiments]
An object of the present invention is to supply a storage medium (or recording medium) in which a program code of software for realizing the functions of the above-described embodiments is recorded to a system or apparatus, and a computer (or CPU or MPU) of the system or apparatus. Needless to say, this can also be achieved by reading and executing the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention. Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an operating system (OS) running on the computer based on the instruction of the program code. It goes without saying that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included.

さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Furthermore, after the program code read from the storage medium is written into a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer, the function is determined based on the instruction of the program code. It goes without saying that the CPU or the like provided in the expansion card or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.

本発明を上記記憶媒体に適用する場合、その記憶媒体には先に説明した(図2及び/又は図4に示す)フローチャートに対応するプログラムコードが格納されることになる。   When the present invention is applied to the storage medium, the storage medium stores program codes corresponding to the flowcharts described above (shown in FIGS. 2 and / or 4).

第1の実施形態に係る指標較正装置の概略構成を示す図である。It is a figure which shows schematic structure of the parameter | index calibration apparatus which concerns on 1st Embodiment. 第1の実施形態に係る指標較正方法の概略処理を示すフローチャートである。It is a flowchart which shows the schematic process of the parameter | index calibration method which concerns on 1st Embodiment. 第2の実施形態に係る指標較正装置の概略構成を示す図である。It is a figure which shows schematic structure of the parameter | index calibration apparatus which concerns on 2nd Embodiment. 第2の実施形態に係る指標較正方法の概略処理を示すフローチャートである。It is a flowchart which shows the schematic process of the parameter | index calibration method which concerns on 2nd Embodiment. 第1の実施形態の<変形例1―3>および第2の実施形態の<変形例2−5>に係る指標較正装置の概略構成を示す図である。It is a figure which shows schematic structure of the parameter | index calibration apparatus which concerns on <modification 1-3> of 1st Embodiment, and <modification 2-5> of 2nd Embodiment. 第3の実施形態に係る指標構成装置の概略構成を示す図である。It is a figure which shows schematic structure of the parameter | index structure apparatus which concerns on 3rd Embodiment. 第3の実施形態に係る指標較正方法の概略処理を示すフローチャートである。It is a flowchart which shows the schematic process of the parameter | index calibration method which concerns on 3rd Embodiment.

Claims (6)

物体に配置された複数の指標の各々物体を基準とした物体座標系における位置を補正する情報処理装置であって、
前記物体の世界座標系における位置姿勢を計測する物体位置姿勢計測手段と、
前記物体に配置された複数の指標を撮像手段で撮像した撮像画像を入力する撮像画像入力手段と、
前記撮像手段の世界座標系における位置姿勢を計測する撮像位置姿勢計測手段と、
前記撮像画像から前記複数の指標の各々の画像座標を検出する指標検出手段と、
前記複数の指標の各々の物体座標系における位置の設定値を入力する設定値入力手段と、
前記物体の世界座標系における位置姿勢、及び前記撮像手段の世界座標系における位置に基づいて、前記物体と前記撮像手段との間の相対的な相対位置姿勢を算出する相対位置姿勢算出手段と、
前記設定値、前記相対位置姿勢、及び予め保持された前記撮像手段に特有のカメラパラメータに基づいて、前記複数の指標の各々の前記撮像画像の面における座標の計算値を計算する指標計算手段と、
前記検出された複数の指標の各々の画像座標と、前記計算された複数の指標の各々の前記撮像画像の面における座標の計算値との誤差を算出する誤差算出手段と、
前記誤差に基づいて、前記複数の指標の各々の物体座標系における位置の補正値を算出する補正値算出手段と、
前記補正値に基づいて、前記複数の指標の各々の物体座標系における位置の設定値の各々を補正する補正手段と、
を有することを特徴とする情報処理装置。
An information processing apparatus for correcting the position in the object coordinate system with reference to the each of the objects of the plurality of indices allocated on the object,
An object position and orientation measuring means for measuring the position and orientation of the object in the world coordinate system;
Captured image input means for inputting a captured image obtained by capturing a plurality of indexes arranged on the object by an imaging means;
Imaging position and orientation measurement means for measuring the position and orientation of the imaging means in the world coordinate system;
A marker detecting means for detecting the image coordinates of each of said plurality of indices from the captured image,
A set value input means for inputting a set value of the position of each of the plurality of indices in the object coordinate system;
A relative position and orientation calculating means for calculating a relative relative position and orientation between the object and the imaging means based on the position and orientation of the object in the world coordinate system and the position of the imaging means in the world coordinate system ;
Index calculating means for calculating a calculated value of coordinates on the surface of the captured image of each of the plurality of indices based on the set value, the relative position and orientation, and camera parameters specific to the imaging means held in advance; ,
An error calculating means for calculating an error between each of the detected image coordinates of the plurality of indices and a calculated value of coordinates on the surface of the captured image of each of the calculated indices;
Correction value calculation means for calculating a correction value of the position of each of the plurality of indices in the object coordinate system based on the error;
Correction means for correcting each of the set values of the positions of each of the plurality of indices in the object coordinate system based on the correction values;
An information processing apparatus comprising:
前記カメラパラメータは、前記撮像装置の焦点距離であることを特徴とする請求項1に記載の情報処理装置。The information processing apparatus according to claim 1, wherein the camera parameter is a focal length of the imaging apparatus. 前記相対位置姿勢は、前記物体座標系における前記撮像手段の位置姿勢であることを特徴とする請求項1又は2に記載の位置姿勢計測装置。The position / orientation measurement apparatus according to claim 1, wherein the relative position / orientation is a position / orientation of the imaging unit in the object coordinate system. 前記誤差もしくは前記補正値が予め設定した閾値よりも小さいか否かを判定する収束判定手段と、Convergence determining means for determining whether the error or the correction value is smaller than a preset threshold value;
前記誤差もしくは前記補正値が予め設定した閾値よりも小さくないと判定された場合に、前記設定値入力手段が、前記補正された設定値を入力し、前記指標計算手段が、前記補正された設定値に基づいて、前記複数の指標の各々の前記撮像画像の面における座標の計算値を計算し、前記誤差算出手段が、前記誤差を算出し、前記補正値算出手段が、前記誤差に基づいて、前記補正値を算出することを特徴とする請求項1乃至3の何れか1項に記載の位置姿勢計測装置。When it is determined that the error or the correction value is not smaller than a preset threshold value, the setting value input unit inputs the corrected setting value, and the index calculation unit sets the corrected setting. Based on the value, a calculated value of coordinates on the surface of the captured image of each of the plurality of indices is calculated, the error calculating means calculates the error, and the correction value calculating means is based on the error. The position / orientation measurement apparatus according to claim 1, wherein the correction value is calculated.
物体に配置された複数の指標の各々物体を基準とした物体座標系における位置を補正する情報処理装置が行う情報処理方法であって、
前記情報処理装置が有する物体位置姿勢手段が、前記物体の世界座標系における位置姿勢を計測する物体位置姿勢計測工程と、
前記物体に配置された複数の指標を撮像手段で撮像した撮像画像を入力する撮像画像入力工程と、
前記情報処理装置が有する撮像位置姿勢計測手段が、前記撮像手段の世界座標系における位置姿勢を計測する撮像位置姿勢計測工程と、
前記情報処理装置が有する指標検出手段が、前記撮像画像から前記複数の指標の各々の画像座標を検出する指標検出工程と、
前記情報処理装置が有する設定値入力手段が、前記複数の指標の各々の物体座標系における位置の設定値を入力する設定値入力工程と、
前記情報処理装置が有する相対位置姿勢算出手段が、前記物体の世界座標系における位置姿勢、及び前記撮像手段の世界座標系における位置に基づいて、前記物体と前記撮像手段との間の相対的な相対位置姿勢を算出する相対位置姿勢算出工程と、
前記情報処理装置が有する指標計算手段が、前記設定値、前記相対位置姿勢、及び予め保持された前記撮像手段に特有のカメラパラメータに基づいて、前記複数の指標の各々の前記撮像画像の面における座標の計算値を計算する指標計算工程と、
前記情報処理装置が有する誤差算出手段が、前記検出された複数の指標の各々の画像座標と、前記計算された複数の指標の各々の前記撮像画像の面における座標の計算値との誤差を算出する誤差算出工程と、
前記情報処理装置が有する補正値算出手段が、前記誤差に基づいて、前記複数の指標の各々の物体座標系における位置の補正値を算出する補正値算出工程と、
前記情報処理装置が有する補正手段が、前記補正値に基づいて、前記複数の指標の各々の物体座標系における位置の設定値を補正する補正工程と、
を有することを特徴とする情報処理方法。
An information processing method for an information processing apparatus performs to correct the position in the object coordinate system with reference to the each of the objects of the plurality of indices allocated on the object,
An object position / orientation measurement step in which the object position / orientation means of the information processing apparatus measures the position and orientation of the object in the world coordinate system;
A captured image input step of inputting a captured image obtained by capturing an image of a plurality of indices arranged on the object with an imaging unit ;
An imaging position / orientation measurement step in which an imaging position / orientation measurement unit included in the information processing apparatus measures a position / orientation of the imaging unit in a world coordinate system;
A marker detecting step index detecting means for the information processing apparatus has found to detect the image coordinates of each of said plurality of indices from the captured image,
A setting value input unit that the information processing apparatus has, a setting value input step of inputting a setting value of a position of each of the plurality of indices in the object coordinate system;
The relative position / orientation calculation means of the information processing apparatus is configured to determine a relative position between the object and the imaging unit based on the position / orientation of the object in the world coordinate system and the position of the imaging unit in the world coordinate system. the relative position and orientation calculation step of calculating the relative position and orientation,
An index calculation unit included in the information processing apparatus is configured to determine whether each of the plurality of indexes on the surface of the captured image is based on the setting value, the relative position and orientation, and a camera parameter specific to the imaging unit that is held in advance. An index calculation process for calculating a calculated value of coordinates;
The error calculation means included in the information processing apparatus calculates an error between the image coordinates of each of the detected plurality of indices and the calculated value of the coordinates of the calculated plurality of indices on the surface of the captured image. An error calculating step,
A correction value calculating unit that the information processing apparatus has, based on the error, a correction value calculating step of calculating a correction value of a position of each of the plurality of indices in the object coordinate system;
A correction step in which the correction means included in the information processing apparatus corrects a set value of the position of each of the plurality of indices in the object coordinate system based on the correction value;
An information processing method characterized by comprising:
請求項に記載の情報処理方法が有する各工程をコンピュータにて実行させるプログラム A program for causing a computer to execute each step of the information processing method according to claim 5 .
JP2005065356A 2004-05-14 2005-03-09 Information processing apparatus and information processing method Active JP4533193B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2005065356A JP4533193B2 (en) 2004-05-14 2005-03-09 Information processing apparatus and information processing method
US11/127,000 US7613361B2 (en) 2004-05-14 2005-05-11 Information processing method and device
EP05252972A EP1596333B1 (en) 2004-05-14 2005-05-13 Calibration for mixed reality
DE602005009994T DE602005009994D1 (en) 2004-05-14 2005-05-13 Calibration for Mixed Reality

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004144784 2004-05-14
JP2005065356A JP4533193B2 (en) 2004-05-14 2005-03-09 Information processing apparatus and information processing method

Publications (2)

Publication Number Publication Date
JP2005353036A JP2005353036A (en) 2005-12-22
JP4533193B2 true JP4533193B2 (en) 2010-09-01

Family

ID=35587440

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005065356A Active JP4533193B2 (en) 2004-05-14 2005-03-09 Information processing apparatus and information processing method

Country Status (1)

Country Link
JP (1) JP4533193B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4914038B2 (en) * 2004-11-04 2012-04-11 キヤノン株式会社 Information processing method and apparatus
JP4810403B2 (en) * 2006-11-08 2011-11-09 キヤノン株式会社 Information processing apparatus and information processing method
JP4886560B2 (en) * 2007-03-15 2012-02-29 キヤノン株式会社 Information processing apparatus and information processing method
JP2008261755A (en) * 2007-04-12 2008-10-30 Canon Inc Information processing apparatus and information processing method
JP5051839B2 (en) * 2007-10-29 2012-10-17 国立大学法人東京工業大学 Target position measuring device
JP5544942B2 (en) * 2010-03-11 2014-07-09 トヨタ自動車株式会社 Object information detection system, information detection method, and program
JP5620343B2 (en) * 2011-06-20 2014-11-05 日本電信電話株式会社 Object coordinate system conversion apparatus, object coordinate system conversion method, and object coordinate system conversion program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001074428A (en) * 1999-09-03 2001-03-23 Sanyo Electric Co Ltd Method and jig for calibrating shape measuring apparatus
JP2003279310A (en) * 2002-03-22 2003-10-02 Canon Inc Apparatus and method for correcting position and attitude

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001074428A (en) * 1999-09-03 2001-03-23 Sanyo Electric Co Ltd Method and jig for calibrating shape measuring apparatus
JP2003279310A (en) * 2002-03-22 2003-10-02 Canon Inc Apparatus and method for correcting position and attitude

Also Published As

Publication number Publication date
JP2005353036A (en) 2005-12-22

Similar Documents

Publication Publication Date Title
JP4914038B2 (en) Information processing method and apparatus
EP1596333B1 (en) Calibration for mixed reality
JP4914039B2 (en) Information processing method and apparatus
JP4136859B2 (en) Position and orientation measurement method
JP4593968B2 (en) Position and orientation measurement method and apparatus
JP4976756B2 (en) Information processing method and apparatus
JP4533193B2 (en) Information processing apparatus and information processing method
JP4886560B2 (en) Information processing apparatus and information processing method
JP4689380B2 (en) Information processing method and apparatus
JP5036260B2 (en) Position and orientation calculation method and apparatus
JP4708752B2 (en) Information processing method and apparatus
KR100948704B1 (en) Movement detection device
JP4785416B2 (en) Position and orientation measurement method and apparatus
JP5230114B2 (en) Information processing apparatus and information processing method
WO2019146201A1 (en) Information processing device, information processing method, and information processing system
JP2008134161A (en) Position attitude measuring method, and position attitude measuring device
JP2008261755A (en) Information processing apparatus and information processing method
JP2005326275A (en) Information processing method and device
JP4095320B2 (en) Sensor calibration device, sensor calibration method, program, storage medium
JP4566786B2 (en) Position and orientation measurement method and information processing apparatus
JP4533090B2 (en) Index calibration apparatus and information processing method
KR101896827B1 (en) Apparatus and Method for Estimating Pose of User
JP5726024B2 (en) Information processing method and apparatus
JP6109213B2 (en) Information processing apparatus and method, program
JP2009168626A (en) Position attitude measurement device and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080310

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100216

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100518

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100611

R150 Certificate of patent or registration of utility model

Ref document number: 4533193

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130618

Year of fee payment: 3