JP2003279310A - Apparatus and method for correcting position and attitude - Google Patents

Apparatus and method for correcting position and attitude

Info

Publication number
JP2003279310A
JP2003279310A JP2002081252A JP2002081252A JP2003279310A JP 2003279310 A JP2003279310 A JP 2003279310A JP 2002081252 A JP2002081252 A JP 2002081252A JP 2002081252 A JP2002081252 A JP 2002081252A JP 2003279310 A JP2003279310 A JP 2003279310A
Authority
JP
Japan
Prior art keywords
orientation
feature points
image
correction
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2002081252A
Other languages
Japanese (ja)
Inventor
Shinji Uchiyama
晋二 内山
Kiyohide Sato
清秀 佐藤
Kazuki Takemoto
和樹 武本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2002081252A priority Critical patent/JP2003279310A/en
Publication of JP2003279310A publication Critical patent/JP2003279310A/en
Abandoned legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To identify the position and attitude of an image pickup device by simultaneously utilizing a plurality of feature points and correcting the position and the attitude of the image pickup device without distorting space. <P>SOLUTION: A signal indicating the position and the attitude of an HMD (Head Mount Display) is inputted from a sensor (S201). On the basis of a signal indicating a measurement result, viewing conversion is computed in the form of a conversion matrix (S202). Then the locations of the feature points at known locations in the actual world are converted from a world coordinate system into a camera coordinate system, and are computed into an image surface by perspective projection (S203). The image of an actual space is acquired from a camera (S204), and the feature points are detected from the picked-up image S205). On the basis of displacements between projected points of the feature points and detected points of the feature points, the correction of error of a sensor is processed (S206). <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、現実空間を撮像す
る撮像部と世界座標系における位置姿勢を計測する計測
部を備える撮像装置の位置姿勢を補正する位置姿勢補正
装置、位置姿勢補正方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a position / orientation correction device and a position / orientation correction method for correcting the position / orientation of an imaging device provided with an imaging unit for imaging a real space and a measuring unit for measuring the position / orientation in the world coordinate system. It is a thing.

【0002】[0002]

【従来の技術】特開平11-084307号公報、特開2000-0411
73号公報、特願2001-45536号ですでに指摘されているよ
うに、現実空間を撮像するカメラなどの撮像器(以下適
宜カメラと言い換える)の位置姿勢を求める方法とし
て、カメラの撮像画像を用いずに例えば磁気センサ等の
位置姿勢センサによってカメラの位置姿勢を計測する方
法では、カメラの位置姿勢を計測するに十分な精度が得
られない問題が従来よりあった。そこで、特開平11-084
307号公報、特開2000-041173号公報、特願2001-45536号
では、現実空間に配置した位置が既知のマーカまたは現
実空間中の位置が既知の特徴点を用いて、位置姿勢セン
サの計測結果の誤差を補正する方法が提案されている。
2. Description of the Related Art JP-A-11-084307 and JP-A-2000-0411
As already pointed out in Japanese Patent Publication No. 73 and Japanese Patent Application No. 2001-45536, as a method for obtaining the position and orientation of an imager such as a camera for capturing an image of a physical space (hereinafter, appropriately referred to as a camera), an image captured by the camera is In the method of measuring the position and orientation of the camera by using a position and orientation sensor such as a magnetic sensor without using the conventional method, there has been a problem that sufficient accuracy cannot be obtained to measure the position and orientation of the camera. Therefore, JP-A-11-084
In Japanese Patent Laid-Open No. 307, 2000-041173, and Japanese Patent Application No. 2001-45536, a position / orientation sensor is measured using a marker whose position is known in the real space or a feature point whose position is known in the real space. A method of correcting the resulting error has been proposed.

【0003】特開平11-084307号公報と特願2001-45536
号の方法は共通して、(1) マーカまたは特徴点
の世界座標系上での3次元位置は既知であり、位置姿勢
センサで得られるカメラの位置姿勢計測値を用いて投影
変換を行ってマーカまたは特徴点の画像面上への投影2
次元位置を計算する、(2) 撮像した画像からマー
カまたは特徴点を抽出し、画像面上でのマーカまたは特
徴点の2次元位置を計算する、ことを行い、(1)で得ら
れたマーカの2次元位置が(2)で得られたマーカの2次
元位置と一致または近づくようにセンサの計測値を補正
することで、カメラの位置姿勢を得る方法である。
Japanese Patent Application Laid-Open No. 11-084307 and Japanese Patent Application 2001-45536
(1) The three-dimensional position of the marker or feature point on the world coordinate system is known in common, and projection conversion is performed using the camera position / orientation measurement value obtained by the position / orientation sensor. Projection of markers or feature points on the image plane 2
Calculate the two-dimensional position of the marker or the feature point on the image plane by calculating the two-dimensional position of the marker or feature point from the imaged image. (2) The marker obtained in (1) This is a method of obtaining the position and orientation of the camera by correcting the measurement value of the sensor so that the two-dimensional position of (1) matches or approaches the two-dimensional position of the marker obtained in (2).

【0004】特開平11-084307号公報では、現実空間に
配置した複数のマーカの中から視野内にある1つのマー
カを選択し、そのマーカの上記(1)と(2)の画像面
上での位置が一致するように、カメラの位置姿勢を補正
する方法について開示されている。また、特願2001-455
36号では、現実空間の特徴点を一度に複数利用してセン
サの誤差を補正する方法が記載されている。この方法で
は、複数の特徴点を平均的に利用してセンサの誤差を補
正しており、補正アルゴリズムとしては特開平11-08430
7号公報で利用しているアルゴリズムを拡張したものと
位置付けることができる。
In Japanese Patent Laid-Open No. 11-084307, one marker in the field of view is selected from a plurality of markers arranged in the physical space, and the marker is displayed on the image planes (1) and (2) above. There is disclosed a method of correcting the position and orientation of the camera so that the positions of 1 and 2 match. Also, Japanese Patent Application 2001-455
No. 36 describes a method for correcting the error of the sensor by using a plurality of feature points in the real space at one time. In this method, the error of the sensor is corrected by using a plurality of feature points on average, and the correction algorithm is disclosed in JP-A-11-08430.
It can be regarded as an extension of the algorithm used in Publication No. 7.

【0005】さらに、特開2000-041173号公報では、3
点のマーカの検出結果とセンサの計測値とを一体として
同時に利用し、カメラの位置姿勢というパラメータでは
なく、現実空間からカメラの撮像面への射影変換行列を
行列演算により求め、求めた変換行列からカメラの外部
パラメータ相当の射影行列変換を求めるという方法が開
示されている。手順としては、センサの計測値をマーカ
によって補正するという手順を踏まないものの、センサ
の計測値を補正する目的でマーカを利用している方法で
ある。
Further, in Japanese Patent Laid-Open No. 2000-041173, 3
By using the detection results of the point markers and the measured values of the sensor simultaneously as one, the projective transformation matrix from the physical space to the imaging surface of the camera is obtained by matrix calculation instead of the parameter of the position and orientation of the camera. Discloses a method of obtaining a projection matrix transformation corresponding to an external parameter of a camera. As a procedure, although the procedure of correcting the measurement value of the sensor with the marker is not used, the marker is used for the purpose of correcting the measurement value of the sensor.

【0006】ここで、カメラの外部パラメータとは、焦
点距離、主点、レンズ歪みなどのカメラ固有にカメラの
内部に存在するパラメータ(これをカメラ内部パラメー
タと呼ぶ)ではなく、カメラの位置と姿勢といったカメ
ラが外界に対してどのように存在しているかを表すパラ
メータのことである。この特開2000-041173号公報にお
いては、カメラの位置と姿勢というパラメータを推定し
ておらず、4x4の行列の形であらわす写像として推定
している。ただし、厳密には、推定される行列は、カメ
ラの位置と姿勢に起因する成分のみから構成されるもの
とはならない。すなわち正規直交変換となるとは限らな
い。
Here, the external parameters of the camera are not the parameters such as the focal length, the principal point, the lens distortion, etc. which are inherent in the camera (called the internal parameters of the camera), but the position and orientation of the camera. Is a parameter that represents how the camera exists with respect to the outside world. In this Japanese Patent Laid-Open No. 2000-041173, the parameters such as the position and orientation of the camera are not estimated but estimated as a mapping expressed in the form of a 4 × 4 matrix. However, strictly speaking, the estimated matrix does not consist only of components caused by the position and orientation of the camera. That is, the orthogonal transformation is not always the case.

【0007】[0007]

【発明が解決しようとする課題】特開平11-084307号公
報の方法では、現実空間には複数のマーカを配置してい
るものの、実際に補正計算に利用するマーカはそれらの
中から選んだ1つしか利用していない。すなわち、仮に
複数のマーカが同時に撮像できている条件が揃っている
場合であっても、複数のマーカの情報を有効に補正に利
用することができないという問題があった。また、1つ
のマーカを選択するということは、視野が連続的に変更
される場合に補正に利用するマーカの切り替えが生じる
こととなる。これは、その瞬間に補正結果が大きく変わ
ってしまうという問題を生じさせ、カメラの位置姿勢の
推定結果が連続した値とならないという問題もあった。
According to the method disclosed in Japanese Patent Laid-Open No. 11-084307, a plurality of markers are arranged in the physical space, but the marker actually used for the correction calculation is selected from among them. I only use one. That is, even if the conditions under which a plurality of markers can be imaged at the same time are met, there is a problem that the information of the plurality of markers cannot be effectively used for correction. In addition, selecting one marker means that the marker used for correction is switched when the field of view is continuously changed. This causes a problem that the correction result greatly changes at that moment, and there is also a problem that the estimation result of the position and orientation of the camera does not have continuous values.

【0008】特開2000-041173号公報の方法は、複数の
マーカを利用する方法であるが、原理的に、得られる射
影変換行列が正規直交変換である保証がない方法であ
る。すなわち、得られる写像は、カメラの位置姿勢に起
因する成分のみから構成されるものではなく、座標変換
前後で座標軸の直交性を失ってしまうような成分も含ま
れてしまうようなものとなる。これでは、推定された写
像を用いると、空間が歪んでしまうという問題があっ
た。
The method disclosed in Japanese Unexamined Patent Publication No. 2000-041173 uses a plurality of markers, but in principle, there is no guarantee that the obtained projective transformation matrix is orthonormal transformation. That is, the obtained mapping does not consist only of the components caused by the position and orientation of the camera, but also includes components that lose the orthogonality of the coordinate axes before and after the coordinate conversion. In this case, there is a problem that the space is distorted when the estimated mapping is used.

【0009】特願2001-45536号の方法は、上記2つの問
題に対しては対処している方法である。複数のマーカを
同時に用い、直交性を失うような処理は行っていない。
しかし、この方法は、特開平11-084307号公報の方法を
基にして1つ1つのマーカにより計算できる補正方法を
複数の特徴点に対して平均化するという方法である。こ
れでは、現実空間中の特徴点の画像上への投影位置を、
画像から抽出した特徴点位置へと近づけるという観点か
らみると、必ずしも最適な補正計算が得られるわけでは
ない。言い換えると、3点以上の特徴点が捕らえられて
いる場合に、得られるカメラの位置姿勢は、画像上での
特徴点のずれを最小にするものではないという問題があ
った。別の言い方をすると、カメラで捕らえられている
特徴点が同じ条件であった場合であっても、補正前の誤
差のある6自由度センサの出力に応じて補正結果が変わ
ってしまう方法であり、特徴点の情報を十分に活かしき
れていない方法である。
The method of Japanese Patent Application No. 2001-45536 is a method that addresses the above two problems. A process that uses a plurality of markers at the same time and loses orthogonality is not performed.
However, this method is a method of averaging a correction method that can be calculated with each marker based on the method disclosed in Japanese Patent Laid-Open No. 11-084307 for a plurality of feature points. Here, the projection position of the feature point in the real space on the image is
From the viewpoint of approaching the position of the feature point extracted from the image, the optimum correction calculation is not always obtained. In other words, when three or more characteristic points are captured, the obtained position and orientation of the camera does not minimize the deviation of the characteristic points on the image. In other words, even if the characteristic points captured by the camera are under the same condition, the correction result changes depending on the output of the 6-degree-of-freedom sensor having an error before correction. , It is a method that does not make full use of the information of feature points.

【0010】本発明は以上の点を鑑みてなされたもので
あり、複数の特徴点を同時に利用し、かつ空間を歪ませ
ることなく撮像装置の位置姿勢を補正する補正すること
で、この撮像装置の位置姿勢を同定することを目的とし
ている。
The present invention has been made in view of the above points, and a plurality of characteristic points are used at the same time, and the position and orientation of the image pickup device is corrected without distorting the space. The purpose is to identify the position and orientation of.

【0011】[0011]

【課題を解決するための手段】本発明の目的を達成する
ために、例えば本発明の位置姿勢補正装置は以下の構成
を備える。
In order to achieve the object of the present invention, for example, a position / orientation correction device of the present invention has the following configuration.

【0012】すなわち、現実空間を撮像する撮像部と世
界座標系における位置姿勢を計測する計測部を備える撮
像装置の位置姿勢を示すパラメータを補正する位置姿勢
補正装置であって、現実空間に存在する複数の特徴点を
前記撮像装置が撮像することで得られる複数の特徴点を
含む画像において、当該画像における当該複数の特徴点
の位置を求める第1の位置計算手段と、前記計測部によ
る前記撮像装置の位置姿勢を示すパラメータに基づい
て、前記現実空間に存在する複数の特徴点の前記画像面
上における位置を求める第2の位置計算手段と、前記第
1の位置計算手段により位置を求めた夫々の特徴点と、
前記第2の位置計算手段により位置を求めた夫々の特徴
点とで、対応する特徴点間の距離を夫々の組について求
め、夫々の距離を用いて前記パラメータを補正する補正
手段とを備えることを特徴とする。
That is, a position / orientation correction apparatus for correcting a parameter indicating the position / orientation of an image pickup apparatus having an image pickup section for picking up an image of the real space and a measuring section for measuring the position / orientation in the world coordinate system, which exists in the real space. In an image including a plurality of feature points obtained by the image capturing apparatus capturing a plurality of feature points, a first position calculating unit that obtains positions of the plurality of feature points in the image, and the image capturing by the measuring unit. Based on the parameter indicating the position and orientation of the device, the second position calculating means for obtaining the positions of the plurality of feature points existing in the physical space on the image plane and the position by the first position calculating means are obtained. Each characteristic point,
And a correction unit configured to obtain a distance between corresponding feature points with respect to each set with respect to each feature point whose position is obtained by the second position calculation unit, and to correct the parameter using each distance. Is characterized by.

【0013】本発明の目的を達成するために、例えば本
発明の位置姿勢補正方法は以下の構成を備える。
In order to achieve the object of the present invention, for example, the position and orientation correction method of the present invention has the following configuration.

【0014】すなわち、現実空間を撮像する撮像部と世
界座標系における位置姿勢を計測する計測部を備える撮
像装置の位置姿勢を示すパラメータを補正する位置姿勢
補正方法であって、現実空間に存在する複数の特徴点を
前記撮像装置が撮像することで得られる複数の特徴点を
含む画像において、当該画像における当該複数の特徴点
の位置を求める第1の位置計算工程と、前記計測部によ
る前記撮像装置の位置姿勢を示すパラメータに基づい
て、前記現実空間に存在する複数の特徴点の前記画像面
上における位置を求める第2の位置計算工程と、前記第
1の位置計算工程で位置を求めた夫々の特徴点と、前記
第2の位置計算工程で位置を求めた夫々の特徴点とで、
対応する特徴点間の距離を夫々の組について求め、夫々
の距離を用いて前記パラメータを補正する補正工程とを
備えることを特徴とする。
That is, it is a position and orientation correction method for correcting a parameter indicating the position and orientation of an image capturing apparatus having an image capturing unit for capturing an image of the physical space and a measuring unit for measuring the position and orientation of the world coordinate system, which exists in the physical space. In an image including a plurality of feature points obtained by the imaging device capturing a plurality of feature points, a first position calculation step of obtaining positions of the plurality of feature points in the image, and the imaging by the measuring unit. The positions were obtained in the second position calculation step of obtaining the positions of the plurality of feature points existing in the physical space on the image plane based on the parameter indicating the position and orientation of the device, and in the first position calculation step. With each feature point and each feature point whose position was obtained in the second position calculation step,
And a step of calculating the distance between the corresponding feature points for each set and correcting the parameter using each distance.

【0015】[0015]

【発明の実施の形態】以下添付図面を参照して、本発明
を好適な実施形態に従って詳細に説明する。
BEST MODE FOR CARRYING OUT THE INVENTION The present invention will now be described in detail according to preferred embodiments with reference to the accompanying drawings.

【0016】[第1の実施形態]図1に本実施形態にお
ける位置姿勢補正装置とHMDとの機能構成を示す。10
1は、現実空間内を移動可能であるカメラと3次元位置
姿勢センサと表示器を互いにひとつに固定した頭部装着
型装置(HMD=Head Mount Displa
y)である。101aは磁気を利用して位置姿勢を計測する
3次元位置姿勢センサで、101bは現実空間を撮像し画像
を得ることのできるカメラで、101cは画像を表示するこ
とのできる表示器である。ここで、本実施形態での基本
構成として必要である要件としては、3次元位置姿勢セ
ンサ101aとカメラ101bがお互いに固定された関
係にあって現実空間内を移動可能であるということであ
り、必ずしも表示器101cは他の2つに対して固定さ
れていなくてもよいし、HMD101内に内蔵されてい
なくてもよい。3次元位置姿勢センサ101aからは計測結
果である位置姿勢信号が後述の位置姿勢計測部102に出
力され、カメラ101bからは撮像結果が後述の特徴点検出
部103および画像合成部107に出力される。表示器
101cは、入力として画像信号を受け画像を表示する装
置であり、画像合成部107から画像信号を得てその内容
を表示する。
[First Embodiment] FIG. 1 shows a functional configuration of a position / orientation correction device and an HMD according to the present embodiment. Ten
1 is a head-mounted device (HMD = Head Mount Display) in which a camera, a three-dimensional position / orientation sensor, and a display, which are movable in the physical space, are fixed to one another.
y). Reference numeral 101a is a three-dimensional position and orientation sensor that uses magnetism to measure the position and orientation, 101b is a camera capable of capturing an image of a physical space and obtaining an image, and 101c is a display capable of displaying an image. Here, a requirement necessary as a basic configuration in the present embodiment is that the three-dimensional position / orientation sensor 101a and the camera 101b have a fixed relationship with each other and can move in the physical space. The display 101c does not necessarily have to be fixed to the other two, or need not be built into the HMD 101. The three-dimensional position / orientation sensor 101a outputs a position / orientation signal, which is a measurement result, to the position / orientation measurement unit 102 described below, and the camera 101b outputs an imaging result to a feature point detection unit 103 and an image composition unit 107 described below. . display
Reference numeral 101c is a device that receives an image signal as an input and displays an image. The device 101c obtains an image signal from the image combining unit 107 and displays the content thereof.

【0017】100は本実施形態における位置姿勢補正
装置であって、HMDの位置姿勢を補正し、補正した位
置姿勢に応じた画像をHMDに出力する機能を有する。
102は位置姿勢計測部で、3次元位置姿勢センサ101aか
ら出力される3次元位置姿勢を示す信号を受けて、カメ
ラ101bの位置姿勢を表すビューイング変換行列を生成
する。このビューイング変換については後述する。103
は特徴点検出部で、カメラ101bによって得られた画
像を入力とし、この画像における現実世界中にある特徴
点(予め人工的に設けたマーカでも良いし、自然特徴で
も良い)を検出する機能を有する(同時にこの画像にお
ける特徴点の位置も検出される)。104は特徴点投影計
算部で、現実世界にある特徴点の位置(後述する世界座
標系における位置)を位置姿勢計測部102で得られたビ
ューイング変換によりカメラ座標系における位置に変換
し、さらにカメラの透視投影計算を行って画像面上での
位置を計算する特徴点投影計算部である。詳細な処理に
ついては後述する。
Reference numeral 100 denotes a position / orientation correction device in this embodiment, which has a function of correcting the position / orientation of the HMD and outputting an image according to the corrected position / orientation to the HMD.
A position / orientation measuring unit 102 receives a signal indicating the 3D position / orientation output from the 3D position / orientation sensor 101a and generates a viewing transformation matrix representing the position / orientation of the camera 101b. This viewing conversion will be described later. 103
Is a feature point detection unit that has a function of inputting an image obtained by the camera 101b and detecting a feature point in the image in the real world (a marker artificially provided in advance or a natural feature may be used). Yes (at the same time, the positions of feature points in this image are also detected). 104 is a feature point projection calculation unit that converts the position of a feature point in the real world (the position in the world coordinate system described below) into the position in the camera coordinate system by the viewing conversion obtained by the position and orientation measurement unit 102, and It is a feature point projection calculation unit that calculates the perspective projection of the camera to calculate the position on the image plane. Detailed processing will be described later.

【0018】105は位置姿勢補正部で、特徴点投影計算
部104で得られた特徴点の画像面への投影位置と特徴点
検出部103で得られた特徴点の位置とを比較して、HM
D101の位置姿勢をより高精度に補正する位置姿勢補
正部である。106は画像生成部で、位置姿勢補正部10
5により得られた補正後の位置姿勢を示す信号を基にし
て予め用意されたデータを用いて仮想空間を描画し、画
像を生成する。107は画像合成部で、カメラ101bからの
撮像画像を入力し、入力した撮像画像上に画像生成部1
06により生成された画像を描画する(合成する)。そ
の結果、表示部101c上には、現在のカメラの位置姿
勢に合った合成画像が表示される。なお、画像生成部10
6および画像合成部107は、カメラの位置姿勢の補正結果
の一利用形態として、推定したカメラの位置姿勢に合わ
せた画像の合成を行うための構成ブロックであって、後
述の位置姿勢補正処理に関わるものではない。
A position / orientation correction unit 105 compares the projected position of the feature point obtained by the feature point projection calculation unit 104 on the image plane with the position of the feature point obtained by the feature point detection unit 103, HM
The position / orientation correction unit corrects the position / orientation of D101 with higher accuracy. An image generation unit 106 includes a position / orientation correction unit 10
The virtual space is drawn using the data prepared in advance based on the signal indicating the corrected position and orientation obtained in 5, and an image is generated. Reference numeral 107 denotes an image synthesizing unit, which inputs a captured image from the camera 101b, and the image generating unit 1 receives the input captured image.
The image generated by 06 is drawn (combined). As a result, a combined image that matches the current position and orientation of the camera is displayed on the display unit 101c. The image generator 10
6 and the image composition unit 107 are constituent blocks for performing image composition in accordance with the estimated position and orientation of the camera, as one form of use of the correction result of the position and orientation of the camera, and are used in the position and orientation correction processing described later. It is not related.

【0019】上記構成を備える位置姿勢補正装置が行う
処理について図2に示したフローチャートを参照して説
明する。図2は本実施形態における位置姿勢補正装置が
行うメインの処理のフローチャートである。
The processing performed by the position / orientation correction apparatus having the above configuration will be described with reference to the flowchart shown in FIG. FIG. 2 is a flowchart of main processing performed by the position / orientation correction apparatus according to this embodiment.

【0020】まず、3次元位置姿勢センサ101aによ
ってHMD101の位置姿勢を計測し、計測結果を示す
信号を位置姿勢計測部102へ送る(ステップS20
1)。次に、位置姿勢計測部102は上記計測結果を示
す信号に基づいてビューイング変換を変換行列の形で計
算する。以下、ビューイング行列について図3を用いて
説明する。
First, the position and orientation of the HMD 101 is measured by the three-dimensional position and orientation sensor 101a, and a signal indicating the measurement result is sent to the position and orientation measuring unit 102 (step S20).
1). Next, the position / orientation measurement unit 102 calculates the viewing transformation in the form of a transformation matrix based on the signal indicating the measurement result. The viewing matrix will be described below with reference to FIG.

【0021】図3は現実空間にあるカメラの模式図であ
る。同図に示すように、カメラ101bの視点位置を原
点とし撮像面をx平面、視軸をz軸負へのベク
トルとおいた3次元座標系をカメラ座標系とし、現実世
界に固定され設定された座標系を世界座標系(同図にお
いてx,y,z軸方向を夫々x,y,z)とす
る。ビューイング変換とは、この2つの座標系間の座標
変換のことであり、世界座標系における点をカメラ座標
系における点に変換する変換行列を指す。このステップ
S202の工程をより詳しく以下に説明する。
FIG. 3 is a schematic diagram of a camera in the physical space. As shown in the figure, x c y c plane imaging surface to the point of view of the camera 101b and the origin, the three-dimensional coordinate system at a vector to z c-axis negative visual axis and the camera coordinate system, fixed to the real world The coordinate system thus set is the world coordinate system (in the figure, x, y, and z axis directions are x w , y w , and z w, respectively ). Viewing transformation is coordinate transformation between these two coordinate systems, and refers to a transformation matrix that transforms a point in the world coordinate system into a point in the camera coordinate system. This step
The step S202 will be described in more detail below.

【0022】まず、3次元位置姿勢センサ101aで
は、世界座標系上でのカメラの位置と姿勢が計測できる
ものとする。3次元位置姿勢センサにより得られるカメ
ラの位置を表す3次元ベクトルをtconW、姿勢を表
す3×3の回転変換行列をR onWとすると、カメラ
座標系上の点X=(x,y,z)を世界座標系
上の点X=(x,y,z)に変換する変換式
は、 と表せる。ここで、姿勢の計測値として、z軸中心、x軸
中心、y軸中心の回転角を表すロール・ピッチ・ヨー角
をそれぞれr, p, yとして表現した場合、Rco nW
例えば、ヨー回転、ピッチ回転、ロール回転という順で
回転を加えた結果として得られている場合には、 から、 として計算することができる。また、姿勢の計測値とし
て、回転軸ベクトル(r ,r,r)(ただし、r
+r +r =1)と回転角rによって得ら
れている場合には、 として計算することができる。
First, the three-dimensional position and orientation sensor 101a
Can measure the position and orientation of the camera in the world coordinate system
I shall. Turtle obtained by 3D position and orientation sensor
A three-dimensional vector representing the position of LAconW, Posture
R 3 × 3 rotation transformation matrixc onWThen the camera
Point X on the coordinate systemc= (Xc, Yc, Zc) In the world coordinate system
Upper point Xw= (Xw, Yw, Zw) Conversion formula
Is Can be expressed as Here, as the posture measurement values, the z-axis center and the x-axis
Roll / pitch / yaw angle that represents the rotation angle around the center and y-axis
When R is expressed as r, p, and y, respectively, Rco nWBut
For example, yaw rotation, pitch rotation, roll rotation
If it is the result of adding rotation, From Can be calculated as Also, as the measured value of the posture
Rotation axis vector (r x, Ry, Rz) (However, r
x Two+ Ry Two+ Rz Two= 1) and rotation angle raObtained by
If yes, Can be calculated as

【0023】ビューイング変換とは、世界座標系上にあ
る点をカメラ座標系へと変換する変換のことであるの
で、この式(1)で表された座標変換の逆変換に相当す
る。すなわち、世界座標系上の点X=(x,y
)から、カメラ座標系X=(x,y,z
への変換は、 と表される。このMconw −1を計算する工程がビュ
ーイング変換を求める工程である。したがって、ステッ
プS202の工程とは、3次元位置姿勢センサで計測さ
れた位置と姿勢の計測値を基にして、カメラ座標系から
世界座標系へと変換する4×4の変換行列を求め、その
逆行列を求める工程である。ここで、以降の工程の説明
のため、新たに とし、Mconw −1の回転成分をR、平行移動成分を
Tとおく。これにより、 X=RX+T ...(5) と表すことができる。補足として、このR、Tは、カメ
ラの位置姿勢の計測値そのものではない(逆変換の回転
成分と平行移動成分である)。
The viewing transformation is a transformation for transforming a point on the world coordinate system into a camera coordinate system, and therefore corresponds to the inverse transformation of the coordinate transformation expressed by the equation (1). That is, the point on the world coordinate system X w = (x w , y w ,
z w ) from the camera coordinate system X c = (x c , y c , z c ).
Conversion to Is expressed as The step of calculating this M conw −1 is the step of obtaining the viewing transformation. Therefore, the process of step S202 is to obtain a 4 × 4 conversion matrix for converting from the camera coordinate system to the world coordinate system based on the measured values of the position and orientation measured by the three-dimensional position and orientation sensor. This is a step of obtaining an inverse matrix. Here, to explain the subsequent steps, Let R be the rotation component of M conw −1 and T be the translation component. As a result, X c = RX w + T. . . It can be expressed as (5). As a supplement, these R and T are not the measured values of the position and orientation of the camera itself (the rotation component and the translation component of the inverse transformation).

【0024】次に、現実世界の既知の位置にある特徴点
の位置を、世界座標系からカメラ座標系へと変換し、更
に画像面へ透視投影計算する(ステップS203)。こ
こで透視投影とは、カメラ座標系上の3次元点を画像面
上の2次元座標U=(u,u)に投影する変換であ
り、 u=f×x/z=f×y/z ...(6 ) と表される変換である。ここで、f,fは図4に示
すようにカメラのx軸方向とx軸方向それぞれの焦点距
離である。カメラの焦点距離は物理的には1つの値をも
つものであるが、ここではx軸方向とy軸方向のアスペ
クト比を同時に表現するため、2つの値をもって焦点距
離としている。また、焦点距離はカメラ固有の値であり
予め求められているものとする。この透視投影変換式
(6)を、 (ux,uy)=P(xc,yc,zc) U=P(X) ...(7) と表現すると、世界座標系上にある点が画面上に変換さ
れる式は、式(5)と式(7)から、 U=P(RX+T) ...(8) と表すことができる。すなわち、ステップS203で行
う画像面への投影計算とは、この式(8)を用いて世界
座標系上の点の画像面上の位置を計算する工程である。
Next, the positions of the characteristic points at known positions in the real world are converted from the world coordinate system to the camera coordinate system, and perspective projection calculation is further performed on the image plane (step S203). Here, the perspective projection is a transformation for projecting a three-dimensional point on the camera coordinate system to a two-dimensional coordinate U = (u x , u y ) on the image plane, and u x = f x × x c / z c u y = f y × y c / z c . . . This is a conversion represented by (6). Here, f x and f y are the focal lengths of the camera in the x-axis direction and the x-axis direction, respectively, as shown in FIG. The focal length of the camera physically has one value, but here, in order to simultaneously express the aspect ratios in the x-axis direction and the y-axis direction, two values are used as the focal length. In addition, the focal length is a value specific to the camera and is obtained in advance. This perspective projection conversion formula (6) is converted into (ux, uy) = P (xc, yc, zc) U = P ( Xc ). . . Expressing as (7), the equation for converting the point on the world coordinate system on the screen is as follows from the equations (5) and (7): U = P (RX w + T). . . It can be expressed as (8). That is, the projection calculation on the image plane performed in step S203 is a step of calculating the position on the image plane of a point on the world coordinate system using this equation (8).

【0025】また、ステップS201、S202、S2
03の工程を行う一方で、カメラ101bにより撮像さ
れた現実空間の画像を得(ステップS204)、特徴点
検出部103はカメラ101bにより得られる撮像画像から
特徴点の検出を行う(ステップS205)。これには特
定色の閉領域をもつマーカを用い、このマーカを色検出
処理によって求めるような方法や、予め現実空間を撮影
し、特徴点となる領域をテンプレートとして用意してお
き、テンプレートマッチングを行う方法などがある。
Further, steps S201, S202, S2
While performing step 03, the image of the physical space imaged by the camera 101b is obtained (step S204), and the feature point detection unit 103 detects a feature point from the imaged image obtained by the camera 101b (step S205). For this, a marker having a closed area of a specific color is used, and the marker is obtained by color detection processing, or the real space is photographed in advance, and the area that becomes the feature point is prepared as a template, and template matching is performed. There are ways to do it.

【0026】以上のステップS201、S202、S2
03の工程により、3次元位置姿勢センサの計測値を基
にした画像における特徴点の位置が得られ、ステップS
204、S205の工程により、撮像画像における特徴
点の位置が得られる。仮に、3次元位置姿勢センサの計
測誤差が全くないとすると、これらの画像面での点は一
致することになるが、実際には3次元位置姿勢センサに
は計測誤差があるため、これらの位置は一致しない。こ
れを図5を用いて説明する。
The above steps S201, S202, S2
By the process of 03, the position of the feature point in the image based on the measurement value of the three-dimensional position and orientation sensor is obtained.
By the steps of 204 and S205, the position of the feature point in the captured image can be obtained. If there is no measurement error of the 3D position and orientation sensor, these points on the image plane will match, but in reality, the 3D position and orientation sensor has a measurement error. Do not match. This will be described with reference to FIG.

【0027】図5はステップS201、S202、S2
03の工程により得られる、3次元位置姿勢センサの計
測値を基にした画像における特徴点の位置と、ステップ
S204、S205の工程により、撮像画像における特
徴点の位置とを示す図である。同図において500は3
次元位置姿勢センサ101aにより得られる計測値に従
った位置姿勢のカメラ510から見える現実空間の画像
で、画像500において×の印は特徴点投影計算部10
4により上記投影計算により画像上に投影された夫々の
特徴点を示す。一方、501は実際の位置姿勢のカメラ
520から見える現実空間の画像で、画像501におい
て黒丸はカメラ520から見える夫々の特徴点を示す。
503は上記画像501,502を重ねた場合の画像
で、後述の位置姿勢を補正する処理は、画像503にお
いて各×の印と各黒丸との距離が最小となるように上記
計測値を修正する処理である。
FIG. 5 shows steps S201, S202 and S2.
It is a figure which shows the position of the characteristic point in the image based on the measurement value of the three-dimensional position and orientation sensor obtained by the process of 03, and the position of the characteristic point in a captured image by the process of steps S204 and S205. In the figure, 500 is 3
An image in the real space viewed from the camera 510 in the position and orientation according to the measurement values obtained by the three-dimensional position and orientation sensor 101a. In the image 500, the x mark indicates the feature point projection calculation unit 10
4 shows respective feature points projected on the image by the above projection calculation. On the other hand, 501 is an image in the real space seen from the camera 520 in the actual position / orientation, and black circles in the image 501 indicate respective characteristic points seen from the camera 520.
Reference numeral 503 denotes an image in which the images 501 and 502 are overlapped. In the processing for correcting the position and orientation described later, the measurement value is corrected so that the distance between each x mark and each black circle in the image 503 is minimized. Processing.

【0028】3次元位置姿勢センサにより得られるカメ
ラの位置姿勢はカメラの真の位置姿勢とは異なるため、
特徴点の投影点(×で示される点)と特徴点の検出点
(黒丸で示される点)の位置は図5に示すように一致し
ない。そこでこの画像面でのずれを基にして、位置姿勢
補正部105は3次元位置姿勢センサの誤差を補正する
処理を行う(ステップS206)。具体的に位置姿勢補
正部105は、最急降下法を用いて誤差が最小になるよ
うにビューイング変換を補正する。このステップS20
6の工程を以下に図6を用いて詳細に説明する。
Since the position and orientation of the camera obtained by the three-dimensional position and orientation sensor are different from the true position and orientation of the camera,
The positions of the projected points of the characteristic points (points indicated by x) and the detection points of the characteristic points (points indicated by black circles) do not match as shown in FIG. Therefore, the position / orientation correction unit 105 performs processing for correcting the error of the three-dimensional position / orientation sensor based on the deviation on the image plane (step S206). Specifically, the position / orientation correction unit 105 corrects the viewing transform using the steepest descent method so that the error is minimized. This step S20
Step 6 will be described in detail below with reference to FIG.

【0029】図6はステップS206における処理の詳
細を示すフローチャートである。まず、ステップS20
5にて画像から検出した特徴点が3個以上あるかどうか
を判定し(ステップS601)、3個以上ある場合には
処理をステップS602に進める。一方、3個以上ない
場合には、誤差を補正する計算を行うことができないた
め、処理をステップS207に進める。
FIG. 6 is a flow chart showing details of the processing in step S206. First, step S20
It is determined whether there are three or more feature points detected from the image in step 5 (step S601), and if there are three or more feature points, the process proceeds to step S602. On the other hand, if there are three or more, the calculation for correcting the error cannot be performed, and thus the process proceeds to step S207.

【0030】画像から検出した特徴点が3個以上ある場
合には、ステップS205にて画像から検出した特徴点
とステップS203にて計算した特徴点の投影点との対
応付けを行う。これは、特徴点がステップS205にて
n(n≧3)点検出されているとき、これらの画像上で
の位置をVとしたとき、ステップS203により得ら
れた投影点のうち最も近いものを探索し、その点をU
とおく工程である(ステップS602)。更にステップ
S602では、その投影点の投影元となった特徴点の世
界座標系上の点をXとおく処理も行う。次にステップ
S603に進む。
When there are three or more characteristic points detected from the image, the characteristic points detected from the image are associated with the projected points of the characteristic points calculated in step S203 in step S205. This means that when n (n ≧ 3) feature points have been detected in step S205 and the position on these images is V i , the closest projection point obtained in step S203 And find the point U i
This is the step of storing (step S602). Further, in step S602, the point on the world coordinate system of the feature point that is the projection source of the projection point is also set as X i . Then, the process proceeds to step S603.

【0031】ここで、ステップS603以降の工程を説
明する前に、ここから行う工程の処理内容を説明するた
めに、以下に原理説明を行う。式(5)の回転成分は、
式(3)で示したように回転軸と回転角で表すことがで
き、さらに回転角を回転軸の長さとする表現((ω
ω,ω)=(r,r,r))に
より3値で表現できる。そこで、回転成分と平行移動成
分を合わせた6自由度のパラメータをベクトルS=[ω
ω ω]とおく。これによ
り、3次元空間内での回転と平行移動による座標変換で
あるビューイング変換式(5)をX=Q(S,X
と表現するとすると、投影変換まで含めた変換式(8)
は、 U=N’(Q(S,X))=F(S,X) ...(9) と表現できる。
Before describing the steps after step S603, the principle will be described below in order to explain the processing contents of the steps performed from here. The rotation component of equation (5) is
It can be expressed by the rotation axis and the rotation angle as shown in the equation (3), and the rotation angle is the length of the rotation axis ((ω x ,
ω y , ω z ) = (r a r x , r a r y , r a r z )) can be expressed in three values. Therefore, the parameter of 6 degrees of freedom including the rotation component and the translation component is vector S = [ω
x ω y ω z t x t y t z ]. As a result, the viewing conversion formula (5), which is the coordinate conversion by rotation and parallel movement in the three-dimensional space, is converted into X c = Q (S, X w )
When expressed as, conversion formula (8) including projection conversion
U i = N ′ (Q (S, X i )) = F (S, X i ). . . It can be expressed as (9).

【0032】一方、画像上で検出した特徴点の位置に関
しては、3次元位置姿勢センサの計測値を基にして得ら
れたビューイング変換の6自由度パラメータSと真のカ
メラの位置姿勢から得られるであろうビューイング変換
の6自由度パラメータの差をΔSと表現すると(真のビ
ューイング変換の6自由度パラメータはS+ΔSとな
る)、 V=N’(Q(S+ΔS,X))=F(S+ΔS,X) .. .(10) という式が成り立つ。3次元位置姿勢センサに計測誤差
がなければΔSは0であり、UとVは同じ点となる
が、一般にセンサには誤差があるため、UとV は同
じ点にはならない。このセンサの誤差を補正するという
ことは、UとV との間の誤差を基にして、ΔSもし
くはS+ΔSを推定するということである。言い換えれ
ば、この2点の距離、すなわち画像面上での誤差ベクト
ル、 ΔU=U−V ...(11) の長さの二乗誤差 が、最小になるΔSもしくはS+ΔSを求めることがで
きればよい。最急降下法を適用するために、式(9)の
右辺をω,ω,ω,t,t,tで偏微分し
た関数を求める。式(9)をω,ω,ω,t
,tという6変数で偏微分した解を各要素に持つ
ヤコビ行列は、 である。ここで、j要素数のベクトルAからk要素数の
ベクトルBへのヤコビ行列は、j×k要素数の行列とな
りこれをJbaと表示している。uとuをなんらか
の変数pで偏微分すると、式(6)から、 となることから、式(11)の右側3列の各要素は、 としてカメラ座標系上での特徴点の位置と焦点距離によ
り求めることができる。また同様に、式(11)の左側
3列の各要素は、 である。ここで、∂x/∂ω、∂x/∂ω、∂
/∂ω、∂y/∂ω、∂y/∂ω、∂y
/∂ω、∂z/∂ω、∂z/∂ω、∂z
/∂ωはその詳細は述べないが世界座標系上での特徴
点の位置と回転軸回転角により求めることができるの
で、式(15)すなわち式(11)の左側3列は、世界
座標系上での特徴点の位置と回転軸回転角により求める
ことができる。
On the other hand, regarding the position of the feature point detected on the image,
Is obtained based on the measurement values of the 3D position and orientation sensor.
6-degree-of-freedom parameter S of the viewing transformation and true power
Viewing transformation that can be obtained from the position and orientation of the camera
If the difference in the 6-degree-of-freedom parameter of
The 6-degree-of-freedom parameter of the wing transformation is S + ΔS.
),     Vi= N '(Q (S + ΔS, Xi)) = F (S + ΔS, Xi). . . (10) The formula holds. Measurement error in 3D position and orientation sensor
If there is no ΔS is 0, then UiAnd ViIs the same point
However, since the sensor generally has an error, UiAnd V iIs the same
It's not the same point. To correct the error of this sensor
That is UiAnd V iBased on the error between
In other words, S + ΔS is estimated. In other words
For example, the distance between these two points, that is, the error vector on the image plane
Le, ΔUi= Ui-Vi        . . . (11) Error of the length of However, the minimum ΔS or S + ΔS can be obtained.
You should come. To apply the steepest descent method,
Ω on the right sidex, Ωy, Ωz, Tx, Ty, TzPartial differentiation with
Find the function Ω in equation (9)x, Ωy, Ωz, Tx
ty, TzEach part has a solution that is partially differentiated by 6 variables
The Jacobian matrix is Is. Here, from the vector A with the number of j elements,
The Jacobian matrix for vector B is a matrix with j × k elements.
Riko JbaIs displayed. uxAnd uySomething
Partial differentiation with the variable p of Therefore, each element in the three columns on the right side of Expression (11) is As the position of the feature point on the camera coordinate system and the focal length.
Can be requested. Similarly, the left side of equation (11)
Each element in the three columns is Is. Where ∂xc/ ∂ωx, ∂xc/ ∂ωy, ∂
xc/ ∂ωz, ∂yc/ ∂ωx, ∂yc/ ∂ωy, ∂y
c/ ∂ωz, ∂zc/ ∂ωx, ∂zc/ ∂ωy, ∂zc
/ ∂ωzIs not described in detail, but the features on the world coordinate system
It can be calculated from the position of the point and the rotation axis rotation angle.
Then, the left three columns of equation (15), that is, equation (11), is the world
Obtained from the position of the feature point on the coordinate system and the rotation angle of the rotation axis
be able to.

【0033】さらに、式(11)から、 という式が成り立つ。これは、Sの微小な変化量に対し
て、そのときのSの値を基にして得られるJusを用い
て、Uの微小な変化量を計算することができることを意
味している。このことから、実際の誤差量ΔUとΔSと
は、ΔSが小さいときには、 という関係となる。ここで、この補正計算に用いる点
は、n点あることを考える。式(17)は、それぞれの
点にて成り立つことから、n点のベクトルをさらに垂直
に並べたベクトルを用いて、 という式が成り立つ。式(18)中の[ΔUus1 Δ
us2 ... ΔU ]と[ΔJus1 ΔJ
us2 ... ΔJusn]をそれぞれ とおくと、すべての点にて同じ重みで誤差最小となるΔ
Sは、Φの一般化逆行列(疑似逆行列)を用いて、 ΔS=(ΦΦ−1Ψ ...(20) として求めることができる。
Further, from equation (11), The formula holds. This is for a small change in S
And J obtained based on the value of S at that timeusUsing
Therefore, it is possible to calculate a minute change amount of U.
I'm tasting. From this, the actual error amounts ΔU and ΔS are
When ΔS is small, It becomes a relationship. Here, the points used for this correction calculation
Consider that there are n points. Equation (17) is
Since it consists of points, the vector of n points is further vertical
Using the vector arranged in The formula holds. [ΔU in equation (18)us1  Δ
Uus2  . . . ΔU n] And [ΔJus1  ΔJ
us2  . . . ΔJusn] Respectively Then, the error becomes the minimum with the same weight at all points.
S is a generalized inverse matrix (pseudo inverse matrix) of Φ, ΔS = (ΦΦt)-1Ψ. . . (20) Can be asked as

【0034】これは、最急降下法でSを求める問題にお
いて、Sがある状態にあるときに、次のSを求める計算
過程に相当する。言い換えると、最急降下法の繰り返し
最適化過程のある一過程の計算として適用できる。すな
わち、ある初期値Sがあるときに、不変量である特徴
点の世界座標系上での位置X,X,,,Xと、誤
差ベクトル[Δu Δu ... Δu]とを基
にして式(20)を用いて を求めることができる。こ
の結果を用いて、S=S+ΔSとし、[Δu Δ
... Δu] を計算し直し、再び式(2
0)を用いてΔSを求める。さらにこの結果を用いて、
=S+ΔSとし、再び同じ計算を行うという処理
を[Δu Δu ... Δu]が0に近づくま
で、あるいはk回繰り返したときにSk−1とSとの
差がほとんどなくなるまで繰り返す。この繰り返し処理
により、画像面上での特徴点の投影位置と検出位置の誤
差が最小になるカメラのビューイング変換の6自由度パ
ラメータを として求めることができる。
This corresponds to a calculation process for obtaining the next S when S is present in the problem of obtaining S by the steepest descent method. In other words, it can be applied as a calculation of one process with the iterative optimization process of the steepest descent method. That is, when there is a certain initial value S 0 , the positions X 1 , X 2, ..., X n of the invariant feature points on the world coordinate system and the error vector [Δu 1 Δu 2 . . . Based on Δu n ], the following can be obtained using the equation (20). Using this result, S 1 = S 0 + ΔS, and [Δu 1 Δ
u 2 . . . Δu n ] is recalculated, and the equation (2
0) is used to determine ΔS. Furthermore, using this result,
S 2 = S 1 + ΔS, and the same calculation is performed again [[Δu 1 Δu 2 . . . Delta] u n] until approaches zero, or is repeated until almost no difference between the S k-1 and S k when repeated k times. By this iterative process, the 6-degree-of-freedom parameter of the camera viewing transformation that minimizes the error between the projected position and the detected position of the feature point on the image plane can be obtained as

【0035】ここまでで、ステップS603以降の工程
の原理説明を行った。これより引き続き、ステップS6
03以降の工程について上記式を利用しながら説明す
る。ステップS202で求めたビューイング変換行列の
6自由度パラメータを上述のSに設定する(ステップS
603)。次に、利用する特徴点の世界座標系上での位
置X(i=1,2,,,n)と、現在のSの値を基に
して、式(13)および式(15)、すなわち式(1
1)であるJusiを求める(ステップS605)。こ
こまでで、UとJusiが得られた。続いて、V
ステップS205で得られているので、VとUとJ
usiから式(20)を用いてΔSを計算する(ステッ
プS606)。
Up to this point, the principle of the steps after step S603 has been described. Continuing from this, step S6
The steps after 03 will be described using the above formula. The 6-degree-of-freedom parameter of the viewing transformation matrix obtained in step S202 is set to S described above (step S
603). Next, based on the position X i (i = 1, 2, ..., N) of the feature point to be used on the world coordinate system and the current value of S, equations (13) and (15), That is, the formula (1
J usi which is 1) is obtained (step S605). Up to this point, U i and J usi have been obtained. Then, since V i is obtained in step S205, V i and U i and J
ΔS is calculated from usi by using the equation (20) (step S606).

【0036】次に、ΔSが十分に小さいか否か(例えば
所定の閾値θよりも小さいか否か)を判断し(ステップ
S607)、十分に小さい(Sは誤差の少ない6次自由
度パラメータであると言える)場合には処理をステップ
S207に進め、上記説明の通り処理を行う。一方、Δ
Sが十分に小さくない場合、処理をステップS608に
進め、S+ΔSを新たにSと置き換え(ステップS60
8)、処理をステップS604に進める。そして、更新
されたSを用いてUを計算し直す(ステップS60
4)。そしてステップS604からステップS608ま
での処理をΔSが十分に小さくなるまで繰り返す。
Next, it is judged whether or not ΔS is sufficiently small (for example, whether or not it is smaller than a predetermined threshold value θ) (step S607), and it is sufficiently small (S is a sixth-degree-of-freedom parameter with a small error. If so, the process advances to step S207 to perform the process as described above. On the other hand, Δ
If S is not sufficiently small, the process proceeds to step S608, and S + ΔS is newly replaced with S (step S60
8) The process proceeds to step S604. Then, U i is recalculated using the updated S (step S60
4). Then, the processing from step S604 to step S608 is repeated until ΔS becomes sufficiently small.

【0037】以上のように、補正結果は補正行列や補正
値といった差分を表す補正量として得られるのではな
く、ビューイング変換の平行移動成分と回転成分という
直接的な座標変換を表す6自由度パラメータSとして得
られる。次に、図2に示したステップS207以降の処
理について説明する。
As described above, the correction result is not obtained as the correction amount indicating the difference such as the correction matrix and the correction value, but the 6-degree-of-freedom indicating the direct coordinate conversion of the parallel movement component and the rotation component of the viewing transformation. It is obtained as the parameter S. Next, the processing after step S207 shown in FIG. 2 will be described.

【0038】ステップS204でカメラ101bから得
られた撮像画像を画像合成部107に入力し(ステップ
S207)、画像合成部107内の不図示の表示用画像
バッファに書き込んでおく。次に画像生成部106は、
ステップS206で得られたビューイング変換を用いて
仮想空間もしくは仮想物体の画像を描画する(ステップ
S208)。このとき、画像合成部107内の上記表示
用画像バッファに上書き描画することによって、結果と
して現実空間を背景にし、仮想空間もしくは仮想物体を
融合した画像を得ることができる。そして上記表示用画
像バッファへの仮想空間もしくは仮想物体の描画が終了
すると、画像合成部107はこの合成画像を表示部10
1cに出力し、表示部101cはこの合成画像を表示す
る(ステップS209)。
In step S204, the captured image obtained from the camera 101b is input to the image composition section 107 (step S207) and written in a display image buffer (not shown) in the image composition section 107. Next, the image generation unit 106
An image of a virtual space or a virtual object is drawn by using the viewing transformation obtained in step S206 (step S208). At this time, by overwriting on the display image buffer in the image composition unit 107, it is possible to obtain an image in which the virtual space or the virtual object is fused with the real space as the background. When the drawing of the virtual space or the virtual object in the display image buffer is completed, the image combining unit 107 displays the combined image in the display unit 10.
1c, and the display unit 101c displays this composite image (step S209).

【0039】ここで、このステップS207からステッ
プS209までの処理は、得られたカメラのビューイン
グ変換を有効に利用する例として現実空間の画像に仮想
空間もしくは仮想物体の画像を合成する場合の工程を示
しているのであって、他の用途にカメラのビューイング
変換を利用してもよい。もちろん、ビューイング変換が
求まっていれば、その逆変換を計算することにより、世
界座標系におけるカメラの位置姿勢に変換することが容
易にできるので、カメラの位置姿勢を用いる用途に利用
することも可能であることはいうまでもない。
Here, the processing from step S207 to step S209 is a step for synthesizing the image of the virtual space or the image of the virtual object with the image of the real space as an example of effectively utilizing the obtained viewing transformation of the camera. However, the viewing transform of the camera may be used for other purposes. Of course, if the viewing transform is obtained, it can be easily converted into the position and orientation of the camera in the world coordinate system by calculating the inverse transform, so it can also be used for applications that use the position and orientation of the camera. It goes without saying that it is possible.

【0040】以上のステップS201からステップS2
09までの一連の工程は、ある時刻におけるカメラや取
り付けられた3次元位置姿勢センサの状態での処理工程
である。この一連の処理工程は、連続した時刻におい
て、連続的に処理されることによって、カメラの動きに
追従したカメラの位置姿勢の推定を行うことができる。
ステップS210は、この連続した処理を中断させるた
めの工程である。
The above steps S201 to S2
The series of steps up to 09 are processing steps in a state of the camera and the attached three-dimensional position and orientation sensor at a certain time. The series of processing steps can be performed continuously at consecutive times to estimate the position and orientation of the camera following the movement of the camera.
Step S210 is a process for interrupting this continuous process.

【0041】以上の説明により、本実施形態における位
置姿勢補正装置、位置姿勢補正方法によって、3次元位
置姿勢を測るセンサによる計測結果の誤差を、現実空間
中の特徴点を用いて補正することができる。具体的に
は、複数の特徴点を同時に利用し、かつ空間を歪ませる
ことなく、かつ対応する特徴点間の距離が最小となるよ
うにカメラの位置姿勢を補正することで、カメラの位置
姿勢を同定することが可能となる。
As described above, the position / orientation correction apparatus and the position / orientation correction method according to the present embodiment can correct the error in the measurement result obtained by the sensor for measuring the three-dimensional position and orientation by using the feature points in the real space. it can. Specifically, the position and orientation of the camera are corrected by simultaneously using a plurality of feature points, without distorting the space, and by correcting the position and orientation of the camera so that the distance between the corresponding feature points is minimized. Can be identified.

【0042】[第2の実施形態]本実施形態では、図2
に示したフローチャートにおいてステップS206にお
ける処理を変更した場合の実施形態について説明する。
また、本実施形態における位置姿勢補正装置の機能構成
は第1の実施形態(図1)と同じである。以下、本実施
形態におけるステップS206における処理について図
7を参照して以下、説明する。図7はステップS206
における処理の詳細を示すフローチャートである。
[Second Embodiment] In the present embodiment, FIG.
An embodiment in which the process in step S206 is changed in the flowchart shown in FIG.
The functional configuration of the position / orientation correction device in this embodiment is the same as that in the first embodiment (FIG. 1). Hereinafter, the processing in step S206 according to this embodiment will be described below with reference to FIG. 7. FIG. 7 shows step S206.
3 is a flowchart showing details of the processing in FIG.

【0043】まず、ステップS205にて画像から検出
した特徴点が3個以上あるかどうかを判定し(ステップ
S701)、3個以上ある場合には処理をステップS7
02にすすめ、3個以上ない場合には処理をステップS
709に進める。ステップS702からステップS70
8までの各処理は上記ステップS602からステップS
608までの各処理と同じであるため、説明を省略す
る。
First, it is determined whether or not there are three or more feature points detected from the image in step S205 (step S701), and if there are three or more feature points, the process proceeds to step S7.
Proceed to 02, if there are not three or more, the process is step S.
Proceed to 709. Step S702 to Step S70
Each processing up to 8 is performed from step S602 to step S
Since it is the same as each processing up to 608, description thereof will be omitted.

【0044】本実施形態における特徴としてのステップ
S709は、3点以上特徴点が得られていない場合の処
理であり、特徴点の数が1点の場合には、上記画像面に
投影された特徴点の位置と、撮像した画像における特徴
点の位置とを一致させるように、センサの計測値のうち
の回転成分もしくは平行移動成分のみを補正し、特徴点
の数が2点の場合には、この2点の平均的な位置を求
め、この平均的な位置における1点に対して同様に処理
を行うか,もしくは,それぞれの点にて前記1点の場合
の方法によりセンサの計測値を補正した結果を一旦計算
し得られた2つの補正結果の平均的な補正を行う。
The step S709 as a feature in this embodiment is a process when three or more feature points are not obtained. When the number of feature points is one, the feature projected on the image plane is Only the rotation component or the parallel movement component of the measurement value of the sensor is corrected so that the position of the point and the position of the feature point in the captured image match, and when the number of feature points is two, The average position of these two points is obtained, and the same process is performed for one point at this average position, or the measurement value of the sensor is corrected by the method in the case of the above-mentioned one point at each point. The calculated result is once calculated, and the two correction results obtained are averaged and corrected.

【0045】[そのほかの実施形態]本発明の目的は、
前述した実施形態の機能を実現するソフトウェアのプロ
グラムコードを記録した記憶媒体(または記録媒体)
を、システムあるいは装置に供給し、そのシステムある
いは装置のコンピュータ(またはCPUやMPU)が記憶媒体
に格納されたプログラムコードを読み出し実行すること
によっても、達成されることは言うまでもない。この場
合、記憶媒体から読み出されたプログラムコード自体が
前述した実施形態の機能を実現することになり、そのプ
ログラムコードを記憶した記憶媒体は本発明を構成する
ことになる。また、コンピュータが読み出したプログラ
ムコードを実行することにより、前述した実施形態の機
能が実現されるだけでなく、そのプログラムコードの指
示に基づき、コンピュータ上で稼働しているオペレーテ
ィングシステム(OS)などが実際の処理の一部または全部
を行い、その処理によって前述した実施形態の機能が実
現される場合も含まれることは言うまでもない。
[Other Embodiments] The object of the present invention is to
Storage medium (or recording medium) recording a program code of software that realizes the functions of the above-described embodiments
It is needless to say that it is also achieved by supplying the above to a system or apparatus, and the computer (or CPU or MPU) of the system or apparatus reads and executes the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention. Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an operating system (OS) running on the computer based on the instructions of the program code. It goes without saying that a case where some or all of the actual processing is performed and the functions of the above-described embodiments are realized by the processing is also included.

【0046】さらに、記憶媒体から読み出されたプログ
ラムコードが、コンピュータに挿入された機能拡張カー
ドやコンピュータに接続された機能拡張ユニットに備わ
るメモリに書込まれた後、そのプログラムコードの指示
に基づき、その機能拡張カードや機能拡張ユニットに備
わるCPUなどが実際の処理の一部または全部を行い、そ
の処理によって前述した実施形態の機能が実現される場
合も含まれることは言うまでもない。
Further, after the program code read from the storage medium is written in the memory provided in the function expansion card inserted in the computer or the function expansion unit connected to the computer, based on the instruction of the program code. Needless to say, this also includes a case where a CPU or the like included in the function expansion card or the function expansion unit performs a part or all of the actual processing and the processing realizes the functions of the above-described embodiments.

【0047】[0047]

【発明の効果】以上の説明により、本発明によって、複
数の特徴点を同時に利用し、かつ空間を歪ませることな
く撮像装置の位置姿勢を補正する補正することで、この
撮像装置の位置姿勢を同定することができる。
As described above, according to the present invention, by using a plurality of feature points at the same time and correcting the position and orientation of the image pickup apparatus without distorting the space, the position and orientation of the image pickup apparatus can be corrected. Can be identified.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施形態における位置姿勢補正装置と
HMDの機能構成を示すブロック図である。
FIG. 1 is a block diagram showing a functional configuration of a position and orientation correction device and an HMD according to an embodiment of the present invention.

【図2】本発明の実施形態における位置姿勢補正装置が
行うメインの処理のフローチャートである。
FIG. 2 is a flowchart of main processing performed by the position / orientation correction device according to the embodiment of the present invention.

【図3】現実空間におけるカメラの模式図である。FIG. 3 is a schematic diagram of a camera in a physical space.

【図4】焦点距離を説明する図である。FIG. 4 is a diagram illustrating a focal length.

【図5】ステップS201、S202、S203の工程
により得られる、3次元位置姿勢センサの計測値を基に
した画像における特徴点の位置と、ステップS204、
S205の工程により、撮像画像における特徴点の位置
とを示す図である。
FIG. 5 shows the positions of feature points in the image based on the measurement values of the three-dimensional position and orientation sensor obtained in steps S201, S202, and S203, and step S204,
It is a figure which shows the position of the characteristic point in a captured image by the process of S205.

【図6】本発明の第1の実施形態におけるステップS2
06の処理の詳細を示すフローチャートである。
FIG. 6 is a step S2 in the first embodiment of the present invention.
It is a flowchart which shows the detail of the process of 06.

【図7】本発明の第2の実施形態におけるステップS2
06の処理の詳細を示すフローチャートである。
FIG. 7 is a step S2 in the second embodiment of the present invention.
It is a flowchart which shows the detail of the process of 06.

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 7/18 H04N 7/18 K (72)発明者 武本 和樹 東京都大田区下丸子3丁目30番2号 キヤ ノン株式会社内 Fターム(参考) 2F065 AA04 AA37 BB05 BB27 CC00 EE00 FF04 FF65 FF67 JJ03 JJ19 JJ26 PP01 QQ00 QQ24 QQ28 QQ38 SS02 SS13 5B057 AA20 BA02 CA01 CA08 CA12 CA16 CB01 CB08 CB12 CB16 CC01 CD02 CD03 DA07 DB02 DB06 DB09 DC08 DC36 5C022 AB62 AB68 AC01 AC69 5C054 CG07 FD03 FE13 ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 Identification code FI theme code (reference) H04N 7/18 H04N 7/18 K (72) Inventor Kazuki Takemoto 3-30-2 Shimomaruko, Ota-ku, Tokyo Issue Canon Inc. F-term (Reference) 2F065 AA04 AA37 BB05 BB27 CC00 EE00 FF04 FF65 FF67 JJ03 JJ19 JJ26 PP01 QQ00 QQ24 QQ28 QQ38 SS02 SS13 5B057 AA20 BA02 CA01 CA08 CA12 CA16 CB01 DB16 DB01 CD02 CD02 CD02 CD02 CD02 CD02 CD02 CD02 CD02 CD02 CD02 CD02 CD02 CD02 CD02 CD02 CD02 CD02 CD02 CD02 CD02 CD02 DC36 5C022 AB62 AB68 AC01 AC69 5C054 CG07 FD03 FE13

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 現実空間を撮像する撮像部と世界座標系
における位置姿勢を計測する計測部を備える撮像装置の
位置姿勢を示すパラメータを補正する位置姿勢補正装置
であって、 現実空間に存在する複数の特徴点を前記撮像装置が撮像
することで得られる複数の特徴点を含む画像において、
当該画像における当該複数の特徴点の位置を求める第1
の位置計算手段と、 前記計測部による前記撮像装置の位置姿勢を示すパラメ
ータに基づいて、前記現実空間に存在する複数の特徴点
の前記画像面上における位置を求める第2の位置計算手
段と、 前記第1の位置計算手段により位置を求めた夫々の特徴
点と、前記第2の位置計算手段により位置を求めた夫々
の特徴点とで、対応する特徴点間の距離を夫々の組につ
いて求め、夫々の距離を用いて前記パラメータを補正す
る補正手段とを備えることを特徴とする位置姿勢補正装
置。
1. A position / orientation correction device for correcting a parameter indicating a position / orientation of an imaging device, the device being provided in the real space, the imaging device having an imaging unit for imaging the physical space and a measuring unit for measuring the position / orientation in the world coordinate system. In an image including a plurality of feature points obtained by the imaging device capturing a plurality of feature points,
First to obtain the positions of the plurality of feature points in the image
Position calculating means, and second position calculating means for calculating positions on the image plane of a plurality of feature points existing in the physical space based on a parameter indicating the position and orientation of the imaging device by the measuring unit, The distance between the corresponding feature points is obtained for each set by each of the feature points whose position has been obtained by the first position calculating means and each feature point whose position has been obtained by the second position calculating means. A position and orientation correction device, comprising: a correction unit that corrects the parameters by using respective distances.
【請求項2】 前記補正手段は、最急降下法を用いて前
記パラメータを補正することを特徴とする請求項1に記
載の位置姿勢補正装置。
2. The position / orientation correction apparatus according to claim 1, wherein the correction means corrects the parameter using a steepest descent method.
【請求項3】 前記補正手段は、前記夫々の距離が所定
値以下となるまで前記最急降下法を用いて前記パラメー
タを補正することを特徴とする請求項2に記載の位置姿
勢補正装置。
3. The position / orientation correction apparatus according to claim 2, wherein the correction means corrects the parameters by using the steepest descent method until the respective distances become equal to or less than a predetermined value.
【請求項4】 前記補正手段は、前記パラメータの変化
が所定値以下となるまで前記最急降下法を用いて前記パ
ラメータを補正することを特徴とする請求項2に記載の
位置姿勢補正装置。
4. The position / orientation correction apparatus according to claim 2, wherein the correction means corrects the parameter by using the steepest descent method until the change in the parameter becomes equal to or less than a predetermined value.
【請求項5】 前記現実空間に存在する複数の特徴点の
数は3つ以上であることを特徴とする請求項1に記載の
位置姿勢補正装置。
5. The position / orientation correction device according to claim 1, wherein the number of the plurality of feature points existing in the physical space is three or more.
【請求項6】 現実空間を撮像する撮像部と世界座標系
における位置姿勢を計測する計測部を備える撮像装置の
位置姿勢を示すパラメータを補正する位置姿勢補正方法
であって、 現実空間に存在する複数の特徴点を前記撮像装置が撮像
することで得られる複数の特徴点を含む画像において、
当該画像における当該複数の特徴点の位置を求める第1
の位置計算工程と、 前記計測部による前記撮像装置の位置姿勢を示すパラメ
ータに基づいて、前記現実空間に存在する複数の特徴点
の前記画像面上における位置を求める第2の位置計算工
程と、 前記第1の位置計算工程で位置を求めた夫々の特徴点
と、前記第2の位置計算工程で位置を求めた夫々の特徴
点とで、対応する特徴点間の距離を夫々の組について求
め、夫々の距離を用いて前記パラメータを補正する補正
工程とを備えることを特徴とする位置姿勢補正方法。
6. A position / orientation correction method for correcting a parameter indicating the position / orientation of an imaging device, which comprises an imaging unit for imaging the physical space and a measuring unit for measuring the position / orientation in the world coordinate system, which exists in the physical space. In an image including a plurality of feature points obtained by the imaging device capturing a plurality of feature points,
First to obtain the positions of the plurality of feature points in the image
And a second position calculation step of obtaining positions on the image plane of a plurality of feature points existing in the physical space based on a parameter indicating the position and orientation of the imaging device by the measurement unit. The distance between the corresponding feature points is calculated for each set by each of the characteristic points whose positions are obtained in the first position calculating step and each of the characteristic points whose positions are obtained in the second position calculating step. And a correcting step of correcting the parameter using the respective distances.
【請求項7】 情報処理装置に読み込ませることで、当
該情報処理装置を請求項1乃至5のいずれか1項に記載
の位置姿勢補正装置として機能させることを特徴とする
プログラム。
7. A program for causing an information processing device to function as the position / orientation correction device according to claim 1, when read by the information processing device.
【請求項8】 情報処理装置に読み込ませることで、当
該情報処理装置に請求項6に記載の位置姿勢補正方法を
実行させることを特徴とするプログラム。
8. A program for causing the information processing apparatus to execute the position-orientation correction method according to claim 6 by reading the information processing apparatus.
【請求項9】 請求項7または8に記載のプログラムを
格納し、コンピュータが読みとり可能な記憶媒体。
9. A computer-readable storage medium that stores the program according to claim 7 or 8.
JP2002081252A 2002-03-22 2002-03-22 Apparatus and method for correcting position and attitude Abandoned JP2003279310A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002081252A JP2003279310A (en) 2002-03-22 2002-03-22 Apparatus and method for correcting position and attitude

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002081252A JP2003279310A (en) 2002-03-22 2002-03-22 Apparatus and method for correcting position and attitude

Publications (1)

Publication Number Publication Date
JP2003279310A true JP2003279310A (en) 2003-10-02

Family

ID=29229964

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002081252A Abandoned JP2003279310A (en) 2002-03-22 2002-03-22 Apparatus and method for correcting position and attitude

Country Status (1)

Country Link
JP (1) JP2003279310A (en)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1596218A2 (en) * 2004-05-14 2005-11-16 Canon Kabushiki Kaisha Information processing method and system
JP2005326282A (en) * 2004-05-14 2005-11-24 Canon Inc Position and attitude measurement method and system
JP2005351886A (en) * 2004-05-14 2005-12-22 Canon Inc Position attitude measuring method and information processing device
JP2005353036A (en) * 2004-05-14 2005-12-22 Canon Inc Information processing method and device
EP1686554A2 (en) 2005-01-31 2006-08-02 Canon Kabushiki Kaisha Virtual space generating system, image processing apparatus and information processing method
WO2006082928A1 (en) 2005-02-04 2006-08-10 Canon Kabushiki Kaisha Position posture measuring method and device
JP2006215924A (en) * 2005-02-04 2006-08-17 Canon Inc Position attitude measurement method and device
CN1332555C (en) * 2003-10-27 2007-08-15 富士胶片株式会社 Photographic apparatus
JP2008292407A (en) * 2007-05-28 2008-12-04 Canon Inc Information processing method and information processing device
JP2010005332A (en) * 2008-06-30 2010-01-14 Nintendo Co Ltd Posture calculating device, posture calculating program, game device and game program
JP2010145389A (en) * 2008-12-22 2010-07-01 Korea Aerospace Research Inst Method of correcting three-dimensional erroneous array of attitude angle sensor by using single image
JP2010165114A (en) * 2009-01-14 2010-07-29 Mitsubishi Electric Corp Image monitoring device and installation condition correction method
CN102095370A (en) * 2010-11-22 2011-06-15 北京航空航天大学 Detection identification method for three-X combined mark
JP2012103116A (en) * 2010-11-10 2012-05-31 Nippon Telegr & Teleph Corp <Ntt> Camera pose information calculating device and camera pose information calculating program
JP2012128578A (en) * 2010-12-14 2012-07-05 Ntt Docomo Inc Portable terminal and image processing method
JP2013037006A (en) * 2012-09-21 2013-02-21 Canon Inc Information processor and information processing method
JP2014112758A (en) * 2012-12-05 2014-06-19 Nippon Hoso Kyokai <Nhk> Stereoscopic display device and stereoscopic display system
US8873802B2 (en) 2012-01-18 2014-10-28 Samsung Electronics Co., Ltd. Method and apparatus for camera tracking
JP2014216813A (en) * 2013-04-25 2014-11-17 日本放送協会 Camera attitude estimation device and program therefor
WO2022246605A1 (en) * 2021-05-24 2022-12-01 华为技术有限公司 Key point calibration method and apparatus
WO2023119412A1 (en) * 2021-12-21 2023-06-29 日本電気株式会社 Information processing device, control method, and storage medium

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1332555C (en) * 2003-10-27 2007-08-15 富士胶片株式会社 Photographic apparatus
EP1596218A3 (en) * 2004-05-14 2010-03-03 Canon Kabushiki Kaisha Information processing method and system
JP2005326282A (en) * 2004-05-14 2005-11-24 Canon Inc Position and attitude measurement method and system
JP2005351886A (en) * 2004-05-14 2005-12-22 Canon Inc Position attitude measuring method and information processing device
JP2005353036A (en) * 2004-05-14 2005-12-22 Canon Inc Information processing method and device
EP1596218A2 (en) * 2004-05-14 2005-11-16 Canon Kabushiki Kaisha Information processing method and system
JP4593968B2 (en) * 2004-05-14 2010-12-08 キヤノン株式会社 Position and orientation measurement method and apparatus
CN100408969C (en) * 2004-05-14 2008-08-06 佳能株式会社 Method and device for determining position and direction
JP4566786B2 (en) * 2004-05-14 2010-10-20 キヤノン株式会社 Position and orientation measurement method and information processing apparatus
JP4533193B2 (en) * 2004-05-14 2010-09-01 キヤノン株式会社 Information processing apparatus and information processing method
EP1686554A2 (en) 2005-01-31 2006-08-02 Canon Kabushiki Kaisha Virtual space generating system, image processing apparatus and information processing method
US7843470B2 (en) 2005-01-31 2010-11-30 Canon Kabushiki Kaisha System, image processing apparatus, and information processing method
US8073201B2 (en) 2005-02-04 2011-12-06 Canon Kabushiki Kaisha Position/orientation measurement method and apparatus
WO2006082928A1 (en) 2005-02-04 2006-08-10 Canon Kabushiki Kaisha Position posture measuring method and device
JP4726191B2 (en) * 2005-02-04 2011-07-20 キヤノン株式会社 Position / orientation correction apparatus, position / orientation correction method, program thereof, and storage medium
JP2006215924A (en) * 2005-02-04 2006-08-17 Canon Inc Position attitude measurement method and device
JP2006242943A (en) * 2005-02-04 2006-09-14 Canon Inc Position attitude measuring method and device
JP2008292407A (en) * 2007-05-28 2008-12-04 Canon Inc Information processing method and information processing device
JP2010005332A (en) * 2008-06-30 2010-01-14 Nintendo Co Ltd Posture calculating device, posture calculating program, game device and game program
JP2010145389A (en) * 2008-12-22 2010-07-01 Korea Aerospace Research Inst Method of correcting three-dimensional erroneous array of attitude angle sensor by using single image
JP2010165114A (en) * 2009-01-14 2010-07-29 Mitsubishi Electric Corp Image monitoring device and installation condition correction method
JP2012103116A (en) * 2010-11-10 2012-05-31 Nippon Telegr & Teleph Corp <Ntt> Camera pose information calculating device and camera pose information calculating program
CN102095370A (en) * 2010-11-22 2011-06-15 北京航空航天大学 Detection identification method for three-X combined mark
JP2012128578A (en) * 2010-12-14 2012-07-05 Ntt Docomo Inc Portable terminal and image processing method
US8873802B2 (en) 2012-01-18 2014-10-28 Samsung Electronics Co., Ltd. Method and apparatus for camera tracking
JP2013037006A (en) * 2012-09-21 2013-02-21 Canon Inc Information processor and information processing method
JP2014112758A (en) * 2012-12-05 2014-06-19 Nippon Hoso Kyokai <Nhk> Stereoscopic display device and stereoscopic display system
JP2014216813A (en) * 2013-04-25 2014-11-17 日本放送協会 Camera attitude estimation device and program therefor
WO2022246605A1 (en) * 2021-05-24 2022-12-01 华为技术有限公司 Key point calibration method and apparatus
WO2023119412A1 (en) * 2021-12-21 2023-06-29 日本電気株式会社 Information processing device, control method, and storage medium

Similar Documents

Publication Publication Date Title
JP2003279310A (en) Apparatus and method for correcting position and attitude
JP6330987B2 (en) Image processing apparatus, image processing method, and storage medium
US5706419A (en) Image capturing and processing apparatus and image capturing and processing method
JP3467017B2 (en) Position and orientation determination method and apparatus, and storage medium
US8144238B2 (en) Image processing apparatus and method
Klein et al. Parallel tracking and mapping on a camera phone
JP6338021B2 (en) Image processing apparatus, image processing method, and image processing program
JP3486613B2 (en) Image processing apparatus and method, program, and storage medium
WO2021043213A1 (en) Calibration method, device, aerial photography device, and storage medium
JP2004213355A (en) Information processing method
JP2008002980A (en) Information processing method and device
JPH10221072A (en) System and method for photogrammetry
JP2017156162A (en) Information processing device, information processing method, and program
WO2020031950A1 (en) Measurement calibration device, measurement calibration method, and program
JP6894707B2 (en) Information processing device and its control method, program
JP2003344018A (en) Unit and method for image processing as well as program and storage medium
JP2005107247A (en) Method and device for estimating positional attitude
CN114494388B (en) Three-dimensional image reconstruction method, device, equipment and medium in large-view-field environment
JP2020052979A (en) Information processing device and program
JP6922348B2 (en) Information processing equipment, methods, and programs
JP2003269913A (en) Device and method for calibrating sensor, program, and storage medium
JP4102386B2 (en) 3D information restoration device
JP2000134537A (en) Image input device and its method
JP2003346185A (en) Information display system and personal digital assistant
JP2008224323A (en) Stereoscopic photograph measuring instrument, stereoscopic photograph measuring method, and stereoscopic photograph measuring program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060227

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20060316