JP2000041173A - Deciding method for visual point position attitude, camera device and visual point position sensor - Google Patents

Deciding method for visual point position attitude, camera device and visual point position sensor

Info

Publication number
JP2000041173A
JP2000041173A JP10208307A JP20830798A JP2000041173A JP 2000041173 A JP2000041173 A JP 2000041173A JP 10208307 A JP10208307 A JP 10208307A JP 20830798 A JP20830798 A JP 20830798A JP 2000041173 A JP2000041173 A JP 2000041173A
Authority
JP
Japan
Prior art keywords
camera
marks
depth information
image
matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10208307A
Other languages
Japanese (ja)
Other versions
JP3976900B2 (en
Inventor
Kiyohide Sato
清秀 佐藤
Hiroyuki Yamamoto
裕之 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MR SYSTEM KENKYUSHO KK
MR System Kenkyusho KK
Original Assignee
MR SYSTEM KENKYUSHO KK
MR System Kenkyusho KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MR SYSTEM KENKYUSHO KK, MR System Kenkyusho KK filed Critical MR SYSTEM KENKYUSHO KK
Priority to JP20830798A priority Critical patent/JP3976900B2/en
Publication of JP2000041173A publication Critical patent/JP2000041173A/en
Application granted granted Critical
Publication of JP3976900B2 publication Critical patent/JP3976900B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To uniquely decide a camera parameter to show the position attitude of a camera by acquiring the images of three marks existing within a prescribed plane through the camera, acquiring the image coordinates of those marks and then calculating and outputting a parameter to decide the camera position attitude based on the depth information on three marks and the image coordinates acquired from these depth information. SOLUTION: A camera parameter deciding device consists of an estimation module, a coordinate detection module and a parameter estimation module. The image coordinates of three land marks are acquired together with the depth information up to the land marks and a matrix U of C'=U'.W'-1 is acquired. Thus, the camera position is decided in AR (augmented reality). The camera parameter matrices U' and W' are shown in expressions I and II. In these expressions, the image coordinates of three marks are shown in (x1, y1), (x2, y2) and (x3, y3) with the depth information on the marks shown in z1, z2 and z3 and the world coordinate value of the marks shown in (XW1 YW1, O), (XW2, YW2, O) and (XW3, YW3 and O) respectively.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、視点位置姿勢の決
定方法、カメラ装置、位置姿勢センサに関し、特に、カ
メラの視点位置を、3つのマークによって決定する方法
などの改良に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for determining a viewpoint position and orientation, a camera device, and a position and orientation sensor, and more particularly to an improvement in a method for determining a viewpoint position of a camera by three marks.

【0002】[0002]

【従来の技術】近年、現実空間と仮想空間の融合を目的
とした複合現実感(MR: Mixed Reality)に関する研究
が盛んになっている。その中でも、現実空間に仮想空間
の情報を重畳表示する技術は「オーグメンティド・リア
リティ」(AR: Augmented Reality)と呼ばれている。
2. Description of the Related Art In recent years, researches on mixed reality (MR) for the purpose of integrating a real space and a virtual space have been actively conducted. Among them, a technique for superimposing and displaying information of a virtual space on a real space is called “Augmented Reality” (AR: Augmented Reality).

【0003】ARの実現手段は、大きく2つに分類でき
る。1つは透過型のHMD(Head-Mounted Display)を利
用して、表示面越しに見える現実世界の光景に仮想物体
の映像を重畳する方式で、「光学シースルー方式」と呼
ばれている。もう1つは、ビデオカメラで撮影された映
像に仮想物体を重畳描画する方式で、「ビデオシースル
ー方式」と呼ばれている。いずれの方式においても、2
つの空間の自然な融合を実現するためには、「位置合わ
せ」、「画質の一致」、「3次元空間合成」(前後関係
や衝突の表現)といった要因について取り組まなくては
ならない。中でも「位置合わせ」は、ARを実現するため
の最も基本的でかつ重要な要因といえる。
[0003] AR realizing means can be roughly classified into two types. One method is to use a transmission-type HMD (Head-Mounted Display) to superimpose an image of a virtual object on a real world scene seen over a display surface, which is called an “optical see-through method”. The other is a method of superimposing and drawing a virtual object on an image shot by a video camera, which is called a “video see-through method”. In either method, 2
In order to realize a natural fusion of two spaces, it is necessary to address factors such as “alignment”, “coincidence of image quality”, and “synthesis of three-dimensional space” (expression of context and collision). Above all, “alignment” is the most basic and important factor for realizing AR.

【0004】ARにおける位置合わせとは、基本的に観察
者の視点(光学シースルー方式の場合)やカメラ(ビデ
オシースルー方式の場合)の位置や方位などのパラメー
タを計測・推定することである。これには、大きく2つ
の方式が用いられる。1つは磁気センサや超音波センサ
といった3次元位置方位センサを用いる「センサベー
ス」の方式であり、もう1つは主にビデオシースルー方
式のARで用いられる「画像ベース」の位置合わせ方式で
ある。
[0004] Positioning in AR basically means measuring and estimating parameters such as the viewpoint (in the case of an optical see-through system) of a viewer and the position and orientation of a camera (in the case of a video see-through system). For this purpose, two methods are used. One is a "sensor-based" method using a three-dimensional position and orientation sensor such as a magnetic sensor or an ultrasonic sensor, and the other is an "image-based" method of alignment mainly used in video see-through AR. .

【0005】[0005]

【発明が解決しようとする課題】センサベースの位置合
わせ方式は、動作の安定性の面では優れているものの、
ARに用いるには精度的に不十分な場合が多い。一方、画
像ベースの位置合わせ方式は、融合の対象となる現実の
画像情報を位置合わせに直接利用することで、精度の高
い位置合わせが可能である。そこには、コンピュータビ
ジョン分野で研究されてきた各種カメラ・キャリブレー
ションの手法を応用することが考えられる。しかし、AR
ではリアルタイム処理の制約のもとで各種処理を実装す
る必要があり、そのようなアルゴリズムではランドマー
クの抽出/識別処理に誤差が生じやすく、動作が不安定
になるという課題を有している。
Although the sensor-based alignment method is excellent in operation stability,
In many cases, accuracy is insufficient for use in AR. On the other hand, the image-based positioning method enables highly accurate positioning by directly using the actual image information to be merged for positioning. It is conceivable to apply various camera calibration methods that have been studied in the field of computer vision. But AR
In such a case, it is necessary to implement various kinds of processing under the restriction of real-time processing, and such an algorithm has a problem that an error easily occurs in landmark extraction / identification processing and operation becomes unstable.

【0006】位置あわせについて、従来の手法について
説明する。なお以下では、説明の簡略化のために、カメ
ラ座標系から画像座標系への投影は理想的な透視投影の
モデルに基づいて行われていると仮定する。すなわち、
画像の歪みや中心のずれ、アスペクト比といった要因は
事前に計測されており、画像座標抽出の段階で除去され
ているものとする。
[0006] A conventional method for positioning will be described. In the following, for simplification of description, it is assumed that the projection from the camera coordinate system to the image coordinate system is performed based on an ideal perspective projection model. That is,
It is assumed that factors such as image distortion, center shift, and aspect ratio have been measured in advance and have been removed at the stage of image coordinate extraction.

【0007】まず、カメラパラメータ推定の基本形につ
いて説明する。3次元空間中のランドマークQi(世界座
標QWi = (XWi, YWi, ZWi, 1))が、カメラにより、画
像座標qi = (xi, yi)で撮像されたとする。このカメラ
について透視投影を仮定すると、この投影は、34の変換
行列Cによって、
First, a basic form of camera parameter estimation will be described. It is assumed that a landmark Q i (world coordinates Q Wi = (X Wi , Y Wi , Z Wi , 1)) in a three-dimensional space is imaged by a camera at image coordinates q i = (x i , y i ). . Assuming a perspective projection for this camera, this projection is given by 34 transformation matrices C,

【0008】[0008]

【数4】 … (1) と表わすことができる。ここでhiは媒介変数である。こ
の(1)式を展開すると、
(Equation 4) … (1) Where h i is a parameter. Expanding equation (1),

【0009】[0009]

【数5】 …(2) が得られる。(2)の第3式から媒介変数hiを消去する
ことができる。また、ランドマークの世界座標値(XWi,
YWi, ZWi)は既知であり、そのランドマークに対して画
像上で観測座標値(xi, yi)が得られたのであるから、1
点のランドマークについての一対の世界座標値と観測座
標値は、(2)式の第1と第2の2つの式を与える。
(Equation 5) … (2) is obtained. The parameter h i can be eliminated from the third expression of (2). In addition, the world coordinates of the landmark (X Wi ,
Y Wi , Z Wi ) are known, and the observation coordinates (x i , y i ) have been obtained on the image for that landmark, so 1
A pair of world coordinate values and observation coordinate values for a point landmark give the first and second two expressions of the expression (2).

【0010】行列Cは3×4であるから、この12個の
未知数、即ち、行列要素を有する。1つのランドマーク
は2つの式を与えるから、この行列Cを決定するために
は、同一平面上にない6点(i=1,2…6)以上の
(既知の)ランドマークが画像上で観察されていればよ
いことになる。この行列Cをいかに求めるかが、カメラ
パラメータの推定、すなわち、位置合わせの問題であ
る。
Since the matrix C is 3 × 4, it has these 12 unknowns, ie, matrix elements. Since one landmark gives two equations, in order to determine the matrix C, six (i = 1, 2,... 6) or more (known) landmarks not on the same plane It just needs to be observed. How to find the matrix C is a problem of camera parameter estimation, that is, positioning.

【0011】奥行き情報を利用してカメラのパラメータ
を推定することが提案されている。以下に、奥行き情報
を利用してカメラのパラメータを推定する方法を説明す
る。式(1)における媒介変数hiは、カメラ座標系におけ
るランドマークQiの奥行き値ZCiと比例関係にあり、あ
る定数kを用いて、
It has been proposed to estimate camera parameters using depth information. Hereinafter, a method of estimating camera parameters using depth information will be described. The parameter h i in equation (1) is proportional to the depth value Z Ci of the landmark Q i in the camera coordinate system, and using a certain constant k,

【0012】[0012]

【数6】 …(3) と表わすことができる。また、この比例関係を満たす値
であれば、kの値は任意に選ぶことができる。今、ラン
ドマークQiに対する奥行きの尺度として、
(Equation 6) ... (3). Further, the value of k can be arbitrarily selected as long as the value satisfies the proportional relationship. Now, as a measure of depth for landmark Q i ,

【0013】[0013]

【数7】 …(4) を満たすような値ziが得られているとする。この場合、
ziを式(1)のhiに代入することで、1点のランドマークに
ついて次の3つの式を得る。
(Equation 7) It is assumed that a value z i that satisfies (4) is obtained. in this case,
By substituting z i for h i in equation (1), the following three equations are obtained for one landmark.

【0014】[0014]

【数8】 …(5) ここで、同一平面上にない4点(または以上)のランド
マークの世界座標値が、 (XW1, YW1, ZW1) (XW2, YW2, ZW2) (XW3, YW3, ZW3) (XW4, YW4, ZW4) …(6) と与えられ、画像座標系で、座標値が、 (x1, y1, z1) (x2, y2, z2) (x3, y3, z3) (x4, y4, z3) …(7) と観測された場合、
(Equation 8) … (5) Here, the world coordinate values of four (or more) landmarks that are not on the same plane are (X W1 , Y W1 , Z W1 ) (X W2 , Y W2 , Z W2 ) (X W3 , Y W3 , Z W3 ) (X W4 , Y W4 , Z W4 )… (6), and in the image coordinate system, the coordinate values are (x 1 , y 1 , z 1 ) (x 2 , y 2 , z 2 ) (x 3 , y 3 , z 3 ) (x 4 , y 4 , z 3 )… (7)

【0015】[0015]

【数9】 …(8)(Equation 9) … (8)

【0016】[0016]

【数10】 …(9) と表記すると、式(5)は、 U=C W …(10) と表わせるので、行列Cは次式によって求められる。(Equation 10) .. (9), Equation (5) can be expressed as U = CW... (10), and the matrix C is obtained by the following equation.

【0017】 C=UW-1 …(11) ここで、行列W-1は、既知のランドマークの世界座標の
組によって表現される行列Wの逆行列であり、予め計算
しておくことができる。したがって、カメラパラメータ
(C={aij})の推定問題は、従来においては、いか
にして行列U、すなわち、4点のランドマークの画像座標
(xi, yi)とその奥行きの尺度ziを得るかという問題に帰
着する。
C = UW −1 (11) Here, the matrix W −1 is an inverse matrix of the matrix W represented by a set of known landmark world coordinates, and can be calculated in advance. . Therefore, the problem of estimating the camera parameters (C = {a ij }) is conventionally determined by how the matrix U, that is, the image coordinates of the four landmarks
The result is to get (x i , y i ) and its depth measure z i .

【0018】ランドマークの奥行きの尺度ziを得るに
は、例えば、Mellor(J. P. Mellor:Realtime camera c
alibration for enhanced reality visualization, Pro
c. CVRMed 95, pp.471-475, 1995.)は、ランドマーク
の見かけの大きさの情報を利用する手法を提案した。こ
のMellorの手法は、ランドマークの見かけの大きさsi
視点からランドマークまでの距離に反比例することを利
用し、こうして得られたsiの逆数1/siを式(6)のziとし
て用いることで、4点のランドマークを用いた位置合わ
せを行うものである。
In order to obtain the landmark depth scale z i , for example, Mellor (JP Mellor: Realtime camera c
alibration for enhanced reality visualization, Pro
c. CVRMed 95, pp.471-475, 1995.) proposed a method using information on the apparent size of landmarks. This method of Mellor makes use of the fact that the apparent size s i of the landmark is inversely proportional to the distance from the viewpoint to the landmark.The reciprocal 1 / s i of s i obtained in this way is expressed by z in Equation (6). By using it as i , alignment using four landmarks is performed.

【0019】このように、カメラパラメータの推定にラ
ンドマークの奥行き情報を用いる場合でも、前述したよ
うに、4点のランドマークが必要であった。カメラの配
置に拘束を課すことによっても、カメラパラメータを推
定することができる。中沢ら(中沢, 中野, 小松, 斎
藤: 画像中の特徴点に基づく実写画像とCG画像との動画
像合成システム, 映像情報メディア学会誌, Vol.51, N
o.7, pp.1086-1095, 1997.)は、Z=0の平面を利用して
カメラパラメータを推定する方法を提案している。即
ち、全てのランドマークが世界座標系におけるZ = 0の
平面に配置されているという前提に基づいて、4点のラ
ンドマークに同一平面上にあるという拘束を課して、カ
メラパラメータを推定するというものである。また、大
隈ら(大隈, 清川, 竹村, 横矢: ビデオシースルー型拡
張現実感のための実画像からのカメラパラメータの実時
間推定, 信学技報, PRMU97-113, 1997. )は、焦点距離
を既知とすることで、中沢らの手法をさらに簡略化した
位置合わせを実現した。
As described above, even when the landmark depth information is used for estimating camera parameters, four landmarks are required as described above. Camera parameters can also be estimated by imposing constraints on camera placement. Nakazawa et al. (Nakazawa, Nakano, Komatsu, Saito: Video Synthesizing System Based on Feature Points in Images and CG Images, Journal of the Institute of Image Information and Television Engineers, Vol.51, N
o.7, pp.1086-1095, 1997.) propose a method for estimating camera parameters using a plane of Z = 0. That is, based on the assumption that all landmarks are arranged on the plane of Z = 0 in the world coordinate system, the constraint that four landmarks are on the same plane is imposed, and the camera parameters are estimated. That is. Okuma et al. (Okuma, Kiyokawa, Takemura, Yokoya: Real-time estimation of camera parameters from real images for video see-through augmented reality, IEICE Technical Report, PRMU97-113, 1997.) By making it known, the alignment method that further simplified Nakazawa's method was realized.

【0020】[0020]

【発明が解決しようとする課題】しかしながら、上述の
3つの先行技術の手法は、いずれも、4点のランドマー
クを必要とするものであり、リアルタイム処理の点で問
題があった。たしかに、3点のランドマークによる提案
(例えば、Fisher)も存在するが、これには煩雑な非線
形方程式を解く必要があり、またその解は複数存在する
ものであり、一意な解を得ることができず、従って、カ
メラパラメータを決定することはできていなかったとい
っても過言ではない。
However, all of the above three prior art methods require four landmarks, and have a problem in real-time processing. Certainly, there are proposals using three landmarks (eg, Fisher), but this requires solving a complicated nonlinear equation, and there are multiple solutions, and it is difficult to obtain a unique solution. It is not an exaggeration to say that the camera parameters could not be determined.

【0021】本発明は従来技術のこのような欠点に鑑み
てなされたもので、その目的は、3点のランドマークか
ら、カメラの位置姿勢を表すカメラパラメータを一意に
決定することができる視点位置の決定方法、カメラ装
置、カメラの位置姿勢検出方法なを提案することを目的
とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above-mentioned drawbacks of the prior art, and an object of the present invention is to provide a viewpoint position at which a camera parameter representing a camera position and orientation can be uniquely determined from three landmarks. It is an object of the present invention to propose a method for determining the position, a camera device, and a method for detecting the position and orientation of a camera.

【0022】[0022]

【課題を解決するための手段】上記課題を達成するため
の、本発明の請求項1にかかる方法は、所定の面内に置
かれた3つのマークの画像をカメラを用いて取得し、こ
の画像内で前記3つのマークの画像座標を夫々取得し、
前記3つのマークの奥行き情報を得、前記マークについ
て得られた、画像座標と奥行き情報とに基づいて、前記
カメラの位置姿勢決定のためのパラメータを演算して出
力することを特徴とする。
According to a first aspect of the present invention, there is provided a method for acquiring an image of three marks placed in a predetermined plane using a camera. Acquire the image coordinates of each of the three marks in the image,
The depth information of the three marks is obtained, and parameters for determining the position and orientation of the camera are calculated and output based on the image coordinates and the depth information obtained for the marks.

【0023】本発明は、種々のカメラやセンサの組合せ
に適用可能である。本発明の好適な一態様である請求項
2に拠れば、前記3つのマークの奥行き情報を、単眼カ
メラとこのカメラに設けられた位置姿勢センサの出力と
に基づいて検出することを特徴とする。また、本発明の
好適な一態様である請求項3に拠れば、前記3つのマー
クの奥行き情報を、ステレオカメラと三次元位置姿勢セ
ンサの出力とによって求めることを特徴とする。
The present invention is applicable to various camera and sensor combinations. According to a preferred aspect of the present invention, the depth information of the three marks is detected based on a monocular camera and an output of a position and orientation sensor provided in the camera. . According to a third aspect of the present invention, the depth information of the three marks is obtained by a stereo camera and an output of a three-dimensional position and orientation sensor.

【0024】マークの奥行き情報は常に完全に得られる
必要はない。単に、三珠まで表示することが目的でるな
らば、本発明の好適な一態様である請求項4の如く、少
なくとも1つのマークの奥行き情報が得られる時は、仮
想のマークの奥行き情報を設定する。本発明の好適な一
態様である請求項5に拠れば、前記3つのマークを、同
一直線上に乗ってない、世界座標でZ=0面上のマーク
に選ぶことを特徴とする。
The mark depth information does not always need to be completely obtained. If the purpose is simply to display up to three beads, when the depth information of at least one mark is obtained, the depth information of the virtual mark is set as in claim 4, which is a preferred aspect of the present invention. I do. According to claim 5, which is a preferred aspect of the present invention, the three marks are selected as marks on the Z = 0 plane in world coordinates that are not on the same straight line.

【0025】本発明の好適な一態様である請求項6に拠
れば、前記3つのマークを、同一直線上に乗ってない、
世界座標でZ=0でない任意の平面上のマークに選ぶ場
合には、Z=0でない前記任意の平面からZ=0平面へ
の変換行列を求め、この変換行列によって変換されたラ
ンドマークの世界座標を用いて、カメラのパラメータを
決定することを特徴とする。
According to claim 6 which is a preferable aspect of the present invention, the three marks are not on the same straight line,
When selecting a mark on an arbitrary plane other than Z = 0 in world coordinates, a transformation matrix from the arbitrary plane other than Z = 0 to the Z = 0 plane is obtained, and the landmark world transformed by this transformation matrix is obtained. It is characterized in that parameters of the camera are determined using the coordinates.

【0026】上記目的は、請求項6のカメラ装置によっ
ても達成される。例えば、画像と共に位置姿勢データを
出力するカメラ装置は、所定の面内に置かれた3つのマ
ークの画像を撮影するカメラと、このカメラで取り込ま
れたマークの画像の座標値を演算する手段と、前記3つ
のマークの奥行き情報を得る手段と、前記マークについ
て得られた、画像座標と奥行き情報とに基づいて、前記
カメラの位置姿勢決定のためのパラメータを演算する手
段とを具備することを特徴とする。
The above object is also achieved by a camera device according to claim 6. For example, a camera device that outputs position and orientation data together with an image includes a camera that captures images of three marks placed in a predetermined plane, and a unit that calculates coordinate values of the images of the marks captured by the camera. Means for obtaining depth information of the three marks, and means for calculating parameters for determining the position and orientation of the camera based on image coordinates and depth information obtained for the marks. Features.

【0027】上記課題は、頭部の位置姿勢センサに依っ
ても達成される。この場合の位置姿勢センサは、請求項
7のように、頭部近傍に取り付けられ、所定の面内に置
かれた3つのマークの画像を撮影するカメラと、このカ
メラで取り込まれたマークの画像座標値を求める手段
と、前記3つのマークの奥行き情報を得る手段と、前記
マークについて得られた、画像座標と奥行き情報とに基
づいて、前記カメラの位置姿勢決定のためのパラメータ
を演算して出力する手段とを具備する。
The above object can also be achieved by a head position / posture sensor. The position and orientation sensor in this case is attached to the vicinity of the head and captures images of three marks placed in a predetermined plane, and an image of the mark captured by the camera. Means for obtaining coordinate values; means for obtaining depth information of the three marks; and calculating parameters for determining the position and orientation of the camera based on image coordinates and depth information obtained for the marks. Output means.

【0028】上記課題は、請求項8のように、3つのマ
ークの、画像座標を(x1, y1), (x2,y2), (x3, y4)、奥
行き情報をz1, z2, z3、世界座標値を(XW1, YW1, 0)、
(XW2,YW2, 0)、(XW3, YW3, 0)とすると、カメラのパラ
メータ行列は、
The object of the present invention is to set the image coordinates of the three marks to (x 1 , y 1 ), (x 2 , y 2 ), (x 3 , y 4 ) and the depth information to z 1 , z 2 , z 3 , the world coordinate values are (X W1 , Y W1 , 0),
If (X W2 , Y W2 , 0) and (X W3 , Y W3 , 0), the camera parameter matrix is

【0029】[0029]

【数11】 [Equation 11]

【0030】[0030]

【数12】 とすると、(Equation 12) Then

【0031】[0031]

【数13】 によって与えられる行列Cから求めることを特徴とす
る。
(Equation 13) From the matrix C given by

【0032】[0032]

【発明の実施の形態】以下、添付図面を参照しながら、
本発明の実施形態を説明する。本発明の発明者たちは、
実施形態の手法を、中沢らの手法を拡張したものとして
位置づけている。本実施形態の手法は、3点のランドマ
ークによって位置合わせする、即ち、カメラパラメータ
の推定を可能にするものである。
BRIEF DESCRIPTION OF THE DRAWINGS FIG.
An embodiment of the present invention will be described. The inventors of the present invention
The method of the embodiment is positioned as an extension of the method of Nakazawa et al. The method according to the present embodiment enables alignment using three landmarks, that is, enables estimation of camera parameters.

【0033】まず、中沢らの手法を本発明の発明者の観
点から体系化する。 〈Z=0平面を利用した推定〉世界座標系におけるラン
ドマークのZ座標を全て0とすると、ランドマークを画像
上で観測する時の投影関係を表わす座標変換行列は、
(1)式の行列Cの第3列(Z座標に関する成分)を省略した
3x3の行列だけで表現することができ、それCとして表わ
すとする。こうすると、ランドマークの、世界座標系か
ら画像座標系への投影は、(1)式よりも単純化されて、
次式のように記述できる。
First, Nakazawa et al.'S method is systematized from the viewpoint of the inventor of the present invention. <Estimation Using Z = 0 Plane> Assuming that the Z coordinates of landmarks in the world coordinate system are all 0, a coordinate transformation matrix representing a projection relationship when observing the landmarks on an image is:
The third column of matrix C in equation (1) (the component related to the Z coordinate) was omitted.
It can be represented only by a 3x3 matrix, and it is represented as C. In this case, the projection of the landmark from the world coordinate system to the image coordinate system is simplified as compared with the equation (1).
It can be described as follows.

【0034】[0034]

【数14】 … (12) この式を展開して、[Equation 14] … (12) By expanding this equation,

【0035】[0035]

【数15】 …(13) が得られる。(13)の第3式を第1式,第2式に代入して
媒介変数hiを消去すると、1点のランドマーク(XWi, Y
Wi)について2つの式が得られる。ここで、a34 =1とす
ると、行列Cについての未知数がa11, a12, a14, a21, a
21, a22, a24, a3 1, a32という8個となることから、4点
以上のランドマーク(XWi, YWi)(i= 1, 2, 3, 4)を観
測することで、行列Cを求めることができる。
(Equation 15) … (13) is obtained. Substituting the third equation of (13) into the first and second equations to eliminate the parameter h i , one landmark (X Wi , Y
Two equations are obtained for Wi ). Here, if a 34 = 1, the unknowns of the matrix C are a 11 , a 12 , a 14 , a 21 , a
21, from a 22, a 24, a 3 1, be eight of a 32, four or more landmarks (X Wi, Y Wi) ( i = 1, 2, 3, 4) to observe the Then, the matrix C can be obtained.

【0036】このようにして得られた行列Cから行列Cの
第3列成分(a13, a23, a33)を求めることで、カメラパ
ラメータCを推定することができる。行列Cから行列Cを
求めることの手順を以下にさらに詳しく説明する。一般
に、世界座標系から画像座標系への座標変換を表わす行
列C (3x4)は、カメラの焦点距離をfとすれば、カメラ
座標系から画像座標系への透視変換行列P(3x4行列)
と、世界座標系からカメラ座標系への座標変換行列M(4
x4行列)によって、次式のように記述できる。
The camera parameters C can be estimated by obtaining the third column components (a 13 , a 23 , a 33 ) of the matrix C from the matrix C thus obtained. The procedure for obtaining the matrix C from the matrix C will be described in more detail below. Generally, a matrix C (3x4) representing a coordinate transformation from the world coordinate system to the image coordinate system is a perspective transformation matrix P (3x4 matrix) from the camera coordinate system to the image coordinate system, where f is the focal length of the camera.
And a coordinate transformation matrix M (4
x4 matrix) can be described as follows:

【0037】[0037]

【数16】 … (14) 一方、前述の行列Cも同様に、行列Pと、行列Mの第3列を
省略した行列M (4x3)とによって、次式のように記述す
ることができる。
(Equation 16) (14) On the other hand, the above-described matrix C can be similarly described by the following equation using the matrix P and the matrix M (4x3) in which the third column of the matrix M is omitted.

【0038】[0038]

【数17】 … (15) 即ち、行列Cの各要素は上述の如く求まっているので、
カメラの焦点距離fが既知であれば、行列M'の各要素は
その行列C'から容易に求める事ができる。また、行列M
の第3列はカメラ座標系のz軸を表わしており、これは、
行列Mの(すなわち行列Mの)第1列(x軸)と第2列(y
軸)が表わす2つのベクトルに直交するベクトルとして
求めることができる。したがって、行列Mは行列Mから推
定可能であり、こうして得られた行列Mを式(14)に代入
することで、カメラパラメータを表わす行列Cを獲得す
ることができる。即ち、4点のランドマークをZ=0平
面に拘束することによって、カメラパラメータCを得る
ことができる。
[Equation 17] … (15) That is, since each element of the matrix C is obtained as described above,
If the focal length f of the camera is known, each element of the matrix M 'can be easily obtained from the matrix C'. Also, the matrix M
The third column of represents the z-axis of the camera coordinate system, which is
The first column (x-axis) and the second column (y
(Axis) can be obtained as a vector orthogonal to the two vectors represented by (axis). Therefore, the matrix M can be estimated from the matrix M, and the matrix M representing the camera parameters can be obtained by substituting the matrix M thus obtained into the equation (14). That is, the camera parameters C can be obtained by constraining the four landmarks on the Z = 0 plane.

【0039】〈3点によるカメラパラメータ行列Cの推
定〉第1図に示すように、3点のランドマーク(Q1, Q2,
Q3)の、世界座標系から画像座標系への投影は、(12)式
と同じように、次式のように記述できる。
<Estimation of Camera Parameter Matrix C Using Three Points> As shown in FIG. 1, three landmarks (Q 1 , Q 2 ,
The projection from the world coordinate system to the image coordinate system in Q 3 ) can be described as in the following equation, as in equation (12).

【0040】[0040]

【数18】 … (16) この式における媒介変数hiは、カメラ座標系におけるラ
ンドマークQi(=Q1, Q2,Q3)の奥行き値ZCiと比例関係に
あり、ある定数kを用いて、
(Equation 18) (16) The parameter h i in this equation is proportional to the depth value Z Ci of the landmark Q i (= Q 1 , Q 2 , Q 3 ) in the camera coordinate system, and using a constant k,

【0041】[0041]

【数19】 …(17) と表わすことができる。また、この比例関係を満たす値
であれば、kの値は任意に選ぶことができる。今、ラン
ドマークQiに対する奥行きの尺度として、
[Equation 19] ... (17) Further, the value of k can be arbitrarily selected as long as the value satisfies the proportional relationship. Now, as a measure of depth for landmark Q i ,

【0042】[0042]

【数20】 …(18) を満たすような値zi(z1, z2, z3)が得られているとす
る。この場合、ziを式(16)のhiに代入することで、1点
のランドマークについて次の3つの式を得る。
(Equation 20) It is assumed that a value z i (z 1 , z 2 , z 3 ) that satisfies (18) is obtained. In this case, the following three equations are obtained for one landmark by substituting z i for h i in equation (16).

【0043】[0043]

【数21】 …(19) 同一直線上にない3点以上のランドマークを観測した場
合、
(Equation 21) … (19) When three or more landmarks that are not on the same line are observed,

【0044】[0044]

【数22】 …(20)(Equation 22) … (20)

【0045】[0045]

【数23】 …(21) と表記すると、式(16)の関係は、(Equation 23) … (21), the relationship of equation (16) is

【0046】[0046]

【数24】 …(22) と表わすことができるので、行列Cの第3列(Z座標に関
する成分)を省略した3x3の行列であるところの、行列C
(Equation 24) ... (22), the matrix C is a 3x3 matrix in which the third column (component relating to the Z coordinate) of the matrix C is omitted.
Is

【0047】[0047]

【数25】 …(23) によって得ることができる。そして、得られたCからカ
メラパラメータCを前述の手法と同じように求めること
ができる。即ち、カメラ座標系から画像座標系への透視
変換行列をP(3x4行列)、世界座標系からカメラ座標系
への座標変換行列Mを(4x4行列)とすると、
(Equation 25) … (23). Then, the camera parameter C can be obtained from the obtained C in the same manner as in the above-described method. That is, if the perspective transformation matrix from the camera coordinate system to the image coordinate system is P (3x4 matrix) and the coordinate transformation matrix M from the world coordinate system to the camera coordinate system is (4x4 matrix),

【0048】[0048]

【数26】 …(24) …(25) であり、行列C (3x4)は(Equation 26) …(twenty four) … (25) and the matrix C (3x4)

【0049】[0049]

【数27】 … (26) と表すことができ、行列Cも同様に、[Equation 27] … (26), and the matrix C is also

【0050】[0050]

【数28】 … (27) と表すことができる。カメラの焦点距離fが既知であれ
ば、行列Mの要素は、前述したように、行列Cから容易
に求めることができる。そして、行列Mの第3列は、行列
Mの(すなわち行列Mの)第1列(x軸)と第2列(y軸)が
表わす2つのベクトルに直交するベクトルとして求める
ことができる。したがって、行列Mは行列Mから推定可能
であり、こうして得られた行列Mを式(26)に代入するこ
とで、カメラパラメータを表わす行列Cを獲得すること
ができる。即ち、3点のランドマークをZ=0平面に拘
束することによって、カメラパラメータCを得ることが
できた。
[Equation 28] … (27) If the focal length f of the camera is known, the elements of the matrix M can be easily obtained from the matrix C as described above. And the third column of the matrix M is the matrix
It can be obtained as a vector orthogonal to the two vectors represented by the first column (x-axis) and the second column (y-axis) of M (that is, of the matrix M). Therefore, the matrix M can be estimated from the matrix M, and the matrix M representing the camera parameters can be obtained by substituting the matrix M thus obtained into the equation (26). That is, the camera parameters C could be obtained by constraining the three landmarks on the Z = 0 plane.

【0051】即ち、式(23)の行列W-1は、3点の既知の
ランドマークの世界座標の組であり、予め計算しておく
ことができる。したがって、カメラパラメータの推定問
題は、行列U、すなわち、3点のランドマークの画像座標
と、その奥行きの尺度ziを求める問題に帰着する。な
お、3点のランドマークQiは必ず1つの平面上に存在す
るが、その平面が、第2図に示すように、世界座標系の
Z = 0平面でない場合がある。このような場合でも、そ
の3点Qiのランドマークが配置された平面から、Z = 0平
面への座標変換行列N (4x4)は必ず存在し、また容易に
求めることができる。したがって、そのような座標変換
行列Nによって変換された各ランドマークの世界座標PN
Wiは、 PN Wi=NQi …(28) であり、式(16)乃至式(27)を満足しなくてはならない。
即ち、変換された座標PN Wiについて式(16)乃至式(27)を
説いて得たカメラパラメータ行列をC(N)とすると、 C = C(N) N …(29) とすることで、正しいカメラパラメータCが導出され
る。
That is, the matrix W in equation (23)-1Has three known
A set of landmark world coordinates, calculated in advance
be able to. Therefore, the camera parameter estimation question
The title is the matrix U, that is, the image coordinates of the three landmarks
And its depth scale ziComes down to the problem of seeking. What
Contact, 3 landmarks QiAlways exists on one plane
However, as shown in FIG. 2, the plane is in the world coordinate system.
It may not be the Z = 0 plane. Even in such a case,
3 points QiZ = 0 flat from the plane where the landmarks are located
The coordinate transformation matrix N (4x4) to the surface always exists, and
You can ask. Therefore, such a coordinate transformation
World coordinates P of each landmark transformed by matrix NN
WiIs PN Wi= NQi (28), and must satisfy the expressions (16) to (27).
That is, the transformed coordinates PN WiEquations (16) through (27)
Let C be the camera parameter matrix obtained(N)Then C = C(N)By setting N ... (29), the correct camera parameter C is derived.
You.

【0052】[0052]

【実施例】第3図は、実施例のカメラパラメータ決定装
置の構成を示す。この決定装置は、同図に示すように、
奥行き推定モジュール100と座標検出モジュール20
0とパラメータ推定モジュール300とからなる。前述
したように、本発明の本質は、3つのランドマークの画
像座標と、そのランドマークまでの奥行き情報を得て、
式(23)の行列Uを求めることにより、ARにおけるカメラ
位置を決定することである。第3図の装置では、奥行き
情報を得るために、例えば、三次元位置方位センサ(磁
気センサ)と1つ以上のカメラを具備することが可能で
ある。従って、本装置に、三次元センサが接続されてい
るのか否か、あるいは、カメラが何台接続されているの
か、あるいは、対象のランドマークがその奥行き情報を
得ることができる程度に撮像されているのか否かによっ
ても、本装置の動作は異なる。以下、本装置の動作につ
いて、入力装置の種々の形態に従って説明する。
FIG. 3 shows the structure of a camera parameter determining apparatus according to an embodiment. As shown in FIG.
Depth estimation module 100 and coordinate detection module 20
0 and a parameter estimation module 300. As described above, the essence of the present invention is to obtain image coordinates of three landmarks and depth information to the landmarks,
This is to determine the camera position in AR by obtaining the matrix U in equation (23). In the apparatus of FIG. 3, for example, a three-dimensional position and orientation sensor (magnetic sensor) and one or more cameras can be provided to obtain depth information. Therefore, whether or not a three-dimensional sensor is connected to the present apparatus, or how many cameras are connected, or a target landmark is imaged to such an extent that depth information can be obtained. The operation of the present device differs depending on whether the device is present or not. Hereinafter, the operation of the present device will be described according to various modes of the input device.

【0053】尚、実施例の決定装置は、ソフトウエアに
よってもハードウエアによっても実現可能であり、第3
図の構成は一例に過ぎない。 〈ステレオによる位置合わせ〉…第1実施例 第1実施例は、第3図の装置が、ランドマークの画像を
入力するのにステレオカメラを有する場合におけるカメ
ラパラメータの決定手法である。
The determining device of the embodiment can be realized by software or hardware.
The configuration in the figure is merely an example. <Positioning by Stereo> First Embodiment The first embodiment is a method of determining camera parameters when the apparatus shown in FIG. 3 has a stereo camera for inputting an image of a landmark.

【0054】ビデオシースルー方式のARにおいて観察者
の左右の眼に視差画像を提示するためには、HMDにステ
レオカメラを装着し、それぞれのカメラの映像に対して
位置合わせを行う必要がある。第1実施例では、位置合
わせの手掛かりとして、この2台のカメラから得られる
情報を利用するものである。ステレオカメラを用いて位
置合わせを行う場合、両カメラによって得られた画像間
でのランドマークの対応関係を求めることで、ランドマ
ークまでの距離情報ziが得られる。
In order to present a parallax image to the left and right eyes of the observer in the AR of the video see-through system, it is necessary to mount a stereo camera on the HMD and perform positioning with respect to the image of each camera. In the first embodiment, information obtained from these two cameras is used as a clue for positioning. When positioning is performed using a stereo camera, distance information z i to the landmark can be obtained by determining the correspondence between the landmarks between images obtained by the two cameras.

【0055】説明を簡単にするために、2台のステレオ
カメラの光軸が互いに平行で、かつ基線と直交し、画像
座標系のx軸と平行なエピポーラ線を持つように正規化
されていると仮定する。ランドマークQiが、右画像上の
点qR i=(xR i, yR i)として、また、左画像上の点qL i=
(xL i, yL i)として観測されたとする(ただし、yR i = yL
i)。このとき、第4図に示すように、対応点間の視差d
i(= xL i - xR i)は、Qiの奥行き値ZCiと反比例の関係に
ある。
For simplicity, the optical axes of the two stereo cameras are normalized so as to have an epipolar line that is parallel to each other, perpendicular to the base line, and parallel to the x-axis of the image coordinate system. Assume that The landmark Q i is defined as a point q R i = (x R i , y R i ) on the right image and a point q L i =
(x L i , y L i ) (where y R i = y L
i ). At this time, as shown in FIG. 4, the parallax d between the corresponding points
i (= x L i -x R i ) is inversely proportional to the depth value Z Ci of Q i .

【0056】[0056]

【数29】 …(30) したがって、3点のランドマークの対応点を得ることに
よって、行列Uを、
(Equation 29) … (30) Therefore, by obtaining the corresponding points of the three landmarks, the matrix U is

【0057】[0057]

【数30】 …(31) とおくことで、右カメラのパラメータ、即ち、座標変換
行列CRを得ることができる。さらに、
[Equation 30] By placing ... (31), the parameters of the right camera, i.e., it is possible to obtain the coordinate transformation matrix C R. further,

【0058】[0058]

【数31】 …(32) となることから、左カメラのパラメータ、即ち、座標変
換行列CLは、
(Equation 31) (32), the parameters of the left camera, that is, the coordinate transformation matrix C L are

【0059】[0059]

【数32】 …(33) として、容易に求められる。ここで、aR jkは右カメラの
座標変換行列CRの各要素を表わしている。尚、ステレオ
カメラの光軸が互いに平行でなくて、輻輳している場合
でも、透視変換行列P (3x4)が既知であり、また、カメ
ラ間の相対位置が与えられていれば、ランドマークQi
右カメラ座標系における奥行き値ZR Ciは、そのステレオ
画像上での対応関係から容易に求められる。したがっ
て、行列Uを、
(Equation 32) … (33) is easily obtained. Here, a R jk represents each element of the coordinate transformation matrix C R of the right camera. Incidentally, even when the optical axes of the stereo cameras are not parallel to each other and are congested, if the perspective transformation matrix P (3x4) is known and the relative position between the cameras is given, the landmark Q The depth value Z R Ci of i in the right camera coordinate system can be easily obtained from the correspondence on the stereo image. Therefore, the matrix U is

【0060】[0060]

【数33】 …(34) とおくことで、右カメラの座標変換行列CRが求められ
る。 〈単眼画像とセンサによる位置合わせ〉…第2実施例第
1実施例は、第3図の装置が、ランドマークの画像を入
力するのにステレオカメラを有するシステムに本発明を
適用したものであった。第2実施例は、単眼のカメラと
三次元位置方位センサを有するシステムに本発明を適用
した場合におけるカメラパラメータの決定手法である。
[Equation 33] .. (34), the coordinate transformation matrix C R of the right camera is obtained. <Alignment with Monocular Image and Sensor> Second Embodiment In the first embodiment, the present invention is applied to a system in which the apparatus shown in FIG. 3 has a stereo camera for inputting an image of a landmark. Was. The second embodiment is a method for determining camera parameters when the present invention is applied to a system having a monocular camera and a three-dimensional position and orientation sensor.

【0061】画像ベースとセンサベースの位置合わせ手
法の相互の欠点を補うために、画像とセンサ双方の情報
を用いて位置合わせを行う試みがなされている。これに
は、画像ベースの位置合わせを安定化させるためにセン
サの情報を利用する考え方と、センサベースの位置合わ
せを主として捉え、その誤差を画像情報によって補正す
る考え方がある。第2実施例では、センサベースの位置
合わせにおける位置ずれを、単眼画像情報を用いて補正
する手法を以下に説明する。
In order to compensate for the mutual drawbacks of the image-based and sensor-based registration methods, attempts have been made to perform registration using information on both the image and the sensor. This includes a concept of using sensor information to stabilize image-based alignment, and a concept of mainly capturing sensor-based alignment and correcting an error using image information. In the second embodiment, a method of correcting a positional shift in sensor-based alignment using monocular image information will be described below.

【0062】〈3点が観測されている場合〉…第2-1実
施例 画像上で3点のランドマークが抽出されている状況を想
定する。前述したように、各ランドマークの奥行き情報
が利用可能であれば、その3点のランドマークを用いて
式(23)を解くことができる。ここでは、3次元位置方位
センサによって大まかなカメラの位置姿勢情報が利用可
能であるので、この情報に基づいて、各ランドマークの
奥行き情報を導出する。
<Case where Three Points are Observed> 2-1-1 Example A situation is assumed where three landmarks are extracted on an image. As described above, if depth information of each landmark is available, equation (23) can be solved using the three landmarks. Here, since approximate camera position and orientation information can be used by the three-dimensional position and orientation sensor, depth information of each landmark is derived based on this information.

【0063】いま、ランドマークQi(i=1, 2, 3)が、画
像上の点qi=(xi, yi)(i=1, 2, 3)として抽出されている
とする。このとき、3次元位置方位センサから得られる
カメラの位置姿勢MWC(世界座標系からカメラ座標系へ
の4x4の座標変換行列として表現される)によって、ラ
ンドマークQiのカメラ座標は、
Now, it is assumed that the landmark Q i (i = 1, 2, 3) is extracted as a point q i = (x i , y i ) (i = 1, 2, 3) on the image. . At this time, the position and orientation M WC of the camera obtained from the three-dimensional position direction sensor (expressed as the coordinate transformation matrix 4x4 from the world coordinate system to the camera coordinate system), the camera coordinate of the landmark Q i is

【0064】[0064]

【数34】 …(35) と推定できる。このZ成分Z(c) CiをランドマークQiの奥
行き情報として利用する。第5図に示すように、ランド
マークQ1, Q2, Q3が画像上で観測されたとする。このと
き、行列Uは、各ランドマークの画像座標と、式(35)に
よって求められる奥行き情報に基づいて、以下のように
設定できる。
(Equation 34) … (35). Utilizing the Z component Z (c) Ci as the depth information of the landmark Q i. As shown in FIG. 5, it is assumed that landmarks Q 1 , Q 2 and Q 3 are observed on the image. At this time, the matrix U can be set as follows based on the image coordinates of each landmark and the depth information obtained by Expression (35).

【0065】[0065]

【数35】 …(36) この行列Uから求めたカメラパラメータ行列Cは、3次元
位置方位センサ出力から求められるカメラパラメータ行
列C(c)(=PM(WC))に対して、3点のランドマーク上での位
置ずれを除去するような補正が加えられたものとなる。
(Equation 35) … (36) The camera parameter matrix C obtained from this matrix U is expressed on the three landmarks with respect to the camera parameter matrix C (c) (= PM (WC) ) obtained from the three-dimensional position and orientation sensor output. Is corrected so as to remove the positional deviation.

【0066】〈2点が観測されている場合〉…第2-2実
施例 画像上で2点のランドマークが抽出されている状況を仮
定する。この場合、第3のランドマークを仮想的に設定
することで、上記と同様にカメラパラメータが推定でき
る。第6図に示すように、ランドマークQ1, Q2が観測さ
れたとする。第3の(仮想)ランドマークQ3が、QW1, Q
W2とは同一直線上にないZ=0平面上の点QW3に存在すると
仮定する。ランドマークQ1,Q2,Q3の奥行き値Z(c) Ciを式
(35)によって求め、さらに、ランドマークQ3の画像面上
への投影座標(x(c) 3, y(c) 3)を次式によって推定する。
<Case where Two Points Are Observed> 2-2nd Example Assume that two landmarks are extracted on the image. In this case, by virtually setting the third landmark, the camera parameters can be estimated in the same manner as described above. Assume that landmarks Q 1 and Q 2 are observed as shown in FIG. The third (virtual) landmark Q 3 is Q W1 , Q
It is assumed that there is a point Q W3 on the Z = 0 plane that is not collinear with W2 . The depth value Z (c) Ci of the landmarks Q 1 , Q 2 , Q 3 is calculated as
Determined by (35), further, estimates projected coordinates onto the image plane of the landmark Q 3 a (x (c) 3, y (c) 3) by the following equation.

【0067】[0067]

【数36】 …(37)[Equation 36] … (37)

【0068】[0068]

【数37】 …(38) これらを用いて、行列Uを式(36)のように設定する。こ
のようにして求めたカメラパラメータ行列Cは、3次元
位置方位センサ出力から求められるカメラパラメータ行
列に対して、2点のランドマーク上での位置ずれを除去
するような補正が加えられたものとなる。
(37) (38) Using these, the matrix U is set as in equation (36). The camera parameter matrix C obtained in this manner is obtained by correcting the camera parameter matrix obtained from the three-dimensional position and orientation sensor output so as to remove a displacement on two landmarks. Become.

【0069】〈1点が観測されている場合〉…第2-3実
施例 画像上で1点のランドマークが抽出されている状況で
も、2点の場合と同様にして仮想のランドマークを2つ
想定することで、ランドマーク上での位置ずれが補正で
きる。ただし、1点の場合は第7図に示すように、カメ
ラ座標系の原点と点q1を通る直線上の、Z = Z(c) C1とな
る点QC1を求め、 Q(c) C1 - QC1 …(39) だけカメラの位置情報を平行移動させることで、より簡
便にランドマーク上での位置ずれが補正できる。
<Case where One Point is Observed> 2-3 Example Even if one landmark is extracted on the image, two virtual landmarks are set in the same manner as in the case of two points. By assuming this, it is possible to correct the displacement on the landmark. However, in the case of one point, as shown in FIG. 7, a point Q C1 on the straight line passing through the origin of the camera coordinate system and the point q 1 where Z = Z (c) C1 is obtained, and Q (c) C1 -By moving the camera position information in parallel only by Q C1 (39), the displacement on the landmark can be corrected more easily.

【0070】〈ステレオと3次元センサによる位置合わ
せ〉…第3実施例 前述の画像ベースの位置合わせ手法と、センサベースの
位置ずれ補正手法を統合する手法を提案する。前述の手
法は、入力された3つのランドマーク(仮想を含む)の
画像座標(xi,yi)と奥行き情報Qiから、式(23)における
行列Uを求め、これを解くことでカメラパラメータを表
わす行列Cを推定するものであった。第3実施例では、
これらの手法を統合することで、ステレオカメラとセン
サ情報を併用した位置合わせ手法を実現する。この統合
は、左右の画像上でのランドマークの抽出状況にしたが
って、各ランドマークの奥行き値の推定手法を適応的に
切り替えることで実現する。以下、ランドマークの抽出
される状況毎に、カメラ座標の推定手法を述べる。
<Positioning by Stereo and Three-Dimensional Sensor> Third Embodiment A method of integrating the above-described image-based positioning method and the sensor-based position shift correction method is proposed. The above-described method obtains a matrix U in equation (23) from the input image coordinates (x i , y i ) of three landmarks (including virtual) and depth information Q i , and solves the matrix U to solve this. It was to estimate the matrix C representing the parameters. In the third embodiment,
By integrating these methods, an alignment method using both a stereo camera and sensor information is realized. This integration is realized by adaptively switching the method of estimating the depth value of each landmark according to the extraction state of the landmark on the left and right images. Hereinafter, a method of estimating camera coordinates for each situation where a landmark is extracted will be described.

【0071】〈3点を全て両眼で抽出〉…第3-1実施例 3点を全て両眼で抽出した場合、即ち、3点の全てがス
テレオカメラで抽出された場合には、その各ランドマー
クの奥行き値をステレオ情報に基づいて推定する。すな
わち、第1実施例(式(30)乃至式(33))の手法をそのま
ま適用する。 〈2点を両眼で、1点を単眼で抽出〉…第3-2実施例 3点のうち、2点(Q1,Q2)がステレオカメラによって、
1点(Q3)を単眼で抽出された場合には、その1点(Q3
の奥行き情報は直ちには求まらない。
<Extracting All Three Points with Binocular> Third Embodiment When all three points are extracted with both eyes, that is, when all three points are extracted with a stereo camera, each of the three points is extracted. The depth value of the landmark is estimated based on the stereo information. That is, the method of the first embodiment (Equations (30) to (33)) is applied as it is. <Two points are extracted with both eyes, and one point is extracted with one eye> ... Example 3-2 Two of the three points (Q 1 , Q 2 ) are obtained by a stereo camera.
If one point (Q 3 ) is extracted with a single eye, that one point (Q 3 )
Is not immediately obtained.

【0072】そこで、2点Q1, Q2の奥行き値ZC1, Z
C2を、そのステレオ情報に基づいて推定する。一方、セ
ンサ情報に基づいた各ランドマークの奥行き値Z(s) C1,Z
(s) C2,Z( s) C3を式(35)を用いて推定する。さらに、ラン
ドマークQ1,Q2について、
Therefore, the depth values Z C1 , Z of the two points Q 1 , Q 2
C2 is estimated based on the stereo information. On the other hand, the depth value Z (s) C1 , Z of each landmark based on the sensor information
(s) C2 and Z ( s) C3 are estimated using equation (35). Furthermore, for landmarks Q 1 and Q 2 ,

【0073】[0073]

【数38】 …(40) を満たす係数kiを求め、その平均値kavを算出する。こ
の係数kavを用いて、
(38) The coefficient k i that satisfies (40) is obtained, and the average value k av is calculated. Using this coefficient k av ,

【0074】[0074]

【数39】 …(41) によって得られるZC3をQ3の奥行き値として、式(36)か
ら行列Uを求める。 〈1点を両眼で、2点を単眼で抽出〉…第3-3実施例 この場合は、Q1の奥行き値ZC1をステレオ情報に基づい
て推定する。一方、センサ情報に基づいた各ランドマー
クの奥行き値Z(s) C1,Z(s) C2,Z(s) C3を式(35)を用いて推
定する。さらに、ランドマークQ1について、
[Equation 39] The matrix U is obtained from Expression (36) using Z C3 obtained by (41) as the depth value of Q 3 . <1 point in both eyes, extracted with monocular two points> ... In this case 3-3 embodiment estimates based on the depth value Z C1 Q 1 at the stereo information. On the other hand, the depth values Z (s) C1 , Z (s) C2 , and Z (s) C3 of each landmark based on the sensor information are estimated using Expression (35). In addition, for the landmark Q 1,

【0075】[0075]

【数40】 …(42) を満たす係数kavを求め、式(41)と同様にしてQ2,Q3の奥
行き値を算出し、式(35)に代入して行列Uを求める。 〈2点を両眼で抽出〉…第3-4実施例 この場合には、Q1,Q2の奥行き値ZC1,ZC2をステレオ情報
に基づいて推定し、センサ情報に基づいた奥行き値Z(s)
C1,Z(s) C2から係数kavを算出する。さらに、第2実施例
と同様の手法を用いて、第3の(仮想)ランドマークQ3
の画像座標(x(s) 3, y(s) 3)と奥行き値Z(s) C3を推定し、
式(41)によって得られるZC3をQ3の奥行き値とする。こ
れらの値を式(35)に代入して行列Uを求める。
(Equation 40)... coefficient k that satisfies (42)avAnd calculate Q in the same manner as in equation (41).Two, QThreeDeep inside
The outgoing value is calculated and substituted into equation (35) to obtain a matrix U. <Extracting two points with both eyes> ... Example 3-4 In this case, Q1, QTwoDepth value of ZC1, ZC2The stereo information
And depth value Z based on sensor information(s)
C1, Z(s) C2To the coefficient kavIs calculated. Further, the second embodiment
The third (virtual) landmark QThree
Image coordinates (x(s) Three, y(s) Three) And depth value Z(s) C3And estimate
Z obtained by equation (41)C3The QThreeIs the depth value of. This
The matrix U is obtained by substituting these values into equation (35).

【0076】〈1点を両眼で、1点を単眼で抽出〉…第3-
5実施例 Q1の奥行き値ZC1をステレオ情報に基づいて推定し、セ
ンサ情報に基づいた奥行き値Z(s) C1から係数kavを算出
する。また、センサ情報に基づいて、Q2の奥行き値Z(s)
C2と、第3の(仮想)ランドマークQ3の画像座標(x(s)
3,y (s) 3と奥行き値Z(s) C3を推定し、式(40)によってQ2,
Q3の奥行き値を算出する。これらの値を式(35)に代入
して行列Uを求める。
<One point is extracted with both eyes and one point is extracted with one eye>
Fifth Embodiment The depth value Z C1 of Q 1 is estimated based on stereo information, and a coefficient k av is calculated from the depth value Z (s) C1 based on sensor information. Further, based on the sensor information, Q 2 'depth value Z (s)
And C2, the third of (virtual) landmark Q 3 of the image coordinates (x (s)
3, y (s) 3 and depth value Z (s) C3 are estimated, and Q 2 ,
To calculate the depth value of Q 3. The matrix U is obtained by substituting these values into equation (35).

【0077】〈1点を両眼で抽出〉…第3-6実施例 Q1のカメラ座標QC1をステレオ情報に基づいて推定し、
第2-3実施例の手法によってカメラ位置を補正する。 〈ステレオ情報が得られない場合〉…第3-7実施例 ステレオ情報が得られない場合とは、m点を単眼で抽出
した場合であり、各ランドマークの奥行き値を、センサ
情報に基づいて推定する。すなわち、第2実施例の手法
をそのまま適用する。
[0077] <extracting one point with both eyes> ... estimated based the 3-6 embodiment to Q 1 camera coordinate Q C1 in the stereo information,
The camera position is corrected by the method of the 2-3 embodiment. <Case where stereo information cannot be obtained> ... Example 3-7 Example Where stereo information cannot be obtained is a case where point m is extracted with a single eye, and the depth value of each landmark is determined based on sensor information. presume. That is, the method of the second embodiment is applied as it is.

【0078】〈処理選択の制御〉前述したように、本発
明のカメラパラメータの決定装置は、装着されているセ
ンサもしくはカメラの有無や数によって処理が異なる。
また、センサもしくはカメラに変更がなくとも、画像と
して検出されたランドマークの数によっても、第1実施
例乃至第3実施例のいずれかの形態をとることが適応的
に要求される。この選択は、例えばパラメータ推定モジ
ュール300が行う。
<Control of Process Selection> As described above, the processing of the camera parameter determination device of the present invention differs depending on the presence or absence and number of sensors or cameras mounted.
Even if there is no change in the sensor or camera, it is adaptively required to take any one of the first to third embodiments depending on the number of landmarks detected as images. This selection is performed by the parameter estimation module 300, for example.

【0079】即ち、モジュール300は、決定装置にい
かなるデバイスが装着されているかを不図示のインタフ
ェースを介して知ることができる。デバイスの種類/数
などを知ったならば、モジュール300は、座標検出モ
ジュール200に問い合わせて、現在カメラから取り込
んでいる画像中にいくつのランドマークが捕捉されてい
るかを調べる。その結果、奥行き推定モジュール100
に対して、処理アルゴリズム(第1実施例乃至第3実施
例)の切り換え命令を発する。
That is, the module 300 can know what device is attached to the determination device via an interface (not shown). Once the device type / number is known, the module 300 queries the coordinate detection module 200 to find out how many landmarks are captured in the image currently being captured from the camera. As a result, the depth estimation module 100
, An instruction to switch the processing algorithm (first to third embodiments) is issued.

【0080】〈実験結果〉以上の位置合わせ手法の有効
性を評価するための実験を行った。実験には、6自由度
の磁気方位センサ(Polhemus社Fastrak)と小型カラーC
CDカメラ(ELMO社MN-421)2台を装着したHMDを使用し
た。提示映像の生成には、左右の映像それぞれに対して
1台のSiliconGraphic社製ワークステーションO2を使用
した。またランドマーク追跡の画像処理は、PCに搭載し
た2台の日立製画像処理ボードIP5005によって行った。
カメラからの映像はO2と画像処理ボードに分岐入力し、
PCからO2へのデータ転送はイーサネットでのパケット通
信によって行った。
<Experimental Results> An experiment was conducted to evaluate the effectiveness of the above-described alignment method. The experiment included a 6-DOF magnetic azimuth sensor (Polhemus Fastrak) and a small color C
An HMD equipped with two CD cameras (ELMO MN-421) was used. To generate the presentation video,
One SiliconGraphic workstation O2 was used. Landmark tracking image processing was performed by two Hitachi image processing boards IP5005 mounted on a PC.
The video from the camera is branched and input to O2 and the image processing board,
Data transfer from PC to O2 was performed by packet communication over Ethernet.

【0081】現実空間のランドマークとして、世界座標
の既知な複数の点に赤色のマークを設置した。あらかじ
め設定したマーク色の(YUV空間における)存在範囲に
したがって、画像処理ボードは入力画像に二値化、ラベ
リング処理を施し、各クラスタの重心の座標をビデオレ
ートで抽出する。抽出された座標データはO2に転送さ
れ、センサ情報から得られる各ランドマークの予測観測
位置との比較により、ランドマークの同定が行われる。
As landmarks in the real space, red marks were set at a plurality of points with known world coordinates. The image processing board binarizes and labels the input image according to a preset range of the mark color (in the YUV space), and extracts the coordinates of the center of gravity of each cluster at a video rate. The extracted coordinate data is transferred to O2, and the landmark is identified by comparison with the predicted observation position of each landmark obtained from the sensor information.

【0082】構築したシステムにおける提示画像の更新
レートは平均10Hzであった。磁気センサのみを用いた場
合の更新レートも同じく10Hzであり、位置合わせのため
の演算がシステム全体のパフォーマンスに与える影響
は、ほとんど無視できる程度のものであることが確認さ
れた。提案した手法の定量的評価を行うために、同一の
状況に対していくつかの位置合わせアルゴリズムを適用
し、位置ずれの変化を計測した。位置ずれの計測は、ラ
ンドマーク以外に3次元位置の既知な基準点を多数用意
して、ランドマークや基準点の各点での位置ずれの大き
さの平均値を算出することで行った。実験は、(a)3点両
眼、(b)2点両眼+1点単眼、(c)1点両眼+2点単眼、(d)3
点単眼、(e)2点両眼、(f)1点両眼+1点単眼、(g)2点単
眼、(h)1点両眼、(i)1点単眼のランドマーク情報と3次
元位置方位センサ情報を併用した場合と、(j)3次元位
置方位センサのみを用いた場合について行った。
The update rate of the presented image in the constructed system was 10 Hz on average. The update rate when only the magnetic sensor was used was also 10 Hz, and it was confirmed that the effect of the alignment calculation on the performance of the entire system was almost negligible. In order to evaluate the proposed method quantitatively, we applied some alignment algorithms to the same situation and measured the change of displacement. The misalignment was measured by preparing a number of known three-dimensional position reference points other than the landmarks and calculating the average value of the magnitude of the misalignment at each point of the landmarks and the reference points. The experiments were (a) 3-point binocular, (b) 2-point binocular + 1 point monocular, (c) 1 point binocular + 2 point monocular, (d) 3
Landmark information and 3D of single point eye, (e) 2 point binocular, (f) 1 point binocular + 1 point monocular, (g) 2 point monocular, (h) 1 point binocular, (i) 1 point monocular The case where the position and orientation sensor information was used together and the case where (j) only the three-dimensional position and orientation sensor were used were performed.

【0083】実験に使用した入力画像(データA:右眼
画像)を第8図に、上記(a),(d),(e),(j)の各条件での
実験の融合結果を第9図乃至第12図に示す。図中
“□”印は抽出されたランドマーク位置を示す。仮想物
体としては、現実の立方体に対してそのワイヤーフレー
ムモデルのCG図形を重畳して表示した。各条件での誤
差の値を第13図に示す。第13図乃至第15図中、横
軸が上記(a)乃至(j)の手法、縦軸が発生した位置ずれを
示している。さらに、観測対象とHMD、磁気センサのエ
ミッタとの位置関係を変化させながら同様の実験を行っ
た結果を第14図乃至第15図に示す。データBはHMDを
エミッタから遠く、観測対象により近い位置に、データ
CはHMDを観測対象から離れた位置に設置した場合の結果
である。単眼のみを用いる手法を比較すると、3点の特
徴点を用いる手法(d)はいずれも高い精度で位置合わせ
が可能であり、2点(g)、1点(i)の位置ずれ補正によって
も、補正を行わない場合(j)に比べ格段の精度の向上が
得られていることがわかる。
FIG. 8 shows the input image (data A: right eye image) used in the experiment, and FIG. 8 shows the results of the fusion of the experiment under the conditions (a), (d), (e), and (j). This is shown in FIGS. 9 to 12. In the figure, “□” indicates an extracted landmark position. As a virtual object, a CG figure of the wire frame model was superimposed on a real cube and displayed. The values of the error under each condition are shown in FIG. In FIGS. 13 to 15, the horizontal axis represents the above-described methods (a) to (j), and the vertical axis represents the generated positional deviation. Further, FIGS. 14 to 15 show the results of similar experiments performed while changing the positional relationship between the observation target, the HMD, and the emitter of the magnetic sensor. Data B moves the HMD away from the emitter and closer to the observation target.
C is the result when the HMD is installed at a position distant from the observation target. Comparing the method using only a single eye, the method (d) using three feature points can be aligned with high accuracy, and the method (d) using two points (g) and one point (i) It can be seen that a marked improvement in accuracy is obtained as compared with the case where no correction is performed (j).

【0084】また、ステレオの情報による位置合わせの
効果を見ると、データA(第13図),データC(第15
図)では、1点の場合(h)を除いて、ステレオの情報を用
いない場合のほうが誤差が小さいという結果となった。
これは、既知として与えたカメラ間の相対位置や画像処
理による特徴点抽出の誤差の影響と考えられる。一方、
データBの状況においては、ステレオの情報を用いるこ
とで、位置合わせ精度が向上していることがわかる。こ
れは、ステレオによる距離情報推定の精度がカメラから
物体までの距離と反比例の関係にあり、観察対象が近く
に存在するデータBの状況においてはステレオ画像処理
による距離情報の精度が比較的良かったためであると想
像される。
Looking at the effect of the alignment by the stereo information, data A (FIG. 13) and data C (15
In the figure), except for the case of one point (h), the result was smaller when no stereo information was used.
This is considered to be due to the influence of an error in feature point extraction by image processing or a relative position between cameras given as known. on the other hand,
In the situation of the data B, it can be seen that the use of stereo information improves the alignment accuracy. This is because the accuracy of distance information estimation by stereo is inversely proportional to the distance from the camera to the object, and the accuracy of distance information by stereo image processing was relatively good in the situation of data B where the observation target was nearby. It is supposed to be.

【0085】〈ソフトウエアとしての組み込み〉本決定
装置は、カメラの視点位置を精度よく検出して、その検
出された視点での座標変換パラメータ、即ち、カメラパ
ラメータを出力するものである。カメラパラメータの出
力は、座標変換行列Cの行列要素を出力することに他な
らない。この座標変換行列Cの行列要素の決定・出力を
ソフトを用いて行うときは、その決定のための処理ルー
チンは、ARもしくはMRのためのアプリケーション・プロ
グラムに組み込むことも可能であるが、HMD本体内も
しくはカメラ本体内にROMとして組み込んでもよい。
行列要素の決定処理はユーザ側よりもHMD装置や位置
姿勢センサのメーカ側が開発した方が好都合だからであ
る。
<Incorporation as Software> The present determination device detects the position of the viewpoint of the camera with high accuracy, and outputs a coordinate conversion parameter at the detected viewpoint, that is, a camera parameter. The output of the camera parameters is nothing but outputting the matrix elements of the coordinate transformation matrix C. When determining and outputting the matrix elements of the coordinate transformation matrix C using software, a processing routine for the determination can be incorporated in an application program for AR or MR. It may be incorporated as a ROM in the camera or in the camera body.
This is because it is more convenient for the matrix element determination process to be developed by the manufacturer of the HMD device or the position and orientation sensor than by the user.

【0086】また、パソコンやワークステーションに適
用するときは、ドライバソフトウエアとして組み込む。 〈実施形態及び実施例の効果〉本明細書では、現実空間
と仮想空間の融合技術に関連して、ステレオカメラと3
次元センサを併用した位置合わせ手法を提案した。この
手法により、センサベースと画像ベースの位置合わせ手
法を同一の枠組みで扱うことが可能となった。
When the present invention is applied to a personal computer or a workstation, it is incorporated as driver software. <Effects of Embodiments and Examples> In this specification, a stereo camera and a three-
An alignment method using a dimensional sensor was proposed. This method makes it possible to handle sensor-based and image-based registration methods in the same framework.

【0087】第2実施例,第3実施例に述べた手法は、
画像処理によって得られる情報が、常に最も信頼性が高
いという前提に基づいている。しかし、実験結果からも
明らかなように、ステレオによって得られる距離情報の
精度は、ランドマークまでの距離と依存関係にある。一
方、3次元位置方位センサの精度は、センサ固有の計測
範囲にしたがって変化する。今後はこのような画像処理
およびセンサの特性にしたがって、情報の信頼性を評価
し、それに応じて最適な解を選択するような位置合わせ
手法を検討することが重要といえる。
The method described in the second embodiment and the third embodiment is as follows.
It is based on the assumption that the information obtained by image processing is always the most reliable. However, as is clear from the experimental results, the accuracy of the distance information obtained by the stereo depends on the distance to the landmark. On the other hand, the accuracy of the three-dimensional position and orientation sensor changes according to the measurement range unique to the sensor. In the future, it will be important to evaluate the reliability of information in accordance with such image processing and sensor characteristics, and to study a positioning method that selects an optimal solution in accordance with the reliability.

【0088】また、本手法によって求められる座標変換
は座標軸の直交性を保持していないため、仮想空間に不
自然な変形が施される場合がある。このような状況への
対処も今後の課題といえる。
Further, since the coordinate transformation obtained by this method does not maintain the orthogonality of the coordinate axes, an unnatural deformation may be applied to the virtual space. Dealing with such a situation is also an issue for the future.

【0089】[0089]

【発明の効果】以上説明したように、本発明によれば、
3つのランドマークによって、位置姿勢を正確に検出す
ることができる。
As described above, according to the present invention,
The position and orientation can be accurately detected by the three landmarks.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 実施形態に位置姿勢検出装置において、1つ
の視点と3つのランドマークとの配置関係を説明する
図。
FIG. 1 is a view for explaining an arrangement relationship between one viewpoint and three landmarks in a position and orientation detection apparatus according to an embodiment.

【図2】 Z=0でない任意の平面に一般化したときの
補正の手法を説明する図。
FIG. 2 is a view for explaining a correction method when generalizing to an arbitrary plane other than Z = 0.

【図3】 実施形態の装置の構成を説明する図。FIG. 3 is a diagram illustrating a configuration of an apparatus according to the embodiment.

【図4】 2つの視点位置と1つのランドマークとの関
係を説明する図。
FIG. 4 is a view for explaining the relationship between two viewpoint positions and one landmark.

【図5】 ランドマークを3点用いる場合におけるカメ
ラ姿勢パラメータを決定する原理を説明する図。
FIG. 5 is a view for explaining the principle of determining camera posture parameters when three landmarks are used.

【図6】 ランドマークを2点を用い、一点を仮想する
場合におけるカメラ姿勢パラメータを決定する原理を説
明する図。
FIG. 6 is a view for explaining the principle of determining camera posture parameters when two points are used as a landmark and one point is imagined;

【図7】 ランドマークを1点用い、2点を仮想する場
合におけるカメラ姿勢パラメータを決定する原理を説明
する図。
FIG. 7 is a view for explaining the principle of determining a camera posture parameter when two points are imagined using one landmark.

【図8】 本発明の実施例を用いた実験に用いられた物
体の斜視図。
FIG. 8 is a perspective view of an object used in an experiment using the embodiment of the present invention.

【図9】 3点のランドマークをステレオカメラを用い
て行った実験で実験対象物の上に仮想図形とが重なって
表示されることを説明する図。
FIG. 9 is a view for explaining that virtual landmarks are displayed on an experimental object in an overlapping manner in an experiment in which three landmarks are performed using a stereo camera.

【図10】 3点のランドマークを、単眼カメラと三次
元センサとを用いて行った実験で実験対象物の上に仮想
図形とが重なって表示されることを説明する図。
FIG. 10 is a view for explaining that three landmarks are displayed so that a virtual figure is superimposed on an experimental object in an experiment performed using a monocular camera and a three-dimensional sensor.

【図11】 2点のランドマークを、ステレオカメラと
三次元センサとを用いて行った実験で実験対象物の上に
仮想図形とが重なって表示されることを説明する図。
FIG. 11 is a view for explaining that two landmarks are displayed with a virtual figure superimposed on an experimental object in an experiment performed using a stereo camera and a three-dimensional sensor.

【図12】 三次元センサのみを用いて行った実験で実
験対象物の上に仮想図形とが重なって表示されることを
説明する図。
FIG. 12 is a view for explaining that a virtual figure is displayed so as to be superimposed on a test object in an experiment performed using only a three-dimensional sensor.

【図13】 データAについて、条件a乃至jと変えて
いったときの夫々において発生した位置ずれを説明する
図。
FIG. 13 is a view for explaining positional displacements that occur when data A is changed to conditions a to j.

【図14】 データBについて、条件a乃至jと変えて
いったときの夫々において発生した位置ずれを説明する
図。
FIG. 14 is a view for explaining positional displacements that have occurred in data B when the conditions are changed to conditions a to j.

【図15】 データCについて、条件a乃至jと変えて
いったときの夫々において発生した位置ずれを説明する
図。
FIG. 15 is a view for explaining positional displacements that have occurred in data C when the conditions are changed to conditions a to j.

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 所定の面内に置かれた3つのマークの画
像をカメラを用いて取得し、 この画像内で前記3つのマークの画像座標を夫々取得
し、 前記3つのマークの奥行き情報を得、 前記マークについて得られた、画像座標と奥行き情報と
に基づいて、前記カメラの位置姿勢決定のためのパラメ
ータを演算して出力することを特徴とする視点位置姿勢
の決定方法。
1. An image of three marks placed in a predetermined plane is obtained using a camera, image coordinates of the three marks are obtained in the image, and depth information of the three marks is obtained. A method for calculating and outputting parameters for determining the position and orientation of the camera based on image coordinates and depth information obtained for the mark.
【請求項2】 前記3つのマークの奥行き情報を、単眼
カメラとこのカメラに設けられた位置姿勢センサの出力
とに基づいて検出することを特徴とする請求項1に記載
の視点位置姿勢の決定方法。
2. The viewpoint position and orientation determination according to claim 1, wherein depth information of the three marks is detected based on a monocular camera and an output of a position and orientation sensor provided in the camera. Method.
【請求項3】 前記3つのマークの奥行き情報を、ステ
レオカメラと三次元位置姿勢センサの出力とによって求
めることを特徴とする請求項1乃至2のいずれかに記載
の視点位置姿勢の決定方法。
3. The method of determining a viewpoint position and orientation according to claim 1, wherein depth information of the three marks is obtained from an output of a stereo camera and a three-dimensional position and orientation sensor.
【請求項4】 少なくとも1つのマークの奥行き情報が
得られる時は、仮想のマークの奥行き情報を設定するこ
とを特徴とする請求項1乃至3のいずれかに記載の視点
位置姿勢の決定方法。
4. The method according to claim 1, wherein when depth information of at least one mark is obtained, depth information of a virtual mark is set.
【請求項5】 前記3つのマークを、同一直線上に乗っ
てない、世界座標でZ=0面上のマークに選ぶことを特
徴とする請求項1乃至3のいずれかに記載の視点位置姿
勢の決定方法。
5. The viewpoint position and orientation according to claim 1, wherein the three marks are selected as marks on the Z = 0 plane in world coordinates that do not lie on the same straight line. How to determine.
【請求項6】 前記3つのマークを、同一直線上に乗っ
てない、世界座標でZ=0平面でない任意の平面上のマ
ークに選ぶ場合には、Z=0平面でない前記任意の平面
からZ=0平面への変換行列を求め、この変換行列によ
って変換されたランドマークの世界座標を用いて、カメ
ラのパラメータを決定することを特徴とする請求項1乃
至3のいずれかに記載の視点位置姿勢の決定方法。
6. In the case where the three marks are selected as marks on an arbitrary plane which is not on the same straight line and which is not on the Z = 0 plane in world coordinates, Z is selected from the arbitrary plane which is not on the Z = 0 plane. The viewpoint position according to any one of claims 1 to 3, wherein a transformation matrix to a = 0 plane is obtained, and camera parameters are determined using the world coordinates of the landmark transformed by the transformation matrix. How to determine the posture.
【請求項7】 画像と共に位置姿勢データを出力するカ
メラ装置であって、 所定の面内に置かれた3つのマークの画像を撮影するカ
メラと、 このカメラで取り込まれたマークの画像の座標値を演算
する手段と、 前記3つのマークの奥行き情報を得る手段と、 前記マークについて得られた、画像座標と奥行き情報と
に基づいて、前記カメラの位置姿勢決定のためのパラメ
ータを演算する手段とを具備することを特徴とするカメ
ラ装置。
7. A camera device for outputting position and orientation data together with an image, comprising: a camera for capturing images of three marks placed in a predetermined plane; and coordinate values of the images of the marks captured by the camera. Means for calculating depth information of the three marks; means for calculating parameters for determining the position and orientation of the camera based on image coordinates and depth information obtained for the marks; and A camera device comprising:
【請求項8】 頭部の位置姿勢センサであって、 頭部近傍に取り付けられ、所定の面内に置かれた3つの
マークの画像を撮影するカメラと、 このカメラで取り込まれたマークの画像座標値を求める
手段と、 前記3つのマークの奥行き情報を得る手段と、 前記マークについて得られた、画像座標と奥行き情報と
に基づいて、前記カメラの位置姿勢決定のためのパラメ
ータを演算して出力する手段とを具備することを特徴と
する位置姿勢センサ。
8. A head position / posture sensor, which is attached near the head and captures images of three marks placed in a predetermined plane, and an image of the mark captured by the camera. Means for obtaining coordinate values; means for obtaining depth information of the three marks; and calculating parameters for determining the position and orientation of the camera based on image coordinates and depth information obtained for the marks. And a means for outputting.
【請求項9】 請求項1乃至6のいずれかに記載の視点
位置姿勢の決定方法をコンピュータに実行させるプログ
ラムを記憶する記憶媒体。
9. A storage medium for storing a program for causing a computer to execute the method for determining a viewpoint position and orientation according to claim 1. Description:
【請求項10】 3つのマークの、画像座標を(x1,
y1), (x2, y2), (x3, y 4)、奥行き情報をz1, z2, z3
世界座標値を(XW1, YW1, 0)、(XW2, YW2, 0)、(X W3, Y
W3, 0)とすると、カメラのパラメータ行列は、 【数1】 【数2】 とすると、 【数3】 によって与えられた行列Cから求めることを特徴とする
カメラの位置姿勢検出方法。
10. The image coordinates of the three marks are represented by (x1,
y1), (xTwo, yTwo), (xThree, y Four), Depth information z1, zTwo, zThree,
The world coordinate value is (XW1, YW1, 0), (XW2, YW2, 0), (X W3, Y
W3, 0), the camera's parameter matrix is:(Equation 2)Then,From the matrix C given by
Camera position and orientation detection method.
JP20830798A 1998-07-23 1998-07-23 Method for determining viewpoint position and orientation and camera device Expired - Fee Related JP3976900B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP20830798A JP3976900B2 (en) 1998-07-23 1998-07-23 Method for determining viewpoint position and orientation and camera device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP20830798A JP3976900B2 (en) 1998-07-23 1998-07-23 Method for determining viewpoint position and orientation and camera device

Publications (2)

Publication Number Publication Date
JP2000041173A true JP2000041173A (en) 2000-02-08
JP3976900B2 JP3976900B2 (en) 2007-09-19

Family

ID=16554096

Family Applications (1)

Application Number Title Priority Date Filing Date
JP20830798A Expired - Fee Related JP3976900B2 (en) 1998-07-23 1998-07-23 Method for determining viewpoint position and orientation and camera device

Country Status (1)

Country Link
JP (1) JP3976900B2 (en)

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001204007A (en) * 2000-01-19 2001-07-27 Meidensha Corp Device for setting supervised area by supervisory camera and its method
JP2002091696A (en) * 2000-05-02 2002-03-29 Agilent Technol Inc Immersion-type display system
JP2003050107A (en) * 2001-08-07 2003-02-21 Matsushita Electric Ind Co Ltd Camera calibration device
US6956503B2 (en) 2002-09-13 2005-10-18 Canon Kabushiki Kaisha Image display apparatus, image display method, measurement apparatus, measurement method, information processing method, information processing apparatus, and identification method
JP2005327103A (en) * 2004-05-14 2005-11-24 Canon Inc Index arrangement information estimation method and information processor
WO2006082825A1 (en) * 2005-02-02 2006-08-10 Canon Kabushiki Kaisha Mark arrangement measuring method, positional posture estimating method, mark arrangement measuring apparatus and positional posture estimating apparatus
JP2006287748A (en) * 2005-04-01 2006-10-19 Canon Inc Information processing method and information processing apparatus
JP2008122109A (en) * 2006-11-08 2008-05-29 Canon Inc Information processing device and information processing method
US7397930B2 (en) 2003-09-30 2008-07-08 Canon Kabushiki Kaisha Position and orientation estimating method and apparatus
CN100417197C (en) * 2003-07-08 2008-09-03 佳能株式会社 Position and orientation detection method and apparatus
US7529387B2 (en) 2004-05-14 2009-05-05 Canon Kabushiki Kaisha Placement information estimating method and information processing device
JP2009124204A (en) * 2007-11-12 2009-06-04 Nippon Hoso Kyokai <Nhk> Apparatus and program for estimating camera parameter
JP2009200691A (en) * 2008-02-20 2009-09-03 Konica Minolta Holdings Inc Head-mounted video display device
US7676079B2 (en) 2003-09-30 2010-03-09 Canon Kabushiki Kaisha Index identification method and apparatus
US7680336B2 (en) 2005-06-28 2010-03-16 Canon Kabushiki Kaisha Information processing method and apparatus
US7812871B2 (en) 2005-12-15 2010-10-12 Canon Kabushiki Kaisha Index identification method and apparatus
US8019148B2 (en) 2007-03-29 2011-09-13 Canon Kabushiki Kaisha Image processing apparatus and image processing method
US8019114B2 (en) 2006-09-14 2011-09-13 Canon Kabushiki Kaisha Position and orientation measurement method and apparatus
US8081815B2 (en) 2006-08-11 2011-12-20 Canon Kabushiki Kaisha Marker arrangement information measuring apparatus and method
US8330800B2 (en) 2005-07-11 2012-12-11 Canon Kabushiki Kaisha Information processing apparatus and method
US8335400B2 (en) 2006-03-31 2012-12-18 Canon Kabushiki Kaisha Information processing method and information processing apparatus
CN105359190A (en) * 2013-09-05 2016-02-24 电子湾有限公司 Estimating depth from a single image
WO2016208404A1 (en) * 2015-06-23 2016-12-29 ソニー株式会社 Device and method for processing information, and program
CN109658461A (en) * 2018-12-24 2019-04-19 中国电子科技集团公司第二十研究所 A kind of unmanned plane localization method of the cooperation two dimensional code based on virtual simulation environment
KR20190103524A (en) * 2018-02-13 2019-09-05 코가플렉스 주식회사 Autonomous driving devise and method
CN112580375A (en) * 2019-09-27 2021-03-30 苹果公司 Location-aware visual marker

Cited By (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001204007A (en) * 2000-01-19 2001-07-27 Meidensha Corp Device for setting supervised area by supervisory camera and its method
JP2002091696A (en) * 2000-05-02 2002-03-29 Agilent Technol Inc Immersion-type display system
JP2003050107A (en) * 2001-08-07 2003-02-21 Matsushita Electric Ind Co Ltd Camera calibration device
US6956503B2 (en) 2002-09-13 2005-10-18 Canon Kabushiki Kaisha Image display apparatus, image display method, measurement apparatus, measurement method, information processing method, information processing apparatus, and identification method
US7423553B2 (en) 2002-09-13 2008-09-09 Canon Kabushiki Kaisha Image display apparatus, image display method, measurement apparatus, measurement method, information processing method, information processing apparatus, and identification method
US7613356B2 (en) 2003-07-08 2009-11-03 Canon Kabushiki Kaisha Position and orientation detection method and apparatus
CN100417197C (en) * 2003-07-08 2008-09-03 佳能株式会社 Position and orientation detection method and apparatus
US7397930B2 (en) 2003-09-30 2008-07-08 Canon Kabushiki Kaisha Position and orientation estimating method and apparatus
US7676079B2 (en) 2003-09-30 2010-03-09 Canon Kabushiki Kaisha Index identification method and apparatus
JP4522140B2 (en) * 2004-05-14 2010-08-11 キヤノン株式会社 Index placement information estimation method and information processing apparatus
US7529387B2 (en) 2004-05-14 2009-05-05 Canon Kabushiki Kaisha Placement information estimating method and information processing device
JP2005327103A (en) * 2004-05-14 2005-11-24 Canon Inc Index arrangement information estimation method and information processor
US7657065B2 (en) 2004-05-14 2010-02-02 Canon Kabushiki Kaisha Marker placement information estimating method and information processing device
US7664341B2 (en) 2005-02-02 2010-02-16 Canon Kabushiki Kaisha Index layout measurement method, position and orientation estimation method, index layout measurement apparatus, and position and orientation estimation apparatus
JP4599184B2 (en) * 2005-02-02 2010-12-15 キヤノン株式会社 Index placement measurement method, index placement measurement device
WO2006082825A1 (en) * 2005-02-02 2006-08-10 Canon Kabushiki Kaisha Mark arrangement measuring method, positional posture estimating method, mark arrangement measuring apparatus and positional posture estimating apparatus
JP2006214832A (en) * 2005-02-02 2006-08-17 Canon Inc Method of measuring marker arrangement, method of assuming position/attitude, device for measuring marker arrangement, device for assuming position/attitude
JP4562183B2 (en) * 2005-04-01 2010-10-13 キヤノン株式会社 Information processing method and information processing apparatus
JP2006287748A (en) * 2005-04-01 2006-10-19 Canon Inc Information processing method and information processing apparatus
US7680336B2 (en) 2005-06-28 2010-03-16 Canon Kabushiki Kaisha Information processing method and apparatus
EP2562719A2 (en) 2005-07-11 2013-02-27 Canon Kabushiki Kaisha Information processing apparatus and method
US10140723B2 (en) 2005-07-11 2018-11-27 Canon Kabushiki Kaisha Information processing apparatus and method
US8330800B2 (en) 2005-07-11 2012-12-11 Canon Kabushiki Kaisha Information processing apparatus and method
US7812871B2 (en) 2005-12-15 2010-10-12 Canon Kabushiki Kaisha Index identification method and apparatus
US8335400B2 (en) 2006-03-31 2012-12-18 Canon Kabushiki Kaisha Information processing method and information processing apparatus
US8081815B2 (en) 2006-08-11 2011-12-20 Canon Kabushiki Kaisha Marker arrangement information measuring apparatus and method
US8019114B2 (en) 2006-09-14 2011-09-13 Canon Kabushiki Kaisha Position and orientation measurement method and apparatus
JP2008122109A (en) * 2006-11-08 2008-05-29 Canon Inc Information processing device and information processing method
US8019148B2 (en) 2007-03-29 2011-09-13 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP2009124204A (en) * 2007-11-12 2009-06-04 Nippon Hoso Kyokai <Nhk> Apparatus and program for estimating camera parameter
JP2009200691A (en) * 2008-02-20 2009-09-03 Konica Minolta Holdings Inc Head-mounted video display device
CN105359190A (en) * 2013-09-05 2016-02-24 电子湾有限公司 Estimating depth from a single image
US10255686B2 (en) 2013-09-05 2019-04-09 Ebay Inc. Estimating depth from a single image
WO2016208404A1 (en) * 2015-06-23 2016-12-29 ソニー株式会社 Device and method for processing information, and program
JPWO2016208404A1 (en) * 2015-06-23 2018-04-12 ソニー株式会社 Information processing apparatus and method, and program
US10600202B2 (en) 2015-06-23 2020-03-24 Sony Corporation Information processing device and method, and program
KR20190103524A (en) * 2018-02-13 2019-09-05 코가플렉스 주식회사 Autonomous driving devise and method
KR102135672B1 (en) * 2018-02-13 2020-07-20 코가플렉스 주식회사 Autonomous driving devise and method
CN109658461A (en) * 2018-12-24 2019-04-19 中国电子科技集团公司第二十研究所 A kind of unmanned plane localization method of the cooperation two dimensional code based on virtual simulation environment
CN109658461B (en) * 2018-12-24 2023-05-26 中国电子科技集团公司第二十研究所 Unmanned aerial vehicle positioning method based on cooperation two-dimensional code of virtual simulation environment
CN112580375A (en) * 2019-09-27 2021-03-30 苹果公司 Location-aware visual marker

Also Published As

Publication number Publication date
JP3976900B2 (en) 2007-09-19

Similar Documents

Publication Publication Date Title
JP2000041173A (en) Deciding method for visual point position attitude, camera device and visual point position sensor
JP3745117B2 (en) Image processing apparatus and image processing method
EP1596330B1 (en) Estimating position and orientation of markers in digital images
CN107747941B (en) Binocular vision positioning method, device and system
JP4532856B2 (en) Position and orientation measurement method and apparatus
EP1596329B1 (en) Marker placement information estimating method and information processing device
JP7059355B2 (en) Equipment and methods for generating scene representations
JP4757142B2 (en) Imaging environment calibration method and information processing apparatus
US10930008B2 (en) Information processing apparatus, information processing method, and program for deriving a position orientation of an image pickup apparatus using features detected from an image
JP2874710B2 (en) 3D position measuring device
US20160210785A1 (en) Augmented reality system and method for positioning and mapping
US6608622B1 (en) Multi-viewpoint image processing method and apparatus
JP2003281504A (en) Image pickup portion position and attitude estimating device, its control method and composite reality presenting system
JP2002008040A (en) Three-dimensional information detecting device and three-dimensional information detecting method
JP2012216077A (en) Augmented reality providing device and superimposition method of virtual object
JP2000341721A (en) Depth image measuring instrument and method, parallax image measuring instrument, composite reality presentation system and method, and program storage medium
JP2849313B2 (en) Image recording and playback device
US20220130116A1 (en) Registration of local content between first and second augmented reality viewers
JP6073123B2 (en) Stereoscopic display system, stereoscopic image generating apparatus, and stereoscopic image generating program
JPH10232111A (en) Finder
JP2013120150A (en) Human position detection system and human position detection method
JP2000048204A (en) Forming method of solid model of actual size
JP4144981B2 (en) Stereoscopic image display device
KR20040008456A (en) Apparatus for Embodying Stereo/Multiview Realistic Mixed Reality using Pose Estimation and Method Thereof
WO2024004338A1 (en) Head-mounted display device, state determination device, method for controlling head-mounted display device, method for controlling state determination device, and program

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040319

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20040324

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20040416

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070515

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070620

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100629

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110629

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120629

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120629

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130629

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees