JP2002354506A - Stereoscopic chart for correcting camera, acquisition method of correction parameter for camera, correcting information processing device for camera, and program thereof - Google Patents

Stereoscopic chart for correcting camera, acquisition method of correction parameter for camera, correcting information processing device for camera, and program thereof

Info

Publication number
JP2002354506A
JP2002354506A JP2001157822A JP2001157822A JP2002354506A JP 2002354506 A JP2002354506 A JP 2002354506A JP 2001157822 A JP2001157822 A JP 2001157822A JP 2001157822 A JP2001157822 A JP 2001157822A JP 2002354506 A JP2002354506 A JP 2002354506A
Authority
JP
Japan
Prior art keywords
camera
chart
unit
dimensional
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001157822A
Other languages
Japanese (ja)
Other versions
JP4590780B2 (en
Inventor
Kunimitsu Sakakibara
邦光 榊原
Hideo Fujii
英郎 藤井
Koji Fujiwara
浩次 藤原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP2001157822A priority Critical patent/JP4590780B2/en
Priority to US10/151,184 priority patent/US7423666B2/en
Publication of JP2002354506A publication Critical patent/JP2002354506A/en
Application granted granted Critical
Publication of JP4590780B2 publication Critical patent/JP4590780B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Cameras In General (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a stereoscopic chart, a parameter acquisition method, and an information processing device capable of widely correcting a camera with high accuracy. SOLUTION: Unit figures whose sizes are encoded at different ratios are formed on the sides of a stereoscopic chart 2. The ratios of the unit figures are calculated on the basis of the picked-up image of the stereoscopic chart 2, and the calculation result is collated with an actual value by which the position and attitude of an image pickup point are obtained. The moving average of the height of the unit figures is set nearly proportional to a distance from an apex, and a limitation imposed on an image pickup distance can be reduced. A movable camera 11 is mounted on an image pickup camera 13, and the stereoscopic chart 2 is imaged at the same time when the image of an object 30 is picked up. The position and attitude of the camera 11 are obtained on the basis of the image of the chart 2 picked up by the camera 11 through the above procedure, and the position and attitude of the object imaging camera 13 are found on the basis of a positional and attitude relation between the cameras 11 and 13, where the above relation is previously obtained.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、被写体を複数の方
向からカメラで撮影して当該被写体の3次元画像モデル
を構築するための技術に関するもので、特に、複数の撮
影位置の相対関係を特定するために利用されるカメラ校
正用立体チャートと、それを利用したカメラの校正用パ
ラメータを決定するための技術とに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a technique for constructing a three-dimensional image model of a subject by photographing the subject with a camera from a plurality of directions. In particular, the present invention specifies a relative relationship between a plurality of photographing positions. The present invention relates to a camera calibration three-dimensional chart used for performing the calibration and a technique for determining a camera calibration parameter using the chart.

【0002】[0002]

【従来の技術】立体的な被写体を複数の方向から撮影
し、それによって得られた複数の画像データを組み合わ
せることによって、当該被写体の3次元画像モデルを得
ることができる。すなわち、複数の方向から被写体を撮
影したそれぞれの画像ごとに、カメラの外部パラメータ
(カメラの位置や姿勢など)と内部パラメータ(焦点距
離など)のデータを得ることができれば、シェープ・フ
ロム・シルエット法によって、被写体のシルエット画像
から3次元のモデルを再構成することができる。このシ
ェープ・フロム・シルエット法についての詳細は、W.Ni
em, "Robust and Fast Modelling of 3D Natural Objec
ts from Multiple Views" SPIE ProceedingsImage and
Video Proceeding II vol.2182,1994,pp.388-397に開示
されている。以下、カメラの外部パラメータと内部パラ
メータとを「(カメラの)校正パラメータ」と総称する
が、この校正パラメータのうち内部パラメータが既知で
あって内部パラメータによるカメラの校正が完了してい
る場合には、カメラの外部パラメータが求まれば、被写
体の3次元画像モデルの構築が可能となる。
2. Description of the Related Art A three-dimensional image model of a subject can be obtained by photographing a three-dimensional subject from a plurality of directions and combining a plurality of image data obtained thereby. In other words, if data of the external parameters (such as the position and orientation of the camera) and the internal parameters (such as the focal length) of the camera can be obtained for each image of the subject photographed from a plurality of directions, the shape-from-silhouette method Thus, a three-dimensional model can be reconstructed from the silhouette image of the subject. For more information on this shape from silhouette method, see W.Ni
em, "Robust and Fast Modeling of 3D Natural Objec
ts from Multiple Views "SPIE ProceedingsImage and
Video Proceeding II vol. 2182, 1994, pp. 388-397. Hereinafter, the external parameters and the internal parameters of the camera are collectively referred to as “calibration parameters (of the camera)”. In the case where the internal parameters among the calibration parameters are known and the camera calibration by the internal parameters has been completed, If the external parameters of the camera are obtained, a three-dimensional image model of the subject can be constructed.

【0003】ところで、このように複数の方向から被写
体を撮影するにあたっての1つの方法は、複数のカメラ
を異なる位置に固定配置して被写体を撮影する固定配置
方式である。しかしながら、この固定配置方式では複数
のカメラを撮影スタジオ内などに固定的に分散配置して
おかねばならないために、撮影設備が大がかりになるだ
けでなる。
One method of photographing a subject from a plurality of directions is a fixed arrangement method in which a plurality of cameras are fixedly arranged at different positions to photograph a subject. However, in this fixed arrangement method, since a plurality of cameras must be fixedly arranged in a photographing studio or the like, the photographing equipment becomes large-scale.

【0004】そこで、ユーザが1台の手持ちカメラを持
って被写体の周りを移動しつつ、複数の方向から被写体
を順次に撮影することによって被写体の全周囲の画像を
得る移動撮影方式が提案されている。
Accordingly, a moving photographing method has been proposed in which a user moves around a subject with one hand-held camera while sequentially photographing the subject from a plurality of directions to obtain an image of the entire periphery of the subject. I have.

【0005】しかしながら、この移動撮影方式でカメラ
の外部パラメータを決定するには、それぞれの撮影に際
してのカメラの位置および姿勢をそのつど特定すること
が必要となる。
However, in order to determine the external parameters of the camera using this moving photographing method, it is necessary to specify the position and orientation of the camera for each photographing.

【0006】このような目的でカメラの外部パラメータ
を測定する方式については、磁気方式、超音波方式、光
学方式などが、従来から提案されている。このうち磁気
方式はカメラ位置における地磁気などを検出することに
よって、また、超音波方式は所定の超音波からの超音波
を検知することによって、それぞれカメラの位置や姿勢
などを特定する方式である。光学方式には、ステレオカ
メラを使う方法や、視野よりも大きな校正チャートを設
置する方法等がある。
As a method for measuring external parameters of a camera for such a purpose, a magnetic method, an ultrasonic method, an optical method, and the like have been conventionally proposed. Among them, the magnetic method is a method of detecting the geomagnetism or the like at the camera position, and the ultrasonic method is a method of detecting an ultrasonic wave from a predetermined ultrasonic wave to specify the position, posture, and the like of the camera. The optical method includes a method using a stereo camera, a method of installing a calibration chart larger than the field of view, and the like.

【0007】これらの方式のうち、磁気方式では、被写
体が金属で構成されている場合に精度よ測定することが
困難であり、超音波方式は装置が高価になってしまう。
[0007] Of these methods, in the magnetic method, it is difficult to measure with high accuracy when the object is made of metal, and the ultrasonic method makes the apparatus expensive.

【0008】これに対して、従来の光学方式としては、
不均一マトリクスパターンが描かれた単一の平面チャー
トを所定位置に配置し、それをカメラで観測することに
よってその平面チャートとカメラとの位置や姿勢関係を
特定する方式が特開2000−270343号に開示さ
れている。これによれば、平面チャートに固定された座
標系に対するカメラの位置および姿勢の相対的関係がわ
かるため、平面チャートと被写体との位置および姿勢関
係を固定しておけば、複数の方向から被写体を撮影する
たびごとに、平面チャート上のパターンをカメラで観測
することにより、その時点でのカメラの位置および姿勢
が絶対座標系で特定できることになる。
On the other hand, as a conventional optical system,
Japanese Patent Laid-Open No. 2000-270343 discloses a method in which a single planar chart on which a non-uniform matrix pattern is drawn is arranged at a predetermined position, and the position and posture relationship between the planar chart and the camera are identified by observing the same with a camera. Is disclosed. According to this, since the relative relationship between the position and orientation of the camera with respect to the coordinate system fixed to the planar chart can be known, if the positional and orientation relationship between the planar chart and the subject is fixed, the subject can be viewed from a plurality of directions. By observing the pattern on the planar chart with the camera every time an image is taken, the position and orientation of the camera at that time can be specified in the absolute coordinate system.

【0009】[0009]

【発明が解決しようとする課題】しかしながら、平面チ
ャートは、それを観測可能な角度範囲が狭く、当該平面
チャートの法線方向から90度を越える方向からは観測
できないため、カメラの可動範囲が大きく制限される。
また、平面チャートを観測できる範囲内にカメラがあっ
ても、平面チャートの法線方向からカメラの方向が大き
くずれているときには平面チャート上のパターンの観測
精度が低下し、その結果としてカメラの外部パラメータ
の決定精度が良くないといった欠点があった。
However, the flat chart has a narrow angle range in which it can be observed, and cannot be observed from a direction exceeding 90 degrees from the normal direction of the flat chart, so that the movable range of the camera is large. Limited.
In addition, even if the camera is within the range in which the planar chart can be observed, when the direction of the camera deviates greatly from the normal direction of the planar chart, the observation accuracy of the pattern on the planar chart decreases, and as a result, the external There is a disadvantage that the parameter determination accuracy is not good.

【0010】本発明は従来技術における上述の課題を解
決するために成されたものであり、光学方式を用いなが
らも、広い可動範囲を確保しつつ高い測定精度が得られ
るような、カメラの外部パラメータの取得技術を実現す
ることを目的としている。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems in the prior art, and is an external device of a camera which can obtain a high measurement accuracy while securing a wide movable range while using an optical system. The purpose is to realize a parameter acquisition technology.

【0011】[0011]

【課題を解決するための手段】上記課題を解決するた
め、請求項1の発明のカメラ校正用チャートは、底面と
複数の側面とを有する錐体と、前記複数の側面のそれぞ
れに表示された複数のチャートと、を備え、前記複数の
チャートのそれぞれは、それぞれが既知のサイズを有す
る複数の単位図形の集合を含み、前記複数の単位図形の
それぞれの幾何学的形状は、前記集合内部と前記複数の
チャート間との双方につき、各単位図形と観測位置との
相対的位置および相対的姿勢にかかわらず、前記観測位
置からの観測によって相互に識別可能にコーディングさ
れていることを特徴とする。
In order to solve the above-mentioned problems, a camera calibration chart according to the first aspect of the present invention has a pyramid having a bottom surface and a plurality of side surfaces, and is displayed on each of the plurality of side surfaces. And a plurality of charts, each of the plurality of charts includes a set of a plurality of unit figures each having a known size, and the geometric shape of each of the plurality of unit figures is within the set. Regarding both between the plurality of charts, irrespective of the relative position and relative attitude between each unit figure and the observation position, the coding is performed so as to be mutually identifiable by observation from the observation position. .

【0012】請求項2の発明は、請求項1のカメラ校正
用立体チャートにおいて、前記複数の単位図形は、前記
錐体の底面に近いほどサイズが増大していることを特徴
とする。
According to a second aspect of the present invention, in the camera calibration three-dimensional chart according to the first aspect, the plurality of unit figures increase in size closer to the bottom surface of the cone.

【0013】請求項3の発明は、請求項2のカメラ校正
用立体チャートにおいて、前記錐体が角錐であり、前記
複数のチャートは、各チャートと観測位置との相対的位
置および相対的姿勢にかかわらず、前記観測位置からの
観測によって相互に識別可能にコーディングされている
ことを特徴とする。
According to a third aspect of the present invention, in the three-dimensional camera calibration chart of the second aspect, the pyramid is a pyramid, and the plurality of charts include a relative position and a relative attitude between each chart and an observation position. Regardless, it is characterized by being coded so as to be mutually identifiable by observation from the observation position.

【0014】請求項4の発明は、請求項3のカメラ校正
用立体チャートにおいて、前記複数の単位図形は、前記
錐体の底面に平行な複数の第1の直線と、前記錐体の頂
点に相当する位置から放射状に伸びた複数の第2の直線
との交差によって形成された複数の台形であり、前記複
数の台形のサイズの複比がコーディングされていること
を特徴とする。
According to a fourth aspect of the present invention, in the camera three-dimensional chart of the third aspect, the plurality of unit figures are a plurality of first straight lines parallel to a bottom surface of the cone and a vertex of the cone. A plurality of trapezoids formed by intersections with a plurality of second straight lines extending radially from corresponding positions, wherein a cross ratio of the sizes of the plurality of trapezoids is coded.

【0015】請求項5の発明は、請求項4のカメラ校正
用立体チャートにおいて、前記角錐の頂点にマーカが設
けられていることを特徴とする。
According to a fifth aspect of the present invention, in the camera calibration three-dimensional chart of the fourth aspect, a marker is provided at a vertex of the pyramid.

【0016】請求項6の発明は、請求項5のカメラ校正
用立体チャートにおいて、前記マーカが発光体を含むこ
とを特徴とする。
According to a sixth aspect of the present invention, in the three-dimensional chart for camera calibration according to the fifth aspect, the marker includes a luminous body.

【0017】請求項7の発明は、請求項3のカメラ校正
用立体チャートにおいて、前記錐体が角錐台であること
を特徴とする。
According to a seventh aspect of the present invention, in the three-dimensional camera calibration chart of the third aspect, the pyramid is a truncated pyramid.

【0018】請求項8の発明は、請求項1ないし請求項
7のいずれかに記載のカメラ校正用立体チャートにおい
て、前記複数の単位図形のうち互いに隣接する単位図形
には、互いに異なる明度または色相の色が付されている
ことを特徴とする。
According to an eighth aspect of the present invention, in the camera calibration three-dimensional chart according to any one of the first to seventh aspects, the unit figures adjacent to each other among the plurality of unit figures have different lightness or hue. Characterized by the following color:

【0019】請求項9の発明のカメラ校正用チャート
は、底面と側面とを有する錐体と、前記側面の1周分に
わたって表示されたチャートと、を備え、前記チャート
は、それぞれが既知のサイズを有する複数の単位図形の
集合を含み、前記複数の単位図形のそれぞれの幾何学的
形状は、前記集合内部につき、各単位図形と観測位置と
の相対的位置および相対的姿勢にかかわらず、前記観測
位置からの観測によって相互に識別可能にコーディング
されていることを特徴とする。
According to a ninth aspect of the present invention, there is provided a camera calibration chart including a cone having a bottom surface and a side surface, and a chart displayed over one round of the side surface, wherein each of the charts has a known size. Including a set of a plurality of unit figures having a geometric shape of each of the plurality of unit figures, irrespective of a relative position and a relative posture between each unit figure and an observation position inside the set. It is characterized by being coded so as to be mutually identifiable by observation from an observation position.

【0020】請求項10の発明は、カメラの校正用パラ
メータを取得する方法であって、請求項1ないし請求項
8のいずれかのカメラ校正用立体チャートを、被写体を
収容すべき空間内に配置する工程と、前記カメラ校正用
立体チャートの前記複数のチャートのうち少なくとも1
つのチャートを、前記カメラに付随した観測位置から観
測する工程と、観測されたチャートに含まれる少なくと
も1つの単位図形を対象単位図形として抽出し、前記対
象単位図形を、前記複数のチャートおよび前記複数の単
位図形の中で同定する工程と、同定された前記対象単位
図形についてあらかじめ特定されている実サイズと、前
記観測位置から見た前記対象単位図形の観測サイズとの
関係から、前記観測位置と前記カメラ校正用立体チャー
トとの相対的位置および相対姿勢に依存する前記カメラ
の校正用パラメータを特定する工程と、を備える。
According to a tenth aspect of the present invention, there is provided a method for acquiring a calibration parameter of a camera, wherein the three-dimensional chart for camera calibration according to any one of the first to eighth aspects is arranged in a space in which a subject is to be accommodated. And at least one of the plurality of charts of the camera calibration three-dimensional chart.
Observing two charts from an observation position attached to the camera, extracting at least one unit graphic included in the observed chart as a target unit graphic, and extracting the target unit graphic from the plurality of charts and the plurality of charts. The step of identifying in the unit figure of the, the actual size specified in advance for the identified target unit figure, from the relationship between the observation size of the target unit figure viewed from the observation position, the observation position and Specifying a calibration parameter of the camera that depends on a relative position and a relative attitude with respect to the camera calibration three-dimensional chart.

【0021】請求項11の発明は、カメラの校正用パラ
メータを求める装置であって、請求項1ないし請求項8
のいずれかのカメラ校正用立体チャートを前記観測位置
から観測して得たチャート画像から少なくとも1つの単
位図形を対象単位図形として抽出し、前記対象単位図形
を、前記複数のチャート相互間および前記複数の単位図
形の中で同定する同定手段と、同定された前記対象単位
図形についてあらかじめ特定されている実サイズと、前
記観測位置から見た前記対象単位図形の観測サイズとの
関係から、前記観測位置と前記カメラ校正用立体チャー
トとの相対的位置および相対姿勢に依存する前記カメラ
の校正用パラメータを算出する演算手段と、を備える。
[0021] The invention of claim 11 is an apparatus for obtaining a calibration parameter of a camera, wherein the apparatus is for determining a calibration parameter of a camera.
Extracting at least one unit graphic as a target unit graphic from a chart image obtained by observing any one of the camera calibration three-dimensional charts from the observation position, and extracting the target unit graphic between the plurality of charts and the plurality of charts. Identification means for identifying among the unit figures of the above, the relationship between the actual size specified in advance for the identified target unit figure and the observation size of the target unit figure viewed from the observation position, Calculating means for calculating a calibration parameter of the camera depending on a relative position and a relative attitude between the camera and the three-dimensional chart for camera calibration.

【0022】請求項12の発明のプログラムは、コンピ
ュータによって実行されることにより、前記コンピュー
タを請求項11のカメラの校正用情報処理装置として機
能させることを特徴とする。
According to a twelfth aspect of the present invention, a program is executed by a computer to cause the computer to function as a camera information processing apparatus according to the eleventh aspect.

【0023】[0023]

【発明の実施の形態】<システム構成の概要>図1は、
本発明の実施形態が適用された撮像演算システム1の構
成を示す図であり、図2はこの撮像演算システム1のブ
ロック図である。図1において、撮像演算システム1
は、立体的な被写体30の画像を撮像可能な可搬性のカ
メラシステム10と、被写体30を収容した空間内にお
いて、被写体30の近傍に配置されたカメラ校正用の立
体チャート2とを備えている。立体チャート2は、後に
詳述するように、略角錐状の本体の各側面にチャートパ
ターンが施された立体物であり、チャート支持具250
から吊り下げられている。チャート支持具250は台座
251から伸びる逆L字状のアーム252を備え、立体
チャート2はそのアーム252の先端付近に固定されて
いる。好ましくは、立体チャート2は被写体30の略上
方に吊り下げられる。
DESCRIPTION OF THE PREFERRED EMBODIMENTS <Overview of System Configuration> FIG.
1 is a diagram illustrating a configuration of an imaging operation system 1 to which an embodiment of the present invention is applied, and FIG. 2 is a block diagram of the imaging operation system 1. In FIG. 1, an imaging operation system 1
Is provided with a portable camera system 10 capable of capturing a three-dimensional image of a subject 30 and a three-dimensional chart 2 for camera calibration arranged near the subject 30 in a space accommodating the subject 30. . The three-dimensional chart 2 is a three-dimensional object in which a chart pattern is formed on each side surface of a substantially pyramid-shaped main body, as will be described in detail later.
Hanged from. The chart support 250 includes an inverted L-shaped arm 252 extending from the pedestal 251, and the three-dimensional chart 2 is fixed near the tip of the arm 252. Preferably, the three-dimensional chart 2 is suspended substantially above the subject 30.

【0024】カメラシステム10は、デジタルカメラと
しての機能を有する被写体撮影用カメラ(以下、「被写
体用カメラ」と略す)13を備えている。また、この被
写体用カメラ13の上部には、取付機構12を介して可
動式カメラ11が姿勢変更自在に取り付けられている。
可動式カメラ11は、立体チャート2の上のパターン
(図3参照)に含まれる複数の単位図形UPを撮影する
ことにより、立体チャート2と可動式カメラ11との相
対的な位置姿勢関係を特定し、さらには立体チャート2
に対して相対的に固定された絶対座標系における、被写
体用カメラ13の位置および姿勢を検出するために使用
される。
The camera system 10 includes a subject photographing camera (hereinafter, abbreviated as "subject camera") 13 having a function as a digital camera. A movable camera 11 is mounted on the upper part of the subject camera 13 via a mounting mechanism 12 so as to be freely changeable in posture.
The movable camera 11 specifies a relative position and orientation relationship between the three-dimensional chart 2 and the movable camera 11 by photographing a plurality of unit figures UP included in a pattern (see FIG. 3) on the three-dimensional chart 2. And 3D chart 2
Is used to detect the position and orientation of the subject camera 13 in an absolute coordinate system fixed relative to.

【0025】図1には示されていないが、図2にあるよ
うに、この撮影演算システム1は、たとえばノートブッ
ク型の可搬性コンピュータ15を備えていてもよい。コ
ンピュータ15は通信インターフェイス15aを介した
無線通信によってカメラシステム10との間でコマンド
やデータの授受が可能である。
Although not shown in FIG. 1, as shown in FIG. 2, the photographing operation system 1 may include a notebook-type portable computer 15, for example. The computer 15 can transmit and receive commands and data to and from the camera system 10 by wireless communication via the communication interface 15a.

【0026】<立体チャートの概要>図3は立体チャー
ト2の側面図である。立体チャート2は、立体チャート
本体203と、この立体チャート本体203の表面上に
形成されたチャートパターンCPとを有している。
FIG. 3 is a side view of the three-dimensional chart 2. The three-dimensional chart 2 has a three-dimensional chart main body 203 and a chart pattern CP formed on the surface of the three-dimensional chart main body 203.

【0027】このうち立体チャート本体203は、多角
錐形状の表示部204と、角錐台状の支持部205とが
一体化されており、内部は中空となっている。チャート
パターンCPは、表示部204の各側面T1〜Tn(nは
3以上の整数)上に付されたパターンP1〜Pnの集合で
ある。好ましくは、多角錐の側面の数nは、n=3〜3
6であり、より好ましくはn=6〜12である。各側面
T1〜Tnに形成されたそれぞれのパターンP1〜Pnは平
面的パターンであるが、パターンP1〜Pnが立体的に配
置されることにより、このパターンP1〜Pnの集合とし
てのチャートパターンCPは立体的パターンとなってい
る。それぞれのパターンP1〜Pnは、それぞれが単位図
形として機能する複数の台形の集合であり、その詳細は
後述する。
The three-dimensional chart main body 203 has a polygonal pyramid-shaped display section 204 and a truncated pyramid-shaped support section 205 integrated with each other, and has a hollow interior. The chart pattern CP is a set of patterns P1 to Pn provided on each side surface T1 to Tn (n is an integer of 3 or more) of the display unit 204. Preferably, the number n of the sides of the pyramid is n = 3 to 3
6, and more preferably n = 6 to 12. Each of the patterns P1 to Pn formed on each of the side surfaces T1 to Tn is a planar pattern. However, by arranging the patterns P1 to Pn three-dimensionally, the chart pattern CP as a set of the patterns P1 to Pn becomes It has a three-dimensional pattern. Each of the patterns P1 to Pn is a set of a plurality of trapezoids, each of which functions as a unit graphic, the details of which will be described later.

【0028】また、表示部204を構成する多角錐の頂
点には、可動式カメラ11がチャートパターンCPを追
尾(トラッキング)する際に基準点とするマーカ201
として、発光ダイオード(LED)が取り付けられてお
り、これによって容易かつ正確に立体チャート2の位置
が可動式カメラ11で認識できるようになっている。図
3では図示されていないが、立体チャート2の内部に
は、この発光ダイオードに発光電力を供給するためのマ
ーカ用電源202(図2)が内蔵されている。
A marker 201 serving as a reference point when the movable camera 11 tracks the chart pattern CP is provided at the apex of the polygonal pyramid constituting the display unit 204.
, A light emitting diode (LED) is attached so that the movable camera 11 can easily and accurately recognize the position of the three-dimensional chart 2. Although not shown in FIG. 3, a marker power supply 202 (FIG. 2) for supplying light-emitting power to the light-emitting diodes is built in the three-dimensional chart 2.

【0029】<可動式カメラ11の概要>図4は可動式
カメラ11の正面図であり、図5は可動式カメラ11の
ブロック図である。図5に示すように、可動式カメラ1
1では、レンズユニット110と、このレンズユニット
110によって結像した2次元画像を光電変換する2次
元受光素子111とが一体となって球状ユニット116
に納められている。2次元受光素子111はCCDアレ
イである。レンズユニット110は、固定レンズ110
aとズームレンズ110bとの組み合わせであり、それ
らの間に絞り/シャッタ機構110eが存在する。
<Outline of Movable Camera 11> FIG. 4 is a front view of the movable camera 11, and FIG. 5 is a block diagram of the movable camera 11. As shown in FIG. 5, the movable camera 1
In 1, a spherical unit 116 is formed by integrating a lens unit 110 and a two-dimensional light receiving element 111 for photoelectrically converting a two-dimensional image formed by the lens unit 110.
It is stored in. The two-dimensional light receiving element 111 is a CCD array. The lens unit 110 includes a fixed lens 110
a and the zoom lens 110b, and an aperture / shutter mechanism 110e exists between them.

【0030】図4に示すように、球状ユニット116は
姿勢装置113を介して固定部114に連結されてお
り、球状ユニット116に内蔵された各要素とともにパ
ン方向の±約70°の旋回(θ回転)と、チルト方向へ
の±約70°の俯仰(φ回転)とが可能になっている。
そして、これらのパン方向の回転駆動とチルト方向の回
転駆動とを行うために、複数のピエゾ素子を内蔵した姿
勢装置113が球状ユニット116の基部に配置されて
いる。また、ズームレンズ110bの駆動に相当するズ
ーム操作も、上記とは別のピエゾ素子によって行われ
る。これらのピエゾ素子にノコギリ波信号を与えること
により、ピエゾ素子による駆動の対象要素が寸動し、そ
の繰返しによって対象要素に所要の動きが与えられる。
パン方向の旋回角とチルト方向の俯仰角とは、それぞれ
エンコーダなどの角度センサ126p、126tによっ
て検出され、ズームレンズ110bの駆動量はやはりエ
ンコーダで構成されたセンサ126zによって検出され
る。これらの駆動機構については、たとえば特開199
9−18000号や、特開1999−41504号に開
示されている。
As shown in FIG. 4, the spherical unit 116 is connected to a fixed part 114 via a posture device 113, and together with the elements built in the spherical unit 116, pivots about ± 70 ° in the pan direction (θ (Rotation) and a tilt (φ rotation) of ± 70 ° in the tilt direction are possible.
In order to perform the rotation drive in the pan direction and the rotation drive in the tilt direction, a posture device 113 having a plurality of piezo elements is arranged at the base of the spherical unit 116. Further, a zoom operation corresponding to driving of the zoom lens 110b is also performed by another piezo element. By applying a sawtooth wave signal to these piezo elements, the element to be driven by the piezo element jogs, and a required movement is given to the element by repetition.
The turning angle in the pan direction and the elevation angle in the tilt direction are detected by angle sensors 126p and 126t such as encoders, respectively, and the driving amount of the zoom lens 110b is detected by a sensor 126z also formed by an encoder. These drive mechanisms are described in, for example,
9-18000 and JP-A-1999-41504.

【0031】制御演算部120は、2次元受光素子11
1からの信号を入力して画像認識などの処理を行う画像
処理部121と、この画像処理部121で得られた画像
信号を記憶する画像メモリ122とを備えている。ま
た、ズームレンズ110b、姿勢装置113、および絞
り/シャッタ機構部110eの駆動信号を発生して、こ
れらに出力するカメラ制御部123が設けられており、
画像処理部121およびカメラ制御部123は、通信部
124および通信デバイス112を介して、被写体用カ
メラ13と無線通信が可能である。この通信により画像
データが被写体用カメラ13に送信されるほか、各種情
報が可動式カメラ11と被写体用カメラ13との間で送
受信される。この実施形態の可動式カメラ11では、通
信デバイス112として、赤外線通信を行うためのIR
DA(Infrared Data Association)インターフェイス
に対応した赤外線素子が使用されている。
The control operation unit 120 is provided with the two-dimensional light receiving element 11
An image processing unit 121 that performs a process such as image recognition by inputting a signal from the image processing unit 1 and an image memory 122 that stores an image signal obtained by the image processing unit 121. Further, a camera control unit 123 that generates drive signals for the zoom lens 110b, the attitude device 113, and the aperture / shutter mechanism unit 110e and outputs the drive signals to them is provided.
The image processing unit 121 and the camera control unit 123 can wirelessly communicate with the subject camera 13 via the communication unit 124 and the communication device 112. By this communication, image data is transmitted to the subject camera 13, and various information is transmitted and received between the movable camera 11 and the subject camera 13. In the movable camera 11 of this embodiment, an IR for performing infrared communication is used as the communication device 112.
An infrared element corresponding to a DA (Infrared Data Association) interface is used.

【0032】図4に示すように、固定部114に設けら
れた第1取付溝115aおよび第2取付溝115bは、
被写体用カメラ11に固定部114を取り付けるために
用いられる。さらに、追尾ボタン117は、可動式カメ
ラ11に立体チャート2を自動的に追尾させるモード
(以下、「自動追尾モード」と略す)と被写体用カメラ
13からのユーザの指示により追尾させるモード(以
下、「手動モード」と略す)とを切り換えるためのボタ
ンである。
As shown in FIG. 4, the first mounting groove 115a and the second mounting groove 115b provided on the fixing portion 114 are
It is used for attaching the fixing part 114 to the subject camera 11. Further, a tracking button 117 is provided for a mode in which the movable camera 11 automatically tracks the three-dimensional chart 2 (hereinafter, abbreviated as an “automatic tracking mode”) and a mode in which the tracking is performed according to a user instruction from the subject camera 13 (hereinafter, referred to as “automatic tracking mode”). Button for switching between "manual mode").

【0033】図6はハードウエア構成から見た可動式カ
メラ11の情報処理機能の要部を示す図であり、図7は
可動式カメラ11におけるデータの流れを示す図であ
る。図6において、可動式カメラ11の制御演算部12
0はCPU130、ROM131およびRAM132を
備えており、後記の各種の動作を実現するプログラム1
31aはROM131に記憶されている。
FIG. 6 is a diagram showing a main part of the information processing function of the movable camera 11 as viewed from the hardware configuration, and FIG. 7 is a diagram showing a data flow in the movable camera 11. In FIG. 6, the control operation unit 12 of the movable camera 11
0 is a program 1 that includes a CPU 130, a ROM 131, and a RAM 132, and implements various operations described below.
31a is stored in the ROM 131.

【0034】2次元受光素子111は、画素ごとにRG
Bのいずれかのフィルタが付設されており、2次元受光
素子111上に結像した光は、この2次元受光素子11
1によってRGB3原色成分ごとに光電変換される。こ
れによって得られた信号がA/D変換部141によって
デジタル画像信号に変換され、画像補正部142におい
てホワイトバランス補正やγ補正等を受ける。補正後の
画像信号は画像メモリ122に保存される。図7におけ
る第1画像データD1は、この補正後の画像信号に相当
する。
The two-dimensional light receiving element 111 has an RG for each pixel.
B, and the light focused on the two-dimensional light receiving element 111
1 for each of the three RGB primary color components. The signal obtained in this way is converted into a digital image signal by the A / D converter 141, and undergoes white balance correction, γ correction, and the like in the image corrector 142. The corrected image signal is stored in the image memory 122. The first image data D1 in FIG. 7 corresponds to the corrected image signal.

【0035】図7の認識部145、姿勢制御部146
は、CPU130、ROM131、RAM132などの
機能の一部として実現される。
The recognition unit 145 and the attitude control unit 146 shown in FIG.
Are realized as a part of the functions of the CPU 130, the ROM 131, the RAM 132, and the like.

【0036】認識部145は、追尾ボタン117からの
ユーザの指示に応答して能動化され、可動式カメラ11
が取得した第1画像データD1の中から、立体チャート
2の画像を認識し、第1画像データD1における立体チ
ャート2の画像を追尾するための、追尾データDFを作
成する。
The recognition unit 145 is activated in response to a user instruction from the tracking button 117, and
Generates the tracking data DF for recognizing the image of the three-dimensional chart 2 from the acquired first image data D1 and tracking the image of the three-dimensional chart 2 in the first image data D1.

【0037】姿勢制御部146は、手動モードにおいて
被写体用カメラ13から受信したユーザの指示に基づ
き、姿勢装置113を制御する。追尾ボタン117が押
下され、自動追尾モードに変更された後においては、後
述の処理によって、立体チャート2の像がCCD111
上に常に結像されるように、姿勢装置113は制御され
る。
The posture control unit 146 controls the posture device 113 based on a user's instruction received from the subject camera 13 in the manual mode. After the tracking button 117 is pressed and the mode is changed to the automatic tracking mode, the image of the three-dimensional chart 2 is changed to the CCD 111 by the processing described later.
The attitude device 113 is controlled so that an image is always formed thereon.

【0038】CPU130はさらに、後述する処理によ
って図7の回転角データDRを作成する機能をも有す
る。
The CPU 130 further has a function of creating the rotation angle data DR of FIG. 7 by the processing described later.

【0039】また、被写体用カメラ13のシャッタボタ
ンが押下されると、第1画像データD1と回転角データ
DRとは、通信部124を介して被写体用カメラ13に
送信される。
When the shutter button of the subject camera 13 is pressed, the first image data D1 and the rotation angle data DR are transmitted to the subject camera 13 via the communication unit 124.

【0040】<被写体用カメラ13の概要>図8は、ハ
ードウエア構成から見た、被写体用カメラ13の情報処
理機能の要部を示す図であり、図9は、被写体用カメラ
13におけるデータの流れを示す図である。被写体用カ
メラ13はCPU150、RAM151およびROM1
52を備えており、後述する被写体用カメラ13の各種
の動作を実現するプログラム152aは、ROM152
に記憶されている。また、シャッタボタン161、フラ
ッシュ162、背面に設置されたモニタ用カラーディス
プレイ163、および操作ボタン群164などの要素
も、CPU150と電気的に結合している。
<Outline of Camera 13 for Object> FIG. 8 is a diagram showing a main part of the information processing function of the camera 13 for object, viewed from the hardware configuration, and FIG. It is a figure showing a flow. The subject camera 13 includes a CPU 150, a RAM 151, and a ROM 1
A program 152 a for realizing various operations of the subject camera 13, which will be described later, includes a ROM 152.
Is stored in Elements such as a shutter button 161, a flash 162, a monitor color display 163 installed on the back surface, and an operation button group 164 are also electrically connected to the CPU 150.

【0041】図8および図9に示すように、レンズユニ
ット155を介して被写体30から入射した光は、画素
ごとにRGBのいずれかのフィルタが付設された、CC
Dアレイなどの2次元受光素子156上に結像し、2次
元受光素子156によってRGB3原色成分ごとに光電
変換される。これによって得られた信号が、A/D変換
部157によってデジタル画像信号に変換され、画像補
正部158においてホワイトバランス補正やγ補正等を
受ける。補正後の画像信号は画像メモリ159に記憶さ
れる。シャッタボタン161が押下されることにより撮
影は実行され、画像メモリ159に記憶された画像信号
が、第2画像データD2としてRAM151に保存され
る。
As shown in FIG. 8 and FIG. 9, light incident from the subject 30 via the lens unit 155 is converted to a CC signal, which is provided with one of RGB filters for each pixel.
An image is formed on a two-dimensional light receiving element 156 such as a D array, and the two-dimensional light receiving element 156 performs photoelectric conversion for each of the three RGB primary color components. The signal thus obtained is converted into a digital image signal by the A / D converter 157, and undergoes white balance correction, γ correction, and the like in the image corrector 158. The corrected image signal is stored in the image memory 159. When the shutter button 161 is pressed, shooting is performed, and the image signal stored in the image memory 159 is stored in the RAM 151 as second image data D2.

【0042】通信部167は、通信デバイス168を介
して、可動式カメラ11との間で、可動式カメラ11の
各部の制御信号や、取得した画像データ等の各種情報を
送受信する。たとえば、手動モードにおいて、ユーザが
操作ボタン類164の一部を操作することにより得られ
た信号を、可動式カメラ11に送信することにより、可
動式カメラ11の姿勢装置113を、ユーザの手動によ
って操作することが可能となる。また、被写体用カメラ
13のシャッタボタン161の押下に応答して、被写体
用カメラ13と可動式カメラ11の同時撮影を行うこと
も可能となる。
The communication unit 167 transmits and receives control signals for various parts of the movable camera 11 and various information such as acquired image data to and from the movable camera 11 via the communication device 168. For example, in the manual mode, a signal obtained by the user operating a part of the operation buttons 164 is transmitted to the movable camera 11 so that the posture device 113 of the movable camera 11 is manually operated by the user. It becomes possible to operate. In addition, in response to the pressing of the shutter button 161 of the camera 13 for the subject, it is also possible to simultaneously shoot the camera 13 for the subject and the movable camera 11.

【0043】通信デバイス168は、可動式カメラ11
と赤外線通信を行うためのIRDA(Infrared Data As
sociation)インターフェイスとしての赤外線素子であ
り、通信部167によって駆動される。
The communication device 168 includes the movable camera 11
(Infrared Data As) for infrared communication with
An infrared element as an interface, and is driven by the communication unit 167.

【0044】カードスロット165は被写体用カメラ1
3にメモリカード166を装着するために使用され、こ
のメモリカード166には撮影した画像データ等を保存
可能である。
The card slot 165 is for the camera 1 for the subject.
3 is used to mount a memory card 166, and the memory card 166 can store photographed image data and the like.

【0045】図9の抽出部171、演算部173および
表示制御部174は、図8のCPU150、RAM15
1、ROM152等により実現される機能である。
The extraction unit 171, the operation unit 173, and the display control unit 174 of FIG.
1. Functions implemented by the ROM 152 and the like.

【0046】抽出部171は、通信部167を介して可
動式カメラ11から受信した第1画像データD1から、
立体チャート2上の4点の抽出を行い、第1抽出点デー
タDP1を作成する。また、抽出部171は、同様に、
被写体用カメラ13により取得された第2画像データD
2から立体チャート2上の4点の抽出を行い、第2抽出
点データDP2を作成する。
The extracting unit 171 converts the first image data D1 received from the movable camera 11 through the communication unit 167 from the first image data D1.
Four points on the three-dimensional chart 2 are extracted to create first extracted point data DP1. Further, the extraction unit 171 similarly calculates
Second image data D acquired by subject camera 13
Then, four points on the three-dimensional chart 2 are extracted from No. 2 to create second extraction point data DP2.

【0047】演算部173は、第1抽出点データDP
1、回転角データDR、および第2抽出点データDP2
から、可動式カメラ11と被写体用カメラ13との相対
的な位置と姿勢を求め、相対位置データDPSを作成す
る。さらに、第1抽出点データD1、回転角データD
R、および相対位置データDPSから、被写体撮影カメ
ラ13と立体チャート2との相対的な位置と姿勢を求
め、撮影データDMを作成する。撮影データDMは、R
AM151に保存される。
The operation unit 173 calculates the first extraction point data DP
1. Rotation angle data DR and second extraction point data DP2
Then, the relative position and orientation of the movable camera 11 and the subject camera 13 are obtained, and the relative position data DPS is created. Further, the first extraction point data D1 and the rotation angle data D
From R and the relative position data DPS, the relative position and orientation between the subject photographing camera 13 and the three-dimensional chart 2 are obtained, and photographing data DM is created. The shooting data DM is R
Stored in the AM 151.

【0048】表示制御部174は、操作ボタン群164
からのユーザの指示に基づいて、第2画像データD2
と、撮影データDMとを、RAM151から取得して、
メモリカード166に保存する。また、表示制御部17
4は、各種データに必要な処理を行ってディスプレイ1
63に表示させたり、メモリカード166に保存されて
いる各種データをRAM151上に読み出したりする機
能をも有する。
The display control unit 174 includes an operation button group 164
The second image data D2 based on the user's instruction from
And the photographing data DM from the RAM 151,
The data is stored in the memory card 166. The display control unit 17
4 is a display 1 that performs necessary processing for various data.
It also has a function of displaying on the RAM 63 and reading various data stored in the memory card 166 onto the RAM 151.

【0049】<カメラ校正の原理>任意の方向から被写
体用カメラ13で被写体30を撮影して画像を得たとき
には、その撮影を行った際の、立体チャート2またはそ
れに固定された絶対座標系に対する、被写体用カメラ1
3の相対的な位置および姿勢を、外部パラメータとして
特定しておく必要がある。それは、複数の方向からの撮
影で得た各画像を組み合わせて被写体30の3次元画像
モデルを構築するあたっては、各画像の空間的相互関係
が必要だからである。
<Principle of Camera Calibration> When an image is obtained by photographing the subject 30 with the subject camera 13 from an arbitrary direction, the image is taken with respect to the three-dimensional chart 2 or the absolute coordinate system fixed thereto when the photographing is performed. , Subject camera 1
It is necessary to specify the relative positions and postures of the three as external parameters. This is because, when constructing a three-dimensional image model of the subject 30 by combining the images obtained by photographing from a plurality of directions, a spatial correlation between the images is required.

【0050】しかしながら、実際に被写体30を撮影す
るときには、被写体用カメラ13の画角内に立体チャー
ト2を入れることが困難な場合がある。そこで、 X0:立体チャート2に固定された座標系(絶対座標
系); X1:可動式カメラ11に固定された座標系(第1ロー
カル座標系); X2:被写体用カメラ13に固定された座標系(第2ロ
ーカル座標系); τ01:第1ローカル座標系X1から絶対座標系X0への変
換関係; τ02:第2ローカル座標系X2から絶対座標系X0への変
換関係; τ12:第1ローカル座標系X2から第2ローカル座標系
1への変換関係; とするときに成り立つ、次の関係を利用する(τ01、τ
02、τ12および後述のQ 0、Q2は図示していない)。
However, the subject 30 is actually photographed.
The stereoscopic camera within the angle of view of the subject camera 13
In some cases it is difficult to insert Then, X0: Coordinate system fixed to three-dimensional chart 2 (absolute coordinates
System); X1: A coordinate system fixed to the movable camera 11 (first row
Cull coordinate system); XTwo: A coordinate system fixed to the subject camera 13 (second coordinate
Coordinate system); τ01: First local coordinate system X1From absolute coordinate system X0Change to
Commutation relation; τ02: Second local coordinate system XTwoFrom absolute coordinate system X0Change to
Commutation relation; τ12: First local coordinate system XTwoTo the second local coordinate system
X1Use the following relation that holds when01, Τ
02, Τ12And Q described below 0, QTwoAre not shown).

【0051】数1 τ02 = τ01・τ12 τ01、τ12が既知であれば、τ02が求められる。τ02
求められれば、2次元画像を撮影した被写体用カメラ1
3の第2ローカル座標系X2における位置・姿勢は、こ
の変換τ02を作用させることにより、絶対座標系X0
おける位置・姿勢として求められる。絶対座標系におけ
る被写体用カメラ13の位置・姿勢を表す行列をQ0
第2ローカル座標系X2における被写体用カメラ13の
位置・姿勢を表す行列をQ2とすると、
Τ 02 = τ 01 · τ 12 If τ 01 and τ 12 are known, τ 02 is obtained. If τ 02 is obtained, the subject camera 1 that has captured the two-dimensional image
Position and orientation of the second local coordinate system X 2 of 3, by acting on the transformation tau 02, is determined as the position and orientation in the absolute coordinate system X 0. A matrix representing the position and orientation of the subject camera 13 in the absolute coordinate system is Q 0 ,
When the matrix representing the position and orientation of the object camera 13 in the second local coordinate system X 2 and Q 2,

【0052】数2 Q0 = {τ01・τ12}Q2 = τ02・Q2 のように求まることになる。Equation 2 Q 0 = {τ 01 · τ 12 } Q 2 = τ 02 · Q 2

【0053】したがって、被写体30に対して移動しつ
つ被写体用カメラ13で被写体30を撮影するつど、そ
の撮影に対応する変換関係τ02を求めて、これを撮影画
像に付随させれば、複数の方向で撮影した画像をX0
組み合わせて被写体30の3次元画像モデルを得ること
ができる。
Therefore, each time the subject 30 is photographed by the subject camera 13 while moving with respect to the subject 30, a conversion relationship τ 02 corresponding to the photographing is obtained and attached to the photographed image to obtain a plurality of images. By combining images taken in the directions with X 0 , a three-dimensional image model of the subject 30 can be obtained.

【0054】この原理を実現する具体的プロセス(詳細
は後述)は、第1サブプロセスと第2サブプロセスとに
大別される。
A specific process for realizing this principle (details will be described later) is roughly classified into a first sub-process and a second sub-process.

【0055】※第1サブプロセス:これは、2つのカメ
ラ座標系間の変換関係τ12を特定するための、サブプロ
セスである。
* First sub-process: This is a sub-process for specifying the conversion relationship τ 12 between the two camera coordinate systems.

【0056】まず、立体チャート2を可動式カメラ11
と被写体用カメラ13とで同時に撮影し、それらの撮影
結果を用いて、それぞれのカメラの外部パラメータ、す
なわち絶対座標系X0でのそれぞれのカメラの位置およ
び姿勢を求める。
First, the three-dimensional chart 2 is moved to the movable camera 11.
And at the same time taken by the subject camera 13, using the result thereof shooting, external parameters of each camera, that obtains the position and orientation of each camera in the absolute coordinate system X 0.

【0057】これは、その状態での変換関係τ02、 τ
01を特定することに対応する。そして、数1から得られ
る、
This is because the conversion relation τ 02 , τ in that state
This corresponds to specifying 01 . And from Equation 1,

【0058】数3 τ12 = (τ01-1 τ02 の関係から、第1ローカル座標系X1と第2ローカル座
標系X2との変換関係τ12を得る。
From the relationship of τ 12 = (τ 01 ) −1 τ 02 , a conversion relationship τ 12 between the first local coordinate system X 1 and the second local coordinate system X 2 is obtained.

【0059】また、可動式カメラ11の回転角θ,φの
値は、それぞれ角度センサ126p、126tによって
検出される既知の値であるから、変換関係τ12から回転
角依存部分を分離して、可動式カメラ11が基準姿勢
(θ = 0、φ = 0)にあるときの基準変換関係τ
12(0,0)を求めることができる。この基準変換関係τ
12(0,0)は、カメラシステム10を移動させたり、可動
式カメラ11を回転させても不変なオペレータである。
変換関係τ12(0,0)が定まると、変換関係τ12は、回転
角θ,φを変数として持つことになる。
[0059] Further, the rotation angle of the movable camera 11 theta, the value of φ, respectively angle sensor 126p, because it is known values detected by 126t, separating the rotation angle-dependent parts from the conversion relationship tau 12, Reference conversion relation τ when the movable camera 11 is in the reference posture (θ = 0, φ = 0)
12 (0,0) can be obtained. This reference conversion relation τ
12 (0,0) is an operator who does not change even if the camera system 10 is moved or the movable camera 11 is rotated.
When the conversion relation τ 12 (0,0) is determined, the conversion relation τ 12 has the rotation angles θ and φ as variables.

【0060】このようにして得られた変換関係τ12は、
絶対座標系X0におけるカメラシステム10全体の位置
や姿勢に依存しないので、カメラシステム10を他の場
所に移動させてもそこでの変換演算に利用できる。
The conversion relation τ 12 thus obtained is
Does not depend on the position and orientation of the entire camera system 10 in the absolute coordinate system X 0, available camera system 10 to convert operations therein be moved to another location.

【0061】※第2サブプロセス:これは、第1サブプ
ロセスの結果を使用しつつ、被写体30を複数の方向か
ら撮影して画像データを得るとともに、それらの画像デ
ータのそれぞれにつき、第2ローカル座標系X2から絶
対座標系X0への変換関係τ02に相当する情報を付加し
ていくサブプロセスである。
* Second sub-process: This uses the result of the first sub-process to obtain image data by photographing the subject 30 from a plurality of directions, and to obtain a second local image for each of the image data. This is a subprocess for adding information corresponding to the conversion relationship τ 02 from the coordinate system X 2 to the absolute coordinate system X 0 .

【0062】第2サブプロセスでは、被写体用カメラ1
3で被写体30を撮影すると同時に、可動式カメラ11
で立体チャート2を撮影する。可動式カメラ11で撮影
した立体チャート2の画像データから、第1ローカル座
標系X1から絶対座標系X0への変換関係τ01が特定され
る。
In the second sub-process, the subject camera 1
3 and the movable camera 11
To photograph the three-dimensional chart 2. The conversion relationship τ 01 from the first local coordinate system X 1 to the absolute coordinate system X 0 is specified from the image data of the three-dimensional chart 2 captured by the movable camera 11.

【0063】一方、第1サブプロセスによって、第2ロ
ーカル座標系X2から第1ローカル座標系X1への変換関
係τ12の回転角依存性は特定されているから、被写体3
0を撮影するときの回転角θ,φの値から、変換関係τ
12の具体的内容が特定される。したがって、変換関係τ
12およびτ01を合成した変換関係τ02を、数4から得る
ことができる。
On the other hand, since the rotation angle dependency of the transformation relation τ 12 from the second local coordinate system X 2 to the first local coordinate system X 1 is specified by the first sub-process, the object 3
From the values of the rotation angles θ and φ when shooting 0, the conversion relation τ
Twelve specific contents are specified. Therefore, the conversion relation τ
A conversion relationship τ 02 obtained by combining 12 and τ 01 can be obtained from Expression 4.

【0064】数4 τ02 = τ01・τ12 そして、この変換関係τ02を表現する情報を、被写体用
カメラ13で得た画像に付随させて記憶する。
Τ 02 = τ 01 · τ 12 The information expressing the conversion relationship τ 02 is stored in association with the image obtained by the subject camera 13.

【0065】またこの第2サブプロセスは、複数の方向
から被写体30を撮影するつど実行され、それによっ
て、3次元画像モデルを得るための一群の情報が得られ
ることになる。
The second sub-process is executed each time the subject 30 is photographed from a plurality of directions, whereby a group of information for obtaining a three-dimensional image model is obtained.

【0066】<撮影および校正プロセス>図10および
図11は、上記の原理にしたがった撮影および校正プロ
セスを示す図である。このうちステップS1からステッ
プS5までは、可動式カメラ11と被写体用カメラ13
とで立体チャート2を同時に撮影することによって、両
者の相対位置・姿勢を求める、上記第1サブプロセスに
対応する。また、ステップS6以後が、実際に被写体3
0の撮影を行う上記第2サブプロセスに対応する。
<Photographing and Calibration Process> FIGS. 10 and 11 show a photographing and calibration process according to the above principle. The movable camera 11 and the subject camera 13 are included in steps S1 to S5.
This corresponds to the above-described first sub-process in which the three-dimensional chart 2 is photographed at the same time to obtain the relative position and orientation of the two. Also, after step S6, the subject 3 is actually
This corresponds to the above-described second sub-process for performing shooting of 0.

【0067】(1) カメラ間の相対位置の決定(第1
サブプロセス):まず、可動式カメラ11と被写体用カ
メラ13とのそれぞれが、自身で保持している内部パラ
メータの情報を読み出し、それらに基づいて内部パラメ
ータの校正を行う(ステップS1)。このような内部パ
ラメータとしては、レンズシステムの焦点距離などがあ
る。たとえば、焦点距離が比較的短いことによって実質
的な結像倍率Mが小さい場合、立体チャート2の画像
は、その2次元受光素子上に比較的小さいサイズで結像
する。また、焦点距離が比較的長いことによって実質的
な結像倍率Mが大きい場合、立体チャート2の画像は、
その2次元受光素子上に比較的大きいサイズで結像す
る。このため、2次元受光素子上における画像のサイズ
を、実質的な結像倍率Mで除算することによって、焦点
距離に依存しない基準状態に換算される。このような処
理が内部パラメータによるカメラ校正であり、これは被
写体用カメラ13内で自動的に行うことができる。
(1) Determination of relative position between cameras (first
Sub-process): First, each of the movable camera 11 and the subject camera 13 reads information of internal parameters held by itself and calibrates the internal parameters based on the information (step S1). Such internal parameters include the focal length of the lens system. For example, when the substantial imaging magnification M is small due to the relatively short focal length, the image of the three-dimensional chart 2 is formed on the two-dimensional light receiving element with a relatively small size. When the substantial imaging magnification M is large due to the relatively long focal length, the image of the three-dimensional chart 2 is
An image is formed on the two-dimensional light receiving element in a relatively large size. Therefore, by dividing the size of the image on the two-dimensional light receiving element by the substantial imaging magnification M, the image is converted into a reference state independent of the focal length. Such processing is camera calibration based on internal parameters, which can be automatically performed in the subject camera 13.

【0068】このような内部パラメータによる校正が完
了した後、ユーザはカメラシステム10を手に持ち、被
写体用カメラ13を立体チャート2に向ける。次に、こ
の姿勢を保ちながら、立体チャート2が可動式カメラ1
3の画角に入るように、レンズユニット110の回転角
度を手動で指定する(ステップS2)。この動作の際に
は、可動式カメラ13の出力画像がディスプレイ163
にライブ表示されており、これによってユーザは、立体
チャート2が可動式カメラ13の画角に入ったかどうか
を視覚的に確認できる。
After the calibration based on the internal parameters is completed, the user holds the camera system 10 and turns the subject camera 13 at the three-dimensional chart 2. Next, while maintaining this posture, the three-dimensional chart 2 is moved by the movable camera 1.
The rotation angle of the lens unit 110 is manually designated so as to fall within the field angle of 3 (step S2). In this operation, the output image of the movable camera 13 is displayed on the display 163.
, The user can visually check whether the three-dimensional chart 2 has entered the angle of view of the movable camera 13.

【0069】立体チャート2が可動式カメラ11の画角
の中に入った後、ユーザが自動追尾ボタン117を押す
と、自動追尾プログラムが能動化される。姿勢制御部1
46から姿勢装置113に駆動出力が与えられて、マー
カ201を追尾しつつ、立体チャート2が常に画角の中
央にくるように、可動式カメラ11が自動制御されるよ
うになる。ここでユーザがシャッタボタン161を押す
と、可動式カメラ11において第1画像データD1が、
被写体用カメラ13において第2画像データD2が得ら
れる(ステップS3)。図12に可動式カメラ11と被
写体用カメラ13とで同時に得られた画像データの例を
示す。このうち、図12(a)が可動式カメラ11の撮
像画像例、図12(b)が被写体用カメラ13の撮像画
像例である。図12(a)、(b)のいずれにおいて
も、画像平面をxy直角座標系で定義された平面とし、
xy平面に垂直で、画像より手前に向かう方向をz軸と
している。なお、第i層という呼び方については、後述
する図18での定義に準じている。
When the user presses the automatic tracking button 117 after the three-dimensional chart 2 enters the angle of view of the movable camera 11, the automatic tracking program is activated. Attitude control unit 1
A drive output is provided from 46 to the attitude device 113, and the movable camera 11 is automatically controlled so that the three-dimensional chart 2 is always at the center of the angle of view while tracking the marker 201. Here, when the user presses the shutter button 161, the first image data D1 in the movable camera 11 becomes
The second image data D2 is obtained by the subject camera 13 (step S3). FIG. 12 shows an example of image data obtained simultaneously by the movable camera 11 and the subject camera 13. 12A shows an example of a captured image of the movable camera 11, and FIG. 12B shows an example of an image of the subject camera 13. 12A and 12B, the image plane is a plane defined by an xy rectangular coordinate system,
The direction perpendicular to the xy plane and toward the front of the image is the z-axis. The i-th layer is based on the definition in FIG. 18 described later.

【0070】そして、このステップS3では、たとえ
ば、図12(a)、(b)で共通の4つの格子点C1〜
C4の2次元座標値をそれぞれの画像平面上で特定し、
それらの2次元座標値を後述するアルゴリズムで処理す
ることによって、可動式カメラ11と被写体用カメラ1
3とのそれぞれの外部パラメータを算出する。
Then, in this step S3, for example, the four grid points C1 to C4 common in FIGS.
Specify the two-dimensional coordinate values of C4 on each image plane,
The movable camera 11 and the subject camera 1 are processed by processing the two-dimensional coordinate values using an algorithm described later.
3 and the respective external parameters are calculated.

【0071】撮影が完了すると、第1画像データD1お
よび姿勢装置113の回転角データDRが、通信によっ
て可動式カメラ11から被写体用カメラ13に送られ
る。被写体用カメラ13では、これらに基づいて、可動
式カメラ11の外部パラメータ、すなわち立体チャート
2に対する可動式カメラ11の相対位置と相対姿勢とが
計算される。また、第2画像データD2からは、被写体
用カメラ13の外部パラメータ、すなわち立体チャート
2に対する被写体用カメラ13の相対位置と相対姿勢と
が計算される(ステップS4)。なお、この計算に必要
な情報が得られない場合には、ステップS3に戻って立
体チャート2の撮影を繰り返す。
When the photographing is completed, the first image data D1 and the rotation angle data DR of the attitude device 113 are transmitted from the movable camera 11 to the subject camera 13 by communication. The subject camera 13 calculates the external parameters of the movable camera 11, that is, the relative position and the relative attitude of the movable camera 11 with respect to the three-dimensional chart 2 based on these. Further, from the second image data D2, the external parameters of the camera 13 for the subject, that is, the relative position and the relative attitude of the camera 13 for the subject with respect to the three-dimensional chart 2 are calculated (step S4). If the information necessary for this calculation cannot be obtained, the process returns to step S3, and the photographing of the three-dimensional chart 2 is repeated.

【0072】この外部パラメータの算出は、 1) カメラの内部パラメータ、および 2) 絶対座標系に固定された同一平面上にある4点以上
の点の3次元座標値、が既知であり、かつ、 3) これらの点に対応する撮影画像上の点の2次元座標
値が算出可能、という条件の下で行うことができる。こ
の算出に利用することができるアルゴリズムは、たとえ
ば下記の文献に開示されており、以下では「多点解析ア
ルゴリズム」と呼ぶことにする。
The calculation of the external parameters includes: 1) internal parameters of the camera; and 2) three-dimensional coordinate values of four or more points on the same plane fixed in the absolute coordinate system, and 3) It can be performed under the condition that two-dimensional coordinate values of points on the captured image corresponding to these points can be calculated. An algorithm that can be used for this calculation is disclosed in, for example, the following document, and is hereinafter referred to as a “multipoint analysis algorithm”.

【0073】・L.Quan, Z.Lan, "Linear N-Point Camer
a Pose Determination", IEEE Trans.PAMI 21(8) 199
9: ・高橋、石井、牧野、中静、”人工現実感インターフェ
ースのための単眼画像からのマーカの位置と姿勢の計
測"、電子情報論文誌AJ79 1996。
L. Quan, Z. Lan, "Linear N-Point Camer
a Pose Determination ", IEEE Trans.PAMI 21 (8) 199
9: ・ Takahashi, Ishii, Makino, Nakashizu, "Measurement of marker position and orientation from monocular image for virtual reality interface", Electronic Information Transactions AJ79 1996.

【0074】次に、ステップS4で得られたそれぞれの
カメラ11,13の外部パラメータと、可動式カメラ1
1の回転角データDRとから、可動式カメラ11と被写
体用カメラ13との相対位置・姿勢(以下これらを「カ
メラ間パラメータPMC」と呼ぶ)が求められる(ステ
ップS5)。
Next, the external parameters of the cameras 11 and 13 obtained in step S4 and the movable camera 1
The relative position and orientation of the movable camera 11 and the subject camera 13 (hereinafter, these are referred to as “inter-camera parameters PMC”) are obtained from the one rotation angle data DR (step S5).

【0075】ステップS5において用いられる座標変換
の様子を図13に示す。図13における各座標系などの
定義は以下の通りである。
FIG. 13 shows the state of the coordinate conversion used in step S5. The definition of each coordinate system in FIG. 13 is as follows.

【0076】X0 …立体チャート2に対して相対的に
固定された3次元直角座標系(絶対座標系); θ …可動式カメラ11の旋回角; φ …可動式カメラ11の俯仰角; X1(θ,φ) …可動式カメラ11からの観測空間に相当
する3次元直角座標系(第1ローカル座標系); X1h …角度θ,φの双方がゼロの場合の第1ローカル座
標系; X2 …被写体用カメラ13からの観測空間に相当する3
次元直角座標系(第2ローカル座標系)。
X 0 : three-dimensional rectangular coordinate system (absolute coordinate system) fixed relative to the three-dimensional chart 2; θ: turning angle of the movable camera 11; φ: elevation angle of the movable camera 11; X 1 (θ, φ): a three-dimensional rectangular coordinate system (first local coordinate system) corresponding to the observation space from the movable camera 11; X 1h : first local coordinate system when both angles θ, φ are zero X 2 … 3 corresponding to the observation space from the camera for subject 13
Dimensional rectangular coordinate system (second local coordinate system).

【0077】ステップS4によってそれぞれのカメラ1
1,13の外部パラメータが得られるため、絶対座標系
X0 における第1ローカル座標系X1(θ,φ)の位置および
姿勢が決定され、したがって第1ローカル座標系X1(θ,
φ)から絶対座標系X0 への座標変換が、回転行列RC1
および平行移動ベクトルTC1を用いて、
In step S4, each camera 1
Since 1,13 external parameters are obtained, the absolute coordinate system
The position and orientation of the first local coordinate system X 1 (θ, φ) in X 0 is determined, and thus the first local coordinate system X 1 (θ, φ,
φ) to the absolute coordinate system X 0 is the rotation matrix R C1 ,
And the translation vector T C1 ,

【0078】数5 X0 = RC1X1(θ、φ)+TC1 のように定まる。同様に、第2ローカル座標系X2から絶
対座標系X0 への座標変換が、回転行列RC2 、および平
行移動ベクトルTC2を用いて、
Equation 5 X 0 = R C1 X 1 (θ, φ) + T C1 Similarly, the second coordinate transformation from the local coordinate system X 2 to the absolute coordinate system X 0, using the rotation matrix R C2, and translation vector T C2,

【0079】数6 X0 = RC2X2+TC2 のように定まる。これら数5、数6がそれぞれ、既述し
た変換関係τ01、τ02に相当する。
Equation 6 X 0 = R C2 X 2 + T C2 Equations 5 and 6 correspond to the above-described conversion relationships τ 01 and τ 02 , respectively.

【0080】回転角θ,φがゼロでないことによる回転
変換は、可動式カメラ11の姿勢装置113が有する回
転機構の設計データから、回転行列RX(θ,φ)および平
行移動ベクトルTX(θ,φ)を用いて、
The rotation conversion based on the fact that the rotation angles θ and φ are not zero is based on the rotation matrix R X (θ, φ) and the translation vector T X (from the design data of the rotation mechanism of the attitude device 113 of the movable camera 11. θ, φ),

【0081】数7 X1 = RX(θ,φ)X1h+TX(θ,φ) の形式で得られる。第2ローカル座標系X2から、回転角
θ,φがともにゼロのときの第1ローカル座標系X1hへの
座標変換が、回転行列Rhおよび平行移動ベクトルThを用
いて、
Equation 7 X 1 = R X (θ, φ) X 1h + T X (θ, φ) A second local coordinate system X 2, the rotation angle theta, phi coordinate transformation to both the first local coordinate system X 1h when the zero, using a rotation matrix R h and translation vector T h,

【0082】数8 X1h= RhX2+Th と表されるとすると、数8が、変換関係τ12(0,0)に相
当する。また、数8を数7に代入すると、
[0082] When expressed as the number 8 X 1h = R h X 2 + T h, number 8 corresponds to the conversion relationship τ 12 (0,0). Substituting equation 8 into equation 7 gives

【0083】数9 X1 = Rm(θ,φ)X2+Tm(θ,φ) が得られる。ただし、Equation 9 X 1 = R m (θ, φ) X 2 + T m (θ, φ) is obtained. However,

【0084】数10 Rm(θ,φ) = RX(θ,φ)Rh Tm(θ,φ) = RX(θ,φ)Th +TX(θ,φ) である。数9および10が、変換関係τ12 に相当す
る。
[0084] the number 10 R m (θ, φ) = R X (θ, φ) R h T m (θ, φ) = R X (θ, φ) T h + T X (θ, φ). Equations 9 and 10 correspond to the conversion relationship τ 12 .

【0085】したがって、立体チャート2上を可動式カ
メラ11と被写体用カメラ13とで同時に撮影したそれ
ぞれの画像から、それぞれのカメラの外部パラメータを
求めれば、既述した変換関係τ12 に相当するものとし
ての数9、数10の変換式が特定される。これが図9の
相対位置データDPSである。また、角度θ、φの具体
的な値は角度センサ126p、126tによって角度デ
ータDRとして検出される。
Therefore, if the external parameters of the respective cameras are obtained from the respective images of the three-dimensional chart 2 taken simultaneously by the movable camera 11 and the subject camera 13, the conversion relation τ 12 described above is obtained. Equations 9 and 10 are specified. This is the relative position data DPS in FIG. The specific values of the angles θ and φ are detected as angle data DR by the angle sensors 126p and 126t.

【0086】(2) 被写体の撮影とカメラの校正(第
2サブプロセス):ステップS5が終了すると、被写体
30の撮影を行うため、カメラシステム10を適宜移動
させる。このとき、可動式カメラ11は、自動追尾によ
り常に立体チャート2を画角に捉えている(ステップS
6)。
(2) Subject Photographing and Camera Calibration (Second Sub-Process): When step S5 is completed, the camera system 10 is moved as appropriate to photograph the subject 30. At this time, the movable camera 11 always captures the three-dimensional chart 2 at an angle of view by automatic tracking (step S).
6).

【0087】被写体用カメラ13によって被写体30
が、可動式カメラ11によって立体チャート2がそれぞ
れ撮影可能な状態になったところで、被写体用カメラ1
3のシャッタボタン161を押下すると、それぞれのカ
メラで同時に撮影が行われる(ステップS7)。図14
に、これらのカメラ11,13で得られた画像例を示
す。図14(a)が可動式カメラ11の撮像で得られる
画像例であり、図14(b)が被写体用カメラ13の撮
像画像例である(楕円によって被写体30の画像を単純
化してある)。座標軸の取り方については図12と同様
である。図14(a)の状態では、立体チャート2から
可動式カメラ11までの距離や方向が図12(a)とは
異なっているため、可動式カメラ11は立体チャート2
のうち図12(a)とは異なる部分を撮影している。し
なしながら、可動式カメラ11がマーカ201を自動追
尾していることによって、マーカ201は常に可動式カ
メラ11の画角内の同一位置に写っている。
The subject 30 by the subject camera 13
When the three-dimensional chart 2 can be photographed by the movable camera 11, the subject camera 1
When the shutter button 161 of No. 3 is pressed down, the respective cameras shoot images simultaneously (step S7). FIG.
FIG. 1 shows examples of images obtained by these cameras 11 and 13. FIG. 14A shows an example of an image obtained by imaging with the movable camera 11, and FIG. 14B shows an example of an image captured by the subject camera 13 (an image of the subject 30 is simplified by an ellipse). The way of setting the coordinate axes is the same as in FIG. In the state of FIG. 14A, the distance and direction from the three-dimensional chart 2 to the movable camera 11 are different from those in FIG.
Of these, a part different from that of FIG. However, since the movable camera 11 automatically tracks the marker 201, the marker 201 is always shown at the same position within the angle of view of the movable camera 11.

【0088】このとき、可動式カメラ11で得られた画
像から、ステップS4と同様に、可動式カメラ11の絶
対座標系X0における位置および姿勢(外部パラメータP
M1)が求められる(ステップS8)。
[0088] In this case, from an image obtained by the movable camera 11, as in step S4, the position and posture (external parameters P in the absolute coordinate system X 0 of movable camera 11
M1) is obtained (step S8).

【0089】この可動式カメラ11の外部パラメータP
M1と、ステップS5で求めたカメラ間パラメータPM
C、およびステップS7における可動式カメラ11回転
角θ、φのそれぞれの値θ'、φ'から、被写体用カメラ
13の、立体チャート2に対する相対位置・姿勢(すな
わち被写体用カメラ13の外部パラメータPM2)が求
められる(ステップS9)。
The external parameter P of the movable camera 11
M1 and the inter-camera parameter PM obtained in step S5
C, and the relative position and orientation of the subject camera 13 with respect to the three-dimensional chart 2 (that is, the external parameter PM2 of the subject camera 13) from the respective values θ ′ and φ ′ of the rotation angles θ and φ of the movable camera 11 in step S7. ) Is obtained (step S9).

【0090】撮影後、被写体30の画像データD2とと
もに、撮影時の被写体用カメラ13の外部パラメータP
M2の値が、RAM151、あるいはメモリカード17
6に記録される(ステップS10)。
After the photographing, the external parameter P of the camera 13 for photographing at the time of photographing together with the image data D2 of the photographing object 30
The value of M2 is stored in the RAM 151 or the memory card 17
6 (step S10).

【0091】ステップS6からの撮影処理を、被写体3
0に対するカメラシステム10の方向を変化させつつ、
複数回繰り返す。そして、被写体30の3次元画像モデ
ルを構築するために必要な数の第2画像データD2、お
よびそれぞれについての外部パラメータPM2の値が得
られると、この第2サブプロセスは完了する。外部パラ
メータPM2は、図9の撮影データDMに相当する。
The photographing processing from step S6 is performed on the subject 3
While changing the direction of the camera system 10 with respect to
Repeat several times. Then, when the number of pieces of second image data D2 necessary for constructing the three-dimensional image model of the subject 30 and the value of the external parameter PM2 for each are obtained, the second sub-process is completed. The external parameter PM2 corresponds to the photographing data DM in FIG.

【0092】上記のステップS9において用いられる座
標変換の様子を、図15に示す。図15において、座標
系X0、X1(θ,φ)、X2などの記号の定義は、図13と共
通である。被写体撮影時の、可動式カメラ11のカメラ
回転角をθ’、φ’とする。
FIG. 15 shows the state of the coordinate conversion used in step S9. In FIG. 15, the definitions of symbols such as the coordinate systems X 0 , X 1 (θ, φ), and X 2 are common to FIG. The camera rotation angles of the movable camera 11 at the time of shooting an object are θ ′ and φ ′.

【0093】可動式カメラ11によって得られる立体チ
ャート2の画像を、多点解析アルゴリズムで解析するこ
とにより、絶対座標系X0における可動式カメラ11の位
置と姿勢(すなわち可動式カメラ11の外部パラメータ
PM1)が特定され、それによって可動式カメラ11の
第1ローカル座標系X1(θ’,φ’)との変換関係:
[0093] The image of the three-dimensional chart 2 obtained by the movable camera 11, by analyzing at multiple points analysis algorithms, the position and orientation of the movable camera 11 in the absolute coordinate system X 0 (i.e. external parameters of movable camera 11 PM1) is specified, and thereby the conversion relation with the first local coordinate system X 1 (θ ′, φ ′) of the movable camera 11:

【0094】数11 X0 = RCP1X1(θ',φ')+TCP1 が定まる。Equation 11 X 0 = R CP1 X 1 (θ ′, φ ′) + T CP1 is determined.

【0095】また、第1ローカル座標系X1(θ’,φ’)
と第2ローカル座標系X2との変換関係は、数9〜数10
によって、
The first local coordinate system X 1 (θ ′, φ ′)
When the conversion relationship between the second local coordinate system X 2, the number 9 Number 10
By

【0096】数12 X1(θ',φ') = Rm(θ',φ')X2+Tm(θ',φ') Rm(θ',φ') = RX(θ',φ')Rh Tm(θ',φ') = RX(θ',φ')Th +TX(θ',φ') で与えられる。Equation 12 X 1 (θ ′, φ ′) = R m (θ ′, φ ′) X 2 + T m (θ ′, φ ′) R m (θ ′, φ ′) = R X (θ ', φ') R h T m (θ ', φ') = R X (θ ', φ') T h + T X (θ ', φ').

【0097】よって、数11、数12より、第2ローカ
ル座標系X2で表現された位置および姿勢から、絶対座標
系X0での位置および姿勢に変換する変換関係が、
[0097] Therefore, Equation 11, from Equation 12, the position and orientation expressed by the second local coordinate system X 2, conversion relationship for converting the position and orientation of the absolute coordinate system X 0,

【0098】数13 X0 = RCP1 Rm(θ',φ')X2+RCP1Tm(θ',φ')+TCP1 のように得られる。Equation 13 X 0 = R CP1 R m (θ ′, φ ′) X 2 + R CP1 T m (θ ′, φ ′) + T CP1

【0099】数13に現れている諸量のうち、回転行列
RCP1および平行移動ベクトルTCP1は可動式カメラ11
についてのものであって、可動式カメラ11の外部パラ
メータPM1から決定される。また、回転行列Rm(θ',
φ')および平行移動ベクトルTm(θ',φ')は、あらか
じめ特定しておいた関数形Rm(θ,φ)、Tm(θ,φ)に、
角度センサ126p、126tによって検出された角度
値θ',φ'を代入して決定される。
Of the quantities appearing in Equation 13, the rotation matrix
R CP1 and translation vector T CP1 are the movable camera 11
And is determined from the external parameter PM1 of the movable camera 11. Also, the rotation matrix R m (θ ′,
φ ′) and the translation vector T m (θ ′, φ ′) are converted to the function forms R m (θ, φ) and T m (θ, φ) specified in advance.
It is determined by substituting the angle values θ ′ and φ ′ detected by the angle sensors 126p and 126t.

【0100】したがって、数13を、Therefore, Expression 13 is given by

【0101】数14 X0 = RCP2X2+TCP2 RCP2 = RCP1 Rm(θ',φ') TCP2 = RCP1Tm(θ',φ')+TCP1 の形に変形すると、回転行列RCP2および平行移動ベクト
ルTCP2は、被写体用カメラ13の外部パラメータPM2
を表現した内容となっている。それらは撮影データDM
(図9)として、第2画像データD2とともに保存さ
れ、第2画像データD2に基づいて3次元画像モデルを
構築する際に、複数の方向から得られた被写体30の画
像を組み合わせるために使用される。この3次元画像モ
デルの構築は、コンピュータ15で行ってもよく、他の
演算システムで行ってもよい。
Equation 14 X 0 = R CP2 X 2 + T CP2 R CP2 = R CP1 R m (θ ′, φ ′) T CP2 = R CP1 T m (θ ′, φ ′) + T CP1 Then, the rotation matrix R CP2 and the translation vector T CP2 are converted to the external parameters PM2 of the camera 13 for a subject.
It is the content which expressed. They are photography data DM
(FIG. 9) is stored together with the second image data D2, and is used to combine images of the subject 30 obtained from a plurality of directions when constructing a three-dimensional image model based on the second image data D2. You. The construction of the three-dimensional image model may be performed by the computer 15 or may be performed by another arithmetic system.

【0102】<複比のコーディングによるチャートの識
別>ここからは、立体チャート2の側面のコーディング
の方法について説明する。図3に示すように、立体チャ
ート本体203の表示部204は正多角錐であり、その
各側面T1〜Tnは同一の二等辺三角形状をしている。そ
の表面には、当該側面を構成する三角形の底面方向DR
1(図16参照)に平行な複数の直線L1と、立体チャ
ート2の頂点に相当する頂点x0を通る放射線状の複数の
直線L2とが描画されている。これらの直線の交差によ
って作られる台形形状の単位図形UP(以下これを「単
位台形」という)は、画像処理の際に直線の抽出が容易
になるよう、交互に異なる明度の色で塗り分けられて高
コントラストパターンとされている。典型的には第1の
組の単位台形UP1が黒であり、第2の組の単位台形U
P2が白である。
<Identification of Chart by Cross Ratio Coding> A method of coding the side surface of the three-dimensional chart 2 will be described below. As shown in FIG. 3, the display section 204 of the three-dimensional chart main body 203 is a regular polygonal pyramid, and each side surface T1 to Tn has the same isosceles triangle shape. The surface has a bottom surface direction DR of a triangle forming the side surface.
1 (see FIG. 16) and a plurality of radial straight lines L2 passing through a vertex x0 corresponding to a vertex of the three-dimensional chart 2 are drawn. A trapezoidal unit figure UP formed by the intersection of these straight lines (hereinafter referred to as a “unit trapezoid”) is alternately painted with different brightness colors so that straight lines can be easily extracted during image processing. High contrast pattern. Typically, the first set of unit trapezoids UP1 is black, and the second set of unit trapezoids U1 is black.
P2 is white.

【0103】そして、これらの単位台形UPのサイズ
が、複比によりコーディングされている。より具体的に
は、 1) これらの単位台形UPを成す直線群L1の相互間の
間隔と、 2) 直線群L1と直線群L2との交点(格子点)の底面
方向DR1における間隔と、 のそれぞれを、複比によりコーディングする。図17に
この複比の概念を示すが、複比は任意の視点を通した空
間射影によって変化しない値であり、3次元空間に存在
する直線上の4点P1〜P4から求められる複比DR:
The sizes of these unit trapezoids UP are coded by the cross ratio. More specifically, 1) the interval between the straight line groups L1 forming these unit trapezoids UP, and 2) the interval between the intersections (grid points) of the straight line groups L1 and L2 in the bottom direction DR1. Each is coded by cross ratio. FIG. 17 shows the concept of the cross ratio. The cross ratio is a value which does not change by spatial projection through an arbitrary viewpoint, and is a cross ratio DR obtained from four points P1 to P4 on a straight line existing in a three-dimensional space. :

【0104】数15 DR=Va/Vb Va=dis(P0P1)・dis(P2P3) Vb=dis(P0P2)・dis(P1P3) ただし、記号dis(P0P1)は点P0と点P1との距離を示
す:は、その直線を視点Oを通して任意の平面上に射影
したときに、それら4点P1〜P4に対応する4点P'1〜
P'4から求まる複比DR':
DR = Va / Vb Va = dis (P0P1) · dis (P2P3) Vb = dis (P0P2) · dis (P1P3) where the symbol dis (P0P1) indicates the distance between the point P0 and the point P1. : When the straight line is projected onto an arbitrary plane through the viewpoint O, the four points P′1 to P′1 to P4 corresponding to the four points P1 to P4
Compound ratio DR 'obtained from P'4:

【0105】数16 DR'=Va'/Vb' Va’=dis(P'0P'1)・dis(P'2P'3) Vb’=dis(P'0P'2)・dis(P'1P'3) と等しいことが知られている。Equation 16 DR ′ = Va ′ / Vb ′ Va ′ = dis (P′0P′1) · dis (P′2P′3) Vb ′ = dis (P′0P′2) · dis (P′1P It is known to be equal to '3).

【0106】この性質を利用すると、図3および図16
に示したような単位台形UPを成す直線群L1相互の間
隔を、各単位台形UPを形成する層ごとに複比でコーデ
ィングし、かつ底面方向DR1での格子点相互の間隔
を、各側面T1〜Tnごとに異なる複比でコーディングし
ておくと、立体チャート2を可動式カメラ11や被写体
用カメラ13で撮影した画像に含まれている各単位台形
UPが、立体チャート2の側面T1〜Tnのうちのどの側
面に存在する、どの単位台形であるかを、一意的に識別
できるようになる。以下にその一例を示す。
By utilizing this property, FIGS.
, The distance between the straight line groups L1 forming the unit trapezoid UP is coded as a cross ratio for each layer forming each unit trapezoid UP, and the distance between the lattice points in the bottom direction DR1 is calculated as the side surface T1. TTn, the unit trapezoids UP included in the image of the three-dimensional chart 2 captured by the movable camera 11 or the subject camera 13 are converted to the side surfaces T 1 to Tn of the three-dimensional chart 2. It is possible to uniquely identify which unit trapezoid exists on which side of which. An example is shown below.

【0107】図16では、底面に垂直な方向(頂点方向
DR2)に配列する直線L1の間隔が、複比によってコ
ーディングされた例を示している。複数の単位台形のう
ち、互いに連続する3つの単位台形の高さの複比が、3
つの単位台形の組ごとに異なるようにコーディングされ
ている。
FIG. 16 shows an example in which the interval between the straight lines L1 arranged in the direction perpendicular to the bottom surface (vertex direction DR2) is coded by the cross ratio. Among a plurality of unit trapezoids, the compound ratio of the height of three consecutive unit trapezoids is 3
It is coded differently for each set of unit trapezoids.

【0108】すなわち、立体チャート2の頂点x0を端点
として、底辺に平行な直線x1、x2…が定義されてお
り、「第i層」を、「直線xiと直線x(i+1)との間の領
域」として定義するとき、第i層〜第(i+3)層(i=1,
2,…)の、頂点方向DR2方向のそれぞれの位置の複比
DRiが、
That is, with the vertex x0 of the three-dimensional chart 2 as an end point, straight lines x1, x2... Parallel to the base are defined, and the "i-th layer" is defined as "a straight line xi and a straight line x (i + 1)". When it is defined as a "region between," the i-th layer to the (i + 3) -th layer (i = 1,
2,...) Of the respective positions in the vertex direction DR2,

【0109】数17 DRi=Vai/(Vbi・Vb(i+1)) Vai=dis(xix(i+1))・dis(x(i+2)x(i+3)) Vbi=dis(xix(i+1))+dis(x(i+1)x(i+2)) Vb(i+1)=dis(x(i+1)x(i+2))+dis(x(i+2)x(i+3)) ないしは、これを書き換えて、Equation 17 DRi = Vai / (Vbi · Vb (i + 1)) Vai = dis (xix (i + 1)) · dis (x (i + 2) x (i + 3)) Vbi = dis ( xix (i + 1)) + dis (x (i + 1) x (i + 2)) Vb (i + 1) = dis (x (i + 1) x (i + 2)) + dis (x (i + 2) x (i + 3)) or rewrite this,

【0110】数18 DRi=Vai/VBi Vai=dis(xix(i+1))・dis(x(i+2)x(i+3)) VBi=dis(xix(i+2))+dis(x(i+1)x(i+3)) と定義され、それぞれの複比DRiが図18に示すよう
な値とされている。それぞれの単位台形は、角錐体の底
面に近いほどサイズ(幅および高さ)が増大している。
Expression 18 DRi = Vai / VBi Vai = dis (xix (i + 1)) · dis (x (i + 2) x (i + 3)) VBi = dis (xix (i + 2)) + dis ( x (i + 1) x (i + 3)), and the respective cross ratios DRi are values as shown in FIG. The size (width and height) of each unit trapezoid increases as it approaches the bottom of the pyramid.

【0111】また、この実施形態では、頂点方向DR2
の直線x1、x2・・・の間隔の移動平均は、頂点からの
距離に略比例するように決められている。すなわち、図
18から各層の位置は、「17.000、22.500、31.000…」
であって、それらの差は 5.500(=22.500−17.000) 8.500(=31.000−22.500) … となっており、これら一連の差のうち連続した4つの移
動平均は図19のようになる。図19からわかるよう
に、各層の位置の差(層の厚さ)の移動平均は漸増して
いるが、「移動平均/(頂点からの層の)位置」すなわ
ち比例係数に相当する値の変動は、約20%以内であ
る。したがって、移動平均は、頂点からの距離にほぼ比
例している。
Also, in this embodiment, the vertex direction DR2
Are determined so as to be substantially proportional to the distance from the apex. That is, from FIG. 18, the position of each layer is “17.000, 22.500, 31.000.
The difference between them is 5.500 (= 22.500-17.000) 8.500 (= 31.000-22.500)..., And the moving average of four consecutive differences among these series of differences is as shown in FIG. As can be seen from FIG. 19, the moving average of the difference between the positions of the layers (layer thickness) is gradually increasing, but the “moving average / (position of the layer from the top)”, that is, the variation of the value corresponding to the proportionality coefficient Is within about 20%. Therefore, the moving average is almost proportional to the distance from the vertex.

【0112】一方、頂点を中心として放射状に伸びる直
線y1、y2…と、上記直線x1、x2…の交点の、底面方
向DR1についての間隔については、立体チャート2の
各側面T1〜Tnが相互に識別できるように決定してお
く。図20に、立体チャート2が六角錐である場合の例
を示す。図16および図20においてa、b、c、dは
底辺における直線y1、y2…間の間隔である。
On the other hand, the distance between the intersections of the straight lines y1, y2... Extending radially from the apex with the straight lines x1, x2. Determined so that it can be identified. FIG. 20 shows an example in which the three-dimensional chart 2 is a hexagonal pyramid. In FIGS. 16 and 20, a, b, c, and d are intervals between the straight lines y1, y2,.

【0113】この例では、In this example,

【0114】数19 DRα=(a・c)/{(a+b)・(b+c)} DRβ=(b・d)/{(b+c)・(c+d)} として定義される2種類の複比DRα、複比DRβのそ
れぞれが、 1) それぞれの側面Tj(j=1〜6)の中では、直線x
1、x2…のいずれにおいても、直線y1、y2…とのそれ
ぞれの交点の列について共通であり、かつ 2) 異なる側面の相互では互いに異なる、 ように、それらの値がコーディングされている。
Expression 19: DRα = (a · c) / {(a + b) · (b + c)} DRβ = (b · d) / {(b + c) · (c + d)} Each of the cross ratios DRβ: 1) Within each side Tj (j = 1-6), a straight line x
1, x2,..., And their values are coded such that they are common to the columns at their respective intersections with the straight lines y1, y2, and 2) are different from each other in different aspects.

【0115】<撮影箇所の同定>図21は、可動式カメ
ラ11や被写体用カメラ13による立体チャート2の撮
影において、立体チャート2のどの部分が撮影されてい
るのかを同定するプロセスを示すフローチャートであ
る。図22は、直線のグルーピングについての説明図で
ある。
<Identification of Photographing Location> FIG. 21 is a flowchart showing a process of identifying which part of the three-dimensional chart 2 is being photographed by the movable camera 11 and the subject camera 13 when photographing the three-dimensional chart 2. is there. FIG. 22 is an explanatory diagram of straight line grouping.

【0116】※直線のグルーピング:まず、撮像された
画像の濃淡のエッジを抽出する(ステップS91)。エ
ッジを抽出する方法は、Sobelオペレータなど様々な手
法が知られており、たとえば、長尾真著「画像認識論」
コロナ社,1983に開示されたアルゴリズムを使用する。
図22(a)の画像について、エッジを抽出した例が図
22(b)である。
* Line grouping: First, light and dark edges of a captured image are extracted (step S91). Various methods are known for extracting edges, such as the Sobel operator. For example, Makoto Nagao, "Image Recognition Theory"
The algorithm disclosed in Corona, 1983 is used.
FIG. 22B shows an example in which edges are extracted from the image shown in FIG.

【0117】次に、抽出されたエッジから直線を抽出す
る(ステップS92)。直線を抽出する方法は、HOUGH
変換が一般的な手法として知られており、たとえば上記
長尾真の文献に記載された方法を用いてエッジ画像から
複数の直線を抽出し、撮像上の2次元平面における直線
の式を決定できる。図22の(b)について、エッジを
抽出した例が図22(c)である。
Next, a straight line is extracted from the extracted edges (step S92). How to extract straight lines is HOUGH
Transformation is known as a general method. For example, a plurality of straight lines can be extracted from an edge image using a method described in the above-mentioned Makoto Nagao's document, and the equation of a straight line in a two-dimensional plane on imaging can be determined. FIG. 22C shows an example in which edges are extracted from FIG. 22B.

【0118】抽出された複数の直線は、直線の性質ごと
に以下のような複数のグループにグルーピングされる
(ステップS93)。
The plurality of extracted straight lines are grouped into a plurality of groups as follows according to the properties of the straight lines (step S93).

【0119】・平行な直線群(以下これをαiとする。i
は傾きが同じ直線群を表す); ・αiに属する各々の直線の端点を通る直線(これをβ
とする); ・αiに交差する直線群(以下これをγiとする。iは交
差する直線群αiのiと対応している)。
[0119]-parallel straight lines (Hereinafter, this product is the α i .i
Represents a straight line group having the same inclination); a straight line passing through the end point of each straight line belonging to α i (this is β
); A straight line group intersecting α i (hereinafter referred to as γ i , where i corresponds to i of the intersecting straight line group α i ).

【0120】図22(c)の例では、各直線が、傾きの
異なる2つの直線群α1、α2と、これらに対応する直線
群γ1およびγ2、さらに交差直線βにグルーピングされ
ることになる。
In the example of FIG. 22C, the straight lines are grouped into two straight line groups α 1 and α 2 having different inclinations, corresponding straight line groups γ 1 and γ 2 , and furthermore, an intersection straight line β. Will be.

【0121】さらに、交差直線βおよびγiは1点で交
わっていることから、この交点が立体チャート2のマー
カ201に相当する。これより、立体チャート2を成す
錐の辺に相当する直線が直線β、底面に平行な直線が直
線αi、錐の側面を通る直線が直線γiであると判断する
ことができる。これにより、画像上の単位台形のそれぞ
れに関連する交点の複比を算出する。
Further, since the intersection straight lines β and γ i intersect at one point, this intersection corresponds to the marker 201 of the three-dimensional chart 2. Thus, it can be determined that the straight line corresponding to the side of the cone forming the three-dimensional chart 2 is the straight line β, the straight line parallel to the bottom surface is the straight line α i , and the straight line passing through the side surface of the cone is the straight line γ i . Thereby, the cross ratio of the intersections associated with each of the unit trapezoids on the image is calculated.

【0122】※撮影箇所の同定:まず、撮影を行う前
に、立体チャート2の各側面T1〜Tnにおける直線群に
ついて、絶対座標系X0で表した交点(格子点)の座標
と、それらの交点の間隔から計算される複比のデータと
を、RAM151(図8)にあらかじめ記憶しておく。
そして、カメラ11または13によって立体チャート2
を撮影した際に、それによって得られた画像から、頂点
方向DR2に連続する3つの層、ないしは単位台形を特
定して、それらの高さから複比を算出する。
[0122] ※ Identification of photographing locations: First, before photographing, the straight lines in each side T1~Tn of 3D chart 2, intersections expressed in the absolute coordinate system X 0 of (grid point) coordinates and, their The data of the cross ratio calculated from the interval between the intersections is stored in the RAM 151 (FIG. 8) in advance.
Then, the three-dimensional chart 2 is output by the camera 11 or 13.
Is photographed, three layers or unit trapezoids that are continuous in the vertex direction DR2 are specified from the image obtained thereby, and the cross ratio is calculated from their height.

【0123】図23に、立体チャート2の同じ側面を、
異なる距離から撮影したときの画像例を示す。図23
(a)は遠距離から、図23(b)は近距離から撮影し
た例である。単位台形の頂点方向DR2の間隔は、頂点
からの距離に略比例している。
FIG. 23 shows the same side view of the three-dimensional chart 2.
5 shows examples of images taken at different distances. FIG.
FIG. 23A shows an example taken from a long distance, and FIG. 23B shows an example taken from a short distance. The interval in the vertex direction DR2 of the unit trapezoid is substantially proportional to the distance from the vertex.

【0124】直線の間隔についての複比を計算するに
は、同一直線上で連続する4点が観測できればよい。す
なわち、画角内にあり、かつ複比を精度よく計算するの
に十分な間隔で連続する4つの直線が、それらと交差す
る他の1直線との関係で観測できればよいことになる。
多数の直線が画像中に存在する場合は、たとえば次の直
線と所定の閾値間隔以上の間隔を持ち、かつ頂点(マー
カ201)の直上側において、頂点に最も近い位置で配
列している4直線を選択する。そしてその4本の直線
と、頂点方向DR2に沿って伸びる1つの直線との4交
点を抽出し、それらの間隔の複比を計算する。この抽出
において得られるデータのうち、可動式カメラ11の撮
影で得られるものが図9の第1抽出点データDP1であ
り、被写体用カメラ13の撮影で得られるものが第2抽
出点データDP2である。
In order to calculate the cross ratio for the interval between the straight lines, it is only necessary to observe four consecutive points on the same straight line. That is, it is only necessary that four straight lines that are within the angle of view and that are continuous at intervals sufficient to accurately calculate the cross ratio can be observed in relation to another straight line that intersects them.
When a large number of straight lines exist in the image, for example, four straight lines having an interval equal to or larger than a predetermined threshold interval with the next straight line and arranged at a position immediately above the vertex (marker 201) and closest to the vertex Select Then, four intersections between the four straight lines and one straight line extending along the vertex direction DR2 are extracted, and the cross ratio of the intervals is calculated. Among the data obtained in this extraction, the data obtained by shooting with the movable camera 11 is the first extraction point data DP1 in FIG. 9, and the data obtained by shooting with the camera 13 for the subject is the second extraction point data DP2. is there.

【0125】図23(a)では、それぞれが底面方向D
R1に伸び、かつ第7層から第9層のそれぞれの上下を
規定する4直線x7〜x10を、また、図23(b)では
第3層から第5層のそれぞれの上下を規定する4直線x
3〜x6を、この4直線として選択できる。このようにし
て4直線を選択することにより、いずれの画像において
も、十分に複比の算出が可能となる。複数の側面が撮影
されていれば、たとえば最も画像中心に近い側面を選択
する。
In FIG. 23 (a), each is in the bottom direction D
Four straight lines x7 to x10 extending to R1 and defining the top and bottom of each of the seventh to ninth layers, and in FIG. 23B, four straight lines defining the top and bottom of each of the third to fifth layers x
3 to x6 can be selected as these four straight lines. By selecting the four straight lines in this manner, it is possible to sufficiently calculate the cross ratio in any image. If a plurality of sides have been photographed, for example, the side closest to the center of the image is selected.

【0126】また、立体チャート2が角錐形状であるた
め、種々の方向から立体チャート2の撮影を行っても、
自動追尾によりマーカ201を検出していれば、少なく
とも1つの側面を十分に観測することが可能である。
Further, since the three-dimensional chart 2 has a pyramid shape, even if the three-dimensional chart 2 is photographed from various directions,
If the marker 201 is detected by automatic tracking, it is possible to sufficiently observe at least one side surface.

【0127】このようにして選択された4直線で挟まれ
るエリアに存在する、複数の単位台形のうちの1つを、
対象単位台形(対象単位図形)として選択する。対象単
位台形は、たとえば上記の4直線の中の中間側の2直線
で挟まれ、かつ画面の中央に最も近い単位台形を選択す
るというような選択規則によって選ぶことができる。図
23の例では、たとえば単位台形UPA、UPBを対象単
位台形として選択することができる。
One of a plurality of unit trapezoids existing in the area sandwiched by the four straight lines selected in this way is
Select as the target unit trapezoid (target unit figure). The target unit trapezoid can be selected, for example, by a selection rule such that the unit trapezoid sandwiched between the two straight lines on the middle side among the above four straight lines and closest to the center of the screen is selected. In the example of FIG. 23, for example, unit trapezoids UPA and UPB can be selected as target unit trapezoids.

【0128】そして、上記4直線につき、頂点方向DR
2について画像上の間隔から複比を対象複比として求
め、RAM151にあらかじめ記憶しておいた各側面の
直線間隔の複比の値(図18)を、対象複比と比較して
照合する。これにより、その4直線が、立体チャート2
の何層目から何層目を規定する4直線であり、かつ対象
単位台形が、立体チャート2のどの単位台形であるかを
特定することができる(ステップS94)。
Then, for each of the four straight lines, the vertex direction DR
A cross ratio is obtained as a target cross ratio from the intervals on the image for No. 2, and the cross ratio value (FIG. 18) of the linear interval of each side surface stored in the RAM 151 in advance is compared with the target cross ratio to be collated. Thereby, the four straight lines are converted into the three-dimensional chart 2
It is possible to specify which layer of the three-dimensional chart 2 is the four straight lines defining the layers from which layer and the target unit trapezoid (step S94).

【0129】ところで、角錐体の底面に近いほど、単位
台形の頂点方向のサイズを増大させていることによっ
て、以下のような利点がある。
By increasing the size of the unit trapezoid in the vertex direction closer to the bottom surface of the pyramid, there are the following advantages.

【0130】まず、比較的近い距離から立体チャート2
を撮影することによって、比較的少数の単位台形だけが
画像内に存在する場合(図23(b))には、マーカ2
01に近い単位台形が比較的大きく撮影される。
First, from a relatively short distance, the three-dimensional chart 2
When only a relatively small number of unit trapezoids are present in the image (FIG. 23B), the marker 2
A relatively large unit trapezoid close to 01 is photographed.

【0131】逆に、比較的遠い距離から立体チャート2
を撮影することによって、各単位台形の撮影サイズが比
較的小さくなる場合には、角錐の底面に近い、実サイズ
が大きな単位台形が画像内に存在するため(図23
(a))、それは画像上の観測サイズとしてあまり小さ
くならない。
Conversely, from a relatively long distance, the three-dimensional chart 2
When the photographing size of each unit trapezoid becomes relatively small by photographing, a unit trapezoid having a large actual size near the bottom surface of the pyramid exists in the image (FIG. 23).
(A)), it does not become much smaller as the observation size on the image.

【0132】したがって、近距離からの撮影の場合と、
遠距離からの撮影の場合との双方において、常に画像処
理における精度を確保するために十分なサイズを持つ単
位図形が画像に含まれていることになり、その結果、撮
影距離にあまり依存せずに演算精度を高くできる。これ
が、角錐体の底面に近いほど、単位台形の頂点方向のサ
イズを増大させていることの利点である。
Therefore, when photographing from a short distance,
In both the case of shooting from a long distance, the image always contains a unit figure having a size sufficient to ensure the accuracy in image processing, and as a result, it does not depend much on the shooting distance. The calculation accuracy can be increased. This is an advantage of increasing the size of the unit trapezoid in the vertex direction closer to the bottom surface of the pyramid.

【0133】対照単位台形が同定されたことによって、
立体チャート2に対するカメラの相対位置・姿勢、すな
わち絶対座標系X0における外部パラメータの算出が可能
となる(ステップS95)。以下にこれを説明する。
By identifying the control unit trapezoid,
The relative position and orientation of the camera relative to the three-dimensional chart 2, i.e. the calculation of the external parameters in the absolute coordinate system X 0 is enabled (step S95). This will be described below.

【0134】まず、RAM151には、図20に示す角
錐の側面T1〜Tnごとの距離a、b、c、dの複比と、
角錐の各側面T1〜Tnが絶対座標系X0のどの方向に向い
ているかの情報とが、互いに関連づけられ、テーブルと
してあらかじめ記憶されている。したがって、上記4直
線のうちの1つ(たとえば図23(a)の例では、対象
単位台形の辺のうち頂点に近い辺が属する直線x7)上
で底面方向DR1に連続する4交点の画像上の座標を特
定し、それらの間隔の複比を計算して上記テーブルと照
合することにより、対象単位台形が属する側面を、その
時点でカメラにほぼ正対している観測側面として同定す
る。そして観測側面が側面T1〜Tnのうちのいずれかで
あるかによって、立体チャート2に対するカメラの相対
姿勢を絶対座標系X0において知ることができる。
First, in the RAM 151, the compound ratio of the distances a, b, c, and d for each of the side surfaces T1 to Tn of the pyramid shown in FIG.
And of information each side T1~Tn of the pyramid is oriented in the direction of the absolute coordinate system X 0 throat, associated with one another, it is previously stored as a table. Therefore, on one of the four straight lines (for example, in the example of FIG. 23A, a straight line x7 to which a side near the vertex among the sides of the target unit trapezoid belongs), an image of four intersections continuous in the bottom direction DR1 is displayed. Are identified, the cross ratio of those intervals is calculated, and the calculated ratio is compared with the above table to identify the side to which the target unit trapezoid belongs as the observation side almost directly facing the camera at that time. And depending on whether the observation side is one of sides Tl to Tn, the relative orientation of the camera relative to the three-dimensional chart 2 can be known in the absolute coordinate system X 0.

【0135】立体チャート2に対するカメラの相対姿勢
をさらに詳細に知るには、たとえば対象単位台形の4頂
点の座標値から、その対象単位図形の外周を規定する4
辺の長さの比を求める。この比は、絶対座標系における
対象単位台形の法線方向からカメラの撮像軸線がどれだ
け傾いているかによって変化する。したがって、この比
から当該側面の法線方向からのカメラの撮像軸線の方向
を特定できる。
In order to know the relative attitude of the camera with respect to the three-dimensional chart 2 in more detail, for example, the coordinate value of the four vertices of the target unit trapezoid is used to define the outer periphery of the target unit figure.
Find the ratio of the lengths of the sides. This ratio changes depending on how much the imaging axis of the camera is tilted from the normal direction of the target unit trapezoid in the absolute coordinate system. Therefore, the direction of the imaging axis of the camera from the normal direction of the side surface can be specified from this ratio.

【0136】対象単位台形が特定され、立体チャート2
に対するカメラの相対姿勢が求められると、あらかじめ
RAM151に記憶させておいた各単位台形の実サイズ
情報のうち、その対象単位台形に対応する単位台形の実
サイズ情報を読み出す。そしてその対象単位台形につい
て、画像上のサイズとその実サイズとの比率rを求め
る。比率rは、立体チャート2とカメラとの距離L、お
よび立体チャート2に対するカメラの相対姿勢の関数で
あるが、相対姿勢は上記のように求められることから、
距離Lは結局、比率rの関数f(r)として表現できる
ことになる。よって、この関数f(r)に相当する演算
式または数値テーブルを記憶しておくことにより、比率
rから距離Lが計算できる。距離Lと、立体チャート2
に対するカメラの相対姿勢とから、立体チャート2に対
するカメラの相対位置が求められる。
The target unit trapezoid is specified, and the three-dimensional chart 2
When the relative posture of the camera with respect to is obtained, the actual size information of the unit trapezoid corresponding to the target unit trapezoid is read out of the actual size information of each unit trapezoid stored in the RAM 151 in advance. Then, for the target unit trapezoid, the ratio r between the size on the image and its actual size is determined. The ratio r is a function of the distance L between the three-dimensional chart 2 and the camera and the relative attitude of the camera with respect to the three-dimensional chart 2, but since the relative attitude is obtained as described above,
Eventually, the distance L can be expressed as a function f (r) of the ratio r. Therefore, the distance L can be calculated from the ratio r by storing an arithmetic expression or a numerical value table corresponding to the function f (r). Distance L and 3D chart 2
The relative position of the camera with respect to the three-dimensional chart 2 is obtained from the relative posture of the camera with respect to.

【0137】以上のように、本実施形態に係る立体チャ
ート2を撮影することによって、カメラの位置および姿
勢の校正のための校正パラメータのうち、外部パラメー
タを正確に取得することができる。
As described above, by photographing the three-dimensional chart 2 according to the present embodiment, it is possible to accurately obtain the external parameters among the calibration parameters for calibrating the position and orientation of the camera.

【0138】<変形例> ◎1つの対象単位図形だけでなく、複数の対象単位図形
を選択してそれぞれにつき外部パラメータを計算し、得
られた複数の外部パラメータを平均化すれば外部パラメ
ータの計算精度がさらに向上する。
<Modifications> ◎ Calculation of external parameters by selecting not only one target unit graphic but also a plurality of target unit graphics, calculating external parameters for each of them, and averaging the obtained external parameters. The accuracy is further improved.

【0139】◎上記の実施形態では、被写体用カメラ1
3においてカメラの外部パラメータの計算を行ってお
り、被写体用カメラ13が校正用情報処理装置として機
能する。その代わりに、コンピュータ15(図2)が双
方のカメラ11,13と通信し、このコンピュータ15
によって、各々のカメラ11,13の同期制御や、画像
データの演算処理、およびデータの保存を行うことがで
きる。この場合にはコンピュータ15がカメラの校正用
情報処理装置として機能する。
In the above embodiment, the camera for subject 1
In step 3, the external parameters of the camera are calculated, and the subject camera 13 functions as a calibration information processing device. Instead, a computer 15 (FIG. 2) communicates with both cameras 11, 13 and this computer 15
Accordingly, it is possible to control the synchronization of the cameras 11 and 13, perform arithmetic processing on image data, and save data. In this case, the computer 15 functions as a camera information processing device.

【0140】◎可動式カメラ11において画像データの
演算処理を行って外部パラメータを算出し、コンピュー
タ15または被写体用カメラ13と通信する構成をとっ
てもよい。これらの装置間の情報伝達を、通信ケーブル
を介して行ってもよい。
A configuration may be adopted in which the movable camera 11 performs arithmetic processing of image data to calculate external parameters, and communicates with the computer 15 or the subject camera 13. Information transmission between these devices may be performed via a communication cable.

【0141】◎上記実施形態では、可動式カメラ11の
外部パラメータの算出は、被写体用カメラ13が撮影を
行った際にのみ実行されているが、可動式カメラ11が
リアルタイムに捉えている立体チャート2の画像から、
立体チャート2のどこを捉えているのかを逐次求めて、
外部パラメータをリアルタイムで算出してもよい。この
場合、画像上における立体チャート2の頂点の位置を、
リアルタイムで把握することからマーカ201を省略で
きる。
In the above embodiment, the calculation of the external parameters of the movable camera 11 is performed only when the subject camera 13 performs shooting, but the three-dimensional chart captured by the movable camera 11 in real time is used. From the two images,
By sequentially finding out what part of the three-dimensional chart 2 is being captured,
The external parameters may be calculated in real time. In this case, the position of the vertex of the three-dimensional chart 2 on the image is
The marker 201 can be omitted because it is grasped in real time.

【0142】◎また、上記の実施形態において、画像か
ら抽出された直線をグルーピングした後に直線の交点、
すなわち単位台形の格子点座標を求めているが、コーナ
ー抽出オペレータにおいて格子点の座標を抽出した後、
格子点を通る直線を決定してもよい。あるいは、立体チ
ャート2上の直線をどのように射影すれば、得られたエ
ッジ画像と合致するかを、繰り返し演算処理を行うこと
で求め、それによって外部パラメータを算出してもよ
い。
Also, in the above embodiment, after the straight lines extracted from the image are grouped, the intersection of the straight lines,
That is, the lattice point coordinates of the unit trapezoid are obtained, but after extracting the coordinates of the lattice points by the corner extraction operator,
A straight line passing through the grid points may be determined. Alternatively, how to project a straight line on the three-dimensional chart 2 to match with the obtained edge image may be obtained by repeatedly performing an arithmetic operation process, thereby calculating an external parameter.

【0143】◎上記の実施形態において4直線の抽出を
行うに際しては、立体チャート2の頂点は、必ずしも必
須ではない。そこで、立体チャート2として、角錐体の
うち頂点を含む部分を底面に平行な平面で切り落として
できる立体、たとえば図24(a)のような角錐台形状
の立体を用いることができる。
In extracting the four straight lines in the above embodiment, the vertices of the three-dimensional chart 2 are not always essential. Therefore, as the three-dimensional chart 2, a three-dimensional body in which a portion including a vertex of the pyramid can be cut off by a plane parallel to the bottom surface, for example, a truncated pyramid-shaped solid as shown in FIG.

【0144】◎隣接する単位台形は、互いに異なる色相
で塗り分けられていてもよい。
The adjacent unit trapezoids may be painted in different hues.

【0145】◎可動式カメラ11と被写体カメラ13と
は、連結機構を介して間接的に連結してもよい。
The movable camera 11 and the subject camera 13 may be indirectly connected via a connecting mechanism.

【0146】◎立体チャート2は、床上に配置すること
もできる。このときには角錐体の底面を下に向けること
が好ましい。
The three-dimensional chart 2 can be placed on the floor. In this case, it is preferable that the bottom surface of the pyramid face downward.

【0147】◎立体チャート2は、正多角錐ではない多
角錐(非等多角錐)でもよい。もっとも、正多角錐を使
用することにより、周囲の各方向からの単位図形の観測
精度が同程度となるという利点がある。
The three-dimensional chart 2 may be a polygonal pyramid (unequal polygonal pyramid) other than a regular polygonal pyramid. However, the use of the regular polygonal pyramid has an advantage that the observation accuracy of the unit figure from each surrounding direction is substantially the same.

【0148】◎図24(b)のように、立体チャート2
として円錐を用いることもできる。この場合にはチャー
トは単一の側面としての曲面上に描かれるため、単位台
形の識別に際して曲線間の間隔の複比を求めるように構
成する。また、円錐の場合には側面は1つであるため、
側面相互の区別は不要であり、側面に沿って一周する範
囲の各単位台形の辺の複比をすべて異なるように構成す
る。円錐の場合にはその周囲のすべての方向につき同精
度で単位図形の観測が可能である。
立体 As shown in FIG. 24B, the three-dimensional chart 2
May be used as a cone. In this case, since the chart is drawn on a curved surface as a single side surface, the cross ratio of the interval between the curves is determined when the unit trapezoid is identified. In the case of a cone, there is only one side,
It is not necessary to distinguish the side surfaces from each other, and the cross ratios of the sides of each unit trapezoid in a range making a circuit along the side surface are all different. In the case of a cone, a unit figure can be observed with the same accuracy in all directions around the cone.

【0149】◎可動式カメラ11の手動による操作を、
被写体用カメラ13の操作キーにより行える装置構成で
あってもよい。
The manual operation of the movable camera 11
An apparatus configuration that can be performed by operation keys of the subject camera 13 may be used.

【0150】◎マーカ201に発光性を持たせず、蛍光
塗料を塗布したものなどであってもよく、単なる頂点で
あっても追尾(トラッキング)に使用することができ
る。
The marker 201 may be a material which does not have a light emitting property and is coated with a fluorescent paint, or the like, and even a simple vertex can be used for tracking.

【0151】[0151]

【発明の効果】以上、説明したように、請求項1ないし
請求項8の発明によれば、単位図形が各方向に存在して
おり、立体チャートをどの方向から観測しても少なくと
も1つの単位図形がその正面に近い方向から観測できる
とともに、コーディングによって、その単位図形が錐体
のどの側面のどの位置に形成された単位図形であるかを
識別できるようになっているため、カメラの校正パラメ
ータ測定において広い可動範囲を確保しつつ高い測定精
度が得られる。
As described above, according to the first to eighth aspects of the present invention, the unit graphic exists in each direction, and at least one unit is obtained even when the three-dimensional chart is observed from any direction. The camera calibration parameters can be observed from a direction close to the front of the camera, and the coding can identify the unit figure formed on which side of the cone and on which position. High measurement accuracy can be obtained while securing a wide movable range in measurement.

【0152】特に、請求項2の発明では、錐体の底面に
近いほどサイズが増大しているため、頂点側を中心とし
てチャートの画像を撮影することにより、立体チャート
とカメラとの距離にかかわらず、画像中の単位図形のサ
イズを比較的大きくできる。
In particular, according to the second aspect of the present invention, since the size increases as the position becomes closer to the bottom surface of the cone, the image of the chart is photographed with the vertex side as the center, regardless of the distance between the three-dimensional chart and the camera. Instead, the size of the unit graphic in the image can be made relatively large.

【0153】特に、請求項3の発明では、各錐を使用し
ていることにより、各側面が平面となり、その画像処理
が容易である。
In particular, according to the third aspect of the present invention, since each cone is used, each side surface becomes a flat surface, and image processing thereof is easy.

【0154】特に、請求項4の発明では、台形の高さの
複比によってコーディングされているため、比較的簡単
なアルゴリズムで単位図形を同定できる。
In particular, according to the fourth aspect of the present invention, since the coding is performed by the cross ratio of the height of the trapezoid, the unit figure can be identified by a relatively simple algorithm.

【0155】特に、請求項5の発明では、角錐の頂点に
マーカが設けられているためにその追尾が容易かつ正確
である。
In particular, according to the fifth aspect of the present invention, since the marker is provided at the vertex of the pyramid, the tracking is easy and accurate.

【0156】特に、請求項6の発明では、マーカが発光
体を含むため、その追尾が特に容易かつ正確である。
In particular, according to the invention of claim 6, since the marker includes the luminous body, tracking thereof is particularly easy and accurate.

【0157】特に、請求項8の発明では、隣接する単位
図形には、互いに異なる明度または色相の色が付されて
いるため、その画像認識が容易である。
In particular, in the invention according to the eighth aspect, since the adjacent unit figures have different brightness or hue colors, the image recognition is easy.

【0158】請求項9の発明によれば、側面が1つの錐
体につき単位図形が各方向に存在しており、立体チャー
トをどの方向から観測しても少なくとも1つの単位図形
がその正面に近い方向から観測できるとともに、コーデ
ィングによって、その単位図形が錐体のどの位置に形成
された単位図形であるかを識別できるようになっている
ため、カメラの校正パラメータ測定において広い可動範
囲を確保しつつ高い測定精度が得られる。
According to the ninth aspect of the present invention, the unit figure is present in each direction with respect to one side of the cone, and at least one unit figure is close to the front of the three-dimensional chart from any direction. In addition to being observable from the direction, the coding enables the unit figure to be identified in which part of the cone the unit figure is formed. High measurement accuracy can be obtained.

【0159】また、請求項10ないし請求項12の発明
によれば、請求項1ないし請求項8の立体チャートを利
用して、広い可動範囲を確保しつつ高い測定精度でカメ
ラの校正パラメータを測定可能である。
According to the tenth to twelfth aspects of the present invention, the calibration parameters of the camera can be measured with high measurement accuracy while securing a wide movable range by using the three-dimensional charts of the first to eighth aspects. It is possible.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本実施形態に係る校正用チャートを用いた撮像
演算システムの構成例を示す図である。
FIG. 1 is a diagram illustrating a configuration example of an imaging operation system using a calibration chart according to an embodiment.

【図2】図1の撮像演算システムのブロック図である。FIG. 2 is a block diagram of the imaging operation system of FIG. 1;

【図3】本実施形態に係る校正用立体チャートの側面の
例を示す図である。
FIG. 3 is a diagram illustrating an example of a side surface of the calibration three-dimensional chart according to the embodiment;

【図4】チャート撮影用可動式カメラの正面図である。FIG. 4 is a front view of a movable camera for photographing a chart.

【図5】チャート撮影用可動式カメラのブロック図であ
る。
FIG. 5 is a block diagram of a movable camera for photographing a chart.

【図6】チャート撮影用可動式カメラの情報処理機能の
要部を示す図である。
FIG. 6 is a diagram showing a main part of an information processing function of the movable camera for photographing a chart.

【図7】チャート撮影用可動式カメラのデータの流れを
示す図である。
FIG. 7 is a diagram showing a data flow of a movable camera for photographing a chart.

【図8】被写体撮影用デジタルカメラの情報処理機能の
要部を示す図である。
FIG. 8 is a diagram illustrating a main part of an information processing function of the digital camera for photographing a subject.

【図9】チャート撮影用可動式カメラのデータの流れを
示す図である。
FIG. 9 is a diagram showing a data flow of a movable camera for photographing a chart.

【図10】本実施形態に係るカメラ校正用チャートを用
いた撮影および校正の手順のうち、第1サブプロセスに
相当する手順を示す図である。
FIG. 10 is a diagram showing a procedure corresponding to a first sub-process among procedures of photographing and calibration using the camera calibration chart according to the present embodiment.

【図11】本実施形態に係るカメラ校正用チャートを用
いた撮影および校正の手順のうち、第2サブプロセスに
相当する手順を示す図である。
FIG. 11 is a diagram showing a procedure corresponding to a second sub-process among the procedures of photographing and calibration using the camera calibration chart according to the present embodiment.

【図12】チャート撮影用可動式カメラと被写体撮影デ
ジタル用カメラが、同時に本発明に係るカメラ校正用チ
ャートを撮影したときの、各々の撮像例を示す図であ
る。
FIG. 12 is a diagram illustrating an example of imaging when a movable camera for photographing a chart and a digital camera for photographing a subject simultaneously photograph a camera calibration chart according to the present invention.

【図13】チャート撮影用可動式カメラに対する、被写
体撮影用デジタルカメラの相対位置・姿勢を算出する際
に用いる、座標変換の様子を示す図である。
FIG. 13 is a diagram illustrating a state of coordinate conversion used when calculating a relative position and orientation of a digital camera for photographing a subject with respect to a movable camera for photographing a chart.

【図14】被写体撮影用デジタルカメラが被写体を撮影
するときの、チャート撮影用可動式カメラと被写体撮影
用デジタルカメラの撮像例を示す図である。
FIG. 14 is a diagram showing an example of imaging by a movable camera for chart imaging and a digital camera for object photography when the object photographing digital camera photographs an object.

【図15】チャート撮影用可動式カメラに対する、被写
体撮影用デジタルカメラの相対位置・姿勢を算出する際
に用いる、座標変換の様子を示す図である。
FIG. 15 is a diagram illustrating a state of coordinate conversion used for calculating a relative position and orientation of a subject photographing digital camera with respect to a chart photographing movable camera.

【図16】本実施形態に係る立体チャートの側面におい
て、単位台形のサイズが、複比によってコーディングさ
れた例を示す図である。
FIG. 16 is a diagram illustrating an example in which the size of a unit trapezoid is coded by a cross ratio on the side surface of the three-dimensional chart according to the embodiment.

【図17】複比が射影により変化しないことを説明する
図である。
FIG. 17 is a diagram illustrating that the cross ratio does not change due to projection.

【図18】コーディングに用いられる複比の例を示す図
である。
FIG. 18 is a diagram illustrating an example of a cross ratio used for coding.

【図19】図18から得られる直線の間隔の移動平均
が、頂点からの距離にほぼ比例していることを示す図で
ある。
FIG. 19 is a diagram showing that the moving average of the interval between straight lines obtained from FIG. 18 is almost proportional to the distance from the vertex.

【図20】本実施形態に係る立体チャートを六角錐とし
た場合に、各面に用いられるコーディングの例を示す図
である。
FIG. 20 is a diagram illustrating an example of coding used for each surface when the three-dimensional chart according to the present embodiment is a hexagonal pyramid.

【図21】本実施形態に係る立体チャートを撮影した画
像から、立体チャート上の撮影箇所を同定する手順を示
す図である。
FIG. 21 is a diagram showing a procedure for identifying a photographing location on a three-dimensional chart from an image photographed of the three-dimensional chart according to the present embodiment.

【図22】本実施形態に係る立体チャートの撮像におけ
る、直線の抽出の例を示す図である。
FIG. 22 is a diagram illustrating an example of extraction of a straight line in imaging of a three-dimensional chart according to the present embodiment.

【図23】本実施形態に係る立体チャートの同じ側面
を、異なる距離から撮影したときの撮像の例を示す図で
ある。
FIG. 23 is a diagram illustrating an example of imaging when the same side surface of the three-dimensional chart according to the present embodiment is imaged from different distances.

【図24】本実施形態の変形例である立体チャートの例
を示す図である。
FIG. 24 is a diagram showing an example of a three-dimensional chart which is a modification of the present embodiment.

【符号の説明】[Explanation of symbols]

1 撮像演算システム 2 校正用立体チャート 11 可動式カメラ 13 被写体用カメラ 30 被写体 201 マーカ UP 単位台形(単位図形) DESCRIPTION OF SYMBOLS 1 Imaging calculation system 2 3D chart for calibration 11 Movable camera 13 Camera for subject 30 Subject 201 Marker UP Unit trapezoid (unit figure)

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 5/232 H04N 5/232 Z 13/02 13/02 // G01B 11/00 G01B 11/00 H 11/26 11/26 H (72)発明者 藤原 浩次 大阪府大阪市中央区安土町二丁目3番13号 大阪国際ビル ミノルタ株式会社内 Fターム(参考) 2F065 AA04 AA31 FF05 MM25 2H054 AA01 2H059 AA04 AA21 5C022 AB62 AC26 AC69 5C061 AA20 AB03 AB08 BB11 CC01──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) H04N 5/232 H04N 5/232 Z 13/02 13/02 // G01B 11/00 G01B 11/00 H11 / 26 11/26 H (72) Inventor Koji Fujiwara F-term (reference) 2F065 AA04 AA31 FF05 MM25 2H054 AA01 2H059 AA04 AA21 5C022 2-13-13 Azuchicho, Chuo-ku, Osaka-shi, Osaka AB62 AC26 AC69 5C061 AA20 AB03 AB08 BB11 CC01

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 底面と複数の側面とを有する錐体と、 前記複数の側面のそれぞれに表示された複数のチャート
と、を備え、 前記複数のチャートのそれぞれは、それぞれが既知のサ
イズを有する複数の単位図形の集合を含み、 前記複数の単位図形のそれぞれの幾何学的形状は、前記
集合内部と前記複数のチャート間との双方につき、各単
位図形と観測位置との相対的位置および相対的姿勢にか
かわらず、前記観測位置からの観測によって相互に識別
可能にコーディングされていることを特徴とするカメラ
校正用立体チャート。
1. A conical body having a bottom surface and a plurality of side surfaces; and a plurality of charts displayed on each of the plurality of side surfaces, wherein each of the plurality of charts has a known size. Including a set of a plurality of unit figures, the geometric shape of each of the plurality of unit figures is a relative position and a relative position between each unit figure and an observation position, both inside the set and between the plurality of charts. What is claimed is: 1. A three-dimensional chart for camera calibration, which is coded so as to be mutually identifiable by observation from the observation position irrespective of a target posture.
【請求項2】 請求項1のカメラ校正用立体チャートに
おいて、 前記複数の単位図形は、前記錐体の底面に近いほどサイ
ズが増大していることを特徴とするカメラ校正用立体チ
ャート。
2. The three-dimensional chart for camera calibration according to claim 1, wherein the plurality of unit figures increase in size closer to the bottom surface of the cone.
【請求項3】 請求項2のカメラ校正用立体チャートに
おいて、 前記錐体が角錐であり、 前記複数のチャートは、各チャートと観測位置との相対
的位置および相対的姿勢にかかわらず、前記観測位置か
らの観測によって相互に識別可能にコーディングされて
いることを特徴とするカメラ校正用立体チャート。
3. The three-dimensional chart for camera calibration according to claim 2, wherein the pyramid is a pyramid, and the plurality of charts include the plurality of charts irrespective of a relative position and a relative posture between each chart and an observation position. A three-dimensional chart for camera calibration, which is coded so as to be mutually identifiable by observation from a position.
【請求項4】 請求項3のカメラ校正用立体チャートに
おいて、 前記複数の単位図形は、前記錐体の底面に平行な複数の
第1の直線と、前記錐体の頂点に相当する位置から放射
状に伸びた複数の第2の直線との交差によって形成され
た複数の台形であり、 前記複数の台形のサイズの複比がコーディングされてい
ることを特徴とするカメラ校正用立体チャート。
4. The three-dimensional chart for camera calibration according to claim 3, wherein the plurality of unit figures are radially arranged from a plurality of first straight lines parallel to a bottom surface of the cone and a position corresponding to a vertex of the cone. A plurality of trapezoids formed by intersecting with a plurality of second straight lines extending to a plurality of trapezoids, and a cross ratio of the sizes of the plurality of trapezoids is coded.
【請求項5】 請求項4のカメラ校正用立体チャートに
おいて、 前記角錐の頂点にマーカが設けられていることを特徴と
するカメラ校正用立体チャート。
5. The three-dimensional chart for camera calibration according to claim 4, wherein a marker is provided at a vertex of the pyramid.
【請求項6】 請求項5のカメラ校正用立体チャートに
おいて、 前記マーカが発光体を含むことを特徴とするカメラ校正
用立体チャート。
6. The three-dimensional chart for camera calibration according to claim 5, wherein the marker includes a light emitter.
【請求項7】 請求項3のカメラ校正用立体チャートに
おいて、 前記錐体が角錐台であることを特徴とするカメラ校正用
立体チャート。
7. The three-dimensional chart for camera calibration according to claim 3, wherein the pyramid is a truncated pyramid.
【請求項8】 請求項1ないし請求項7のいずれかに記
載のカメラ校正用立体チャートにおいて、 前記複数の単位図形のうち互いに隣接する単位図形に
は、互いに異なる明度または色相の色が付されているこ
とを特徴とするカメラ校正用立体チャート。
8. The camera calibration three-dimensional chart according to claim 1, wherein mutually adjacent unit figures of the plurality of unit figures have different brightness or hue colors. A three-dimensional chart for camera calibration.
【請求項9】 底面と側面とを有する錐体と、 前記側面の1周分にわたって表示されたチャートと、を
備え、 前記チャートは、それぞれが既知のサイズを有する複数
の単位図形の集合を含み、 前記複数の単位図形のそれぞれの幾何学的形状は、前記
集合内部につき、各単位図形と観測位置との相対的位置
および相対的姿勢にかかわらず、前記観測位置からの観
測によって相互に識別可能にコーディングされているこ
とを特徴とするカメラ校正用立体チャート。
9. A pyramid having a bottom surface and a side surface, and a chart displayed over one side of the side surface, wherein the chart includes a set of a plurality of unit figures each having a known size. The respective geometric shapes of the plurality of unit figures can be distinguished from each other by observation from the observation position, regardless of the relative position and relative attitude between each unit figure and the observation position inside the set. 3D chart for camera calibration characterized in that it is coded.
【請求項10】 カメラの校正用パラメータを取得する
方法であって、 請求項1ないし請求項8のいずれかのカメラ校正用立体
チャートを、被写体を収容すべき空間内に配置する工程
と、 前記カメラ校正用立体チャートの前記複数のチャートの
うち少なくとも1つのチャートを、前記カメラに付随し
た観測位置から観測する工程と、 観測されたチャートに含まれる少なくとも1つの単位図
形を対象単位図形として抽出し、前記対象単位図形を、
前記複数のチャートおよび前記複数の単位図形の中で同
定する工程と、 同定された前記対象単位図形についてあらかじめ特定さ
れている実サイズと、前記観測位置から見た前記対象単
位図形の観測サイズとの関係から、前記観測位置と前記
カメラ校正用立体チャートとの相対的位置および相対姿
勢に依存する前記カメラの校正用パラメータを特定する
工程と、を備えることを特徴とするカメラの校正用パラ
メータの取得方法。
10. A method of acquiring a calibration parameter of a camera, comprising: arranging the three-dimensional chart for camera calibration according to claim 1 in a space in which a subject is to be accommodated; Observing at least one of the plurality of charts of the camera calibration three-dimensional chart from an observation position attached to the camera; and extracting at least one unit figure included in the observed chart as a target unit figure. , The target unit figure is
A step of identifying among the plurality of charts and the plurality of unit figures, an actual size previously specified for the identified target unit figure, and an observation size of the target unit figure viewed from the observation position. Obtaining a calibration parameter of the camera, comprising: determining a calibration parameter of the camera depending on a relative position and a relative posture between the observation position and the three-dimensional chart for camera calibration from the relationship. Method.
【請求項11】 カメラの校正用パラメータを求める装
置であって、 請求項1ないし請求項8のいずれかのカメラ校正用立体
チャートを前記観測位置から観測して得たチャート画像
から少なくとも1つの単位図形を対象単位図形として抽
出し、前記対象単位図形を、前記複数のチャート相互間
および前記複数の単位図形の中で同定する同定手段と、 同定された前記対象単位図形についてあらかじめ特定さ
れている実サイズと、前記観測位置から見た前記対象単
位図形の観測サイズとの関係から、前記観測位置と前記
カメラ校正用立体チャートとの相対的位置および相対姿
勢に依存する前記カメラの校正用パラメータを算出する
演算手段と、を備えることを特徴とするカメラの校正用
情報処理装置。
11. An apparatus for obtaining a camera calibration parameter, wherein at least one unit is obtained from a chart image obtained by observing the camera calibration three-dimensional chart according to claim 1 from the observation position. An identification unit for extracting a figure as a target unit figure, identifying the target unit figure between the plurality of charts and in the plurality of unit figures, and an actual unit specified in advance for the identified target unit figure From the relationship between the size and the observation size of the target unit figure viewed from the observation position, the camera calibration parameters dependent on the relative position and relative attitude between the observation position and the camera calibration stereo chart are calculated. An information processing apparatus for calibrating a camera, comprising:
【請求項12】 コンピュータによって実行されること
により、前記コンピュータを請求項11のカメラの校正
用情報処理装置として機能させることを特徴とするプロ
グラム。
12. A program executed by a computer to cause the computer to function as the camera information processing apparatus according to claim 11.
JP2001157822A 2001-05-25 2001-05-25 Camera calibration three-dimensional chart, camera calibration parameter acquisition method, camera calibration information processing apparatus, and program Expired - Fee Related JP4590780B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2001157822A JP4590780B2 (en) 2001-05-25 2001-05-25 Camera calibration three-dimensional chart, camera calibration parameter acquisition method, camera calibration information processing apparatus, and program
US10/151,184 US7423666B2 (en) 2001-05-25 2002-05-20 Image pickup system employing a three-dimensional reference object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001157822A JP4590780B2 (en) 2001-05-25 2001-05-25 Camera calibration three-dimensional chart, camera calibration parameter acquisition method, camera calibration information processing apparatus, and program

Publications (2)

Publication Number Publication Date
JP2002354506A true JP2002354506A (en) 2002-12-06
JP4590780B2 JP4590780B2 (en) 2010-12-01

Family

ID=19001625

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001157822A Expired - Fee Related JP4590780B2 (en) 2001-05-25 2001-05-25 Camera calibration three-dimensional chart, camera calibration parameter acquisition method, camera calibration information processing apparatus, and program

Country Status (1)

Country Link
JP (1) JP4590780B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010016379A1 (en) * 2008-08-05 2010-02-11 アイシン精機株式会社 Target position identifying apparatus
US7894661B2 (en) 2002-12-27 2011-02-22 Olympus Corporation Calibration apparatus, calibration method, program for calibration, and calibration jig
WO2011132552A1 (en) * 2010-04-22 2011-10-27 コニカミノルタホールディングス株式会社 Information processing device, program, information processing method, and information processing system
US8280665B2 (en) 2008-09-30 2012-10-02 Aisin Seiki Kabushiki Kaisha Calibration device for on-vehicle camera
TWI424259B (en) * 2009-07-14 2014-01-21 Chung Shan Inst Of Science Camera calibration method
KR101801168B1 (en) 2016-04-28 2017-11-27 아진산업(주) Three-dimensional calibrator for measuring of 3D alignment error and method for measuring of 3D alignment error using thereof
JP2018044897A (en) * 2016-09-15 2018-03-22 株式会社五合 Information processing device, camera, mobile body, mobile body system, information processing method, and program
KR101978830B1 (en) * 2017-12-19 2019-05-15 전자부품연구원 Detection result matching system and method of different kinds of sensors

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0843026A (en) * 1994-07-29 1996-02-16 Mazda Motor Corp Calibration device and hologram
JP2001082941A (en) * 1999-09-16 2001-03-30 Gen Tec:Kk Three-dimensional pattern for calibration
JP2002288645A (en) * 2001-03-26 2002-10-04 Minolta Co Ltd Photographing system for three-dimensional entry

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0843026A (en) * 1994-07-29 1996-02-16 Mazda Motor Corp Calibration device and hologram
JP2001082941A (en) * 1999-09-16 2001-03-30 Gen Tec:Kk Three-dimensional pattern for calibration
JP2002288645A (en) * 2001-03-26 2002-10-04 Minolta Co Ltd Photographing system for three-dimensional entry

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7894661B2 (en) 2002-12-27 2011-02-22 Olympus Corporation Calibration apparatus, calibration method, program for calibration, and calibration jig
JP4725821B2 (en) * 2008-08-05 2011-07-13 アイシン精機株式会社 Target location device
WO2010016379A1 (en) * 2008-08-05 2010-02-11 アイシン精機株式会社 Target position identifying apparatus
US8077199B2 (en) 2008-08-05 2011-12-13 Aisin Seiki Kabushiki Kaisha Target position identifying apparatus
JPWO2010016379A1 (en) * 2008-08-05 2012-01-19 アイシン精機株式会社 Target location device
US8280665B2 (en) 2008-09-30 2012-10-02 Aisin Seiki Kabushiki Kaisha Calibration device for on-vehicle camera
TWI424259B (en) * 2009-07-14 2014-01-21 Chung Shan Inst Of Science Camera calibration method
WO2011132552A1 (en) * 2010-04-22 2011-10-27 コニカミノルタホールディングス株式会社 Information processing device, program, information processing method, and information processing system
JP5327381B2 (en) * 2010-04-22 2013-10-30 コニカミノルタ株式会社 Information processing apparatus, program, and information processing system
US9335622B2 (en) 2010-04-22 2016-05-10 Konica Minolta Holdings, Inc. Information processing device and information processing system
KR101801168B1 (en) 2016-04-28 2017-11-27 아진산업(주) Three-dimensional calibrator for measuring of 3D alignment error and method for measuring of 3D alignment error using thereof
JP2018044897A (en) * 2016-09-15 2018-03-22 株式会社五合 Information processing device, camera, mobile body, mobile body system, information processing method, and program
KR101978830B1 (en) * 2017-12-19 2019-05-15 전자부품연구원 Detection result matching system and method of different kinds of sensors

Also Published As

Publication number Publication date
JP4590780B2 (en) 2010-12-01

Similar Documents

Publication Publication Date Title
US7423666B2 (en) Image pickup system employing a three-dimensional reference object
JP4282216B2 (en) 3D position and orientation sensing device
JP5586765B2 (en) Camera calibration result verification apparatus and method
US9482515B2 (en) Stereoscopic measurement system and method
US20160371855A1 (en) Image based measurement system
US20160134860A1 (en) Multiple template improved 3d modeling of imaged objects using camera position and pose to obtain accuracy
US20150369593A1 (en) Orthographic image capture system
US9454822B2 (en) Stereoscopic measurement system and method
EP3069100B1 (en) 3d mapping device
US8249332B2 (en) Stereoscopic measurement system and method
JP6963295B2 (en) 3D information acquisition device
JP2023546739A (en) Methods, apparatus, and systems for generating three-dimensional models of scenes
JP2001148025A (en) Device and method for detecting position, and device and method for detecting plane posture
RU2479828C2 (en) Stereoscopic measurement system and method
JP4590780B2 (en) Camera calibration three-dimensional chart, camera calibration parameter acquisition method, camera calibration information processing apparatus, and program
JP6027952B2 (en) Augmented reality image generation system, three-dimensional shape data generation device, augmented reality presentation device, augmented reality image generation method, and program
JP2003023562A (en) Image photographic system and camera system
JP2005031044A (en) Three-dimensional error measuring device
JP4665350B2 (en) measuring device
AU2009249003B2 (en) Stereoscopic measurement system and method
JP7251631B2 (en) Template creation device, object recognition processing device, template creation method, object recognition processing method, and program
JP2003021505A (en) Image photographing system and mobile imaging device
JP4892793B2 (en) Measuring apparatus and measuring method
CA2828656C (en) Stereoscopic measurement system and method
JP2003021512A (en) Parameter obtaining method for calibration of measurement device, information processor for calibration and program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050613

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080425

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080606

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100615

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100715

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100817

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100830

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130924

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees