JP2003021505A - Image photographing system and mobile imaging device - Google Patents

Image photographing system and mobile imaging device

Info

Publication number
JP2003021505A
JP2003021505A JP2001204720A JP2001204720A JP2003021505A JP 2003021505 A JP2003021505 A JP 2003021505A JP 2001204720 A JP2001204720 A JP 2001204720A JP 2001204720 A JP2001204720 A JP 2001204720A JP 2003021505 A JP2003021505 A JP 2003021505A
Authority
JP
Japan
Prior art keywords
photographing
camera
movable
image
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001204720A
Other languages
Japanese (ja)
Inventor
Hideo Fujii
英郎 藤井
Koji Fujiwara
浩次 藤原
Kunimitsu Sakakibara
邦光 榊原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP2001204720A priority Critical patent/JP2003021505A/en
Priority to US10/151,184 priority patent/US7423666B2/en
Publication of JP2003021505A publication Critical patent/JP2003021505A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a system for easy acquisition with precision, the position and attitude of a person and object in the space. SOLUTION: On the side surface of a solid chart 2, a plurality of unit graphics, of which the sizes are coded with referent compound ratios, are arranged. The compound ratio of the unit graphic is calculated from the photographed image of the solid chart 2, which is collated with the actual value to acquire the position/attitude of an imaging point. An object-photographing camera 13 is fitted with a mobile camera 11 which automatically tracks the solid chart 2, and the mobile camera 11 makes the three-dimensional chart 2 to be imaged, at the same time when photographing an object 30. The position/attitude of the object-photographing camera 13 is acquired, based on the position/attitude of the mobile camera 11 which is acquired by the procedure based on the imaged picture as well as the relative position/attitude between both cameras which has been acquired in advance.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、空間内に固定され
た立体チャート(基準物体)と可動式撮影装置の撮影位
置との相対関係を特定するための技術に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a technique for specifying a relative relationship between a three-dimensional chart (reference object) fixed in a space and a photographing position of a movable photographing device.

【0002】[0002]

【従来の技術】人物や物体の空間内における相対位置と
相対姿勢を求める技術が、仮想現実(バーチャルリアリ
ティ)の分野等において求められている。例えば、「L.
Quan,Z.Lan, "Linear N-Point Camera Pose Determinat
ion", IEEE Trans.PAMI 21(8)1999」、および「高橋、
石井、牧野、中静、”人工現実感インターフェースのた
めの単眼画像からのマーカの位置と姿勢の計測"、電子
情報論文誌AJ79 1996」にそれらを求めるアルゴリズム
が開示されている。これらの技術によれば、基準となる
物体を撮影した場合、その撮影した画像を用いて撮影位
置の空間に対する相対位置と相対姿勢を求めることがで
きる。以下、ここで開示されているアルゴリズムを「多
点解析アルゴリズム」と呼ぶことにする。
2. Description of the Related Art A technique for obtaining a relative position and a relative posture of a person or an object in space is required in the field of virtual reality. For example, `` L.
Quan, Z.Lan, "Linear N-Point Camera Pose Determinat
ion ", IEEE Trans.PAMI 21 (8) 1999", and "Takahashi,
Ishii, Makino, Nakashizuka, "Measurement of Position and Pose of Marker from Monocular Image for Artificial Reality Interface", Electronic Information Journal AJ79 1996, discloses algorithms for obtaining them. According to these techniques, when a reference object is photographed, the relative position and relative attitude of the photographing position with respect to the space can be obtained using the photographed image. Hereinafter, the algorithm disclosed here will be referred to as a “multipoint analysis algorithm”.

【0003】「多点解析アルゴリズム」の応用分野とし
て、例えば、特開平6−080403公報には、移動体
にカメラを取り付け3次元位置が既知のチャートを撮影
して移動体の位置、姿勢を検出する技術が開示されてい
る。
As an application field of the "multipoint analysis algorithm", for example, in Japanese Unexamined Patent Publication No. 6-080403, a camera is attached to a moving body and a chart having a known three-dimensional position is photographed to detect the position and orientation of the moving body. Techniques for doing so are disclosed.

【0004】また、立体的な被写体を複数の方向から撮
影し、それによって得られた複数の画像データを組み合
わせることによって、当該被写体の3次元画像モデルを
得るという技術が知られている。すなわち、複数の方向
から被写体を撮影したそれぞれの画像ごとに、カメラの
外部パラメータ(カメラの位置や姿勢等)と内部パラメ
ータ(焦点距離等)のデータを得ることができれば、シ
ェープ・フロム・シルエット法によって、被写体のシル
エット画像から3次元のモデルを再構成することができ
る。このシェープ・フロム・シルエット法についての詳
細は、W.Niem,"Robust and Fast Modelling of 3D Natu
ral Objects from Multiple Views" SPIE Proceedings
Image and Video Proceeding II vol.2182,1994,pp.388
-397に開示されている。以下、カメラの外部パラメータ
と内部パラメータとを「(カメラの)校正パラメータ」
と総称するが、この校正パラメータのうち内部パラメー
タが既知であって内部パラメータによるカメラの校正が
完了している場合には、カメラの外部パラメータが求ま
れば、被写体の3次元画像モデルの構築が可能となる。
There is also known a technique in which a three-dimensional image model of a subject is obtained by photographing a three-dimensional subject from a plurality of directions and combining a plurality of image data obtained thereby. That is, if the data of the external parameters of the camera (such as the position and orientation of the camera) and the internal parameters (such as the focal length) can be obtained for each of the images obtained by shooting the subject from a plurality of directions, the shape from silhouette method can be used. Thus, a three-dimensional model can be reconstructed from the silhouette image of the subject. For more information about this shape from silhouette method, see W. Niem, "Robust and Fast Modeling of 3D Natu.
ral Objects from Multiple Views "SPIE Proceedings
Image and Video Proceeding II vol.2182,1994, pp.388
-397. Below, the external and internal parameters of the camera are referred to as “(calibration parameters of the camera)”.
If the internal parameters of these calibration parameters are known and the calibration of the camera by the internal parameters has been completed, if the external parameters of the camera are obtained, then a three-dimensional image model of the subject can be constructed. It will be possible.

【0005】ところで、このように複数の方向から被写
体を撮影するにあたっての1つの方法は、複数のカメラ
を異なる位置に固定配置して被写体を撮影する固定配置
方式である。しかしながら、この固定配置方式では複数
のカメラを撮影スタジオ内などに固定的に分散配置して
おかねばならないために、撮影設備が大がかりになる。
By the way, one method for photographing an object from a plurality of directions in this way is a fixed arrangement method in which a plurality of cameras are fixedly arranged at different positions and the object is photographed. However, in this fixed arrangement method, since a plurality of cameras must be fixedly arranged in a photographing studio or the like, the photographing equipment becomes large.

【0006】そこで、ユーザが1台の手持ちカメラを持
って被写体の周りを移動しつつ、複数の方向から被写体
を順次に撮影することによって被写体の全周囲の画像を
得る移動撮影方式が提案されている。
Therefore, a moving photographing method has been proposed in which a user holds a single hand-held camera and moves around the subject while sequentially photographing the subject from a plurality of directions to obtain an image of the entire circumference of the subject. There is.

【0007】しかしながら、この移動撮影方式でカメラ
の外部パラメータを決定するには、それぞれの撮影に際
してのカメラの位置および姿勢をそのつど特定すること
が必要となる。
However, in order to determine the external parameters of the camera in this moving photographing method, it is necessary to specify the position and orientation of the camera at each photographing.

【0008】このような目的でカメラの外部パラメータ
を測定する方式については、磁気方式、超音波方式、光
学方式などが、従来から提案されている。このうち磁気
方式はカメラ位置における地磁気などを検出することに
よって、また、超音波方式は所定の超音波からの超音波
を検知することによって、それぞれカメラの位置や姿勢
などを特定する方式である。光学方式には、ステレオカ
メラを使う方法や、視野よりも大きな校正チャートを設
置する方法等がある。
As a method for measuring the external parameters of the camera for such a purpose, a magnetic method, an ultrasonic method, an optical method, etc. have been conventionally proposed. Among them, the magnetic method is a method for detecting the geomagnetism or the like at the camera position, and the ultrasonic method is a method for detecting the ultrasonic wave from a predetermined ultrasonic wave to specify the position and posture of the camera. The optical method includes a method of using a stereo camera and a method of setting a calibration chart larger than the field of view.

【0009】これらの方式のうち、磁気方式では、被写
体が金属で構成されている場合に精度よく測定すること
が困難であり、超音波方式は装置が高価になってしま
う。
Of these methods, the magnetic method makes it difficult to measure accurately when the object is made of metal, and the ultrasonic method makes the apparatus expensive.

【0010】これに対して、従来の光学方式としては、
不均一マトリクスパターンが描かれた単一の平面チャー
トを所定位置に配置し、それをカメラで観測することに
よってその平面チャートとカメラとの位置や姿勢関係
を、「多点解析アルゴリズム」を用いて特定する方式が
特開2000−270343に開示されている。これに
よれば、平面チャートに固定された座標系に対するカメ
ラの位置および姿勢の相対的関係がわかるため、平面チ
ャートと被写体との位置および姿勢関係を固定しておけ
ば、複数の方向から被写体を撮影するたびごとに、平面
チャート上のパターンをカメラで観測することにより、
その時点でのカメラの位置および姿勢が絶対座標系で特
定できることになる。
On the other hand, as a conventional optical system,
A single plane chart on which a non-uniform matrix pattern is drawn is placed at a predetermined position, and by observing it with a camera, the position and orientation relationship between the plane chart and the camera can be calculated using a "multipoint analysis algorithm". The specifying method is disclosed in Japanese Patent Laid-Open No. 2000-270343. According to this, the relative relationship between the position and orientation of the camera with respect to the coordinate system fixed on the plane chart can be known. Therefore, if the position and orientation relationship between the plane chart and the object is fixed, the object can be viewed from a plurality of directions. By observing the pattern on the plane chart with the camera every time you take a picture,
The position and orientation of the camera at that time can be specified in the absolute coordinate system.

【0011】[0011]

【発明が解決しようとする課題】ところが、上記特開平
6−080403公報の技術では、移動体の撮影範囲に
常にチャートが入るようにするため、背景に大きな平面
チャートを用意しなければならず、撮影設備が大がかり
となるという問題があった。
However, in the technique disclosed in Japanese Patent Laid-Open No. 6-080403, a large plane chart must be prepared in the background in order to keep the chart within the photographing range of the moving body. There was a problem that the imaging equipment would be large-scale.

【0012】また、特開2000−270343公報の
技術においても、チャートを観測できる範囲内にカメラ
があっても、カメラの画角の周辺部に位置している場合
には、チャート上のパターンの観測精度が低下し、その
結果としてカメラの外部パラメータの決定精度が良くな
いといった欠点があった。
Also, in the technique disclosed in Japanese Patent Laid-Open No. 2000-270343, even if the camera is within the range where the chart can be observed, if the camera is located in the peripheral portion of the angle of view of the camera, the pattern on the chart However, there is a drawback in that the accuracy of observation decreases, and as a result, the accuracy of determining the external parameters of the camera is poor.

【0013】本発明は従来技術における上述の課題を解
決するために成されたものであり、光学方式を用いなが
らも、広い可動範囲を確保しつつ、ユーザに負担をかけ
ることなく、高い測定精度が得られるような、カメラの
外部パラメータの取得技術を実現することを目的として
いる。
The present invention has been made in order to solve the above-mentioned problems in the prior art. While using an optical system, a wide movable range is ensured and a high measurement accuracy is achieved without burdening the user. The objective is to realize a technique for acquiring the external parameters of the camera so that

【0014】[0014]

【課題を解決するための手段】請求項1に記載の発明
は、画像撮影システムであって、可動式撮影装置と、3
次元上の既知の形状を有する基準物体とを備え、前記可
動式撮影装置が、前記基準物体の画像を第1画像データ
として取得する撮影手段と、固定部に対して前記撮影手
段を回転駆動させる駆動手段と、前記可動式撮影装置が
移動した場合に前記撮影手段が前記基準物体を撮影可能
となるように前記駆動手段を制御する制御手段とを備え
る。
According to a first aspect of the present invention, there is provided an image photographing system, which comprises a movable photographing device and a movable photographing device.
A movable body photographing device, which is provided with a reference object having a dimensionally known shape, and which rotates the driving means with respect to a fixed part; The driving means and the control means for controlling the driving means so that the photographing means can photograph the reference object when the movable photographing device moves.

【0015】請求項2に記載の発明は、請求項1に記載
の画像撮影システムであって、校正用情報処理装置をさ
らに備え、前記可動式撮影装置が、前記校正用情報処理
装置との間でデータ通信を行う第1通信手段をさらに備
え、前記校正用情報処理装置が、前記可動式撮影装置と
の間でデータ通信を行う第2通信手段と、前記第2通信
手段により受信された前記第1画像データに基づいて、
前記可動式撮影装置の撮影位置と前記基準物体との相対
位置および相対姿勢に依存する前記可動式撮影装置の校
正用の第1パラメータを計算する第1計算手段とを備え
る。
The invention according to claim 2 is the image photographing system according to claim 1, further comprising a calibration information processing device, wherein the movable photographing device is connected to the calibration information processing device. Further comprising first communication means for performing data communication with the calibration information processing apparatus, the second communication means for performing data communication with the movable imaging device, and the second communication means for receiving the second communication means. Based on the first image data,
A first calculation means is provided for calculating a first parameter for calibration of the movable image capturing device, which is dependent on a relative position and a relative orientation of the image capturing position of the movable image capturing device and the reference object.

【0016】請求項3に記載の発明は、請求項2に記載
の画像撮影システムであって、被写体の画像を第2画像
データとして取得する被写体撮影用装置をさらに備え、
前記可動式撮影装置が、前記固定部を他の物体に取り付
ける取付手段と、前記駆動手段により回転した前記撮影
手段の基準姿勢からの回転角を求める手段と、前記取付
手段により前記被写体撮影用装置に取り付けられ、前記
撮影手段に前記被写体撮影用装置の前記第2画像データ
の取得と連動して前記撮影手段に前記第1画像データの
取得を行わせる撮影制御手段とをさらに備え、前記被写
体撮影用装置が、前記校正用情報処理装置に前記第2画
像データを送信する第3通信手段を備え、前記校正用情
報処理装置が、前記基準物体を撮影した第2画像データ
に基づいて、前記被写体撮影用装置の撮影位置と前記基
準物体との相対位置および相対姿勢に依存する前記被写
体撮影用装置の校正用の第2パラメータを計算する第2
計算手段と、前記第1パラメータ、前記第2パラメー
タ、および前記回転角に基づいて、前記撮影手段の基準
姿勢における撮影位置と前記被写体撮影用装置の撮影位
置との相対位置および相対姿勢に依存する前記被写体撮
影用装置の校正用の第3パラメータを計算する第3計算
手段と、前記第1パラメータと前記第3パラメータとに
基づいて、前記被写体撮影用装置の撮影位置と前記基準
物体との相対位置および相対姿勢に依存する前記被写体
撮影用装置の校正用の第4パラメータを計算する第4計
算手段とをさらに備える。
According to a third aspect of the invention, there is provided the image photographing system according to the second aspect, further comprising a subject photographing device for obtaining a subject image as second image data,
The movable photographing device has a mounting means for mounting the fixed part to another object, a means for obtaining a rotation angle of the photographing means from the reference posture rotated by the driving means, and the subject photographing device by the mounting means. And an image pickup control unit attached to the image pickup unit for causing the image pickup unit to obtain the first image data in association with the acquisition of the second image data of the subject image pickup apparatus. Apparatus includes a third communication means for transmitting the second image data to the calibration information processing apparatus, and the calibration information processing apparatus, based on the second image data obtained by photographing the reference object, A second parameter for calculating a second parameter for calibration of the subject photographing device that depends on a relative position and a relative posture of the photographing position of the photographing device and the reference object
Based on the calculation means, the first parameter, the second parameter, and the rotation angle, depending on the relative position and relative attitude between the photographing position of the photographing means in the reference posture and the photographing position of the subject photographing device. A third calculating means for calculating a third parameter for calibration of the object photographing device, and a relative position between the photographing position of the object photographing device and the reference object based on the first parameter and the third parameter. It further comprises a fourth calculation means for calculating a fourth parameter for calibration of the device for photographing an object depending on the position and the relative attitude.

【0017】請求項4に記載の発明は、請求項2に記載
の画像撮影システムであって、前記可動式撮影装置が、
前記固定部を他の物体に取り付ける取付手段と、前記駆
動手段により回転した前記撮影手段の基準姿勢からの回
転角を求める手段と、前記撮影手段の基準姿勢における
撮影位置と前記固定部との相対位置および相対姿勢に依
存する基準相対データを取得する手段と、前記回転角と
前記基準相対データとに基づいて前記撮影手段の撮影位
置と前記固定部との相対位置および相対姿勢に依存する
第5パラメータを計算する手段とをさらに備え、前記校
正用情報処理装置が、前記第2通信手段により受信した
前記第5パラメータおよび前記第1パラメータから前記
固定部の位置と前記基準物体との相対位置および相対姿
勢に依存する第6パラメータを計算する。
The invention described in claim 4 is the image photographing system according to claim 2, wherein the movable photographing device comprises:
Attachment means for attaching the fixing part to another object, means for obtaining a rotation angle of the photographing means from the reference posture rotated by the driving means, relative to the photographing position in the reference posture of the photographing means and the fixing part A means for acquiring reference relative data depending on a position and a relative attitude; and a fifth means depending on a relative position and relative attitude between the photographing position of the photographing means and the fixed portion based on the rotation angle and the reference relative data. Further comprising means for calculating a parameter, wherein the calibration information processing device uses the fifth parameter and the first parameter received by the second communication means to determine the position of the fixed part and the relative position of the reference object, A sixth parameter, which depends on the relative pose, is calculated.

【0018】請求項5に記載の発明は、請求項4に記載
の画像撮影システムであって、前記可動式撮影装置が、
前記取付手段により人体に取り付け可能である。
According to a fifth aspect of the present invention, in the image photographing system according to the fourth aspect, the movable photographing device comprises:
It can be attached to a human body by the attaching means.

【0019】請求項6に記載の発明は、可動式撮影装置
であって、3次元上の既知の形状を有する基準物体の画
像を第1画像データとして取得する撮影手段と、固定部
に対して前記撮影手段を回転駆動させる駆動手段と、前
記可動式撮影装置が移動した場合に前記撮影手段が前記
基準物体を撮影可能となるように前記駆動手段を制御す
る制御手段とを備える。
According to a sixth aspect of the present invention, there is provided a movable photographing device, wherein the photographing means for obtaining an image of a reference object having a known three-dimensional shape as the first image data and the fixed part. The imaging device includes a driving device that rotationally drives the imaging device, and a control device that controls the driving device so that the imaging device can image the reference object when the movable imaging device moves.

【0020】請求項7に記載の発明は、請求項6に記載
の可動式撮影装置であって、前記固定部を、被写体の画
像を第2画像データとして取得する被写体撮影用装置に
取り付ける取付手段と、前記撮影手段に前記被写体撮影
用装置の前記第2画像データの取得と連動して前記撮影
手段に前記第1画像データの取得を行わせる撮影制御手
段とをさらに備える。
According to a seventh aspect of the present invention, there is provided the movable photographing apparatus according to the sixth aspect, wherein the fixing portion is attached to a subject photographing device that acquires a subject image as second image data. And an image capturing control unit that causes the image capturing unit to acquire the first image data in association with the acquisition of the second image data of the subject image capturing apparatus.

【0021】請求項8に記載の発明は、請求項6に記載
の可動式撮影装置であって、前記固定部を他の物体に取
り付ける取付手段と、前記駆動手段により回転した前記
撮影手段の基準姿勢からの回転角を求める手段とをさら
に備え、前記基準姿勢における前記撮影手段と前記固定
部との位置関係および前記回転角から前記撮影手段の撮
影位置と前記固定部との相対位置および相対姿勢に依存
する第5パラメータを計算する。
The invention described in claim 8 is the movable photographing device according to claim 6, wherein the fixing means is a reference for the mounting means for mounting the fixed portion to another object and the photographing means rotated by the driving means. And a relative attitude between the photographing position of the photographing means and the fixed part based on the positional relationship between the photographing means and the fixed part in the reference posture and the rotation angle. Calculate a fifth parameter that depends on

【0022】請求項9に記載の発明は、請求項8に記載
の可動式撮影装置であって、前記取付手段により人体に
取り付け可能である。
According to a ninth aspect of the invention, there is provided the movable photographing apparatus according to the eighth aspect, which can be attached to a human body by the attaching means.

【0023】[0023]

【発明の実施の形態】以下、本発明の好適な実施の形態
について、添付の図面を参照しつつ、詳細に説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

【0024】<1. 第1の実施の形態> <システム構成の概要>図1は、本発明の実施形態が適
用された画像撮影システム1の構成を示す図であり、図
2はこの画像撮影システム1のブロック図である。図1
において、画像撮影システム1は、立体的な被写体30
の画像を撮像可能な可搬性のカメラシステム10と、被
写体30を収容した空間内において、被写体30の近傍
に配置されたカメラ校正用の立体チャート2とを備えて
いる。立体チャート2は、3次元上の既知の形状を有す
る基準物体であり、例えば後に詳述するように、略角錐
状の本体の各側面にチャートパターンが施された立体物
で形成される。この立体チャート2はチャート支持具2
50から吊り下げられている。チャート支持具250は
台座251から伸びる逆L字状のアーム252を備え、
立体チャート2はそのアーム252の先端付近に固定さ
れている。好ましくは、立体チャート2は被写体30の
略上方に吊り下げられる。
<1. First Embodiment><Outline of System Configuration> FIG. 1 is a diagram showing a configuration of an image capturing system 1 to which an embodiment of the present invention is applied, and FIG. 2 is a block diagram of the image capturing system 1. is there. Figure 1
In the image capturing system 1, the three-dimensional object 30
A portable camera system 10 capable of picking up an image and a stereoscopic chart 2 for camera calibration arranged in the vicinity of the subject 30 in a space accommodating the subject 30. The three-dimensional chart 2 is a reference object having a known three-dimensional shape, and is formed of, for example, a three-dimensional object in which a chart pattern is provided on each side surface of a substantially pyramidal main body, as described later in detail. This three-dimensional chart 2 is a chart support tool 2.
Suspended from 50. The chart support 250 includes an inverted L-shaped arm 252 extending from the base 251.
The three-dimensional chart 2 is fixed near the tip of the arm 252. Preferably, the three-dimensional chart 2 is suspended substantially above the subject 30.

【0025】カメラシステム10は、デジタルカメラと
しての機能を有する被写体撮影用カメラ(以下、「被写
体用カメラ」と略す)13を備えている。この被写体用
カメラ13は、本システムにおける校正用情報処理装置
として後述する各種演算機能をも有する。また、この被
写体用カメラ13の上部には、取付機構12を介して可
動式カメラ11が姿勢変更自在に取り付けられている。
可動式カメラ11は、立体チャート2の上のパターン
(図3参照)に含まれる複数の単位図形UPを撮影する
ことにより、立体チャート2と可動式カメラ11との相
対的な位置姿勢関係を特定し、さらには立体チャート2
に対して相対的に固定された絶対座標系における、被写
体用カメラ13の位置および姿勢を検出するために使用
される。
The camera system 10 includes a subject photographing camera (hereinafter, abbreviated as "subject camera") 13 having a function as a digital camera. The subject camera 13 also has various calculation functions, which will be described later, as a calibration information processing device in the present system. Further, a movable camera 11 is attached to the upper portion of the subject camera 13 via an attachment mechanism 12 so that the posture can be changed.
The movable camera 11 identifies a relative position-orientation relationship between the three-dimensional chart 2 and the movable camera 11 by photographing a plurality of unit figures UP included in the pattern (see FIG. 3) on the three-dimensional chart 2. And then 3D chart 2
It is used to detect the position and orientation of the subject camera 13 in an absolute coordinate system that is relatively fixed with respect to.

【0026】図1には示されていないが、図2にあるよ
うに、この画像撮影システム1は、例えば、校正用情報
処理装置としてノートブック型の可搬性コンピュータ1
5を備えていてもよい。コンピュータ15は通信インタ
ーフェイス15aを介した無線通信によってカメラシス
テム10との間でコマンドやデータの授受が可能であ
る。
Although not shown in FIG. 1, as shown in FIG. 2, the image capturing system 1 includes, for example, a notebook type portable computer 1 as a calibration information processing device.
5 may be provided. The computer 15 can send and receive commands and data to and from the camera system 10 by wireless communication via the communication interface 15a.

【0027】<立体チャートの概要>図3は立体チャー
ト2の側面図である。立体チャート2は、立体チャート
本体203と、この立体チャート本体203の表面上に
形成されたチャートパターンCPとを有している。
<Outline of Solid Chart> FIG. 3 is a side view of the solid chart 2. The three-dimensional chart 2 has a three-dimensional chart body 203 and a chart pattern CP formed on the surface of the three-dimensional chart body 203.

【0028】このうち立体チャート本体203は、多角
錐形状の表示部204と、角錐台状の支持部205とが
一体化されており、内部は中空となっている。チャート
パターンCPは、表示部204の各側面T1〜Tn(nは
3以上の整数)上に付されたパターンP1〜Pnの集合で
ある。好ましくは、多角錐の側面の数nは、n=3〜3
6であり、より好ましくはn=6〜12である。各側面
T1〜Tnに形成されたそれぞれのパターンP1〜Pnは平
面的パターンであるが、パターンP1〜Pnが立体的に配
置されることにより、このパターンP1〜Pnの集合とし
てのチャートパターンCPは立体的パターンとなってい
る。それぞれのパターンP1〜Pnは、それぞれが単位図
形として機能する複数の台形の集合であり、その詳細は
後述する。
Of the three-dimensional chart main body 203, a polygonal pyramid-shaped display portion 204 and a truncated pyramidal support portion 205 are integrated, and the inside thereof is hollow. The chart pattern CP is a set of patterns P1 to Pn provided on each side surface T1 to Tn (n is an integer of 3 or more) of the display section 204. Preferably, the number n of side surfaces of the polygonal pyramid is n = 3 to 3
6 and more preferably n = 6-12. Although the respective patterns P1 to Pn formed on the respective side surfaces T1 to Tn are planar patterns, the chart patterns CP as a set of the patterns P1 to Pn are formed by arranging the patterns P1 to Pn three-dimensionally. It has a three-dimensional pattern. Each of the patterns P1 to Pn is a set of a plurality of trapezoids each of which functions as a unit figure, the details of which will be described later.

【0029】また、表示部204を構成する多角錐の頂
点には、可動式カメラ11がチャートパターンCPを追
尾(トラッキング)する際に基準点とするマーカ201
として、発光ダイオード(LED)が取り付けられてお
り、これによって容易かつ正確に立体チャート2の位置
が可動式カメラ11で認識できるようになっている。図
3では図示されていないが、立体チャート2の内部に
は、この発光ダイオードに発光電力を供給するためのマ
ーカ用電源202(図2)が内蔵されている。
A marker 201, which is a reference point when the movable camera 11 tracks the chart pattern CP, is provided at the apex of the polygonal pyramid forming the display section 204.
As an example, a light emitting diode (LED) is attached so that the position of the three-dimensional chart 2 can be easily and accurately recognized by the movable camera 11. Although not shown in FIG. 3, a marker power supply 202 (FIG. 2) for supplying light emission power to the light emitting diode is built in the three-dimensional chart 2.

【0030】<可動式カメラ11の概要>図4は可動式
カメラ11の正面図であり、図5は可動式カメラ11の
ブロック図である。図5に示すように、可動式カメラ1
1では、レンズユニット110と、このレンズユニット
110によって結像した2次元画像を光電変換する2次
元受光素子111とが一体となって球状ユニット116
に納められている。2次元受光素子111はCCDアレ
イである。レンズユニット110は、固定レンズ110
aとズームレンズ110bとの組み合わせであり、それ
らの間に絞り/シャッタ機構部110eが存在する。
<Outline of Movable Camera 11> FIG. 4 is a front view of the movable camera 11, and FIG. 5 is a block diagram of the movable camera 11. As shown in FIG. 5, the movable camera 1
In 1, the spherical unit 116 is formed by integrating the lens unit 110 and the two-dimensional light receiving element 111 that photoelectrically converts the two-dimensional image formed by the lens unit 110.
Is stored in. The two-dimensional light receiving element 111 is a CCD array. The lens unit 110 is a fixed lens 110.
It is a combination of a and a zoom lens 110b, and an aperture / shutter mechanism section 110e exists between them.

【0031】図4に示すように、球状ユニット116は
姿勢装置113を介して固定部114に連結されてお
り、球状ユニット116に内蔵された各要素とともに固
定部114に対してパン方向の±約70°の旋回(θ回
転)と、チルト方向への±約70°の俯仰(φ回転)と
が可能になっている。そして、これらのパン方向の回転
駆動とチルト方向の回転駆動とを行うために、複数のピ
エゾ素子を内蔵した姿勢装置113が球状ユニット11
6の基部に配置されている。また、ズームレンズ110
bの駆動に相当するズーム操作も、上記とは別のピエゾ
素子によって行われる。これらのピエゾ素子にノコギリ
波信号を与えることにより、ピエゾ素子による駆動の対
象要素が寸動し、その繰返しによって対象要素に所要の
動きが与えられる。パン方向の旋回角とチルト方向の俯
仰角とは、それぞれエンコーダなどの角度センサ126
p、126tによって検出され、ズームレンズ110b
の駆動量はやはりエンコーダで構成されたセンサ126
zによって検出される。これらの駆動機構については、
たとえば特開平11−18000や、特開平11−41
504に開示されている。
As shown in FIG. 4, the spherical unit 116 is connected to the fixed portion 114 via the attitude device 113, and together with the respective elements incorporated in the spherical unit 116, ± about the pan direction ± about the fixed portion 114. It is possible to turn by 70 ° (θ rotation) and ascend / descend (± rotate) about ± 70 ° in the tilt direction. Then, in order to perform the rotational driving in the pan direction and the rotational driving in the tilt direction, the attitude device 113 having a plurality of piezo elements is incorporated into the spherical unit 11.
It is located at the base of 6. In addition, the zoom lens 110
The zoom operation corresponding to the drive of b is also performed by the piezo element different from the above. By giving a sawtooth wave signal to these piezo elements, the element to be driven by the piezo element is moved slightly, and the required movement is given to the object element by repetition thereof. The turning angle in the pan direction and the depression / elevation angle in the tilt direction are respectively determined by an angle sensor 126 such as an encoder.
The zoom lens 110b detected by p.126t
The driving amount of the sensor 126 is also composed of an encoder.
detected by z. For these drive mechanisms,
For example, JP-A-11-18000 and JP-A-11-41
504.

【0032】制御演算部120は、2次元受光素子11
1からの信号を入力して画像認識などの処理を行う画像
処理部121と、この画像処理部121で得られた画像
信号を記憶する画像メモリ122とを備えている。ま
た、ズームレンズ110b、姿勢装置113、および絞
り/シャッタ機構部110eの駆動信号を発生して、こ
れらに出力するカメラ制御部123が設けられており、
画像処理部121およびカメラ制御部123は、通信部
124および通信デバイス112を介して、被写体用カ
メラ13と無線通信が可能である。この通信により画像
データが被写体用カメラ13に送信されるほか、各種情
報が可動式カメラ11と被写体用カメラ13との間で送
受信される。この実施形態の可動式カメラ11では、通
信デバイス112として、赤外線通信を行うためのIR
DA(Infrared Data Association)インターフェイス
に対応した赤外線素子が使用されている。
The control calculation unit 120 includes the two-dimensional light receiving element 11
An image processing unit 121 for inputting a signal from No. 1 to perform processing such as image recognition, and an image memory 122 for storing the image signal obtained by the image processing unit 121 are provided. Further, a camera control unit 123 is provided which generates drive signals for the zoom lens 110b, the posture device 113, and the aperture / shutter mechanism unit 110e and outputs them.
The image processing unit 121 and the camera control unit 123 can wirelessly communicate with the subject camera 13 via the communication unit 124 and the communication device 112. By this communication, the image data is transmitted to the subject camera 13, and various information is transmitted and received between the movable camera 11 and the subject camera 13. In the movable camera 11 of this embodiment, an IR for performing infrared communication is used as the communication device 112.
An infrared element compatible with a DA (Infrared Data Association) interface is used.

【0033】図4に示すように、固定部114に設けら
れた第1取付溝115aおよび第2取付溝115bは、
被写体用カメラ13に固定部114を取り付けるために
用いられる。さらに、追尾ボタン117は、可動式カメ
ラ11に立体チャート2を自動的に追尾させるモード
(以下、「自動追尾モード」と略す)と被写体用カメラ
13からのユーザの指示により追尾させるモード(以
下、「手動モード」と略す)とを切り換えるためのボタ
ンである。
As shown in FIG. 4, the first mounting groove 115a and the second mounting groove 115b provided in the fixed portion 114 are
It is used to attach the fixed portion 114 to the camera 13 for a subject. In addition, the tracking button 117 is a mode in which the movable camera 11 automatically tracks the stereoscopic chart 2 (hereinafter, abbreviated as “automatic tracking mode”) and a mode in which the camera for subject 13 tracks the user according to a user's instruction (hereinafter, referred to as “automatic tracking mode”). It is a button for switching between "manual mode" and abbreviated.

【0034】図6はハードウエア構成から見た可動式カ
メラ11の情報処理機能の要部を示す図であり、図7は
可動式カメラ11におけるデータの流れを示す図であ
る。図6において、可動式カメラ11の制御演算部12
0はCPU130、ROM131およびRAM132を
備えており、後記の各種の動作を実現するプログラム1
31aはROM131に記憶されている。
FIG. 6 is a diagram showing the main part of the information processing function of the movable camera 11 as viewed from the hardware configuration, and FIG. 7 is a diagram showing the data flow in the movable camera 11. In FIG. 6, the control calculation unit 12 of the movable camera 11
A program 0 includes a CPU 130, a ROM 131, and a RAM 132, and realizes various operations described below.
31a is stored in the ROM 131.

【0035】2次元受光素子111は、画素ごとにRG
Bのいずれかのフィルタが付設されており、2次元受光
素子111上に結像した光は、この2次元受光素子11
1によってRGB3原色成分ごとに光電変換される。こ
れによって得られた信号がA/D変換部141によって
デジタル画像信号に変換され、画像補正部142におい
てホワイトバランス補正やγ補正等を受ける。補正後の
画像信号は画像メモリ122に保存される。図7におけ
る第1画像データD1は、この補正後の画像信号に相当
する。
The two-dimensional light receiving element 111 has an RG for each pixel.
One of the filters B is attached, and the light imaged on the two-dimensional light receiving element 111 is
1 performs photoelectric conversion for each of the RGB three primary color components. The signal thus obtained is converted into a digital image signal by the A / D conversion unit 141, and the image correction unit 142 receives white balance correction and γ correction. The corrected image signal is stored in the image memory 122. The first image data D1 in FIG. 7 corresponds to this corrected image signal.

【0036】図7の認識部145、姿勢制御部146
は、CPU130、ROM131、RAM132などの
機能の一部として実現される。
The recognition unit 145 and the attitude control unit 146 shown in FIG.
Are implemented as part of the functions of the CPU 130, ROM 131, RAM 132, and the like.

【0037】認識部145は、追尾ボタン117からの
ユーザの指示に応答して能動化され、可動式カメラ11
が取得した第1画像データD1の中から、立体チャート
2の画像を認識し、第1画像データD1における立体チ
ャート2の画像を追尾するための、追尾データDFを作
成する。
The recognition unit 145 is activated in response to the user's instruction from the tracking button 117, and the movable camera 11 is activated.
The tracking data DF for recognizing the image of the stereo chart 2 from the acquired first image data D1 and tracking the image of the stereo chart 2 in the first image data D1 is created.

【0038】姿勢制御部146は、手動モードにおいて
被写体用カメラ13から受信したユーザの指示に基づ
き、姿勢装置113を制御する。追尾ボタン117が押
下され、自動追尾モードに変更された後においては、後
述の処理によって、立体チャート2の像が2次元受光素
子111上に常に結像されるように、姿勢装置113は
制御される。
The posture control unit 146 controls the posture device 113 based on the user's instruction received from the subject camera 13 in the manual mode. After the tracking button 117 is pressed and the mode is changed to the automatic tracking mode, the attitude device 113 is controlled by the processing described later so that the image of the stereo chart 2 is always formed on the two-dimensional light receiving element 111. It

【0039】CPU130はさらに、後述する処理によ
って図7の回転角データDRを作成する機能をも有す
る。
The CPU 130 also has a function of creating the rotation angle data DR shown in FIG. 7 by the processing described later.

【0040】また、被写体用カメラ13のシャッタボタ
ンが押下されると、第1画像データD1と回転角データ
DRとは、通信部124を介して校正用情報処理装置と
しての被写体用カメラ13に送信され、各種演算に用い
られる。すなわち、可動式カメラ11は、被写体用カメ
ラ13のシャッタボタンに連動して第1画像データD1
の取得を行うことができるよう制御されている。
When the shutter button of the subject camera 13 is pressed, the first image data D1 and the rotation angle data DR are transmitted to the subject camera 13 as the calibration information processing device via the communication section 124. And is used for various calculations. That is, the movable camera 11 works in conjunction with the shutter button of the subject camera 13 to generate the first image data D1.
Is controlled so that the acquisition of

【0041】<自動追尾の原理>図8は、可動式カメラ
11における自動追尾動作の詳細を示す流れ図である。
まず、手動モードにおいて可動式カメラ11の画角に立
体チャート2のマーカ201が入るように調整し(ステ
ップS11)、追尾ボタン117を押下して(ステップ
S12)自動追尾モードにモードを変更する。
<Principle of Automatic Tracking> FIG. 8 is a flowchart showing details of the automatic tracking operation in the movable camera 11.
First, in the manual mode, the angle of view of the movable camera 11 is adjusted so that the marker 201 of the three-dimensional chart 2 is included (step S11), and the tracking button 117 is pressed (step S12) to change the mode to the automatic tracking mode.

【0042】次に、可動式カメラ11が第1画像データ
D1を取得し(ステップS13)、認識部145が画像
認識により立体チャート2のマーカ201の撮影範囲の
位置を検出して(ステップS14)、直前の撮影範囲内
の位置と比較することにより、変動量と方向とを求め
て、追尾データDFを生成する(ステップS15)。
Next, the movable camera 11 acquires the first image data D1 (step S13), and the recognition unit 145 detects the position of the photographing range of the marker 201 of the three-dimensional chart 2 by image recognition (step S14). , By comparing with the position in the immediately preceding shooting range, the variation amount and the direction are obtained, and the tracking data DF is generated (step S15).

【0043】さらに、姿勢制御部146が追尾データD
Fに基づいて姿勢装置113を立体チャート2のマーカ
201が画角の中央に撮影されるように制御する(ステ
ップS16)。そして、さらにステップS13からの処
理を繰り返し、新たな第1画像データD1の取得を行
う。
Further, the attitude control unit 146 causes the tracking data D
Based on F, the posture device 113 is controlled so that the marker 201 of the three-dimensional chart 2 is photographed at the center of the angle of view (step S16). Then, the processing from step S13 is further repeated to acquire new first image data D1.

【0044】これにより、可動式カメラ11が立体チャ
ート2の画像を第1画像データD1として取得すること
ができる。さらに、可動式カメラ11が移動した場合で
あっても可動式カメラ11が立体チャート2を撮影可能
となるように姿勢装置113を制御することができ、後
述の処理に必要な立体チャート2が常に画角の中央に撮
影されている第1画像データD1を、ユーザが意識する
ことなく撮影することができる。
As a result, the movable camera 11 can acquire the image of the three-dimensional chart 2 as the first image data D1. Further, even when the movable camera 11 moves, the attitude device 113 can be controlled so that the movable camera 11 can capture the stereo chart 2, and the stereo chart 2 required for the processing described later is always displayed. The first image data D1 photographed at the center of the angle of view can be photographed without the user's awareness.

【0045】<被写体用カメラ13の概要>図9は、ハ
ードウエア構成から見た、被写体用カメラ13の情報処
理機能の要部を示す図であり、図10は、被写体用カメ
ラ13におけるデータの流れを示す図である。被写体用
カメラ13はCPU150、RAM151およびROM
152を備えており、後述する被写体用カメラ13の各
種の動作を実現するプログラム152aは、ROM15
2に記憶されている。また、シャッタボタン161、フ
ラッシュ162、背面に設置されたモニタ用カラーディ
スプレイ163、および操作ボタン類164などの要素
も、CPU150と電気的に結合している。
<Outline of Subject Camera 13> FIG. 9 is a diagram showing the main part of the information processing function of the subject camera 13 as viewed from the hardware configuration. FIG. 10 shows the data in the subject camera 13. It is a figure which shows a flow. The subject camera 13 includes a CPU 150, a RAM 151 and a ROM.
The program 152a, which is provided with 152 and realizes various operations of the subject camera 13 described later, is stored in the ROM 15
It is stored in 2. Elements such as the shutter button 161, the flash 162, the monitor color display 163 installed on the rear surface, and the operation buttons 164 are also electrically coupled to the CPU 150.

【0046】図9および図10に示すように、レンズユ
ニット155を介して被写体30から入射した光は、画
素ごとにRGBのいずれかのフィルタが付設された、C
CDアレイなどの2次元受光素子156上に結像し、2
次元受光素子156によってRGB3原色成分ごとに光
電変換される。これによって得られた信号が、A/D変
換部157によってデジタル画像信号に変換され、画像
補正部158においてホワイトバランス補正やγ補正等
を受ける。補正後の画像信号は画像メモリ159に記憶
される。シャッタボタン161が押下されることにより
撮影は実行され、画像メモリ159に記憶された画像信
号が、第2画像データD2としてRAM151に保存さ
れる。
As shown in FIGS. 9 and 10, the light incident from the subject 30 via the lens unit 155 is provided with a filter of any of RGB for each pixel, C
An image is formed on the two-dimensional light receiving element 156 such as a CD array, and 2
The three-dimensional light receiving element 156 photoelectrically converts each of the RGB three primary color components. The signal thus obtained is converted into a digital image signal by the A / D conversion unit 157, and the image correction unit 158 receives white balance correction, γ correction and the like. The corrected image signal is stored in the image memory 159. Photographing is executed by pressing the shutter button 161, and the image signal stored in the image memory 159 is stored in the RAM 151 as the second image data D2.

【0047】通信部167は、通信デバイス168を介
して、可動式カメラ11との間で、可動式カメラ11の
各部の制御信号や、取得した画像データ等の各種情報を
送受信する。たとえば、手動モードにおいて、ユーザが
操作ボタン類164の一部を操作することにより得られ
た信号を、可動式カメラ11に送信することにより、可
動式カメラ11の姿勢装置113を、ユーザの手動によ
って操作することが可能となる。また、被写体用カメラ
13のシャッタボタン161の押下に応答して、被写体
用カメラ13と可動式カメラ11の同時撮影を行うこと
も可能となる。
The communication unit 167 transmits / receives to / from the movable camera 11 various control information such as control signals of each unit of the movable camera 11 and acquired image data via the communication device 168. For example, in the manual mode, by transmitting a signal obtained by the user operating a part of the operation buttons 164 to the movable camera 11, the attitude device 113 of the movable camera 11 is manually operated by the user. It becomes possible to operate. In addition, in response to the pressing of the shutter button 161 of the subject camera 13, it is possible to perform the simultaneous shooting of the subject camera 13 and the movable camera 11.

【0048】通信デバイス168は、可動式カメラ11
と赤外線通信を行うためのIRDA(Infrared Data As
sociation)インターフェイスとしての赤外線素子であ
り、通信部167によって駆動される。
The communication device 168 is the movable camera 11
IRDA (Infrared Data As)
Infrared element as an interface, which is driven by the communication unit 167.

【0049】カードスロット165は被写体用カメラ1
3にメモリカード166を装着するために使用され、こ
のメモリカード166には撮影した画像データ等を保存
可能である。
The card slot 165 is used for the subject camera 1.
3 is used to mount the memory card 166, and the memory card 166 can store photographed image data and the like.

【0050】図10の抽出部171、演算部173およ
び表示制御部174は、図9のCPU150、RAM1
51、ROM152等により実現される機能である。
The extraction unit 171, the calculation unit 173, and the display control unit 174 of FIG. 10 are the CPU 150 and the RAM 1 of FIG.
51, ROM 152 and the like.

【0051】抽出部171は、通信部167を介して可
動式カメラ11から受信した第1画像データD1から、
立体チャート2上の4点の抽出を行い、第1抽出点デー
タDP1を作成する。また、抽出部171は、同様に、
被写体用カメラ13により取得された第2画像データD
2から立体チャート2上の4点の抽出を行い、第2抽出
点データDP2を作成する。
The extraction unit 171 extracts from the first image data D1 received from the movable camera 11 via the communication unit 167,
The four points on the three-dimensional chart 2 are extracted to create the first extraction point data DP1. In addition, the extraction unit 171 similarly
Second image data D acquired by the subject camera 13
The second extraction point data DP2 is created by extracting the four points on the three-dimensional chart 2 from 2.

【0052】演算部173は、第1抽出点データDP
1、回転角データDR、および第2抽出点データDP2
から、可動式カメラ11と被写体用カメラ13との相対
的な位置と姿勢を求め、相対位置データDPSを作成す
る。さらに、第1抽出点データDP1、回転角データD
R、および相対位置データDPSから、被写体用カメラ
13と立体チャート2との相対的な位置と姿勢を求め、
撮影データDMを作成する。撮影データDMは、RAM
151に保存される。
The calculation unit 173 calculates the first extraction point data DP.
1, rotation angle data DR, and second extraction point data DP2
From the above, the relative position and orientation of the movable camera 11 and the subject camera 13 are obtained, and the relative position data DPS is created. Furthermore, the first extraction point data DP1 and the rotation angle data D
From R and the relative position data DPS, the relative position and orientation between the subject camera 13 and the three-dimensional chart 2 is obtained,
Imaging data DM is created. Image data DM is RAM
It is stored in 151.

【0053】表示制御部174は、操作ボタン類164
からのユーザの指示に基づいて、第2画像データD2
と、撮影データDMとを、RAM151から取得して、
メモリカード166に保存する。また、表示制御部17
4は、各種データに必要な処理を行ってディスプレイ1
63に表示させたり、メモリカード166に保存されて
いる各種データをRAM151上に読み出したりする機
能をも有する。
The display control unit 174 has operation buttons 164.
The second image data D2 based on the user's instruction from
And the shooting data DM are acquired from the RAM 151,
Save in memory card 166. In addition, the display control unit 17
4 displays the data by performing necessary processing on various data.
It also has a function of displaying on 63 and reading various data stored in the memory card 166 onto the RAM 151.

【0054】<カメラ校正の原理>任意の方向から被写
体用カメラ13で被写体30を撮影して画像を得たとき
には、その撮影を行った際の、立体チャート2またはそ
れに固定された絶対座標系に対する、被写体用カメラ1
3の相対的な位置および姿勢を、外部パラメータとして
特定しておく必要がある。それは、複数の方向からの撮
影で得た各画像を組み合わせて被写体30の3次元画像
モデルを構築するあたっては、各画像の空間的相互関係
が必要だからである。
<Principle of Camera Calibration> When a subject 30 is photographed by the subject camera 13 from an arbitrary direction to obtain an image, the three-dimensional chart 2 or the absolute coordinate system fixed thereto is taken when the photograph is taken. , Subject camera 1
It is necessary to specify the relative position and orientation of No. 3 as external parameters. This is because the spatial mutual relation between the images is required to construct the three-dimensional image model of the subject 30 by combining the images obtained by photographing from a plurality of directions.

【0055】しかしながら、実際に被写体30を撮影す
るときには、被写体用カメラ13の画角内に立体チャー
ト2を入れることが困難な場合がある。そこで、 X0:立体チャート2に固定された座標系(絶対座標
系); X1:可動式カメラ11に固定された座標系(第1ロー
カル座標系); X2:被写体用カメラ13に固定された座標系(第2ロ
ーカル座標系); τ01:第1ローカル座標系X1から絶対座標系X0への変
換関係; τ02:第2ローカル座標系X2から絶対座標系X0への変
換関係; τ12:第2ローカル座標系X2から第1ローカル座標系
1への変換関係;とするときに成り立つ、次の関係を
利用する。(τ01、τ02、τ12および後述のQ0、Q2
図示していない) τ02 = τ01・τ12 ・・・ (数1) 変換関係τ01、τ12が既知であれば、変換関係τ02が求
められる。変換関係τ 02が求められれば、2次元画像を
撮影した被写体用カメラ13の第2ローカル座標系X2
における位置・姿勢は、この変換関係τ02を作用させる
ことにより、絶対座標系X0における位置・姿勢として
求められる。絶対座標系における被写体用カメラ13の
位置・姿勢を表す行列をQ0、第2ローカル座標系X2
おける被写体用カメラ13の位置・姿勢を表す行列をQ
2とすると、 Q0 = {τ01・τ12}Q2 = τ02・Q2 ・・・ (数2) のように求まることになる。
However, the subject 30 is actually photographed.
When shooting, the three-dimensional char is placed within the angle of view of the subject camera 13.
It may be difficult to insert G2. Therefore, X0: Coordinate system fixed to 3D chart 2 (absolute coordinates
system); X1: Coordinate system fixed to the movable camera 11 (first row
Cull coordinate system); X2: The coordinate system fixed to the subject camera 13 (second
Local coordinate system); τ01: First local coordinate system X1To absolute coordinate system X0Change to
Conversion relationship; τ02: Second local coordinate system X2To absolute coordinate system X0Change to
Conversion relationship; τ12: Second local coordinate system X2To the first local coordinate system
X1The following relation, which holds when
To use. (Τ01, Τ02, Τ12And Q described later0, Q2Is
(Not shown) τ02   = τ01・ Τ12  ... (Equation 1) Transformation relation τ01, Τ12Is known, the transformation relation τ02Is wanted
Can be Transformation relation τ 02Is calculated, the two-dimensional image
Second local coordinate system X of the camera 13 for the photographed subject2
The position / orientation at02To act
By this, the absolute coordinate system X0As the position and posture in
Desired. Of the subject camera 13 in the absolute coordinate system
Q is the matrix that represents the position and orientation0, The second local coordinate system X2To
Q is the matrix that represents the position and orientation of the subject camera 13 in
2Then,     Q0   = {Τ01・ Τ12} Q2 = τ02・ Q2  ... (Equation 2) It will be obtained like.

【0056】したがって、被写体30に対して移動しつ
つ被写体用カメラ13で被写体30を撮影するつど、そ
の撮影に対応する変換関係τ02を求めて、これを撮影画
像に付随させれば、複数の方向で撮影した画像をX0
組み合わせて被写体30の3次元画像モデルを得ること
ができる。
Therefore, each time the subject camera 13 photographs the subject 30 while moving with respect to the subject 30, a conversion relation τ 02 corresponding to the photographing is obtained, and if this is attached to the photographed image, a plurality of images are obtained. The three-dimensional image model of the subject 30 can be obtained by combining the images captured in the directions with X 0 .

【0057】この原理を実現する具体的プロセス(詳細
は後述)は、第1サブプロセスと第2サブプロセスとに
大別される。
Specific processes (details will be described later) for realizing this principle are roughly classified into a first sub-process and a second sub-process.

【0058】※第1サブプロセス:これは、2つのカメ
ラ座標系間の変換関係τ12を特定するための、サブプロ
セスである。
* First sub-process: This is a sub-process for specifying the conversion relation τ 12 between two camera coordinate systems.

【0059】まず、立体チャート2を可動式カメラ11
と被写体用カメラ13とで同時に撮影し、それらの撮影
結果を用いて、それぞれのカメラの外部パラメータ、す
なわち絶対座標系X0でのそれぞれのカメラの位置およ
び姿勢を求める。
First, the three-dimensional chart 2 is moved to the movable camera 11
And the camera 13 for the subject are simultaneously photographed, and the photographed results are used to determine the external parameter of each camera, that is, the position and orientation of each camera in the absolute coordinate system X 0 .

【0060】これは、その状態での変換関係τ02、 τ
01を特定することに対応する。そして、数1から得られ
る、 τ12 = (τ01-1 τ02 ・・・ (数3) の関係から、第1ローカル座標系X1と第2ローカル座
標系X2との変換関係τ12を得る。
This is the conversion relation τ 02 , τ in that state.
Corresponds to specifying 01 . Then, from the relation of τ 12 = (τ 01 ) −1 τ 02 (Equation 3) obtained from the equation 1 , the conversion relation τ between the first local coordinate system X 1 and the second local coordinate system X 2 Get twelve .

【0061】また、可動式カメラ11の回転角θ,φの
値は、それぞれ角度センサ126p、126tによって
検出される既知の値であるから、変換関係τ12から回転
角依存部分を分離して、可動式カメラ11が基準姿勢
(θ = 0、φ = 0)にあるときの基準変換関係τ
12(0,0)を求めることができる。この基準変換関係τ
12(0,0)は、カメラシステム10を移動させたり、可動
式カメラ11を回転させても不変なオペレータである。
基準変換関係τ12(0,0)が定まると、変換関係τ12は、
回転角θ,φを変数として持つことになる。
Since the values of the rotation angles θ and φ of the movable camera 11 are known values detected by the angle sensors 126p and 126t, respectively, the rotation angle dependent portion is separated from the conversion relation τ 12 . Reference conversion relation τ when the movable camera 11 is in the reference posture (θ = 0, φ = 0)
12 (0,0) can be obtained. This reference conversion relation τ
12 (0,0) is an operator that does not change even when the camera system 10 is moved or the movable camera 11 is rotated.
When the standard conversion relation τ 12 (0,0) is determined, the conversion relation τ 12 is
It has the rotation angles θ and φ as variables.

【0062】このようにして得られた変換関係τ12は、
絶対座標系X0におけるカメラシステム10全体の位置
や姿勢に依存しないので、カメラシステム10を他の場
所に移動させてもそこでの変換演算に利用できる。
The conversion relation τ 12 obtained in this way is
Since it does not depend on the position or orientation of the entire camera system 10 in the absolute coordinate system X 0, even if the camera system 10 is moved to another place, it can be used for conversion calculation there.

【0063】※第2サブプロセス:これは、第1サブプ
ロセスの結果を使用しつつ、被写体30を複数の方向か
ら撮影して画像データを得るとともに、それらの画像デ
ータのそれぞれにつき、第2ローカル座標系X2から絶
対座標系X0への変換関係τ02に相当する情報を付加し
ていくサブプロセスである。
* Second sub-process: This is to use the result of the first sub-process while photographing the subject 30 from a plurality of directions to obtain image data, and for each of those image data, the second local process. This is a sub-process of adding information corresponding to the conversion relationship τ 02 from the coordinate system X 2 to the absolute coordinate system X 0 .

【0064】第2サブプロセスでは、被写体用カメラ1
3で被写体30を撮影すると同時に、可動式カメラ11
で立体チャート2を撮影する。可動式カメラ11で撮影
した立体チャート2の画像データから、第1ローカル座
標系X1から絶対座標系X0への変換関係τ01が特定され
る。
In the second sub-process, the subject camera 1
At the same time when the subject 30 is photographed with the movable camera 11
Take a picture of the stereo chart 2. The conversion relationship τ 01 from the first local coordinate system X 1 to the absolute coordinate system X 0 is specified from the image data of the three-dimensional chart 2 taken by the movable camera 11.

【0065】一方、第1サブプロセスによって、第2ロ
ーカル座標系X2から第1ローカル座標系X1への変換関
係τ12の回転角依存性は特定されているから、被写体3
0を撮影するときの回転角θ,φの値から、変換関係τ
12の具体的内容が特定される。したがって、変換関係τ
12およびτ01を合成した変換関係τ02を、数4から得る
ことができる。
On the other hand, the rotation angle dependence of the conversion relation τ 12 from the second local coordinate system X 2 to the first local coordinate system X 1 is specified by the first sub-process, so that the object 3
From the values of rotation angles θ and φ when shooting 0, the conversion relation τ
Twelve specific contents are identified. Therefore, the transformation relation τ
The conversion relation τ 02 obtained by combining 12 and τ 01 can be obtained from the equation 4.

【0066】τ02 = τ01・τ12 ・・・ (数4) そして、この変換関係τ02を表現する情報を、被写体用
カメラ13で得た画像に付随させて記憶する。
Τ 02 = τ 01 · τ 12 (Equation 4) Then, the information expressing this conversion relation τ 02 is stored together with the image obtained by the subject camera 13.

【0067】またこの第2サブプロセスは、複数の方向
から被写体30を撮影するつど実行され、それによっ
て、3次元画像モデルを得るための一群の情報が得られ
ることになる。
The second sub-process is executed each time the subject 30 is photographed from a plurality of directions, whereby a group of information for obtaining the three-dimensional image model is obtained.

【0068】<撮影および校正プロセス>図11および
図12は、上記の原理にしたがった撮影および校正プロ
セスを示す図である。このうちステップS1からステッ
プS5までは、可動式カメラ11と被写体用カメラ13
とで立体チャート2を同時に撮影することによって、両
者の相対位置・姿勢を求める、上記第1サブプロセスに
対応する。また、ステップS6以後が、実際に被写体3
0の撮影を行う上記第2サブプロセスに対応する。
<Photographing and Calibration Process> FIGS. 11 and 12 are diagrams showing a photographing and calibration process according to the above principle. Of these, from step S1 to step S5, the movable camera 11 and the subject camera 13
This corresponds to the first sub-process in which the relative position / orientation of the three-dimensional chart 2 is obtained by simultaneously photographing the three-dimensional chart 2 with. Further, after step S6, the subject 3 is actually
This corresponds to the second sub-process of performing 0 photographing.

【0069】(1) カメラ間の相対位置の決定(第1
サブプロセス):まず、可動式カメラ11と被写体用カ
メラ13とのそれぞれが、自身で保持している内部パラ
メータの情報を読み出す(ステップS1)。なお、内部
パラメータは受光素子の各画素の視線方向を特定するた
めのパラメータであり、レンズシステムの焦点距離、レ
ンズ光軸と受光素子の位置関係、画素ピッチなどであ
る。これらのパラメータは予め校正されている。
(1) Determination of relative position between cameras (first
(Sub-process): First, each of the movable camera 11 and the subject camera 13 reads out internal parameter information held by itself (step S1). The internal parameters are parameters for specifying the line-of-sight direction of each pixel of the light receiving element, and are the focal length of the lens system, the positional relationship between the lens optical axis and the light receiving element, the pixel pitch, and the like. These parameters are calibrated in advance.

【0070】この後、ユーザはカメラシステム10を手
に持ち、被写体用カメラ13を立体チャート2に向け
る。次に、この姿勢を保ちながら、立体チャート2が可
動式カメラ11の画角に入るように、レンズユニット1
10の回転角度を手動で指定する(ステップS2)。こ
の動作の際には、可動式カメラ13の出力画像がディス
プレイ163にライブ表示されており、これによってユ
ーザは、立体チャート2が可動式カメラ13の画角に入
ったかどうかを視覚的に確認できる。
After this, the user holds the camera system 10 in his hand and points the camera 13 for the subject at the three-dimensional chart 2. Next, while maintaining this posture, the lens unit 1 is adjusted so that the three-dimensional chart 2 enters the angle of view of the movable camera 11.
The rotation angle of 10 is manually specified (step S2). During this operation, the output image of the movable camera 13 is displayed live on the display 163, which allows the user to visually confirm whether or not the three-dimensional chart 2 has entered the angle of view of the movable camera 13. .

【0071】立体チャート2が可動式カメラ11の画角
の中に入った後、ユーザが追尾ボタン117を押すと、
自動追尾プログラムが能動化される。姿勢制御部146
から姿勢装置113に駆動出力が与えられて、マーカ2
01を追尾しつつ、立体チャート2が常に画角の中央に
くるように、可動式カメラ11が自動制御されるように
なる(図8のフローチャート参照)。ここでユーザがシ
ャッタボタン161を押すと、可動式カメラ11におい
て第1画像データD1が、被写体用カメラ13において
第2画像データD2が得られる(ステップS3)。図1
3に可動式カメラ11と被写体用カメラ13とで同時に
得られた画像データの例を示す。このうち、図13
(a)が可動式カメラ11の撮像画像例、図13(b)
が被写体用カメラ13の撮像画像例である。図13
(a)、(b)のいずれにおいても、画像平面をxy直
交座標系で定義された平面とし、xy平面に垂直で、画
像より手前に向かう方向をz軸としている。なお、第i
層という呼び方については、後述する図19での定義に
準じている。
When the user presses the tracking button 117 after the three-dimensional chart 2 enters the angle of view of the movable camera 11,
The automatic tracking program is activated. Posture control unit 146
The driving output is given from the posture device 113 to the marker 2
While tracking 01, the movable camera 11 is automatically controlled so that the three-dimensional chart 2 is always in the center of the angle of view (see the flowchart of FIG. 8). When the user presses the shutter button 161, the movable camera 11 obtains the first image data D1 and the subject camera 13 obtains the second image data D2 (step S3). Figure 1
3 shows an example of image data obtained by the movable camera 11 and the subject camera 13 at the same time. Of these, Figure 13
13A is an example of a captured image of the movable camera 11, FIG.
Is an example of a captured image of the camera 13 for a subject. FIG.
In both (a) and (b), the image plane is a plane defined by the xy orthogonal coordinate system, and the direction perpendicular to the xy plane and facing the image is the z axis. The i-th
The term “layer” is based on the definition in FIG. 19 described later.

【0072】撮影が完了すると、第1画像データD1お
よび姿勢装置113の回転角データDRが、通信によっ
て可動式カメラ11から被写体用カメラ13に送られ、
図13(a)、(b)で共通の4つの格子点C1〜C4
の2次元座標値をそれぞれの画像平面上で特定し(第1
抽出点データDP1および第2抽出点データDP2を作
成することに相当する。)、それらの2次元座標値を前
述の多点アルゴリズムで処理することによって、第1画
像データD1および立体チャート2を撮影した第2画像
データD2に基づいて、可動式カメラ11、および被写
体用カメラ13の撮影位置と立体チャート2との相対位
置および相対姿勢に依存するそれぞれのカメラの外部パ
ラメータを計算することができ、絶対座標系におけるそ
れぞれのカメラの位置と姿勢を求めることができる(ス
テップS4)。なお、この計算に必要な情報が得られな
い場合には、ステップS3に戻って立体チャート2の撮
影を繰り返す。
When the photographing is completed, the first image data D1 and the rotation angle data DR of the attitude device 113 are sent from the movable camera 11 to the object camera 13 by communication,
Four grid points C1 to C4 common to FIGS. 13A and 13B
The two-dimensional coordinate value of each is specified on each image plane (first
This corresponds to creating the extraction point data DP1 and the second extraction point data DP2. ), The two-dimensional coordinate values thereof are processed by the above-described multi-point algorithm to obtain the movable camera 11 and the camera for the subject based on the first image data D1 and the second image data D2 obtained by capturing the three-dimensional chart 2. The external parameters of each camera depending on the relative position and relative attitude between the photographing position 13 and the three-dimensional chart 2 can be calculated, and the position and attitude of each camera in the absolute coordinate system can be obtained (step S4). ). If the information necessary for this calculation cannot be obtained, the process returns to step S3 and the photographing of the three-dimensional chart 2 is repeated.

【0073】この外部パラメータの算出は、 1) カメラの内部パラメータ、および 2) 絶対座標系に固定された同一平面上にある4点以上
の点の3次元座標値、が既知であり、かつ、 3) これらの点に対応する撮影画像上の点の2次元座標
値が算出可能、という条件の下で行うことができる。
The external parameters are calculated by 1) the internal parameters of the camera, and 2) the three-dimensional coordinate values of four or more points on the same plane fixed in the absolute coordinate system, and 3) It can be performed under the condition that the two-dimensional coordinate values of the points on the captured image corresponding to these points can be calculated.

【0074】次に、ステップS4で得られた可動式カメ
ラ11および被写体用カメラ13のそれぞれの外部パラ
メータと、可動式カメラ11の回転角データDRとか
ら、可動式カメラ11と被写体用カメラ13との相対位
置・姿勢が求められる(ステップS5)。
Next, from the external parameters of the movable camera 11 and the subject camera 13 obtained in step S4 and the rotation angle data DR of the movable camera 11, the movable camera 11 and the subject camera 13 are selected. Relative position / orientation is obtained (step S5).

【0075】ステップS5において用いられる座標変換
の様子を図14に示す。図14における各座標系などの
定義は以下の通りである。
FIG. 14 shows a state of coordinate conversion used in step S5. The definition of each coordinate system in FIG. 14 is as follows.

【0076】X0 …立体チャート2に対して相対的に固
定された3次元直交座標系(絶対座標系); θ …可動式カメラ11の旋回角; φ …可動式カメラ11の俯仰角; X1(θ,φ) …可動式カメラ11からの観測空間に相当
する3次元直交座標系(第1ローカル座標系); X1h …角度θ,φの双方がゼロの場合の第1ローカル座
標系; X2 …被写体用カメラ13からの観測空間に相当する3
次元直交座標系(第2ローカル座標系)。
X 0 ... Three-dimensional orthogonal coordinate system (absolute coordinate system) fixed relative to the three-dimensional chart 2; θ ... Rotation angle of the movable camera 11; φ ... Depression angle of the movable camera 11; X 1 (θ, φ) ... 3D orthogonal coordinate system (first local coordinate system) corresponding to the observation space from the movable camera 11; X 1h ... 1st local coordinate system when both angles θ and φ are zero ; X 2 ... 3 corresponding to the observation space from the subject camera 13
Dimensional Cartesian coordinate system (second local coordinate system).

【0077】ステップS4によって可動式カメラ11お
よび被写体用カメラ13のそれぞれの外部パラメータが
得られるため、絶対座標系X0 における第1ローカル座
標系X 1(θ,φ)の位置および姿勢が決定され、したがっ
て第1ローカル座標系X1(θ,φ)から絶対座標系X0 への
座標変換が、回転行列RC1、および平行移動ベクトルTC1
を用いて、 X0 = RC1X1(θ、φ)+TC1 ・・・ (数5) のように定まる。同様に、第2ローカル座標系X2から絶
対座標系X0 への座標変換が、回転行列RC2 、および平
行移動ベクトルTC2を用いて、 X0 = RC2X2+TC2 ・・・ (数6) のように定まる。これら数5、数6がそれぞれ、既述し
た変換関係τ01、τ02に相当する。
In step S4, the movable camera 11 and
And the external parameters of the subject camera 13 are
Absolute coordinate system X0 First Local Zodiac
Standard X 1The position and orientation of (θ, φ) are determined and
1st local coordinate system X1Absolute coordinate system X from (θ, φ)0 To
The coordinate transformation is the rotation matrix RC1, And the translation vector TC1
Using, X0 = RC1X1(Θ, φ) + TC1  ... (Equation 5) It is decided like. Similarly, the second local coordinate system X2Ridiculous
Coordinate system X0 The coordinate transformation to is the rotation matrix RC2 , And Taira
Line movement vector TC2Using, X0 = RC2X2+ TC2  (Equation 6) It is decided like. These equations 5 and 6 have already been described.
Transformation relation τ01, Τ02Equivalent to.

【0078】回転角θ,φがゼロでないことによる回転
変換は、可動式カメラ11の姿勢装置113が有する回
転機構の設計データから、回転行列RX(θ,φ)および平
行移動ベクトルTX(θ,φ)を用いて、 X1 = RX(θ,φ)X1h+TX(θ,φ) ・・・ (数7) の形式で得られる。第2ローカル座標系X2から、回転角
θ,φがともにゼロのときの第1ローカル座標系X1hへの
座標変換が、回転行列Rhおよび平行移動ベクトルThを用
いて、 X1h= RhX2+Th ・・・ (数8) と表されるとすると、数8が、変換関係τ12(0,0)に相
当する。また、数8を数7に代入すると、 X1 = Rm(θ,φ)X2+Tm(θ,φ) ・・・ (数9) が得られる。ただし、 Rm(θ,φ) = RX(θ,φ)Rh ・・・ (数10) Tm(θ,φ) = RX(θ,φ)Th +TX(θ,φ) ・・・ (数11) である。数9ないし数11が、変換関係τ12 に相当す
る。
The rotation conversion due to the fact that the rotation angles θ and φ are not zero is based on the design data of the rotation mechanism of the attitude device 113 of the movable camera 11 based on the rotation matrix R X (θ, φ) and the translation vector T X ( θ, φ) is used to obtain X 1 = R X (θ, φ) X 1h + T X (θ, φ) (Equation 7). The coordinate transformation from the second local coordinate system X 2 to the first local coordinate system X 1h when the rotation angles θ and φ are both zero is X 1h = using the rotation matrix R h and the translation vector T h. If it is expressed as R h X 2 + T h (Equation 8), Equation 8 corresponds to the conversion relation τ 12 (0,0). Further, by substituting the equation 8 into the equation 7, X 1 = R m (θ, φ) X 2 + T m (θ, φ) (Equation 9) is obtained. However, R m (θ, φ) = R X (θ, φ) R h (Equation 10) T m (θ, φ) = R X (θ, φ) T h + T X (θ, φ) ) (Equation 11) Expressions 9 to 11 correspond to the conversion relationship τ 12 .

【0079】したがって、立体チャート2上を可動式カ
メラ11と被写体用カメラ13とで同時に撮影したそれ
ぞれの画像から、第1抽出点データDP1と第2抽出点
データDP2とを求め、さらにそれぞれのカメラの外部
パラメータを求めれば、既述した変換関係τ12 に相当
するものとしての数9ないし数11の変換式が特定され
る。これが図10の相対位置データDPSである。な
お、可動式カメラ11の外部パラメータを外部パラメー
タPM1、立体チャートを撮影したときの被写体用カメ
ラ13の外部パラメータを外部パラメータPM2とす
る。また、角度θ、φの具体的な値は角度センサ126
p、126tによって回転角データDRとして検出され
る。
Therefore, the first extraction point data DP1 and the second extraction point data DP2 are obtained from the respective images taken by the movable camera 11 and the subject camera 13 on the three-dimensional chart 2 at the same time. If the external parameter of is obtained, the conversion formulas of the formulas 9 to 11 corresponding to the conversion relation τ 12 described above are specified. This is the relative position data DPS of FIG. It should be noted that the external parameters of the movable camera 11 are external parameters PM1, and the external parameters of the subject camera 13 when the stereo chart is captured are external parameters PM2. Further, specific values of the angles θ and φ are given by the angle sensor 126.
The rotation angle data DR is detected by p and 126t.

【0080】これにより、外部パラメータPM1、外部
パラメータPM2および回転角データDRに基づいて、
可動式カメラ11の基準姿勢における撮影位置と被写体
用カメラ13の撮影位置との相対位置および相対姿勢に
依存する相対位置データDPSを計算することができ、
これを用いて後述の処理(第2サブプロセス)を行うこ
とによって、被写体用カメラ13の校正を行うことがで
きる。
As a result, based on the external parameter PM1, the external parameter PM2 and the rotation angle data DR,
The relative position data DPS depending on the relative position and the relative position between the photographing position of the movable camera 11 in the reference posture and the photographing position of the subject camera 13 can be calculated,
The subject camera 13 can be calibrated by performing a process (second sub-process) described later using this.

【0081】(2) 被写体の撮影とカメラの校正(第
2サブプロセス):ステップS5が終了すると、被写体
30の撮影を行うため、カメラシステム10を適宜移動
させる。このとき、可動式カメラ11は、自動追尾によ
り常に立体チャート2を画角に捉えている(ステップS
6)。
(2) Imaging of subject and calibration of camera (second sub-process): When step S5 is completed, the camera system 10 is appropriately moved to capture the subject 30. At this time, the movable camera 11 always captures the three-dimensional chart 2 at the angle of view by automatic tracking (step S).
6).

【0082】被写体用カメラ13によって被写体30
が、可動式カメラ11によって立体チャート2がそれぞ
れ撮影可能な状態になったところで、被写体用カメラ1
3のシャッタボタン161を押下すると、それぞれのカ
メラで同時に撮影が行われる(ステップS7)。図15
に、可動式カメラ11および被写体用カメラ13で得ら
れた画像例を示す。図15(a)が可動式カメラ11の
撮像で得られる画像例であり、図15(b)が被写体用
カメラ13の撮像画像例である(楕円によって被写体3
0の画像を単純化してある)。座標軸の取り方について
は図13と同様である。図15(a)の状態では、立体
チャート2から可動式カメラ11までの距離や方向が図
13(a)とは異なっているため、可動式カメラ11は
立体チャート2のうち図13(a)とは異なる部分を撮
影している。しかしながら、可動式カメラ11がマーカ
201を自動追尾していることによって、マーカ201
は常に可動式カメラ11の画角内の同一位置に写ってい
る。
The object 30 is taken by the object camera 13.
However, when the three-dimensional chart 2 is ready to be photographed by the movable camera 11, the subject camera 1
When the shutter button 161 of No. 3 is pressed, images are simultaneously taken by the respective cameras (step S7). Figure 15
An example of an image obtained by the movable camera 11 and the subject camera 13 is shown in FIG. FIG. 15A is an example of an image obtained by capturing an image with the movable camera 11, and FIG. 15B is an example of an image captured by the camera 13 for a subject (the subject 3 is represented by an ellipse.
0 image is simplified). The method of taking coordinate axes is the same as in FIG. In the state of FIG. 15A, the distance and the direction from the three-dimensional chart 2 to the movable camera 11 are different from those in FIG. 13A, so that the movable camera 11 is shown in FIG. I am shooting a different part from. However, since the movable camera 11 automatically tracks the marker 201, the marker 201
Are always in the same position within the angle of view of the movable camera 11.

【0083】このとき、可動式カメラ11で得られた画
像から、ステップS4と同様に、可動式カメラ11の絶
対座標系X0における位置および姿勢(外部パラメータP
M1)が求められる(ステップS8)。
At this time, from the image obtained by the movable camera 11, the position and orientation of the movable camera 11 in the absolute coordinate system X 0 (external parameter P, as in step S4).
M1) is obtained (step S8).

【0084】この可動式カメラ11の外部パラメータP
M1と、ステップS5で求めた相対位置データDPS、
およびステップS7における可動式カメラ11の回転角
θ、φのそれぞれの値θ'、φ'から、被写体用カメラ1
3の、立体チャート2に対する相対位置・姿勢(すなわ
ち被写体用カメラ13の外部パラメータ)が求められる
(ステップS9)。
External parameter P of this movable camera 11
M1 and the relative position data DPS obtained in step S5,
Then, from the respective values θ ′ and φ ′ of the rotation angles θ and φ of the movable camera 11 in step S7, the subject camera 1 is obtained.
The relative position / orientation of 3 with respect to the three-dimensional chart 2 (that is, the external parameter of the subject camera 13) is obtained (step S9).

【0085】上記のステップS9において用いられる座
標変換の様子を、図16に示す。図16において、座標
系X0、X1(θ,φ)、X2などの記号の定義は、図14と共
通である。被写体撮影時の、可動式カメラ11のカメラ
回転角をθ’、φ’とする。
FIG. 16 shows a state of coordinate conversion used in the above step S9. In FIG. 16, symbols such as coordinate systems X 0 , X 1 (θ, φ), and X 2 are defined in common with FIG. 14. The camera rotation angles of the movable camera 11 at the time of photographing a subject are represented by θ ′ and φ ′.

【0086】可動式カメラ11によって得られる立体チ
ャート2の画像を、多点解析アルゴリズムで解析するこ
とにより、絶対座標系X0における可動式カメラ11の位
置と姿勢(すなわち可動式カメラ11の外部パラメータ
PM1)が特定され、それによって可動式カメラ11の
第1ローカル座標系X1(θ’,φ’)との変換関係: X0 = RCP1X1(θ',φ')+TCP1 ・・・ (数12) が定まる。
By analyzing the image of the three-dimensional chart 2 obtained by the movable camera 11 with a multipoint analysis algorithm, the position and orientation of the movable camera 11 in the absolute coordinate system X 0 (that is, the external parameters of the movable camera 11). PM1) is specified, whereby the conversion relationship with the first local coordinate system X 1 (θ ', φ') of the movable camera 11 is X 0 = R CP1 X 1 (θ ', φ') + T CP1 .. (Equation 12) is determined.

【0087】また、第1ローカル座標系X1(θ’,φ’)
と第2ローカル座標系X2との変換関係は、数9ないし数
11によって、 X1(θ',φ') = Rm(θ',φ')X2+Tm(θ',φ') ・・・ (数13) Rm(θ',φ') = RX(θ',φ')Rh ・・・ (数14) Tm(θ',φ') = RX(θ',φ')Th +TX(θ',φ') ・・・ (数15) で与えられる。
Also, the first local coordinate system X 1 (θ ', φ')
The conversion relation between the second local coordinate system X 2 and the second local coordinate system X 2 is X 1 (θ ′, φ ′) = R m (θ ′, φ ′) X 2 + T m (θ ′, φ) ') ・ ・ ・ (Equation 13) R m (θ', φ ') = R X (θ', φ ') R h・ ・ ・ (Equation 14) T m (θ', φ ') = R X ( θ ′, φ ′) T h + T X (θ ′, φ ′) ... (Equation 15)

【0088】よって、数12ないし数15により、第2
ローカル座標系X2で表現された位置および姿勢から、絶
対座標系X0での位置および姿勢に変換する変換関係が、 X0 = RCP1 Rm(θ',φ')X2+RCP1Tm(θ',φ')+TCP1 ・・・ (数16) のように得られる。
Therefore, according to the equations 12 to 15, the second
The conversion relationship for converting the position and orientation expressed in the local coordinate system X 2 to the position and orientation in the absolute coordinate system X 0 is X 0 = R CP1 R m (θ ', φ') X 2 + R CP1 T m (θ ′, φ ′) + T CP1 (16) is obtained.

【0089】数16に現れている諸量のうち、回転行列
RCP1および平行移動ベクトルTCP1は可動式カメラ11に
ついてのものであって、可動式カメラ11の外部パラメ
ータPM1から決定される。また、回転行列Rm(θ',
φ')および平行移動ベクトルTm(θ',φ')は、あらか
じめ特定しておいた関数形Rm(θ,φ)、Tm(θ,φ)に、
角度センサ126p、126tによって検出された角度
値θ',φ'を代入して決定される。
Among the quantities appearing in equation 16, the rotation matrix
R CP1 and the translation vector T CP1 are for the movable camera 11 and are determined from the external parameter PM1 of the movable camera 11. Also, the rotation matrix R m (θ ',
φ ′) and the translation vector T m (θ ′, φ ′) are the functional forms R m (θ, φ) and T m (θ, φ) specified in advance,
It is determined by substituting the angle values θ ′ and φ ′ detected by the angle sensors 126p and 126t.

【0090】したがって、数16を、 X0 = RCP2X2+TCP2 ・・・ (数17) RCP2 = RCP1 Rm(θ',φ') ・・・ (数18) TCP2 = RCP1Tm(θ',φ')+TCP1 ・・・ (数19) の形に変形すると、回転行列RCP2および平行移動ベクト
ルTCP2は、被写体用カメラ13の外部パラメータを表現
した内容となっている。それらは撮影データDM(図1
0)として、第2画像データD2とともに保存され、第
2画像データD2に基づいて3次元画像モデルを構築す
る際に、複数の方向から得られた被写体30の画像を組
み合わせるために使用される。この3次元画像モデルの
構築は、コンピュータ15で行ってもよく、他の演算シ
ステムで行ってもよい。
Therefore, the following equation 16 is converted into X 0 = R CP2 X 2 + T CP2 ( Equation 17) R CP2 = R CP1 R m (θ ', φ') ( Equation 18) T CP2 = R CP1 T m (θ ′, φ ′) + T CP1 ... When transformed into the form of ( Equation 19), the rotation matrix R CP2 and the translation vector T CP2 represent the external parameters of the camera 13 for the subject. Has become. These are the shooting data DM (Fig. 1
0) is stored together with the second image data D2 and is used to combine images of the subject 30 obtained from a plurality of directions when constructing a three-dimensional image model based on the second image data D2. The construction of this three-dimensional image model may be performed by the computer 15 or another computing system.

【0091】撮影データDMが求まると、被写体30の
第2画像データD2とともに、撮影時の被写体用カメラ
13の撮影データDMが、RAM151、あるいはメモ
リカード166に記録される(ステップS10)。
When the photographing data DM is obtained, the photographing data DM of the subject camera 13 at the time of photographing is recorded in the RAM 151 or the memory card 166 together with the second image data D2 of the subject 30 (step S10).

【0092】これにより、外部パラメータPM1、相対
位置データDPSおよび回転角データDRに基づいて、
被写体用カメラ13の撮影位置と立体チャートとの相対
位置および相対姿勢に依存する被写体用カメラ13の校
正用の撮影データDMを計算することができ、撮影デー
タDMを用いて前述のシェープ・フロム・シルエット法
によって被写体30の3次元画像モデルを構築すること
ができる。
Thereby, based on the external parameter PM1, the relative position data DPS and the rotation angle data DR,
It is possible to calculate the photographic data DM for calibration of the photographic subject camera 13 that depends on the relative position and relative posture between the photographic position of the photographic subject camera 13 and the three-dimensional chart, and use the photographic data DM to calculate the shape from A three-dimensional image model of the subject 30 can be constructed by the silhouette method.

【0093】その後、必要な数の第2画像データD2、
およびそれぞれについての撮影データDMが得られる
と、この第2サブプロセスは完了する。
After that, the required number of second image data D2,
This second sub-process is completed when the imaging data DM for each of them are obtained.

【0094】<複比のコーディングによるチャートの識
別>ここからは、立体チャート2の側面のコーディング
の方法について説明する。図3に示すように、立体チャ
ート本体203の表示部204は正多角錐であり、その
各側面T1〜Tnは同一の二等辺三角形状をしている。そ
の表面には、当該側面を構成する三角形の底面方向DR
1(図17参照)に平行な複数の直線L1と、立体チャ
ート2の頂点に相当する頂点x0を通る放射線状の複数の
直線L2とが描画されている。これらの直線の交差によ
って作られる台形形状の単位図形UP(以下これを「単
位台形」という)は、画像処理の際に直線の抽出が容易
になるよう、交互に異なる明度の色で塗り分けられて高
コントラストパターンとされている。典型的には第1の
組の単位台形UP1が黒であり、第2の組の単位台形U
P2が白である。
<Identification of Chart by Coding of Cross Ratio> Now, a method of coding the side surface of the three-dimensional chart 2 will be described. As shown in FIG. 3, the display portion 204 of the three-dimensional chart body 203 is a regular polygonal pyramid, and each side surface T1 to Tn thereof has the same isosceles triangular shape. The bottom surface direction DR of the triangle forming the side surface is
1 (see FIG. 17), a plurality of straight lines L1 and a plurality of radial straight lines L2 passing through the vertex x0 corresponding to the vertex of the three-dimensional chart 2 are drawn. The trapezoidal unit figure UP (hereinafter referred to as “unit trapezoid”) created by the intersection of these straight lines is painted with alternating lightness colors so that straight lines can be easily extracted during image processing. And has a high contrast pattern. Typically, the first set of unit trapezoids UP1 is black and the second set of unit trapezoids U1 is black.
P2 is white.

【0095】そして、これらの単位台形UPのサイズ
が、複比によりコーディングされている。より具体的に
は、1) これらの単位台形UPを成す直線群L1の相互
間の間隔と、2) 直線群L1と直線群L2との交点(格
子点)の底面方向DR1における間隔と、のそれぞれ
を、複比によりコーディングする。図18にこの複比の
概念を示すが、複比は任意の視点を通した空間射影によ
って変化しない値であり、3次元空間に存在する直線上
の4点P1〜P4から求められる複比DR: DR=Va/Vb ・・・ (数20) Va=dis(P0P1)・dis(P2P3) ・・・ (数21) Vb=dis(P0P2)・dis(P1P3) ・・・ (数22) ただし、記号dis(P0P1)は点P0と点P1との距離を示
す:は、その直線を視点Oを通して任意の平面上に射影
したときに、それら4点P1〜P4に対応する4点P'1〜
P'4から求まる複比DR': DR'=Va'/Vb' ・・・ (数23) Va’=dis(P'0P'1)・dis(P'2P'3) ・・・ (数24) Vb’=dis(P'0P'2)・dis(P'1P'3) ・・・ (数25) と等しいことが知られている。
The sizes of these unit trapezoids UP are coded by the cross ratio. More specifically, 1) the distance between the straight line groups L1 forming the unit trapezoid UP, and 2) the distance in the bottom surface direction DR1 at the intersection (lattice point) of the straight line group L1 and the straight line group L2. Each is coded by cross ratio. The concept of this cross ratio is shown in FIG. 18. The cross ratio is a value that does not change due to space projection through an arbitrary viewpoint, and the cross ratio DR is calculated from four points P1 to P4 on a straight line existing in a three-dimensional space. : DR = Va / Vb (Equation 20) Va = dis (P0P1) ・ dis (P2P3) ・ ・ ・ (Equation 21) Vb = dis (P0P2) ・ dis (P1P3) ・ ・ ・ (Equation 22) , The symbol dis (P0P1) indicates the distance between the points P0 and P1: is the four points P'1 corresponding to those four points P1 to P4 when the straight line is projected through the viewpoint O on an arbitrary plane. ~
Multiratio DR 'obtained from P'4: DR' = Va '/ Vb' ... (Equation 23) Va '= dis (P'0P'1) .dis (P'2P'3) ... (Equation) 24) It is known that Vb ′ = dis (P′0P′2) · dis (P′1P′3) (equation 25).

【0096】この性質を利用すると、図3および図17
に示したような単位台形UPを成す直線群L1相互の間
隔を、各単位台形UPを形成する層ごとに複比でコーデ
ィングし、かつ底面方向DR1での格子点相互の間隔
を、各側面T1〜Tnごとに異なる複比でコーディングし
ておくと、立体チャート2を可動式カメラ11や被写体
用カメラ13で撮影した画像に含まれている各単位台形
UPが、立体チャート2の側面T1〜Tnのうちのどの側
面に存在する、どの単位台形であるかを、一意的に識別
できるようになる。以下にその一例を示す。
Utilizing this property, FIG. 3 and FIG.
The distance between the straight line groups L1 forming the unit trapezoid UP as shown in FIG. 3 is coded in a ratio for each layer forming each unit trapezoid UP, and the distance between the lattice points in the bottom surface direction DR1 is set to the side surface T1. If each stereoscopic chart 2 is coded in a different ratio for each Tn, each unit trapezoid UP included in the image captured by the movable camera 11 or the camera 13 for a subject is changed to the side surface T1 to Tn of the stereo chart 2. It becomes possible to uniquely identify which unit trapezoid exists on which side of the. An example is shown below.

【0097】図17では、底面に垂直な方向(頂点方向
DR2)に配列する直線L1の間隔が、複比によってコ
ーディングされた例を示している。複数の単位台形のう
ち、互いに連続する3つの単位台形の高さの複比が、3
つの単位台形の組ごとに異なるようにコーディングされ
ている。
FIG. 17 shows an example in which the intervals of the straight lines L1 arranged in the direction perpendicular to the bottom surface (vertex direction DR2) are coded by the cross ratio. Of the multiple unit trapezoids, the cross ratio of the heights of three consecutive unit trapezoids is 3
Each unit trapezoidal group is coded differently.

【0098】すなわち、立体チャート2の頂点x0を端点
として、底辺に平行な直線x1、x2…が定義されてお
り、「第i層」を、「直線xiと直線x(i+1)との間の領
域」として定義するとき、第i層〜第(i+3)層(i=1,
2,…)の、頂点方向DR2方向のそれぞれの位置の複比
DRiが、 DRi=Vai/(Vbi・Vb(i+1)) ・・・ (数26) Vai=dis(xix(i+1))・dis(x(i+2)x(i+3)) ・・・ (数27) Vbi=dis(xix(i+1))+dis(x(i+1)x(i+2)) ・・・ (数28) Vb(i+1)=dis(x(i+1)x(i+2))+dis(x(i+2)x(i+3)) ・・・ (数29 ) ないしは、これを書き換えて、 DRi=Vai/VBi ・・・ (数30) Vai=dis(xix(i+1))・dis(x(i+2)x(i+3)) ・・・ (数31) VBi=dis(xix(i+2))+dis(x(i+1)x(i+3)) ・・・ (数32) と定義され、それぞれの複比DRiが図19に示すよう
な値とされている。それぞれの単位台形は、角錐体の底
面に近いほどサイズ(幅および高さ)が増大している。
That is, straight lines x1, x2, ... Which are parallel to the base are defined with the vertex x0 of the three-dimensional chart 2 as an end point, and the "i-th layer" is defined as "straight line xi and straight line x (i + 1)". When defined as "region between", the i-th layer to the (i + 3) -th layer (i = 1,
2, ...), the cross ratio DRi at each position in the vertex direction DR2 direction is DRi = Vai / (Vbi.Vb (i + 1)) (Equation 26) Vai = dis (xix (i + 1) )) ・ Dis (x (i + 2) x (i + 3)) (Equation 27) Vbi = dis (xix (i + 1)) + dis (x (i + 1) x (i + 2) ) (Equation 28) Vb (i + 1) = dis (x (i + 1) x (i + 2)) + dis (x (i + 2) x (i + 3)) ・ ・ ・ (Equation) 29) Or by rewriting this, DRi = Vai / VBi (Equation 30) Vai = dis (xix (i + 1)). Dis (x (i + 2) x (i + 3)) .. (Equation 31) VBi = dis (xix (i + 2)) + dis (x (i + 1) x (i + 3)) (Equation 32), and each cross ratio DRi is defined as shown in FIG. The values are as shown in. The size (width and height) of each unit trapezoid increases as it approaches the base of the pyramid.

【0099】また、この実施形態では、頂点方向DR2
の直線x1、x2・・・の間隔の移動平均は、頂点からの
距離に略比例するように決められている。すなわち、図
19から各層の位置は、「17.000、22.500、31.000…」
であって、それらの差は 5.500(=22.500−17.000) 8.500(=31.000−22.500) … となっており、これら一連の差のうち連続した4つの移
動平均は図20のようになる。図20からわかるよう
に、各層の位置の差(層の厚さ)の移動平均は漸増して
いるが、「移動平均/(頂点からの層の)位置」すなわ
ち比例係数に相当する値の変動は、約20%以内であ
る。したがって、移動平均は、頂点からの距離にほぼ比
例している。
Further, in this embodiment, the vertex direction DR2
The moving average of the intervals of the straight lines x1, x2 ... Is determined to be approximately proportional to the distance from the vertex. That is, the position of each layer from FIG. 19 is “17.000, 22.500, 31.000 ...”.
Therefore, the difference between them is 5.500 (= 22.500-17.000) 8.500 (= 31.000-22.500) ... And four consecutive moving averages of these series of differences are as shown in FIG. As can be seen from FIG. 20, the moving average of the difference in the position of each layer (layer thickness) is gradually increasing, but the fluctuation of the value corresponding to “moving average / position of layer from apex”, that is, a proportional coefficient. Is within about 20%. Therefore, the moving average is approximately proportional to the distance from the vertex.

【0100】一方、頂点を中心として放射状に伸びる直
線y1、y2…と、上記直線x1、x2…の交点の、底面方
向DR1についての間隔については、立体チャート2の
各側面T1〜Tnが相互に識別できるように決定してお
く。図20に、立体チャート2が六角錐である場合の例
を示す。図17および図20においてa、b、c、dは
底辺における直線y1、y2…間の間隔である。
On the other hand, regarding the intervals in the bottom surface direction DR1 between the intersections of the straight lines y1, y2 ... Radially extending around the apex and the straight lines x1, x2. Make a decision so that you can identify them. FIG. 20 shows an example when the three-dimensional chart 2 is a hexagonal pyramid. 17 and 20, a, b, c, d are the intervals between the straight lines y1, y2 ... At the bottom.

【0101】この例では、 DRα=(a・c)/{(a+b)・(b+c)} ・・・ (数33) DRβ=(b・d)/{(b+c)・(c+d)} ・・・ (数34) として定義される2種類の複比DRα、複比DRβのそ
れぞれが、 1) それぞれの側面Tj(j=1〜6)の中では、直線x
1、x2…のいずれにおいても、直線y1、y2…とのそれ
ぞれの交点の列について共通であり、かつ 2) 異なる側面の相互では互いに異なる、ように、それ
らの値がコーディングされている。
In this example, DRα = (a · c) / {(a + b) · (b + c)} (Equation 33) DRβ = (b · d) / {(b + c) · (c + d)} ... Each of the two types of compound ratios DRα and DRβ defined as (Equation 34) is 1) a straight line x in each side Tj (j = 1 to 6).
The values are coded so that in any of 1, 1, x 2, ..., The columns of intersections with the straight lines y 1, y 2, ... Are common, and 2) different sides are different from each other.

【0102】<撮影箇所の同定>図22は、可動式カメ
ラ11や被写体用カメラ13による立体チャート2の撮
影において、立体チャート2のどの部分が撮影されてい
るのかを同定するプロセスを示すフローチャートであ
る。図23は、直線のグルーピングについての説明図で
ある。
<Identification of Shooting Part> FIG. 22 is a flowchart showing a process of identifying which part of the stereo chart 2 is being shot when the movable camera 11 and the camera for subject 13 shoot the stereo chart 2. is there. FIG. 23 is an explanatory diagram of linear grouping.

【0103】※直線のグルーピング:まず、撮像された
画像の濃淡のエッジを抽出する(ステップS91)。エ
ッジを抽出する方法は、Sobelオペレータなど様々な手
法が知られており、たとえば、長尾真著「画像認識論」
コロナ社,1983に開示されたアルゴリズムを使用する。
図23(a)の画像について、エッジを抽出した例が図
23(b)である。
* Linear grouping: First, the gray edges of the captured image are extracted (step S91). Various methods such as the Sobel operator are known as methods for extracting edges. For example, Masao Nagao "Image Recognition"
The algorithm disclosed in Corona, 1983 is used.
FIG. 23B shows an example of extracting edges from the image of FIG.

【0104】次に、抽出されたエッジから直線を抽出す
る(ステップS92)。直線を抽出する方法は、HOUGH
変換が一般的な手法として知られており、たとえば上記
長尾真の文献に記載された方法を用いてエッジ画像から
複数の直線を抽出し、撮像上の2次元平面における直線
の式を決定できる。図23の(b)について、エッジを
抽出した例が図23(c)である。
Then, a straight line is extracted from the extracted edge (step S92). How to extract a straight line is HOUGH
Transform is known as a general method, and a plurality of straight lines can be extracted from an edge image by using the method described in the above document of Nagao Makoto, and the formula of the straight line in a two-dimensional plane on imaging can be determined. FIG. 23C shows an example of extracting edges in FIG. 23B.

【0105】抽出された複数の直線は、直線の性質ごと
に以下のような複数のグループにグルーピングされる
(ステップS93)。
The plurality of extracted straight lines are grouped into a plurality of groups as follows for each property of the straight lines (step S93).

【0106】・平行な直線群(以下これをαiとする。i
は傾きが同じ直線群を表す); ・αiに属する各々の直線の端点を通る直線(これをβ
とする); ・αiに交差する直線群(以下これをγiとする。iは交
差する直線群αiのiと対応している)。
[0106]-parallel straight lines (Hereinafter, this product is the α i .i
Represents a group of straight lines having the same slope); ・ A straight line that passes through the end points of each straight line belonging to α i (this is β
A group of straight lines intersecting with α i (hereinafter, this is referred to as γ i . I corresponds to i of the group of intersecting straight lines α i ).

【0107】図23(c)の例では、各直線が、傾きの
異なる2つの直線群α1、α2と、これらに対応する直線
群γ1およびγ2、さらに交差直線βにグルーピングされ
ることになる。
In the example of FIG. 23 (c), each straight line is grouped into two straight line groups α 1 and α 2 having different slopes, straight line groups γ 1 and γ 2 corresponding to these straight line groups, and a crossing straight line β. It will be.

【0108】さらに、交差直線βおよびγiは1点で交
わっていることから、この交点が立体チャート2のマー
カ201に相当する。これより、立体チャート2を成す
錐の辺に相当する直線が直線β、底面に平行な直線が直
線αi、錐の側面を通る直線が直線γiであると判断する
ことができる。これにより、画像上の単位台形のそれぞ
れに関連する交点の複比を算出する。
Further, since the intersecting straight lines β and γ i intersect at one point, this intersecting point corresponds to the marker 201 of the three-dimensional chart 2. From this, it can be determined that the straight line corresponding to the side of the cone forming the three-dimensional chart 2 is the straight line β, the straight line parallel to the bottom surface is the straight line α i , and the straight line passing through the side surface of the cone is the straight line γ i . As a result, the cross ratio of the intersections associated with each unit trapezoid on the image is calculated.

【0109】※撮影箇所の同定:まず、撮影を行う前
に、立体チャート2の各側面T1〜Tnにおける直線群に
ついて、絶対座標系X0で表した交点(格子点)の座標
と、それらの交点の間隔から計算される複比のデータと
を、RAM151(図9)にあらかじめ記憶しておく。
そして、可動式カメラ11または被写体用カメラ13に
よって立体チャート2を撮影した際に、それによって得
られた画像から、頂点方向DR2に連続する3つの層、
ないしは単位台形を特定して、それらの高さから複比を
算出する。
* Identification of shooting location: First, before shooting, the coordinates of intersections (lattice points) represented by the absolute coordinate system X 0 and the coordinates of the straight lines on each of the side surfaces T1 to Tn of the three-dimensional chart 2 are taken. The cross ratio data calculated from the intervals of the intersections are stored in advance in the RAM 151 (FIG. 9).
Then, when the three-dimensional chart 2 is photographed by the movable camera 11 or the subject camera 13, three layers continuous in the apex direction DR2 are obtained from an image obtained by the photographing.
Or, unit trapezoids are specified and the cross ratio is calculated from their heights.

【0110】図24に、立体チャート2の同じ側面を、
異なる距離から撮影したときの画像例を示す。図24
(a)は遠距離から、図24(b)は近距離から撮影し
た例である。単位台形の頂点方向DR2の間隔は、頂点
からの距離に略比例している。
FIG. 24 shows the same side face of the three-dimensional chart 2.
The image example when image | photographed from a different distance is shown. Figure 24
FIG. 24A is an example taken from a long distance, and FIG. 24B is an example taken from a short distance. The distance in the apex direction DR2 of the unit trapezoid is approximately proportional to the distance from the apex.

【0111】直線の間隔についての複比を計算するに
は、同一直線上で連続する4点が観測できればよい。す
なわち、画角内にあり、かつ複比を精度よく計算するの
に十分な間隔で連続する4つの直線が、それらと交差す
る他の1直線との関係で観測できればよいことになる。
多数の直線が画像中に存在する場合は、たとえば次の直
線と所定の閾値間隔以上の間隔を持ち、かつ頂点(マー
カ201)の直上側において、頂点に最も近い位置で配
列している4直線を選択する。そしてその4本の直線
と、頂点方向DR2に沿って伸びる1つの直線との4交
点を抽出し、それらの間隔の複比を計算する。この抽出
において得られるデータのうち、可動式カメラ11の撮
影で得られるものが図10の第1抽出点データDP1で
あり、被写体用カメラ13の撮影で得られるものが第2
抽出点データDP2である。
In order to calculate the cross ratio of the intervals between the straight lines, it is only necessary to observe four consecutive points on the same straight line. That is, it suffices if four straight lines that are within the angle of view and that are continuous at sufficient intervals for accurately calculating the cross ratio can be observed in relation to another straight line that intersects them.
When a large number of straight lines are present in the image, for example, four straight lines having a distance equal to or more than a predetermined threshold value with the next straight line and arranged immediately above the apex (marker 201) at a position closest to the apex. Select. Then, four intersections of the four straight lines and one straight line extending along the apex direction DR2 are extracted, and the cross ratio of these intervals is calculated. Of the data obtained in this extraction, the data obtained by shooting with the movable camera 11 is the first extraction point data DP1 in FIG. 10, and the data obtained by shooting with the camera 13 for the subject is the second.
It is the extraction point data DP2.

【0112】図24(a)では、それぞれが底面方向D
R1に伸び、かつ第7層から第9層のそれぞれの上下を
規定する4直線x7〜x10を、また、図24(b)では
第3層から第5層のそれぞれの上下を規定する4直線x
3〜x6を、この4直線として選択できる。このようにし
て4直線を選択することにより、いずれの画像において
も、十分に複比の算出が可能となる。複数の側面が撮影
されていれば、たとえば最も画像中心に近い側面を選択
する。
In FIG. 24 (a), each is in the bottom direction D.
Four straight lines x7 to x10 extending to R1 and defining the upper and lower sides of the seventh to ninth layers, respectively, and in FIG. 24 (b), four straight lines defining the upper and lower sides of the third to fifth layers, respectively. x
3 to x6 can be selected as these four straight lines. By selecting four straight lines in this manner, the cross ratio can be calculated sufficiently in any image. If a plurality of side surfaces are photographed, for example, the side surface closest to the image center is selected.

【0113】また、立体チャート2が角錐形状であるた
め、種々の方向から立体チャート2の撮影を行っても、
自動追尾によりマーカ201を検出していれば、少なく
とも1つの側面を十分に観測することが可能である。
Since the three-dimensional chart 2 has a pyramidal shape, even if the three-dimensional chart 2 is photographed from various directions,
If the marker 201 is detected by automatic tracking, it is possible to sufficiently observe at least one side surface.

【0114】このようにして選択された4直線で挟まれ
るエリアに存在する、複数の単位台形のうちの1つを、
対象単位台形(対象単位図形)として選択する。対象単
位台形は、たとえば上記の4直線の中の中間側の2直線
で挟まれ、かつ画面の中央に最も近い単位台形を選択す
るというような選択規則によって選ぶことができる。図
24の例では、たとえば単位台形UPA、UPBを対象単
位台形として選択することができる。
One of a plurality of unit trapezoids existing in the area sandwiched by the four straight lines thus selected is
Select as the target unit trapezoid (target unit figure). The target unit trapezoid can be selected by a selection rule such as selecting the unit trapezoid which is sandwiched by the two middle straight lines among the above four straight lines and which is closest to the center of the screen. In the example of FIG. 24, for example, the unit trapezoids UPA and UPB can be selected as the target unit trapezoids.

【0115】そして、上記4直線につき、頂点方向DR
2について画像上の間隔から複比を対象複比として求
め、RAM151にあらかじめ記憶しておいた各側面の
直線間隔の複比の値(図19)を、対象複比と比較して
照合する。これにより、その4直線が、立体チャート2
の何層目から何層目を規定する4直線であり、かつ対象
単位台形が、立体チャート2のどの単位台形であるかを
特定することができる(ステップS94)。
Then, with respect to the above four straight lines, the vertex direction DR
For 2, the cross ratio is calculated as the target cross ratio from the interval on the image, and the cross ratio value (FIG. 19) of the linear interval of each side face stored in the RAM 151 in advance is compared with the target cross ratio. As a result, the four straight lines become the three-dimensional chart 2.
It is possible to specify which layer of the three-dimensional chart is the four straight lines defining which layer to which layer, and which unit trapezoid of the target unit trapezoid is in the three-dimensional chart 2 (step S94).

【0116】ところで、角錐体の底面に近いほど、単位
台形の頂点方向のサイズを増大させていることによっ
て、以下のような利点がある。
By the way, the closer to the bottom surface of the pyramid, the larger the size in the apex direction of the unit trapezoid has the following advantages.

【0117】まず、比較的近い距離から立体チャート2
を撮影することによって、比較的少数の単位台形だけが
画像内に存在する場合(図24(b))には、マーカ2
01に近い単位台形が比較的大きく撮影される。
First, the three-dimensional chart 2 is obtained from a relatively short distance.
When only a relatively small number of unit trapezoids are present in the image by capturing the image (FIG. 24 (b)), the marker 2
A unit trapezoid close to 01 is photographed relatively large.

【0118】逆に、比較的遠い距離から立体チャート2
を撮影することによって、各単位台形の撮影サイズが比
較的小さくなる場合には、角錐の底面に近い、実サイズ
が大きな単位台形が画像内に存在するため(図24
(a))、それは画像上の観測サイズとしてあまり小さ
くならない。
On the contrary, the three-dimensional chart 2 from a relatively long distance.
When the image capturing size of each unit trapezoid is relatively small by capturing, the unit trapezoid with a large actual size, which is close to the bottom surface of the pyramid, exists in the image (FIG. 24).
(A)), it does not become so small as the observation size on the image.

【0119】したがって、近距離からの撮影の場合と、
遠距離からの撮影の場合との双方において、常に画像処
理における精度を確保するために十分なサイズを持つ単
位図形が画像に含まれていることになり、その結果、撮
影距離にあまり依存せずに演算精度を高くできる。これ
が、角錐体の底面に近いほど、単位台形の頂点方向のサ
イズを増大させていることの利点である。
Therefore, when shooting from a short distance,
In both cases of shooting from a long distance, the image always contains a unit figure with a size sufficient to ensure accuracy in image processing, and as a result, it does not depend much on the shooting distance. The calculation accuracy can be increased. This is an advantage that the size of the unit trapezoid in the apex direction is increased as it is closer to the bottom surface of the pyramid.

【0120】対照単位台形が同定されたことによって、
立体チャート2に対するカメラの相対位置・姿勢、すな
わち絶対座標系X0における外部パラメータの算出が可能
となる(ステップS95)。以下にこれを説明する。
By identifying the control unit trapezoid,
It is possible to calculate the relative position / orientation of the camera with respect to the three-dimensional chart 2, that is, the external parameter in the absolute coordinate system X 0 (step S95). This will be explained below.

【0121】まず、RAM151には、図21に示す角
錐の側面T1〜Tnごとの距離a、b、c、dの複比と、
角錐の各側面T1〜Tnが絶対座標系X0のどの方向に向い
ているかの情報とが、互いに関連づけられ、テーブルと
してあらかじめ記憶されている。したがって、上記4直
線のうちの1つ(たとえば図24(a)の例では、対象
単位台形の辺のうち頂点に近い辺が属する直線x7)上
で底面方向DR1に連続する4交点の画像上の座標を特
定し、それらの間隔の複比を計算して上記テーブルと照
合することにより、対象単位台形が属する側面を、その
時点でカメラにほぼ正対している観測側面として同定す
る。そして観測側面が側面T1〜Tnのうちのいずれかで
あるかによって、立体チャート2に対するカメラの相対
姿勢を絶対座標系X0において知ることができる。
First, in the RAM 151, the cross ratio of the distances a, b, c, d for each of the side surfaces T1 to Tn of the pyramid shown in FIG.
Information regarding in which direction of the absolute coordinate system X 0 each side surface T1 to Tn of the pyramid faces is associated with each other and stored in advance as a table. Therefore, on one of the four straight lines (for example, in the example of FIG. 24A, the straight line x7 of the sides of the target unit trapezoid to which the side closest to the vertex belongs) is displayed on the image of four intersections continuous in the bottom direction DR1. By specifying the coordinates of, the cross ratio of these intervals is calculated and collated with the above table, the side face to which the target unit trapezoid belongs is identified as the observation side face that is almost directly facing the camera at that time. The relative attitude of the camera with respect to the three-dimensional chart 2 can be known in the absolute coordinate system X 0 depending on which of the side surfaces T1 to Tn the observation side surface is.

【0122】立体チャート2に対するカメラの相対姿勢
をさらに詳細に知るには、たとえば対象単位台形の4頂
点の座標値から、その対象単位図形の外周を規定する4
辺の長さの比を求める。この比は、絶対座標系における
対象単位台形の法線方向からカメラの撮像軸線がどれだ
け傾いているかによって変化する。したがって、この比
から当該側面の法線方向からのカメラの撮像軸線の方向
を特定できる。
In order to know the relative posture of the camera with respect to the three-dimensional chart 2 in more detail, for example, from the coordinate values of the four vertices of the target unit trapezoid, the outer circumference of the target unit graphic is defined.
Find the ratio of side lengths. This ratio changes depending on how much the imaging axis of the camera is tilted from the normal direction of the target unit trapezoid in the absolute coordinate system. Therefore, from this ratio, the direction of the imaging axis of the camera from the normal direction of the side surface can be specified.

【0123】対象単位台形が特定され、立体チャート2
に対するカメラの相対姿勢が求められると、あらかじめ
RAM151に記憶させておいた各単位台形の実サイズ
情報のうち、その対象単位台形に対応する単位台形の実
サイズ情報を読み出す。そしてその対象単位台形につい
て、画像上のサイズとその実サイズとの比率rを求め
る。比率rは、立体チャート2とカメラとの距離L、お
よび立体チャート2に対するカメラの相対姿勢の関数で
あるが、相対姿勢は上記のように求められることから、
距離Lは結局、比率rの関数f(r)として表現できる
ことになる。よって、この関数f(r)に相当する演算
式または数値テーブルを記憶しておくことにより、比率
rから距離Lが計算できる。距離Lと、立体チャート2
に対するカメラの相対姿勢とから、立体チャート2に対
するカメラの相対位置が求められる。
The target unit trapezoid is specified, and the three-dimensional chart 2
When the relative attitude of the camera with respect to is calculated, the actual size information of the unit trapezoid corresponding to the target unit trapezoid is read out from the actual size information of each unit trapezoid stored in the RAM 151 in advance. Then, for the target unit trapezoid, the ratio r between the size on the image and its actual size is obtained. The ratio r is a function of the distance L between the stereo chart 2 and the camera and the relative attitude of the camera with respect to the stereo chart 2, and since the relative attitude is obtained as described above,
After all, the distance L can be expressed as a function f (r) of the ratio r. Therefore, the distance L can be calculated from the ratio r by storing an arithmetic expression or a numerical value table corresponding to this function f (r). Distance L and 3D chart 2
The relative position of the camera with respect to the three-dimensional chart 2 can be obtained from the relative attitude of the camera with respect to.

【0124】以上のように、本実施形態に係る立体チャ
ート2を被写体を撮影するカメラと別のカメラを用いて
画角の中央に撮影することによって、カメラの位置およ
び姿勢の校正のための校正パラメータのうち、外部パラ
メータを正確に取得することができる。
As described above, the stereo chart 2 according to the present embodiment is photographed at the center of the angle of view by using a camera different from the camera for photographing the subject, so that the calibration for calibrating the position and orientation of the camera can be performed. Of the parameters, the external parameters can be acquired accurately.

【0125】<2. 第2の実施の形態>第1の実施の
形態では、可動式カメラ11を被写体用カメラ13に取
り付けて、被写体用カメラ13により第2画像データを
撮影した際の、被写体用カメラ13の位置と姿勢を同定
することによりシェープ・フロム・シルエット法に最適
なデータを得る方法を説明したが、この技術は複数の可
動式カメラを人体に取り付け、人体の動きを詳細にトレ
ースすることにも応用できる。このようなデータは仮想
現実空間において人物の動作を再現すること等に用いら
れる。
<2. Second Embodiment> In the first embodiment, the movable camera 11 is attached to the subject camera 13 and the position of the subject camera 13 when the second image data is captured by the subject camera 13 We have described how to obtain optimal data for the shape from silhouette method by identifying postures, but this technique can also be applied to detail movements of humans by attaching multiple movable cameras to the human body. . Such data is used to reproduce the motion of a person in the virtual reality space.

【0126】図25は、このような原理に従って構成し
た第2の実施の形態における画像撮影システム3の構成
を示す図である。図26は、本実施の形態における可動
式カメラ11aの外観図である。以下、第1の実施の形
態と同様の構成等については適宜省略して説明を行う。
画像撮影システム3における可動式カメラ11aは、図
26に示すように布製ベルト118と着脱自在テープ1
19により人体に取り付けられ、取得した画像データ等
の各種データを校正用情報処理装置としてのコンピュー
タ15に無線によりデータ通信を行う。
FIG. 25 is a diagram showing the configuration of the image photographing system 3 according to the second embodiment constructed according to such a principle. FIG. 26 is an external view of the movable camera 11a according to the present embodiment. Hereinafter, description will be made by omitting the same configurations and the like as those in the first embodiment as appropriate.
As shown in FIG. 26, the movable camera 11a in the image capturing system 3 includes a cloth belt 118 and a detachable tape 1.
A variety of data such as image data attached to the human body by 19 is wirelessly communicated with a computer 15 as a calibration information processing device.

【0127】可動式カメラ11aは、布製ベルト118
によって人体に取り付けられる以外は、第1の実施の形
態と同様の機能と構成を有している。ただし、回転角デ
ータDRは、可動式カメラ11aの基準姿勢に対する姿
勢装置113の駆動角度そのものを示すデータではな
く、基準姿勢における可動式カメラ11aの撮影位置と
固定部114aとの相対位置と相対姿勢をも考慮したデ
ータとされる。
The movable camera 11a includes a cloth belt 118.
It has the same functions and configurations as those of the first embodiment except that it is attached to the human body by. However, the rotation angle data DR is not data indicating the drive angle itself of the posture device 113 with respect to the reference posture of the movable camera 11a, but the relative position and relative posture between the shooting position of the movable camera 11a and the fixed portion 114a in the reference posture. Is also taken into consideration.

【0128】また、可動式カメラ11aは、第1の実施
の形態と同様の動作、および処理を行い。第1画像デー
タD1および撮影時の回転角データDRの取得と、校正
用情報処理装置としてのコンピュータ15への送信を行
う。なお、第1画像データD1の取得はシャッタに連動
して行われるのではなく、所定のタイミングで自動的に
行われる。また、いずれの可動式カメラ11aにおいて
取得されたデータであるかは識別ができる状態でコンピ
ュータ15に送信される。
The movable camera 11a performs the same operation and processing as those in the first embodiment. The first image data D1 and the rotation angle data DR at the time of shooting are acquired and transmitted to the computer 15 as the calibration information processing device. The acquisition of the first image data D1 is not performed in conjunction with the shutter but is automatically performed at a predetermined timing. In addition, which mobile camera 11a has acquired the data is transmitted to the computer 15 in a state in which it can be identified.

【0129】図27は、ハードウエア構成から見た、コ
ンピュータ15の情報処理機能の要部を示す図であり、
図28は、コンピュータ15におけるデータの流れを示
す図である。以下、第1の実施の形態の被写体用カメラ
13における情報処理機能と同様の機能を果たす構成に
ついては適宜、同一の符号を用いて説明する。
FIG. 27 is a diagram showing the main part of the information processing function of the computer 15 as seen from the hardware configuration.
FIG. 28 is a diagram showing a data flow in the computer 15. Hereinafter, configurations that perform the same functions as the information processing functions in the subject camera 13 of the first embodiment will be described using the same reference numerals as appropriate.

【0130】コンピュータ15はCPU180、RAM
181およびROM182を備えており、後述するコン
ピュータ15の各種の動作を実現するプログラム182
aは、ROM182に記憶されている。また、前面に設
置されたモニタ用カラーディスプレイ163、および操
作ボタン類164などの要素も、CPU180と電気的
に結合している。
The computer 15 includes a CPU 180 and a RAM
A program 182 that includes a 181 and a ROM 182 and that realizes various operations of the computer 15 described later.
a is stored in the ROM 182. Elements such as the monitor color display 163 and operation buttons 164 installed on the front surface are also electrically coupled to the CPU 180.

【0131】抽出部171は、第1の実施の形態と同様
に第1画像データD1に画像認識を行い第1抽出点デー
タDP1を生成する。演算部173は、第1抽出点デー
タDP1と回転角データDRとから各可動式カメラ11
aの固定部114の位置と立体チャート2との相対関係
を示す相対データDSを生成する。
The extraction unit 171 performs image recognition on the first image data D1 as in the first embodiment to generate first extraction point data DP1. The calculation unit 173 calculates each movable camera 11 from the first extraction point data DP1 and the rotation angle data DR.
Relative data DS indicating the relative relationship between the position of the fixed portion 114 of a and the three-dimensional chart 2 is generated.

【0132】<校正の原理> X0 …立体チャート2に対して相対的に固定された3次
元直交座標系(絶対座標系); X1(θ,φ) …可動式カメラ11aからの観測空間に相
当する3次元直交座標系(第1ローカル座標系); X3 …固定部114からの観測空間に相当する3次元直
交座標系(第3ローカル座標系); θ …可動式カメラ11aの旋回角; φ …可動式カメラ11aの俯仰角; と定義すると、回転行列RX1および平行移動ベクトルTX1
を用いて、 X3 = RX1(θ,φ)X1+TX1(θ,φ) ・・・ (数35) のように表現できる。この回転行列RX1(θ,φ)および
平行移動ベクトルTX1(θ,φ)は、回転角データDRと
して与えられ、姿勢装置113の基準姿勢における可動
式カメラ11aの撮影位置と固定部114との相対位置
と相対姿勢に依存する量が予めキャブレーションされて
いる。すなわち、数35は、可動式カメラ11の第1ロ
ーカル座標系を固定部の第3ローカル座標系に変換する
変換関係に相当する。
<Principle of Calibration> X 0 ... 3D Cartesian coordinate system (absolute coordinate system) fixed relatively to the solid chart 2; X 1 (θ, φ) ... Observation space from the movable camera 11a 3D Cartesian coordinate system (first local coordinate system); X 3 ... 3D Cartesian coordinate system (third local coordinate system) corresponding to the observation space from the fixing unit 114; θ ... Rotation of the movable camera 11a Angle; φ ... angle of elevation of movable camera 11a; and rotation matrix R X1 and translation vector T X1
Can be expressed as follows: X 3 = R X1 (θ, φ) X 1 + T X1 (θ, φ) (Equation 35) The rotation matrix R X1 (θ, φ) and the translation vector T X1 (θ, φ) are given as rotation angle data DR, and the photographing position of the movable camera 11 a in the reference posture of the posture device 113 and the fixed portion 114 are set. The amount depending on the relative position and the relative posture of is calibrated in advance. That is, Expression 35 corresponds to a conversion relationship for converting the first local coordinate system of the movable camera 11 into the third local coordinate system of the fixed portion.

【0133】前述の多点解析アルゴリズムにより、可動
式カメラ11aの第1ローカル座標系から絶対座標系へ
の変換は、回転行列Rcおよび平行移動ベクトルTcを用い
て、 X0 = RcX1+Tc ・・・ (数36) と表されるとすると、数35および数36から絶対座標
系と第3ローカル座標系の変換関係が、 X0 = Rc(RX1(θ,φ))-1X3 - Rc(RX1(θ,φ))-1TX1(θ,φ)+Tc・・・(数 37) として求まる。
By the multipoint analysis algorithm described above, the conversion of the movable camera 11a from the first local coordinate system to the absolute coordinate system is performed by using the rotation matrix R c and the translation vector T c as X 0 = R c X 1 + T c ... (Equation 36) From Equations 35 and 36, the conversion relationship between the absolute coordinate system and the third local coordinate system is X 0 = R c (R X1 (θ, φ )) -1 X 3 -R c (R X1 (θ, φ)) −1 T X1 (θ, φ) + T c (Equation 37)

【0134】<撮影の動作>図29は、本実施の形態に
おける画像撮影システム3の動作を示す流れ図である。
図29を用いて画像撮影システム3の動作を説明する。
なお、説明を簡単にするため可動式カメラ11aは1つ
であるとして説明する。
<Photographing Operation> FIG. 29 is a flowchart showing the operation of the image photographing system 3 in the present embodiment.
The operation of the image capturing system 3 will be described with reference to FIG.
In addition, in order to simplify the description, it is assumed that there is one movable camera 11a.

【0135】まず、可動式カメラ11aの内部パラメー
タを校正し(ステップS21)、可動式カメラ11aが
立体チャート2を画角内に捉えるように向きを調整し、
自動追尾設定を行う(ステップS22)。可動式カメラ
11aにより立体チャート2を撮影し(ステップS2
3)、可動式カメラ11aの外部パラメータPM1が算
出できたか否かを判定して(ステップS24)、外部パ
ラメータPM1の算出ができなかった場合はステップS
23から繰り返し、外部パラメータPM1の算出ができ
た場合は、回転角データDRを算出する(ステップS2
5)。
First, the internal parameters of the movable camera 11a are calibrated (step S21), the orientation is adjusted so that the movable camera 11a captures the three-dimensional chart 2 within the angle of view,
Automatic tracking setting is performed (step S22). The three-dimensional chart 2 is photographed by the movable camera 11a (step S2
3) It is determined whether or not the external parameter PM1 of the movable camera 11a can be calculated (step S24), and if the external parameter PM1 cannot be calculated, step S24.
23. When the external parameter PM1 can be calculated repeatedly from 23, the rotation angle data DR is calculated (step S2).
5).

【0136】次に、外部パラメータPM1と回転角デー
タDRとから相対データDSを算出して保存する(ステ
ップS27)。
Next, the relative data DS is calculated and stored from the external parameter PM1 and the rotation angle data DR (step S27).

【0137】以上により、トレースする人物の可動式カ
メラ11aを取り付けた位置の相対位置および相対姿勢
を示す相対データDSを計算することができ、人物の動
きを容易に、かつ詳細にトレースすることにより、仮想
現実空間等において人物の動きを再現できる。
As described above, it is possible to calculate the relative data DS indicating the relative position and the relative attitude of the position of the movable camera 11a of the person to be traced, and to trace the person's movement easily and in detail. , It is possible to reproduce the movement of a person in a virtual reality space or the like.

【0138】<3. 変形例>以上、本発明の実施の形
態について説明してきたが、本発明は上記実施の形態に
限定されるものではなく様々な変形が可能である。
<3. Modifications> The embodiments of the present invention have been described above, but the present invention is not limited to the above embodiments, and various modifications can be made.

【0139】例えば、1つの対象単位図形だけでなく、
複数の対象単位図形を選択してそれぞれにつき外部パラ
メータを計算し、得られた複数の外部パラメータを平均
化すれば外部パラメータの計算精度がさらに向上する。
For example, not only one target unit figure,
If a plurality of target unit figures are selected and the external parameters are calculated for each of them, and the obtained external parameters are averaged, the calculation accuracy of the external parameters is further improved.

【0140】可動式カメラ11において画像データの演
算処理を行って外部パラメータを算出し、コンピュータ
15または被写体用カメラ13と通信する構成をとって
もよい。これらの装置間の情報伝達を、通信ケーブルを
介して行う、あるいはメモリカードのような記憶媒体を
介してデータの転送を行ってもよい。
The movable camera 11 may perform a calculation process of image data to calculate external parameters and communicate with the computer 15 or the subject camera 13. Information may be transmitted between these devices via a communication cable or data may be transferred via a storage medium such as a memory card.

【0141】上記実施形態では、可動式カメラ11の外
部パラメータの算出は、被写体用カメラ13が撮影を行
った際にのみ実行されているが、可動式カメラ11がリ
アルタイムに捉えている立体チャート2の画像から、立
体チャート2のどこを捉えているのかを逐次求めて、外
部パラメータをリアルタイムで算出してもよい。この場
合、画像上における立体チャート2の頂点の位置を、リ
アルタイムで把握することからマーカ201を省略でき
る。
In the above embodiment, the calculation of the external parameters of the movable camera 11 is executed only when the subject camera 13 takes a picture, but the three-dimensional chart 2 captured by the movable camera 11 in real time is used. The external parameter may be calculated in real time by sequentially obtaining where in the stereo chart 2 is captured from the image. In this case, the marker 201 can be omitted because the position of the vertex of the three-dimensional chart 2 on the image is grasped in real time.

【0142】マーカ201に発光性を持たせず、蛍光塗
料を塗布したものなどであってもよく、単なる頂点であ
っても追尾(トラッキング)に使用することができる。
The marker 201 may have no light emitting property and may be coated with fluorescent paint, and even a simple vertex can be used for tracking.

【0143】第1の実施の形態における可動式カメラ1
1と被写体用カメラ13とは、連結機構を介して間接的
に連結してもよい。
Movable camera 1 in the first embodiment
1 and the camera 13 for a subject may be indirectly connected via a connection mechanism.

【0144】可動式カメラ11の手動による操作を、被
写体用カメラ13の操作キーにより行える装置構成であ
ってもよい。
The movable camera 11 may be manually operated by the operation keys of the subject camera 13.

【0145】また、上記実施の形態に係る画像処理等を
CPUに実行させるプログラムは、必ずしもROMに予
め書き込まれていなくてもよい。校正用情報処理装置に
は、事前に読取装置等を介して記録媒体からプログラム
が読み出され、記憶された後、実行されてもよい。
Further, the program for causing the CPU to execute the image processing and the like according to the above-mentioned embodiment does not necessarily have to be written in the ROM in advance. The calibration information processing device may be executed after the program is read from the recording medium via a reading device or the like in advance and stored.

【0146】また、上記実施の形態では一連の画像処理
が全てCPUによるソフトウェア的処理で実行されてい
るが、それらの処理の一部または全部を専用の回路によ
り実現することも可能である。
Further, in the above embodiment, the series of image processes are all executed by the software process by the CPU, but it is also possible to realize a part or all of the processes by a dedicated circuit.

【0147】第2の実施の形態における各可動式カメラ
11aによる撮影は、コンピュータ15からの指示等に
より行われてもよい。
The photographing by each movable camera 11a in the second embodiment may be performed by an instruction from the computer 15 or the like.

【0148】また、上記の実施例では、チャートに描か
れたパターン上の4点を検出することにより、カメラの
姿勢を求めるようにしているが、これに限らず、以下の
ようにカメラ姿勢を検出するようにしてもよい。
In the above embodiment, the camera attitude is determined by detecting four points on the pattern drawn on the chart. However, the invention is not limited to this, and the camera attitude is determined as follows. You may make it detect.

【0149】形状が既知である物体(例えば四角錐)を
上記実施例のチャートの代わりに配置しておく。カメラ
には、カメラ座標系にその形状のモデルデータを有し、
撮影された画像と撮像面に等価な面に投影したモデル画
像とが一致するときのモデルの姿勢を求めることにより
カメラ姿勢を検出する。
An object having a known shape (for example, a quadrangular pyramid) is placed instead of the chart of the above embodiment. The camera has model data of its shape in the camera coordinate system,
The camera orientation is detected by determining the orientation of the model when the captured image and the model image projected on the surface equivalent to the imaging surface match.

【0150】[0150]

【発明の効果】請求項1ないし5に記載の発明では、可
動式撮影装置が移動した場合に撮影手段が基準物体を撮
影可能となるように駆動手段を制御することにより、ユ
ーザが意識することなく、また、大がかりな撮影設備を
用いることなく、可動式撮影装置が常に基準物体を画角
の中央に撮影することができる。
According to the invention described in claims 1 to 5, the user is conscious by controlling the driving means so that the photographing means can photograph the reference object when the movable photographing device moves. In addition, the movable photographing device can always photograph the reference object at the center of the angle of view without using any large-scale photographing equipment.

【0151】請求項2に記載の発明では、校正用情報処
理装置が第1画像データに基づいて、可動式撮影装置の
撮影位置と基準物体との相対位置および相対姿勢に依存
する可動式撮影装置の校正用の第1パラメータを計算す
ることにより、可動式撮影装置が移動する場合であって
も、可動式撮影装置の空間内における位置および姿勢を
容易に把握することができる。
According to a second aspect of the present invention, the calibrating information processing device is based on the first image data, and the movable photographic device depends on the relative position and relative posture between the photographic position of the movable photographic device and the reference object. By calculating the first parameter for calibration of, the position and orientation of the movable photographing device in the space can be easily grasped even when the movable photographing device moves.

【0152】請求項3に記載の発明では、可動式撮影装
置を被写体撮影用装置に取り付け、被写体撮影用装置の
撮影位置と基準物体との相対位置および相対姿勢に依存
する被写体撮影用装置の校正用の第4パラメータを計算
することにより、シェープ・フロム・シルエット法によ
る3次元画像の構築に最適なデータを得ることができ
る。
According to the third aspect of the present invention, the movable photographing device is attached to the subject photographing device, and the subject photographing device is calibrated depending on the relative position and relative posture between the photographing position of the subject photographing device and the reference object. By calculating the fourth parameter for, it is possible to obtain optimum data for constructing a three-dimensional image by the shape-from-silhouette method.

【0153】請求項4に記載の発明では、可動式撮影装
置固定部を物体に取り付け、駆動手段により回転した撮
影手段の基準姿勢からの回転角を求め、固定部の位置と
基準物体との相対位置および相対姿勢に依存する第5パ
ラメータを計算することにより、固定部に取り付けられ
た物体の空間内における位置および姿勢を容易に把握す
ることができる。
According to the fourth aspect of the present invention, the movable photographing device fixing portion is attached to the object, the rotation angle from the reference posture of the photographing means rotated by the driving means is determined, and the relative position between the fixed portion and the reference object is determined. By calculating the fifth parameter depending on the position and the relative attitude, the position and the attitude of the object attached to the fixed part in the space can be easily grasped.

【0154】請求項5に記載の発明では、可動式撮影装
置を取り付け手段によって人体に取り付けることが可能
であり、人体の動きをトレースすることができる。
According to the fifth aspect of the invention, the movable photographing device can be attached to the human body by the attaching means, and the movement of the human body can be traced.

【0155】請求項6ないし9に記載の発明では、請求
項1ないし4に記載のシステムに最適な可動式撮影装置
を提供することができる。
According to the invention described in claims 6 to 9, it is possible to provide a movable photographing apparatus most suitable for the system described in claims 1 to 4.

【図面の簡単な説明】[Brief description of drawings]

【図1】第1の実施の形態に係る校正用チャートを用い
た画像撮影システムの構成例を示す図である。
FIG. 1 is a diagram showing a configuration example of an image capturing system using a calibration chart according to a first embodiment.

【図2】図1の画像撮影システムのブロック図である。FIG. 2 is a block diagram of the image capturing system of FIG.

【図3】第1の実施の形態に係る校正用立体チャートの
側面の例を示す図である。
FIG. 3 is a diagram showing an example of a side surface of a calibration solid chart according to the first embodiment.

【図4】チャート撮影用可動式カメラの正面図である。FIG. 4 is a front view of a movable chart-capturing camera.

【図5】チャート撮影用可動式カメラのブロック図であ
る。
FIG. 5 is a block diagram of a movable chart photographing camera.

【図6】チャート撮影用可動式カメラの情報処理機能の
要部を示す図である。
FIG. 6 is a diagram illustrating a main part of an information processing function of a chart-capturing movable camera.

【図7】チャート撮影用可動式カメラのデータの流れを
示す図である。
FIG. 7 is a diagram showing a data flow of a movable camera for photographing a chart.

【図8】チャート撮影用可動式カメラの自動追尾動作を
示す流れ図である。
FIG. 8 is a flowchart showing an automatic tracking operation of the movable chart-taking camera.

【図9】被写体撮影用デジタルカメラの情報処理機能の
要部を示す図である。
FIG. 9 is a diagram showing a main part of an information processing function of a digital camera for photographing an object.

【図10】被写体撮影用カメラのデータの流れを示す図
である。
FIG. 10 is a diagram showing a data flow of a camera for photographing an object.

【図11】第1の実施の形態に係るカメラ校正用チャー
トを用いた撮影および校正の手順のうち、第1サブプロ
セスに相当する手順を示す図である。
FIG. 11 is a diagram showing a procedure corresponding to a first sub-process among the procedures of photographing and calibration using the camera calibration chart according to the first embodiment.

【図12】第1の実施の形態に係るカメラ校正用チャー
トを用いた撮影および校正の手順のうち、第2サブプロ
セスに相当する手順を示す図である。
FIG. 12 is a diagram showing a procedure corresponding to a second sub-process among the procedures of photographing and calibration using the camera calibration chart according to the first embodiment.

【図13】チャート撮影用可動式カメラと被写体撮影デ
ジタル用カメラが、同時に本発明に係るカメラ校正用チ
ャートを撮影したときの、各々の撮像例を示す図であ
る。
FIG. 13 is a diagram showing an example of each image pickup when a movable camera for photographing a chart and a digital camera for photographing a subject simultaneously photograph a camera calibration chart according to the present invention.

【図14】チャート撮影用可動式カメラに対する、被写
体撮影用デジタルカメラの相対位置・姿勢を算出する際
に用いる、座標変換の様子を示す図である。
FIG. 14 is a diagram showing a state of coordinate conversion used when calculating a relative position / orientation of a digital camera for photographing a subject with respect to a movable camera for chart photographing.

【図15】被写体撮影用デジタルカメラが被写体を撮影
するときの、チャート撮影用可動式カメラと被写体撮影
用デジタルカメラの撮像例を示す図である。
FIG. 15 is a diagram illustrating an example of image capturing by the movable chart capturing camera and the subject capturing digital camera when the subject capturing digital camera captures a subject.

【図16】チャート撮影用可動式カメラに対する、被写
体撮影用デジタルカメラの相対位置・姿勢を算出する際
に用いる、座標変換の様子を示す図である。
FIG. 16 is a diagram showing a state of coordinate conversion used when calculating the relative position / orientation of the subject photographing digital camera with respect to the chart photographing movable camera.

【図17】第1の実施の形態に係る立体チャートの側面
において、単位台形のサイズが、複比によってコーディ
ングされた例を示す図である。
FIG. 17 is a diagram showing an example in which the size of a unit trapezoid is coded by a cross ratio on the side surface of the three-dimensional chart according to the first embodiment.

【図18】複比が射影により変化しないことを説明する
図である。
FIG. 18 is a diagram illustrating that the cross ratio does not change due to projection.

【図19】コーディングに用いられる複比の例を示す図
である。
FIG. 19 is a diagram illustrating an example of a cross ratio used for coding.

【図20】図19から得られる直線の間隔の移動平均
が、頂点からの距離にほぼ比例していることを示す図で
ある。
FIG. 20 is a diagram showing that the moving average of straight line intervals obtained from FIG. 19 is approximately proportional to the distance from the apex.

【図21】第1の実施の形態に係る立体チャートを六角
錐とした場合に、各面に用いられるコーディングの例を
示す図である。
FIG. 21 is a diagram showing an example of coding used for each surface when the three-dimensional chart according to the first embodiment is a hexagonal pyramid.

【図22】第1の実施の形態に係る立体チャートを撮影
した画像から、立体チャート上の撮影箇所を同定する手
順を示す図である。
FIG. 22 is a diagram showing a procedure for identifying a shooting location on a stereo chart from an image obtained by shooting a stereo chart according to the first embodiment.

【図23】第1の実施の形態に係る立体チャートの撮像
における、直線の抽出の例を示す図である。
FIG. 23 is a diagram illustrating an example of straight line extraction in capturing an image of the stereo chart according to the first embodiment.

【図24】第1の実施の形態に係る立体チャートの同じ
側面を、異なる距離から撮影したときの撮像の例を示す
図である。
FIG. 24 is a diagram illustrating an example of imaging when the same side surface of the three-dimensional chart according to the first embodiment is captured from different distances.

【図25】第2の実施の形態に係る校正用チャートを用
いた画像撮影システムの構成例を示す図である。
FIG. 25 is a diagram showing a configuration example of an image capturing system using the calibration chart according to the second embodiment.

【図26】本実施の形態における可動式カメラの外観図
である。
FIG. 26 is an external view of the movable camera according to the present embodiment.

【図27】被写体撮影用デジタルカメラの情報処理機能
の要部を示す図である。
FIG. 27 is a diagram showing a main part of an information processing function of a digital camera for photographing an object.

【図28】被写体撮影用カメラのデータの流れを示す図
である。
FIG. 28 is a diagram showing a data flow of a camera for photographing an object.

【図29】本実施形態における画像撮影システムの動作
を示す流れ図である。
FIG. 29 is a flowchart showing the operation of the image capturing system in this embodiment.

【符号の説明】[Explanation of symbols]

1,3 画像撮影システム 10 カメラシステム 11,11a 可動式カメラ 110 レンズユニット 110a 固定レンズ 110b ズームレンズ 110e 絞り/シャッタ機構部 111,156 2次元受光素子 112 通信デバイス 113 姿勢装置 114,114a 固定部 115a 第1取付溝 115b 第2取付溝 116 球状ユニット 117 追尾ボタン 118 布製ベルト 119 着脱自在テープ 12 取付機構 126p,126t 角度センサ 126z センサ 13 被写体撮影用カメラ 15 コンピュータ 152a プログラム 155 レンズユニット 15a 通信インターフェイス 161 シャッタボタン 162 フラッシュ 163 ディスプレイ 164 操作ボタン類 165 カードスロット 166 メモリカード 167 通信部 168 通信デバイス 2 立体チャート 201 マーカ 202 マーカ用電源 203 立体チャート本体 204 表示部 205 支持部 250 チャート支持具 251 台座 252 アーム 30 被写体 1,3 image capturing system 10 camera system 11,11a Movable camera 110 lens unit 110a fixed lens 110b zoom lens 110e Aperture / shutter mechanism 111,156 Two-dimensional light receiving element 112 communication devices 113 Posture device 114, 114a Fixed part 115a First mounting groove 115b Second mounting groove 116 Spherical unit 117 Tracking button 118 fabric belt 119 Detachable tape 12 Mounting mechanism 126p, 126t angle sensor 126z sensor 13 Camera for shooting subjects 15 Computer 152a program 155 lens unit 15a communication interface 161 shutter button 162 flash 163 display 164 Operation buttons 165 card slots 166 memory card 167 Communication unit 168 communication device 2 three-dimensional chart 201 marker 202 Power supply for marker 203 3D chart body 204 display 205 support 250 chart support 251 pedestal 252 arm 30 subjects

───────────────────────────────────────────────────── フロントページの続き (72)発明者 榊原 邦光 大阪府大阪市中央区安土町二丁目3番13号 大阪国際ビル ミノルタ株式会社内 Fターム(参考) 2F065 AA01 AA04 AA21 AA24 AA37 AA39 BB05 CC16 DD02 FF04 GG07 JJ03 JJ26 LL06 LL30 MM25 QQ03 QQ24 QQ32 RR07 SS02 5C022 AB63 AC74 CA02 5C054 AA02 CC02 CF05 HA31    ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Kunimitsu Sakakibara             2-3-3 Azuchi-cho, Chuo-ku, Osaka-shi, Osaka Prefecture               Osaka International Building Minolta Co., Ltd. F-term (reference) 2F065 AA01 AA04 AA21 AA24 AA37                       AA39 BB05 CC16 DD02 FF04                       GG07 JJ03 JJ26 LL06 LL30                       MM25 QQ03 QQ24 QQ32 RR07                       SS02                 5C022 AB63 AC74 CA02                 5C054 AA02 CC02 CF05 HA31

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 画像撮影システムであって、 a) 可動式撮影装置と、 b) 3次元上の既知の形状を有する基準物体と、を備
え、 前記可動式撮影装置が、 a-1) 前記基準物体の画像を第1画像データとして取得
する撮影手段と、 a-2) 固定部に対して前記撮影手段を回転駆動させる駆
動手段と、 a-3) 前記可動式撮影装置が移動した場合に前記撮影手
段が前記基準物体を撮影可能となるように前記駆動手段
を制御する制御手段と、を備えることを特徴とする画像
撮影システム。
1. An image photographing system, comprising: a) a movable photographing device; and b) a reference object having a known three-dimensional shape, wherein the movable photographing device is a-1) A photographing means for acquiring an image of the reference object as the first image data; a-2) a driving means for rotationally driving the photographing means with respect to a fixed part; a-3) a case where the movable photographing device moves. An image capturing system, comprising: a control unit that controls the driving unit so that the image capturing unit can capture the reference object.
【請求項2】 請求項1に記載の画像撮影システムであ
って、 c) 校正用情報処理装置をさらに備え、 前記可動式撮影装置が、 a-4) 前記校正用情報処理装置との間でデータ通信を行
う第1通信手段をさらに備え、 前記校正用情報処理装置が、 c-1) 前記可動式撮影装置との間でデータ通信を行う第
2通信手段と、 c-2) 前記第2通信手段により受信された前記第1画像
データに基づいて、前記可動式撮影装置の撮影位置と前
記基準物体との相対位置および相対姿勢に依存する前記
可動式撮影装置の校正用の第1パラメータを計算する第
1計算手段と、を備えることを特徴とする画像撮影シス
テム。
2. The image capturing system according to claim 1, further comprising: c) a calibration information processing device, wherein the movable imaging device is a-4) between the calibration information processing device and Further comprising a first communication means for performing data communication, wherein the calibration information processing device is c-1) second communication means for performing data communication with the movable imaging device, and c-2) the second. Based on the first image data received by the communication means, a first parameter for calibration of the movable photographing device that depends on a relative position and a relative posture between the photographing position of the movable photographing device and the reference object is set. An image capturing system comprising: a first calculating means for calculating.
【請求項3】 請求項2に記載の画像撮影システムであ
って、 d) 被写体の画像を第2画像データとして取得する被写
体撮影用装置をさらに備え、 前記可動式撮影装置が、 a-5) 前記固定部を他の物体に取り付ける取付手段と、 a-6) 前記駆動手段により回転した前記撮影手段の基準
姿勢からの回転角を求める手段と、 a-7) 前記取付手段により前記被写体撮影用装置に取り
付けられ、前記撮影手段に前記被写体撮影用装置の前記
第2画像データの取得と連動して前記撮影手段に前記第
1画像データの取得を行わせる撮影制御手段と、をさら
に備え、 前記被写体撮影用装置が、 d-1) 前記校正用情報処理装置に前記第2画像データを
送信する第3通信手段を備え、 前記校正用情報処理装置が、 c-3) 前記基準物体を撮影した第2画像データに基づい
て、前記被写体撮影用装置の撮影位置と前記基準物体と
の相対位置および相対姿勢に依存する前記被写体撮影用
装置の校正用の第2パラメータを計算する第2計算手段
と、 c-4) 前記第1パラメータ、前記第2パラメータ、およ
び前記回転角に基づいて、前記撮影手段の基準姿勢にお
ける撮影位置と前記被写体撮影用装置の撮影位置との相
対位置および相対姿勢に依存する前記被写体撮影用装置
の校正用の第3パラメータを計算する第3計算手段と、 c-5) 前記第1パラメータと前記第3パラメータとに基
づいて、前記被写体撮影用装置の撮影位置と前記基準物
体との相対位置および相対姿勢に依存する前記被写体撮
影用装置の校正用の第4パラメータを計算する第4計算
手段と、をさらに備えることを特徴とする画像撮影シス
テム。
3. The image photographing system according to claim 2, further comprising: d) a subject photographing device that acquires an image of the subject as second image data, wherein the movable photographing device is a-5). A-6) a mounting means for mounting the fixed part to another object; a-6) a means for obtaining a rotation angle of the photographing means from the reference posture rotated by the driving means; and a-7) a mounting means for photographing the subject. Imaging control means attached to the device, for causing the imaging means to acquire the first image data in association with the acquisition of the second image data of the object imaging device, The subject photographing device has a d-1) third communication means for transmitting the second image data to the calibration information processing device, and the calibration information processing device c-3) photographs the reference object. Based on the second image data, A second calculation means for calculating a second parameter for calibration of the subject photographing device depending on a relative position and a relative posture of the photographing position of the subject photographing device and the reference object, c-4) the first Calibration of the subject photographing device that depends on the relative position and relative posture between the photographing position of the photographing means in the reference posture and the photographing position of the subject photographing device, based on the parameter, the second parameter, and the rotation angle. Calculating means for calculating a third parameter for use, c-5) based on the first parameter and the third parameter, the relative position and the relative position between the photographing position of the subject photographing device and the reference object; An image capturing system, further comprising: a fourth calculation unit that calculates a fourth parameter for calibration of the device for capturing an image of a subject that depends on a posture.
【請求項4】 請求項2に記載の画像撮影システムであ
って、 前記可動式撮影装置が、 a-8) 前記固定部を他の物体に取り付ける取付手段と、 a-9) 前記駆動手段により回転した前記撮影手段の基準
姿勢からの回転角を求める手段と、 a-10) 前記撮影手段の基準姿勢における撮影位置と前
記固定部との相対位置および相対姿勢に依存する基準相
対データを取得する手段と、 a-11) 前記回転角と前記基準相対データとに基づいて
前記撮影手段の撮影位置と前記固定部との相対位置およ
び相対姿勢に依存する第5パラメータを計算する手段
と、をさらに備え、 前記校正用情報処理装置が、 c-6) 前記第2通信手段により受信した前記第5パラメ
ータおよび前記第1パラメータから前記固定部の位置と
前記基準物体との相対位置および相対姿勢に依存する第
6パラメータを計算することを特徴とする画像撮影シス
テム。
4. The image photographing system according to claim 2, wherein the movable photographing device comprises a-8) mounting means for mounting the fixed portion to another object, and a-9) the driving means. A-10) means for obtaining a rotation angle of the rotated photographing means from the reference posture, and a-10) acquiring reference relative data depending on the relative position and relative posture between the photographing position and the fixed part in the reference posture of the photographing means. And a-11) means for calculating a fifth parameter depending on the relative position and relative attitude between the photographing position of the photographing means and the fixed part based on the rotation angle and the reference relative data. C-6) depending on the relative position and relative attitude of the position of the fixed part and the reference object from the fifth parameter and the first parameter received by the second communication means. First Image capturing system and calculates the parameters.
【請求項5】 請求項4に記載の画像撮影システムであ
って、 前記可動式撮影装置が、前記取付手段により人体に取り
付け可能であることを特徴とする画像撮影システム。
5. The image photographing system according to claim 4, wherein the movable photographing device is attachable to a human body by the attaching means.
【請求項6】 可動式撮影装置であって、 3次元上の既知の形状を有する基準物体の画像を第1画
像データとして取得する撮影手段と、 固定部に対して前記撮影手段を回転駆動させる駆動手段
と、 前記可動式撮影装置が移動した場合に前記撮影手段が前
記基準物体を撮影可能となるように前記駆動手段を制御
する制御手段と、を備えることを特徴とする可動式撮影
装置。
6. A movable photographing device, comprising: photographing means for acquiring an image of a reference object having a known three-dimensional shape as first image data; and rotating the photographing means with respect to a fixed part. A movable photographing device, comprising: a driving device; and a control device that controls the driving device so that the photographing device can photograph the reference object when the movable photographing device moves.
【請求項7】 請求項6に記載の可動式撮影装置であっ
て、 前記固定部を、被写体の画像を第2画像データとして取
得する被写体撮影用装置に取り付ける取付手段と、 前記撮影手段に前記被写体撮影用装置の前記第2画像デ
ータの取得と連動して前記撮影手段に前記第1画像デー
タの取得を行わせる撮影制御手段と、をさらに備えるこ
とを特徴とする可動式撮影装置。
7. The movable photographing apparatus according to claim 6, wherein the fixed portion is attached to a subject photographing device that obtains an image of the subject as second image data, and the photographing unit includes: The movable photographing apparatus, further comprising: photographing control means for causing the photographing means to obtain the first image data in association with the acquisition of the second image data of the subject photographing device.
【請求項8】 請求項6に記載の可動式撮影装置であっ
て、 前記固定部を他の物体に取り付ける取付手段と、 前記駆動手段により回転した前記撮影手段の基準姿勢か
らの回転角を求める手段と、をさらに備え、 前記基準姿勢における前記撮影手段と前記固定部との位
置関係および前記回転角から前記撮影手段の撮影位置と
前記固定部との相対位置および相対姿勢に依存する第5
パラメータを計算することを特徴とする可動式撮影装
置。
8. The movable photographing apparatus according to claim 6, wherein an attachment means for attaching the fixed part to another object and a rotation angle of the photographing means rotated by the driving means from a reference posture are obtained. A fifth unit that depends on the relative position and relative posture between the photographing position of the photographing unit and the fixed unit from the positional relationship between the photographing unit and the fixed unit in the reference posture and the rotation angle.
A movable photographing device characterized by calculating parameters.
【請求項9】 請求項8に記載の可動式撮影装置であっ
て、 前記取付手段により人体に取り付け可能であることを特
徴とする可動式撮影装置。
9. The movable photographing device according to claim 8, wherein the movable photographing device is attachable to a human body by the attaching means.
JP2001204720A 2001-05-25 2001-07-05 Image photographing system and mobile imaging device Pending JP2003021505A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2001204720A JP2003021505A (en) 2001-07-05 2001-07-05 Image photographing system and mobile imaging device
US10/151,184 US7423666B2 (en) 2001-05-25 2002-05-20 Image pickup system employing a three-dimensional reference object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001204720A JP2003021505A (en) 2001-07-05 2001-07-05 Image photographing system and mobile imaging device

Publications (1)

Publication Number Publication Date
JP2003021505A true JP2003021505A (en) 2003-01-24

Family

ID=19041145

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001204720A Pending JP2003021505A (en) 2001-05-25 2001-07-05 Image photographing system and mobile imaging device

Country Status (1)

Country Link
JP (1) JP2003021505A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008078744A1 (en) * 2006-12-25 2008-07-03 Nec Corporation Distance measuring device, method, and program
WO2022258081A1 (en) * 2021-06-10 2022-12-15 虹软科技股份有限公司 Video processing method and apparatus, and electronic device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008078744A1 (en) * 2006-12-25 2008-07-03 Nec Corporation Distance measuring device, method, and program
US8265343B2 (en) 2006-12-25 2012-09-11 Nec Corporation Apparatus, method and program for distance measurement
JP5029618B2 (en) * 2006-12-25 2012-09-19 日本電気株式会社 Three-dimensional shape measuring apparatus, method and program by pattern projection method
WO2022258081A1 (en) * 2021-06-10 2022-12-15 虹软科技股份有限公司 Video processing method and apparatus, and electronic device

Similar Documents

Publication Publication Date Title
US7423666B2 (en) Image pickup system employing a three-dimensional reference object
CN101542538B (en) Method and system for modeling light
JP4245963B2 (en) Method and system for calibrating multiple cameras using a calibration object
CN110142785A (en) A kind of crusing robot visual servo method based on target detection
US20160371855A1 (en) Image based measurement system
US20160134860A1 (en) Multiple template improved 3d modeling of imaged objects using camera position and pose to obtain accuracy
US20150369593A1 (en) Orthographic image capture system
US20180204387A1 (en) Image generation device, image generation system, and image generation method
CN108257177B (en) Positioning system and method based on space identification
JP2013257349A (en) Camera calibration result verification device and method
US20210374978A1 (en) Capturing environmental scans using anchor objects for registration
CN112686084A (en) Image annotation system
JP2001148025A (en) Device and method for detecting position, and device and method for detecting plane posture
JP5019478B2 (en) Marker automatic registration method and system
JP6963295B2 (en) 3D information acquisition device
US20220201163A1 (en) Background display device, background display system, recording system, camera system, digital camera and method of controlling a background display device
JP4590780B2 (en) Camera calibration three-dimensional chart, camera calibration parameter acquisition method, camera calibration information processing apparatus, and program
JP2003023562A (en) Image photographic system and camera system
JP6027952B2 (en) Augmented reality image generation system, three-dimensional shape data generation device, augmented reality presentation device, augmented reality image generation method, and program
CN111735414A (en) Area metering system and metering method based on panoramic three-dimensional imaging
JP2003021505A (en) Image photographing system and mobile imaging device
JP4665350B2 (en) measuring device
JP2005031044A (en) Three-dimensional error measuring device
Omosekeji Industrial vision robot with raspberry pi using pixy camera: stereo vision system
JP4892793B2 (en) Measuring apparatus and measuring method

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050613