JP2003014421A - Measuring apparatus and measuring method - Google Patents

Measuring apparatus and measuring method

Info

Publication number
JP2003014421A
JP2003014421A JP2001203375A JP2001203375A JP2003014421A JP 2003014421 A JP2003014421 A JP 2003014421A JP 2001203375 A JP2001203375 A JP 2001203375A JP 2001203375 A JP2001203375 A JP 2001203375A JP 2003014421 A JP2003014421 A JP 2003014421A
Authority
JP
Japan
Prior art keywords
camera
subject
photographing
dimensional
chart
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001203375A
Other languages
Japanese (ja)
Other versions
JP4892792B2 (en
Inventor
Hideo Fujii
英郎 藤井
Koji Fujiwara
浩次 藤原
Kunimitsu Sakakibara
邦光 榊原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP2001203375A priority Critical patent/JP4892792B2/en
Priority to US10/151,184 priority patent/US7423666B2/en
Publication of JP2003014421A publication Critical patent/JP2003014421A/en
Application granted granted Critical
Publication of JP4892792B2 publication Critical patent/JP4892792B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Input (AREA)

Abstract

PROBLEM TO BE SOLVED: To properly measure a subject, even a large one, with high measurement accuracy while ensuring a wide movable range of a camera. SOLUTION: Two or more three-dimensional charts 2 (2a, 2b) are arranged around the subject 30. A chart pattern of a known structure is formed on the side surface of each three-dimensional chart 2. The three-dimensional charts arranged around the subject 30 are photographed by use of a movable camera 11, and the relative positional relation of each three-dimensional chart 2 is determined from the resulting images. The movable camera 11 takes the image of one three-dimensional chart 2 (a three-dimensional chart to be photographed) synchronously with the photographing of the subject 30 with a subject camera (subject photographing camera) 13. The three-dimensional information of the subject 30 is generated on the basis of the relation between the movable camera 11 and the three-dimensional chart to be photographed, the relation between the movable camera 11 and the subject camera 13, and the relative positional relation of each three-dimensional chart.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、被写体を複数の方
向からカメラで撮影して当該被写体の三次元画像モデル
を構築するための技術に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a technique for photographing a subject with a camera from a plurality of directions and constructing a three-dimensional image model of the subject.

【0002】[0002]

【従来の技術】立体的な被写体を複数の方向から撮影
し、それによって得られた複数の画像データを組み合わ
せることによって、当該被写体の三次元画像モデルを得
ることができる。すなわち、複数の方向から被写体を撮
影したそれぞれの画像ごとに、カメラの外部パラメータ
(カメラの位置や姿勢など)と内部パラメータ(焦点距
離など)のデータを得ることができれば、シェープ・フ
ロム・シルエット法によって、被写体のシルエット画像
から三次元のモデルを再構成することができる。このシ
ェープ・フロム・シルエット法についての詳細は、W.Ni
em, "Robust and Fast Modelling of 3D Natural Objec
ts from Multiple Views" SPIE ProceedingsImage and
Video Proceeding II vol.2182,1994,pp.388-397に開示
されている。以下、カメラの外部パラメータと内部パラ
メータとを「(カメラの)校正パラメータ」と総称する
が、この校正パラメータのうち内部パラメータが既知で
あって内部パラメータによるカメラの校正が完了してい
る場合には、カメラの外部パラメータが求まれば、被写
体の三次元画像モデルの構築が可能となる。
2. Description of the Related Art A three-dimensional image model of a subject can be obtained by photographing a three-dimensional subject from a plurality of directions and combining a plurality of image data obtained thereby. That is, if the data of the external parameters of the camera (such as the position and orientation of the camera) and the internal parameters (such as the focal length) can be obtained for each of the images of the subject taken from a plurality of directions, the shape from silhouette method can be used. The three-dimensional model can be reconstructed from the silhouette image of the subject. For more information on this shape from silhouette method, see W. Ni.
em, "Robust and Fast Modeling of 3D Natural Objec
ts from Multiple Views "SPIE ProceedingsImage and
Video Proceeding II vol.2182,1994, pp.388-397. Hereinafter, the external parameters and internal parameters of the camera will be collectively referred to as “(camera) calibration parameters”. If the internal parameters of these calibration parameters are known and the calibration of the camera by the internal parameters has been completed, Once the external parameters of the camera are obtained, it is possible to construct a three-dimensional image model of the subject.

【0003】ところで、このように複数の方向から被写
体を撮影するにあたっての1つの方法は、複数のカメラ
を異なる位置に固定配置して被写体を撮影する固定配置
方式である。しかしながら、この固定配置方式では複数
のカメラを撮影スタジオ内などに固定的に分散配置して
おかねばならないために、撮影設備が大がかりになるだ
けである。
By the way, one method for photographing an object from a plurality of directions is a fixed arrangement method in which a plurality of cameras are fixedly arranged at different positions to photograph an object. However, in this fixed arrangement method, since a plurality of cameras must be fixed and dispersed in a photographing studio or the like, the photographing equipment becomes large in size.

【0004】そこで、ユーザが1台の手持ちカメラを持
って被写体の周りを移動しつつ、複数の方向から被写体
を順次に撮影することによって被写体の全周囲の画像を
得る移動撮影方式が提案されている。この移動撮影方式
でカメラの外部パラメータを決定するには、それぞれの
撮影時にカメラの位置及び姿勢を特定することが必要と
なる。
Therefore, a moving photographing method has been proposed in which a user holds a single hand-held camera and moves around the subject while sequentially photographing the subject from a plurality of directions to obtain an image of the entire circumference of the subject. There is. In order to determine the external parameters of the camera in this moving photographing method, it is necessary to specify the position and orientation of the camera at each photographing.

【0005】この場合の、カメラの外部パラメータを測
定する方式の一つとして、平面チャートと使用した光学
方式によるものが、従来から提案されている。
As one of the methods for measuring the external parameters of the camera in this case, a plan chart and an optical method used have been conventionally proposed.

【0006】[0006]

【発明が解決しようとする課題】しかしながら、平面チ
ャートは、それを観測可能な角度範囲が狭く、当該平面
チャートの法線方向から90度を越える方向からは観測
できないため、カメラの可動範囲が大きく制限されると
いう問題を有している。また、平面チャートを観測でき
る範囲内にカメラがあっても、平面チャートの法線方向
からカメラの方向が大きくずれているときには平面チャ
ート上のパターンの観測精度が低下し、その結果として
カメラの外部パラメータの決定精度が良くないといった
欠点もある。
However, since the plane chart has a narrow angle range in which it can be observed and cannot be observed from a direction exceeding 90 degrees from the normal direction of the plane chart, the movable range of the camera is large. It has the problem of being limited. Moreover, even if the camera is within the range where the plane chart can be observed, the observation accuracy of the pattern on the plane chart decreases when the direction of the camera deviates significantly from the normal direction of the plane chart, and as a result, the outside of the camera There is also a drawback that the accuracy of parameter determination is not good.

【0007】特に、被写体が平面チャートに比べて十分
に大きい物体である場合には、従来の光学方式では正確
な外部パラメータを得ることができず、被写体の三次元
画像モデルを構築することができないという問題が顕著
となる。
Particularly, when the subject is an object that is sufficiently larger than the plane chart, the conventional optical system cannot obtain accurate external parameters and cannot construct a three-dimensional image model of the subject. The problem becomes remarkable.

【0008】そこで、本発明は上記課題に鑑みてなされ
たものであって、光学方式を用いながらも、広い可動範
囲を確保しつつ高い測定精度で三次元画像モデルを構築
することの可能な測定装置を実現することを目的として
いる。
Therefore, the present invention has been made in view of the above problems, and it is possible to construct a three-dimensional image model with high measurement accuracy while securing a wide movable range while using an optical system. The purpose is to realize the device.

【0009】[0009]

【課題を解決するための手段】上記目的を達成するため
に、請求項1に記載の発明は、被写体の周囲に既知の形
状を有する複数の姿勢検出用基準物体が配置された状態
で、前記被写体を測定する測定装置であって、基準物体
測定用カメラと、前記複数の姿勢検出用基準物体を予め
前記基準物体撮影用カメラで撮影した画像に基づいて、
前記複数の姿勢検出用基準物体の相対的位置関係を求め
る第1演算手段と、前記測定装置の測定動作に同期して
前記基準物体撮影用カメラの撮影が行われるように制御
する制御手段と、前記基準物体撮影用カメラで撮影され
た測定時の前記姿勢検出用基準物体の画像に基づいて、
前記測定装置の姿勢を算出する第2演算手段と、を備え
ている。
In order to achieve the above object, the invention according to claim 1 is characterized in that a plurality of posture detecting reference objects having a known shape are arranged around a subject, and A measuring device for measuring a subject, based on an image taken by the reference object measuring camera in advance, and the plurality of posture detection reference objects by the reference object photographing camera,
First computing means for obtaining a relative positional relationship between the plurality of reference objects for attitude detection, and control means for controlling so that the reference object shooting camera performs shooting in synchronization with the measurement operation of the measuring device, Based on the image of the attitude detection reference object at the time of measurement taken by the reference object imaging camera,
Second calculation means for calculating the attitude of the measuring device.

【0010】請求項2に記載の発明は、請求項1に記載
の測定装置において、前記第1演算手段が、前記基準物
体撮影用カメラの画角内に少なくとも2つの前記姿勢検
出用基準物体が収まるようにして撮影された画像に含ま
れる各姿勢検出用基準物体に基づいて、前記少なくとも
2つの姿勢検出用基準物体の相対的位置関係を求めるこ
とを特徴としている。
According to a second aspect of the present invention, in the measuring apparatus according to the first aspect, the first computing means includes at least two posture-detecting reference objects within an angle of view of the reference-object photographing camera. It is characterized in that a relative positional relationship between the at least two posture detection reference objects is obtained based on each posture detection reference object included in the image captured so as to fit.

【0011】請求項3に記載の発明は、請求項1に記載
の測定装置において、前記第1演算手段が、前記基準物
体撮影用カメラの姿勢を変化させつつ、前記基準物体撮
影用カメラによって前記複数の姿勢検出用基準物体を予
め撮影して得られる各画像と、前記各画像を撮影した際
の前記基準物体撮影用カメラの姿勢と、に基づいて、前
記複数の姿勢検出用基準物体の相対的位置関係を求める
ことを特徴としている。
According to a third aspect of the present invention, in the measuring apparatus according to the first aspect, the first computing means changes the posture of the reference object photographing camera while the reference object photographing camera is used. The relative positions of the plurality of posture detection reference objects based on each image obtained by previously photographing the plurality of posture detection reference objects and the posture of the reference object photographing camera when the respective images are photographed. It is characterized by finding the physical position relationship.

【0012】請求項4に記載の発明は、請求項1乃至3
のいずれかに記載の測定装置において、前記基準物体撮
影用カメラが、前記測定装置に対して撮影方向を可変に
固定されていることを特徴としている。
The invention according to a fourth aspect is the first to the third aspects.
The measuring device described in any one of 1 to 3 is characterized in that the camera for photographing the reference object is variably fixed in a photographing direction with respect to the measuring device.

【0013】請求項5に記載の発明は、請求項4に記載
の測定装置において、前記制御手段が、前記基準物体撮
影用カメラが少なくとも1つの前記姿勢検出用基準物体
を撮影するように、前記基準物体撮影用カメラの前記撮
影方向を制御する撮影方向制御手段を有することを特徴
としている。
According to a fifth aspect of the present invention, in the measuring apparatus according to the fourth aspect, the control means sets the reference object photographing camera so as to photograph at least one of the posture detecting reference objects. It is characterized in that it has a photographing direction control means for controlling the photographing direction of the reference object photographing camera.

【0014】請求項6に記載の発明は、請求項1乃至5
のいずれかに記載の測定装置において、前記測定装置
が、被写体の3次元形状を測定する装置であり、複数回
の測定で得られた3次元形状が各測定時の姿勢に基づい
て合成されることを特徴としている。
The invention according to a sixth aspect is the first to fifth aspects.
2. The measuring device according to claim 1, wherein the measuring device is a device for measuring a three-dimensional shape of a subject, and the three-dimensional shape obtained by a plurality of measurements is combined based on the posture at each measurement. It is characterized by that.

【0015】請求項7に記載の発明は、被写体の周囲に
既知の形状を有する複数の姿勢検出用基準物体が配置さ
れた状態で、前記被写体を測定する測定装置であって、
前記被写体を撮影する被写体撮影用カメラと、基準物体
撮影用カメラと、前記複数の姿勢検出用基準物体を予め
前記基準物体撮影用カメラおよび/または前記被写体撮
影用カメラで撮影した画像に基づいて、前記複数の姿勢
検出用基準物体の相対的位置関係を求める第1演算手段
と、前記被写体撮影用カメラの撮影動作に同期して、前
記基準物体撮影用カメラの撮影が行われるように制御す
る制御手段と、前記基準物体撮影用カメラで撮影された
測定時の前記姿勢検出用基準物体の画像に基づいて、前
記測定装置の姿勢を算出する第2演算手段と、を有し、
前記被写体撮影用カメラで撮影された画像及びそのとき
の姿勢に基づいて所定の測定演算が行われることを特徴
としている。
According to a seventh aspect of the present invention, there is provided a measuring device for measuring the subject in a state where a plurality of reference objects for posture detection having a known shape are arranged around the subject.
Based on an image captured by the reference object capturing camera and / or the subject capturing camera in advance, the subject capturing camera capturing the subject, the reference object capturing camera, and the plurality of posture detection reference objects in advance. First control means for obtaining the relative positional relationship between the plurality of reference objects for posture detection, and control for controlling the reference object photographing camera to perform photographing in synchronization with the photographing operation of the subject photographing camera. Means, and second calculation means for calculating the attitude of the measuring device based on an image of the attitude detecting reference object at the time of measurement taken by the reference object imaging camera,
It is characterized in that a predetermined measurement calculation is performed on the basis of the image captured by the camera for capturing an object and the posture at that time.

【0016】請求項8に記載の発明は、被写体の周囲に
既知の形状を有する複数の姿勢検出用基準物体が配置さ
れた状態で、前記被写体を測定する測定方法であって、
前記複数の姿勢検出用基準物体を予め基準物体撮影用カ
メラで撮影し、その画像に基づいて、前記複数の姿勢検
出用基準物体の相対的位置関係を求める工程と、測定装
置の測定動作に同期して、前記複数の姿勢検出用基準物
体のうちの少なくとも1つを前記基準物体撮影用カメラ
で撮影する工程と、前記基準物体撮影用カメラで撮影さ
れた測定時の前記姿勢検出用基準物体の画像に基づい
て、前記測定装置の姿勢を算出する工程と、を有してい
る。
The invention according to claim 8 is a measuring method for measuring the subject in a state in which a plurality of reference objects for posture detection having a known shape are arranged around the subject,
Synchronizing with a step of photographing the plurality of posture detection reference objects with a reference object photographing camera in advance and obtaining a relative positional relationship of the plurality of posture detection reference objects based on the image, and a measurement operation of the measuring device. Then, the step of photographing at least one of the plurality of posture detection reference objects with the reference object photographing camera, and the step of measuring the posture detection reference object at the time of measurement photographed by the reference object photographing camera. Calculating the orientation of the measuring device based on the image.

【0017】請求項9に記載の発明は、被写体の周囲に
既知の形状を有する複数の姿勢検出用基準物体が配置さ
れた状態で、前記被写体を測定する測定方法であって、
前記複数の姿勢検出用基準物体を予め基準物体撮影用カ
メラおよび/または被写体撮影用カメラで撮影し、その
画像に基づいて、前記複数の姿勢検出用基準物体の相対
的位置関係を求める工程と、前記被写体撮影用カメラの
撮影動作に同期して、前記複数の姿勢検出用基準物体の
うちの少なくとも1つを前記基準物体撮影用カメラで撮
影する工程と、前記基準物体撮影用カメラで撮影された
測定時の前記姿勢検出用基準物体の画像に基づいて、測
定装置の姿勢を算出する工程と、前記被写体撮影用カメ
ラで撮影された画像及びそのときの姿勢に基づいて所定
の測定演算を行う工程と、を有している。
According to a ninth aspect of the present invention, there is provided a measuring method for measuring the subject with a plurality of reference objects for posture detection having a known shape arranged around the subject.
A step of preliminarily photographing the plurality of posture detection reference objects with a reference object photographing camera and / or a subject photographing camera, and obtaining a relative positional relationship of the plurality of posture detection reference objects based on the image; In synchronization with the shooting operation of the object shooting camera, a step of shooting at least one of the plurality of posture detection reference objects with the reference object shooting camera, and a step of shooting with the reference object shooting camera Calculating a posture of the measuring device based on the image of the reference object for posture detection at the time of measurement, and performing a predetermined measurement calculation based on the image photographed by the camera for photographing the subject and the posture at that time And have.

【0018】[0018]

【発明の実施の形態】以下、この発明の実施の形態につ
いて図面を参照しつつ詳細に説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will now be described in detail with reference to the drawings.

【0019】<1.三次元情報生成システムの構成>図
1は、本発明にかかる三次元情報生成システム1の一構
成例を示す図である。この三次元情報生成システム1
は、立体的な被写体30の画像を撮像可能な可搬性のカ
メラシステム10と、被写体30を収容した空間内にお
いて、被写体30の近傍に配置されたカメラ校正用の複
数の立体チャート2と、を備えている。なお、図1にお
いては、複数の立体チャート2として、2つの立体チャ
ート2a,2bが設けられる例を示している。
<1. Configuration of 3D Information Generating System> FIG. 1 is a diagram showing an example of the configuration of the 3D information generating system 1 according to the present invention. This 3D information generation system 1
Is a portable camera system 10 capable of capturing a stereoscopic image of a subject 30, and a plurality of stereoscopic charts 2 for camera calibration arranged in the vicinity of the subject 30 in a space accommodating the subject 30. I have it. Note that FIG. 1 illustrates an example in which two stereo charts 2a and 2b are provided as the plurality of stereo charts 2.

【0020】各立体チャート2は、後に詳述するよう
に、略角錐状の本体の各側面にチャートパターンが施さ
れた立体物であり、姿勢検出用基準物体である。各立体
チャート2は、チャート支持具250から吊り下げられ
ている。チャート支持具250は台座251から伸びる
逆L字状のアーム252を備え、各立体チャート2はそ
のアーム252の先端付近に固定されている。好ましく
は、各立体チャート2は被写体30の略上方に吊り下げ
られる。
As will be described in detail later, each three-dimensional chart 2 is a three-dimensional object in which a chart pattern is formed on each side surface of a substantially pyramidal main body, and is a posture detection reference object. Each three-dimensional chart 2 is suspended from the chart support 250. The chart support 250 includes an inverted L-shaped arm 252 extending from the pedestal 251, and each solid chart 2 is fixed near the tip of the arm 252. Preferably, each three-dimensional chart 2 is suspended substantially above the subject 30.

【0021】カメラシステム10は、デジタルカメラと
しての機能を有する被写体撮影用カメラ(以下、「被写
体用カメラ」と略す)13を備えて構成される三次元情
報生成装置であり、被写体を測定する測定装置としても
機能する。また、この被写体用カメラ13の上部には、
基準物体撮影用カメラとして機能する可動式カメラ11
が姿勢変更自在に取り付けられている。可動式カメラ1
1は、立体チャート2のチャートパターン(図2参照)
に含まれる複数の単位図形UPを撮影することにより、
立体チャート2と可動式カメラ11との相対的な位置姿
勢関係を特定し、さらには立体チャート2に対する被写
体用カメラ13の位置および姿勢を検出するために使用
される。
The camera system 10 is a three-dimensional information generating apparatus which is provided with a camera for photographing a subject (hereinafter, abbreviated as "camera for subject") 13 having a function as a digital camera, and is a measurement for measuring a subject. It also functions as a device. In addition, on the upper part of the camera 13 for the subject,
Movable camera 11 that functions as a camera for photographing a reference object
Is attached so that the posture can be changed. Movable camera 1
1 is a chart pattern of the three-dimensional chart 2 (see FIG. 2)
By photographing a plurality of unit figures UP included in
It is used to specify the relative position and orientation relationship between the three-dimensional chart 2 and the movable camera 11, and further to detect the position and orientation of the subject camera 13 with respect to the three-dimensional chart 2.

【0022】なお図1に示すように、この三次元情報生
成システム1は、たとえばノートブック型等のコンピュ
ータ15を備えていてもよい。その場合、コンピュータ
15は、通信インタフェースを介した無線若しくは有線
のデータ通信、又は、メモリカード等の記録媒体を介し
たデータ交換等によってカメラシステム10との間でコ
マンドやデータの授受が可能なように構成される。
As shown in FIG. 1, the three-dimensional information generation system 1 may include a notebook computer 15 or the like. In that case, the computer 15 can exchange commands and data with the camera system 10 by wireless or wired data communication via a communication interface, or data exchange via a recording medium such as a memory card. Is composed of.

【0023】<2.立体チャートの構成>図2は各立体
チャート2の側面図である。立体チャート2は、立体チ
ャート本体203と、この立体チャート本体203の表
面上に形成されたチャートパターンCPとを有してい
る。
<2. Structure of Solid Chart> FIG. 2 is a side view of each solid chart 2. The three-dimensional chart 2 has a three-dimensional chart body 203 and a chart pattern CP formed on the surface of the three-dimensional chart body 203.

【0024】このうち立体チャート本体203は、多角
錐形状の表示部204と、角錐台状の支持部205とが
一体化されており、内部は中空となっている。チャート
パターンCPは、表示部204の各側面T1〜Tn(n
は3以上の整数)上に付されたパターンP1〜Pnの集
合である。好ましくは、多角錐の側面の数nは、n=3
〜36であり、より好ましくはn=6〜12である。各
側面T1〜Tnに形成されたそれぞれのパターンP1〜
Pnは平面的パターンであるが、パターンP1〜Pnが
立体的に配置されることにより、このパターンP1〜P
nの集合としてのチャートパターンCPは立体的パター
ンとなっている。それぞれのパターンP1〜Pnは、そ
れぞれが単位図形として機能する複数の台形の集合であ
り、各単位図形の形状は設計値に基づいて高精度に形成
される。したがって、各単位図形の頂点位置は既知とな
る。
Of these, the three-dimensional chart body 203 has a polygonal pyramid-shaped display portion 204 and a truncated pyramid-shaped support portion 205 integrated with each other, and has a hollow interior. The chart pattern CP includes the side surfaces T1 to Tn (n (n
Is an integer of 3 or more) and is a set of patterns P1 to Pn. Preferably, the number n of side surfaces of the polygonal pyramid is n = 3.
To 36, and more preferably n = 6 to 12. Each pattern P1 formed on each side surface T1 to Tn
Pn is a two-dimensional pattern, but the patterns P1 to Pn are three-dimensionally arranged so that the patterns P1 to Pn are
The chart pattern CP as a set of n is a three-dimensional pattern. Each of the patterns P1 to Pn is a set of a plurality of trapezoids each functioning as a unit figure, and the shape of each unit figure is formed with high accuracy based on the design value. Therefore, the vertex position of each unit figure is known.

【0025】また、表示部204を構成する多角錐の頂
点には、可動式カメラ11がチャートパターンCPを追
尾(トラッキング)する際に基準点とするマーカ201
として、発光ダイオード(LED)が取り付けられてお
り、立体チャート2の内部に設けられたマーカ用電源が
マーカ201を点灯させることにより、可動式カメラ1
1が容易かつ正確に立体チャート2の位置を認識するこ
とができるように構成されている。
A marker 201, which serves as a reference point when the movable camera 11 tracks the chart pattern CP, is provided at the apex of the polygonal pyramid forming the display section 204.
As a light emitting diode (LED) is attached, the movable power source for the marker 1 is turned on by the marker power source provided inside the three-dimensional chart 2 lighting the marker 201.
1 is configured so that the position of the three-dimensional chart 2 can be recognized easily and accurately.

【0026】<3.可動式カメラ11の構成>図3は可
動式カメラ11の正面図であり、図4は可動式カメラ1
1の内部機能を示すブロック図である。図3及び図4に
示すように、可動式カメラ11では、レンズユニット1
10と、このレンズユニット110によって結像した2
次元画像を光電変換する2次元受光素子111とが一体
となって球状ユニット116に納められている。2次元
受光素子111は複数の画素が受光面に配列されたCC
Dアレイ等によって構成される。レンズユニット110
は、固定レンズ110aとズームレンズ110bとの組
み合わせであり、それらの間に絞り/シャッタ機構部1
10eが存在する。
<3. Structure of Movable Camera 11> FIG. 3 is a front view of the movable camera 11, and FIG.
2 is a block diagram showing the internal functions of FIG. As shown in FIGS. 3 and 4, in the movable camera 11, the lens unit 1
10 and 2 imaged by this lens unit 110
A two-dimensional light receiving element 111 for photoelectrically converting a three-dimensional image is integrally housed in a spherical unit 116. The two-dimensional light receiving element 111 is a CC in which a plurality of pixels are arranged on the light receiving surface.
It is composed of a D array or the like. Lens unit 110
Is a combination of the fixed lens 110a and the zoom lens 110b, and the aperture / shutter mechanism unit 1 is interposed between them.
10e is present.

【0027】図3に示すように、球状ユニット116は
姿勢変化装置113を介して固定部114に連結されて
おり、球状ユニット116に内蔵された各要素とともに
パン方向の±約70°の旋回(θ回転)と、チルト方向
への±約70°の俯仰(φ回転)とが可能になってい
る。そして、これらのパン方向の回転駆動とチルト方向
の回転駆動とを行うために、複数のピエゾ素子を内蔵し
た姿勢変化装置113が球状ユニット116の基部に配
置されている。また、ズームレンズ110bの駆動に相
当するズーム操作も、上記とは別のピエゾ素子によって
行われる。これらのピエゾ素子にノコギリ波信号を与え
ることにより、ピエゾ素子による駆動の対象要素が寸動
し、その繰り返しによって対象要素に所要の動きが与え
られる。パン方向の旋回角とチルト方向の俯仰角とは、
それぞれエンコーダなどの角度センサ126p、126
tによって検出され、ズームレンズ110bの駆動量は
やはりエンコーダで構成されたセンサ126zによって
検出される。これらの駆動機構については、例えば特開
平11−18000号公報や、特開平11−41504
号公報に開示されている。
As shown in FIG. 3, the spherical unit 116 is connected to the fixed portion 114 through the attitude changing device 113, and together with the respective elements incorporated in the spherical unit 116, the pan direction is rotated about ± 70 ° ( θ rotation) and elevation (φ rotation) of ± about 70 ° in the tilt direction are possible. Then, in order to perform the rotational drive in the pan direction and the rotational drive in the tilt direction, an attitude changing device 113 having a plurality of piezo elements built therein is arranged at the base of the spherical unit 116. A zoom operation corresponding to driving the zoom lens 110b is also performed by a piezo element different from the above. By giving a sawtooth wave signal to these piezo elements, the element to be driven by the piezo element moves slightly, and the required movement is given to the object element by repeating the element. The turning angle in the pan direction and the depression angle in the tilt direction are
Angle sensors 126p and 126 such as encoders, respectively
The drive amount of the zoom lens 110b is detected by t and is also detected by the sensor 126z which is also composed of an encoder. Regarding these drive mechanisms, for example, JP-A-11-18000 and JP-A-11-41504.
It is disclosed in the publication.

【0028】球状ユニット116は、上記のように姿勢
変化装置113によって被写体用カメラ13に対する位
置及び姿勢が可動範囲内の任意の状態となるように駆動
される。
As described above, the spherical unit 116 is driven by the posture changing device 113 so that the position and the posture with respect to the subject camera 13 are in an arbitrary state within the movable range.

【0029】また、可動式カメラ11は、2次元受光素
子111で得られる画像信号を入力して画像処理等のデ
ータ処理を行うとともに、姿勢変化装置113を制御す
るためのデータ処理部120と、追尾ボタン117とを
備えている。
Further, the movable camera 11 inputs an image signal obtained by the two-dimensional light receiving element 111 to perform data processing such as image processing, and a data processing unit 120 for controlling the posture changing device 113, A tracking button 117 is provided.

【0030】データ処理部120は、2次元受光素子1
11からの信号を入力して画像認識などの処理を行う画
像処理部121と、この画像処理部121で得られた画
像信号を記憶する画像メモリ122とを備えている。ま
た、ズームレンズ110b、姿勢変化装置113、およ
び絞り/シャッタ機構部110eの駆動信号を発生し
て、これらに出力するカメラ制御部123が設けられて
おり、画像処理部121およびカメラ制御部123は、
通信部124および通信デバイス112を介して、被写
体用カメラ13と無線通信が可能である。この通信によ
り画像データが被写体用カメラ13に送信されるほか、
各種情報が可動式カメラ11と被写体用カメラ13との
間で送受信される。この実施形態の可動式カメラ11で
は、通信デバイス112として、赤外線通信を行うため
のIRDA(Infrared Data Association)インタフェ
ースに対応した赤外線素子が使用されている。
The data processing unit 120 includes the two-dimensional light receiving element 1
An image processing unit 121 that receives a signal from the image processing unit 11 to perform processing such as image recognition, and an image memory 122 that stores the image signal obtained by the image processing unit 121 are provided. Further, a camera control unit 123 is provided which generates drive signals for the zoom lens 110b, the posture changing device 113, and the aperture / shutter mechanism unit 110e and outputs them to the image processing unit 121 and the camera control unit 123. ,
Wireless communication with the subject camera 13 is possible via the communication unit 124 and the communication device 112. By this communication, the image data is transmitted to the subject camera 13,
Various information is transmitted and received between the movable camera 11 and the subject camera 13. In the movable camera 11 of this embodiment, as the communication device 112, an infrared element compatible with an IRDA (Infrared Data Association) interface for performing infrared communication is used.

【0031】図3に示すように、固定部114に設けら
れた第1取付溝115aおよび第2取付溝115bは、
被写体用カメラ13に固定部114を取り付けるために
用いられる。被写体用カメラ13に固定部114が取り
付けられることで、被写体用カメラ13に対して可動式
カメラ11を固定することができ、例えば可動式カメラ
11の旋回角及び俯仰角が0°であるとしたときの可動
式カメラ11と被写体用カメラ13との相対的な位置及
び姿勢関係が所定の状態に設定されることになる。
As shown in FIG. 3, the first mounting groove 115a and the second mounting groove 115b provided in the fixed portion 114 are
It is used to attach the fixed portion 114 to the camera 13 for a subject. By attaching the fixing portion 114 to the subject camera 13, the movable camera 11 can be fixed to the subject camera 13, and for example, the turning angle and the depression angle of the movable camera 11 are 0 °. At this time, the relative position and posture relationship between the movable camera 11 and the subject camera 13 is set to a predetermined state.

【0032】さらに、追尾ボタン117は、可動式カメ
ラ11に立体チャート2を自動的に追尾させるモード
(以下、「自動追尾モード」と略す)と被写体用カメラ
13からのユーザの指示により追尾させるモード(以
下、「手動モード」と略す)とを切り換えるためのボタ
ンである。
Further, the tracking button 117 is a mode in which the movable camera 11 automatically tracks the three-dimensional chart 2 (hereinafter abbreviated as "automatic tracking mode") and a mode in which the camera for subject 13 tracks the stereo chart 2. (Hereinafter, abbreviated as “manual mode”) is a button for switching between.

【0033】次に、上記のように構成された可動式カメ
ラ11における動作について説明する。
Next, the operation of the movable camera 11 configured as described above will be described.

【0034】2次元受光素子111は、画素ごとにR
(赤)、G(緑)、B(青)のいずれかのフィルタが付
設されており、2次元受光素子111上に結像した光
は、この2次元受光素子111によってRGBの各色成
分ごとに光電変換される。2次元受光素子111によっ
て得られる画像信号は、画像処理部121においてA/
D変換されてデジタル信号である画像データに変換さ
れ、さらにホワイトバランス補正やγ補正等の各種画像
処理を受ける。
The two-dimensional light receiving element 111 has an R pixel for each pixel.
A filter of any one of (red), G (green), and B (blue) is attached, and the light imaged on the two-dimensional light receiving element 111 is converted by the two-dimensional light receiving element 111 into RGB color components. It is photoelectrically converted. The image signal obtained by the two-dimensional light receiving element 111 is A /
The image data is D-converted and converted into image data which is a digital signal, and further subjected to various image processing such as white balance correction and γ correction.

【0035】ユーザが追尾ボタン117を押し込み操作
して自動追尾モードを設定した場合、画像処理部121
は画像データを解析してマーカ201を検出し、例えば
マーカ201の画像成分が画像中心に対してどの程度ず
れているかを示す信号をカメラ制御部123に与える。
この結果、カメラ制御部123は、マーカ201の画像
成分を画像中心に移動させるための姿勢変化装置113
の駆動量(すなわち追尾データ)を求め、その駆動量に
基づいて姿勢変化装置113を駆動制御するように構成
される。これにより、立体チャート2の像が2次元受光
素子111に常に結像されるように、姿勢変化装置11
3が制御される。
When the user presses the tracking button 117 to set the automatic tracking mode, the image processing unit 121
Analyzes the image data to detect the marker 201, and gives a signal indicating, for example, how much the image component of the marker 201 deviates from the image center to the camera control unit 123.
As a result, the camera control unit 123 causes the posture changing device 113 to move the image component of the marker 201 to the center of the image.
Is obtained, and the posture changing device 113 is drive-controlled based on the drive amount. Thereby, the attitude changing device 11 is configured so that the image of the three-dimensional chart 2 is always formed on the two-dimensional light receiving element 111.
3 is controlled.

【0036】一方、手動モードでは、カメラ制御部12
3は被写体用カメラ13から受信するユーザの指示に基
づき、姿勢変化装置113を制御する。
On the other hand, in the manual mode, the camera control unit 12
Reference numeral 3 controls the posture changing device 113 based on a user instruction received from the subject camera 13.

【0037】また、カメラ制御部123は、各センサ1
26t,126p,126zでの検出結果を入力するよ
うに構成され、角度センサ126t,126pから入力
する情報に基づいてレンズ回転角情報を生成し、またセ
ンサ126zから入力する情報に基づいてズーム情報を
生成する。カメラ制御部123は、これらの情報を通信
部124を介して被写体用カメラ13に送出するように
構成される。
Further, the camera control section 123 controls each sensor 1
26t, 126p, 126z are configured to be input, lens rotation angle information is generated based on information input from the angle sensors 126t, 126p, and zoom information is generated based on information input from the sensor 126z. To generate. The camera control unit 123 is configured to send these pieces of information to the subject camera 13 via the communication unit 124.

【0038】そして、被写体用カメラ13のシャッタボ
タンが押下されると、可動式カメラ11は、撮影コマン
ドを被写体用カメラ13から受信し、その撮影コマンド
の受信に応答して、2次元受光素子111による撮影動
作を行って画像データの生成を行う。そして、そのとき
に得られる画像データとレンズ回転角情報とを、通信部
124を介して被写体用カメラ13に送信するように構
成される。
When the shutter button of the subject camera 13 is pressed, the movable camera 11 receives a photographing command from the subject camera 13 and, in response to the reception of the photographing command, the two-dimensional light receiving element 111. The image capturing operation is performed to generate image data. Then, the image data and the lens rotation angle information obtained at that time are transmitted to the subject camera 13 via the communication unit 124.

【0039】<4.被写体用カメラ13の構成>次に、
被写体用カメラ13の構成について説明する。図5は、
被写体用カメラ13の内部構成を示すブロック図であ
る。図5に示すように、被写体用カメラ13は、レンズ
ユニット155、2次元受光素子156、画像処理部1
57、画像メモリ158、制御部160、シャッタボタ
ン161、フラッシュ162、ディスプレイ163、操
作ボタン164、カードスロット165、メモリカード
166、通信部167、通信デバイス168、メモリ1
69、及び、演算部170を備えて構成される。また、
演算部170は第1演算部171及び第2演算部172
を備えて構成される。
<4. Configuration of Subject Camera 13> Next,
The configuration of the subject camera 13 will be described. Figure 5
3 is a block diagram showing an internal configuration of a subject camera 13. FIG. As shown in FIG. 5, the subject camera 13 includes a lens unit 155, a two-dimensional light receiving element 156, and an image processing unit 1.
57, image memory 158, control unit 160, shutter button 161, flash 162, display 163, operation button 164, card slot 165, memory card 166, communication unit 167, communication device 168, memory 1
69 and a computing unit 170. Also,
The calculation unit 170 includes a first calculation unit 171 and a second calculation unit 172.
It is configured with.

【0040】被写体30からの光は、レンズユニット1
55を介して被写体用カメラ13に入射し、2次元受光
素子156に結像される。2次元受光素子156は複数
の画素が受光面に配列されたCCDアレイ等によって構
成される。2次元受光素子156は、各画素ごとに受光
する光を光電変換する。2次元受光素子156の受光面
側には画素ごとにRGBのいずれかのフィルタが付設さ
れており、2次元受光素子156の光電変換機能によっ
て画素ごとにRGBの各色成分を有する画像信号が生成
される。
The light from the subject 30 is emitted from the lens unit 1
The light enters the subject camera 13 via 55 and is imaged on the two-dimensional light receiving element 156. The two-dimensional light receiving element 156 is composed of a CCD array in which a plurality of pixels are arranged on the light receiving surface. The two-dimensional light receiving element 156 photoelectrically converts the light received for each pixel. One of RGB filters is provided for each pixel on the light-receiving surface side of the two-dimensional light receiving element 156, and the photoelectric conversion function of the two-dimensional light receiving element 156 generates an image signal having RGB color components for each pixel. It

【0041】画像処理部157は2次元受光素子156
からの画像信号をA/D変換してデジタル信号である画
像データを生成する。また、画像処理部157は、画像
データに対して、さらにホワイトバランス補正やγ補正
等の各種画像処理を施す。画像処理部157において生
成される画像データは、半導体メモリ等によって構成さ
れる画像メモリ158に格納される。
The image processing section 157 is a two-dimensional light receiving element 156.
The image signal from is A / D converted to generate image data which is a digital signal. Further, the image processing unit 157 further performs various image processing such as white balance correction and γ correction on the image data. The image data generated by the image processing unit 157 is stored in the image memory 158 composed of a semiconductor memory or the like.

【0042】シャッタボタン161はユーザが撮影を指
示するためのボタンであり、フラッシュ162は被写体
30を撮影する際に被写体30を照明するものである。
また、ディスプレイ163はユーザインタフェースとな
る操作案内画面や撮影した被写体画像を表示する表示器
であり、操作ボタン164はユーザが可動式カメラ11
の位置及び姿勢を手動操作で変化させるための入力操作
等を行うためのボタンである。さらにカードスロット1
65には着脱自在のメモリカード166を装着すること
が可能となっており、メモリカード166を介してコン
ピュータ15とのデータ交換を行うことが可能となって
いる。通信部167は通信デバイス168を介して可動
式カメラ11とのデータ通信を行う機能を有する。そし
て、メモリ169は、可動式カメラ11から入力した画
像データやレンズ回転角情報等の演算部170による演
算対象データを一時的に格納しておくための記憶部であ
る。また、メモリ169には、可動式カメラ11の内部
パラメータ(焦点距離等)に関する情報が予め格納され
る。
The shutter button 161 is a button for the user to instruct photographing, and the flash 162 is for illuminating the subject 30 when photographing the subject 30.
Further, the display 163 is a display device that displays an operation guide screen serving as a user interface and a photographed subject image, and the operation button 164 is a user-movable camera 11.
Is a button for performing an input operation or the like for manually changing the position and orientation of the. Card slot 1
A removable memory card 166 can be attached to the computer 65, and data can be exchanged with the computer 15 via the memory card 166. The communication unit 167 has a function of performing data communication with the movable camera 11 via the communication device 168. The memory 169 is a storage unit for temporarily storing the calculation target data by the calculation unit 170 such as the image data input from the movable camera 11 and the lens rotation angle information. Further, the memory 169 stores in advance information about internal parameters (focal length, etc.) of the movable camera 11.

【0043】制御部160はCPUによって構成され、
上記の各部を動作制御するように構成される。ユーザが
シャッタボタン161を押下した際には、制御部160
は2次元受光素子156及び画像処理部157による撮
影動作を制御する。また、制御部160はユーザによる
シャッタボタン161の押下操作に応答して撮影コマン
ドを生成し、被写体用カメラ13と同期をとるために通
信部167を介して可動式カメラ11に撮影コマンドを
送信する。
The control unit 160 is composed of a CPU,
It is configured to control the operation of each of the above units. When the user presses the shutter button 161, the control unit 160
Controls the photographing operation by the two-dimensional light receiving element 156 and the image processing unit 157. The control unit 160 also generates a shooting command in response to the user's operation of pressing the shutter button 161, and transmits the shooting command to the movable camera 11 via the communication unit 167 in order to synchronize with the subject camera 13. .

【0044】そして、制御部160は、被写体用カメラ
13における撮影動作によって画像メモリ158に格納
されている撮影画像データをメモリ169に格納すると
ともに、撮影コマンド送信後に可動式カメラ11から受
信する画像データ及びレンズ回転角情報をメモリ169
に格納する。
Then, the control section 160 stores the photographed image data stored in the image memory 158 by the photographing operation of the subject camera 13 in the memory 169, and receives the image data received from the movable camera 11 after transmitting the photographing command. And lens rotation angle information in the memory 169
To store.

【0045】また、演算部170もCPUによって構成
され、所定の演算プログラムを実行することにより、第
1演算部171及び第2演算部172として機能する。
そのような演算プログラムは、製造段階で予めメモリ等
に格納されていてもよいし、後に外部装置から入力する
ものであっても構わない。
The arithmetic unit 170 is also composed of a CPU, and functions as the first arithmetic unit 171 and the second arithmetic unit 172 by executing a predetermined arithmetic program.
Such an arithmetic program may be stored in advance in a memory or the like at the manufacturing stage, or may be input later from an external device.

【0046】第1演算部171は、可動式カメラ11で
複数の立体チャート2を予め撮影した画像データを入力
した際に、その画像データに含まれる各立体チャート2
の画像成分に基づいて、複数の立体チャート2の相対的
位置関係を求める演算機能(第1の演算手段)を実現す
る。
When the image data obtained by previously photographing a plurality of three-dimensional charts 2 by the movable camera 11 is input, the first calculation unit 171 inputs each three-dimensional chart 2 included in the image data.
The calculation function (first calculation means) for obtaining the relative positional relationship between the plurality of three-dimensional charts 2 is realized based on the image component of.

【0047】また、第2演算部172は、被写体用カメ
ラ13が被写体30を撮影するのに同期して、可動式カ
メラ11が複数の立体チャートのうちの少なくとも1つ
の立体チャート(これを「撮影対象立体チャート」と呼
ぶ。)を撮影した際に、可動式カメラ11から得られる
画像データに基づいて、可動式カメラ11の撮影対象立
体チャートに対する撮影位置及び撮影姿勢を求める。そ
して、第2演算部172は、さらに、可動式カメラ11
の撮影対象立体チャートに対する撮影位置及び撮影姿勢
と、可動式カメラ11と被写体用カメラ13との相対位
置及び相対姿勢と、撮影対象立体チャートと他の立体チ
ャート2との相対的位置関係と、に基づいて、被写体用
カメラ13から得られる撮影画像より、被写体30の三
次元情報を求める演算機能(第2の演算手段)を実現す
る。
In addition, the second arithmetic unit 172 synchronizes with the subject camera 13 photographing the subject 30, and the movable camera 11 causes at least one of the three-dimensional charts of the plurality of three-dimensional charts. The target position and the shooting posture of the movable camera 11 with respect to the target solid chart are obtained based on the image data obtained from the movable camera 11. Then, the second calculation unit 172 further causes the movable camera 11
Of the photographing target and the photographing posture with respect to the photographing target three-dimensional chart, the relative position and the relative posture of the movable camera 11 and the subject camera 13, and the relative positional relationship between the photographing target three-dimensional chart and the other three-dimensional chart 2. Based on this, a calculation function (second calculation means) for obtaining three-dimensional information of the subject 30 from the captured image obtained from the subject camera 13 is realized.

【0048】また、制御部160は可動式カメラ11が
手動モードであるか自動追尾モードであるかを判断し、
手動モードである場合には、ユーザが操作ボタン164
の一部を操作することにより得られた信号を、通信部1
67を介して可動式カメラ11に送信出力する。これに
より、可動式カメラ11の姿勢変化装置113を、ユー
ザの手動操作によって制御させることが可能となる。
Further, the control section 160 judges whether the movable camera 11 is in the manual mode or the automatic tracking mode,
In the manual mode, the user operates the operation buttons 164
The signal obtained by operating a part of the
It is transmitted and output to the movable camera 11 via 67. As a result, the posture changing device 113 of the movable camera 11 can be controlled by a user's manual operation.

【0049】<5.三次元情報生成の原理>上記のよう
に構成された三次元情報生成システム1において、被写
体30の三次元情報を生成する際のデータ演算の原理に
ついて説明する。
<5. Principle of Three-Dimensional Information Generation> In the three-dimensional information generation system 1 configured as described above, the principle of data calculation when generating the three-dimensional information of the subject 30 will be described.

【0050】カメラの内部パラメータ(焦点距離や画素
密度等)が既知である場合、2次元受光素子に結像する
被写体像の各点が、カメラの撮影空間においてどのよう
な位置にあるかを、演算によって求めることができる。
例えば、被写体像のある1点が2次元受光素子の1画素
に結像されている場合、2次元受光素子における結像位
置等で2次元座標値を求めることができる。
When the internal parameters of the camera (focal length, pixel density, etc.) are known, the position of each point of the subject image formed on the two-dimensional light receiving element in the photographing space of the camera is determined. It can be calculated.
For example, when one point of the subject image is formed on one pixel of the two-dimensional light receiving element, the two-dimensional coordinate value can be obtained from the image forming position of the two-dimensional light receiving element.

【0051】このため、既知の構造で形成された立体チ
ャート2を可動式カメラ11で撮影することにより、可
動式カメラ11の外部パラメータ、すなわち可動式カメ
ラ11の立体チャート2に対する相対的な位置及び姿勢
を特定することができる。
Therefore, by photographing the three-dimensional chart 2 having a known structure with the movable camera 11, external parameters of the movable camera 11, that is, the relative position of the movable camera 11 with respect to the three-dimensional chart 2 and The posture can be specified.

【0052】一般に、カメラの外部パラメータの算出
は、カメラの内部パラメータが既知であり、絶対座標系
に固定された同一平面上にある4点以上の点の3次元座
標値が既知であり、かつ、上記4点以上の点に対応する
撮影画像上の点の2次元座標値が算出可能であるという
条件の下で行うことができる。
In general, the calculation of the external parameters of the camera is such that the internal parameters of the camera are known, the three-dimensional coordinate values of four or more points on the same plane fixed in the absolute coordinate system are known, and , Can be performed under the condition that the two-dimensional coordinate values of the points on the captured image corresponding to the above four points or more can be calculated.

【0053】このような算出手法については、例えば、
文献「L.Quan, Z.Lan, "Linear N-Point Camera Pose D
etermination," IEEE Trans.PAMI 21 (8) 1999」や文献
「高橋、石井、牧野、中静、”人工現実感インターフェ
ースのための単眼画像からのマーカの位置と姿勢の計
測"、電子情報論文誌AJ79 1996」等に開示された技術
を適用することができる。これらの技術は、座標が既知
の4点以上の点をカメラで撮影し、その4点以上の既知
の三次元座標値と、カメラで得られる画像から求められ
る2次元座標値とに基づいて、カメラの相対位置及び相
対姿勢を算出するものである。
Regarding such a calculation method, for example,
Reference "L.Quan, Z.Lan," Linear N-Point Camera Pose D
etermination, "IEEE Trans.PAMI 21 (8) 1999" and references "Takahashi, Ishii, Makino, Nakashizuka," Measurement of marker position and posture from monocular image for artificial reality interface ", Electronic Journal of Electronic Information The technology disclosed in “AJ79 1996” and the like can be applied. These techniques capture four or more points whose coordinates are known with a camera, and based on known three-dimensional coordinate values of the four points or more and two-dimensional coordinate values obtained from an image obtained by the camera, The relative position and relative attitude of the camera are calculated.

【0054】この実施の形態においても、可動式カメラ
11で立体チャート2を撮影した場合、2次元受光素子
111から得られる画像データから、立体チャート2が
有する各単位図形の頂点座標を求めることができる。た
だし、この場合の頂点座標は、可動式カメラ11が立体
チャート2を撮影した状態における固有のローカル座標
系についての座標値となる。
Also in this embodiment, when the movable camera 11 photographs the three-dimensional chart 2, the vertex coordinates of each unit figure included in the three-dimensional chart 2 can be obtained from the image data obtained from the two-dimensional light receiving element 111. it can. However, the vertex coordinates in this case are coordinate values with respect to the unique local coordinate system in the state where the movable camera 11 photographs the three-dimensional chart 2.

【0055】一方、立体チャート2は被写体30の周囲
に配置された状態で固定される。この立体チャート2に
固有の3次元座標系(これを、「チャート座標系」と呼
ぶ。)を設定すれば、立体チャート2の各単位図形の頂
点位置を立体チャート2の設計値に基づいて定めること
ができる。
On the other hand, the three-dimensional chart 2 is fixed while being arranged around the subject 30. If a three-dimensional coordinate system unique to this three-dimensional chart 2 is set (this is referred to as "chart coordinate system"), the vertex position of each unit figure of the three-dimensional chart 2 is determined based on the design value of the three-dimensional chart 2. be able to.

【0056】可動式カメラ11で撮影した画像データに
基づいてチャートパターンCPの少なくとも4点の座標
値を求めると、各点の対応関係から、立体チャート2の
測定された4点が特定される。このため、チャート座標
系における設計上の4点の座標値と、可動式カメラ11
のローカル座標系における4点の座標値とから、可動式
カメラ11の立体チャート2に対する相対的な位置及び
姿勢を特定することができる。そして、可動式カメラ1
1のローカル座標系と、チャート座標系との関係から、
可動式カメラ11のローカル座標系をチャート座標系に
変換するためのパラメータが定義される。
When the coordinate values of at least four points of the chart pattern CP are obtained based on the image data taken by the movable camera 11, the four measured points of the three-dimensional chart 2 are specified from the correspondence of each point. Therefore, the coordinate values of the four designed points in the chart coordinate system and the movable camera 11
The relative position and orientation of the movable camera 11 with respect to the three-dimensional chart 2 can be specified from the coordinate values of the four points in the local coordinate system. And the movable camera 1
From the relationship between the 1 local coordinate system and the chart coordinate system,
Parameters for converting the local coordinate system of the movable camera 11 into the chart coordinate system are defined.

【0057】チャート座標系をXc、可動式カメラ11
のローカル座標系をXm、ローカル座標系Xmをチャー
ト座標系Xcに変換するための回転移動行列をRc、平
行移動ベクトルをTcとすると、
The chart coordinate system is Xc, and the movable camera 11 is used.
Let Xm be the local coordinate system of, and Rc be the translation matrix for converting the local coordinate system Xm to the chart coordinate system Xc, and Tc be the translation vector.

【0058】[0058]

【数1】 [Equation 1]

【0059】の式によって可動式カメラ11のローカル
座標系Xmで表現された座標値を、チャート座標系Xc
で表現された座標値に変換することが可能である。
The coordinate value expressed in the local coordinate system Xm of the movable camera 11 by the formula
It is possible to convert into coordinate values expressed by.

【0060】すなわち、可動式カメラ11が立体チャー
ト2を撮影して求められるチャートパターンCPの少な
くとも4点の座標値と、チャートパターンCPの設計値
とにより、立体チャート2に対する可動式カメラ11の
相対姿勢及び相対位置を特定することができるので、数
1の式における回転移動行列Rc、平行移動ベクトルT
cを求めることができ、それによって座標変換式が定義
されることになる。
That is, the movable camera 11 relative to the three-dimensional chart 2 based on the coordinate values of at least four points of the chart pattern CP obtained by the movable camera 11 photographing the three-dimensional chart 2 and the design values of the chart pattern CP. Since the posture and the relative position can be specified, the rotation movement matrix Rc and the parallel movement vector T in the equation (1) are used.
c can be determined, which defines the coordinate transformation formula.

【0061】図6は三次元情報生成システム1における
座標変換の概念を示す図である。図6に示すように、上
記数1の式の座標変換式は、可動式カメラ11に設定さ
れるローカル座標系Xmから立体チャート2に設定され
るチャート座標系Xcに変換する式である。つまり、可
動式カメラ11が立体チャート2を撮影することによ
り、可動式カメラ11の立体チャート2に対する相対姿
勢及び相対位置が特定されるため、その相対姿勢及び相
対位置に基づく数1の式を、ローカル座標系Xmからチ
ャート座標系Xcへの変換式として定義することができ
る。
FIG. 6 is a diagram showing the concept of coordinate conversion in the three-dimensional information generation system 1. As shown in FIG. 6, the coordinate conversion formula of the formula 1 is a formula for converting the local coordinate system Xm set in the movable camera 11 to the chart coordinate system Xc set in the three-dimensional chart 2. That is, since the relative attitude and relative position of the movable camera 11 with respect to the three-dimensional chart 2 are specified by the movable camera 11 photographing the three-dimensional chart 2, the equation 1 based on the relative attitude and relative position is It can be defined as a conversion formula from the local coordinate system Xm to the chart coordinate system Xc.

【0062】また、可動式カメラ11が姿勢変化装置1
13によって旋回角度θ及び俯仰角度φに姿勢変化した
場合と、旋回角度0°及び俯仰角度0°の場合のそれぞ
れにおいて、可動式カメラ11による撮影を行った際、
各画像から導かれる座標値の座標系は異なる。図6に示
すように、可動式カメラ11が旋回角度0°及び俯仰角
度0°にある状態(11b)で撮影した画像から導かれ
る座標値は、ローカル座標系Xmoで表現され、また、
可動式カメラ11が旋回角度θ及び俯仰角度φにある状
態(11a)で撮影した画像から導かれる座標値は、ロ
ーカル座標系Xmで表現される。これらローカル座標系
XmoとXmとは、可動式カメラ11の姿勢が変化した
ことによって生じるものであるため、ローカル座標系X
moとXmとの間での座標変換パラメータは予め内部パ
ラメータとして求めておくこともできるし、また演算に
よって求めることもできる。
Further, the movable camera 11 is used as the posture changing device 1.
When the posture is changed to the turning angle θ and the elevation angle φ by 13 and when the turning angle is 0 ° and the elevation angle is 0 °, respectively, when the movable camera 11 captures an image,
The coordinate system of coordinate values derived from each image is different. As shown in FIG. 6, the coordinate values derived from the image captured in the state (11b) in which the movable camera 11 is at the turning angle of 0 ° and the elevation angle of 0 ° are represented by the local coordinate system Xmo, and
The coordinate values derived from the image captured by the movable camera 11 in the turning angle θ and the elevation angle φ (11a) are represented by the local coordinate system Xm. Since these local coordinate systems Xmo and Xm are generated due to the change of the attitude of the movable camera 11, the local coordinate system Xmo
The coordinate conversion parameter between mo and Xm can be obtained in advance as an internal parameter, or can be obtained by calculation.

【0063】ローカル座標系Xmoをローカル座標系X
mに変換するための回転移動行列をR(θ,φ)、平行
移動ベクトルをT(θ,φ)とすると、
The local coordinate system Xmo is replaced with the local coordinate system X
Let R (θ, φ) be the rotation matrix for conversion into m, and T (θ, φ) be the translation vector.

【0064】[0064]

【数2】 [Equation 2]

【0065】の式によってローカル座標系Xmoで表現
された座標値を、ローカル座標系Xmで表現された座標
値に変換することが可能である。なお、回転移動行列R
(θ,φ)及び平行移動ベクトルT(θ,φ)は、それ
ぞれθ,φが決まれば一義に決まるものである。可動式
カメラ11では、角度センサ126t,126pによっ
てレンズ回転角情報、すなわち、θ及びφに関する情報
が生成されるため、このレンズ回転角情報を用いれば、
回転移動行列R(θ,φ)及び平行移動ベクトルT
(θ,φ)を求めることができる。
It is possible to convert the coordinate value represented by the local coordinate system Xmo into the coordinate value represented by the local coordinate system Xm by the equation (3). The rotation matrix R
(Θ, φ) and the translation vector T (θ, φ) are uniquely determined if θ and φ are determined. In the movable camera 11, since the angle sensors 126t and 126p generate lens rotation angle information, that is, information regarding θ and φ, if this lens rotation angle information is used,
Rotational transfer matrix R (θ, φ) and translational vector T
(Θ, φ) can be obtained.

【0066】さらに、可動式カメラ11が旋回角度0°
及び俯仰角度0°である場合に可動式カメラ11による
撮影を行った際、その画像から導かれる座標値の座標系
は、被写体用カメラ13で撮影を行った際の撮影画像か
ら導かれる座標値の座標系とは異なる。図6に示すよう
に、可動式カメラ11が旋回角度0°及び俯仰角度0°
にある状態(11b)で撮影した画像から導かれる座標
値は、ローカル座標系Xmoで表現され、また、被写体
用カメラ13で撮影した撮影画像から導かれる座標値
は、ローカル座標系Xoで表現される。すなわち、可動
式カメラ11が撮影を行う姿勢及び位置と、被写体用カ
メラ13が撮影を行う姿勢及び位置とが異なるため、撮
影方向が単に同一方向であっても、それぞれの画像から
得られる座標値は、異なる座標系についてのものとな
る。
Further, the movable camera 11 has a turning angle of 0 °.
When the moving camera 11 takes an image when the elevation angle is 0 °, the coordinate system of the coordinate value derived from the image is the coordinate value derived from the taken image when the subject camera 13 takes the image. Different from the coordinate system of. As shown in FIG. 6, the movable camera 11 has a turning angle of 0 ° and an elevation angle of 0 °.
The coordinate values derived from the image photographed in the state (11b) are represented by the local coordinate system Xmo, and the coordinate values derived from the photographed image photographed by the subject camera 13 are represented by the local coordinate system Xo. It That is, since the posture and position at which the movable camera 11 shoots and the posture and position at which the subject camera 13 shoots are different, coordinate values obtained from the respective images even if the shooting directions are simply the same direction. Are for different coordinate systems.

【0067】ローカル座標系Xoからローカル座標系X
moへの座標変換は、可動式カメラ11を被写体用カメ
ラ13に固定した場合の設計値等から予め求めておくこ
とができる。しかし、実際の使用時に可動式カメラ11
を被写体用カメラ13に取り付けると、若干の誤差が生
じることも想定されるため、被写体撮影時に、座標変換
を行うための変換パラメータを求めるように構成するこ
とが好ましい。
From the local coordinate system Xo to the local coordinate system X
The coordinate conversion to mo can be obtained in advance from a design value or the like when the movable camera 11 is fixed to the subject camera 13. However, in actual use, the movable camera 11
Since it is expected that a slight error will occur when the is attached to the subject camera 13, it is preferable to obtain the conversion parameters for performing the coordinate conversion when the subject is photographed.

【0068】例えば、被写体30の撮影動作を行う前
に、可動式カメラ11の旋回角度及び俯仰角度を0°に
設定して予め可動式カメラ11と被写体用カメラ13と
が同一の立体チャート2を撮影し、それぞれの画像から
立体チャート2上の同一の頂点座標を求めることで、被
写体用カメラ13の可動式カメラ11に対する相対姿勢
及び相対位置を特定することができる。そして、その相
対姿勢及び相対位置に基づいて座標変換を行うことで、
ローカル座標系Xoからローカル座標系Xmoへの座標
変換を行うことができる。
For example, before the photographing operation of the subject 30, the turning angle and the elevation angle of the movable camera 11 are set to 0 °, and the movable camera 11 and the subject camera 13 preliminarily display the same three-dimensional chart 2. The relative posture and the relative position of the subject camera 13 with respect to the movable camera 11 can be specified by photographing and obtaining the same vertex coordinates on the three-dimensional chart 2 from each image. Then, by performing coordinate conversion based on the relative attitude and relative position,
Coordinate conversion from the local coordinate system Xo to the local coordinate system Xmo can be performed.

【0069】具体的には、ローカル座標系Xoをローカ
ル座標系Xmoに変換するための回転移動行列をRh、
平行移動ベクトルをThとすると、
Specifically, the rotational movement matrix for converting the local coordinate system Xo into the local coordinate system Xmo is Rh,
If the translation vector is Th,

【0070】[0070]

【数3】 [Equation 3]

【0071】の式によってローカル座標系Xmoで表現
された座標値を、ローカル座標系Xmで表現された座標
値に変換することが可能である。なお、回転移動行列R
h及び平行移動ベクトルThは、被写体用カメラ13の
可動式カメラ11に対する相対姿勢及び相対位置に基づ
いて定められる、行列及びベクトルである。
It is possible to convert the coordinate value expressed in the local coordinate system Xmo into the coordinate value expressed in the local coordinate system Xm by the formula (1). The rotation matrix R
h and the translation vector Th are a matrix and a vector that are determined based on the relative attitude and relative position of the subject camera 13 with respect to the movable camera 11.

【0072】このようにして、各座標系間での座標変換
が可能になる。そして、被写体用カメラ13が被写体3
0を撮影することに同期して、可動式カメラ11が複数
の立体チャート2のうちの撮影対象立体チャート2を撮
影することで、被写体用カメラ13の撮影画像から導か
れる座標値を、撮影対象立体チャート2のチャート座標
系で表現した座標値に変換することができる。
In this way, coordinate conversion between each coordinate system becomes possible. Then, the subject camera 13 is used as the subject 3
In synchronization with the shooting of 0, the movable camera 11 shoots the shooting target stereo chart 2 of the plurality of stereo charts 2, and thereby the coordinate values derived from the captured image of the camera for subject 13 are set to the shooting target. It can be converted into coordinate values expressed in the chart coordinate system of the three-dimensional chart 2.

【0073】具体的には、上記数1〜数3の式より導か
れる
Specifically, it is derived from the above equations 1 to 3.

【0074】[0074]

【数4】 [Equation 4]

【0075】の式により、被写体用カメラ13のローカ
ル座標系Xoで得られた座標値を、チャート座標系Xc
で表現した座標値に変換することができる。
The coordinate value obtained in the local coordinate system Xo of the subject camera 13 is calculated by the equation
It can be converted into the coordinate value expressed by.

【0076】ところで、この実施の形態では、被写体3
0の周囲に複数の立体チャート2が配置されることは既
述したとおりである。そして、被写体用カメラ13で被
写体30を撮影する際に、可動式カメラ11が複数の立
体チャート2のうちのいずれを撮影対象立体チャート2
とするかは、任意である。そのため、被写体用カメラ1
3で被写体30のある側面(第1の側面)を撮影する際
に、可動式カメラ11が立体チャート2a(図1参照)
を撮影対象立体チャートとし、また、被写体用カメラ1
3で被写体30の別の側面(第2の側面)を撮影する際
に、可動式カメラ11が立体チャート2b(図1参照)
を撮影対象立体チャートとすることも考えられる。
By the way, in this embodiment, the subject 3
As described above, a plurality of three-dimensional charts 2 are arranged around 0. Then, when the subject camera 13 photographs the subject 30, the movable camera 11 determines which of the plurality of three-dimensional charts 2 is the photographing target three-dimensional chart 2.
It is optional. Therefore, the subject camera 1
When the side surface (first side surface) of the subject 30 is photographed at 3, the movable camera 11 moves the stereo chart 2a (see FIG. 1).
Is a three-dimensional chart to be photographed, and the subject camera 1
When the other side surface (second side surface) of the subject 30 is photographed at 3, the movable camera 11 moves the three-dimensional chart 2b (see FIG. 1).
It is also conceivable to use as a three-dimensional chart to be photographed.

【0077】このような場合、被写体用カメラ13で被
写体30を撮影した際の撮影画像から座標値を求め、さ
らに上記数4の式に基づいた座標変換を行ったとして
も、第1の側面については立体チャート2aに関するチ
ャート座標系Xcaの座標値に変化され、第2の側面に
ついては立体チャート2bに関するチャート座標系Xc
bの座標値に変化される。このため、これらの座標値を
合成しても正確な被写体30に関する三次元情報を生成
することはできない。
In such a case, even if the coordinate value is obtained from the photographed image when the subject 30 is photographed by the subject camera 13 and the coordinate conversion based on the equation (4) is performed, Is changed to the coordinate value of the chart coordinate system Xca for the three-dimensional chart 2a, and for the second side surface, the chart coordinate system Xc for the three-dimensional chart 2b.
It is changed to the coordinate value of b. Therefore, even if these coordinate values are combined, accurate three-dimensional information about the subject 30 cannot be generated.

【0078】そこで、この実施の形態では、被写体30
の周囲に配置された複数の立体チャート2の相対的位置
関係を求め、その相対的位置関係に基づいて、各立体チ
ャートについてのチャート座標系を特定の一つの立体チ
ャートに関するチャート座標系(これを、「基準座標
系」と呼ぶ。)に変換させるように構成される。
Therefore, in this embodiment, the subject 30
The relative positional relationship between the plurality of three-dimensional charts 2 arranged around the three-dimensional chart 2 is obtained, and the chart coordinate system for each three-dimensional chart is determined based on the relative positional relationship. , "Reference coordinate system").

【0079】図7はチャート座標系を基準座標系に変換
する座標変換の概念を示す図である。なお、図7の例で
は、立体チャート2aのチャート座標系Xcaが基準座
標系であるとする。
FIG. 7 is a diagram showing the concept of coordinate conversion for converting the chart coordinate system into the reference coordinate system. In the example of FIG. 7, it is assumed that the chart coordinate system Xca of the three-dimensional chart 2a is the reference coordinate system.

【0080】複数の立体チャート2の相対的位置関係を
求める際には、例えば可動式カメラ11の画角G1内に
複数の立体チャート2が収まるような状態で可動式カメ
ラ11により複数の立体チャート2を撮影する。
When obtaining the relative positional relationship between the plurality of three-dimensional charts 2, for example, the plurality of three-dimensional charts are set by the movable camera 11 in such a state that the plurality of three-dimensional charts 2 fit within the angle of view G1 of the movable camera 11. Take a picture of 2.

【0081】可動式カメラ11により立体チャート2a
を撮影すると、その画像よりローカル座標系Xmにおけ
る座標値が得られる。一方、立体チャート2aは既知の
構造で形成されるため、チャート座標系(基準座標系)
Xcaにおける座標値は設計上既知である。
The three-dimensional chart 2a is displayed by the movable camera 11.
When is photographed, the coordinate value in the local coordinate system Xm is obtained from the image. On the other hand, since the three-dimensional chart 2a is formed with a known structure, the chart coordinate system (reference coordinate system)
The coordinate value in Xca is known by design.

【0082】このため、可動式カメラ11が立体チャー
ト2aを撮影して求められるチャートパターンCPの少
なくとも4点の座標値と、それに対応する4点のチャー
トパターンCPの設計値とにより、立体チャート2aに
対する可動式カメラ11の相対姿勢及び相対位置を特定
することができる。
Therefore, the three-dimensional chart 2a is obtained by the coordinate values of at least four points of the chart pattern CP obtained by the movable camera 11 photographing the three-dimensional chart 2a and the corresponding design values of the four chart patterns CP. The relative attitude and relative position of the movable camera 11 with respect to can be specified.

【0083】よって、上述した数1の式と同様に、ロー
カル座標系Xmから基準座標系Xcaへの座標変換式
が、
Therefore, similarly to the above-mentioned formula 1, the coordinate conversion formula from the local coordinate system Xm to the reference coordinate system Xca is

【0084】[0084]

【数5】 [Equation 5]

【0085】のように定義される。なお、数5の式にお
けるRca及びTcaは、それぞれローカル座標系Xm
から基準座標系Xcaへの回転移動行列及び平行移動ベ
クトルであり、立体チャート2aに対する可動式カメラ
11の相対姿勢及び相対位置により求めることができ
る。
It is defined as follows. Note that Rca and Tca in the equation of Formula 5 are respectively expressed by the local coordinate system Xm.
To the reference coordinate system Xca and the translation vector, which can be obtained from the relative attitude and relative position of the movable camera 11 with respect to the stereo chart 2a.

【0086】同様に、可動式カメラ11により立体チャ
ート2bを撮影すると、その画像よりローカル座標系X
mにおける座標値が得られる。一方、立体チャート2b
も既知の構造で形成されるため、チャート座標系Xcb
における座標値は設計上既知である。
Similarly, when the movable camera 11 photographs the three-dimensional chart 2b, the local coordinate system X
The coordinate value at m is obtained. On the other hand, the three-dimensional chart 2b
Is also formed with a known structure, the chart coordinate system Xcb
The coordinate values at are known by design.

【0087】このため、可動式カメラ11が立体チャー
ト2bを撮影して求められるチャートパターンCPの少
なくとも4点の座標値と、それに対応する4点のチャー
トパターンCPの設計値とにより、立体チャート2bに
対する可動式カメラ11の相対姿勢及び相対位置を特定
することができる。
Therefore, the three-dimensional chart 2b is obtained by the coordinate values of at least four points of the chart pattern CP obtained by the movable camera 11 photographing the three-dimensional chart 2b and the corresponding design values of the four chart patterns CP. The relative attitude and relative position of the movable camera 11 with respect to can be specified.

【0088】よって、上述した数1の式と同様に、ロー
カル座標系Xmからチャート座標系Xcbへの座標変換
式が、
Therefore, similarly to the above-mentioned formula 1, the coordinate conversion formula from the local coordinate system Xm to the chart coordinate system Xcb is

【0089】[0089]

【数6】 [Equation 6]

【0090】のように定義される。なお、数6の式にお
けるRcb及びTcbは、それぞれローカル座標系Xm
から基準座標系Xcbへの回転移動行列及び平行移動ベ
クトルであり、立体チャート2bに対する可動式カメラ
11の相対姿勢及び相対位置により求めることができ
る。
It is defined as follows. Note that Rcb and Tcb in the equation of Formula 6 are respectively expressed by the local coordinate system Xm.
To the reference coordinate system Xcb and a translation vector and a translation vector, which can be obtained from the relative attitude and relative position of the movable camera 11 with respect to the stereo chart 2b.

【0091】そして、上記数5及び数6の座標変換式に
基づいて、チャート座標系Xcbから基準座標系Xca
への座標変換式を求めると、
Then, based on the coordinate conversion formulas of the above equations 5 and 6, the chart coordinate system Xcb is changed to the reference coordinate system Xca.
When the coordinate conversion formula to

【0092】[0092]

【数7】 [Equation 7]

【0093】のようになる。この数7の式が、すなわち
立体チャート2aと2bとの相対的位置関係を示す式と
なる。立体チャート2が多数設けられている場合を考慮
して、数7の式を一般化すれば、
It becomes like this. The expression of the equation 7 is an expression showing the relative positional relationship between the three-dimensional charts 2a and 2b. Considering the case where a large number of three-dimensional charts 2 are provided, by generalizing the formula of Formula 7,

【0094】[0094]

【数8】 [Equation 8]

【0095】となる。なお、数8の式において、iはi
番目の立体チャート2(i)を示しており、Rci及び
Tciは、それぞれローカル座標系Xmからチャート座
標系Xciへの回転移動行列及び平行移動ベクトルであ
り、立体チャート2(i)に対する可動式カメラ11の
相対姿勢及び相対位置により求めることができる。
It becomes Note that in the formula of Equation 8, i is i
The third stereo chart 2 (i) is shown, where Rci and Tci are the rotational movement matrix and translation vector from the local coordinate system Xm to the chart coordinate system Xci, respectively, and the movable camera for the stereo chart 2 (i) is shown. It can be obtained from the relative attitude and relative position of 11.

【0096】そして数4の座標変換式と、数8の座標変
換式とにより、被写体用カメラ13で得られる撮影画像
から被写体30の座標値を求めた場合に、その座標値を
基準座標系(すなわち、三次元情報生成システム1にお
けるワールド座標系)における座標値に変換することが
でき、被写体30の三次元画像モデルを適切に構築する
ことが可能になる。
Then, when the coordinate value of the subject 30 is obtained from the photographed image obtained by the subject camera 13 by the coordinate conversion equation of the equation 4 and the coordinate conversion equation of the equation 8, the coordinate value is used as the reference coordinate system ( That is, the coordinate values can be converted into the coordinate values in the world coordinate system in the three-dimensional information generation system 1, and the three-dimensional image model of the subject 30 can be appropriately constructed.

【0097】なお、上記の例では演算原理を容易に理解
することができるようにするために、複数の立体チャー
ト2が可動式カメラ11の画角G1内に収まるように撮
影した場合について説明したが、それに限定されるもの
ではない。
In the above example, in order to make it easy to understand the calculation principle, a case has been described in which a plurality of three-dimensional charts 2 are photographed so as to fit within the angle of view G1 of the movable camera 11. However, it is not limited thereto.

【0098】例えば、立体チャート2が多数設けられて
いる場合には、全ての立体チャート2を画角G1内に収
めるのではなく、2個の立体チャート2が画角G1内に
収まるようにして撮影動作を繰り返し行い、各画像に含
まれる2個の立体チャートの相対的位置関係を順次求め
ていくという方法を採用することができる。2個の立体
チャート2が画角G1内に収まるようにして撮影を行え
ば、その画像からその2個の立体チャート2の相対的位
置関係を簡単に求めることができるという利点がある。
For example, when a large number of three-dimensional charts 2 are provided, not all of the three-dimensional charts 2 are contained within the angle of view G1, but the two three-dimensional charts 2 are arranged within the angle of view G1. It is possible to adopt a method in which the photographing operation is repeated and the relative positional relationship between the two stereo charts included in each image is sequentially obtained. If the two stereo charts 2 are photographed so as to fit within the angle of view G1, there is an advantage that the relative positional relationship between the two stereo charts 2 can be easily obtained from the image.

【0099】一方、画角G1内に収まる立体チャート2
の数が増加するほど、画像における各立体チャート2の
画像成分は小さくなることが予想される。そしてその場
合には各立体チャートの相対的位置関係を求める精度が
低下する。このため、1回の撮影時に画角G1内に収め
る立体チャート2の数はなるべく少なくすることが好ま
しい。
On the other hand, a three-dimensional chart 2 that fits within the angle of view G1.
It is expected that the image component of each three-dimensional chart 2 in the image will become smaller as the number of H.sub.2 increases. In that case, the accuracy of obtaining the relative positional relationship between the three-dimensional charts decreases. For this reason, it is preferable to reduce the number of the three-dimensional charts 2 that can be accommodated within the angle of view G1 in one shooting.

【0100】このような観点からすると、複数の立体チ
ャート2の相対的位置関係を求める方法としては、可動
式カメラ11が立体チャート2を1個ずつ個別に撮影す
ることが最も好ましいと言える。例えば、可動式カメラ
11を可動範囲内で姿勢変化させたときに、全ての立体
チャート2を個別に撮影することができるのであれば、
各立体チャート2を個別に撮影し、各画像を撮影したと
きの旋回角度と俯仰角度とに基づいた座標変換を施せ
ば、各立体チャート2の相対的位置関係を求めることが
できる。このとき、可動式カメラ11は1個の立体チャ
ート2を撮影するので、撮影画像に含まれる立体チャー
ト2の画像成分を大きな状態で撮影することができ、そ
の結果、立体チャート2に対する可動式カメラ11の位
置及び姿勢を高精度に求めることが可能である。
From this point of view, it can be said that it is most preferable that the movable camera 11 individually captures the three-dimensional charts 2 as a method of obtaining the relative positional relationship between the plurality of three-dimensional charts 2. For example, if all the three-dimensional charts 2 can be individually photographed when the posture of the movable camera 11 is changed within the movable range,
The relative positional relationship between the three-dimensional charts 2 can be obtained by individually photographing each three-dimensional chart 2 and performing coordinate conversion based on the turning angle and the elevation angle when each image is photographed. At this time, since the movable camera 11 captures one stereo chart 2, the image component of the stereo chart 2 included in the captured image can be captured in a large state, and as a result, the movable camera for the stereo chart 2 can be captured. The position and orientation of 11 can be obtained with high accuracy.

【0101】<6.三次元情報生成システム1の動作プ
ロセス>次に、三次元情報生成システム1の動作プロセ
スについて説明する。図8乃至図12は、三次元情報生
成システム1の動作プロセスを示すフローチャートであ
る。
<6. Operation Process of 3D Information Generating System 1> Next, an operation process of the 3D information generating system 1 will be described. 8 to 12 are flowcharts showing the operation process of the three-dimensional information generation system 1.

【0102】まず、複数の立体チャート2が被写体30
の周囲に配置される(ステップS1)。このときの立体
チャート2の配置はランダムでよいが、被写体30の大
きさに応じて、被写体30の周囲にほぼ均等な間隔で配
置されることが好ましい。また、被写体30の周囲に配
置した複数の立体チャート2は動作プロセスが終了する
まで、より厳密にはステップS4の被写体撮影処理が終
了するまでは固定される。
First, a plurality of three-dimensional charts 2 are used as the subject 30.
Are arranged around (step S1). The three-dimensional chart 2 may be arranged randomly at this time, but it is preferable that the three-dimensional chart 2 be arranged around the subject 30 at substantially equal intervals according to the size of the subject 30. Further, the plurality of three-dimensional charts 2 arranged around the subject 30 are fixed until the operation process is finished, more strictly, the subject photographing process of step S4 is finished.

【0103】次に、複数の立体チャート2の相対的位置
関係を算出する処理が行われる(ステップS2)。この
処理の詳細を図9のフローチャートに示す。
Next, the process of calculating the relative positional relationship of the plurality of three-dimensional charts 2 is performed (step S2). The details of this processing are shown in the flowchart of FIG.

【0104】まず、ユーザは複数の立体チャート2の前
に、立体チャート2どうしのオクルージョンが発生しな
いように、すなわち、ある立体チャート2が他の立体チ
ャート2の影とならないように、カメラシステム10を
設置する(ステップS21)。このとき、カメラシステ
ム10は固定されるが、可動式カメラ11は姿勢変化装
置113の作用によって画角を変更することが可能な状
態に設置される。
First, the user does not occlude the three-dimensional charts 2 in front of the plurality of three-dimensional charts 2, that is, one stereo chart 2 does not become a shadow of another three-dimensional chart 2. Is installed (step S21). At this time, the camera system 10 is fixed, but the movable camera 11 is installed in a state in which the angle of view can be changed by the action of the posture changing device 113.

【0105】そして、ユーザは可動式カメラ11を手動
モードに設定し、被写体用カメラ13の操作ボタン16
4を操作することで、立体チャート2が可動式カメラ1
1の画角に入るように、可動式カメラ11のレンズ回転
角を指定する(ステップS22)。これにより、被写体
用カメラ13から可動式カメラ11に対して姿勢変化の
指示が与えられ、可動式カメラ11の撮影方向が指示さ
れた方向に向き、立体チャート2が可動式カメラ11の
画角内に収まる。なお、このとき1個の立体チャート2
が画角内に収まるように撮影方向を指示することが好ま
しい。
Then, the user sets the movable camera 11 to the manual mode, and operates the operation button 16 of the subject camera 13.
By operating 4, the three-dimensional chart 2 can move the movable camera 1
The lens rotation angle of the movable camera 11 is designated so that the angle of view becomes 1 (step S22). As a result, the subject camera 13 gives an instruction to change the attitude to the movable camera 11, the shooting direction of the movable camera 11 faces in the instructed direction, and the three-dimensional chart 2 is within the angle of view of the movable camera 11. Fits in. At this time, one 3D chart 2
It is preferable to instruct the shooting direction so that is within the angle of view.

【0106】ユーザは可動式カメラ11による立体チャ
ート2の撮影指示を行う(ステップS23)。この結
果、可動式カメラ11では撮影動作が行われ、立体チャ
ート2が撮影された画像データが可動式カメラ11から
被写体用カメラ13に送信される。その際、画像データ
とともに、レンズ回転角情報も同時に送信される。被写
体用カメラ13では、可動式カメラ11から受信する画
像データ及びレンズ回転角情報をメモリ169に格納保
存する。
The user gives a photographing instruction of the three-dimensional chart 2 by the movable camera 11 (step S23). As a result, the movable camera 11 performs a photographing operation, and the image data of the three-dimensional chart 2 is transmitted from the movable camera 11 to the subject camera 13. At that time, the lens rotation angle information is also transmitted together with the image data. The subject camera 13 stores and saves the image data and the lens rotation angle information received from the movable camera 11 in the memory 169.

【0107】そして、ユーザは未撮影の立体チャート2
が存在するか否かを判断し(ステップS24)、存在す
る場合はステップS25において、未撮影の立体チャー
ト2が画角内に入るように可動式カメラ11を設定す
る。これにより、可動式カメラ11に姿勢変化が与えら
れ、1個の未撮影の立体チャート2が可動式カメラ11
の画角内に収まる。
Then, the user selects the uncaptured stereo chart 2
Is present (step S24), and if so, the movable camera 11 is set in step S25 so that the uncaptured stereoscopic chart 2 is within the angle of view. As a result, the posture of the movable camera 11 is changed, and one uncaptured stereo chart 2 is displayed on the movable camera 11.
Fits within the angle of view of.

【0108】そしてステップS23〜S25の処理を繰
り返し行うことにより、被写体30の周囲に配置された
全ての立体チャート2が可動式カメラ11によって撮影
される。ユーザは全ての立体チャート2の撮影が終了す
ると、その旨の入力を被写体用カメラ13の操作ボタン
164より入力する。
By repeating the processing of steps S23 to S25, all the three-dimensional charts 2 arranged around the subject 30 are photographed by the movable camera 11. When the user finishes photographing all the three-dimensional charts 2, the user inputs an input to that effect through the operation button 164 of the camera 13 for a subject.

【0109】被写体用カメラ13では、演算部170の
第1演算部171が機能する。そして第1演算部171
は、メモリ169に格納されている可動式カメラ11か
ら得られた画像データを取得し、各立体チャート2を撮
影したときの各立体チャート2に対する可動式カメラ1
1の相対位置及び相対姿勢を算出する(ステップS2
6)。つまり、この処理により、上記数5及び数6の式
に示す各パラメータ(回転移動行列及び平行移動ベクト
ル)が求められることになる。
In the subject camera 13, the first arithmetic unit 171 of the arithmetic unit 170 functions. Then, the first calculation unit 171
The image data obtained from the movable camera 11 stored in the memory 169 is acquired by the movable camera 1 for each stereo chart 2 when each stereo chart 2 is photographed.
The relative position and relative attitude of No. 1 are calculated (step S2
6). That is, by this process, each parameter (rotational movement matrix and translational vector) shown in the equations (5) and (6) is obtained.

【0110】次に、第1演算部171は、複数の立体チ
ャート2のうちから基準座標系を示す基本立体チャート
を一つ選択し、その基本立体チャートに対する可動式カ
メラ11の相対位置及び相対姿勢と、他の立体チャート
に対する可動式カメラ11の相対位置及び相対姿勢と、
レンズ回転角情報とに基づいて、基本立体チャートに対
する他の立体チャートの相対位置及び相対姿勢を算出
し、それをメモリ169にデータ保存する(ステップS
27)。この処理により、上記数7又は数8の式に示す
各パラメータが求められることになる。なお、基本立体
チャート2の選択は、演算部170が複数の立体チャー
ト2のうちから任意の一つを自動選択するように構成し
てもよいし、ユーザが操作ボタン164より指定するよ
うに構成してもよい。
Next, the first arithmetic unit 171 selects one basic stereo chart showing the reference coordinate system from the plural stereo charts 2, and the relative position and relative attitude of the movable camera 11 with respect to the basic stereo chart. And the relative position and relative attitude of the movable camera 11 with respect to another three-dimensional chart,
Based on the lens rotation angle information, the relative position and relative attitude of the other 3D chart with respect to the basic 3D chart are calculated, and the calculated data are stored in the memory 169 (step S).
27). By this processing, each parameter shown in the equation (7) or (8) is obtained. The selection of the basic 3D chart 2 may be configured such that the calculation unit 170 automatically selects any one of the plurality of 3D charts 2, or the user designates the operation button 164. You may.

【0111】以上で、複数の立体チャート2が一つの基
本立体チャートと、他の立体チャートとに区別され、基
本立体チャートに対する他の全ての立体チャートの相対
的位置関係が定められたことになり、ステップS2の処
理を終了する。
As described above, the plurality of three-dimensional charts 2 are distinguished into one basic three-dimensional chart and the other three-dimensional charts, and the relative positional relationship of all the other three-dimensional charts with respect to the basic three-dimensional chart is determined. , The process of step S2 ends.

【0112】次に、被写体用カメラ13と可動式カメラ
11との相対位置及び相対姿勢を算出する処理が行われ
る(図8参照;ステップS3)。この処理の詳細を図1
0のフローチャートに示す。
Next, a process for calculating the relative position and relative attitude between the subject camera 13 and the movable camera 11 is performed (see FIG. 8; step S3). Details of this process are shown in Fig. 1.
0 is shown in the flowchart.

【0113】まず、ユーザは、被写体用カメラ13及び
可動式カメラ11が同一の立体チャート2をそれぞれの
画角内に捉えるようにカメラシステム10の向きを調整
する(ステップS31)。
First, the user adjusts the orientation of the camera system 10 so that the subject camera 13 and the movable camera 11 capture the same stereo chart 2 within their respective field angles (step S31).

【0114】次にユーザは被写体用カメラ13及び可動
式カメラ11による同一の立体チャート2の撮影指示を
行う(ステップS32)。例えば、被写体用カメラ13
のシャッタボタン161を押下すれば、カメラシステム
10の被写体用カメラ13及び可動式カメラ11が同期
して撮影動作を行う。この結果、可動式カメラ11で立
体チャート2を撮影して得られる画像データが可動式カ
メラ11から被写体用カメラ13に送信され、被写体用
カメラ13のメモリ169にその画像データが格納され
る。また、被写体用カメラ13で立体チャート2を撮影
して得られる画像データも被写体用カメラ13のメモリ
169に格納される。
Next, the user gives an instruction to photograph the same three-dimensional chart 2 by the subject camera 13 and the movable camera 11 (step S32). For example, the subject camera 13
When the shutter button 161 is pressed, the subject camera 13 and the movable camera 11 of the camera system 10 synchronously perform a shooting operation. As a result, the image data obtained by photographing the three-dimensional chart 2 with the movable camera 11 is transmitted from the movable camera 11 to the subject camera 13, and the image data is stored in the memory 169 of the subject camera 13. Further, image data obtained by photographing the three-dimensional chart 2 with the subject camera 13 is also stored in the memory 169 of the subject camera 13.

【0115】そして、被写体用カメラ13において演算
部170の第2演算部172が機能し、可動式カメラ1
1が立体チャート2を撮影した画像から、可動式カメラ
11の立体チャート2に対する相対位置及び相対姿勢、
すなわち可動式カメラ11の外部パラメータの算出演算
が行われる(ステップS33)。また同様に、被写体用
カメラ13が立体チャート2を撮影した画像から、被写
体用カメラ13の立体チャート2に対する相対位置及び
相対姿勢、すなわち被写体用カメラ13の外部パラメー
タの算出演算が行われる(ステップS33)。演算部1
70は、可動式カメラ11及び被写体用カメラ13の各
々についての外部パラメータが適切に算出できたか否か
を判断する。そして、外部パラメータの算出ができなか
った場合は、2つのカメラによる同一の立体チャート2
の撮影動作(ステップS32)から繰り返すことにな
る。一方、外部パラメータが適切に算出できた場合に
は、ステップS34に進む。
Then, in the subject camera 13, the second arithmetic unit 172 of the arithmetic unit 170 functions and the movable camera 1
1, the relative position and the relative attitude of the movable camera 11 with respect to the stereo chart 2,
That is, the calculation calculation of the external parameters of the movable camera 11 is performed (step S33). Similarly, the relative position and the relative attitude of the subject camera 13 with respect to the three-dimensional chart 2, that is, the calculation calculation of the external parameter of the subject camera 13 is performed from the image of the three-dimensional chart 2 captured by the subject camera 13 (step S33). ). Computing unit 1
Reference numeral 70 determines whether or not the external parameters for each of the movable camera 11 and the subject camera 13 have been appropriately calculated. When the external parameters cannot be calculated, the same stereo chart 2 by the two cameras is used.
The photographing operation (step S32) is repeated. On the other hand, when the external parameters can be calculated appropriately, the process proceeds to step S34.

【0116】そして第2演算部172は、被写体用カメ
ラ13及び可動式カメラ11のそれぞれの外部パラメー
タと、可動式カメラ11の撮影時のレンズ回転角とか
ら、2つのカメラの相対位置及び相対姿勢を表現したカ
メラパラメータを算出する(ステップS34)。つま
り、ステップS33で求めた外部パラメータにより、2
つのカメラのそれぞれが同一の立体チャート2に対する
相対的な位置及び姿勢が解明されるため、その関係を用
いて2つのカメラどうしの相対的な位置関係を演算によ
って求めるのである。なお、同一の立体チャート2を撮
影する際に、可動式カメラ11の旋回角度及び俯仰角度
が0°であったならば、レンズ回転角を考慮することな
く最も簡単に2つのカメラの相対位置及び相対姿勢を表
現したカメラパラメータを算出することができる。この
処理により、上記数3の変換式に示す各パラメータ又は
上記数2と数3との合成変換式に相当する各パラメータ
が求められることになる。
Then, the second computing unit 172 determines the relative position and relative attitude of the two cameras from the external parameters of the subject camera 13 and the movable camera 11 and the lens rotation angle of the movable camera 11 when the camera is photographing. A camera parameter expressing is calculated (step S34). That is, 2 is obtained by the external parameter obtained in step S33.
Since the relative position and orientation of each of the two cameras with respect to the same three-dimensional chart 2 are clarified, the relative positional relationship between the two cameras is calculated by using the relationship. If the turning angle and the elevation angle of the movable camera 11 are 0 ° when the same three-dimensional chart 2 is photographed, the relative position of the two cameras and the relative position of the two cameras can be easily obtained without considering the lens rotation angle. It is possible to calculate a camera parameter expressing the relative posture. By this processing, each parameter shown in the conversion formula of the above-mentioned formula 3 or each parameter corresponding to the combined conversion formula of the above-mentioned formulas 2 and 3 is obtained.

【0117】以上で、可動式カメラ11が被写体用カメ
ラ13に固定された状態での被写体用カメラ13と可動
式カメラ11との相対位置及び相対姿勢が定められたこ
とになり、ステップS3の処理を終了する。
As described above, the relative position and relative posture between the subject camera 13 and the movable camera 11 in a state where the movable camera 11 is fixed to the subject camera 13 are determined, and the process of step S3 is performed. To finish.

【0118】次に、三次元情報の生成対象である被写体
30を撮影するための被写体撮影処理が行われる(図8
参照;ステップS4)。この処理の詳細を図11のフロ
ーチャートに示す。
Next, a subject photographing process for photographing the subject 30 for which the three-dimensional information is generated is performed (FIG. 8).
See; step S4). The details of this processing are shown in the flowchart of FIG.

【0119】ステップS41においてユーザはカメラシ
ステム10を被写体30周囲の任意の位置に設置し、被
写体用カメラ13を被写体30に向ける。そして可動式
カメラ11を手動モードに設定して、可動式カメラ11
を複数の立体チャート2のうちの任意の1つ(撮影対象
立体チャート)に向ける。このとき撮影対象立体チャー
トとしては、複数の立体チャート2のうちでカメラシス
テム10に最も近いものを選択することが好ましい。最
も近いの立体チャートを撮影対象立体チャートとするこ
とで、可動式カメラ11の撮影対象立体チャートに対す
る相対位置及び相対姿勢を高精度に求めることができる
からである。そして、撮影対象立体チャートが可動式カ
メラ11の画角内に収まった時点で、ユーザは可動式カ
メラ11を自動追尾モードに設定する。
In step S41, the user installs the camera system 10 at an arbitrary position around the subject 30 and points the subject camera 13 toward the subject 30. Then, the movable camera 11 is set to the manual mode,
To any one of the plurality of three-dimensional charts 2 (imaging target three-dimensional chart). At this time, it is preferable to select the one that is closest to the camera system 10 from the plurality of three-dimensional charts 2 as the photographing target three-dimensional chart. This is because by setting the closest 3D chart as the shooting target 3D chart, the relative position and relative attitude of the movable camera 11 with respect to the shooting target 3D chart can be obtained with high accuracy. Then, the user sets the movable camera 11 to the automatic tracking mode at the time when the stereoscopic chart to be photographed is within the angle of view of the movable camera 11.

【0120】ユーザは被写体用カメラ13で被写体30
を撮影するために被写体用カメラ13のフレーミング調
整等を行う。この間、可動式カメラ11では撮影対象立
体チャート2を自動追尾して、可動式カメラ11の画角
内に常に撮影対象立体チャートを捉えるように動作す
る。
The user uses the subject camera 13 to capture the subject 30.
The framing adjustment of the subject camera 13 is performed to capture the image. During this time, the movable camera 11 automatically tracks the shooting target stereo chart 2, and operates so as to always capture the shooting target stereo chart within the angle of view of the movable camera 11.

【0121】そして、自動追尾が良好に行われている場
合はステップS43に進み、自動追尾が失敗した場合に
はステップS41に戻って再び撮影対象立体チャートが
可動式カメラ11の画角内収まるように手動操作を行う
(ステップS42)。
Then, if the automatic tracking is performed well, the process proceeds to step S43, and if the automatic tracking fails, the process returns to step S41 so that the object stereoscopic chart is within the angle of view of the movable camera 11 again. Is manually operated (step S42).

【0122】被写体用カメラ13によるフレーミング調
整が完了すると、ユーザは被写体用カメラ13のシャッ
タボタン161を押下し、被写体30の撮影動作を指示
する。これに応答して、被写体用カメラ13では被写体
30の撮影が行われ、同時に可動式カメラ11では撮影
対象立体チャート2の撮影動作が行われる(ステップS
43)。
When the framing adjustment by the subject camera 13 is completed, the user depresses the shutter button 161 of the subject camera 13 to instruct the photographing operation of the subject 30. In response to this, the subject camera 13 captures an image of the subject 30, and at the same time, the movable camera 11 captures an image of the subject stereoscopic chart 2 (step S).
43).

【0123】そして、被写体用カメラ13で得られた被
写体30の撮影画像がメモリ169に格納されるととも
に、可動式カメラ11で撮影対象立体チャートを撮影し
た画像データ及びレンズ回転角情報もメモリ169に格
納される。
Then, the photographed image of the subject 30 obtained by the subject camera 13 is stored in the memory 169, and the image data and the lens rotation angle information obtained by photographing the subject stereo chart by the movable camera 11 are also stored in the memory 169. Is stored.

【0124】そして被写体用カメラ13において第2演
算部172が機能する。第2演算部172は、メモリ1
69に格納されている可動式カメラ11で得られた画像
を読み出して、複数の立体チャート2のうち、どの立体
チャートが撮影対象立体チャートとして撮影されたかを
特定する(ステップS44)。
Then, in the camera 13 for the subject, the second calculation section 172 functions. The second calculation unit 172 is provided in the memory 1
The image obtained by the movable camera 11 stored in 69 is read out, and which of the three-dimensional charts 2 is photographed is specified as the three-dimensional chart to be photographed (step S44).

【0125】複数の立体チャート2のうちから撮影対象
立体チャートを特定するための一例について説明する。
例えば、複数の立体チャート2のチャートパターンCP
をそれぞれ異なる色で形成しておく。そして可動式カメ
ラ11から得られた画像における撮影対象立体チャート
の色を演算部170が判別することにより、複数の立体
チャートのうちで撮影対象立体チャートとして撮影され
た立体チャートを特定することが可能である。
An example for specifying the photographing target stereo chart from the plurality of stereo charts 2 will be described.
For example, the chart patterns CP of a plurality of three-dimensional charts 2
Are formed in different colors. Then, the calculation unit 170 determines the color of the shooting target stereo chart in the image obtained from the movable camera 11, whereby the stereo chart shot as the shooting target stereo chart can be specified from among the plurality of stereo charts. Is.

【0126】また、上記のように複数の立体チャート2
のそれぞれのチャートパターンCPを異なる色で形成す
ることにより、複数の立体チャート2の相対的位置関係
を求めた際に、各立体チャート2を特定することができ
る。
In addition, as described above, a plurality of three-dimensional charts 2 are used.
By forming the respective chart patterns CP in different colors, it is possible to specify each three-dimensional chart 2 when the relative positional relationship of the plurality of three-dimensional charts 2 is obtained.

【0127】そして第2演算部172は、可動式カメラ
11から得られた撮影対象立体チャート2の画像に基づ
いて、可動式カメラ11の撮影対象立体チャート2に対
する相対位置及び相対姿勢を求める(ステップS4
5)。これにより、可動式カメラ11が撮影対象立体チ
ャートを撮影したときの可動式カメラ11の外部パラメ
ータが算出されることになる。
Then, the second calculation section 172 obtains the relative position and relative attitude of the movable camera 11 with respect to the photographing target stereo chart 2 based on the image of the photographing target stereo chart 2 obtained from the movable camera 11 (step S4
5). As a result, the external parameters of the movable camera 11 when the movable camera 11 captures the capture target stereo chart are calculated.

【0128】そして第2演算部172は、ステップS4
5で得られた可動式カメラ11の外部パラメータ(数1
の式における各パラメータ)、ステップS34で得られ
たカメラパラメータ(数3の式における各パラメー
タ)、及び、ステップS43の撮影時におけるレンズ回
転角情報(数2の式における各パラメータ)、に基づい
て、被写体用カメラ13の撮影対象立体チャートに対す
る相対位置及び相対姿勢を求める(ステップS46)。
つまり、被写体用カメラ13の外部パラメータを求める
のである。これにより、上記数4の式における各パラメ
ータが求まることとなり、被写体30を撮影した撮影画
像から得られる被写体30の座標値を、撮影対象立体チ
ャートのチャート座標系Xcにおける座標値に変換する
ことが可能になる。
Then, the second operation section 172 operates in step S4.
External parameters of the movable camera 11 obtained in (5)
Based on the camera parameters (each parameter in the equation of Equation 3) obtained in step S34, and the lens rotation angle information (each parameter in the equation of equation 2) at the time of shooting in step S43. A relative position and a relative attitude of the subject camera 13 with respect to the image-capturing stereo chart are obtained (step S46).
That is, the external parameters of the subject camera 13 are obtained. As a result, each parameter in the equation (4) is obtained, and the coordinate value of the subject 30 obtained from the captured image of the subject 30 can be converted into the coordinate value in the chart coordinate system Xc of the capture target stereo chart. It will be possible.

【0129】そして、被写体用カメラ13で得られる撮
影画像と、上記のようにして得られる被写体用カメラ1
3の外部パラメータと、特定された撮影対象立体チャー
トと、を対応づけてメモリ169にデータ保存する。
The photographed image obtained by the subject camera 13 and the subject camera 1 obtained as described above.
Data is stored in the memory 169 by associating the external parameters of No. 3 with the specified stereoscopic chart of the photographing target.

【0130】ステップS41〜S47の処理により、被
写体30を被写体用カメラ13で撮影したときの撮影画
像から得られる画像を、撮影対象立体チャートのチャー
ト座標系に変換するためのパラメータが求められること
になる。このような処理を被写体30の全周を分割撮影
して繰り返し行うことにより、被写体30の全周に関す
るパラメータが生成されることになる。
By the processing of steps S41 to S47, the parameters for converting the image obtained from the photographed image when the subject 30 is photographed by the subject camera 13 into the chart coordinate system of the three-dimensional chart to be photographed are obtained. Become. By repeatedly performing such a process by dividing and photographing the entire circumference of the subject 30, parameters relating to the entire circumference of the subject 30 are generated.

【0131】ステップS48では、ユーザがさらに被写
体30の別の側面を撮影すると判断した場合に、ステッ
プS41からの処理が繰り返し行われるようになってい
る。また、ユーザが被写体30の全周について撮影動作
を行った場合には、操作ボタン164に対して所定の入
力を行うこと撮影終了を指示する。この撮影終了の指示
入力があった場合には、カメラシステム10は被写体撮
影処理(ステップS4)を終了する。
In step S48, if the user determines that another side surface of the subject 30 is to be photographed, the processing from step S41 is repeated. In addition, when the user has performed a shooting operation on the entire circumference of the subject 30, a predetermined input is made to the operation button 164 to instruct the end of shooting. When the instruction to end the shooting is input, the camera system 10 ends the subject shooting process (step S4).

【0132】ただし、ユーザが被写体30の周囲を移動
しつつ、被写体30を繰り返し撮影する場合、各撮影時
において可動式カメラ11が撮影する撮影対象立体チャ
ートは異なった立体チャートに指定される。このため、
各撮影時に求められる被写体用カメラ13の外部パラメ
ータは基準とする立体チャートがそれぞれに異なったも
のとなっている。
However, when the user moves around the subject 30 and repeatedly photographs the subject 30, the three-dimensional charts to be photographed by the movable camera 11 at each photographing are designated as different three-dimensional charts. For this reason,
The external parameters of the camera 13 for a subject, which are required at the time of each photographing, are different from each other in the standard three-dimensional chart.

【0133】次に、三次元情報生成システム1において
は、三次元情報の生成処理が行われる(図8参照;ステ
ップS5)。この処理の詳細を図12のフローチャート
に示す。
Next, in the three-dimensional information generation system 1, a three-dimensional information generation process is performed (see FIG. 8; step S5). The details of this processing are shown in the flowchart of FIG.

【0134】被写体用カメラ13において第2演算部1
72が機能する。そして、第2演算部172は、被写体
用カメラ13で被写体30を撮影して得られた撮影画像
と、その撮影時に求められた被写体用カメラ13の外部
パラメータと、その撮影時の撮影対象立体チャートを特
定する情報とを、メモリ169から読み出す(ステップ
S51)。
In the camera 13 for the subject, the second operation unit 1
72 works. Then, the second calculation unit 172, the captured image obtained by capturing the subject 30 with the subject camera 13, the external parameters of the subject camera 13 obtained at the time of the capture, and the capture target stereoscopic chart at the time of the capture. And the information for identifying the are read from the memory 169 (step S51).

【0135】また、第2演算部172は、メモリ169
にアクセスし、第1演算部171がステップS2におい
て予め求めておいた複数の立体チャート2の相対的位置
関係のうちから、基本立体チャートに対する撮影対象立
体チャートの相対位置及び相対姿勢を読み出す(ステッ
プS52)。このとき、第2演算部172は、ステップ
S51で得られる撮影時の撮影対象立体チャートを特定
する情報に基づいて、基本立体チャートに対する撮影対
象立体チャートの相対位置及び相対姿勢を読み出す。
Further, the second arithmetic unit 172 has the memory 169.
And the relative position and relative attitude of the photographing target stereo chart with respect to the basic stereo chart are read out from the relative positional relationships of the stereo charts 2 obtained in advance by the first calculation unit 171 (step S2) (step S52). At this time, the second calculation unit 172 reads out the relative position and the relative attitude of the photographing target three-dimensional chart with respect to the basic three-dimensional chart, based on the information specifying the photographing target three-dimensional chart at the time of photographing, which is obtained in step S51.

【0136】ステップS51で得られる、撮影時に求め
られた被写体用カメラ13の外部パラメータとは、すな
わち、上記の数4の式に示す各パラメータである。ま
た、ステップS52で得られる、基本立体チャートに対
する撮影対象立体チャートの相対位置及び相対姿勢と
は、すなわち、上記の数7又は数8の式に示す各パラメ
ータである。したがって、これらのパラメータに基づい
て演算を行えば、被写体用カメラ13で被写体30を撮
影した際の撮影画像から得られる被写体30の座標値
を、基本立体チャートの基準座標系で表現される座標値
に座標変換することができる。つまり、数4の座標変換
式と、数7又は数8の座標変換式との合成変換式を求め
ることにより、被写体30の基準座標系(ワールド座標
系)における座標値を求めることが可能な変換式を求め
ることができるのである。
The external parameters of the subject camera 13 obtained at the time of photographing, which are obtained in step S51, are the parameters shown in the equation (4). Further, the relative position and the relative attitude of the photographing target three-dimensional chart with respect to the basic three-dimensional chart obtained in step S52 are, in other words, the respective parameters shown in the above formulas 7 or 8. Therefore, if the calculation is performed based on these parameters, the coordinate value of the subject 30 obtained from the captured image when the subject camera 13 captures the subject 30 is represented by the coordinate value expressed in the reference coordinate system of the basic stereo chart. The coordinates can be converted to. That is, the coordinate conversion formula of Equation 4 and the coordinate conversion formula of Equation 7 or 8 can be obtained to obtain the coordinate value of the subject 30 in the reference coordinate system (world coordinate system). The formula can be obtained.

【0137】そして第2演算部172は、撮影対象立体
チャートの基本立体チャートに対する相対位置及び相対
姿勢と、被写体用カメラ13の外部パラメータとに基づ
いて、上記の合成変換式を求め、撮影画像に含まれる被
写体像の三次元情報を生成する(ステップS53)。
Then, the second calculation section 172 obtains the above-mentioned synthetic conversion formula based on the relative position and relative attitude of the object stereoscopic chart with respect to the basic stereo chart and the external parameters of the subject camera 13 to obtain a captured image. Three-dimensional information of the included subject image is generated (step S53).

【0138】そして第2演算部172は、メモリ169
に他の撮影画像が有るか否かを調べ、有る場合にはステ
ップS51〜S53の処理を繰り返す(ステップS5
4)。この繰り返しにより、被写体30の周囲を分割し
て撮影した場合の全ての画像から、基準座標系(ワール
ド座標系)における座標値を求めることができ、被写体
像の全周に関する三次元情報を生成することが可能にな
る。
Then, the second operation unit 172 uses the memory 169.
It is checked whether or not there is another photographed image in the table, and if there is, a process of steps S51 to S53 is repeated (step S5).
4). By repeating this, the coordinate values in the reference coordinate system (world coordinate system) can be obtained from all the images obtained by dividing the periphery of the subject 30 and generating three-dimensional information about the entire circumference of the subject image. It will be possible.

【0139】そして最終的に被写体30の全周について
の三次元情報が生成されると、その三次元情報が出力又
は保存されて全ての処理が終了する(ステップS5
5)。
When the three-dimensional information about the entire circumference of the subject 30 is finally generated, the three-dimensional information is output or saved and all the processes are completed (step S5).
5).

【0140】なお、上記の動作プロセスにおいて、各手
順の順序を若干入れ替えてもよい。例えば、複数の立体
チャート2の相対的位置関係を算出する処理(ステップ
S2)を、ステップS3の処理やステップS4の処理の
後に行うようにしても構わない。
In the above operation process, the order of each procedure may be slightly changed. For example, the process (step S2) of calculating the relative positional relationship between the plurality of three-dimensional charts 2 may be performed after the process of step S3 or the process of step S4.

【0141】以上、説明したように、この実施の形態の
三次元情報生成システム1では、被写体30の周囲に、
既知の構造で形成された複数の立体チャート2が配置さ
れている。そして、第1演算部171が、複数の立体チ
ャート2を予め可動式カメラ11で撮影した画像に含ま
れる各立体チャートに基づいて、複数の立体チャート2
の相対的位置関係を求めるように構成され、第2演算部
172が、可動式カメラ11が撮影対象立体チャートを
撮影した撮影位置及び撮影姿勢と、可動式カメラ11と
被写体用カメラ13との相対位置及び相対姿勢と、撮影
対象立体チャートと他の立体チャート2とについての相
対的位置関係と、に基づいて、被写体用カメラ13から
得られる撮影画像より、被写体の三次元情報を生成する
ように構成されている。
As described above, in the three-dimensional information generation system 1 of this embodiment, the surroundings of the subject 30 are
A plurality of three-dimensional charts 2 having a known structure are arranged. Then, the first calculation unit 171 causes the plurality of three-dimensional charts 2 to be based on the respective three-dimensional charts included in the image captured by the movable camera 11 in advance.
The second computing unit 172 is configured to determine the relative positional relationship between the movable camera 11 and the photographing position and the photographing posture at which the movable camera 11 photographed the photographing target stereo chart, and the relative relationship between the movable camera 11 and the subject camera 13. The three-dimensional information of the subject is generated from the captured image obtained from the subject camera 13 based on the position and the relative attitude and the relative positional relationship between the capturing target stereo chart and the other stereo chart 2. It is configured.

【0142】このため、カメラシステム10の可動範囲
を大幅に広げることができるとともに、高い測定精度で
三次元画像モデルを構築することが可能である。つま
り、被写体30のサイズが大きい場合には、その被写体
サイズに応じて被写体30の周囲に配置する立体チャー
トの数を増加させればよいのである。そして、立体チャ
ートの数が増加したとしても、各立体チャート間の相対
的位置関係が高精度に求められるので、カメラシステム
10の可動範囲を広げつつも、高精度な三次元情報の生
成が可能になるのである。
For this reason, the movable range of the camera system 10 can be greatly expanded, and a three-dimensional image model can be constructed with high measurement accuracy. That is, when the size of the subject 30 is large, the number of stereo charts arranged around the subject 30 may be increased according to the size of the subject 30. Even if the number of three-dimensional charts increases, the relative positional relationship between the three-dimensional charts is required with high accuracy, so that it is possible to generate highly accurate three-dimensional information while expanding the movable range of the camera system 10. It becomes.

【0143】また、被写体30の周囲に配置される複数
の立体チャート2の相対的位置関係を求める際に、可動
式カメラ11の画角内に少なくとも2つの立体チャート
2が収まるようにして撮影すれば、撮影によって得られ
た画像から簡単に少なくとも2つの立体チャート2の相
対的位置関係を求めることができるので、効率的であ
る。
Further, when obtaining the relative positional relationship of the plurality of three-dimensional charts 2 arranged around the subject 30, at least two three-dimensional charts 2 should be captured within the angle of view of the movable camera 11. If so, the relative positional relationship between at least two three-dimensional charts 2 can be easily obtained from the image obtained by photographing, which is efficient.

【0144】また、被写体30の周囲に配置される複数
の立体チャート2の相対的位置関係を求める際に、可動
式カメラ11の撮影方向(すなわち撮影姿勢)を変化さ
せつつ、可動式カメラ11によって複数の立体チャート
2を撮影するようにしてもよい。このような撮影を行っ
たとしても、可動式カメラ11から得られる各画像と、
各画像を撮影した際の可動式カメラ11の撮影方向(撮
影姿勢)と、に基づいて、複数の立体チャート2の相対
的位置関係を適切に求めることが可能である。また、上
記のような可動式カメラ11の画角内に少なくとも2つ
の立体チャート2が収まる撮影形態の場合には、複数の
立体チャート2の配置が可動式カメラ11の画角による
制限を受けることになるが、可動式カメラ11の撮影方
向を変化させつつ、可動式カメラ11によって複数の立
体チャート2を撮影する撮影形態の場合には、複数の立
体チャート2の配置が可動式カメラ11の画角による制
限を受けることがなく、立体チャート2の配置における
自由度が増す。
When obtaining the relative positional relationship of the plurality of three-dimensional charts 2 arranged around the subject 30, the movable camera 11 is used while changing the photographing direction (that is, the photographing posture) of the movable camera 11. You may make it image | photograph several stereo charts 2. Even if such an image is taken, each image obtained from the movable camera 11,
It is possible to appropriately obtain the relative positional relationship between the plurality of three-dimensional charts 2 based on the shooting direction (shooting posture) of the movable camera 11 when shooting each image. Further, in the case of a shooting mode in which at least two stereo charts 2 are accommodated within the angle of view of the movable camera 11 as described above, the arrangement of the plurality of stereo charts 2 is limited by the angle of view of the movable camera 11. However, in the case of a shooting mode in which the movable camera 11 shoots a plurality of three-dimensional charts 2 while changing the shooting direction of the movable camera 11, the arrangement of the plurality of three-dimensional charts 2 is changed. The degree of freedom in the arrangement of the three-dimensional chart 2 is increased without being restricted by the corners.

【0145】<7.変形例>以上、この発明の実施の形
態について説明したが、この発明は上記説明した内容の
ものに限定されるものではない。
<7. Modifications> Although the embodiments of the present invention have been described above, the present invention is not limited to the above description.

【0146】例えば、上記説明では、複数の立体チャー
ト2の相対的位置関係を求める際に、可動式カメラ11
で複数の立体チャート2を撮影する形態について説明し
たが、被写体用カメラ13で複数の立体チャート2を撮
影するようにしても構わない。また、可動式カメラ11
と被写体用カメラ13との双方のカメラが、互いに異な
る立体チャート2を撮影し、それぞれに得られる画像か
ら各立体チャートの相対的位置関係を求めるようにして
も構わない。
For example, in the above description, the movable camera 11 is used when obtaining the relative positional relationship between the plurality of three-dimensional charts 2.
In the above, the mode in which a plurality of three-dimensional charts 2 are photographed has been described, but a plurality of three-dimensional charts 2 may be photographed by the subject camera 13. In addition, the movable camera 11
It is also possible that both the camera and the subject camera 13 shoot different stereo charts 2 and obtain the relative positional relationship of the respective stereo charts from the images respectively obtained.

【0147】また、複数の立体チャート2の相対的位置
関係を求めるために、ある立体チャート2に対して可動
式カメラ11を固定し、その可動式カメラ11によって
隣接する他の立体チャート2を撮影するようにしてもよ
い。この場合は、可動式カメラ11を立体チャート2に
固定したときの可動式カメラ11の位置及び姿勢が所定
の状態となるように取り付けられ、既知であることが必
要である。
Further, in order to obtain the relative positional relationship of the plurality of three-dimensional charts 2, the movable camera 11 is fixed to a certain three-dimensional chart 2 and the movable camera 11 photographs another adjacent three-dimensional chart 2. You may do it. In this case, it is necessary that the position and orientation of the movable camera 11 when the movable camera 11 is fixed to the three-dimensional chart 2 be set in a predetermined state and be known.

【0148】また、上記説明では、各立体チャートを他
の立体チャートと区別するために各立体チャートに異な
る色のチャートパターンCPを形成する例について説明
したが、例えばマーカ201の点灯パターンを各立体チ
ャートごとに変更させたり、各立体チャートに異なる文
字パターン等を形成して、それらを判別することによっ
ても、各々の立体チャートを区別することが可能であ
る。
Further, in the above description, an example in which the chart patterns CP of different colors are formed on each three-dimensional chart in order to distinguish each three-dimensional chart from other three-dimensional charts has been described. It is also possible to distinguish each three-dimensional chart by changing each chart or forming different character patterns or the like on each three-dimensional chart and discriminating them.

【0149】また、上記説明では、第1演算部171及
び第2演算部172を備える演算部170が、被写体用
カメラ13に設けられる例について説明したが、これに
限定されるものではなく、可動式カメラ11に第1演算
部171が配置されもよいし、演算部170の全部又は
一部の機能がコンピュータ15に設けられていてもよ
い。演算部170としての機能がコンピュータ15に設
けられる場合には、可動式カメラ11で得られる情報及
び被写体用カメラ13で得られる情報の全ては、コンピ
ュータ15に与えられることになる。そして、演算部1
70の機能を実現する演算プログラムは、コンピュータ
15にインストールされて実行されることになる。
In the above description, an example in which the arithmetic unit 170 including the first arithmetic unit 171 and the second arithmetic unit 172 is provided in the subject camera 13 has been described. However, the present invention is not limited to this, and the movable unit is movable. The first calculation unit 171 may be arranged in the expression camera 11, or all or part of the functions of the calculation unit 170 may be provided in the computer 15. When the computer 15 is provided with the function as the calculation unit 170, all of the information obtained by the movable camera 11 and the information obtained by the subject camera 13 are given to the computer 15. And the arithmetic unit 1
The calculation program that realizes the functions of 70 is installed in the computer 15 and executed.

【0150】さらに、上記説明においては、複数の立体
チャート2が被写体30の略上方に吊り下げられる例に
ついて説明したが、それに限定されるものでもない。図
13は複数の立体チャートの配置に関する変形例を示す
図である。図13に示すように、複数の立体チャート2
(2c〜2e)は被写体30の周囲床面に配置されてい
てもよい。この場合でも、上述した演算内容には何ら変
更は生じない。
Furthermore, in the above description, an example in which a plurality of three-dimensional charts 2 are suspended above the subject 30 has been described, but the present invention is not limited to this. FIG. 13 is a diagram showing a modified example regarding the arrangement of a plurality of three-dimensional charts. As shown in FIG. 13, a plurality of three-dimensional charts 2
(2c to 2e) may be arranged on the floor surface around the subject 30. Even in this case, there is no change in the above-mentioned calculation contents.

【0151】[0151]

【発明の効果】以上説明したように、請求項1乃至9に
記載の各発明によれば、被写体の周囲に配置された複数
の姿勢検出用基準物体の相対的位置関係が求められるた
め、被写体を撮影する際にいずれかの姿勢検出用基準物
体を同時に撮影しておけば、被写体を適切に測定するこ
とができる。このため、測定装置の被写体周囲における
可動範囲を広く確保することができ、かつ、高い測定精
度で被写体を測定することが可能になる。
As described above, according to each of the first to ninth aspects of the present invention, since the relative positional relationship of a plurality of posture detection reference objects arranged around the subject is obtained, If one of the reference objects for posture detection is taken at the same time when taking the image, the subject can be appropriately measured. Therefore, it is possible to secure a wide movable range around the subject of the measuring device, and it is possible to measure the subject with high measurement accuracy.

【0152】そして特に、請求項2に記載の発明によれ
ば、被写体の周囲に配置された複数の姿勢検出用基準物
体の相対的位置関係を簡単に求めることができ、演算効
率も向上する。
In particular, according to the second aspect of the invention, the relative positional relationship of the plurality of posture detecting reference objects arranged around the subject can be easily obtained, and the calculation efficiency is also improved.

【0153】また、請求項3に記載の発明によれば、基
準物体撮影用カメラの特徴を利用して被写体の周囲に配
置された複数の姿勢検出用基準物体の相対的位置関係を
求めることができ、複数の立体チャートの配置における
自由度が増す。
According to the third aspect of the present invention, it is possible to obtain the relative positional relationship of the plurality of posture detecting reference objects arranged around the subject by utilizing the characteristics of the reference object photographing camera. This increases the degree of freedom in arranging a plurality of 3D charts.

【0154】また、請求項4に記載の発明によれば、基
準物体撮影用カメラが測定装置に対して撮影方向を可変
に固定されているので、被写体周囲に配置された任意の
姿勢検出用基準物体を測定することができ、複数の姿勢
検出用基準物体の相対的位置関係を適切に求めることが
できる。
According to the fourth aspect of the invention, since the camera for photographing the reference object is variably fixed in the photographing direction with respect to the measuring device, any reference for posture detection arranged around the subject. The object can be measured, and the relative positional relationship between the plurality of attitude detection reference objects can be appropriately obtained.

【0155】また、請求項5に記載の発明によれば、基
準物体撮影用カメラが少なくとも1つの姿勢検出用基準
物体を撮影するように、基準物体撮影用カメラの撮影方
向が制御されるため、被写体の周囲における測定装置の
配置に自由度が増す。
According to the fifth aspect of the present invention, the shooting direction of the reference object shooting camera is controlled so that the reference object shooting camera shoots at least one attitude detection reference object. The degree of freedom in arranging the measuring device around the subject is increased.

【0156】さらに、請求項6に記載の発明によれば、
測定装置が被写体の3次元形状を測定する装置であり、
複数回の測定で得られた3次元形状が各測定時の姿勢に
基づいて合成されるため、測定装置によって被写体の周
囲に関する3次元形状が正確に測定される。
Further, according to the invention of claim 6,
The measuring device is a device for measuring the three-dimensional shape of the subject,
Since the three-dimensional shapes obtained by a plurality of measurements are combined based on the postures at the time of each measurement, the three-dimensional shape relating to the periphery of the subject is accurately measured by the measuring device.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明にかかる三次元情報生成システムの一構
成例を示す図である。
FIG. 1 is a diagram showing a configuration example of a three-dimensional information generation system according to the present invention.

【図2】立体チャートの側面図である。FIG. 2 is a side view of a three-dimensional chart.

【図3】可動式カメラの正面図である。FIG. 3 is a front view of a movable camera.

【図4】可動式カメラの内部機能を示すブロック図であ
る。
FIG. 4 is a block diagram showing internal functions of a movable camera.

【図5】被写体撮影用カメラの内部構成を示すブロック
図である。
FIG. 5 is a block diagram showing an internal configuration of a camera for photographing an object.

【図6】三次元情報生成システムにおける座標変換の概
念を示す図である。
FIG. 6 is a diagram showing the concept of coordinate conversion in a three-dimensional information generation system.

【図7】チャート座標系を基準座標系に変換する座標変
換の概念を示す図である。
FIG. 7 is a diagram showing a concept of coordinate conversion for converting a chart coordinate system into a reference coordinate system.

【図8】三次元情報生成システムの全体的な動作プロセ
スを示すフローチャートである。
FIG. 8 is a flowchart showing an overall operation process of the three-dimensional information generation system.

【図9】三次元情報生成システムの動作プロセスにおけ
る一部の処理を示すフローチャートである。
FIG. 9 is a flowchart showing a part of processing in an operation process of the three-dimensional information generation system.

【図10】三次元情報生成システムの動作プロセスにお
ける一部の処理を示すフローチャートである。
FIG. 10 is a flowchart showing a part of processing in an operation process of the three-dimensional information generation system.

【図11】三次元情報生成システムの動作プロセスにお
ける一部の処理を示すフローチャートである。
FIG. 11 is a flowchart showing a part of processing in an operation process of the three-dimensional information generation system.

【図12】三次元情報生成システムの動作プロセスにお
ける一部の処理を示すフローチャートである。
FIG. 12 is a flowchart showing a part of processing in an operation process of the three-dimensional information generation system.

【図13】複数の立体チャートの配置に関する変形例を
示す図である。
FIG. 13 is a diagram showing a modified example regarding the arrangement of a plurality of three-dimensional charts.

【符号の説明】 1 三次元情報生成システム 2(2a〜2e) 立体チャート(姿勢検出用基準物
体) 10 カメラシステム(三次元情報生成装置、測定装
置) 11 可動式カメラ(基準物体撮影用カメラ) 13 被写体撮影用カメラ(被写体カメラ) 15 コンピュータ 30 被写体 113 姿勢変化装置 160 制御部(制御手段) 170 演算部 171 第1演算部(第1の演算手段) 172 第2演算部(第2の演算手段) G1 画角 Xc,Xm,Xmo,Xo,Xcb,Xxa 座標系
[Explanation of Codes] 1 3D information generation system 2 (2a to 2e) 3D chart (reference object for attitude detection) 10 camera system (3D information generation device, measurement device) 11 movable camera (camera for reference object photography) 13 Camera for Shooting Subject (Subject Camera) 15 Computer 30 Subject 113 Posture Change Device 160 Control Unit (Control Unit) 170 Calculation Unit 171 First Calculation Unit (First Calculation Unit) 172 Second Calculation Unit (Second Calculation Unit) ) G1 angle of view Xc, Xm, Xmo, Xo, Xcb, Xxa coordinate system

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 5/225 H04N 5/225 Z 5L096 13/00 13/00 (72)発明者 榊原 邦光 大阪府大阪市中央区安土町二丁目3番13号 大阪国際ビル ミノルタ株式会社内 Fターム(参考) 2F065 AA04 AA20 AA37 AA53 BB05 BB29 FF04 FF28 FF61 FF65 FF67 GG08 JJ03 JJ26 LL06 LL30 NN20 PP05 QQ03 QQ24 QQ31 QQ32 RR10 5B047 AA07 BA02 BB04 BC16 BC23 CA14 CB09 CB22 DC07 DC09 5B057 AA20 BA11 CA12 CB13 CD14 CH01 CH11 DA07 DA16 DB03 DC08 5C022 AA13 AB62 AC27 5C061 AA29 AB04 AB24 5L096 AA09 BA20 CA03 FA67 FA69 HA05 LA05 LA11 ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 Identification code FI theme code (reference) H04N 5/225 H04N 5/225 Z 5L096 13/00 13/00 (72) Inventor Kunimitsu Sakakibara Osaka City, Osaka Prefecture Chuo-ku, Azuchi-chome No. 3 No. 13 Osaka International building Minolta Co., Ltd. in the F-term (reference) 2F065 AA04 AA20 AA37 AA53 BB05 BB29 FF04 FF28 FF61 FF65 FF67 GG08 JJ03 JJ26 LL06 LL30 NN20 PP05 QQ03 QQ24 QQ31 QQ32 RR10 5B047 AA07 BA02 BB04 BC16 BC23 CA14 CB09 CB22 DC07 DC09 5B057 AA20 BA11 CA12 CB13 CD14 CH01 CH11 DA07 DA16 DB03 DC08 5C022 AA13 AB62 AC27 5C061 AA29 AB04 AB24 5L096 AA09 BA20 CA03 FA67 FA69 HA05 LA05 LA11

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 被写体の周囲に既知の形状を有する複数
の姿勢検出用基準物体が配置された状態で、前記被写体
を測定する測定装置であって、 基準物体測定用カメラと、 前記複数の姿勢検出用基準物体を予め前記基準物体撮影
用カメラで撮影した画像に基づいて、前記複数の姿勢検
出用基準物体の相対的位置関係を求める第1演算手段
と、 前記測定装置の測定動作に同期して前記基準物体撮影用
カメラの撮影が行われるように制御する制御手段と、 前記基準物体撮影用カメラで撮影された測定時の前記姿
勢検出用基準物体の画像に基づいて、前記測定装置の姿
勢を算出する第2演算手段と、を備えることを特徴とす
る測定装置。
1. A measuring device for measuring a subject in the state where a plurality of reference objects for posture detection having a known shape are arranged around the subject, the camera for measuring a reference object, and the plurality of postures. First calculation means for obtaining a relative positional relationship between the plurality of reference objects for posture detection based on an image obtained by previously photographing the reference object for detection by the camera for photographing the reference object, and in synchronization with the measurement operation of the measuring device. Control means for controlling the reference object photographing camera to perform photographing, and the posture of the measuring device based on the image of the posture detection reference object at the time of measurement photographed by the reference object photographing camera. And a second calculation means for calculating.
【請求項2】 請求項1に記載の測定装置において、 前記第1演算手段は、前記基準物体撮影用カメラの画角
内に少なくとも2つの前記姿勢検出用基準物体が収まる
ようにして撮影された画像に含まれる各姿勢検出用基準
物体に基づいて、前記少なくとも2つの姿勢検出用基準
物体の相対的位置関係を求めることを特徴とする測定装
置。
2. The measuring device according to claim 1, wherein the first computing unit is photographed so that at least two of the posture detecting reference objects are within the angle of view of the reference object photographing camera. A measuring apparatus, wherein a relative positional relationship between the at least two attitude detection reference objects is obtained based on each attitude detection reference object included in the image.
【請求項3】 請求項1に記載の測定装置において、 前記第1演算手段は、前記基準物体撮影用カメラの姿勢
を変化させつつ、前記基準物体撮影用カメラによって前
記複数の姿勢検出用基準物体を予め撮影して得られる各
画像と、前記各画像を撮影した際の前記基準物体撮影用
カメラの姿勢と、に基づいて、前記複数の姿勢検出用基
準物体の相対的位置関係を求めることを特徴とする測定
装置。
3. The measuring device according to claim 1, wherein the first computing unit changes the posture of the reference object photographing camera, and the plurality of posture detection reference objects are changed by the reference object photographing camera. Is obtained in advance, and the relative position relationship of the plurality of reference objects for posture detection is obtained based on the posture of the camera for photographing the reference object when the respective images are photographed. Characteristic measuring device.
【請求項4】 請求項1乃至3のいずれかに記載の測定
装置において、 前記基準物体撮影用カメラは、前記測定装置に対して撮
影方向を可変に固定されていることを特徴とする測定装
置。
4. The measuring apparatus according to claim 1, wherein the reference object photographing camera has a photographing direction variably fixed with respect to the measuring apparatus. .
【請求項5】 請求項4に記載の測定装置において、 前記制御手段は、前記基準物体撮影用カメラが少なくと
も1つの前記姿勢検出用基準物体を撮影するように、前
記基準物体撮影用カメラの前記撮影方向を制御する撮影
方向制御手段を有することを特徴とする測定装置。
5. The measuring device according to claim 4, wherein the control unit controls the reference object photographing camera so that the reference object photographing camera photographs at least one of the posture detecting reference objects. A measuring apparatus having a photographing direction control means for controlling a photographing direction.
【請求項6】 請求項1乃至5のいずれかに記載の測定
装置において、 前記測定装置は、被写体の3次元形状を測定する装置で
あり、 複数回の測定で得られた3次元形状が各測定時の姿勢に
基づいて合成されることを特徴とする測定装置。
6. The measuring device according to claim 1, wherein the measuring device is a device for measuring a three-dimensional shape of a subject, and each of the three-dimensional shapes obtained by a plurality of measurements is different from each other. A measuring device characterized by being synthesized based on a posture at the time of measurement.
【請求項7】 被写体の周囲に既知の形状を有する複数
の姿勢検出用基準物体が配置された状態で、前記被写体
を測定する測定装置であって、 前記被写体を撮影する被写体撮影用カメラと、 基準物体撮影用カメラと、 前記複数の姿勢検出用基準物体を予め前記基準物体撮影
用カメラおよび/または前記被写体撮影用カメラで撮影
した画像に基づいて、前記複数の姿勢検出用基準物体の
相対的位置関係を求める第1演算手段と、 前記被写体撮影用カメラの撮影動作に同期して、前記基
準物体撮影用カメラの撮影が行われるように制御する制
御手段と、 前記基準物体撮影用カメラで撮影された測定時の前記姿
勢検出用基準物体の画像に基づいて、前記測定装置の姿
勢を算出する第2演算手段と、を有し、 前記被写体撮影用カメラで撮影された画像及びそのとき
の姿勢に基づいて所定の測定演算が行われることを特徴
とする測定装置。
7. A measuring device for measuring the subject in a state in which a plurality of reference objects for posture detection having a known shape are arranged around the subject, the camera being a subject photographing camera for photographing the subject, A relative object of the plurality of attitude detection reference objects based on an image obtained by previously photographing the reference object shooting camera and the plurality of attitude detection reference objects with the reference object shooting camera and / or the subject shooting camera. First calculation means for obtaining a positional relationship, control means for controlling the photographing of the reference object photographing camera in synchronization with the photographing operation of the subject photographing camera, and photographing by the reference object photographing camera A second calculation means for calculating the attitude of the measuring device based on the image of the reference object for attitude detection at the time of measurement, A measuring apparatus characterized in that a predetermined measurement calculation is performed based on an image and a posture at that time.
【請求項8】 被写体の周囲に既知の形状を有する複数
の姿勢検出用基準物体が配置された状態で、前記被写体
を測定する測定方法であって、 前記複数の姿勢検出用基準物体を予め基準物体撮影用カ
メラで撮影し、その画像に基づいて、前記複数の姿勢検
出用基準物体の相対的位置関係を求める工程と、 測定装置の測定動作に同期して、前記複数の姿勢検出用
基準物体のうちの少なくとも1つを前記基準物体撮影用
カメラで撮影する工程と、 前記基準物体撮影用カメラで撮影された測定時の前記姿
勢検出用基準物体の画像に基づいて、前記測定装置の姿
勢を算出する工程と、を有することを特徴とする測定方
法。
8. A measuring method for measuring the subject in a state in which a plurality of reference objects for posture detection having a known shape are arranged around the subject, wherein the reference objects for posture detection are pre-referenced. The step of obtaining the relative positional relationship of the plurality of reference objects for posture detection based on the image captured by the object shooting camera, and the plurality of reference objects for posture detection in synchronization with the measurement operation of the measuring device. A step of photographing at least one of them with the reference object photographing camera; and a posture of the measuring device based on an image of the posture detecting reference object at the time of measurement photographed by the reference object photographing camera. And a step of calculating.
【請求項9】 被写体の周囲に既知の形状を有する複数
の姿勢検出用基準物体が配置された状態で、前記被写体
を測定する測定方法であって、 前記複数の姿勢検出用基準物体を予め基準物体撮影用カ
メラおよび/または被写体撮影用カメラで撮影し、その
画像に基づいて、前記複数の姿勢検出用基準物体の相対
的位置関係を求める工程と、 前記被写体撮影用カメラの撮影動作に同期して、前記複
数の姿勢検出用基準物体のうちの少なくとも1つを前記
基準物体撮影用カメラで撮影する工程と、 前記基準物体撮影用カメラで撮影された測定時の前記姿
勢検出用基準物体の画像に基づいて、測定装置の姿勢を
算出する工程と、 前記被写体撮影用カメラで撮影された画像及びそのとき
の姿勢に基づいて所定の測定演算を行う工程と、を有す
ることを特徴とする測定方法。
9. A measuring method for measuring the subject in a state where a plurality of posture detecting reference objects having a known shape are arranged around the subject, wherein the plurality of posture detecting reference objects are pre-referenced. A step of obtaining a relative positional relationship between the plurality of reference objects for posture detection based on the image taken by the object photographing camera and / or the subject photographing camera; and a photographing operation of the subject photographing camera. A step of photographing at least one of the plurality of posture detection reference objects with the reference object photographing camera, and an image of the posture detection reference object at the time of measurement photographed by the reference object photographing camera And a step of calculating a posture of the measuring device based on the above, and a step of performing a predetermined measurement calculation based on the image photographed by the subject photographing camera and the posture at that time. Measurement method according to claim.
JP2001203375A 2001-05-25 2001-07-04 Measuring apparatus and measuring method Expired - Fee Related JP4892792B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2001203375A JP4892792B2 (en) 2001-07-04 2001-07-04 Measuring apparatus and measuring method
US10/151,184 US7423666B2 (en) 2001-05-25 2002-05-20 Image pickup system employing a three-dimensional reference object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001203375A JP4892792B2 (en) 2001-07-04 2001-07-04 Measuring apparatus and measuring method

Publications (2)

Publication Number Publication Date
JP2003014421A true JP2003014421A (en) 2003-01-15
JP4892792B2 JP4892792B2 (en) 2012-03-07

Family

ID=19040022

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001203375A Expired - Fee Related JP4892792B2 (en) 2001-05-25 2001-07-04 Measuring apparatus and measuring method

Country Status (1)

Country Link
JP (1) JP4892792B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008309680A (en) * 2007-06-15 2008-12-25 Cosmo Planning:Kk Track displacement measuring system
JP2015106287A (en) * 2013-11-29 2015-06-08 キヤノン株式会社 Calibration device and method
CN114264659A (en) * 2020-09-14 2022-04-01 株式会社斯库林集团 Image processing apparatus and method, inspection apparatus, and computer-readable storage medium

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4610005A (en) * 1980-06-19 1986-09-02 Dresser Industries, Inc. Video borehole depth measuring system
JP2000032319A (en) * 1998-07-08 2000-01-28 Canon Inc System, method and device for controlling camera, image processor to be used for the same and record medium
JP2000102036A (en) * 1998-09-22 2000-04-07 Mr System Kenkyusho:Kk Composite actual feeling presentation system, composite actual feeling presentation method, man-machine interface device and man-machine interface method
JP2000172878A (en) * 1998-12-09 2000-06-23 Sony Corp Device and method for processing information and distribution medium
JP2001119722A (en) * 1999-10-19 2001-04-27 Asahi Optical Co Ltd Three-dimensional image detection system and three- dimensional image detector
JP2001506369A (en) * 1997-10-24 2001-05-15 コミツサリア タ レネルジー アトミーク Method for calibrating the initial position and orientation of one or more mobile cameras and application of this method to three-dimensional position measurement of fixed objects
JP2001241928A (en) * 2000-03-01 2001-09-07 Sanyo Electric Co Ltd Shape measuring apparatus
JP2004233334A (en) * 2003-01-10 2004-08-19 Canon Inc Method for measuring position and orientation

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4610005A (en) * 1980-06-19 1986-09-02 Dresser Industries, Inc. Video borehole depth measuring system
JP2001506369A (en) * 1997-10-24 2001-05-15 コミツサリア タ レネルジー アトミーク Method for calibrating the initial position and orientation of one or more mobile cameras and application of this method to three-dimensional position measurement of fixed objects
JP2000032319A (en) * 1998-07-08 2000-01-28 Canon Inc System, method and device for controlling camera, image processor to be used for the same and record medium
JP2000102036A (en) * 1998-09-22 2000-04-07 Mr System Kenkyusho:Kk Composite actual feeling presentation system, composite actual feeling presentation method, man-machine interface device and man-machine interface method
JP2000172878A (en) * 1998-12-09 2000-06-23 Sony Corp Device and method for processing information and distribution medium
JP2001119722A (en) * 1999-10-19 2001-04-27 Asahi Optical Co Ltd Three-dimensional image detection system and three- dimensional image detector
JP2001241928A (en) * 2000-03-01 2001-09-07 Sanyo Electric Co Ltd Shape measuring apparatus
JP2004233334A (en) * 2003-01-10 2004-08-19 Canon Inc Method for measuring position and orientation

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008309680A (en) * 2007-06-15 2008-12-25 Cosmo Planning:Kk Track displacement measuring system
JP2015106287A (en) * 2013-11-29 2015-06-08 キヤノン株式会社 Calibration device and method
CN114264659A (en) * 2020-09-14 2022-04-01 株式会社斯库林集团 Image processing apparatus and method, inspection apparatus, and computer-readable storage medium

Also Published As

Publication number Publication date
JP4892792B2 (en) 2012-03-07

Similar Documents

Publication Publication Date Title
US7423666B2 (en) Image pickup system employing a three-dimensional reference object
JP4425278B2 (en) Digital camera with panorama or mosaic function
US8699829B2 (en) Hand held portable three dimensional scanner
JP4983784B2 (en) Imaging system, image presentation method, control device, program
JP5224319B2 (en) Stereoscopic imaging device, stereoscopic imaging device control method, and program
JP6822230B2 (en) Imaging device and imaging method
JP5434339B2 (en) Imaging control apparatus, imaging system, imaging method, program
KR20140122344A (en) Method for providing guide of camera and electronic device
JP2023509137A (en) Systems and methods for capturing and generating panoramic 3D images
JP6464281B2 (en) Information processing apparatus, information processing method, and program
CN105025208B (en) Photographic device, camera component, long-distance operating device, method for imaging, display methods and recording medium
JP2002054912A (en) Shape measuring system, imaging device, shape measuring method, and recording medium
JP2003075137A (en) Photographing system and imaging device used therefor and three-dimensional measuring auxiliary unit
CN111076674A (en) Closely target object 3D collection equipment
JP2011030015A (en) Composition control device, imaging system, composition control method, and program
US20220201163A1 (en) Background display device, background display system, recording system, camera system, digital camera and method of controlling a background display device
JP4892792B2 (en) Measuring apparatus and measuring method
JP4590780B2 (en) Camera calibration three-dimensional chart, camera calibration parameter acquisition method, camera calibration information processing apparatus, and program
JP4892793B2 (en) Measuring apparatus and measuring method
JP4680558B2 (en) Imaging and 3D shape restoration method, and imaging and 3D shape restoration system
JP2003023562A (en) Image photographic system and camera system
JPH1023465A (en) Image pickup method and its device
JP4665350B2 (en) measuring device
JP2003021512A (en) Parameter obtaining method for calibration of measurement device, information processor for calibration and program
JP2003021505A (en) Image photographing system and mobile imaging device

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050613

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080425

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080606

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110727

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111122

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111205

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150106

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees