JPH09119819A - Three-dimensional information reconstruction apparatus - Google Patents

Three-dimensional information reconstruction apparatus

Info

Publication number
JPH09119819A
JPH09119819A JP7275806A JP27580695A JPH09119819A JP H09119819 A JPH09119819 A JP H09119819A JP 7275806 A JP7275806 A JP 7275806A JP 27580695 A JP27580695 A JP 27580695A JP H09119819 A JPH09119819 A JP H09119819A
Authority
JP
Japan
Prior art keywords
image
input
information
unit
dimensional information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7275806A
Other languages
Japanese (ja)
Inventor
Hidetoshi Yamada
秀俊 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP7275806A priority Critical patent/JPH09119819A/en
Publication of JPH09119819A publication Critical patent/JPH09119819A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an apparatus by which the restriction on an object is small with a simple apparatus configuration and by which precise three- dimensional information can be reconstructed. SOLUTION: An apparatus is provided with an image input means 1 by which the image of an object 14 is input, with an image storage means 2 by which image information to be input from the image input means is stored, with an image processing means 4 by which three-dimensional information on a subject is computed by using the stored information and with a means 3 by which an 'approximate direction' to the object of the input image is obtained. The apparatus is constituted in such a way that information on the input direction of the image which is supplied and input by the means 3 to obtain the direction is supplied to the image processing means 4 so as to correspond to the information stored in the image storage means 2 corresponding to the input direction and that prescribed three-dimensional information is reconstructed by making use of the 'approximate direction', i.e., the information on the approximate direction in which a camera is directed in the photographing operation of the image when the three-dimensional information is reconstructed by using a plurality of images.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、カメラ等により撮
影された画像を用いて被写体の奥行き方向の寸法を計算
し、その被写体の三次元情報を再構成する三次元情報再
構成装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional information reconstructing apparatus for reconstructing three-dimensional information of a subject by calculating the depth dimension of the subject using an image taken by a camera or the like.

【0002】[0002]

【従来の技術】近年、対象物の立体形状を非接触で観測
または計測することは、工業用品の設計・製作やコンピ
ュータグラフィックスなどにおいて重要な技術となって
いる。従来、例えば対象物をターンテーブル上にのせて
回転しながらレーザー光線を走査し、その反射された情
報を用いてその対象物の立体情報を取得し三次元形状を
算出する装置が使用されている。
2. Description of the Related Art In recent years, non-contact observation or measurement of a three-dimensional shape of an object has become an important technique in designing and manufacturing industrial products and computer graphics. 2. Description of the Related Art Conventionally, for example, an apparatus has been used that scans a laser beam while placing an object on a turntable while rotating it, acquires the three-dimensional information of the object using the reflected information, and calculates a three-dimensional shape.

【0003】また、装置構成自体を簡易化して低価格に
するために、被写体をさまざまな角度から撮影して、そ
れらの画像における被写体の部分の対応をつけることに
より、三角測量の原理で奥行き情報を得る方式(即ち、
ステレオビジョン)が知られている。またその他にも、
画像上で対応点を正確に求める処理を完全に自動的に行
なうことは困難である故に、操作者がその対応関係を入
力するようにした方式が特開平6−215097号公報
に開示されている。
Further, in order to simplify the apparatus structure itself and reduce the cost, the subjects are photographed from various angles, and the parts of the subjects in these images are associated with each other, whereby the depth information is calculated by the principle of triangulation. To get (ie
Stereo vision) is known. In addition,
Since it is difficult to completely automatically perform the process of accurately obtaining the corresponding points on the image, a method in which the operator inputs the corresponding relation is disclosed in Japanese Patent Laid-Open No. 6-215097. .

【0004】[0004]

【発明が解決しようとする課題】しかし上記した従来技
術においては、装置の構成やコストおよび、対象物の制
約や得られる情報の正確さなどの点で解決されなければ
ならない課題がある。そこで本発明はこのような事情に
鑑がみてなされたものであり、簡単な装置構成で対象物
に対する制約が少なく、しかも正確な三次元情報を再構
成することのできる三次元情報再構成装置を提供するこ
とを目的とするものである。
However, the above-mentioned conventional techniques have problems that must be solved in terms of the structure and cost of the device, the restriction of the object and the accuracy of the obtained information. Therefore, the present invention has been made in view of such circumstances, and provides a three-dimensional information reconstructing apparatus capable of reconstructing accurate three-dimensional information with a simple apparatus configuration and less restrictions on an object. It is intended to be provided.

【0005】[0005]

【課題を解決するための手段および作用】上記の課題は
次に列挙する手段により解決され、各々次のような作用
を奏する。 (手段1) 対象物の画像を入力する画像入力手段と、
前記画像入力手段から入力された画像を格納する画像格
納手段と、前記画像格納手段に格納された情報を用いて
被写体の三次元情報を算出する処理手段と、当該入力画
像の対象物に対する「概略の方向」を得る手段と、を備
え、前記方向を得る手段で得た画像の入力方向情報は、
当該入力方向に対応する前記画像格納手段に格納された
情報と対応するように前記処理手段に入力することを特
徴とする三次元情報再構成装置を提供する。(請求項
1:図1、図2、図6、図8、図9の実施形態が対応す
る)。
Means and Actions for Solving the Problems The above-mentioned problems are solved by the means listed below, and each has the following actions. (Means 1) Image input means for inputting an image of an object,
An image storage unit that stores an image input from the image input unit, a processing unit that calculates three-dimensional information of a subject using the information stored in the image storage unit, Means for obtaining the "direction of", and the input direction information of the image obtained by the means for obtaining the direction is
There is provided a three-dimensional information reconstructing device characterized by inputting to the processing means so as to correspond to the information stored in the image storage means corresponding to the input direction. (Claim 1: The embodiments of FIGS. 1, 2, 6, 8, and 9 correspond).

【0006】(作用1) 複数の画像を用いて三次元情
報を再構成する際に、画像を撮影したときのカメラの
「概略の方向」を概略の方向を得る手段から得る。 (手段2) 前記概略の方向を得る手段は、所定の対象
物の「概略の形状( 即ち、モデル) 」を発生するモデル
発生手段と、撮影方向を入力する方向入力手段と、前記
モデル発生手段で発生した当該対象物のモデルと前記方
向入力手段で入力した撮影方向とを表示する手段と、か
ら成ることを特徴とする[1]に記載の三次元情報再構
成装置を提供する。(請求項2:図1、図2の実施形態
が対応する)。
(Operation 1) When reconstructing three-dimensional information using a plurality of images, the "general direction" of the camera when the images are taken is obtained from the means for obtaining the general direction. (Means 2) The means for obtaining the approximate direction are model generating means for generating a "schematic shape (ie, model)" of a predetermined object, direction input means for inputting a photographing direction, and the model generating means. The three-dimensional information reconstructing apparatus according to [1], further comprising: a unit for displaying the model of the object generated in 1. and a shooting direction input by the direction input unit. (Claim 2: The embodiment of FIGS. 1 and 2 corresponds).

【0007】(作用2) 複数の画像を用いて三次元情
報を再構成する際に、対象物のモデル発生手段と、方向
入力手段と、対象物のモデルと撮影方向とに基づいて表
示手段に表示出力する。
(Operation 2) When the three-dimensional information is reconstructed by using a plurality of images, the object model generation means, the direction input means, and the display means based on the object model and the photographing direction are displayed. Display output.

【0008】(手段3) 前記概略の方向を得る手段
は、前記画像格納手段に格納された画像を再配置する手
段と、前記画像入力手段から入力された複数の画像の入
力方向のなす角度を入力する手段と、前記の再配置され
た画像と前記画像のなす角度との情報を用いて各入力画
像の当該対象物に対する概略の方向を算出する手段と、
によって構成されることを特徴とする[1]に記載の三
次元情報再構成装置を提供する (請求項3:図8の実
施形態が対応する)。
(Means 3) The means for obtaining the approximate direction is the angle formed by the means for rearranging the images stored in the image storage means and the input direction of the plurality of images input from the image input means. Means for inputting, means for calculating a rough direction of each input image with respect to the object using the information of the rearranged image and the angle formed by the image,
The three-dimensional information reconstructing device according to [1] is provided (claim 3: corresponds to the embodiment of FIG. 8).

【0009】(作用3) 複数の画像を用いて三次元情
報を再構成する際に、重なりのある複数画像の配置関係
と、複数の画像のなす角度を入力する手段を備え、あら
かじめ入力できる。
(Operation 3) When three-dimensional information is reconstructed using a plurality of images, a means for inputting an arrangement relationship between overlapping images and an angle formed by the plurality of images is provided and can be input in advance.

【0010】[0010]

【発明の実施の形態】以下に、複数からなる実施の形態
を挙げて本発明の内容を説明する。 [第1実施形態]図1には本発明の三次元情報再構成装
置の概略的構成が機能ブロック図で示されている。
BEST MODE FOR CARRYING OUT THE INVENTION The contents of the present invention will be described below with reference to a plurality of embodiments. [First Embodiment] FIG. 1 is a functional block diagram showing a schematic structure of a three-dimensional information reconstructing apparatus according to the present invention.

【0011】(構成1)図示のごとく本装置は、ある対
象物の画像を入力する画像入力部1と、その入力された
画像を格納する画像格納部2と、所望する操作を指示す
る操作部3と、当該画像に対して所定の処理を行う画像
処理部4と、画像イメージを表示する画像表示部5と、
画像処理された画像データを記憶蓄積するデータ蓄積部
6とから主に構成されている。
(Structure 1) As shown in the figure, the present apparatus includes an image input section 1 for inputting an image of a certain object, an image storage section 2 for storing the input image, and an operation section for instructing a desired operation. 3, an image processing unit 4 that performs a predetermined process on the image, an image display unit 5 that displays an image image,
It is mainly composed of a data storage unit 6 for storing and storing the image-processed image data.

【0012】画像入力部1、画像格納部2、画像処理部
4およびデータ蓄積部6の各部位は順次に直列に接続さ
れ、一方、操作部3は、画像処理部4と画像表示部5に
接続して所望の処理を指示し表示させ、画像格納部2と
画像処理部4からは表示すべき画像情報を逐次に供給さ
れるようにこの画像表示部5と接続されている。
The image input unit 1, the image storage unit 2, the image processing unit 4, and the data storage unit 6 are sequentially connected in series, while the operation unit 3 is connected to the image processing unit 4 and the image display unit 5. It is connected to the image display unit 5 so as to connect and instruct to display desired processing, and to sequentially supply image information to be displayed from the image storage unit 2 and the image processing unit 4.

【0013】詳しくは、対象物14を光学的に撮像して
光電変換するために、画像入力部1は、レンズ10を有
し、更に撮像素子11とプロセス回路12とメモリ13
とが直列に構成され、続く画像格納部2に得られた画像
信号を供給する。また、画像処理部4は、対応領域検出
部20と投影関係演算部21とモデル格納部22と三次
元情報算出部23とから図示のように構成されているこ
とが解る。
More specifically, the image input section 1 has a lens 10, and further an image sensor 11, a process circuit 12, and a memory 13 in order to optically image and photoelectrically convert an object 14.
And are configured in series to supply the obtained image signal to the subsequent image storage unit 2. Further, it is understood that the image processing unit 4 is configured by the corresponding area detection unit 20, the projection relation calculation unit 21, the model storage unit 22, and the three-dimensional information calculation unit 23 as illustrated.

【0014】なお、操作部3は、上記のモデル格納部2
2に接続し、画像表示部5は三次元情報算出部23から
立体情報等を供給されるように接続されている。また画
像入力部1は例えば電子カメラにより構成され、対象物
14の画像を撮影する。撮影された画像情報は画像格納
部2に出力される。この画像格納部2に蓄積された画像
情報はCRT等の画像表示部5に表示されるとともに画
像処理部4に出力される。この画像処理部4では操作部
3を介して操作者が指示した入力に伴なって画像情報の
所望する処理が行なわれ、三次元寸法を再構成する。得
られたこの三次元情報は画像表示部5で表示されるとと
もに、データ蓄積部6に格納され、図示しないCADや
CGなどのシステムで利用するために装置外に出力され
る。
The operation unit 3 is the model storage unit 2 described above.
2, and the image display unit 5 is connected so that stereoscopic information and the like is supplied from the three-dimensional information calculation unit 23. The image input unit 1 is composed of, for example, an electronic camera and captures an image of the object 14. The captured image information is output to the image storage unit 2. The image information stored in the image storage unit 2 is displayed on the image display unit 5 such as a CRT and is output to the image processing unit 4. In the image processing unit 4, desired processing of the image information is performed in accordance with the input given by the operator via the operation unit 3 to reconstruct the three-dimensional size. The obtained three-dimensional information is displayed on the image display unit 5, stored in the data storage unit 6, and output to the outside of the device for use in a system such as CAD or CG not shown.

【0015】(動作1)次に図2を用いて本装置の動作
を説明する。この図2には、本第1実施形態の三次元情
報再構成装置の詳しい構成が例示されている。
(Operation 1) Next, the operation of this apparatus will be described with reference to FIG. FIG. 2 illustrates a detailed configuration of the three-dimensional information reconstructing device according to the first embodiment.

【0016】画像入力部1を構成する電子カメラはレン
ズ10と撮像素子11とプロセス回路12とメモリ13
を備える。被写体となる対象物14は複数の視点から撮
影され、その像はレンズ10により結像されて撮像素子
11で電気信号に変換され、プロセス回路12でビデオ
信号処理されてメモリ13に記録される。この画像情報
は画像格納部2に入力される。画像格納部に蓄積された
画像情報は表示部5に表示され、概略の視点位置・方向
の入力指示用に供される。この動作は具体的に次のよう
に行われる。
The electronic camera constituting the image input unit 1 includes a lens 10, an image pickup element 11, a process circuit 12 and a memory 13.
Is provided. An object 14, which is a subject, is photographed from a plurality of viewpoints, and its image is formed by the lens 10, converted into an electric signal by the image pickup device 11, processed by the process circuit 12 as a video signal, and recorded in the memory 13. This image information is input to the image storage unit 2. The image information accumulated in the image storage unit is displayed on the display unit 5 and is used for inputting an approximate viewpoint position / direction. This operation is specifically performed as follows.

【0017】図3は本発明に係わる実施形態の装置にお
ける表示例を示し、(a)は装置の表示部に表示される
選択メニュー画面の一例であり、(b)は装置の表示部
に視点情報を入力するための表示画面を例示している。
FIG. 3 shows a display example in the device of the embodiment according to the present invention, (a) is an example of a selection menu screen displayed on the display part of the device, and (b) is a viewpoint on the display part of the device. 6 illustrates a display screen for inputting information.

【0018】すなわち、画像表示部5には図3(a),
(b)のように、画像格納部2に蓄積されている被写体
の画像とともに対象物14の概略形状を選択するメニュ
ー画面が表示される。概略形状としては例えば、直方
体、錐体または円柱等の基本的な立体形状からなり、必
要に応じて更に縦横比等の形状のバリエーションを設け
てもよい。操作者は表示された対象物の概略形状をみて
当該選択メニュー画面からその形状に近いものを択一的
に選択する(参照、図3(a))。ちなみにこの例の場
合では、「直方体1」を選択指示している。
That is, the image display section 5 is shown in FIG.
As in (b), a menu screen for selecting the general shape of the object 14 is displayed together with the image of the subject accumulated in the image storage unit 2. The schematic shape is, for example, a basic three-dimensional shape such as a rectangular parallelepiped, a cone or a cylinder, and if necessary, a variation in shape such as an aspect ratio may be provided. The operator views the displayed outline shape of the target object and selectively selects a shape close to the shape from the selection menu screen (see FIG. 3A). By the way, in the case of this example, "cuboid 1" is selected and instructed.

【0019】なおこの選択メニューには、概略形状の代
わりに座標軸を表示してもよい。例えば長さ方向をX
軸、幅方向をY軸、高さ方向をZ軸というように座標軸
を設定して表示すればよい。
The selection menu may display coordinate axes instead of the schematic shape. For example, X in the length direction
A coordinate axis may be set and displayed such that the axis and the width direction are the Y axis and the height direction is the Z axis.

【0020】次に、電子カメラ1で撮影した画像を順次
画面上に表示し、対象物14をどの方向から見ているか
の「視点情報」を表示画面で入力する(参照、図3
(b))。従って、この操作により当該画像の概略の
「視線方向情報」が得られ、画像処理部4にその画像情
報とともに入力される。
Next, images taken by the electronic camera 1 are sequentially displayed on the screen, and "viewpoint information" indicating from which direction the object 14 is viewed is input on the display screen (see FIG. 3).
(B)). Therefore, by this operation, the approximate “line-of-sight direction information” of the image is obtained and input to the image processing unit 4 together with the image information.

【0021】画像処理部4では複数の画像を用いて三次
元情報の再構成処理が行われる。「三角測量の原理」に
基づく一般的なステレオビジョンの原理は、例えばホー
ン著による「ロボットビジョン」(朝倉書店刊)の第1
3章に解説されている。よってこの原理に基づくと、異
なる視点から観測した画像において同一点がそれぞれの
画像においてどこに位置するかが求められれば、その点
の空間位置を求められる。
The image processing unit 4 uses a plurality of images to reconstruct three-dimensional information. The general principle of stereo vision based on "the principle of triangulation" is, for example, the first in "Robot Vision" (published by Asakura Shoten) by Horn.
It is explained in Chapter 3. Therefore, based on this principle, if it is found where the same point is located in each image in images observed from different viewpoints, the spatial position of the point can be obtained.

【0022】この処理において実際上困難なことは、そ
れぞれの画像の対応を求めることであり、特に画像上に
おいて対象物14がおよそどのように観測されるかが与
えられていない場合には、画面の全範囲において対象物
の要素についての解釈を試みることになるため、処理の
量が膨大となり実現が難しくなる。
What is practically difficult in this process is to find the correspondence between the respective images, especially when it is not given how the object 14 is observed on the image. Since an attempt is made to interpret the elements of the object in the entire range of, the amount of processing becomes enormous and realization becomes difficult.

【0023】そこで本発明に係わる三次元情報再構成装
置では、先に解説した如くの動作により、対象物14の
「概略の形状」(以下これを「モデル」と称す)と「画
像の方向」が与えられているため、このモデルを用いた
処理が可能となる。すなわち、画像処理部4の対応領域
検出部20で画像から輪郭や面などの特徴が抽出され、
モデル格納部22から出力されたモデルとの特徴に基づ
く対応付けが行われる。
Therefore, in the three-dimensional information reconstructing apparatus according to the present invention, the "schematic shape" (hereinafter referred to as "model") and the "image direction" of the object 14 are operated by the operation described above. Is given, it becomes possible to process using this model. That is, the corresponding area detection unit 20 of the image processing unit 4 extracts features such as contours and surfaces from the image,
Correlation is performed based on the characteristics of the model output from the model storage unit 22.

【0024】いま、モデルが選択され、また概略の観測
方向が与えられているため、画像上にはどの範囲にどの
ような特徴が観測されるかが予測できる。この予測範囲
内で実画像から選択された特徴を探索することにより、
そのモデルの特徴が実画像で観測されている位置が求め
られる。この結果は投影関係演算部21に与えられ、対
象物と画像との投影関係のパラメータが求められる。
Since the model is selected and the rough observation direction is given, it is possible to predict what kind of feature will be observed in which range on the image. By searching the selected features from the real image within this prediction range,
The position where the features of the model are observed in the real image is obtained. This result is given to the projection relation calculation unit 21, and the parameters of the projection relation between the object and the image are obtained.

【0025】すなわち、対象物上の点Mが画像上の点m
に投影される場合、カメラの光軸をz軸に、レンズ位置
を原点にとり、Mの空間座標を(x,y,z)、mの平
面座標を(u,v)とすると次式の関係が成り立つ。
That is, the point M on the object is the point m on the image.
When the image is projected on, the optical axis of the camera is the z-axis, the lens position is the origin, the spatial coordinates of M are (x, y, z), and the plane coordinates of m are (u, v). Holds.

【0026】 −u/f = x/z … ( 1式) −v/f = y/z … ( 2式) 但し、fはカメラの焦点距離を表す。-U / f = x / z (Equation 1) -v / f = y / z (Equation 2) where f represents the focal length of the camera.

【0027】カメラの空間上における位置や焦点距離等
のパラメータが上記の( 1式) と(2式) から決まれ
ば、画像上の注目している部分が空間のどの範囲にある
かが算出できる。また、別な画像に対しても上記のよう
な処理がなされることにより、異なる視点から観測した
場合の画像上の要素と空間中の範囲が求められる。
If the parameters such as the position of the camera in the space and the focal length are determined from the above equations (1) and (2), it is possible to calculate in what range of the space the part of interest on the image is located. . Further, by performing the above-mentioned processing on another image, the elements on the image and the range in space when observed from different viewpoints are obtained.

【0028】これらの結果は三次元情報算出部23で処
理されて、図4に示すように複数の視点からの存在範囲
の交わる領域を定めることにより、その要素の空間位置
が求められる。この図4は、異なる複数の視点から観測
した画像上の要素と空間位置を説明する図である。
These results are processed by the three-dimensional information calculation unit 23, and the spatial position of the element is obtained by defining the area where the existence ranges from a plurality of viewpoints intersect as shown in FIG. FIG. 4 is a diagram illustrating elements and spatial positions on an image observed from a plurality of different viewpoints.

【0029】したがって、このような処理が同様に複数
の要素について行われることにより、被写体の立体形状
が得られる。この得られた三次元情報はデータ蓄積部6
に格納され、また同時に画像表示部5により表示出力さ
れる。
Therefore, the three-dimensional shape of the subject can be obtained by similarly performing the above-mentioned processing for a plurality of elements. The obtained three-dimensional information is stored in the data storage unit 6
The image display section 5 simultaneously displays and outputs the image data.

【0030】(変形例1)なお、ここで必要に応じて三
次元情報の修正が加えられるようにしてもよい。例え
ば、使用者が得られた三次元情報を変形して使用したい
場合には、表示された三次元情報の該当する部分を「ポ
インティング・デバイス」等で指定し、所望する変形を
与えるように修正を施してもよい。このデータ蓄積部6
に一時的に格納された三次元情報は、他のシステムに対
して出力され利用され得る。
(Modification 1) Note that the three-dimensional information may be modified here if necessary. For example, when the user wants to transform the obtained 3D information and then uses it, the corresponding portion of the displayed 3D information is designated by a "pointing device" or the like and modified to give the desired transformation. May be given. This data storage unit 6
The three-dimensional information temporarily stored in can be output and used for other systems.

【0031】以上の例によれば、本装置では対象物の画
像の「概略の撮影方向」を操作者が入力するようにして
いるが、この概略の撮影方向を入力するには他の方法も
考えられる。例えば、対象物のモデルを回転しながら表
示し、カメラで撮影した画像とおよそ一致する場所でボ
タンを押すようにしてもよい。あるいは図5に示すよう
に展開図を用いてもよい。この図5は、本発明に係わる
実施形態の装置における撮影画像とその対応する展開図
を表示する表示画面の一例である。
According to the above example, in this apparatus, the operator inputs the "general photographing direction" of the image of the object, but other methods can be used to input the general photographing direction. Conceivable. For example, the model of the object may be displayed while being rotated, and the button may be pressed at a position approximately matching the image captured by the camera. Alternatively, a development view may be used as shown in FIG. FIG. 5 is an example of a display screen that displays a photographed image and its corresponding exploded view in the apparatus according to the embodiment of the present invention.

【0032】詳しくは、操作者は対象物の概略形状に合
わせた展開図を画面上のメニューから選択する。続いて
画像格納部に格納されている画像を画面上に表示し、展
開図上の対応する位置に重ねることによりその観測方向
を指定する。この操作を順次異なる位置からの撮影画像
ごとに繰り返すことにより概略の撮影方向が入力され
る。この後、画像に対して所定の特徴抽出の処理が行わ
れ、抽出された特徴に関して展開図で定められた対象物
と画像との投影関係が求められる。
More specifically, the operator selects a development view that matches the general shape of the object from the menu on the screen. Then, the image stored in the image storage unit is displayed on the screen, and the observation direction is designated by superimposing it on the corresponding position on the development view. By repeating this operation for each captured image from different positions in sequence, the approximate capturing direction is input. After that, a predetermined feature extraction process is performed on the image, and the projection relationship between the object and the image defined in the development view regarding the extracted feature is obtained.

【0033】同様にして、また別の画像に対しても上記
の同様な処理がなされることにより、異なる視点から観
測した場合の画像上の要素と空間中の範囲が求められ
る。よって、これらの結果は三次元情報算出部23で処
理され、被写体の立体形状が得られる。
Similarly, by performing the same processing as described above on another image, the elements on the image and the range in space when observed from different viewpoints are obtained. Therefore, these results are processed by the three-dimensional information calculation unit 23, and the three-dimensional shape of the subject is obtained.

【0034】(作用効果1)以上に説明した第1実施形
態の装置は、対象物の画像の「概略の撮影方向」を操作
者が上述のような何らかの方法で入力指定するように構
成していることにより、三次元情報再構成処理が容易に
なるという利点が得られる。
(Effect 1) The apparatus of the first embodiment described above is configured so that the operator inputs and designates the "approximate shooting direction" of the image of the object by any method as described above. This has the advantage of facilitating the three-dimensional information reconstruction process.

【0035】[第2実施形態]続いて、本発明における
三次元情報再構成装置に係わる第2の実施形態について
図6を参照しながら説明する。
[Second Embodiment] Next, a second embodiment of the three-dimensional information reconstructing apparatus according to the present invention will be described with reference to FIG.

【0036】この図6には、第2実施形態の三次元情報
再構成装置の構成が示されている。 (構成2)図示の如く本装置は、ある対象物14の画像
を入力する画像入力部1と、その入力された画像を格納
する画像格納部2と、所望する操作を指示する操作部3
と、当該画像に対して所定の処理を行う画像処理部4
と、画像イメージを表示する画像表示部5と、画像処理
された画像データを記憶蓄積するデータ蓄積部6とから
主に構成されている。
FIG. 6 shows the configuration of the three-dimensional information reconstructing device according to the second embodiment. (Structure 2) As shown in the figure, the present apparatus includes an image input unit 1 for inputting an image of a certain object 14, an image storage unit 2 for storing the input image, and an operation unit 3 for instructing a desired operation.
And an image processing unit 4 that performs a predetermined process on the image.
And an image display unit 5 for displaying an image image, and a data storage unit 6 for storing and storing image-processed image data.

【0037】画像入力部1、画像格納部2、画像処理部
4およびデータ蓄積部6の各部位は順次に直列に接続さ
れ、一方、操作部3は、画像処理部4と画像表示部5に
接続して所望の処理を指示し表示させ、画像格納部2と
画像処理部4からは表示すべき画像情報を逐次に供給さ
れるようにこの画像表示部5と接続されている。
The image input unit 1, the image storage unit 2, the image processing unit 4, and the data storage unit 6 are sequentially connected in series, while the operation unit 3 is connected to the image processing unit 4 and the image display unit 5. It is connected to the image display unit 5 so as to connect and instruct to display desired processing, and to sequentially supply image information to be displayed from the image storage unit 2 and the image processing unit 4.

【0038】なお、ここでは前説の第1実施形態の装置
と同様の構成要素については同一の番号で示し、その詳
細な説明は省略するものとする。詳しくは、対象物14
を光学的に撮像して光電変換するために、画像入力部1
は、レンズ10を有し、撮像素子11とプロセス回路1
2とメモリ13とが直列に構成され、続く画像格納部2
に得られた画像信号を供給する。
Here, the same components as those of the apparatus of the first embodiment described above are designated by the same reference numerals, and detailed description thereof will be omitted. For details, see Object 14
In order to optically image and photoelectrically convert
Has a lens 10, an image sensor 11 and a process circuit 1
2 and the memory 13 are connected in series, and the subsequent image storage unit 2
The obtained image signal is supplied to.

【0039】また、画像処理部4は、対応領域検出部2
0と投影関係演算部21と、隣接する画像の位置関係を
求めるための画像配置演算部24と、三次元情報算出部
23とから図示のように接続され構成されていることが
解る。なお、操作部3は、上記の画像配置演算部24に
接続され、画像表示部5は三次元情報算出部23から立
体画像情報等を供給されるように接続している。
Further, the image processing section 4 includes a corresponding area detecting section 2
It is understood that 0 and the projection relation calculation unit 21, the image arrangement calculation unit 24 for obtaining the positional relation between the adjacent images, and the three-dimensional information calculation unit 23 are connected and configured as illustrated. The operation unit 3 is connected to the above-described image arrangement calculation unit 24, and the image display unit 5 is connected so that stereoscopic image information and the like are supplied from the three-dimensional information calculation unit 23.

【0040】(動作2)例えば、画像入力部1としての
電子カメラによって、対象物14の画像を撮影する際
に、画面の一部が重なるようにして撮影する。具体的に
は、画面上で対象物の半分程度の部分が隣り合う画像で
含まれるように撮影されることが好ましい。このように
して撮影された画像は画像格納部2に出力され、ここに
格納される。
(Operation 2) For example, when the image of the object 14 is taken by the electronic camera as the image input unit 1, the images are taken so that part of the screens overlap each other. Specifically, it is preferable that about half of the object on the screen is photographed so as to be included in adjacent images. The image thus captured is output to the image storage unit 2 and stored therein.

【0041】格納された画像は表示部5に表示される。
ここで、操作者は表示画面上で画面間の概略の「重な
り」を合わせて配置していく。この時に、カメラを平行
に移動して撮影した画像だけではなく、異なる角度方向
から撮影された画像を配置することもある。この場合に
は対象物の見え方が方向により異なってくるため、対象
物の重なる部分が完全に一致するわけではないが、概略
の重なりを合わせて他の画像をつなぎ合わせていけばよ
い。
The stored image is displayed on the display unit 5.
Here, the operator arranges the “overlaps” between the screens on the display screen so as to match each other. At this time, not only images taken by moving the camera in parallel but also images taken from different angle directions may be arranged. In this case, since the appearance of the target object differs depending on the direction, the overlapping portions of the target object do not completely match each other, but other images may be joined by making a rough overlap.

【0042】その結果、図7に示すように画像の空間的
つながりを平面上に展開したような画像が得られる。こ
こで対象物の画像を四方から撮影したために、例えば右
端と左端の画像とが互いに重なり合う場合には、その情
報も併せて入力する。それには、例えばマウス等のポイ
ンティングデバイスで重なる領域を指定するようにすれ
ばよい。あるいはまた、画像同士のなす角度を数値とし
て入力するようにしてもよい。例えば、完全に一回転し
て撮影した場合には、角度は360度となる。
As a result, as shown in FIG. 7, an image in which the spatial connection of images is developed on a plane is obtained. Here, since the images of the object have been captured from four directions, for example, when the right end image and the left end image overlap each other, that information is also input together. For that purpose, an overlapping area may be designated by a pointing device such as a mouse. Alternatively, the angle formed by the images may be input as a numerical value. For example, in the case of taking a picture by making one complete rotation, the angle is 360 degrees.

【0043】このように配列された画像データは、まず
画像処理部4の対応領域検出部20に入力される。対応
領域検出部20では画像から輪郭や面などの特徴を抽出
し、これをもとに隣りあう画像間の対応付けを行う。あ
るいはそれぞれの画像に対し適切な窓領域を設け、一方
の窓領域を移動しながら2つの窓領域での相関値を求め
て、この相関値が最大になる位置を求めて対応付けを行
ってもよい。この処理においてもあらかじめ概略の対応
する配置が与えられているため、限られた範囲を探索す
ることにより「対応関係」が求まり、処理が容易であ
る。
The image data arranged in this way is first input to the corresponding area detecting section 20 of the image processing section 4. The corresponding area detection unit 20 extracts features such as contours and planes from the images, and based on this, the adjacent images are associated with each other. Alternatively, an appropriate window region may be provided for each image, the correlation value between the two window regions may be obtained while moving one window region, and the position at which the correlation value becomes maximum may be obtained and associated. Good. In this processing as well, since the rough corresponding arrangement is given in advance, the “correspondence” is obtained by searching the limited range, and the processing is easy.

【0044】得られた対応結果は画像配置演算部24に
与えられ、隣接する画像間の対応からそれらの位置関係
が求められる。ここでは画像上の対象物の要素の配置の
関係から、画像のなす空間的角度も求められる。すなわ
ち、図7に示されるように、同一物を異なる角度から観
察することにより要素位置が異なって観測されるため、
その角度が算出できる。(a)には画像の空間的なつな
がりを平面的に展開した例が展開図で示され、(b)に
は異なる2方向からの撮影による表示例が示されてい
る。
The obtained correspondence result is given to the image layout calculation section 24, and the positional relationship between them is obtained from the correspondence between adjacent images. Here, the spatial angle formed by the image is also obtained from the relationship of the arrangement of the elements of the object on the image. That is, as shown in FIG. 7, when the same object is observed from different angles, the element positions are observed differently,
The angle can be calculated. An example in which a spatial connection of images is developed two-dimensionally is shown in a developed view in (a), and a display example by shooting from two different directions is shown in (b).

【0045】なお、この算出に関する方法は、例えば、
ホーン著「ロボットビジョン」(朝倉書店刊)の第13
章記載の手法を使うことができる。あるいはまた、対象
物のある面の両端が平行な稜線を持つ場合には、例えば
金谷健一著「画像理解」(森北出版刊)第1章に記載さ
れているように、画面上でその線が交わる点(即ち、
「消失点」と称す)の位置から画像面の対象面に対する
方向を求められる。
The method for this calculation is, for example,
13th of "Robot Vision" by Horn, published by Asakura Shoten
The techniques described in the chapter can be used. Alternatively, when both ends of the surface on which the object is present have parallel ridge lines, the lines are displayed on the screen as described in, for example, Kenichi Kanaya "Image Understanding" (published by Morikita Publishing), Chapter 1. The point of intersection (ie
The direction of the image plane with respect to the target plane can be obtained from the position of "vanishing point").

【0046】上述のような処理が繰り返されることによ
り対象物14をさまざまな角度から観測した画像の位置
関係が求められる。この結果は投影関係演算部25で処
理され、画像と空間中の対象物14との投影関係が求め
られる。その結果を用いて三次元情報算出部22の画像
上の要素が空間のどの範囲に在るかが算出され、異なる
視点から観測した時の画像上の要素と空間中の範囲を組
み合わせることにより、その要素の空間位置が求められ
る。よって、同様にこのような処理が複数の要素につい
て行われることにより、被写体の立体形状が得られる。
そして、このようにして得られた三次元情報は続くデー
タ蓄積部6に格納される。
By repeating the above-described processing, the positional relationship of images obtained by observing the object 14 from various angles can be obtained. This result is processed by the projection relation calculation unit 25, and the projection relation between the image and the object 14 in space is obtained. By using the result, it is calculated in which range of space the element on the image of the three-dimensional information calculation unit 22 is, and by combining the element on the image and the range in space when observed from different viewpoints, The spatial position of the element is determined. Therefore, similarly, such a process is performed for a plurality of elements to obtain the three-dimensional shape of the subject.
Then, the three-dimensional information obtained in this way is stored in the subsequent data storage unit 6.

【0047】(変形例2)上述の説明では、隣接する画
像の対応を用いて画像のなす角度を算出するものとした
が、この他の方式としては、例えば、画像のなす角度を
数値として与えるようにしてもよい。この時の構成につ
いては図8に例示している。つまり、この図8は、本第
2実施形態の三次元情報再構成装置に関するその他の構
成を示している。
(Modification 2) In the above description, the angle formed by the images is calculated by using the correspondence between the adjacent images, but as another method, for example, the angle formed by the images is given as a numerical value. You may do it. The configuration at this time is illustrated in FIG. That is, FIG. 8 shows another configuration relating to the three-dimensional information reconstructing apparatus of the second exemplary embodiment.

【0048】図示によれば、画像処理部4には画像角度
格納部28が備えられている。操作部3から入力された
画像のなす角度の情報はこの画像角度格納部28に格納
され、この情報は投影関係演算部25で処理されて、画
像と空間中の対象物との投影関係が求められる。この結
果を用いて三次元情報算出部23の画像上の要素が空間
のどの範囲にあるかが算出され、異なる視点から観測し
た時の画像上の要素と空間中の範囲を組み合わせること
により、その要素の空間位置が求められる。このように
同様な処理が複数の要素について行われることにより、
被写体の立体形状が得られる。
As shown in the figure, the image processing section 4 is provided with an image angle storage section 28. The information about the angle formed by the image input from the operation unit 3 is stored in the image angle storage unit 28, and this information is processed by the projection relation calculation unit 25 to obtain the projection relation between the image and the object in space. To be The result is used to calculate in which range of space the element on the image of the three-dimensional information calculation unit 23 is located, and by combining the element on the image and the range in space when observed from different viewpoints, The spatial position of the element is determined. By performing similar processing on multiple elements in this way,
The three-dimensional shape of the subject can be obtained.

【0049】ただし、この場合には必ずしも全ての画像
に対して角度のデータを入力する必要はなく、例えば数
枚の基準となる画像についてのみ入力するようにしても
よい。よって、そのデータを補間することで各画像につ
いての角度データを得ることができる。
However, in this case, it is not always necessary to input the angle data for all the images, and for example, it may be input only for several reference images. Therefore, the angle data for each image can be obtained by interpolating the data.

【0050】また、基準となる画像について角度データ
を入力する方式と、画像上の対象物要素の配置関係から
画像のなす角度を求める方式とを併用するようにしても
よい。
Further, the method of inputting the angle data for the reference image and the method of obtaining the angle formed by the image from the positional relationship of the object elements on the image may be used together.

【0051】(作用効果2)よって、以上に説明した第
2実施形態の装置においては、対象物の画像の「概略の
配置」を操作者が上述のような何らかの方法で入力指定
することにより、概略の撮影方向が求められ、この結
果、三次元情報再構成処理が容易になるという利点があ
る。
(Effect 2) Therefore, in the apparatus of the second embodiment described above, the operator inputs and designates the "schematic arrangement" of the image of the object by any method as described above. An approximate shooting direction is required, and as a result, there is an advantage that the three-dimensional information reconstruction processing becomes easy.

【0052】[第3実施形態]本発明における三次元情
報再構成装置の第3の実施形態を図9を参照しながら説
明する。
[Third Embodiment] A third embodiment of the three-dimensional information reconstructing apparatus according to the present invention will be described with reference to FIG.

【0053】この図9には、第3実施形態の三次元情報
再構成装置の構成が示されている。 (構成3)図示のごとく本装置は、ある対象物14の画
像を入力する画像入力部1と、その入力された画像を格
納する画像格納部2と、所望する操作を指示する操作部
3と、当該画像に対して所定の処理を行う画像処理部4
と、画像イメージを表示する画像表示部5と、画像処理
された画像データを記憶蓄積するデータ蓄積部6とから
主に構成されている。
FIG. 9 shows the configuration of the three-dimensional information reconstructing device according to the third embodiment. (Structure 3) As shown in the figure, the present device includes an image input unit 1 for inputting an image of a certain object 14, an image storage unit 2 for storing the input image, and an operation unit 3 for instructing a desired operation. An image processing unit 4 that performs a predetermined process on the image
And an image display unit 5 for displaying an image image, and a data storage unit 6 for storing and storing image-processed image data.

【0054】画像入力部1、画像格納部2、画像処理部
4およびデータ蓄積部6の各部位は順次に直列に接続さ
れ、一方、操作部3は、画像処理部4と画像表示部5に
接続して所望の処理を指示し表示させ、画像格納部2と
画像処理部4からは表示すべき画像情報を逐次に供給さ
れるようにこの画像表示部5と接続されている。
The image input unit 1, the image storage unit 2, the image processing unit 4, and the data storage unit 6 are sequentially connected in series, while the operation unit 3 is connected to the image processing unit 4 and the image display unit 5. It is connected to the image display unit 5 so as to connect and instruct to display desired processing, and to sequentially supply image information to be displayed from the image storage unit 2 and the image processing unit 4.

【0055】なお、ここでは前説の第1または第2実施
形態の装置と同様の構成要素については同一の番号で示
すものとする。詳しくは、対象物14を光学的に撮像し
て光電変換するために、画像入力部1はレンズ10を有
し、撮像素子11とプロセス回路12とメモリ13とが
直列に構成され、続く画像格納部2に得られた画像信号
を供給している。
The same components as those of the apparatus according to the first or second embodiment described above are designated by the same reference numerals. More specifically, the image input unit 1 includes a lens 10, an image sensor 11, a process circuit 12, and a memory 13 that are serially configured to optically capture an object 14 and perform photoelectric conversion. The obtained image signal is supplied to the unit 2.

【0056】また、画像処理部4は、キャリブレーショ
ンパターンを抽出するためのパターン検出部27と、投
影関係演算部21と、対象物の特徴的要素を抽出するた
めの特徴抽出部26と、三次元情報算出部23とから図
示のように接続され構成されている。なお、この例では
操作部は無いことが解る。
The image processing unit 4 also includes a pattern detection unit 27 for extracting a calibration pattern, a projection relation calculation unit 21, a feature extraction unit 26 for extracting characteristic elements of an object, and a tertiary It is configured to be connected to the raw information calculation unit 23 as shown in the figure. In this example, it is understood that there is no operation unit.

【0057】画像入力部1で対象物14の画像を撮影す
るが、この時に、撮影時の概略のカメラ位置情報をあら
かじめ与え、その画像と共に記録するように構成する。
このための手段の一例として、対象物を撮影する際に後
述する所定の基準パターンを画面内に撮影し、これ(即
ち、基準パターン)をもとにしてカメラ位置を算出す
る。
The image of the object 14 is photographed by the image input unit 1. At this time, the general camera position information at the time of photographing is given in advance and recorded together with the image.
As an example of means for this purpose, a predetermined reference pattern, which will be described later, is photographed on the screen when the object is photographed, and the camera position is calculated based on this (that is, the reference pattern).

【0058】図10には、基準パターンの一例としての
「キャリブレーションパターン30」を描いた多角形の
ステージ(台)を斜視図で示している。上記の基準パタ
ーンの一例として、この図10に示されるような側面に
格子等の「キャリブレーションパターン30」を描いた
多角形のステージを用いる。このステージに対象物14
を乗せた状態で、図示しない画像入力部1の電子カメラ
によってこの対象物14の画像を撮影する。この際に格
子状のキャリブレーションパターン30も一緒に画面の
一部に撮影される。この対象物14は複数の視点から撮
影され、この時にはステージの異なる面のキャリブレー
ションパターン30も同時に撮影され得る。このように
して撮影された画像は画像格納部2に出力されていった
ん格納される。
FIG. 10 is a perspective view showing a polygonal stage (stand) on which a "calibration pattern 30" is drawn as an example of a reference pattern. As an example of the above-mentioned reference pattern, a polygonal stage in which a "calibration pattern 30" such as a lattice is drawn on the side surface as shown in FIG. 10 is used. Object 14 on this stage
The image of the object 14 is captured by the electronic camera (not shown) of the image input unit 1 in a state where the object is placed. At this time, the grid-like calibration pattern 30 is also photographed on a part of the screen. The object 14 is photographed from a plurality of viewpoints, and at this time, the calibration patterns 30 on different surfaces of the stage can also be photographed at the same time. The image thus photographed is output to the image storage unit 2 and temporarily stored therein.

【0059】格納されたこの画像データはまず、画像処
理部4の特徴抽出部26で対象物の要素が抽出されると
ともに、パターン検出部27に入力される。このパター
ン検出部27では画像から「輪郭抽出」や「二値化」等
の操作により当該キャリブレーションパターン30が抽
出される。その結果は投影関係算出部25で処理され、
画像と空間中のステージとの投影関係が求められる。す
なわち、先に述べたように画像上の点とその空間位置と
は(1式)(2式)で示したような関係式で与えられ、
一定数以上の点についてこの対応が求められれば投影関
係のパラメータを求めることができる。
The stored image data is first input to the pattern detection unit 27 while the feature extraction unit 26 of the image processing unit 4 extracts the elements of the object. The pattern detection unit 27 extracts the calibration pattern 30 from the image by an operation such as “contour extraction” or “binarization”. The result is processed by the projection relation calculation unit 25,
The projection relationship between the image and the stage in space is required. That is, as described above, the point on the image and its spatial position are given by the relational expressions as shown in (1) and (2),
If this correspondence is obtained for a certain number of points or more, the projection-related parameters can be obtained.

【0060】したがってキャリブレーションパターン3
0は、このような演算が容易に行われるように格子状の
所定のパターンとされている。続いて、得られた投影関
係を用いて、三次元情報算出部23において特徴抽出部
26で抽出された画像上の対象物の要素に関しての三次
元情報算出処理が行われる。すなわち、空間から画像へ
の投影関係を用いて画像上に撮影された対象物要素の空
間上の存在範囲が算出される。この処理が同じ対象物に
対する複数の画像について繰り返し行われることによ
り、異なる視点から観測した時の画像上の要素と空間中
の範囲を組み合わせられ、その要素の空間位置が求めら
れる。そして同様に上記のような処理が複数の要素につ
いて行われることにより、当該被写体の立体形状が得ら
れる。そして、得られた三次元情報はデータ蓄積部6に
格納される。
Therefore, the calibration pattern 3
0 has a predetermined grid-like pattern so that such an operation can be easily performed. Then, using the obtained projection relationship, the three-dimensional information calculation unit 23 performs three-dimensional information calculation processing on the elements of the object on the image extracted by the feature extraction unit 26. That is, the existence range in space of the object element photographed on the image is calculated using the projection relationship from the space to the image. By repeating this process for a plurality of images of the same object, the elements on the image and the range in space when observed from different viewpoints can be combined, and the spatial position of the element can be obtained. Then, similarly, the above-described processing is performed on a plurality of elements to obtain the three-dimensional shape of the subject. Then, the obtained three-dimensional information is stored in the data storage unit 6.

【0061】(変形例3)ここでキャリブレーションパ
ターン30として用いられている格子の配置や寸法はあ
らかじめ解っているので、これを画像処理して投影関係
を求めることは容易である。
(Modification 3) Since the arrangement and dimensions of the grid used as the calibration pattern 30 are known in advance, it is easy to obtain the projection relationship by image processing of this.

【0062】また図10に示したようなステージを用い
ることにより、異なる面の空間的位置関係も解ってお
り、大きく異なる視点から観測した画像の空間的位置関
係を求めることも容易である。なお、画像にステージの
どの面が撮影されているかを自動的に判定するために
は、面の色を異なるものとしてこの色の違いを用いて判
定するか、あるいは面を特定するような特殊なパターン
を用いてもよい。
Further, by using the stage as shown in FIG. 10, the spatial positional relationship of different surfaces is known, and it is easy to obtain the spatial positional relationship of images observed from greatly different viewpoints. In order to automatically determine which side of the stage is photographed in the image, it is determined that the colors of the surfaces are different and determination is performed using this color difference, or there is a special method such as specifying the surface. A pattern may be used.

【0063】(作用効果3)以上に説明したように第3
実施形態の装置においては、対象物の画像の「概略の撮
影方向」がその対象物の画像と同じ画面に撮影されたキ
ャリブレーションパターンから算出されるので、操作者
の指定入力は必要とせずに自動的に装置側で判断でき、
三次元情報再構成処理が容易で迅速になるという利点が
得られる。
(Operation and Effect 3) As described above, the third
In the apparatus of the embodiment, since the “approximate shooting direction” of the image of the target object is calculated from the calibration pattern captured on the same screen as the image of the target object, the operator does not need to input the designation. The device can automatically judge,
The advantage is that the three-dimensional information reconstruction process is easy and quick.

【0064】(その他の変形例)以上、本発明で示した
画像入力時の概略情報の算出の手段としては、さらに他
の手法を用いることができる。例えば、カメラに位置情
報センサを内蔵あるいは外付けし、撮影ごとに位置情報
を記録して画像データとともにメモリに記録し、出力す
るようにしてもよい。このようなセンサの例としては、
VRシステム等でも用いられている磁気感応による位置
センサや光学的位置センサを使用できる。
(Other Modifications) As described above, still another method can be used as the means for calculating the general information at the time of image input shown in the present invention. For example, a position information sensor may be built in or externally attached to the camera, and position information may be recorded for each shooting, and may be recorded in a memory together with image data and output. Examples of such sensors include:
A magnetic sensor-based position sensor or an optical position sensor, which is also used in VR systems and the like, can be used.

【0065】また、例えばビデオカメラのぶれ検出に用
いられるピエゾ加速度センサ等を利用して、その情報を
積分することにより概略情報の算出を行ってもよい。さ
らに、機械式のアームにカメラを取り付け、このアーム
の変位をエンコーダにより検出するようにしてもよい。
Further, for example, a piezo acceleration sensor used for detecting a shake of a video camera or the like may be used to calculate the rough information by integrating the information. Furthermore, a camera may be attached to a mechanical arm and the displacement of this arm may be detected by an encoder.

【0066】そのほかにも、本発明の要旨を逸脱しない
範囲で種々の変形実施が可能である。以上、複数の実施
形態に基づいて説明したが、本明細書には以下の発明が
含まれる。
Besides, various modifications can be made without departing from the scope of the present invention. Although the description has been given above based on a plurality of embodiments, the present invention includes the following inventions.

【0067】[1] 対象物の画像を入力する画像入力
手段と、前記画像入力手段から入力された画像を格納す
る画像格納手段と、前記画像格納手段に格納された情報
を用いて被写体の三次元情報を算出する処理手段と、当
該入力画像の対象物に対する概略の方向を得る手段と、
を備え、前記方向を得る手段で得た画像の入力方向情報
は、当該入力方向に対応する前記画像格納手段に格納さ
れた情報と対応するように前記処理手段に入力すること
を特徴とする三次元情報再構成装置。
[1] An image input means for inputting an image of an object, an image storage means for storing the image input from the image input means, and a tertiary image of an object using information stored in the image storage means. Processing means for calculating the original information, means for obtaining a rough direction of the input image with respect to the object,
The input direction information of the image obtained by the means for obtaining the direction is input to the processing means so as to correspond to the information stored in the image storage means corresponding to the input direction. Original information reconstruction device.

【0068】(作用効果1):三次元情報再構成処理が
容易になる。 [2] 前記概略の方向を得る手段は、所定の対象物の
モデル発生手段と、撮影方向を入力する方向入力手段
と、前記モデル発生手段で発生した対象物のモデルと前
記方向入力手段で入力した撮影方向とを表示する手段
と、から成ることを特徴とする[1]に記載の三次元情
報再構成装置。
(Function and Effect 1): The three-dimensional information reconstruction process becomes easy. [2] The means for obtaining the approximate direction is a predetermined object model generation means, a direction input means for inputting a photographing direction, an object model generated by the model generation means and the direction input means. The three-dimensional information reconstructing device according to [1], further comprising: a unit that displays the image capturing direction.

【0069】(作用効果2):画像の再構成演算を行う
ときの探索範囲が小さくなり、三次元情報再構成処理が
容易になる。 [3] 前記概略の方向を得る手段は、前記画像格納手
段に格納された画像を再配置する手段と、前記画像入力
手段から入力された複数の画像の入力方向のなす角度を
入力する手段と、前記の再配置された画像と前記画像の
なす角度との情報を用いて各入力画像の当該対象物に対
する概略の方向を算出する手段と、によって構成される
ことを特徴とする[1]に記載の三次元情報再構成装
置。
(Advantageous effect 2): The search range at the time of performing the image reconstruction calculation becomes small, and the three-dimensional information reconstruction processing becomes easy. [3] The means for obtaining the general direction includes means for rearranging the images stored in the image storage means, and means for inputting an angle formed by the input directions of the plurality of images input from the image input means. And means for calculating an approximate direction of each input image with respect to the object using the information of the rearranged image and the angle formed by the image. [1] The described three-dimensional information reconstruction device.

【0070】(作用効果3):複数画像間の対応関係を
求める演算の探索範囲が小さくなり、三次元情報再構成
処理が容易になる。 (4) 前記概略の方向を得る手段は、前記画像格納手
段に格納された画像を再配置する手段と、前記画像入力
手段から入力された複数の画像の入力方向のなす角度を
算出する手段と、前記の再配置された画像と前記画像の
なす角度との情報を用いて各入力画像の当該対象物に対
する概略の方向を算出する手段と、によって構成するこ
とを特徴とする[1]に記載の三次元情報再構成装置。
(図6の実施形態が対応する)。
(Operation and Effect 3): The search range of the operation for obtaining the correspondence between a plurality of images becomes small, and the three-dimensional information reconstruction processing becomes easy. (4) The means for obtaining the approximate direction includes means for rearranging the images stored in the image storage means, and means for calculating an angle formed by the input directions of the plurality of images input from the image input means. And means for calculating an approximate direction of each input image with respect to the object using the information of the rearranged image and the angle formed by the image, [1]. 3D information reconstruction device.
(The embodiment of FIG. 6 corresponds).

【0071】(作用効果4):複数の画像を用いて三次
元情報を再構成する際に、重なりのある複数画像の配置
関係を入力し、この配置関係から画像のなす角度を算出
する手段を備え、角度を求められる。複数画像間の対応
関係を求める演算の探索範囲が小さくなり、三次元情報
再構成処理が容易になる。
(Function and Effect 4): When three-dimensional information is reconstructed using a plurality of images, a means for inputting the arrangement relationship of a plurality of overlapping images and calculating the angle formed by the images from this arrangement relationship is provided. Be prepared and be asked for the angle. The search range of the calculation for obtaining the correspondence between a plurality of images becomes small, and the three-dimensional information reconstruction processing becomes easy.

【0072】(5) 前記の概略の方向を得る手段は、
画像に所定のキャリブレ―ションを形成させる手段と、
前記キャリブレーションのパターンから当該画像の撮影
方向を算出する手段と、から構成されることを特徴とす
る[1]に記載の三次元情報再構成装置。(図9、図1
0の実施形態が対応する)。
(5) Means for obtaining the above general direction are
A means for forming a predetermined calibration on the image,
The three-dimensional information reconstructing apparatus according to [1], including a unit that calculates a shooting direction of the image from the calibration pattern. (Fig. 9, Fig. 1
0 embodiment corresponds).

【0073】(作用効果5):複数の画像を用いて三次
元情報を再構成する際に、画像内にキャリブレーション
を形成する手段と、画像内に撮影されたキャリブレーシ
ョンパターンから入力画像の対象物に対する「概略の位
置」を算出する手段とを備え、概略的な位置を知ること
ができる。空間から画像への投影関係を求める演算が容
易となり、三次元情報再構成処理が容易になる。
(Effect 5): When the three-dimensional information is reconstructed using a plurality of images, means for forming a calibration in the image and a target of the input image based on the calibration pattern photographed in the image It is possible to know the approximate position by providing a means for calculating the “approximate position” with respect to the object. The calculation of the projection relationship from the space to the image becomes easy, and the three-dimensional information reconstruction processing becomes easy.

【0074】[0074]

【発明の効果】以上、本発明の三次元情報再構成装置に
よれば、画像の再構成演算を行うときの探索範囲が小さ
くなり、複数画像間の対応関係を求める演算の探索範囲
が小さくなり、同様に、空間から画像への投影関係を求
める演算が容易となる等により、三次元情報再構成処理
が容易になる。
As described above, according to the three-dimensional information reconstructing apparatus of the present invention, the search range when performing the image reconstruction operation becomes small, and the search range of the operation for obtaining the correspondence between a plurality of images becomes small. Similarly, the calculation for obtaining the projection relationship from the space to the image is facilitated, and thus the three-dimensional information reconstruction process is facilitated.

【0075】詳しくは、第1実施形態の装置では、対象
物の画像の「概略の撮影方向」を操作者が何らかの方法
で入力指定する構成としたので、三次元情報再構成処理
が容易になる。第2実施形態の装置では、対象物の画像
の「概略の配置」を入力指定することにより「概略の撮
影方向」が装置側で求められる。更に、第3実施形態の
装置では、対象物の画像の「概略の撮影方向」がその対
象物の画像と同じ画面に撮影されたキャリブレーション
パターンから算出されるように構成されているので、操
作者の指定入力は特に必要とせず、従って操作部をもた
ず、自動的に本装置側で判断できる。その結果、三次元
情報再構成処理が容易で迅速になると共に構成が簡単に
なるという効果が得られる。
More specifically, in the apparatus of the first embodiment, the operator inputs and specifies the "general photographing direction" of the image of the object by some method, so that the three-dimensional information reconstruction processing becomes easy. . In the apparatus of the second embodiment, the “approximate imaging direction” is obtained on the apparatus side by inputting and designating the “approximate arrangement” of the image of the object. Further, in the apparatus of the third embodiment, the “approximate shooting direction” of the image of the object is configured to be calculated from the calibration pattern taken on the same screen as the image of the object. The user does not particularly need to input the designation, and therefore, the device can be automatically judged without having an operation unit. As a result, the three-dimensional information reconstructing process is easy and quick, and the configuration is simple.

【0076】したがって、本発明の目的である処の、簡
単な装置構成で対象物に対する制約が少なくしかも正確
な三次元情報を再構成可能な三次元情報再構成装置を提
供することができる。
Therefore, it is an object of the present invention to provide a three-dimensional information reconstructing device capable of reconstructing accurate three-dimensional information with a simple device structure and less restrictions on an object.

【図面の簡単な説明】[Brief description of the drawings]

【図1】図1は、本発明に係わる第1実施形態の三次元
情報再構成装置を示す構成図。
FIG. 1 is a configuration diagram showing a three-dimensional information reconstructing apparatus according to a first embodiment of the present invention.

【図2】図2は、本第1実施形態の三次元情報再構成装
置の動作を説明する構成図。
FIG. 2 is a configuration diagram illustrating an operation of the three-dimensional information reconstructing device according to the first embodiment.

【図3】 本発明に係わる実施形態の装置における表示
例を示し、(a)は、装置の表示部に表示される選択メ
ニュー画面の一例であり、(b)は、装置の表示部に視
点情報を入力するための表示画面。
FIG. 3 shows a display example in the device of the embodiment according to the present invention, (a) is an example of a selection menu screen displayed on the display part of the device, and (b) is a viewpoint on the display part of the device. A display screen for entering information.

【図4】図4は、異なる複数の視点から観測した画像上
の要素と空間位置を示す説明図。
FIG. 4 is an explanatory diagram showing elements and spatial positions on an image observed from a plurality of different viewpoints.

【図5】図5は、本発明に係わる実施形態の装置におけ
る撮影画像とその対応する展開図を表示する表示画面の
例。
FIG. 5 is an example of a display screen displaying a captured image and its corresponding exploded view in the apparatus according to the embodiment of the present invention.

【図6】図6は、本発明に係わる第2実施形態の三次元
情報再構成装置の動作を説明する構成図。
FIG. 6 is a configuration diagram illustrating an operation of a three-dimensional information reconstructing device according to a second embodiment of the invention.

【図7】 本発明に係わる実施形態の装置における要素
位置の表示例を示し、(a)は、画像の空間的なつなが
りを平面的に展開した例を示す展開図、(b)は、異な
る2方向からの撮影による表示例を示す説明図。
7A and 7B show display examples of element positions in the apparatus according to the embodiment of the present invention, FIG. 7A is a development view showing an example in which the spatial connection of images is developed in a plane, and FIG. 7B is different. Explanatory drawing which shows the example of a display by the photography from 2 directions.

【図8】図8は、本発明に係わる第2実施形態の三次元
情報再構成装置のその他の構成を例示する構成図。
FIG. 8 is a configuration diagram illustrating another configuration of the three-dimensional information reconstructing device according to the second embodiment of the invention.

【図9】図9は、本発明に係わる第3実施形態の三次元
情報再構成装置の動作を説明する構成図。
FIG. 9 is a configuration diagram illustrating an operation of a three-dimensional information reconstructing device according to a third embodiment of the invention.

【図10】図10は、基準パターンの一例としての「キ
ャリブレーションパターン」を描いた多角形のステージ
を示す斜視図。
FIG. 10 is a perspective view showing a polygonal stage in which a “calibration pattern” is drawn as an example of a reference pattern.

【符号の説明】[Explanation of symbols]

1…画像入力部, 2…画像格納部,3…操作
部, 4…画像処理部,5…画像表示部,
6…データ蓄積部,10…レンズ,
11…撮像素子,12…プロセス回路, 13
…メモリ,14…対象物,20…対応領域検出部,
21…投影関係演算部,22…モデル格納部, 2
3…三次元情報算出部,24…画像配置演算部, 2
5…投影関係演算部,26…特徴抽出部, 27
…パターン検出部,28…画像角度格納部,30…キャ
リブレーションパターン。
1 ... Image input unit, 2 ... Image storage unit, 3 ... Operation unit, 4 ... Image processing unit, 5 ... Image display unit,
6 ... Data storage unit, 10 ... Lens,
11 ... Image sensor, 12 ... Process circuit, 13
... memory, 14 ... object, 20 ... corresponding area detection unit,
21 ... Projection-related calculation unit, 22 ... Model storage unit, 2
3 ... Three-dimensional information calculation unit, 24 ... Image placement calculation unit, 2
5 ... Projection relation calculation unit, 26 ... Feature extraction unit, 27
... pattern detection section, 28 ... image angle storage section, 30 ... calibration pattern.

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 対象物の画像を入力する画像入力手段
と、 前記画像入力手段から入力された画像を格納する画像格
納手段と、 前記画像格納手段に格納された情報を用いて被写体の三
次元情報を算出する処理手段と、 当該入力画像の対象物に対する概略の方向を得る手段
と、を備え、 前記方向を得る手段で得た画像の入力方向の情報は、当
該入力方向に対応する前記画像格納手段に格納された情
報と対応するように前記処理手段に入力することを特徴
とする三次元情報再構成装置。
1. An image input unit for inputting an image of an object, an image storage unit for storing an image input from the image input unit, and a three-dimensional image of an object using information stored in the image storage unit. The image input direction information obtained by the means for obtaining the direction is the image corresponding to the input direction. A three-dimensional information reconstructing device, wherein the information is input to the processing means so as to correspond to the information stored in the storage means.
【請求項2】 前記概略の方向を得る手段は、 所定の対象物の概略の形状( 即ち、モデル) を発生する
モデル発生手段と、 撮影方向を入力する方向入力手段と、 前記モデル発生手段で発生した当該対象物のモデルと前
記方向入力手段で入力した撮影方向とを表示する手段
と、から成ることを特徴とする、請求項1に記載の三次
元情報再構成装置。
2. The means for obtaining the general direction includes a model generating means for generating a general shape (ie, model) of a predetermined object, a direction inputting means for inputting a photographing direction, and the model generating means. 3. The three-dimensional information reconstructing apparatus according to claim 1, further comprising: a unit that displays the model of the object that has occurred and the imaging direction that has been input by the direction input unit.
【請求項3】 前記概略の方向を得る手段は、 前記画像格納手段に格納された画像を再配置する手段
と、 前記画像入力手段から入力された複数の画像の入力方向
のなす角度を入力する手段と、 前記の再配置された画像と前記画像のなす角度との情報
を用いて各入力画像の当該対象物に対する概略の方向を
算出する手段と、から構成されることを特徴とする、請
求項1に記載の三次元情報再構成装置。
3. The means for obtaining the general direction inputs the angle formed by the means for rearranging the images stored in the image storage means and the input direction of the plurality of images input from the image input means. And a means for calculating an approximate direction of each input image with respect to the object using the information of the rearranged image and the angle formed by the image. Item 3. The three-dimensional information reconstruction device according to item 1.
JP7275806A 1995-10-24 1995-10-24 Three-dimensional information reconstruction apparatus Pending JPH09119819A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7275806A JPH09119819A (en) 1995-10-24 1995-10-24 Three-dimensional information reconstruction apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7275806A JPH09119819A (en) 1995-10-24 1995-10-24 Three-dimensional information reconstruction apparatus

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2004232440A Division JP2004325464A (en) 2004-08-09 2004-08-09 Three-dimensional information reconstructing device, its method, reference pattern, photographing device, and photographing method

Publications (1)

Publication Number Publication Date
JPH09119819A true JPH09119819A (en) 1997-05-06

Family

ID=17560681

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7275806A Pending JPH09119819A (en) 1995-10-24 1995-10-24 Three-dimensional information reconstruction apparatus

Country Status (1)

Country Link
JP (1) JPH09119819A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002501349A (en) * 1998-01-06 2002-01-15 インテル・コーポレーション Method for determining relative camera orientation to create a 3-D visual image
JP2002520701A (en) * 1998-06-30 2002-07-09 シーメンス アクチエンゲゼルシヤフト Apparatus and method for creating virtual equipment model
JP2003042730A (en) * 2001-07-30 2003-02-13 Topcon Corp Apparatus and method for measurement of surface shape as well as surface-state mapping apparatus
WO2003012368A1 (en) * 2001-07-30 2003-02-13 Topcon Corporation Surface shape measurement apparatus, surface shape measurement method, surface state graphic apparatus
JP2003042726A (en) * 2001-08-03 2003-02-13 Topcon Corp Object for calibration
JP2005514606A (en) * 2001-12-28 2005-05-19 アプライド プレシジョン エルエルシー Three-dimensional three-dimensional measurement system and method
JP2005189204A (en) * 2003-12-26 2005-07-14 Fuji Xerox Co Ltd Three-dimensional shape measuring instrument and method

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002501349A (en) * 1998-01-06 2002-01-15 インテル・コーポレーション Method for determining relative camera orientation to create a 3-D visual image
JP2002520701A (en) * 1998-06-30 2002-07-09 シーメンス アクチエンゲゼルシヤフト Apparatus and method for creating virtual equipment model
JP2003042730A (en) * 2001-07-30 2003-02-13 Topcon Corp Apparatus and method for measurement of surface shape as well as surface-state mapping apparatus
WO2003012368A1 (en) * 2001-07-30 2003-02-13 Topcon Corporation Surface shape measurement apparatus, surface shape measurement method, surface state graphic apparatus
US7206080B2 (en) 2001-07-30 2007-04-17 Topcon Corporation Surface shape measurement apparatus, surface shape measurement method, surface state graphic apparatus
JP2003042726A (en) * 2001-08-03 2003-02-13 Topcon Corp Object for calibration
WO2003014664A1 (en) * 2001-08-03 2003-02-20 Topcon Corporation Calibration object
JP2005514606A (en) * 2001-12-28 2005-05-19 アプライド プレシジョン エルエルシー Three-dimensional three-dimensional measurement system and method
JP4896373B2 (en) * 2001-12-28 2012-03-14 ルドルフテクノロジーズ インコーポレイテッド Three-dimensional three-dimensional measurement system and method
JP2005189204A (en) * 2003-12-26 2005-07-14 Fuji Xerox Co Ltd Three-dimensional shape measuring instrument and method

Similar Documents

Publication Publication Date Title
Petrov et al. Optical 3D digitizers: Bringing life to the virtual world
US8032327B2 (en) Auto-referenced sensing method for three-dimensional scanning
JP7073850B2 (en) Input device and input method of input device
CN112161619B (en) Pose detection method, three-dimensional scanning path planning method and detection system
JP5093053B2 (en) Electronic camera
JP4774824B2 (en) Method for confirming measurement target range in three-dimensional measurement processing, method for setting measurement target range, and apparatus for performing each method
EP0782100A2 (en) Three-dimensional shape extraction apparatus and method
US6839081B1 (en) Virtual image sensing and generating method and apparatus
JP2001194114A (en) Image processing apparatus and method and program providing medium
EP2990757B1 (en) Three-dimensional shape measurement device, three-dimensional shape measurement method, and three-dimensional shape measurement program
JP2008145431A (en) Apparatus and method for 3-dimensional surface geometry reconstruction
WO2014100950A1 (en) Three-dimensional imaging system and handheld scanning device for three-dimensional imaging
JP2018155664A (en) Imaging system, imaging control method, image processing device, and image processing program
JP4085671B2 (en) Data processing method, data processing program, and recording medium
JPH09119819A (en) Three-dimensional information reconstruction apparatus
JPH1079029A (en) Stereoscopic information detecting method and device therefor
JP2012194145A (en) Information display device, information display method and program
JP2004220312A (en) Multi-viewpoint camera system
Abd-Raheem et al. Design of an automated 3D scanner
Siebert et al. C3D™: a Novel Vision-Based 3-D Data Acquisition System
JP6027952B2 (en) Augmented reality image generation system, three-dimensional shape data generation device, augmented reality presentation device, augmented reality image generation method, and program
JP7298687B2 (en) Object recognition device and object recognition method
JP7414090B2 (en) Imaging device and method of controlling the imaging device
JPH0766436B2 (en) 3D model construction device using continuous silhouette images
JP3317093B2 (en) 3D shape data processing device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040601

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040615

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050726

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060131