JPH09138850A - Surface shape reconstitution device - Google Patents

Surface shape reconstitution device

Info

Publication number
JPH09138850A
JPH09138850A JP7296944A JP29694495A JPH09138850A JP H09138850 A JPH09138850 A JP H09138850A JP 7296944 A JP7296944 A JP 7296944A JP 29694495 A JP29694495 A JP 29694495A JP H09138850 A JPH09138850 A JP H09138850A
Authority
JP
Japan
Prior art keywords
subject
feature point
image
distance map
synthesizing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP7296944A
Other languages
Japanese (ja)
Inventor
Kazuo Sonobe
和夫 園部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP7296944A priority Critical patent/JPH09138850A/en
Publication of JPH09138850A publication Critical patent/JPH09138850A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To precisely reconstitute the shape and the structure of an object surface even if an object has the shape constituted by a smoothly curved surface by processing an outline part by means of synthesizing feature points obtained from multiple directions and detecting a density difference. SOLUTION: A picture taken by a TV camera 1-1 is stored in a picture memory 1-3. A feature point detection means 1-4 detects the point having the density difference in the picture as the feature point of the picture. A rotation control means 1-6 detects and controls the rotational angle of a rotation stage 1-5 rotating around a subject. A focal position control means 1-2 controls the focal position of the camera and a distance map generation means 1-7 generates a map shown by using information on the position where the focal point matches the feature point of the subject. A feature point synthesis means 1-8 synthesizes the feature points obtained from the picture and stores the reconstituted picture in a three-dimensional memory 1-9. A display means 1-10 displays and outputs the stored picture.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、物体の3次元構造
を扱う3次元形状入力装置に係わり、特にその表面構造
を再構成する表面形状再構成装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional shape input device that handles a three-dimensional structure of an object, and more particularly to a surface shape reconstructing device that reconstructs the surface structure.

【0002】[0002]

【従来の技術】従来、被写体の表面構造を3次元的に入
力するための手法としては、合焦点位置情報を利用して
「距離マップ」を作成する方法が在った。その一例とし
て例えば「フォーカス法」が挙げられる。なお上記の
「距離マップ」とは、ある被写体を撮影して画像を得る
場合に、各画素に対応する被写体までの距離を各画素に
対応づけたマップのことである。
2. Description of the Related Art Conventionally, as a method for three-dimensionally inputting the surface structure of a subject, there has been a method of creating a "distance map" by using focus position information. An example thereof is the "focus method". The above-mentioned "distance map" is a map in which a distance to a subject corresponding to each pixel is associated with each pixel when a certain subject is photographed to obtain an image.

【0003】ここで説明を容易にするために、ある撮影
状況として図15(a)に示すような被写体の円柱をカ
メラが撮影した場合を想定し、その上方からカメラと被
写体を見た様子を示す図15(b)および図15(c)
を用いて順次説明する。
In order to facilitate the explanation, assume that the camera shoots a cylinder of a subject as shown in FIG. 15 (a) as a shooting situation, and a state in which the camera and the subject are viewed from above. 15 (b) and 15 (c)
Will be described sequentially.

【0004】「フォーカス法」は、ビデオ・カメラおよ
び銀塩カメラなどで既に実用化されている測距方法であ
り、図15(b)に示すように画像中にコントラストが
発生するような特徴点がある場合に、コントラスト値が
最大になる時の光学結像系の焦点位置を読み出し、カメ
ラから特徴点までの距離とするマップを作成する方法で
ある。
The "focusing method" is a distance measuring method that has already been put to practical use in video cameras, silver halide cameras, etc., and is a feature point that causes contrast in an image as shown in FIG. 15 (b). In this case, the focus position of the optical image forming system when the contrast value becomes maximum is read out, and a map is created which sets the distance from the camera to the feature point.

【0005】また他には「ステレオ・マッチング」を用
いる方法がある。これは画像中に明暗のコントラストを
発生させるような特徴点がある場合に、図15(c)に
示すように異なる視点から観察した画像に対して被写体
の同一部分を撮影して得られる特徴点を対応付けること
により、「三角測量」と同様の原理を適用してカメラと
被写体の特徴点との相対的な位置関係を明らかにする方
法である。
Another method is to use "stereo matching". This is a feature point obtained by photographing the same part of the subject with respect to images observed from different viewpoints, as shown in FIG. 15C, when the image has feature points that generate contrast of light and dark. This is a method of clarifying the relative positional relationship between the camera and the feature point of the subject by applying the same principle as “triangulation” by associating with each other.

【0006】[0006]

【発明が解決しようとする課題】しかし従来の方法で
は、次に示す状況において表面構造を再構成する場合に
ついての記載が無かった。例えば被写体が図15(a)
に示すように特徴の乏しい滑らかな曲面で構成されてい
る場合である。
However, in the conventional method, there is no description about the case of reconstructing the surface structure in the following situations. For example, if the subject is FIG.
This is the case when it is composed of a smooth curved surface with few features, as shown in.

【0007】このような曲面をもつ被写体に対して「フ
ォーカス法」を適用するとすると、コントラストが発生
する特徴点は被写体の輪郭部分に限られる故に、計測で
きる特徴点は図15(b)に示すように僅かになってし
まう。このような場合に「補間」等の方法を用いて滑ら
かな曲線の再構成を、従来のフォーカス法を用いる方法
で行っているものは無かった。なお、ここではフォーカ
ス法を例に挙げて説明したが、一般に合焦点位置の情報
を利用して距離を得る場合には、フォーカス法と同様に
コントラストが発生する特徴点が必要である。
When the "focus method" is applied to an object having such a curved surface, the characteristic points at which contrast occurs are limited to the contour portion of the object, and therefore measurable characteristic points are shown in FIG. 15 (b). It becomes slightly like this. In such a case, there has been no method of reconstructing a smooth curve using a method such as "interpolation" by a method using a conventional focus method. Although the focus method has been described as an example here, in general, when the distance is obtained by using the information of the in-focus position, a characteristic point that causes contrast as in the focus method is required.

【0008】また、「ステレオ・マッチング」の場合に
も、計測可能な特徴点が少ないということからフォーカ
ス法と同様に滑らかな曲面の再構成を、従来のステレオ
・マッチングを用いる方法で行っているものは無かっ
た。
Also in the case of "stereo matching", since there are few measurable feature points, a smooth curved surface is reconstructed by the conventional stereo matching method as in the focus method. There was nothing.

【0009】また、ステレオ・マッチングでは、図15
(c)に示すように輪郭部分を特徴点として再構成を行
おうとすると、実際には被写体上で異なる位置を同一の
位置であると対応付けて「三角測量」と同様の原理を適
用することになる。この様な状況で正しい測距を行うた
めには何らかの工夫が必要になるが、従来のステレオ・
マッチングでこの点について説明しているものは無かっ
た。以上は主なる従来技術の解決されるべき現状であ
る。
In addition, in stereo matching, FIG.
As shown in (c), when an attempt is made to reconstruct an outline part as a feature point, different positions on the subject are actually associated with the same position, and the same principle as "triangulation" is applied. become. In order to perform correct distance measurement in such a situation, some kind of ingenuity is required.
None of the matching explained this point. The above is the present situation to be solved by the main conventional techniques.

【0010】またその他に解決しなければならない従来
技術の課題としては、例えば、表面構造を再構成する場
合に、得られる構造の特性が等方的であるか否かは重要
な問題である。ここで言う「等方的な特性」とは、異な
るどの方向に対しても等しい特性であることを意味す
る。フォーカス法を用いて表面構造の再構成を行う場合
には、光学結像系の空間周波数特性により原理的に光軸
方向の特性が他の方向の特性と比較して劣ったものにな
ることが解っている。しかし従来のフォーカス法を用い
る方法でこの点について説明しているものは無かった。
Another problem of the prior art that must be solved is, for example, when the surface structure is reconstructed, whether or not the characteristics of the obtained structure are isotropic is an important problem. The term “isotropic characteristic” as used herein means that the characteristic is the same in all different directions. When the surface structure is reconstructed using the focus method, the characteristics in the optical axis direction may in principle be inferior to those in other directions due to the spatial frequency characteristics of the optical imaging system. I understand. However, none of the conventional methods using the focus method have explained this point.

【0011】そこで本発明の目的は、表面構造が滑らか
な曲面で構成された物体でも取り扱えることのできる3
次元形状入力装置に係わり、その立体の表面構造をより
正しく再構成できる表面形状再構成装置を提供すること
にある。
Therefore, an object of the present invention is to be able to handle an object whose surface structure is composed of a smooth curved surface.
It is an object of the present invention to provide a surface shape reconstructing device which is related to a three-dimensional shape input device and which can more correctly reconstruct the three-dimensional surface structure.

【0012】[0012]

【課題を解決するための手段および作用】本発明は、上
述の解決されるべき従来技術の主な課題のために請求項
に記載の手段を講じている共に、後に付記する項に記載
の手段により解決を図っている。すなわち、 [1] 焦点位置を制御する機構が備えられた撮影手段
と、被写体に対する撮影手段の相対位置を移動させる手
段と、画像を格納するためのメモリと、被写体を撮影し
た画像中に発生する濃度差のある点を特徴点として検出
する手段と、被写体の特徴点に対して合焦点位置情報を
利用し奥行き情報を求めマップで表した距離マップを作
成する手段と、撮影手段の撮影位置が変更されるに従い
撮影手段と被写体の相対的な位置関係を求める手段と、
撮影手段と被写体の相対的な位置関係と距離マップの情
報を用いて複数の画像から得られる特徴点を合成する手
段と、から構成されるような表面形状再構成装置を提供
する。(この[1]に対応する本発明の実施形態は、後
述の第1実施形態に詳説する)。
The present invention adopts the measures described in the claims for the above-mentioned main problems of the prior art to be solved, and the measures described in the following supplementary notes. We are trying to solve by. That is, [1] a photographing means provided with a mechanism for controlling the focus position, a means for moving the relative position of the photographing means with respect to the subject, a memory for storing an image, and an image generated in the photographed image of the subject. The means for detecting a point having a density difference as a feature point, the means for obtaining depth information using the in-focus position information for the feature point of the subject to create a distance map and the photographing position of the photographing means A means for obtaining a relative positional relationship between the photographing means and the subject according to the change,
There is provided a surface shape reconstructing device configured by: a photographing unit, a unit for synthesizing feature points obtained from a plurality of images by using information on a relative positional relationship between a subject and a distance map. (The embodiment of the present invention corresponding to this [1] will be described in detail later in the first embodiment).

【0013】(作用1)焦点位置を制御する機構が備え
られた撮影手段としてのカメラにより、焦点位置を走査
しながら画像入力を行うことができる。被写体に対する
カメラの相対位置を移動させる手段とカメラの撮影位置
が変更されるに従いカメラと被写体の相対的な位置関係
を求める手段により、多方向からの画像入力を行うこと
ができる。被写体を撮影した画像中に発生する濃度差の
ある点を特徴点として検出する手段と被写体の特徴点に
対してフォーカス法により奥行き情報を求め距離マップ
を作成する手段により、焦点位置を走査して得られた画
像に対して濃度差が発生している特徴点の距離を求めて
距離マップの作成が行える。カメラと被写体の位置関係
と距離マップに従って複数の画像から得られる特徴点を
合成する手段により、多方向に対して得られた距離マッ
プから特徴点を合成することができる。
(Operation 1) An image can be input while scanning the focal position by a camera as a photographing means having a mechanism for controlling the focal position. It is possible to input images from multiple directions by means for moving the relative position of the camera with respect to the subject and means for obtaining the relative positional relationship between the camera and the subject as the shooting position of the camera is changed. The focus position is scanned by means for detecting a point having a density difference generated in the image of the subject as a feature point and means for obtaining depth information by the focus method for the feature point of the subject and creating a distance map. It is possible to create a distance map by obtaining the distances of the feature points where the density difference occurs in the obtained image. The feature points can be synthesized from the distance maps obtained in the multiple directions by the means for synthesizing the feature points obtained from the plurality of images according to the positional relationship between the camera and the subject and the distance map.

【0014】一方向で得られる特徴点が少ない場合で
も、多方向から得られた特徴点を合成することにより、
より正しい表面構造を得ることができる。特に表面構造
が滑らかな曲面で構成されている場合には、濃度差検出
で得られる輪郭部分の特徴点が画像入力の方向により移
動することから、異なる画像入力方向で得られる特徴点
は位置的に重ならなくなり、合成の結果得られる表面構
造はより正しいものになる。
Even if there are few feature points obtained in one direction, by combining feature points obtained from multiple directions,
A more correct surface structure can be obtained. Especially when the surface structure is composed of a smooth curved surface, the feature points of the contour portion obtained by the density difference detection move according to the image input direction, so the feature points obtained in different image input directions are positional. And the resulting surface structure of the synthesis is more correct.

【0015】[2] 被写体に対する撮影手段の相対位
置を移動させる前記移動手段が、この被写体の周囲を回
転する回転ステージであるような[1]に記載の表面形
状再構成装置を提供する。(この[2]に対応する本発
明の実施形態は、後述の第1実施形態で詳説する)。
[2] The surface shape reconstructing apparatus according to [1], wherein the moving means for moving the relative position of the photographing means with respect to the subject is a rotary stage that rotates around the subject. (The embodiment of the present invention corresponding to this [2] will be described in detail later in the first embodiment).

【0016】(作用2)移動手段である回転ステージが
撮影手段をのせて回転し、被写体に対するの相対位置を
変化させる。よって、回転半径、即ち被写体との相対距
離が一定でしかも被写体の異なる多方向の表面を撮影し
立体の形状に関するデータを容易に入力可能であるよう
な表面形状再構成装置を提供できる。
(Operation 2) The rotating stage, which is the moving means, rotates with the photographing means mounted thereon to change the relative position with respect to the subject. Therefore, it is possible to provide a surface shape reconstructing apparatus which has a constant radius of gyration, that is, a relative distance to the object, and which is capable of easily inputting data regarding a three-dimensional shape by photographing multi-directional surfaces of different objects.

【0017】[3] 撮影手段と被写体の位置関係と距
離マップに従って複数の画像から得られる特徴点を合成
する手段が、撮影手段と被写体の位置関係と距離マップ
に従って複数の画像から得られる特徴点を点として配置
し合成する直線特徴点合成手段であるような[1]に記
載の表面形状再構成装置を提供する。(この[3]に対
応する本発明の実施形態は、後述の第1実施形態に詳説
する)。
[3] A means for synthesizing feature points obtained from a plurality of images according to the positional relationship between the photographing means and the subject and a distance map is a feature point obtained from a plurality of images according to the positional relationship between the photographing means and the subject and a distance map. The surface shape reconstructing apparatus according to [1], which is a linear feature point synthesizing unit that arranges and synthesizes as points, is provided. (The embodiment of the present invention corresponding to this [3] will be described in detail in the first embodiment described later).

【0018】(作用3)特徴点合成手段が、撮影手段と
被写体の位置関係と距離マップに基づき複数画像から得
られる特徴点を合成する際に、まず特徴点を「点」とし
てマップ上に配置する。よって、これらの特徴点の合成
によって正しい表面形状が再構成できるような表面形状
再構成装置を提供できる。
(Operation 3) When the feature point synthesizing means synthesizes the feature points obtained from a plurality of images based on the positional relationship between the photographing means and the subject and the distance map, the feature points are first arranged as "points" on the map. To do. Therefore, it is possible to provide a surface shape reconstructing device that can reconstruct a correct surface shape by combining these feature points.

【0019】[0019]

【発明の実施の形態】以下に複数の実施の形態を例に挙
げて本発明の3次元形状入力装置に係わる表面形状再構
成装置について順次詳説する。 [第1実施形態]図1〜図3を参照して本発明の表面形
状再構成装置に係わる第1の実施形態を説明する。図1
には第1実施形態としての装置の構成図が示され、図2
には被写体と回転ステージ及びTVカメラの空間的な関
係が模式的に示されている。
BEST MODE FOR CARRYING OUT THE INVENTION A surface shape reconstructing device relating to a three-dimensional shape input device of the present invention will be described in detail below by taking a plurality of embodiments as examples. [First Embodiment] A first embodiment of the surface shape reconstructing apparatus of the present invention will be described with reference to FIGS. FIG.
FIG. 2 shows a block diagram of the apparatus as the first embodiment.
Shows the spatial relationship between the subject, the rotary stage, and the TV camera.

【0020】(構成1)第1実施形態としての表面形状
再構成装置は次のように構成されている。すなわち図1
が示す如く、TVカメラ1-1と、そのカメラの焦点位置
を制御する焦点位置制御手段1-2と、撮影した画像を格
納する画像メモリ1-3と、画像中の濃度差のある点をそ
の画像の特徴点として検出する特徴点検出手段1-4と、
被写体の周囲を回転する回転ステージ1-5と、そのステ
ージの回転角度を検出し制御する回転制御手段1-6と、
被写体の特徴点に対して焦点が合う位置の情報を用いて
表したマップを生成する距離マップ生成手段1-7と、得
られた距離マップを格納する画像メモリ1-11 と、画像
から得られる特徴点を合成する特徴点合成手段1-8と、
再構成した画像を記憶する3次元像用メモリ1-9と、そ
の記憶された画像を表示出力する表示装置1-10 から構
成されている。
(Structure 1) The surface shape reconstructing device as the first embodiment is structured as follows. That is, FIG.
, The TV camera 1-1, the focus position control means 1-2 that controls the focus position of the camera, the image memory 1-3 that stores the captured image, and the point where there is a density difference in the image. Feature point detecting means 1-4 for detecting the feature points of the image,
A rotation stage 1-5 that rotates around the subject, and rotation control means 1-6 that detects and controls the rotation angle of the stage,
A distance map generating means 1-7 for generating a map represented by using information on a position where the feature point of the subject is in focus, an image memory 1-11 for storing the obtained distance map, and an image memory 1-11. Feature point synthesizing means 1-8 for synthesizing feature points,
It is composed of a three-dimensional image memory 1-9 for storing a reconstructed image and a display device 1-10 for displaying and outputting the stored image.

【0021】また図2に示すように、撮影しようとする
被写体の周囲を回転する例えば円形を成す回転ステージ
1-5があり、この回転ステージ1-5には撮影手段として
のTVカメラ1-1が被写体から一定の間隔を保って固定
されている。またこの回転ステージ1-5には、回転角度
を制御し検出するための回転制御手段1-6が接続されて
いる。回転制御手段1-6は回転角度の検出が終了したこ
とを伝えるための信号を出力するために焦点位置制御装
置1-2に接続されている。またTVカメラ1−1には撮
影した画像を格納するための画像メモリ1−3と、TV
カメラ1-1の焦点位置を制御するための焦点位置制御手
段1-2が接続されている。
Further, as shown in FIG. 2, there is a rotary stage 1-5 which rotates around an object to be photographed, for example, and has a circular shape. The rotary stage 1-5 has a TV camera 1-1 as photographing means. Is fixed at a certain distance from the subject. Further, the rotation stage 1-5 is connected with rotation control means 1-6 for controlling and detecting the rotation angle. The rotation control means 1-6 is connected to the focus position control device 1-2 in order to output a signal for notifying that the detection of the rotation angle is completed. Further, the TV camera 1-1 has an image memory 1-3 for storing captured images, and a TV
A focus position control means 1-2 for controlling the focus position of the camera 1-1 is connected.

【0022】焦点位置制御手段1-2は、焦点位置の値を
撮影された画像と対応付けて格納するために画像メモリ
1-3に接続されている。特徴点検出手段1-4は、画像メ
モリ1-3に接続され、結果を出力するために距離マップ
生成手段1-7に接続されている。距離マップ生成手段1
-7は、画像メモリ1-3と特徴点検出手段1-4とに接続さ
れ、その結果を出力するために画像メモリ1-11 に接続
されている。特徴点合成手段1-8は、回転制御手段1-6
と距離マップが格納されている画像メモリ1-11 とに接
続され、合成した結果を出力するために3次元像用メモ
リ1-9に接続されている。またこの特徴点合成手段1-8
は、合成が終了したことを伝える信号を出力するために
回転制御手段1-6に接続されている。3次元像用メモリ
1-9は前述の合成処理により得られた再構成画像を表示
出力するために表示手段1-10 に接続されている。
The focus position control means 1-2 is connected to the image memory 1-3 for storing the focus position value in association with the photographed image. The feature point detecting means 1-4 is connected to the image memory 1-3, and is connected to the distance map generating means 1-7 for outputting the result. Distance map generating means 1
-7 is connected to the image memory 1-3 and the feature point detecting means 1-4, and is connected to the image memory 1-11 for outputting the result. The feature point composition means 1-8 is the rotation control means 1-6.
Is connected to the image memory 1-11 in which the distance map is stored, and is connected to the three-dimensional image memory 1-9 to output the combined result. Also, this feature point synthesis means 1-8
Is connected to the rotation control means 1-6 to output a signal indicating that the synthesis is completed. The three-dimensional image memory 1-9 is connected to the display means 1-10 for displaying and outputting the reconstructed image obtained by the above-mentioned combining process.

【0023】(作用効果1)続いて本発明の第1実施形
態の作用およびその効果について説明する。図3(a)
〜(c)の各フローチャートは、第1実施形態としての
処理手順を表し、図3(a)は装置の処理手順を表すメ
インルーチン、図3(b), (c)はそれぞれサブルー
チンとしての「画像入力」処理と、「距離マップの生
成」処理の手順を示している。
(Operation and Effect 1) Next, the operation and effect of the first embodiment of the present invention will be described. FIG. 3 (a)
Each of the flowcharts (1) to (c) represents a processing procedure according to the first embodiment, FIG. 3 (a) is a main routine showing the processing procedure of the apparatus, and FIGS. 3 (b) and 3 (c) are subroutines. The procedure of "image input" processing and "distance map generation" processing is shown.

【0024】また、図4(a)〜(e)には本実施例の
装置の再構成の方法を説明し、図4(a)には濃度のプ
ロファイル関数と画像中のコントラストが発生する特徴
点の領域と微分について示され、図4(b)には焦点位
置を走査して得られる画像が各焦点位置と対応づけられ
て格納される画像メモリが示され、図4(c)には濃度
の1次元プロファイルを表す関数が示され、図4(d)
には焦点位置と距離αが表で対応して表わされ、図4
(e)にはその距離αのプロファイルが表現されてい
る。
4 (a) to 4 (e) illustrate the method of reconstructing the apparatus of this embodiment, and FIG. 4 (a) shows the characteristics of the density profile function and the contrast in the image. FIG. 4B shows an image memory in which the image obtained by scanning the focus position is stored in association with each focus position, and FIG. The function representing the one-dimensional profile of concentration is shown in FIG. 4 (d).
In the table, the focal position and the distance α are shown in correspondence with each other.
A profile of the distance α is represented in (e).

【0025】また、図5(a)は3次元像用メモリを概
念的に表しメモリの各要素を3次元空間に対応するよう
に割り当てた図を示し、図5(b)は3次元像用メモリ
と距離マップとの関係を概念的に表し、図5(c)は3
次元像用メモリ内の特徴点と距離マップとの間の距離
(即ち半径d)を概念的に表している。
Further, FIG. 5 (a) conceptually shows a memory for a three-dimensional image and shows a diagram in which each element of the memory is allocated so as to correspond to a three-dimensional space, and FIG. 5 (b) shows a memory for a three-dimensional image. The relationship between the memory and the distance map is conceptually shown in FIG.
The distance (that is, the radius d) between the feature point in the three-dimensional image memory and the distance map is conceptually represented.

【0026】まず、特徴点合成手段1-8は、3次元像を
格納するための3次元像用メモリ1-9を初期化する。こ
の3次元用メモリ1-9は、図5(a)に示す如くメモリ
の要素のそれぞれを3次元空間に対応するように割り当
てたもので、3次元像を格納するためのメモリ手段であ
る。初期化によりこの3次元用メモリ1-9は物体が存在
しないことを表す状態になる。例えばここで物体が無い
状態を“0”(null 又は零) で表すことにすると、初期
化が終わった状態で3次元用メモリ1-9の全ての画素に
は“0”という値が入力される。(以上は図3(a)の
フローチャートのステップS1-1に相当する)。
First, the feature point synthesizing means 1-8 initializes a three-dimensional image memory 1-9 for storing a three-dimensional image. The three-dimensional memory 1-9 is a memory means for storing a three-dimensional image in which elements of the memory are allocated so as to correspond to a three-dimensional space as shown in FIG. 5 (a). By the initialization, the three-dimensional memory 1-9 becomes a state indicating that there is no object. For example, if there is no object here, it is represented by "0" (null or zero), and the value "0" is input to all the pixels of the 3D memory 1-9 after the initialization is completed. It (The above corresponds to step S1-1 in the flowchart of FIG. 3A).

【0027】回転制御手段1-6は、回転ステージ1-5の
回転角度を検出し、結果を特徴点合成手段1-8に送る。
また回転制御手段1-6は、回転角度の検出が終了したこ
とを表す信号を焦点位置制御手段1-2に出力する。本実
施形態の場合にはTVカメラを移動させるのに回転ステ
ージを用いており、図2の模式図に示す如く回転の中心
に対してTVカメラを半径dの距離に保っていることか
ら、移動に伴う位置の変化を得るのには回転角度だけ検
出すればよい。(以上の操作は図3(a)のフローチャ
ートのステップS1-2に相当する)。
The rotation control means 1-6 detects the rotation angle of the rotation stage 1-5 and sends the result to the feature point composition means 1-8.
Further, the rotation control means 1-6 outputs a signal indicating that the detection of the rotation angle is completed to the focus position control means 1-2. In the case of the present embodiment, a rotating stage is used to move the TV camera, and the TV camera is kept at a distance of radius d with respect to the center of rotation as shown in the schematic view of FIG. In order to obtain the change in the position due to, it is sufficient to detect only the rotation angle. (The above operation corresponds to step S1-2 in the flowchart of FIG. 3A).

【0028】図3(a)のフローチャートのステップS
1-3でcallされるサブルーチン「画像入力」処理は、図
3(b)のフローチャートのステップS1-9〜S1-13
に詳しく示してある。すなわち、回転制御手段1-6から
の信号を受けた焦点位置制御手段1-2は焦点位置を初期
化し、焦点位置走査のスタート位置に焦点位置をセット
する。(以上はステップS1-9に相当する)。
Step S in the flowchart of FIG.
The subroutine "image input" processing called in 1-3 is performed in steps S1-9 to S1-13 in the flowchart of FIG.
In detail. That is, the focus position control means 1-2 which receives the signal from the rotation control means 1-6 initializes the focus position and sets the focus position at the start position of the focus position scanning. (The above corresponds to step S1-9).

【0029】TVカメラ1-1は被写体の撮影を行い、得
られた画像を画像メモリ1-3に送る。焦点位置制御手段
1-2は焦点位置を画像メモリ1-3に送る。画像メモリ1
-3では得られた画像と焦点位置を対応づけて格納する。
(以上はステップS1-10 とステップS1-11 に相当す
る)。
The TV camera 1-1 photographs a subject and sends the obtained image to the image memory 1-3. The focus position control means 1-2 sends the focus position to the image memory 1-3. Image memory 1
In -3, the obtained image and the focus position are associated and stored.
(The above corresponds to steps S1-10 and S1-11).

【0030】続いて、焦点位置制御手段1-2が焦点位置
を移動させる。(以上はステップS1-12 に相当す
る)。焦点位置制御手段1-2は焦点位置走査が終了した
かどうかをチェックする。(以上はステップS1-13 に
相当する)。ここで、走査がまだ終了していない場合は
ステップS1-10 に戻り、前記のステップS1-10 〜S
1-13 を繰り返すことにより、画像メモリ1-3に図4
(b)に示すような焦点位置を走査して得られる画像が
それぞれの焦点位置と対応付けられて格納される。
Then, the focus position control means 1-2 moves the focus position. (The above corresponds to step S1-12). The focus position control means 1-2 checks whether or not the focus position scanning is completed. (The above corresponds to step S1-13). If the scanning is not completed yet, the process returns to step S1-10, and steps S1-10 to S1.
By repeating steps 1 to 13, the image memory 1-3 is displayed in FIG.
An image obtained by scanning the focal position as shown in (b) is stored in association with each focal position.

【0031】一方、焦点位置の走査が終了している場合
にはこの画像入力ルーチンを終了してリターンする。特
徴点検出手段1-4は、図4(a)に示すように画像中に
コントラストが発生する点を全て特徴点として検出し、
その画像内での座標を距離マップ生成手段に送る。図4
(a)に示すように濃度の1次元プロファイルを表す関
数をL(x) とすると、特徴点は1次微分dL(x) /dx
が零とならない点を探すことにより検出できる。また、
2次微分d2 L(x) /dx2 を用いる場合には、特徴点
は符号が逆転しているピークに挟まれ値が零となる点を
探すことにより検出できる。
On the other hand, when the scanning of the focal position is completed, this image input routine is completed and the process returns. The characteristic point detecting means 1-4 detects all points where contrast occurs in the image as characteristic points as shown in FIG.
The coordinates in the image are sent to the distance map generating means. FIG.
As shown in (a), letting L (x) be a function that represents a one-dimensional profile of concentration, the feature points are first-order differential dL (x) / dx
It can be detected by searching for a point where is not zero. Also,
When the second derivative d 2 L (x) / dx 2 is used, the feature point can be detected by searching for a point where the value becomes zero between the peaks whose signs are reversed.

【0032】なお、ここでは説明を簡単にするために1
次元プロファイルを対象として説明したが、2次元画像
の場合には以上で述べた1次元プロファイルの処理を、
直交する2方向に対して行えばよい。(以上は図3
(a)のフローチャートのステップS1-4に相当す
る)。
Here, in order to simplify the description, 1
Although the description has been made for the three-dimensional profile, in the case of a two-dimensional image, the processing of the one-dimensional profile described above is performed.
It may be performed in two orthogonal directions. (The above is Fig. 3
This corresponds to step S1-4 in the flowchart of (a)).

【0033】図3(a)のフローチャートのステップS
1-5に示した「距離マップの生成」処理サブルーチンに
ついては、図3(c)のフローチャートのステップS1
−14〜S1−16 に詳しく示してある。すなわち、
距離マップ生成手段1-7はいわゆる「距離マップ」を格
納するための画像メモリ1-11 を初期化する。この初期
化によって画像メモリ1-11 は距離がまだ得られていな
いことを表す初期状態になる。例えば、距離が得られて
いない状態を“0”で表すことにすると、初期化が終わ
った状態で画像メモリ1-11 の全ての画素には“0”と
いう値が入力されることになる。(以上はステップS1
-14 に相当する)。
Step S in the flowchart of FIG.
Regarding the "distance map generation" processing subroutine shown in 1-5, step S1 of the flowchart of FIG.
-14 to S1-16 are shown in detail. That is,
The distance map generating means 1-7 initializes the image memory 1-11 for storing a so-called "distance map". By this initialization, the image memory 1-11 is in the initial state indicating that the distance has not been obtained yet. For example, if the state in which the distance is not obtained is represented by "0", the value "0" is input to all the pixels of the image memory 1-11 after the initialization is completed. (The above is step S1
-14 equivalent).

【0034】距離マップ生成手段1-7は、画像メモリに
格納されている図4(b)に示す画像中の、特徴点検出
手段1-4から得られる特徴点の座標周辺の小領域に対し
て「フォーカス法」を適用する。このフォーカス法は以
下のような手順で適用される。詳しくは、特徴点検出手
段1- 4から得られる特徴点の座標が図4(c)に示す
ようにx1 とすると、コントラストをLfn(x) の1次微
分で表す場合には、x1 においてコントラストを最大に
する焦点位置を求める。すなわち、次式を与えるfn を
求めることによりフォーカス法が行われる。
The distance map generating means 1-7 is for the small area around the coordinates of the feature points obtained from the feature point detecting means 1-4 in the image shown in FIG. 4B stored in the image memory. And apply the “focus method”. This focus method is applied in the following procedure. Specifically, if the coordinates of the feature points obtained from the feature point detecting means 1-4 are x1 as shown in FIG. 4 (c), when the contrast is expressed by the first derivative of Lfn (x), the contrast at x1 Find the focus position that maximizes. That is, the focus method is performed by obtaining fn that gives the following equation.

【0035】[0035]

【数1】 (Equation 1)

【0036】ここで、コントラストを最大にする焦点位
置がfn だったと仮定すると、図4(d)に示す焦点位
置と距離との関係により、座標x1 における距離はαと
求めることができる。なお、図4(d)に示す焦点位置
と距離との関係は使用しているTVカメラの光学結像系
に固有のもので予め距離マップ生成手段1-7に格納され
ている。距離マップ生成手段1-7は、図4(e)に示す
ように得られた距離を距離マップに格納する。 (以上
が図3(c)のフローチャートのステップS1-15 に相
当する)。
Assuming that the focus position at which the contrast is maximized is fn, the distance at the coordinate x1 can be obtained as α from the relationship between the focus position and the distance shown in FIG. 4 (d). The relationship between the focal position and the distance shown in FIG. 4 (d) is specific to the optical image forming system of the TV camera used and is stored in advance in the distance map generating means 1-7. The distance map generating means 1-7 stores the obtained distance in the distance map as shown in FIG. (The above corresponds to step S1-15 in the flowchart of FIG. 3C).

【0037】距離マップ生成手段1-7は、全ての特徴点
に対して処理を終えたかどうかチェックし、終えていな
い場合にはステップS1-15 に戻り、一方、終えている
場合には「距離マップの生成」処理ルーチンを終了して
リターンする。
The distance map generating means 1-7 checks whether or not the processing has been completed for all the characteristic points, and if not completed, the process returns to step S1-15, while if completed, the "distance map" is calculated. The "map generation" processing routine is terminated and the process returns.

【0038】特徴点合成手段1-8は、画像メモリ1-11
に格納されている距離マップと、回転制御手段1-6によ
り得られた回転角度を用いて、物体が無い状態を表す
“0”以外の値で、例えば“1”を特徴点として3次元
像用メモリ1-9上にプロットする。なおこの特徴点のプ
ロットは図5(b)に示す幾何的な関係で行われる。す
なわち、合成領域の中心に対して回転制御手段1-6によ
り得られた回転角度で半径dの距離に距離マップを想定
し、想定した位置から特徴点ごとに距離マップの値に従
い3次元像用メモリ1-9上に逆投影を行う。但し、図5
(b)は説明の簡略化のために回転ステージの回転平面
と平行な2次元平面だけを表示している。
The feature point synthesizing means 1-8 is the image memory 1-11.
By using the distance map stored in and the rotation angle obtained by the rotation control means 1-6, a three-dimensional image with a value other than "0" representing a state in which there is no object, for example, "1" as a feature point. Plot it on memory 1-9. It should be noted that the plotting of the characteristic points is performed in the geometrical relationship shown in FIG. That is, a distance map is assumed at a distance of radius d with the rotation angle obtained by the rotation control means 1-6 with respect to the center of the combined area, and for a three-dimensional image according to the value of the distance map for each feature point from the assumed position. Backproject on memory 1-9. However, FIG.
For simplification of description, (b) shows only a two-dimensional plane parallel to the rotation plane of the rotation stage.

【0039】3次元的な「逆投影」の幾何的関係は図5
(b)に示した2次元の関係を積み重ねればよい。その
例として、一方向の逆投影が行われる様子を図5(c)
に例示する。特徴点合成手段1-8は、特徴点の合成が終
了したことを表す信号を回転制御手段1-6に出力する。
(以上は図3(a)のフローチャートのステップS1-6
に相当する)。
The geometrical relationship of the three-dimensional "back projection" is shown in FIG.
The two-dimensional relationship shown in (b) may be stacked. As an example, FIG. 5C shows a state in which back projection in one direction is performed.
An example is shown below. The characteristic point synthesizing means 1-8 outputs a signal indicating that the synthesizing of the characteristic points is completed to the rotation control means 1-6.
(The above is step S1-6 in the flowchart of FIG.
Equivalent).

【0040】回転制御手段1-6は、回転ステージに対し
て回転操作を行い移動させ、被写体と回転ステージに固
定されているTVカメラの相対的な位置関係を新たなも
のにする。(以上は図3(a)のフローチャートのステ
ップS1-7に相当する)。
The rotation control means 1-6 performs a rotation operation on the rotary stage to move the rotary stage, and renews the relative positional relationship between the subject and the TV camera fixed to the rotary stage. (The above corresponds to step S1-7 in the flowchart of FIG. 3A).

【0041】回転制御手段1-6は、回転ステージが所定
の回転を繰り返したかどうかをチェックし、まだ終了し
ていない場合にはステップS1-2に戻り、所定の回転が
終了している場合には全ての処理を終了する。(以上は
フローチャートのステップS1-8に相当する)。
The rotation control means 1-6 checks whether or not the rotation stage repeats a predetermined rotation, and if it has not finished yet, returns to step S1-2, and if the predetermined rotation has finished, Terminates all processing. (The above corresponds to step S1-8 of the flowchart).

【0042】以上の結果、この時点で3次元像用メモリ
には、被写体の3次元的な表面構造が得られているの
で、3次元構造に対して適当な視点を設定するなどして
2次元画像への変換を行うことにより表示手段1-10 を
用いて滑らかな曲線の表面形状でも正しく表示出力する
ことができる。
As a result, since the three-dimensional image structure of the object is obtained in the three-dimensional image memory at this point, an appropriate viewpoint is set for the three-dimensional structure to make the two-dimensional image. By converting the image into an image, the display means 1-10 can be used to correctly display and output even a smooth curved surface shape.

【0043】(変形例1)なお、焦点位置を制御する機
構が備えられた撮影手段は、本実施形態中のTVカメラ
と焦点位置制御手段が該当するが、このTVカメラの代
わりに電子スチルカメラなどでもよい。また、被写体に
対する撮影手段の相対位置を移動させる移動手段は回転
ステージが該当するが、同等な作用をなす手段でもよ
い。
(Modification 1) The photographing means provided with a mechanism for controlling the focus position corresponds to the TV camera and the focus position control means in this embodiment, but an electronic still camera is used instead of this TV camera. And so on. Further, the moving means for moving the relative position of the photographing means with respect to the subject corresponds to the rotary stage, but means for performing the same action may be used.

【0044】また、画像を格納するためのメモリ手段
は、本実施形態中では画像メモリと3次元像用メモリが
該当するが、同等の作用をなす記憶または記録手段でも
よい。更に、被写体を撮影した画像中に発生する濃度差
のある点を特徴点として検出する検出手段は本実施形態
中の特徴点検出手段に該当するが、濃度差以外を特徴点
とするものであってもよい。
Further, the memory means for storing the image corresponds to the image memory and the memory for the three-dimensional image in the present embodiment, but it may be a storage or recording means having an equivalent operation. Further, the detection means for detecting a point having a density difference generated in an image of a subject as a feature point corresponds to the feature point detection means in the present embodiment, but a feature point other than the density difference is used. May be.

【0045】同様に、被写体の特徴点に対してフォーカ
ス法により奥行き情報を求め距離マップを作成するマッ
プ作成手段は本実施形態中の距離マップ生成手段に該当
し、撮影手段の撮影位置が変更されるに従い撮影手段と
被写体の相対的な位置関係を求める手段は本実施形態中
の回転制御手段に該当し、更に。撮影手段と被写体の位
置関係と距離マップに従って複数の画像から得られる特
徴点を合成する手段は、本実施形態中の特徴点合成手段
に該当するが、必ずしもそれに限定されるものではな
く、同等な作用効果を得られるものであればよい。
Similarly, the map creating means for obtaining the depth information by the focus method for the feature points of the object and creating the distance map corresponds to the distance map generating means in the present embodiment, and the photographing position of the photographing means is changed. According to the above, the means for obtaining the relative positional relationship between the photographing means and the subject corresponds to the rotation control means in this embodiment, and further. The means for synthesizing the feature points obtained from a plurality of images in accordance with the positional relationship between the photographing means and the subject and the distance map corresponds to the feature point synthesizing means in the present embodiment, but is not necessarily limited thereto and equivalent What is necessary is that the action and effect can be obtained.

【0046】[第2実施形態]次に、図6〜図8を参照
しながら本発明の表面形状再構成装置に係わる第2の実
施形態を説明する。なお、この第2実施形態は、前説の
第1実施形態の特徴点合成手段1-8を変更したものであ
る。
[Second Embodiment] Next, a second embodiment of the surface shape reconstructing apparatus of the present invention will be described with reference to FIGS. The second embodiment is a modification of the feature point synthesizing means 1-8 of the first embodiment described above.

【0047】図6には第2実施形態としての装置の構成
図が示され、図7には第2実施形態の装置の処理手順を
フローチャートで表し、図8には変更された特徴点合成
手段の動作を説明する図が示されている。
FIG. 6 shows a block diagram of an apparatus as a second embodiment, FIG. 7 shows a processing procedure of the apparatus of the second embodiment in a flow chart, and FIG. 8 shows a modified feature point synthesizing means. The figure explaining operation | movement of is shown.

【0048】(構成2)第2の実施形態の構成について
前説の第1実施形態と対比させて説明すると、この第2
実施形態の各手段の構成および接続関係については、前
説の第1実施形態とほぼ同様である。ただし、第1実施
形態と異なるのは、図6に示す如くの特徴点合成手段2
-2と3次元像用メモリとの接続関係にあり、本実施形態
では両者の間の接続は双方向で入出力可能となっている
点が前説の第1実施形態と異なっている。従って、関連
する手段の動作および作用にも次のような特徴を有す
る。
(Structure 2) The structure of the second embodiment will be described in comparison with the first embodiment described above.
The configuration and connection relationship of each means of the embodiment are almost the same as those of the first embodiment described above. However, the difference from the first embodiment is that the feature point synthesizing means 2 as shown in FIG.
-2 and the three-dimensional image memory are connected, and in this embodiment, the connection between the two is different from that of the first embodiment described above in that bidirectional input / output is possible. Therefore, the operations and actions of the related means also have the following features.

【0049】(作用効果2)まず第2実施形態としての
装置の動作および作用について説明する。参照する図7
のフローチャートのステップS1-1〜S1-5は、前説の
第1実施形態と同様である。一方、第2実施形態では、
特徴点合成手段に関する記述すなわち、第1実施形態の
ステップS1-6(図3(a))が変更され、その代わり
にステップS2-1になっている。
(Operation and Effect 2) First, the operation and operation of the apparatus according to the second embodiment will be described. FIG. 7 to be referred to
Steps S1-1 to S1-5 of the flow chart are the same as those in the first embodiment described above. On the other hand, in the second embodiment,
The description about the feature point synthesizing means, that is, step S1-6 (FIG. 3A) of the first embodiment is changed, and step S2-1 is used instead.

【0050】特徴点合成手段2-2は、画像メモリ1-11
に格納されている距離マップと回転制御手段2-1により
得られた回転角度を用いて、特徴点の3次元像用メモリ
1-9上における画素位置を求める。特徴点合成手段2-2
は、特徴点に相当する画素位置値を3次元像用メモリ1
-9から呼び出し、その画素が特徴点になった回数をカウ
ントするために“1”を加算し3次元像用メモリ1-9に
格納する。特徴点になった画素に対して行われる“1”
の加算は、図8(a)に示す幾何的な関係で行われる。
The feature point synthesizing means 2-2 is the image memory 1-11.
The pixel position on the three-dimensional image memory 1-9 of the feature point is obtained by using the distance map stored in the table and the rotation angle obtained by the rotation control means 2-1. Feature point synthesis means 2-2
Represents the pixel position value corresponding to the feature point in the three-dimensional image memory 1
-9 is called, "1" is added to count the number of times the pixel becomes a feature point, and the result is stored in the memory 1-9 for three-dimensional image. "1" performed for the pixel that became the feature point
Is added in the geometric relationship shown in FIG.

【0051】すなわち、合成領域の中心に対して回転制
御手段1-6により得られた回転角度で半径dの距離に距
離マップを想定し、想定した位置から特徴点ごとに距離
マップの値に従い3次元像用メモリ1-9上に逆投影を行
う。このとき、特徴点が存在すると予想される範囲に対
応する長さをもつ直線を逆投影を行う方向と平行に、距
離マップから得られる特徴点の位置を中心にして想定
し、この直線が通る画素の全てに対して上記“1”の加
算を行う。ただし、図8(a)は説明の簡略化のために
回転ステージの回転平面と平行な2次元平面だけを表示
している。3次元的な逆投影の幾何的関係は図8(a)
に示した2次元の関係を積み重ねればよい。特徴点合成
手段2-2は、特徴点の合成が終了したことを表す信号を
回転制御手段2-1に出力する。(以上が図7のフローチ
ャートのステップS2-1に相当する)。
That is, a distance map is assumed for the distance of radius d with the rotation angle obtained by the rotation control means 1-6 with respect to the center of the composite area, and the distance map is 3 for each feature point from the assumed position. Back projection is performed on the 1D image memory 1-9. At this time, it is assumed that a straight line having a length corresponding to the range where the feature points are expected to exist is parallel to the direction in which back projection is performed, centered on the position of the feature points obtained from the distance map, and this straight line passes. The above "1" is added to all the pixels. However, FIG. 8A shows only a two-dimensional plane parallel to the rotation plane of the rotation stage for simplification of description. The geometrical relationship of the three-dimensional backprojection is shown in FIG.
The two-dimensional relationship shown in the above may be accumulated. The characteristic point synthesizing means 2-2 outputs a signal indicating that the synthesizing of the characteristic points is completed to the rotation control means 2-1. (The above corresponds to step S2-1 in the flowchart of FIG. 7).

【0052】回転制御手段2-1は、回転ステージに対し
て回転操作を行い、被写体と回転ステージに固定されて
いるTVカメラの相対的な位置関係を新たなものにす
る。(以上は図7のフローチャートのステップS1-7に
相当し、前説の第1実施形態と同様である)。
The rotation control means 2-1 performs a rotation operation on the rotary stage to renew the relative positional relationship between the subject and the TV camera fixed to the rotary stage. (The above corresponds to step S1-7 in the flowchart of FIG. 7 and is similar to the first embodiment described above).

【0053】回転制御手段2-1は、回転ステージが所定
の回転を繰り返したかどうかチェックし、終了していな
い場合にはフロチャートのステップS1-2に戻る。また
所定の回転が終了している場合には、その旨を表す信号
を特徴点合成手段2-2に出力する。(以上が図7のフロ
ーチャートのステップS2-2に相当する)。
The rotation control means 2-1 checks whether or not the rotation stage repeats a predetermined rotation, and if not completed, returns to step S1-2 of the flowchart. When the predetermined rotation is completed, a signal indicating that is output to the feature point synthesizing means 2-2. (The above corresponds to step S2-2 in the flowchart of FIG. 7).

【0054】特徴点合成手段2-2は、3次元像用メモリ
1-9上にあるデータを呼び出し、図8(b)に示す閾値
処理を行い、閾値以上の数の直線の交点を検出し、結果
を3次元像用メモリ1-9に格納する。(以上は図7のフ
ローチャートのステップS2-3に相当する)。
The feature point synthesizing means 2-2 calls the data on the three-dimensional image memory 1-9, performs the threshold processing shown in FIG. 8 (b), and detects the intersections of straight lines equal to or more than the threshold. , The result is stored in the memory 1-9 for three-dimensional image. (The above corresponds to step S2-3 in the flowchart of FIG. 7).

【0055】以上の結果、この時点で3次元像用メモリ
には、被写体の3次元的な表面構造が得られているの
で、3次元構造に対して適当な視点を設定するなどの処
理を施して2次元画像への変換を行うことにより、表示
手段1-10 を用いて滑らかな曲線をもつ立体でもその表
面形状を正しく表示出力することができる。
As a result, since the three-dimensional image structure of the object is obtained in the three-dimensional image memory at this point, processing such as setting an appropriate viewpoint for the three-dimensional structure is performed. By converting the image into a two-dimensional image by using the display means 1-10, the surface shape of a solid having a smooth curve can be correctly displayed and output.

【0056】[第3実施形態]続いて、図9〜図11を
用いて本発明の表面形状再構成装置に係わる第3の実施
形態を説明する。
[Third Embodiment] Next, a third embodiment of the surface shape reconstructing apparatus of the present invention will be described with reference to FIGS.

【0057】図9には第3実施形態としての装置の構成
図が示され、図10には第3実施形態の処理手順がフロ
ーチャートで表されている。また、図11には特徴点合
成手段の動作についての説明図が示されている。
FIG. 9 shows a block diagram of an apparatus as a third embodiment, and FIG. 10 shows a processing procedure of the third embodiment in a flow chart. Further, FIG. 11 shows an explanatory view of the operation of the feature point synthesizing means.

【0058】(構成3)第3実施形態の装置の構成につ
いて前説の実施形態と対比させて説明すると、図9に例
示された本第3実施形態は、前説の第2実施形態の特徴
点合成手段2-2(図6)を特徴点合成手段3-1に変更し
た点において構成的に異なっている。ただし、各構成要
素の接続に関しては前説の第2実施形態と同様である。
従って、関連する手段の動作および作用にも次のような
特徴を有する。
(Structure 3) The structure of the apparatus according to the third embodiment will be described in comparison with the embodiment described above. In the third embodiment illustrated in FIG. 9, the feature point synthesis of the second embodiment described above is performed. The configuration is different in that the means 2-2 (FIG. 6) is changed to the feature point composition means 3-1. However, the connection of each component is the same as in the second embodiment described above.
Therefore, the operations and actions of the related means also have the following features.

【0059】(作用効果3)まず、本第3実施形態の装
置の動作および作用について説明する。参照する図10
のフローチャートのステップS1-1〜S1-5は前説の第
1実施形態と同様である。一方、特徴点合成手段に関す
る記述すなわち、前説の第2実施形態のステップS2-1
(図7)が本第3実施形態ではステップS3-1に変更さ
れている点が動作手順として異なっている。
(Operation and Effect 3) First, the operation and operation of the device of the third embodiment will be described. See FIG. 10
Steps S1-1 to S1-5 of the flow chart are the same as those in the first embodiment described above. On the other hand, the description regarding the feature point synthesizing means, that is, step S2-1 in the second embodiment described above.
The operation procedure is different in that (FIG. 7) is changed to step S3-1 in the third embodiment.

【0060】特徴点合成手段3-1は、画像メモリ1-11
に格納されている距離マップと回転制御手段1-6により
得られた回転角度を用いて、特徴点の3次元像用メモリ
1−9上における画素位置を求める。特徴点合成手段2
−2は、特徴点に相当する画素位置の濃度値を3次元像
用メモリ1-9から呼び出し、特徴点に与えられる濃度値
を加算し3次元像用メモリ1-9に格納する。
The feature point synthesizing means 3-1 includes the image memory 1-11.
The pixel position on the three-dimensional image memory 1-9 of the feature point is obtained by using the distance map stored in 1) and the rotation angle obtained by the rotation control means 1-6. Feature point synthesis means 2
In step -2, the density value at the pixel position corresponding to the feature point is called from the three-dimensional image memory 1-9, the density values given to the feature points are added, and the result is stored in the three-dimensional image memory 1-9.

【0061】なお、上述の特徴点に与えられた濃度値の
加算は図11(a)に示された幾何的な関係で行われ
る。すなわち、合成領域の中心に対して回転制御手段2
-1により得られた回転角度で半径dの距離に距離マップ
を想定し、想定した位置から特徴点ごとに距離マップの
値に従い3次元像用メモリ1-9上に逆投影を行う。この
特徴点が存在すると予想される範囲に対応する「長さ」
をもつ直線を逆投影を行う方向と平行に、距離マップか
ら得られる特徴点の位置を中心にして想定する。直線上
の「濃度の分布」は、距離マップから得られる特徴点で
最も大きく、特徴点からの距離が離れるにしたがって低
くなるようにする。
The addition of the density values given to the above-mentioned characteristic points is performed in the geometrical relationship shown in FIG. 11 (a). That is, the rotation control means 2 with respect to the center of the composite area
A distance map is assumed for the distance of radius d with the rotation angle obtained by -1, and back projection is performed from the assumed position on the three-dimensional image memory 1-9 according to the value of the distance map for each feature point. "Length" corresponding to the range in which this feature point is expected to exist
It is assumed that a straight line having is parallel to the direction in which back projection is performed, centered on the position of the feature point obtained from the distance map. The "density distribution" on the straight line is the largest at the characteristic points obtained from the distance map, and becomes lower as the distance from the characteristic points increases.

【0062】この直線が通る画素の全てに対して濃度値
の加算を行う。ただし、図11(a)は説明の簡略化の
ために回転ステージの回転平面と平行な2次元平面だけ
を表示している。よって、3次元的な逆投影の幾何的関
係は図11(a)に示した2次元の関係を積み重ねて行
えばよい。特徴点合成手段3-1は、特徴点の合成が終了
したことを表す信号を回転制御手段2-1に出力する。
(以上が図10のフローチャートのステップS3-1に相
当する)。
The density values are added to all the pixels passing through this straight line. However, FIG. 11A shows only a two-dimensional plane parallel to the rotation plane of the rotation stage for simplification of description. Therefore, the geometrical relationship of the three-dimensional back projection may be performed by stacking the two-dimensional relationship shown in FIG. The characteristic point synthesizing means 3-1 outputs a signal indicating that the synthesizing of the characteristic points is completed to the rotation control means 2-1.
(The above corresponds to step S3-1 in the flowchart of FIG. 10).

【0063】回転制御手段2-1は、回転ステージに対し
て回転操作を行い、被写体と回転ステージに固定されて
いるTVカメラの相対的な位置関係を新たなものにす
る。(以上は図10のフローチャートのステップS1-7
に相当し、前説の第1実施形態と同様である)。
The rotation control means 2-1 performs a rotation operation on the rotary stage to renew the relative positional relationship between the subject and the TV camera fixed to the rotary stage. (The above is step S1-7 in the flowchart of FIG.
And is similar to the first embodiment described above).

【0064】回転制御手段2-1は、回転ステージが所定
の回転を繰り返したかどうかをチェックし、もしまだ終
了していない場合には、図10のフローチャートのステ
ップS1-2に戻る。一方、所定の回転が終了している場
合には、その旨を表す信号を特徴点合成手段3-1に出力
する。(以上が図10のフローチャートステップS2-2
に相当し、前説の第2実施形態と同様である)。
The rotation control means 2-1 checks whether or not the rotation stage repeats a predetermined rotation, and if it has not finished yet, it returns to step S1-2 in the flowchart of FIG. On the other hand, when the predetermined rotation is completed, a signal indicating that is output to the feature point synthesizing means 3-1. (The above is the step S2-2 in the flowchart of FIG.
And is similar to the second embodiment described above).

【0065】特徴点合成手段3-1は、3次元像用メモリ
1-9上にあるデータを呼び出し、図11(b)に示す
「閾値処理」を行い、所定の閾値以上の濃度値を検出
し、その検出結果を3次元像用メモリ1-9に格納する。
(以上が図10のフローチャートのステップS2-3に相
当する)。
The feature point synthesizing means 3-1 calls the data stored in the three-dimensional image memory 1-9 and performs the "threshold processing" shown in FIG. 11 (b) to detect the density value above a predetermined threshold value. Then, the detection result is stored in the three-dimensional image memory 1-9.
(The above corresponds to step S2-3 in the flowchart of FIG. 10).

【0066】以上の結果、この時点で3次元像用メモリ
には被写体の3次元的な表面構造が得られているので、
その3次元構造に対して適当な視点を設定する処理など
を施して2次元画像への変換を行うことにより、表示手
段1-10 を用いて例えば滑らかな曲線の表面形状をもつ
物体でも正しく表示出力することができる。
As a result, the three-dimensional image structure of the object is obtained in the three-dimensional image memory at this point.
By performing a process for setting an appropriate viewpoint on the three-dimensional structure and converting it into a two-dimensional image, the display means 1-10 can be used to correctly display, for example, an object having a smooth curved surface shape. Can be output.

【0067】[第4実施形態]図12〜図14を用いて
本発明の装置に係わる第4の実施形態を説明する。図1
2には第4実施形態としての装置の構成図が示され、図
13には第4実施形態の装置の処理手順をフローチャー
トで表されている。また、図14は変更された特徴点合
成手段の動作を説明している。
[Fourth Embodiment] A fourth embodiment of the apparatus of the present invention will be described with reference to FIGS. FIG.
2 shows a configuration diagram of an apparatus according to the fourth embodiment, and FIG. 13 shows a processing procedure of the apparatus according to the fourth embodiment in a flow chart. Further, FIG. 14 explains the operation of the changed feature point synthesizing means.

【0068】(構成4)第4実施形態としての装置の構
成について前説の実施形態と対比させて説明する。図1
2に例示するこの第4実施形態では、前説の図6が示す
第2実施形態のTVカメラ1-1、距離マップ生成手段1
-7、特徴点合成手段2-2をそれぞれ、TVカメラ4-1、
距離マップ生成手段4-2、特徴点合成手段4-3に変更し
た点が構成的に異なっている。
(Structure 4) The structure of the apparatus as the fourth embodiment will be described in comparison with the above-described embodiment. FIG.
In the fourth embodiment illustrated in FIG. 2, the TV camera 1-1 and the distance map generating means 1 of the second embodiment shown in FIG.
-7, feature point synthesizing means 2-2, TV camera 4-1,
The distance map generating means 4-2 and the feature point synthesizing means 4-3 are structurally different.

【0069】また、当第4実施形態の装置を構成する各
手段の接続関係については、前説の第2実施形態とほぼ
同様であるが、ただし第2実施形態と異なるのは、前説
の第2実施形態の接続関係に加えて、TVカメラ4-1と
距離マップ生成手段4-2との間、およびTVカメラ4-1
と特徴点合成手段4-3との間がそれぞれ接続されている
ことにある。詳しくは、このTVカメラ4-1から距離マ
ップ生成手段4-2には、当該TVカメラ4-1の光学結像
系に固有の焦点位置と距離との関係データが直接供給で
きるように構成されていることが異なっている。また、
このTVカメラ4-1から特徴点合成手段4-3には、当該
TVカメラ4-1の光学結像系の焦点深度値に関するデー
タが直接供給できるように構成されていることが前説の
実施形態と構成的に異なっている。従って、関連する各
手段の動作および作用には次のような特徴を有する。
The connection relationship of each means constituting the device of the fourth embodiment is almost the same as that of the second embodiment described above, except that the second embodiment differs from the second embodiment described above. In addition to the connection relationship of the embodiment, between the TV camera 4-1 and the distance map generating means 4-2, and the TV camera 4-1.
And the feature point synthesizing means 4-3 are respectively connected. More specifically, the TV camera 4-1 is configured so that the distance map generating means 4-2 can directly supply the relationship data between the focal position and the distance peculiar to the optical image forming system of the TV camera 4-1. That is different. Also,
It is configured that the data relating to the depth of focus value of the optical image forming system of the TV camera 4-1 can be directly supplied from the TV camera 4-1 to the feature point synthesizing means 4-3. Is structurally different from. Therefore, the operation and action of each related means have the following features.

【0070】(作用効果4)第4実施形態の装置の動作
および作用について説明する。参照する、図13(a)
に示したフローチャートのステップS1-1〜S1-4は前
説の第1実施形態と同様である。一方、前説の第2実施
形態のステップS2-1(図7)がステップS4-2に変更
されている点が処理手順として異なっている。
(Operation and Effect 4) The operation and operation of the apparatus of the fourth embodiment will be described. See FIG. 13 (a).
Steps S1-1 to S1-4 of the flowchart shown in FIG. 6 are the same as those in the first embodiment described above. On the other hand, the processing procedure is different in that step S2-1 (FIG. 7) of the second embodiment described above is changed to step S4-2.

【0071】図13(a)のフローチャートのステップ
S4-1に示した「距離マップの生成」処理は、図13
(b)のフローチャートに示す各ステップS1-14 ,S
4-3およびS1-16 にサブルーチンとして詳しく手順が
示されている。
The "distance map generation" process shown in step S4-1 of the flowchart of FIG.
Steps S1-14 and S shown in the flowchart of (b)
The detailed procedure is shown as a subroutine in 4-3 and S1-16.

【0072】つまり、距離マップ生成手段4-2は最初
に、距離マップを格納するための画像メモリ1-11 を初
期化する。この初期化によって画像メモリ1-11 は距離
が得られていないことを表す状態になる。例えば、距離
がまだ得られていない状態を“0”で表すとすると、初
期化が終わった状態で画像メモリ1-11 の全ての画素に
はすべて“0”という値が入力されることになる。(以
上が図13(b)のサブルーチンのステップS1-14 に
相当する)。
That is, the distance map generating means 4-2 first initializes the image memory 1-11 for storing the distance map. By this initialization, the image memory 1-11 becomes a state indicating that the distance is not obtained. For example, if the state in which the distance has not been obtained is represented by "0", all the pixels in the image memory 1-11 are input with the value "0" after the initialization is completed. . (The above corresponds to step S1-14 of the subroutine of FIG. 13B).

【0073】距離マップ生成手段4-2は、画像メモリに
格納されている図4(b)に示す画像中の、特徴点検出
手段1-4から得られる特徴点の座標周辺の所定の小領域
に対して「フォーカス法」を適用する。フォーカス法は
以下の手順で行われる。詳しくは、特徴点検出手段1-4
から得られる特徴点の座標が図4(c)に示すようにx
1 とし、コントラストをLfn(x) の1次微分で表現する
場合、このx1 においてコントラストを最大にする焦点
位置を求める。すなわち、次式を与えるfn を求めるこ
とによりフォーカス法が行われる。
The distance map generating means 4-2 is a predetermined small area around the coordinates of the feature points obtained from the feature point detecting means 1-4 in the image shown in FIG. 4B stored in the image memory. The "focus method" is applied to. The focus method is performed by the following procedure. For details, feature point detection means 1-4
The coordinates of the feature points obtained from x are as shown in FIG. 4 (c).
When the contrast is set to 1 and the contrast is expressed by the first derivative of Lfn (x), the focus position that maximizes the contrast at this x1 is obtained. That is, the focus method is performed by obtaining fn that gives the following equation.

【0074】[0074]

【数2】 (Equation 2)

【0075】ここで、コントラストを最大にする焦点位
置がfn だったと仮定すると、図4(d)に示す「焦点
位置と距離との関係」により、座標x1 における距離α
を求めることができる。
Assuming that the focus position that maximizes the contrast is fn, the distance α at the coordinate x1 is determined by the "relationship between the focus position and the distance" shown in FIG. 4 (d).
Can be requested.

【0076】なお、図4(d)に示す「焦点位置と距離
との関係」に関するデータは使用しているTVカメラの
光学結像系に固有の値であり、予めTVカメラ4-1内に
格納されており、ステップS1-14 に示された距離マッ
プの初期化の以前にTVカメラ4-1から距離マップ生成
手段4-2に送出される。この距離マップ生成手段4-2
は、図4(e)に示すように、得られた距離αを距離マ
ップに格納する。(以上が図13(b)のサブルーチン
のステップS4-3に相当する)。
The data relating to the "relationship between focal position and distance" shown in FIG. 4 (d) is a value peculiar to the optical image forming system of the TV camera used, and is stored in advance in the TV camera 4-1. It is stored and sent from the TV camera 4-1 to the distance map generation means 4-2 before the initialization of the distance map shown in step S1-14. This distance map generation means 4-2
Stores the obtained distance α in the distance map as shown in FIG. (The above corresponds to step S4-3 of the subroutine of FIG. 13B).

【0077】次に、距離マップ生成手段4-2は、全ての
特徴点に対しての処理を終えたかどうかをチェックし、
もし処理をまだ終えていない場合には、ステップS4-3
に戻る。一方、既にその処理を終えている場合には、一
連の距離マップの生成ルーチンを終了してリターンす
る。
Next, the distance map generating means 4-2 checks whether or not the processing for all feature points has been completed,
If the processing has not been completed, step S4-3
Return to On the other hand, if the processing has already been completed, the series of distance map generation routines are ended and the process returns.

【0078】特徴点合成手段4-3は、画像メモリ1-11
に格納されている距離マップと回転制御手段2-1により
得られた回転角度を用いて、特徴点の3次元像用メモリ
1-9上における画素位置を求める。
The feature point synthesizing means 4-3 comprises the image memory 1-11.
The pixel position on the three-dimensional image memory 1-9 of the feature point is obtained by using the distance map stored in the table and the rotation angle obtained by the rotation control means 2-1.

【0079】また特徴点合成手段4-3は、特徴点に相当
する画素位置の値を3次元像用メモリ1-9から呼び出
し、その画素が特徴点になった回数をカウントするため
に“1”を加算し3次元像用メモリ1-9に格納する。
Further, the feature point synthesizing means 4-3 calls the value of the pixel position corresponding to the feature point from the three-dimensional image memory 1-9, and in order to count the number of times the pixel becomes the feature point, "1" is set. "" Is added and stored in the memory 1-9 for three-dimensional image.

【0080】このようにして特徴点になった画素に行わ
れる“1”の加算は、図14(a)に示す幾何的な関係
で行われる。すなわち、合成領域の中心に対して回転制
御手段2-1により得られた回転角度で半径dの距離に距
離マップを想定し、その想定した位置から特徴点ごとに
距離マップの値に従って3次元像用メモリ1-9上に「逆
投影」を行う。この際、TVカメラ4-1の光学結像系に
固有の焦点深度と等しい長さをもつ直線を逆投影を行う
方向と平行に、距離マップから得られる特徴点の位置を
中心にして想定し、この直線が通る画素の全てに対して
上記“1”の加算を行う。なお、焦点深度の値について
は予めTVカメラ4-1に格納されており、図13(a)
のフローチャートのステップS4-2の最初の段階で、T
Vカメラ4-1から特徴点合成手段4-3に直接送られる。
The addition of "1" to the pixel which becomes the characteristic point in this way is performed in the geometrical relation shown in FIG. That is, a distance map is assumed at a distance of radius d at the rotation angle obtained by the rotation control means 2-1 with respect to the center of the combined area, and a three-dimensional image is obtained from the assumed position for each feature point according to the value of the distance map. "Backprojection" is performed on the memory 1-9. At this time, it is assumed that a straight line having a length equal to the depth of focus peculiar to the optical imaging system of the TV camera 4-1 is parallel to the direction in which backprojection is performed, with the position of the feature point obtained from the distance map as the center. , "1" is added to all the pixels passing through this straight line. The depth of focus value is stored in advance in the TV camera 4-1 and is shown in FIG.
In the first stage of step S4-2 in the flowchart of FIG.
It is directly sent from the V camera 4-1 to the feature point synthesizing means 4-3.

【0081】また図14(a)は、説明の簡略化のため
に回転ステージの回転平面と平行な2次元平面だけを表
示しているが、3次元的な逆投影の幾何的関係は図14
(a)に示した2次元の関係を積み重ねることで得られ
る。続いて特徴点合成手段4- 3は、特徴点の合成が終
了したことを表す信号を回転制御手段2-1に出力する。
(以上が図13(a)のフローチャートのステップS4
-2に相当する)。
Further, FIG. 14A shows only a two-dimensional plane parallel to the rotation plane of the rotation stage for simplification of the description, but the geometric relationship of the three-dimensional backprojection is shown in FIG.
It is obtained by stacking the two-dimensional relationships shown in (a). Subsequently, the characteristic point synthesizing means 4-3 outputs a signal indicating that the synthesizing of the characteristic points is completed to the rotation control means 2-1.
(The above is step S4 in the flowchart of FIG.
-Corresponds to 2).

【0082】次に、回転制御手段2-1は、回転ステージ
に対して回転操作を行い移動させることで、被写体と回
転ステージに固定されているTVカメラ4-1の相対的な
位置関係を新たな位置関係にする。(以上が図13
(a)のフローチャートのステップS1-7に相当し、前
説の第1実施形態と同様である)。
Next, the rotation control means 2-1 performs a rotation operation on the rotation stage to move the rotation stage, thereby renewing the relative positional relationship between the subject and the TV camera 4-1 fixed to the rotation stage. To establish a proper positional relationship. (The above is Fig. 13
This corresponds to step S1-7 in the flowchart of (a) and is similar to the first embodiment described above).

【0083】回転制御手段2-1は、回転ステージが所定
の回転を御繰り返したかどうかチェックし、もし終了し
ていない場合にはステップS1-2に戻る。一方、所定の
回転が既に終了している場合には、その旨を表す信号を
特徴点合成手段4-3に出力する。(以上が図13(a)
のフローチャートのステップS2-2に相当する)。
The rotation control means 2-1 checks whether or not the rotation stage repeats a predetermined rotation, and if it has not finished, the process returns to step S1-2. On the other hand, if the predetermined rotation has already been completed, a signal to that effect is output to the feature point synthesizing means 4-3. (The above is Fig. 13 (a)
(Corresponding to step S2-2 in the flowchart of FIG.

【0084】そして、特徴点合成手段4- 3は、3次元
像用メモリ1-9上にあるデータを呼び出し、図14
(b)に示すような所定の閾値処理を行い、ある閾値以
上の数の直線の交点を検出して、その検出結果を3次元
像用メモリ1-9に格納する。(以上が図13(a)のフ
ローチャートのステップS2-3に相当する)。
Then, the feature point synthesizing means 4-3 calls the data in the memory 1-9 for the three-dimensional image,
Predetermined threshold value processing as shown in (b) is performed to detect intersections of straight lines of a certain number or more, and the detection result is stored in the three-dimensional image memory 1-9. (The above corresponds to step S2-3 in the flowchart of FIG. 13A).

【0085】よって以上の結果、この時点で3次元像用
メモリには、被写体の3次元的な表面構造が得られてい
るので、3次元構造に対して適当な視点を設定する処理
等を経て、2次元画像への変換を行うことにより、表示
手段1-10 を用い滑らかな曲線の表面形状をもつ物体で
あっても正しく表示出力することができる。
Therefore, as a result of the above, since the three-dimensional image structure of the object has been obtained in the three-dimensional image memory at this point, the appropriate viewpoint is set for the three-dimensional structure. By converting the image into a two-dimensional image, it is possible to correctly display and output even an object having a smooth curved surface shape using the display means 1-10.

【0086】(その他の実施形態および変形例)このよ
うに、本発明に関する実施形態およびその変形例を挙げ
たが、このほかにも本発明の要旨を逸脱しない範囲で種
々の形態または変形実施も可能である。
(Other Embodiments and Modifications) Although the embodiments and modifications of the present invention have been described above, other various embodiments and modifications are also possible without departing from the scope of the present invention. It is possible.

【0087】以上、複数の実施形態に基づいて説明した
が、本明細書には以下の発明が含まれる。 [1] 被写体を撮影して画像を得る際の焦点位置を制
御する機構を備える撮影手段と、当該被写体に対する前
記撮影手段の相対位置を移動させる移動手段と、当該画
像を格納するためのメモリ手段と、当該画像中に発生す
る「濃度差」のある点を当該画像の特徴点として検出す
る検出手段と、当該被写体の特徴点に対して焦点が合っ
た位置に関する合焦点位置情報を利用し「奥行き情報」
を求め、ある被写体を撮影して画像を得る場合に各画素
に対応する被写体までの距離を各画素に対応付けたマッ
プで表した距離マップを作成するマップ作成手段と、前
記撮影手段の撮影位置が変更されるに従い前記撮影手段
と当該被写体の相対的な位置関係を求める位置制御手段
と、前記撮影手段と当該被写体の位置関係と対応する前
記距離マップに従って複数の前記画像から得られる特徴
点を合成する特徴点合成手段と、を具備することを特徴
とする表面形状再構成装置。(なおこの[1]に対応す
る本発明の実施形態は、第1実施形態が対応する)。
The above description is based on a plurality of embodiments, but the present invention includes the following inventions. [1] A photographing means having a mechanism for controlling a focus position when photographing a subject to obtain an image, a moving means for moving a relative position of the photographing means with respect to the subject, and a memory means for storing the image. And a detection unit that detects a point having a “density difference” that occurs in the image as a feature point of the image, and in-focus position information regarding a position where the feature point of the subject is in focus. Depth information "
When a certain subject is photographed to obtain an image, a map creating means for creating a distance map in which a distance to the subject corresponding to each pixel is represented by a map associated with each pixel, and a photographing position of the photographing means. Position control means that obtains a relative positional relationship between the photographing means and the subject according to the change of, and feature points obtained from the plurality of images according to the distance map corresponding to the positional relationship between the photographing means and the subject. A surface shape reconstructing device comprising: a feature point synthesizing unit for synthesizing. (Note that the embodiment of the present invention corresponding to this [1] corresponds to the first embodiment).

【0088】(作用効果1)焦点位置を制御する機構が
備えられた撮影手段としてのカメラにより、焦点位置を
走査しながら画像入力を行うことができる。被写体に対
するカメラの相対位置を移動させる手段とカメラの撮影
位置が変更されるに従いカメラと被写体の相対的な位置
関係を求める手段により、多方向からの画像入力を行う
ことができる。被写体を撮影した画像中に発生する濃度
差のある点を特徴点として検出する手段と被写体の特徴
点に対してフォーカス法により奥行き情報を求め距離マ
ップを作成する手段により、焦点位置を走査して得られ
た画像に対して濃度差が発生している特徴点の距離を求
めて距離マップの作成が行える。カメラと被写体の位置
関係と距離マップに従って複数の画像から得られる特徴
点を合成する手段により、多方向に対して得られた距離
マップから特徴点を合成することができる。
(Operation and Effect 1) An image can be input while scanning the focal position by using a camera as a photographing means provided with a mechanism for controlling the focal position. It is possible to input images from multiple directions by means for moving the relative position of the camera with respect to the subject and means for obtaining the relative positional relationship between the camera and the subject as the shooting position of the camera is changed. The focus position is scanned by means for detecting a point having a density difference generated in the image of the subject as a feature point and means for obtaining depth information by the focus method for the feature point of the subject and creating a distance map. It is possible to create a distance map by obtaining the distances of the feature points where the density difference occurs in the obtained image. The feature points can be synthesized from the distance maps obtained in the multiple directions by the means for synthesizing the feature points obtained from the plurality of images according to the positional relationship between the camera and the subject and the distance map.

【0089】一方向が得られる特徴点が少ない場合で
も、多方向から得られた特徴点を合成することにより、
より正しい表面構造を得ることができる。特に表面構造
が滑らかな曲面で構成されている物体の場合には、濃度
差検出で得られる輪郭部分の特徴点が画像入力の方向に
より移動することから、異なる画像入力方向で得られる
特徴点は位置的に重ならなくなり、合成の結果得られる
表面構造はより正しいものとなる。
Even if there are few feature points that can be obtained in one direction, by combining feature points obtained from multiple directions,
A more correct surface structure can be obtained. Particularly in the case of an object whose surface structure is composed of a smooth curved surface, the feature points of the contour portion obtained by the density difference detection move according to the image input direction, so the feature points obtained in different image input directions are They will no longer overlap in position and the resulting surface structure will be more correct.

【0090】[2] 前記移動手段は、当該被写体の周
囲を回転する回転ステージであることを特徴とする
[1]に記載の表面形状再構成装置。(なおこの[2]
に対応する本発明の実施形態は、第1実施形態が対応す
る)。そして、この回転ステージは第1実施形態中の回
転ステージが該当する。
[2] The surface shape reconstructing apparatus according to [1], wherein the moving means is a rotary stage that rotates around the subject. (Note that this [2]
The first embodiment corresponds to the embodiment of the present invention corresponding to (1). The rotary stage in the first embodiment corresponds to this rotary stage.

【0091】(作用効果2)前記移動手段である回転ス
テージが撮影手段をのせて被写体のまわりを周回し、そ
の被写体に対するの相対位置を変化させる。よって、回
転半径、即ち被写体との相対距離が一定範囲でしかも被
写体の異なる多方向の表面を撮影しその立体の形状に関
するデータを容易に入力可能にするような表面形状再構
成装置を提供できる。
(Operation and Effect 2) The rotating stage, which is the moving means, mounts the photographing means around the subject and changes the relative position with respect to the subject. Therefore, it is possible to provide a surface shape reconstructing device capable of taking images of multi-directional surfaces of different subjects in which the radius of gyration, that is, the relative distance to the subject is within a certain range, and easily inputting data regarding the three-dimensional shape thereof.

【0092】[3] 前記特徴点合成手段は、前記撮影
手段と当該被写体の位置関係と前記距離マップに従って
複数の前記画像から得られる特徴点を「点」として配置
し合成する手段であることを特徴とする[1]に記載の
表面形状再構成装置。(なおこの[3]に対応する本発
明の実施形態は、第1実施形態が対応する)。そして、
この撮影手段と被写体の位置関係と距離マップに従って
複数の画像から得られる特徴点を点として配置し合成す
る特徴点合成手段は、第1実施形態中の特徴点合成手段
に該当する。
[3] The characteristic point synthesizing means is means for arranging and synthesizing characteristic points obtained from the plurality of images as “points” according to the positional relationship between the photographing means and the subject and the distance map. The surface shape reconstructing device according to [1]. (Note that the embodiment of the present invention corresponding to this [3] corresponds to the first embodiment). And
The feature point synthesizing means for arranging and synthesizing the feature points obtained from a plurality of images as points according to the positional relationship between the photographing means and the subject and the distance map corresponds to the feature point synthesizing means in the first embodiment.

【0093】(作用効果3)特徴点合成手段が、撮影手
段と被写体の位置関係と距離マップに基づき複数画像か
ら得られる特徴点を合成する際に、まず特徴点を「点」
としてマップ上に配置する。よって、これらの特徴点の
合成によって正しい表面形状が再構成できるような表面
形状再構成装置を提供できる。
(Operation and Effect 3) When the feature point synthesizing means synthesizes the feature points obtained from the plurality of images based on the positional relationship between the photographing means and the subject and the distance map, first, the feature points are “points”.
Place it on the map as. Therefore, it is possible to provide a surface shape reconstructing device that can reconstruct a correct surface shape by combining these feature points.

【0094】(4) 前記特徴点合成手段は、前記撮影
手段と当該被写体の位置関係と前記距離マップに従って
複数の画像から得られる特徴点を前記撮影手段の光軸方
向に長さをもつ「直線」として合成する直線特徴点合成
手段であることを特徴とする[1]に記載の表面形状再
構成装置。(なおこの(4)に対応する本発明の実施形
態は、第2実施形態が対応する)。
(4) The characteristic point synthesizing means forms characteristic points obtained from a plurality of images according to the positional relationship between the photographing means and the subject and the distance map in a "straight line" having a length in the optical axis direction of the photographing means. ] The surface shape reconstructing apparatus according to [1], which is a straight line feature point synthesizing means. (Note that the embodiment of the present invention corresponding to this (4) corresponds to the second embodiment).

【0095】撮影手段と被写体の位置関係と距離マップ
に従って複数の画像から得られる特徴点を撮影手段の光
軸方向に長さをもつ直線として合成する特徴点合成手段
は、第2実施形態中の特徴点合成手段に該当する。
The characteristic point synthesizing means for synthesizing the characteristic points obtained from a plurality of images as a straight line having a length in the optical axis direction of the photographing means according to the positional relationship between the photographing means and the subject and the distance map is the feature point synthesizing means in the second embodiment. It corresponds to the feature point synthesizing means.

【0096】(5) <前記撮影手段と当該被写体の位
置関係と前記距離マップに従って複数の画像から得られ
る特徴点を前記撮影手段の光軸方向に長さをもつ直線と
して合成する>前記直線特徴点合成手段は、前記撮影手
段と当該被写体の位置関係と前記距離マップに従って複
数の画像から得られる特徴点を前記撮影手段の光軸方向
に長さをもつ直線として配置する手段と、複数の直線が
交わる点を合成後の特徴点として検出する手段と、から
構成されていることを特徴とする(4)に記載の表面形
状再構成装置。(なおこの(5)に対応する本発明の実
施形態は、第2実施形態が対応する)。
(5) <Combining the characteristic points obtained from a plurality of images according to the positional relationship between the photographing means and the subject and the distance map as a straight line having a length in the optical axis direction of the photographing means> The straight line feature The point synthesizing means arranges characteristic points obtained from a plurality of images according to the positional relationship between the photographing means and the subject and the distance map as a straight line having a length in the optical axis direction of the photographing means, and a plurality of straight lines. The surface shape reconstructing apparatus according to (4), further comprising: a unit that detects a point where the points intersect with each other as a feature point after composition. (Note that the embodiment of the present invention corresponding to this (5) corresponds to the second embodiment).

【0097】撮影手段と被写体の位置関係と距離マップ
に従って複数の画像から得られる特徴点を撮影手段の光
軸方向に長さをもつ直線として配置する手段と、複数の
直線が交わる点を合成後の特徴点として検出する手段
は、第2実施形態中の特徴点合成手段が該当する。
After combining the points where the plurality of straight lines intersect with the means for arranging the characteristic points obtained from a plurality of images according to the positional relationship between the photographing means and the subject and the distance map as a straight line having a length in the optical axis direction of the photographing means. The feature point synthesizing means in the second embodiment corresponds to the means for detecting the feature point.

【0098】(作用効果5)撮影手段としてのカメラと
被写体の位置関係と距離マップに従って複数の画像から
得られる特徴点をカメラの光軸方向に長さをもつ直線と
して配置する手段により、特徴点は、画像入力時のTV
カメラの光軸方向に長さをもつ直線として扱われる。こ
の特徴点を合成すると、複数の直線が交わる点を合成後
の特徴点として検出する手段により、直線の中のより確
かな部分が表面構造として検出される。
(Function and Effect 5) The feature points obtained from a plurality of images are arranged as a straight line having a length in the optical axis direction of the camera according to the positional relationship between the camera as the photographing means and the object and the distance map. Is a TV for image input
It is treated as a straight line with a length in the optical axis direction of the camera. When these characteristic points are combined, a more reliable part of the straight line is detected as a surface structure by means of detecting a point where a plurality of straight lines intersect as the combined characteristic point.

【0099】(6) <前記撮影手段と当該被写体の位
置関係と前記距離マップに従って複数の画像から得られ
る特徴点を前記撮影手段の光軸方向に長さをもつ直線と
して合成する>前記直線特徴点合成手段は、前記撮影手
段と当該被写体の位置関係と前記距離マップに従って複
数の画像から得られる特徴点を前記撮影手段の光軸方向
に長さを持ち背景と異なる濃度の直線として累積加算処
理する手段と、累積加算処理を行った結果で所定の濃度
を保っている部分を合成後に得られる特徴点として検出
する手段と、から構成されていることを特徴とする
(4)に記載の表面形状再構成装置。(なおこの(6)
に対応する本発明の実施形態は、第3実施形態が対応す
る)。
(6) <Synthesis of characteristic points obtained from a plurality of images according to the positional relationship between the photographing means and the subject and the distance map as a straight line having a length in the optical axis direction of the photographing means> The straight line feature The point synthesizing unit cumulatively adds feature points obtained from a plurality of images according to the positional relationship between the photographing unit and the subject and the distance map as a straight line having a length in the optical axis direction of the photographing unit and a density different from the background. And a means for detecting, as a feature point obtained after combining, a portion having a predetermined density as a result of the cumulative addition processing, the surface according to (4) Shape reconstruction device. (Note that this (6)
The third embodiment corresponds to the embodiment of the present invention corresponding to the above).

【0100】撮影手段と被写体の位置関係と距離マップ
に従って複数の画像から得られる特徴点をカメラの光軸
方向に長さを持ち背景と異なる濃度の直線として累積加
算していく手段と、累積加算を行った結果で一定の濃度
を保っている部分を合成後に得られる特徴点として検出
する手段は、第3実施形態中の特徴点合成手段が該当す
る。
A means for cumulatively adding feature points obtained from a plurality of images according to the positional relationship between the photographing means and the subject and a distance map as a straight line having a length in the optical axis direction of the camera and having a density different from that of the background, and cumulative addition. The feature point synthesizing means in the third embodiment corresponds to the means for detecting, as a feature point obtained after synthesizing, a portion maintaining a constant density as a result of performing.

【0101】(7) <前記撮影手段と当該被写体の位
置関係と前記距離マップに従って複数の画像から得られ
る特徴点を前記撮影手段の光軸方向に長さをもつ直線と
して合成する>前記直線特徴点合成手段は、前記撮影手
段と当該被写体の位置関係と前記距離マップに従って複
数の画像から得られる特徴点を前記撮影手段の光軸方向
に長さをもち直線上の位置に応じて「濃度分布」がある
直線として累積加算していく手段と、累積加算を行った
結果で一定の「濃度」を保っている部分を合成後に得ら
れる特徴点として検出する手段と、から構成されること
を特徴とする(4)に記載の表面形状再構成装置。(な
おこの(7)に対応する本発明の実施形態は、第3実施
形態が対応する)。
(7) <Combining the characteristic points obtained from a plurality of images according to the positional relationship between the photographing means and the subject and the distance map as a straight line having a length in the optical axis direction of the photographing means> The straight line feature The point synthesizing means has a characteristic point obtained from a plurality of images in accordance with the positional relationship between the photographing means and the subject and the distance map, has a length in the optical axis direction of the photographing means, and has a "density distribution depending on the position on the straight line. Is a straight line, and means for performing cumulative addition as a straight line, and means for detecting a portion that maintains a constant “density” as a result of cumulative addition as a feature point obtained after combining. The surface shape reconstructing apparatus according to (4). (Note that the third embodiment corresponds to the embodiment of the present invention corresponding to this (7)).

【0102】撮影手段と被写体の位置関係と距離マップ
に従って複数の画像から得られる特徴点を撮影手段の光
軸方向に長さを持ち直線上の位置に応じて濃度分布があ
る直線として累積加算していく手段と、累積加算を行っ
た結果で一定の濃度を保っている部分を合成後に得られ
る特徴点として検出する手段は、第3実施形態中の特徴
点合成手段が該当する。
Characteristic points obtained from a plurality of images according to the positional relationship between the photographing means and the subject and the distance map are cumulatively added as a straight line having a length in the optical axis direction of the photographing means and having a density distribution according to the position on the straight line. The feature point synthesizing means in the third embodiment corresponds to the means for moving and the means for detecting a portion having a constant density as a result of cumulative addition as a feature point obtained after synthesis.

【0103】(作用効果7)撮影手段としてのカメラと
被写体の位置関係と距離マップに従って複数の画像から
得られる特徴点をカメラの光軸方向に長さを持ち直線上
の位置に応じて濃度分布がある直線として累積加算して
いく手段により、特徴点は、画像入力時のTVカメラの
光軸方向に長さを持ち直線上の位置に応じて濃度分布が
ある直線として扱われる。また濃度分布により直線の位
置に対応して特徴点が存在する位置の確からしさを表す
ことができる。この特徴点を合成すると、累積加算を行
った結果で一定の濃度を保っている部分を合成後に得ら
れる特徴点として検出する手段により、直線の中のより
確かな部分が表面構造として検出される。
(Operation and Effect 7) The characteristic points obtained from a plurality of images according to the positional relationship between the camera as the photographing means and the object and the distance map have a length in the optical axis direction of the camera and a density distribution according to the position on a straight line. The characteristic points are treated as a straight line having a length in the optical axis direction of the TV camera at the time of image input and having a density distribution according to the position on the straight line. Further, the probability of the position where the characteristic point exists can be represented by the density distribution corresponding to the position of the straight line. When these feature points are combined, a more reliable part in the straight line is detected as a surface structure by means of detecting a part having a constant density as a result of cumulative addition as a feature point obtained after combining. .

【0104】(8) <前記撮影手段と当該被写体の位
置関係と前記距離マップに従って複数の画像から得られ
る特徴点を前記撮影手段の光軸方向に長さをもつ直線と
して合成する>前記直線特徴点合成手段は、前記撮影手
段と当該被写体の位置関係と前記距離マップに従って複
数の画像から得られる特徴点を前記撮影手段の光軸方向
に光学結像系の特性で決まる「焦点深度」と等しい長さ
をもつ直線として合成する手段であることを特徴とする
(4)に記載の表面形状再構成装置。(なおこの(8)
に対応する本発明の実施形態は、第4実施形態が対応す
る)。
(8) <Combining the characteristic points obtained from a plurality of images according to the positional relationship between the photographing means and the subject and the distance map as a straight line having a length in the optical axis direction of the photographing means> The straight line feature The point synthesizing unit has a characteristic point obtained from a plurality of images according to the positional relationship between the photographing unit and the subject and the distance map, which is equal to the “depth of focus” determined by the characteristics of the optical imaging system in the optical axis direction of the photographing unit. The surface shape reconstructing apparatus according to (4), which is a means for synthesizing a straight line having a length. (This (8)
The fourth embodiment corresponds to the embodiment of the present invention corresponding to (4).

【0105】撮影手段と被写体の位置関係と距離マップ
に従って複数の画像から得られる特徴点を撮影手段の光
軸方向に光学結像系の特性で決まる焦点深度と等しい長
さをもつ直線として合成する手段は、第4実施形態中の
特徴点合成手段が該当する。
Characteristic points obtained from a plurality of images are synthesized as a straight line having a length equal to the depth of focus determined by the characteristics of the optical imaging system in the optical axis direction of the photographing means according to the positional relationship between the photographing means and the subject and the distance map. The means corresponds to the feature point synthesizing means in the fourth embodiment.

【0106】(作用効果8)撮影手段としてのカメラと
被写体の位置関係と距離マップに従って複数の画像から
得られる特徴点をカメラの光軸方向に光学結像系の特性
で決まる焦点深度と等しい長さをもつ直線として合成す
る手段により、特徴点は、画像入力時のTVカメラの光
軸方向に光学結像系の焦点深度と等しい長さをもつ直線
として扱われる。焦点深度はフォーカス法の光軸方向の
精度を表す指標であるので、直線の長さを焦点深度と等
しくすることにより効果的な表面構造の検出ができる。
(Effect 8) A characteristic point obtained from a plurality of images in accordance with the positional relationship between the camera as the photographing means and the object and the distance map has a length equal to the depth of focus determined by the characteristics of the optical imaging system in the optical axis direction of the camera. The feature point is treated as a straight line having a length equal to the depth of focus of the optical imaging system in the optical axis direction of the TV camera at the time of image input by the means for synthesizing as a straight line having a height. Since the depth of focus is an index showing the accuracy of the focusing method in the optical axis direction, it is possible to effectively detect the surface structure by making the length of the straight line equal to the depth of focus.

【0107】[0107]

【発明の効果】このように本発明によれば、例えば滑ら
かな曲面で構成された形状の物体であっても、多方向か
ら得られた特徴点の合成と濃度差の検出による輪郭部分
の処理等により、その物体表面の形状および構造をより
忠実に正しく再構成することができるような3次元形状
入力装置に係わる表面形状再構成装置を提供することが
可能となる。
As described above, according to the present invention, for example, even for an object having a shape formed of a smooth curved surface, processing of a contour portion by combining feature points obtained from multiple directions and detecting a density difference is performed. As a result, it is possible to provide a surface shape reconstructing device relating to a three-dimensional shape input device capable of more faithfully and correctly reconstructing the shape and structure of the object surface.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 図1は、本発明の3次元形状入力装置に係わ
る第1実施形態としての表面形状再構成装置の構成図。
FIG. 1 is a configuration diagram of a surface shape reconstructing apparatus as a first embodiment relating to a three-dimensional shape input apparatus of the present invention.

【図2】 図2は、本装置に関する被写体と回転ステー
ジ及びTVカメラの空間的な関係を示す模式図。
FIG. 2 is a schematic diagram showing a spatial relationship between a subject, a rotary stage, and a TV camera relating to the present apparatus.

【図3】 図3(a)〜(c)は第1実施形態としての
処理手順を表し、(a)は、第1実施形態の装置の処理
手順を示すフローチャート、(b)は、サブルーチンと
しての画像入力処理の手順を示すフローチャート、
(c)は、サブルーチンとしての距離アップの生成処理
の手順を示すフローチャート。
3A to 3C show a processing procedure as the first embodiment, FIG. 3A is a flowchart showing a processing procedure of the apparatus of the first embodiment, and FIG. A flowchart showing the procedure of the image input processing of
(C) is a flowchart showing a procedure of a distance increasing generation process as a subroutine.

【図4】 図4(a)〜(e)は本第1実施形態の装置
の再構成の方法を説明し、(a)は、濃度のプロファイ
ル関数と画像中のコントラストが発生する特徴点の領域
と微分について示す説明図、(b)は、焦点位置を走査
し得られる画像を各焦点位置と対応づけて格納する画像
メモリの構造を概念的に表す説明図、(c)は、濃度の
1次元プロファイルを表す関数を示す説明図、(d)
は、焦点位置と距離を対応する表、(e)は、距離マッ
プにおける距離のプロファイルを表す説明図。
4 (a) to 4 (e) illustrate a method of reconstructing the apparatus of the first embodiment, and FIG. 4 (a) shows a profile function of density and characteristic points at which contrast in an image occurs. Explanatory drawing showing a region and differentiation, (b) is an explanatory view conceptually showing the structure of an image memory that stores an image obtained by scanning a focal position in association with each focal position, and (c) is a diagram of density Explanatory drawing which shows the function showing a one-dimensional profile, (d)
Is a table in which focal positions correspond to distances, and (e) is an explanatory diagram showing a profile of distances in a distance map.

【図5】 図5(a)〜(c)は本第1実施形態の装置
の特徴点合成手段の動作を説明し、(a)は、3次元像
用メモリを概念的に表し、メモリの各要素を3次元空間
に対応して割り当てた図、(b)は、3次元像用メモリ
と距離マップとの関係を概念的に表す説明図、(c)
は、3次元像用メモリ内の特徴点と距離マップとの間の
距離(半径)を概念的に表す図。
5 (a) to 5 (c) illustrate the operation of the feature point synthesizing means of the device of the first embodiment, and FIG. 5 (a) conceptually shows a memory for three-dimensional images, and FIG. The figure which allocated each element corresponding to three-dimensional space, (b) is explanatory drawing which represents notionally the relationship between the memory for three-dimensional images, and a distance map, (c).
FIG. 3 is a diagram conceptually showing a distance (radius) between a feature point in a memory for a three-dimensional image and a distance map.

【図6】 図6は、本発明の3次元形状入力装置に係わ
る第2実施形態としての表面形状再構成装置を示す構成
図。
FIG. 6 is a configuration diagram showing a surface shape reconstructing apparatus as a second embodiment relating to a three-dimensional shape input apparatus of the present invention.

【図7】 図7は、本第2実施形態としての装置の処理
手順を表すフローチャート。
FIG. 7 is a flowchart showing a processing procedure of an apparatus according to the second embodiment.

【図8】 図8(a)〜(c)は本第2実施形態の装置
の特徴点合成手段の動作を説明し、(a)は、3次元像
用メモリと距離マップの関係を示す説明図、(b)は、
閾値処理を概念的に示す説明図。
8A to 8C illustrate the operation of the feature point synthesizing unit of the apparatus according to the second embodiment, and FIG. 8A illustrates the relationship between the three-dimensional image memory and the distance map. Figure, (b) shows
Explanatory drawing which shows a threshold value process notionally.

【図9】 図9は、本発明の3次元形状入力装置に係わ
る第3実施形態としての表面形状再構成装置を示す構成
図。
FIG. 9 is a configuration diagram showing a surface shape reconstructing apparatus as a third embodiment relating to a three-dimensional shape input apparatus of the present invention.

【図10】 図10は、第3実施形態の装置の処理手順
を表すフローチャート。
FIG. 10 is a flowchart showing a processing procedure of the apparatus of the third embodiment.

【図11】 図11(a), (b)は本第3実施形態の
装置の特徴点合成手段の動作を説明し、(a)は、3次
元像用メモリと距離マップの関係を示す説明図、(b)
は、閾値処理を概念的に示す説明図。
11 (a) and 11 (b) explain the operation of the feature point synthesizing means of the apparatus of the third embodiment, and FIG. 11 (a) shows the relationship between the three-dimensional image memory and the distance map. Figure, (b)
FIG. 4 is an explanatory diagram conceptually showing threshold processing.

【図12】 図12は、本発明の3次元形状入力装置に
係わる第4実施形態としての表面形状再構成装置を示す
構成図。
FIG. 12 is a configuration diagram showing a surface shape reconstructing device as a fourth embodiment relating to a three-dimensional shape input device of the invention.

【図13】 図13(a), (b)は本第1実施形態の
装置としての処理手順を示し、(a)は、第4実施形態
の装置の処理手順を示すフローチャート、(b)は、サ
ブルーチンとしての距離アップの生成処理の手順を示す
フローチャート。
13A and 13B show a processing procedure as an apparatus of the first embodiment, FIG. 13A is a flowchart showing a processing procedure of an apparatus of the fourth embodiment, and FIG. 10 is a flowchart showing the procedure of a distance increase generation process as a subroutine.

【図14】 図14(a), (b)は本第4実施形態の
装置の特徴点合成手段の動作を説明し、(a)は、3次
元像用メモリと距離マップの関係を示す説明図、(b)
は、閾値処理を概念的に示す説明図。
14 (a) and 14 (b) explain the operation of the feature point synthesizing means of the apparatus of the fourth embodiment, and FIG. 14 (a) shows the relationship between the three-dimensional image memory and the distance map. Figure, (b)
FIG. 4 is an explanatory diagram conceptually showing threshold processing.

【図15】 図15(a)〜(c)は従来装置の再構成
の方法を説明し、(a)は、撮影状況を示す説明図、
(b)は、「フォーカス法」を示す説明図、(c)は、
「ステレオ・マッチング」を示す説明図。
15A to 15C illustrate a method of reconfiguring a conventional device, and FIG. 15A is an explanatory diagram showing a shooting condition;
(B) is an explanatory view showing the “focus method”, and (c) is
Explanatory drawing which shows "stereo matching".

【符号の説明】[Explanation of symbols]

1-1, 4-1…TVカメラ、1-2…焦点位置制御手段、1
-3…画像メモリ、 1-4…特徴点検出手段、1-5…
回転ステージ、 1-6, 2-1…回転制御手段、1-7,
4-2…距離マップ生成手段、1-8, 2-2, 3-1…特徴点
合成手段、1-9…3次元像用メモリ、1-10 …表示手
段、1-11 …画像メモリ、S1-1…3次元像用メモリを
初期化するステップ、S1-2…回転ステージの位置検出
するステップ、S1-3…画像入力するステップ(サフ゛
ルーチン)、S1-4…特徴点を抽出するステップ、S1
-5…距離マップを生成するステップ(サフ゛ルーチ
ン)、S1-6…位置と距離マップに従い特徴点を3次元
・プロットするステップ、S1-7…回転ステージを移動
するステップ、S1-8…終了判定するステップ。S1-9
…焦点位置を初期化するステップ、S1-10 …画像を画
像メモリへ格納するステップ、S1-11 …焦点位置を画
像メモリへ格納するステップ、S1-12 …焦点位置を移
動するステップ、S1-13 …焦点位置の走査終了を判定
するステップ、S1-14 …距離マップを初期化するステ
ップ、S1-15 …特徴点に対する距離を距離マップへ格
納するステップ、S1-16 …全特徴点の処理終了を判定
するステップ。S2-1…位置と距離マップに従う特徴点
の直線としての3次元・プロット及びプロット回数をカ
ウントするステップ、S2-2…回転操作の終了を判定す
るステップ、S2-3…3次元像用メモリに対し閾値処理
するステップ。S3-1…位置と距離マップに従い濃度を
もつ直線としての想定及び対応画素への濃度値を加算す
るステップ。S4-1…距離マップを生成するステップ
(サフ゛ルーチン)、S4-2…位置と距離マップに従い
光学結像系の焦点深度と等しい長さをもつ直線としてプ
ロット及びプロット回数をカウントするステップ、S4
-3…特徴点に対する距離を距離マップへ格納するステッ
プ。
1-1, 4-1 ... TV camera, 1-2 ... Focus position control means, 1
-3 ... Image memory, 1-4 ... Feature point detecting means, 1-5 ...
Rotation stage, 1-6, 2-1 ... Rotation control means 1-7,
4-2 ... Distance map generating means, 1-8, 2-2, 3-1 ... Feature point synthesizing means, 1-9 ... Three-dimensional image memory, 1-10 ... Displaying means, 1-11 ... Image memory, S1-1 ... Initializing a three-dimensional image memory, S1-2 ... Detecting the position of the rotary stage, S1-3 ... Inputting an image (subroutine), S1-4 ... Extracting feature points, S1
-5 ... Step of generating distance map (subroutine), S1-6 ... Step of three-dimensionally plotting feature points according to position and distance map, S1-7 ... Step of moving rotary stage, S1-8 ... End judgment Step. S1-9
... step of initializing focus position, S1-10 ... step of storing image in image memory, S1-11 ... step of storing focus position in image memory, S1-12 ... step of moving focus position, S1-13 ... Step of determining the end of scanning of the focal position, S1-14 ... Step of initializing the distance map, S1-15 ... Step of storing distances to the feature points in the distance map, S1-16 ... End of processing of all feature points Step to judge. S2-1 ... 3D plotting as a straight line of feature points according to position and distance map and step of counting the number of plots, S2-2 ... Step of determining end of rotation operation, S2-3 ... in memory for 3D image Steps for thresholding. S3-1: A step of adding the density value to the corresponding pixel and the assumption as a straight line having density according to the position and distance map. S4-1: step of generating a distance map (subroutine), S4-2: step of plotting and counting the number of plots as a straight line having a length equal to the depth of focus of the optical imaging system according to the position and distance map, S4
-3 ... A step of storing the distances to the feature points in the distance map.

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 被写体を撮影して画像を得る際の焦点位
置を制御する機構を備える撮影手段と、 当該被写体に対する前記撮影手段の相対位置を移動させ
る移動手段と、 当該画像を格納するためのメモリ手段と、 当該画像中に発生する「濃度差」のある点を当該画像の
特徴点として検出する検出手段と、 当該被写体の特徴点に対して焦点が合った位置に関する
合焦点位置情報を利用し「奥行き情報」を求め、ある被
写体を撮影して画像を得る場合に各画素に対応する被写
体までの距離を各画素に対応付けたマップで表した距離
マップを作成するマップ作成手段と、 前記撮影手段の撮影位置が変更されるに従い前記撮影手
段と当該被写体の相対的な位置関係を求める位置制御手
段と、 前記撮影手段と当該被写体の位置関係と対応する前記距
離マップに従って複数の前記画像から得られる特徴点を
合成する特徴点合成手段と、を具備することを特徴とす
る表面形状再構成装置。
1. A photographing means having a mechanism for controlling a focal position when a subject is photographed to obtain an image, a moving means for moving a relative position of the photographing means with respect to the subject, and a storing means for storing the image. Utilizing memory means, detection means for detecting a point having a "density difference" occurring in the image as a characteristic point of the image, and in-focus position information relating to a position where the characteristic point of the subject is in focus A map creating unit that obtains “depth information” and creates a distance map in which a distance to a subject corresponding to each pixel is represented by a map corresponding to each pixel when a certain subject is photographed to obtain an image; Position control means for obtaining a relative positional relationship between the photographing means and the subject as the photographing position of the photographing means is changed, and the distance marker corresponding to the positional relation between the photographing means and the subject. And a feature point synthesizing means for synthesizing feature points obtained from a plurality of the images according to the above method.
【請求項2】 前記移動手段は、当該被写体の周囲を回
転する回転ステージであることを特徴とする、請求項1
に記載の表面形状再構成装置。
2. The moving means is a rotary stage that rotates around the subject.
The surface shape reconstructing device according to.
【請求項3】 前記特徴点合成手段は、前記撮影手段と
当該被写体の位置関係と前記距離マップに従って複数の
前記画像から得られる特徴点を「点」として配置し合成
する手段であることを特徴とする、請求項1に記載の表
面形状再構成装置。
3. The feature point synthesizing means is means for arranging and synthesizing feature points obtained from the plurality of images as “points” according to the positional relationship between the photographing means and the subject and the distance map. The surface shape reconstructing device according to claim 1.
JP7296944A 1995-11-15 1995-11-15 Surface shape reconstitution device Withdrawn JPH09138850A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7296944A JPH09138850A (en) 1995-11-15 1995-11-15 Surface shape reconstitution device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7296944A JPH09138850A (en) 1995-11-15 1995-11-15 Surface shape reconstitution device

Publications (1)

Publication Number Publication Date
JPH09138850A true JPH09138850A (en) 1997-05-27

Family

ID=17840209

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7296944A Withdrawn JPH09138850A (en) 1995-11-15 1995-11-15 Surface shape reconstitution device

Country Status (1)

Country Link
JP (1) JPH09138850A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100369901B1 (en) * 2000-03-09 2003-01-29 백승헌 Method and apparatus for generating a 3 dimension image on a network
KR100370869B1 (en) * 2000-02-09 2003-02-05 주식회사 아인픽춰스 The method of a three dimensional virtual operating simulation
JP2003207320A (en) * 2002-01-10 2003-07-25 Heiwa Kinzoku Kogyo Kk Three-dimensional recognition method and device
KR100456524B1 (en) * 2002-03-25 2004-11-16 한국건설기술연구원 Apparatus and method for monitoring construction image and construction monitoring system using it
WO2005003986A1 (en) * 2003-07-01 2005-01-13 Domotion Ltd. Hand-held device having three-dimensional viewing function with tilt sensor and display system using the same
JP2008275542A (en) * 2007-05-02 2008-11-13 Univ Of Fukui Three-dimensional shape restoration processing apparatus, and method and program therefor
CN102455166A (en) * 2010-10-15 2012-05-16 三星科技股份有限公司 Method for measuring object
JP2012212432A (en) * 2011-03-30 2012-11-01 General Electric Co <Ge> Apparatus and method for contactless high resolution handprint capture
CN111599001A (en) * 2020-05-14 2020-08-28 星际(重庆)智能装备技术研究院有限公司 Unmanned aerial vehicle navigation map construction system and method based on image three-dimensional reconstruction technology

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100370869B1 (en) * 2000-02-09 2003-02-05 주식회사 아인픽춰스 The method of a three dimensional virtual operating simulation
KR100369901B1 (en) * 2000-03-09 2003-01-29 백승헌 Method and apparatus for generating a 3 dimension image on a network
JP2003207320A (en) * 2002-01-10 2003-07-25 Heiwa Kinzoku Kogyo Kk Three-dimensional recognition method and device
KR100456524B1 (en) * 2002-03-25 2004-11-16 한국건설기술연구원 Apparatus and method for monitoring construction image and construction monitoring system using it
WO2005003986A1 (en) * 2003-07-01 2005-01-13 Domotion Ltd. Hand-held device having three-dimensional viewing function with tilt sensor and display system using the same
JP2008275542A (en) * 2007-05-02 2008-11-13 Univ Of Fukui Three-dimensional shape restoration processing apparatus, and method and program therefor
CN102455166A (en) * 2010-10-15 2012-05-16 三星科技股份有限公司 Method for measuring object
JP2012212432A (en) * 2011-03-30 2012-11-01 General Electric Co <Ge> Apparatus and method for contactless high resolution handprint capture
CN111599001A (en) * 2020-05-14 2020-08-28 星际(重庆)智能装备技术研究院有限公司 Unmanned aerial vehicle navigation map construction system and method based on image three-dimensional reconstruction technology
CN111599001B (en) * 2020-05-14 2023-03-14 星际(重庆)智能装备技术研究院有限公司 Unmanned aerial vehicle navigation map construction system and method based on image three-dimensional reconstruction technology

Similar Documents

Publication Publication Date Title
US6094215A (en) Method of determining relative camera orientation position to create 3-D visual images
Akbarzadeh et al. Towards urban 3d reconstruction from video
Siebert et al. Human body 3D imaging by speckle texture projection photogrammetry
US6445807B1 (en) Image processing method and apparatus
US6191808B1 (en) Image processing method with viewpoint compensation and apparatus therefor
KR102583723B1 (en) A method and an apparatus for generating data representative of a light field
JP2874710B2 (en) 3D position measuring device
US20130335535A1 (en) Digital 3d camera using periodic illumination
JP3524147B2 (en) 3D image display device
KR20070052131A (en) Three-dimensional display apparatus using intermediate elemental images
KR101600681B1 (en) Depth convertion method of 3D images interal imaging system
WO2011148606A1 (en) Image processing apparatus and method, and program
US6219063B1 (en) 3D rendering
JPH09138850A (en) Surface shape reconstitution device
JPH07129792A (en) Method and device for image processing
JP4653041B2 (en) System and method for synthesizing image blocks and creating a seamless enlarged image of a microscope slide
Nyland et al. Capturing, processing, and rendering real-world scenes
JPH10111951A (en) Method and device for image processing and storage medium
US7813529B1 (en) Optical 3-d surface tomography using depth from focus of partially overlapping 2-d images
US6512844B2 (en) 3D rendering
KR101289008B1 (en) Method for obtaining of Three-Dimensional Integral Imaging using the Depth Camera and Display System thereof
JP2005351916A (en) Binocular microscope device
JP4184690B2 (en) Image forming method, image forming program, and image forming apparatus
CN112085839B (en) Flexible and multifunctional three-dimensional reconstruction method and device
GB2370443A (en) Method of prompting a user in recording a 3-D image.

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20030204