JP2002516443A - Method and apparatus for three-dimensional display - Google Patents

Method and apparatus for three-dimensional display

Info

Publication number
JP2002516443A
JP2002516443A JP2000550066A JP2000550066A JP2002516443A JP 2002516443 A JP2002516443 A JP 2002516443A JP 2000550066 A JP2000550066 A JP 2000550066A JP 2000550066 A JP2000550066 A JP 2000550066A JP 2002516443 A JP2002516443 A JP 2002516443A
Authority
JP
Japan
Prior art keywords
dimensional
image
camera
projection
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2000550066A
Other languages
Japanese (ja)
Inventor
ジェレミー・デヴィッド・ノーマン・ウィルソン
イヴァン・ダニエル・マイアー
ジョナサン・アンソニー・ホールドバック
Original Assignee
トリコーダー テクノロジー ピーエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from GBGB9810553.9A external-priority patent/GB9810553D0/en
Priority claimed from GB9910960A external-priority patent/GB2352901A/en
Application filed by トリコーダー テクノロジー ピーエルシー filed Critical トリコーダー テクノロジー ピーエルシー
Publication of JP2002516443A publication Critical patent/JP2002516443A/en
Withdrawn legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/221Image signal generators using stereoscopic image cameras using a single 2D image sensor using the relative movement between cameras and objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0085Motion estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0092Image segmentation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Image Generation (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Processing Or Creating Images (AREA)

Abstract

(57)【要約】 物体(3)の3次元表示を生成するための装置は、更なる視点(CM’)に対して自由に移動可能でありかつ各視点において個々のオーバーラップ画像を取得するようにされたカメラ(CM)を具備する。カメラの方位は、2つの視点でほぼ一定に保たれ、かつ、画像を相関させた後、例えば、Gruen のアルゴリズムによって、ほぼ3次元の表示が、コンピュータ(4)において、視点間のベクトル(V,図3)を引き出すことによって、生成される。他の実施形態(図13および図15)では、物体が所定の光学的放射で照らされ、かつ、3次元表示が物体の画像と共通視点で取得されたターゲットとの相関から引き出される。カメラを移動させる方法(図4〜図6)も開示されている。 (57) [Summary] An apparatus for generating a three-dimensional display of an object (3) is freely movable with respect to a further viewpoint (CM ′) and acquires an individual overlap image at each viewpoint. Equipped with a camera (CM). The orientation of the camera is kept approximately constant between the two viewpoints, and after correlating the images, an almost three-dimensional display can be obtained, for example, by Gruen's algorithm, in a computer (4), using a vector (V , FIG. 3). In another embodiment (FIGS. 13 and 15), the object is illuminated with a predetermined optical radiation, and a three-dimensional representation is derived from the correlation between the image of the object and a target acquired at a common viewpoint. A method for moving the camera (FIGS. 4 to 6) is also disclosed.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】TECHNICAL FIELD OF THE INVENTION

本発明は、2つ以上の2次元画像から3次元表示を得るための方法および装置
に関する。
The present invention relates to a method and an apparatus for obtaining a three-dimensional representation from two or more two-dimensional images.

【0002】[0002]

【従来の技術】[Prior art]

公知のように、一般に、画像の構成(例えば、点)が相関していれば、このよ
うな3次元表示を発生させることができるのみである。2つのオーバーラップ画
像(overlapping images)のそれぞれの構成は、物体の同じ構成(例えば、点)
から得られれば(すなわち、前記構成と結合されれば)、相関される。オーバー
ラップ画像が得られるカメラの位置(position)および方位(orientation)が
既知であれば、カメラの形状寸法(geometry)(詳細には、その焦点距離)が既
知であると仮定して、オーバーラップ領域における物体の3次元座標を決定する
ことができる。
As is well known, generally, such a three-dimensional display can only be generated if the configuration (eg, points) of the images is correlated. The composition of each of the two overlapping images is the same composition of the object (eg, a point)
(Ie, if combined with the configuration). If the position and orientation of the camera from which the overlap image is obtained are known, the overlap (assuming the camera's geometry (specifically, its focal length)) is known, The three-dimensional coordinates of the object in the area can be determined.

【0003】 Huらによる"Matching Point Features with ordered Geometric, Rigidity an
d Disparity Constraints" IEEE Transactions on Pattern Analysis and Machi
ne Intelligence Vol 16 No 10, 1994 pp1041-1049(およびこの文献内に引用さ
れた参照文献)は、オーバーラップ画像の構成を相関させるための適切なアルゴ
リズムを開示している。このようなアルゴリズムについては、本発明において用
いることができるので、これ以上は説明しない。しかしながら、幾つかの環境に
おいては(例えば、物体が比較的単純なものであるか、または、既知のアルゴリ
ズムのうち1つが、得るべき物体の一部を正確に再構成することを可能にするの
に十分な構成を相関させられなかった場合に)、本発明の方法および装置の実施
形態を用いる場合に、オーバーラップ画像の構成を肉眼により相関させることが
でき、かつ、前記相関をスクリーン上に記録することができることを特筆してお
く。
[0003] Hu et al., "Matching Point Features with ordered Geometric, Rigidity an
d Disparity Constraints "IEEE Transactions on Pattern Analysis and Machi
ne Intelligence Vol 16 No 10, 1994 pp 1041-1049 (and references cited therein) disclose a suitable algorithm for correlating the composition of overlapping images. Such an algorithm can be used in the present invention and will not be described further. However, in some circumstances (e.g., where the object is relatively simple or one of the known algorithms allows one to accurately reconstruct the part of the object to be obtained When sufficient embodiments cannot be correlated, the configuration of the overlap image can be correlated visually with the method and apparatus embodiments of the present invention, and the correlation can be displayed on a screen. Note that it can be recorded.

【0004】 前記画像の相関された点が得られたと仮定すれば、原則的には、物体を3次元
において再構成するために必要とされるカメラの位置および方位についての情報
を、直接的な測定、または、全ての相関された組の構成の処理を包含する種々の
高度な数学的テクニックのいずれかにより得ることができる。(立体的なカメラ
配置(この場合、カメラは固定される)については、本発明の目的のために考え
ないことにする。)
[0004] Assuming that the correlated points of the image have been obtained, in principle, information about the position and orientation of the camera needed to reconstruct the object in three dimensions can be obtained directly. It can be obtained by any of a variety of advanced mathematical techniques, including measurement, or processing of all correlated sets of configurations. (Three-dimensional camera arrangements (where the camera is fixed) will not be considered for the purposes of the present invention.)

【0005】 欧州特許出願公開第782,100号公報は、第1カテゴリー、すなわち、写
真3次元獲得配置(photographic 3D acquisition arrangement)における方法
および装置を開示しており、前記配置において、カメラの変位信号およびレンズ
の位置信号が、ディジタルカメラにより得られる2次元画像から構築すべき物体
の3次元表示を可能にするために用いられる。カメラの位置および方位の両方が
監視される。これを達成するために必要とされるハードウェアは、高価であると
思われる。
[0005] EP-A-782,100 discloses a method and apparatus in a first category, namely a photographic 3D acquisition arrangement, in which camera displacement signals are described. And lens position signals are used to enable a three-dimensional display of an object to be constructed from a two-dimensional image obtained by a digital camera. Both the position and orientation of the camera are monitored. The hardware needed to accomplish this appears to be expensive.

【0006】 以下のような、多数の研究論文が、画像の相関された構成から正しい方位を得
るという、より困難な問題に向けられてきた。 i)E H Thompsonによる"A rational Algebraic Formulation of the problem
of Relative Orientation"(Photogrammetric Record Vol 3 No 14 (1959) pp15
2-159)は、同じ光景の2つの画像を、3次元の光景を再構成するための正しい方
位に整列させるための数学的手順(5組の相関点から得られる5つの連立方程式
を反復的に解くことを包含する)について述べている。 ii)Richard Harleyらによる"Stereo from uncalibrated cameras"(Proc. IEE
E Conf Computer Vision and Pattern Recognition (1992) pp761-763)は、2つ
の3×4カメラマトリクスが、焦点距離のようなカメラ内部のパラメータの他に
、カメラの方位および位置を規定することを教示している。カメラが校正されれ
ば(すなわち、内部パラメータが既知であれば)、マッチングされた点からカメ
ラマトリクスを見出すことができ、かつこれにより、全ての点に関する真の3次
元位置を見出すことができる。カメラが校正されなければ、カメラマトリクスを
得るために、かつこれにより、マッチングされた点に関する3次元位置を得るた
めに、既知の“地上基準”点("ground control" points)を用いる必要がある
。 iii)Richard Harleyによる"Estimation of Relative Camera Positions for U
ncalibrated Cameras"(Computer Vision-ECCV'92, LNCS-Series, Vol 588, 1992
pp579-587)は、上記のHarleyの論文を発展させたものであり、他の全てのカメ
ラパラメータが既知であれば、マッチングされた点から、カメラの位置および方
位の他に焦点距離を見出すことができることを示している。 iv)Hartleyらによる"Computing Matched-epipolar projections"(Computer V
ision and Pattern Recognition 1993, pp549-555)は、上記の論文を発展させた
ものであり、画像を、光軸を平行にされて並置されたカメラにより得られる画像
に変換するためのエピポラー(epipolar)変換マトリクスを導入している。次に
、残りの点については、より容易に相関させることができる。さらに、これらの
カメラについては校正する必要がない。
[0006] Numerous research articles have addressed the more difficult problem of obtaining the correct orientation from correlated configurations of images, such as: i) "A rational Algebraic Formulation of the problem" by EH Thompson
of Relative Orientation "(Photogrammetric Record Vol 3 No 14 (1959) pp15
2-159) describes a mathematical procedure for aligning two images of the same scene in the correct orientation to reconstruct a three-dimensional scene (iteratively calculates five simultaneous equations obtained from five sets of correlation points). To solve the problem). ii) "Stereo from uncalibrated cameras" by Richard Harley et al. (Proc. IEE
E Conf Computer Vision and Pattern Recognition (1992) pp761-763) teaches that two 3.times.4 camera matrices define camera orientation and position, as well as camera internal parameters such as focal length. ing. Once the camera has been calibrated (ie, if the intrinsic parameters are known), the camera matrix can be found from the matched points, and thus the true three-dimensional position for all points. If the camera is not calibrated, it is necessary to use known "ground control" points in order to obtain a camera matrix and thus a three-dimensional position with respect to the matched points . iii) "Estimation of Relative Camera Positions for U" by Richard Harley
ncalibrated Cameras "(Computer Vision-ECCV'92, LNCS-Series, Vol 588, 1992
pp579-587) is an extension of Harley's paper mentioned above, where if all other camera parameters are known, finding the focal length in addition to the camera position and orientation from the matched point, if known. Indicates that it can be done. iv) "Computing Matched-epipolar projections" by Hartley et al. (Computer V
ision and Pattern Recognition 1993, pp. 549-555) is an extension of the above paper, and is used to convert images into images obtained by cameras juxtaposed with their optical axes parallel. A conversion matrix has been introduced. The remaining points can then be more easily correlated. Furthermore, there is no need to calibrate these cameras.

【0007】 上述の数学的方法に関する不都合点は、全ての相関された点を処理するために
必要とされる集中的な計算である。この計算の多くは、多数の点からのカメラの
位置および方位の決定を必要とし、かつ、非常に無駄なものである。その理由は
、前記位置および方位が、多数の処理された点により、著しく過剰に決定される
ためである。
[0007] A disadvantage of the above mathematical method is the intensive computation required to process all correlated points. Many of these calculations require determining the position and orientation of the camera from a large number of points and are very wasteful. The reason is that the position and orientation are significantly over-determined by a large number of processed points.

【0008】 一般には、カメラの視点(すなわち、方位および位置)からの全ての情報を、
8組の相関された点から見出すことができることが示されている。しかしながら
、これが不可能である特殊な場合が存在する。極端な一例は、相関された点の組
に対応する物体上の8つの点が全て共直線性(colinear)である場合である。
In general, all information from the camera's viewpoint (ie, azimuth and position)
It is shown that eight sets of correlated points can be found. However, there are special cases where this is not possible. An extreme example is when the eight points on the object corresponding to the set of correlated points are all colinear.

【0009】 重大なことに、カメラの位置を決定できない他の場合は、(物体の基準フレー
ムにおける)カメラの方位が同一である場合である。図3(後述する)から明白
なように、このような場合においてカメラを離間させることは、どれだけ多くの
点の組が相関されても、非常に不確定なものとなる。このような場合には、たと
え、焦点距離および他のカメラパラメータが既知であっても、2つの画像から物
体の大きさを決定することはできず、3次元再構成については、倍率(scaling
factor)を増大させる必要がある。
Significantly, another case where the position of the camera cannot be determined is when the orientation of the camera (in the reference frame of the object) is the same. As will be apparent from FIG. 3 (discussed below), separating the cameras in such a case is very indeterminate, no matter how many sets of points are correlated. In such a case, even if the focal length and other camera parameters are known, the size of the object cannot be determined from the two images, and the scaling (scaling
factor) must be increased.

【0010】 多くのディジタルカメラの解像度は著しく制約されている(例えば、640×
480画素まで)ことを考慮すれば、カメラの方位が僅かに異なるだけでも、カ
メラの位置がかなり不確定となり、かつこれにより、3次元での物体再構成もま
たかなり不確定となることは明白である。これに対し、カメラの方位が非常に異
なるように(すなわち、物体に対して鋭角的に収束するように)慎重に選択され
れば、ある画像が得られた場合に視野の中に存在するオーバーハング領域(over
hanging region)における物体上の点は、他の画像が得られた場合には視野の中
に存在しなくなり、オーバーハング領域の3次元構成を妨げる。
The resolution of many digital cameras is severely limited (eg, 640 ×
Taking into account (up to 480 pixels), it is clear that a slight difference in the orientation of the camera leads to a considerable uncertainty in the position of the camera and thus also in the three-dimensional object reconstruction. It is. On the other hand, if the orientation of the camera is carefully selected to be very different (ie, converge sharply to the object), the overshoot present in the field of view when a certain image is obtained Hang area (over
Points on the object in the hanging region will not be present in the field of view if another image is obtained, hindering the three-dimensional configuration of the overhang region.

【0011】[0011]

【発明が解決しようとする課題】[Problems to be solved by the invention]

本発明の目的は、特に、3次元再構成が発生される画像の解像度が制約される
場合の、既知の方法および装置に関する少なくとも幾つかの不都合点を克服しか
つ緩和することである。
It is an object of the present invention to overcome and mitigate at least some of the disadvantages of known methods and devices, especially when the resolution of the image in which the three-dimensional reconstruction is generated is limited.

【0012】[0012]

【課題を解決するための手段】[Means for Solving the Problems]

したがって、一特徴において、本発明は、物体から離間した様々な視点から得
られた物体に関する相関された2次元オーバーラップ画像から、物体の少なくと
も一部の3次元再構成を得る方法を提供し、視点を離間させることは正確に知ら
れておらず、前記方法は、それぞれの2次元画像の対応(correspondences)の
間における相互オフセット(mutual offset)および倍率変数(scaling variabl
e)の両方に応じてシミュレートされた3次元空間において延びる3次元表示を
形成するために、2次元画像をディジタル処理する段階を具備し、前記倍率変数
は、2次元画像が得られた視点間における間隔を表す。
Accordingly, in one aspect, the invention provides a method for obtaining a three-dimensional reconstruction of at least a portion of an object from correlated two-dimensional overlapping images of the object obtained from various viewpoints remote from the object; It is not known exactly how to separate the viewpoints, and the method uses a mutual offset and a scaling variabl between the respective two-dimensional image correspondences.
e) digitally processing the two-dimensional image to form a three-dimensional display extending in the simulated three-dimensional space in response to both; Represents the interval between.

【0013】 本発明は、さらに、物体から離間した様々な視点から得られた物体に関する相
関された2次元オーバーラップ画像から、物体の少なくとも一部の3次元表示を
得るための画像処理装置を提供し、前記装置は、それぞれの2次元画像の対応の
間における相互オフセットおよび倍率変数の両方に応じてシミュレートされた3
次元空間において延びる3次元表示を形成するために、2次元画像をディジタル
処理するように配置される画像処理手段を具備し、前記倍率変数は、2次元画像
が得られた視点間における間隔を表す。
The present invention further provides an image processing apparatus for obtaining a three-dimensional representation of at least a portion of an object from a correlated two-dimensional overlap image of the object obtained from various viewpoints separated from the object. However, the device was simulated as a function of both the mutual offset and magnification variables between the respective two-dimensional image correspondences.
Image processing means arranged to digitally process the two-dimensional image to form a three-dimensional display extending in the three-dimensional space, wherein the magnification variable represents an interval between viewpoints from which the two-dimensional image was obtained. .

【0014】 前記倍率変数は、使用の際にユーザーにより入力されることが好ましい。Preferably, the magnification variable is input by a user during use.

【0015】 例えば、実際のカメラの間隔がaであり、かつ、カメラと同じ光学的パラメー
タと、シミュレートされた3次元空間におけるa’の間隔とを有する仮想プロジ
ェクタ(virtual projector)により部分的な3次元再構成とが発生すれば、a
/a’の係数により部分的な3次元再構成を拡大するための倍率は、a/a’と
なり、かつこれにより、物体と同じ大きさを有する部分的な3次元再構成を発生
させることができる。このような部分的3次元再構成については、他の画像の組
から同様に発生される他の実物大の部分的3次元再構成にも適応させることがで
きる。これらの実施形態において、部分的3次元再構成をともに適応させること
を可能にする倍率に関するあらゆる値が満足され、かつ、例えば、部分的3次元
再構成をともにスクリーン上に満たす処理中に、ユーザーにより適用され得る。
[0015] For example, a virtual projector having an actual camera spacing a and having the same optical parameters as the camera and a 'spacing in a simulated three-dimensional space is partially If three-dimensional reconstruction occurs, a
The scaling factor for enlarging the partial three-dimensional reconstruction by the factor of / a 'is a / a', and this can cause a partial three-dimensional reconstruction having the same size as the object. it can. Such a partial three-dimensional reconstruction can be adapted to other full-scale partial three-dimensional reconstructions similarly generated from other sets of images. In these embodiments, any value for the magnification that allows the partial 3D reconstruction to be adapted together is satisfied and, for example, during the process of filling the partial 3D reconstruction together on the screen, the user May be applied.

【0016】 これらの実施形態において、2つの視点の各々における(物体の基準フレーム
における)カメラの方位は、同じかまたはほとんど同じ(例えば、±10°)で
あることが好ましく、かつ/または、各々の部分的3次元再構成は、1つまたは
複数のカメラと同じ方位を有しかつ該カメラの光学的中心に結びつく線上に光学
的中心を有する仮想プロジェクタにより発生されることが好ましい。
In these embodiments, the orientation of the camera (in the reference frame of the object) in each of the two viewpoints is preferably the same or nearly the same (eg ± 10 °) and / or Is preferably generated by a virtual projector having the same orientation as one or more cameras and having an optical center on a line joining the optical centers of the cameras.

【0017】 前記方法は、物体に対して様々な視点間において移動されるカメラから2次元
オーバーラップ画像を得る段階を具備することが好ましい。視点間におけるカメ
ラの純量の移動は、完全に制約されるものではない。
Preferably, the method comprises the step of obtaining a two-dimensional overlap image from a camera moved between different viewpoints on the object. The net movement of the camera between viewpoints is not completely constrained.

【0018】 例えば、カメラについては、その光軸に対する横方向に移動するように(2つ
の軸に沿ったその方位および位置が制約されるが、第3の軸に沿ったその移動は
制約されないように)固定スライド上に搭載することができるか、または、前記
カメラについては、三脚上に(垂直方向における該カメラの移動および水平軸の
周りの回転が制約されるように)搭載することができる。
For example, for a camera to move in a direction transverse to its optical axis (its azimuth and position along two axes are restricted, but its movement along a third axis is not restricted). Can be mounted on a fixed slide or, for the camera, mounted on a tripod (so that the movement of the camera in the vertical direction and the rotation around the horizontal axis are restricted). .

【0019】 しかしながら、好ましい実施形態においては、カメラは手で保持される。However, in a preferred embodiment, the camera is held by hand.

【0020】 任意に、前記カメラの方位については、例えば、振動ジャイロスコープのよう
な慣性センサ(inertial sensor)、および、本明細書に参照として組み込まれ
る英国特許第2,292,605号明細書に開示されているような適切なフィル
タおよび集積回路によって測定することができる。現在では、カルマン(Kalman
)フィルタが、慣性センサ出力信号をフィルタリングするために好ましい。
Optionally, the orientation of the camera is described in, for example, an inertial sensor, such as a vibrating gyroscope, and in GB 2,292,605, which is incorporated herein by reference. It can be measured by appropriate filters and integrated circuits as disclosed. At present, Kalman
A) A filter is preferred for filtering the inertial sensor output signal.

【0021】 前記カメラの方位は、ある視点から第1画像が得られた後に、かつ、他の視点
から第2画像が得られる前に変化することが好ましく、これにより、第2画像が
得られるときに、物体の基準フレームに対するカメラの方位が維持される。
Preferably, the orientation of the camera changes after the first image is obtained from one viewpoint and before the second image is obtained from another viewpoint, whereby the second image is obtained. Sometimes, the orientation of the camera with respect to the reference frame of the object is maintained.

【0022】 カメラの方位が第1の視点における方位に対して変化しないことを確実にする
純粋に光学的な一方法は、第1画像の相関された点とこれに対応する第2画像の
点とに関するカメラの画像平面(これについては、瞬時にスクリーン上に表示さ
れることが好ましい)における投影が共通の点において収束するまで方位を変化
させることである。カメラの光軸に沿っての画像平面から物体への距離が2の視
点間において変化しない特殊な場合には(上記の共通の点が無限大である場合に
は)、上記の投影が平行となるまで、第2の視点における方位を調整することが
できる。
One purely optical method of ensuring that the orientation of the camera does not change with respect to the orientation at the first viewpoint is the correlated points of the first image and the corresponding points of the second image. And changing the azimuth until the projections in the camera's image plane for (preferably displayed on the screen instantaneously) converge at a common point. In the special case where the distance from the image plane along the optical axis of the camera to the object does not change between the two viewpoints (if the common point is infinite), the projection is parallel Until then, the orientation in the second viewpoint can be adjusted.

【0023】 本発明は、さらに、物体表面上に対する所定の光学的放射の投影の画像(本明
細書において、物体画像とも称される)から物体の3次元表示の形状を得るため
の方法および装置に関する。“所定の光学的放射”という語は、“所定の光”と
いう語の一般化であり、かつ、所定の光だけでなく、光学法則にしたがう他の波
長の所定の電磁放射線をも包含するように意図されている。
The present invention further provides a method and apparatus for obtaining the shape of a three-dimensional representation of an object from an image of the projection of the predetermined optical radiation onto the object surface (also referred to herein as an object image). About. The term "predetermined optical radiation" is a generalization of the term "predetermined light" and includes not only predetermined light but also predetermined electromagnetic radiation of other wavelengths according to the laws of optics. Is intended for.

【0024】 原則的に、物体表面の一部の3次元形状については、所定の光を(例えば、グ
リッドパターンを物体表面上に)投影することと、物体表面の照明された領域の
画像を得ることと、画像のそれぞれの構成(例えば、交差線(crossed line))
に対応する所定の光の要素(例えば、グリッドパターンの交差線)を識別するこ
とと、所定の光の空間分布が既知であると仮定することとにより、得ることがで
きる。
In principle, for a three-dimensional shape of a part of the object surface, projecting a predetermined light (eg a grid pattern onto the object surface) and obtaining an image of the illuminated area of the object surface And the composition of each of the images (eg, crossed lines)
Can be obtained by identifying a predetermined light element (e.g., an intersection line of a grid pattern) corresponding to, and assuming that the predetermined light spatial distribution is known.

【0025】 このような配置の1つが、Hu & Stockmanにより、"3-D Surface Solution Usi
ng Structured Light and Constraint Propagation" in IEEE Trans PAMI Vol 2
No 4 pp390-402, 1989において示されており、彼らは、立体的な画像技術に対
する自らの技術の利点について論じている。
One such arrangement is described by Hu & Stockman in “3-D Surface Solution Usi
ng Structured Light and Constraint Propagation "in IEEE Trans PAMI Vol 2
No 4 pp390-402, 1989, they discuss the advantages of their technology over stereoscopic imaging technology.

【0026】 第2の特徴において、本発明は、物体の少なくとも一部の3次元表示を、その
2次元画像から得る方法を提供し、前記方法は、投影された所定の光学的放射に
よって物体を照明する段階と、照明された物体の2次元画像を得る段階と、2次
元画像を所定の光学的放射の光線と相関させる段階と、前記相関および倍率変数
の両方に応じてシミュレートされた3次元空間において延びる3次元表示を形成
するために2次元画像をディジタル処理する段階とを具備し、前記倍率変数は、
所定の光学的放射が投影される起点位置と2次元画像が得られる視点との間にお
ける間隔を表す。
In a second aspect, the present invention provides a method for obtaining a three-dimensional representation of at least a portion of an object from a two-dimensional image thereof, the method comprising the steps of: Illuminating, obtaining a two-dimensional image of the illuminated object, correlating the two-dimensional image with a beam of predetermined optical radiation, and simulating 3 in response to both the correlation and magnification variables. Digitally processing a two-dimensional image to form a three-dimensional representation extending in a three-dimensional space, wherein the magnification variable comprises:
It represents an interval between a starting point position at which a predetermined optical radiation is projected and a viewpoint at which a two-dimensional image is obtained.

【0027】 この特徴において、本発明は、さらに、物体の少なくとも一部の3次元表示を
、照明された物体の2次元画像から得る画像処理装置を提供し、物体は、2次元
画像が得られる視点から離間された位置から投影された所定の光学的放射によっ
て照明され、2次元画像は、前記所定の放射と相関され、前記装置は、前記相関
および倍率変数の両方に応じてシミュレートされた3次元空間において延びる3
次元表示を形成するために配置されるディジタル処理手段を具備し、前記倍率変
数は、所定の光学的放射が投影される起点位置と2次元画像が得られる視点との
間における間隔を表す。
In this aspect, the present invention further provides an image processing apparatus for obtaining a three-dimensional display of at least a part of an object from a two-dimensional image of an illuminated object, wherein the object obtains a two-dimensional image. Illuminated by a predetermined optical radiation projected from a location remote from the viewpoint, a two-dimensional image is correlated with the predetermined radiation, and the device is simulated in response to both the correlation and magnification variables 3 extends in three-dimensional space
Digital processing means arranged to form a two-dimensional representation, wherein the magnification variable represents the distance between the starting position at which the predetermined optical radiation is projected and the viewpoint from which the two-dimensional image is obtained.

【0028】 この特徴は、第1の特徴の方法および装置においてカメラの透視(perspectiv
e)の中心の間隔が既知である必要がなく、かつ、第2の特徴の方法および装置
においてカメラの透視の中心およびプロジェクタの透視の中心の間隔が既知であ
る必要がないという点で、第1の特徴に関連している。 第1の特徴において用
いられるカメラ−カメラの配置と、第2の特徴において用いられるカメラ−プロ
ジェクタの配置との間には明確な類似点が存在する。各々の場合に、2つの投影
の交差から3次元表示を得ることができ、一方の場合においては、カメラの光線
のそれぞれの光束を表し、他方の場合においては、プロジェクタの光線およびカ
メラの光線のそれぞれの光束を表している。
This feature can be achieved by using the camera perspective in the method and apparatus of the first aspect.
e) that the center spacing of e) does not need to be known, and that in the method and apparatus of the second aspect, the center spacing of the perspective of the camera and the center of the perspective of the projector need not be known. 1 is related to the first feature. There is a clear similarity between the camera-camera arrangement used in the first aspect and the camera-projector arrangement used in the second aspect. In each case, a three-dimensional representation can be obtained from the intersection of the two projections, in one case representing the respective luminous flux of the camera rays, and in the other case, of the projector rays and the camera rays. Each luminous flux is represented.

【0029】 例えば、校正画像は、校正表面上に対する所定の光学的放射の投影によるもの
であってもよく、または、初期の物体画像を得るために用いられるカメラと所定
の光学的放射を投影するために用いられる投影手段とに対して物体が移動した後
に得られるさらなる物体画像であってもよい。
For example, the calibration image may be due to the projection of predetermined optical radiation onto the calibration surface, or project the predetermined optical radiation with the camera used to obtain the initial object image. Further object images obtained after the object has moved with respect to the projection means used for this purpose.

【0030】 第1および第2の投影は、所定の光学的放射の原点と、画像に関連した透視の
中心(例えば、画像を得るために用いられるカメラレンズの光学的中心)とをリ
ンクさせる基線からのものであることが好ましく、再構成処理手段は、2組以上
の相関された構成から前記基線を得るために配置される。この構成は、上述する
図3および図13に示される。
The first and second projections are baselines linking the origin of the predetermined optical radiation and the center of the perspective associated with the image (eg, the optical center of the camera lens used to obtain the image). Preferably, the reconstruction processing means is arranged to obtain said baseline from two or more sets of correlated configurations. This configuration is shown in FIGS. 3 and 13 described above.

【0031】 一実施形態において、2つ以上の校正画像間の対応を発生させ、かつ、2つ以
上の校正画像間の対応、および、これらの校正画像と関連した入力されるかまた
は記憶された距離情報(metric information)の両方に応じた第1投影の原点と
第2投影の原点との間の間隔を決定するように、画像処理手段は配置される。こ
の構成は、詳細に後述する図15に示される。
In one embodiment, a correspondence between two or more calibration images is generated and the correspondence between the two or more calibration images and the input or stored associated with these calibration images The image processing means is arranged to determine a distance between the origin of the first projection and the origin of the second projection according to both of the metric information. This configuration is shown in FIG. 15, which will be described in detail later.

【0032】 他の実施形態において、再構成処理手段は、ユーザーにより入力可能な倍率関
数に応じて第1投影の原点と第2投影の原点との間の間隔を変化させるように配
置される。この実施形態において、さらなる校正画像は必要とされない。前記装
置は、倍率関数の値に依存する相対的な倍率によって3次元表示を表示する手段
を有することが好ましい。
In another embodiment, the reconstruction processing means is arranged to change a distance between the origin of the first projection and the origin of the second projection according to a magnification function that can be input by a user. In this embodiment, no additional calibration images are needed. Preferably, the device comprises means for displaying a three-dimensional display with a relative magnification depending on the value of the magnification function.

【0033】 さらなる特徴において、物体表面上への所定の光学的放射の投影に関する物体
画像と、物体表面から移された表面上への所定の光学的放射の投影に関する少な
くとも1つの校正画像とから、物体の3次元表示を発生させる方法を提供し、前
記方法は、 i)少なくとも1つの校正画像を、物体画像と相関させ、さらに選択的に、さ
らなる校正画像と相関させる段階と、 ii)物体画像の第1の投影と、所定の光学的放射の第2の投影とをシミュレー
トする段階と、 iii)第1および第2の投影の相互交差から、3次元再構成を得る段階と を具備する。
In a further feature, from an object image relating to the projection of the predetermined optical radiation onto the object surface and at least one calibration image relating to the projection of the predetermined optical radiation onto the surface shifted from the object surface, Providing a method for generating a three-dimensional representation of an object, the method comprising: i) correlating at least one calibration image with an object image and, optionally, further with a further calibration image; ii) object image Simulating a first projection of the first optical projection and a second projection of the predetermined optical radiation; and iii) obtaining a three-dimensional reconstruction from the intersection of the first and second projections. .

【0034】 関連する特徴において、本発明は、物体表面上への所定の光学的放射の投影に
関する物体画像と、物体表面から移された表面上への所定の光学的放射の投影に
関する少なくとも1つの校正画像とから、物体の少なくとも一部の3次元表示を
発生させる画像処理装置を提供し、前記装置は、少なくとも1つの校正画像と物
体画像と、(選択的には、さらなる校正画像と)の間の対応を発生させるように
配置された画像処理手段と、物体画像の第1の投影と、少なくとも2つ相関され
た画像に関するそれぞれの対応にリンクする第2の投影とをシミュレートし、か
つ、第1および第2の投影の相互交差から前記3次元表示を得るように配置され
た再構成処理手段とを具備する。
In a related aspect, the invention relates to an object image for projecting predetermined optical radiation on an object surface and at least one object for projecting predetermined optical radiation on a surface shifted from the object surface. An image processing apparatus for generating a three-dimensional representation of at least a portion of an object from a calibration image, the apparatus comprising at least one calibration image, an object image, and (optionally, a further calibration image). Simulating image processing means arranged to generate a correspondence between: a first projection of the object image; a second projection linking a respective one of the at least two correlated images; and , Reconstruction processing means arranged to obtain said three-dimensional representation from the intersection of the first and second projections.

【0035】 本発明好ましい特徴は、従属請求項において規定される。Preferred features of the invention are defined in the dependent claims.

【0036】 他の特徴において、本発明は、物体の少なくとも一部の3次元表示を、該物体
の2次元画像から得る画像処理装置を提供し、物体は、2次元画像が得られる視
点から離間された位置から投影された所定の光学的放射によって照明され、2次
元画像は、前記所定の放射と相関され、前記装置は、前記相関および倍率変数の
両方に応じてシミュレートされた3次元空間において延びる3次元表示を形成す
るために配置されるディジタル処理手段を具備し、前記倍率変数は、所定の光学
的放射が投影される起点位置と2次元画像が得られる視点との間における間隔を
表す。
In another aspect, the invention provides an image processing device for obtaining a three-dimensional representation of at least a portion of an object from a two-dimensional image of the object, wherein the object is spaced from a viewpoint from which the two-dimensional image is obtained. Illuminated by a predetermined optical radiation projected from a given location, a two-dimensional image is correlated with the predetermined radiation, and the apparatus is simulated in a three-dimensional space responsive to both the correlation and magnification variables. Digital processing means arranged to form a three-dimensional representation extending at a distance, wherein the magnification variable is the distance between the origin position at which the predetermined optical radiation is projected and the viewpoint at which the two-dimensional image is obtained. Represent.

【0037】 本発明に関するこの特徴は、図13に示される。物体に対するカメラまたはプ
ロジェクタの位置に関するいかなる情報も必要としない1つの校正手順にしたが
って、3次元表示を発生させることが可能となる。3次元表示については、選択
的に、表示しかつ倍率調整(scaling)することができるか、または、例えば、
グラフィックスおよびアニメーションにおける特殊効果のためにひずませること
ができる。
This aspect of the invention is illustrated in FIG. According to one calibration procedure that does not require any information about the position of the camera or the projector with respect to the object, it is possible to generate a three-dimensional display. For a three-dimensional display, it can be selectively displayed and scaled, or, for example,
Can be distorted for special effects in graphics and animation.

【0038】 前記装置は、物体に対する様々な視点さら得られるさらなる2次元画像から3
次元表示を得るように配置され、結合手段(combining means)は、1つ以上の
回転および変換を伴ってシミュレートされた3次元空間における操作により、第
1の3次元表示とさらなる3次元表示とを結合させるように配置され、前記装置
は、一方の3次元再構成を1つの軸に沿って他方の3次元再構成に対して倍率調
整することにより、3次元再構成間におけるあらゆる残りの不具合を低減または
除去するように配置された倍率調整手段(scaling means)をさらに具備するこ
とが好ましい。
[0038] The device is capable of obtaining three-dimensional images from various viewpoints of the object.
A combining means arranged to obtain a three-dimensional representation, wherein the combining means comprises a first three-dimensional representation and a further three-dimensional representation by operation in a simulated three-dimensional space with one or more rotations and transformations. Wherein the apparatus scales one 3D reconstruction along one axis with respect to the other 3D reconstruction so that any remaining defects between the 3D reconstructions Preferably, the apparatus further comprises scaling means arranged to reduce or eliminate the following.

【0039】 前記装置は、両方の3次元表示を同時に表示するように、かつ、ユーザー二よ
り入力されたコマンドに応じてシミュレートされた3次元空間においてこれらの
3次元表示を操作するように配置される。
The device is arranged to display both three-dimensional displays simultaneously and to operate these three-dimensional displays in a simulated three-dimensional space in response to commands entered by a user. Is done.

【0040】 一実施形態において、前記装置は、コンピュータポインティング装置の制御の
下で、3次元再構成の操作を行うように配置される。
In one embodiment, the device is arranged to perform a three-dimensional reconstruction operation under the control of a computer pointing device.

【0041】 前記装置は、2つ以上の3次元再構成を結合させる手段と、これらの表示が互
いに適合することを可能にするために、これらの表示の相対的倍率を調整する手
段とを有することが好ましい。
The device comprises means for combining two or more three-dimensional reconstructions, and means for adjusting the relative magnification of these representations, in order to allow their representations to match each other. Is preferred.

【0042】 他の実施形態において、前記変数は、図8〜図11に示されるように、仮想プ
ロジェクタの不正確な位置決め(例えば、カメラの視点に対する位置ずれ(misa
lignment)から生じ得る部分的な3次元再構成の1つ以上のひずみを、横方向ま
たは深度方向(場の湾曲)のいずれかに補正する。
In another embodiment, the variable is an incorrect positioning of the virtual projector (eg, a misalignment with respect to the camera viewpoint (misa), as shown in FIGS.
One or more distortions of the partial three-dimensional reconstruction that may result from the lignment are corrected either in the lateral direction or in the depth direction (field curvature).

【0043】 ある実施形態において、前記部分的な3次元再構成は、仮想プロジェクタの一
方または両方を、カメラの視点またはカメラおよびプロジェクタの視点に対して
故意に位置ずれさせることにより、ひずめられる。
In one embodiment, the partial three-dimensional reconstruction is distorted by intentionally displacing one or both of the virtual projectors with respect to the camera or the camera and the projector.

【0044】 このような構成は、設計、グラフィック、アニメーションの分野において有用
である。
Such a configuration is useful in the fields of design, graphics, and animation.

【0045】 方位に関する多少の違いについては許容することができ、かつ、後述するよう
に、結果として生じる3次元再構成におけるひずみについては補正することがで
きる。
Some differences in orientation can be tolerated, and the resulting distortion in the three-dimensional reconstruction can be corrected, as described below.

【0046】 方位の違いが小さいほど、3次元再構成におけるひずみも小さくなる。カメラ
の方位は、2つの視点間において一定に維持されることが理想的である。
The smaller the difference in orientation, the smaller the distortion in three-dimensional reconstruction. Ideally, the orientation of the camera is kept constant between the two viewpoints.

【0047】 前記物体の対応する構成における、1組の相関された構成により相対された角
度は、90°±30°(より好ましくは、±10°)であることが好ましい。前
記相対された角度は、正確に90°であることが理想的である。この構成は、僅
かな方位変化から生じるあらゆるひずみを、より正確に補正することを可能にす
る。
Preferably, in the corresponding configuration of the object, the angle opposed by the set of correlated configurations is 90 ° ± 30 ° (more preferably ± 10 °). Ideally, the opposed angles are exactly 90 °. This configuration allows for more accurate correction of any distortions resulting from slight orientation changes.

【0048】 上述の方法による前記部分的再構成にしたがって、オーバーラップ画像のさら
なるセットから同様に得られる物体の様々な部分に関する相補形3次元再構成を
、ともにフィルタリングすることができる。
According to the partial reconstruction according to the method described above, complementary three-dimensional reconstructions for various parts of the object, which are likewise obtained from a further set of overlapping images, can be filtered together.

【0049】 前記再構成がひずむ限り、3次元再構成を適合させることを可能にすべく、画
像平面に平行なひずみと場の湾曲とに対して単純な補正を適用することができる
As long as the reconstruction is distorted, simple corrections can be applied to the distortion parallel to the image plane and the curvature of the field in order to be able to adapt the three-dimensional reconstruction.

【0050】 前記シミュレートされた3次元空間における再構成の表示が、例えば、スクリ
ーン上に示されることが好ましく、かつ、前記変数が、スクリーン上に示された
表示に応じてユーザーにより変化させられる。
The representation of the reconstruction in the simulated three-dimensional space is preferably shown, for example, on a screen, and the variables are changed by the user in response to the representation shown on the screen .

【0051】 前記画像処理手段は、前記画像の局所的な放射的分布(radiometric distribu
tion)を比較することにより、前記画像の前記対応を発生させるように配置され
ることが好ましい。
[0051] The image processing means may include a local radiographic distribution of the image.
It is preferably arranged to generate the correspondence of the images by comparing the corresponding images.

【0052】 関連する特徴において、本発明は、物体の少なくとも一部の3次元表示を、そ
の2次元画像から得る方法を提供し、前記方法は、投影された所定の光学的放射
によって物体を照明する段階と、照明された物体の2次元画像を得る段階と、2
次元画像を所定の光学的放射の光線と相関させる段階と、前記相関および倍率変
数の両方に応じてシミュレートされた3次元空間において延びる3次元表示を形
成するために2次元画像をディジタル処理する段階とを具備し、前記倍率変数は
、所定の光学的放射が投影される起点位置と2次元画像が得られる視点との間に
おける間隔を表す。
In a related aspect, the present invention provides a method for obtaining a three-dimensional representation of at least a portion of an object from a two-dimensional image thereof, the method comprising illuminating the object with a predetermined projected optical radiation. Performing a two-dimensional image of the illuminated object;
Correlating the two-dimensional image with a beam of predetermined optical radiation and digitally processing the two-dimensional image to form a three-dimensional representation extending in a simulated three-dimensional space in response to both the correlation and magnification variables. And wherein the magnification variable represents a distance between a starting position at which a predetermined optical radiation is projected and a viewpoint at which a two-dimensional image is obtained.

【0053】 例えば、Gruenのアルゴリズムのような(Gruen, A W "Adaptive least square
s correlation: a powerful image matching technique" S Afr J of Photogram
metry, remote sensing and Cartography Vol 14 No 3 (1985)と、Gruen, A W a
nd Baltsavias, E P "High precision image matching for digital terrain mo
del generation" Int Arch photogrammetry Vol 25 No 3 (1986) p254とを参照
)、オーバーラップ画像を相関させる(オーバーラップ画像間における対応を発
生させる)ための適切なアルゴリズムが公知であり、かつ、Otto and Chau "Reg
ion-growing algorithm for matching terrain images" Image and Vision Comp
uting Vol 7 No 2 May 1989 p83に記載されている“領域成長(region-growing
)”変更を本発明に対して行うこともまた公知であり、これらの論文は、全て本
明細書に参照として組み込まれる。
For example, Gruen's algorithm (Gruen, AW “Adaptive least square”
s correlation: a powerful image matching technique "S Afr J of Photogram
metry, remote sensing and Cartography Vol 14 No 3 (1985) and Gruen, AW a
nd Baltsavias, EP "High precision image matching for digital terrain mo
del generation "Int Arch photogrammetry Vol 25 No 3 (1986) p254), suitable algorithms for correlating overlapping images (generating correspondence between overlapping images) are known, and Otto and Chau "Reg
ion-growing algorithm for matching terrain images "Image and Vision Comp
uting Vol 7 No 2 May 1989 “region-growing
It is also known to make modifications to the present invention, and these articles are all incorporated herein by reference.

【0054】 本質的に、Gruenのアルゴリズムは、適合性がある最小二乗相関アルゴリズム
であり、該アルゴリズムにおいて、通常は15×15〜30×30画素の2つの
画像パッチが、これらの画像内の座標間におけるアフィン(affine)幾何学的ひ
ずみ(すなわち、元来平行な線がこの変換により平行のままとなる伸長および圧
縮)を許容することと、前記画像パッチ内の画素のグレイレベル間におけるさら
なる放射的ひずみを許容することと、相関された画素間における矛盾を表す過度
に制約された線形方程式のセットを発生させることと、矛盾を最小限にする最小
二乗解法を見出すこととにより相関される(すなわち、パッチ間において最も一
貫性のあるマッチングを与える方法で、より大きな左右の画像から選択される)
In essence, Gruen's algorithm is a compatible least-squares correlation algorithm in which two image patches, usually 15 × 15 to 30 × 30 pixels, have coordinates in these images. To allow for affine geometric distortion between them (ie, stretching and compression, where the originally parallel lines remain parallel due to this transformation) and further radiation between the gray levels of the pixels in the image patch Are correlated by tolerating dynamic distortion, generating an overconstrained set of linear equations that represent inconsistencies between correlated pixels, and finding a least-squares solution that minimizes inconsistencies ( (I.e., selected from the larger left and right images in a way that gives the most consistent matching between patches)
.

【0055】 前記Gruenアルゴリズムは、本質的に、反復的アルゴリズムであり、かつ、該
アルゴリズムが正しい解に収束する前に、該アルゴリズムに供給すべき相関のた
めに妥当な近似を必要とする。OttoおよびChauによる領域成長アルゴリズムは、
一方の画像内の点と他方の画像内の点との間の近似的マッチングによって始まり
、より正確なマッチングを生じさせかつ幾何学的分布パラメータと放射的分布パ
ラメータとを発生させるためにGruenのアルゴリズムを利用し、かつ、初期のマ
ッチング点の近隣領域内の点に関する近似的なパラメータを予測するために前記
分布パラメータを用いる。近隣の点は、全ての点に対してGruenのアルゴリズム
を実行することを回避するために、例えば5または10画素のグリッド間隔を有
するグリッド上の隣接点を選択することにより選択される。
The Gruen algorithm is essentially an iterative algorithm, and requires a reasonable approximation for the correlations to be provided to the algorithm before it converges to the correct solution. The region growing algorithm by Otto and Chau
Starting with approximate matching between points in one image and points in the other image, Gruen's algorithm to produce more accurate matches and generate geometric and radial distribution parameters And using the distribution parameters to predict approximate parameters for points in the neighborhood of the initial matching point. Neighboring points are selected by selecting neighboring points on a grid having a grid spacing of, for example, 5 or 10 pixels to avoid running Gruen's algorithm on all points.

【0056】 Huらによる"Matching Point Features with ordered Geometric, Rigidity an
d Disparity Constraints" IEEE Transactions on Pattern Analysis and Machi
ne Intelligence Vol 16 No 10, 1994 pp1041-1049(およびこの文献内に引用さ
れた参照文献)は、オーバーラップ画像の構成を相関させるためのさらなる方法
を開示している。
Hu et al., “Matching Point Features with ordered Geometric, Rigidity an
d Disparity Constraints "IEEE Transactions on Pattern Analysis and Machi
ne Intelligence Vol 16 No 10, 1994 pp 1041-1049 (and references cited therein) disclose a further method for correlating the composition of overlapping images.

【0057】 規定された構成をほとんど有していない画像(例えば、航空写真)間における
対応を発生させるために上記のアルゴリズムが開発され、その一方で、物体表面
上への所定の光の投影が別個の局所的な放射的分布を発生させるので、本発明に
おいて、相関に関する問題の重要性はより低くなる。したがって、正確な相関ア
ルゴリズムは重要ではない。しかしながら、Gruenアルゴリズに対して、以下の
ような多数の改善点が見出されている。 i)前記アルゴリズムにおいて用いられるさらなる放射的偏移(radiometric
shift)が不要となる。 ii)連続的な反復中に、候補となるマッチングされた点が1反復毎に一定以上
(例えば、3画素以上)だけ移動すれば、この点は、有効な点ではなく、かつ、
拒絶されるべきである。 iii)マッチングされた領域を成長させる間において、安定した収束のために十
分なデータが存在することを確実にするために、領域の4つの側のうち少なくと
も3つの側において十分なコントラストがあるかを照合することが有用である。
このことを容易にすべく、様々な環境に対してパラメータ(例えば、必要とされ
るコントラスト)を最適化することを可能にするためにアルゴリズムを構成可能
にすることが望ましい。 iv)画像間の対応の有効性の数量を定めるために、開始時点の画像における元
のグリッドポイントを、もう一方の画像にマッチングされた点にアルゴリズムを
適用すること(すなわち、ステレオマッチング処理(stereo matching process
)を反転させること)と、逆ステレオマッチングから開始時点の画像において見
出される元のグリッドポイントと新しいグリッドポイントとの間の距離を測定す
ることとにより、再度得ることが有用である、ということが判明している。距離
が短いほど、対応は良好となる。
The above algorithm has been developed to generate correspondence between images (eg, aerial photographs) that have few defined configurations, while projecting a given light onto an object surface In the present invention, the problem of correlation is less important because it generates a separate local radiation distribution. Therefore, the exact correlation algorithm is not important. However, a number of improvements have been found over the Gruen algorithm, including: i) the additional radiometric shift used in the algorithm
shift) is not required. ii) During successive iterations, if the candidate matched point moves more than a certain number (eg, 3 pixels or more) per iteration, this point is not a valid point, and
Should be rejected. iii) While growing the matched region, is there sufficient contrast on at least three of the four sides of the region to ensure that there is enough data for stable convergence? It is useful to match
To facilitate this, it is desirable to make the algorithm configurable to allow parameters (eg, required contrast) to be optimized for different environments. iv) Applying an algorithm to the original grid points in the starting image to the points matched to the other image in order to determine the amount of validity of the correspondence between the images (ie the stereo matching process (stereo matching process) matching process
)) And that it is useful to obtain again by measuring the distance between the original and new grid points found in the image at the start from the inverse stereo matching. It is known. The shorter the distance, the better the response.

【0058】 物体に対するカメラの視点を決定する前に全ての可能な構成を相関させること
は必要ではない(実際、多くの場合において、このことは、計算上効率が悪い)
。通常は、いったん、少数の組(例えば、8組)の相関された構成から視点が決
定されれば、視点決定段階から決定されたエピポラー線に沿ってさらなる相関さ
れた構成を検索することにより、それぞれの画像の構成間の残りの相関を得るこ
とはより簡単となる。
It is not necessary to correlate all possible configurations before determining the camera's viewpoint on the object (in fact, in many cases this is computationally inefficient)
. Typically, once a viewpoint is determined from a small number of sets (eg, eight) of correlated configurations, by searching for additional correlated configurations along the epipolar line determined from the viewpoint determination step, Obtaining the remaining correlation between the composition of each image is easier.

【0059】 いったん、前記相関と、カメラの位置および方位とが既知となれば、物体の3
次元構成については、画像を得たカメラと同じ焦点距離と視点(位置および方位
)とを有するプロジェクタから各々の画像を投影することにより、得ることが可
能である。それぞれの画像の対応する構成からの主光線は、物体の構成の位置に
おける(仮想の)3次元空間において交差する。
Once the correlation and the position and orientation of the camera are known, 3
The dimensional configuration can be obtained by projecting each image from a projector having the same focal length and viewpoint (position and orientation) as the camera that obtained the image. The chief rays from the corresponding configuration of each image intersect in (virtual) three-dimensional space at the location of the configuration of the object.

【0060】 したがって、他の特徴において、本発明は、相互に整列されたカメラにより得
られた物体画像を、整列された仮想プロジェクタからシミュレートされた3次元
空間内に投影する段階を具備する物体の3次元表示を発生させるための方法を提
供し、前記仮想プロジェクタの間隔は、ユーザーにより変更可能である。
Thus, in another aspect, the invention provides an object comprising projecting an object image obtained by a mutually aligned camera into a simulated three-dimensional space from an aligned virtual projector. For generating a three-dimensional display of the virtual projector, wherein the distance between the virtual projectors can be changed by a user.

【0061】 この特徴において、本発明は、相互に整列されたカメラにより得られた物体画
像を、シミュレートされた3次元空間内に投影するように配置された2つの整列
されたプロジェクタ手段を具備する物体の3次元表示を発生させるための装置を
提供し、仮想プロジェクタの間隔は、ユーザーにより変更可能である。
In this aspect, the invention comprises two aligned projector means arranged to project object images obtained by mutually aligned cameras into a simulated three-dimensional space. Provided is an apparatus for generating a three-dimensional display of a moving object, wherein a distance between virtual projectors is changeable by a user.

【0062】 前記仮想プロジェクタの整列における違い(すなわち、これらのプロジェクタ
間の角度)は、45°よりも小さいことが好ましく、30°よりも小さいことが
より好ましく、20°よりも小さい(例えば、10°よりも小さい)ことが最も
好ましい。この角度は、5°よりも小さい(例えば、3°よりも小さい)ことが
望ましい。この構成は、物体のオーバーハング構成を、両方のカメラ視点から捕
らえることを可能にし、かつさらに、画像間における構成の相関の他に、様々な
視点における該カメラの光学的中心を接続する線の決定を容易にする。
The difference in the alignment of the virtual projectors (ie the angle between these projectors) is preferably less than 45 °, more preferably less than 30 °, and less than 20 ° (eg 10 °). Preferably, this angle is less than 5 ° (eg, less than 3 °). This configuration allows the overhang configuration of the object to be captured from both camera perspectives, and furthermore, besides the configuration correlation between the images, the line connecting the optical centers of the cameras at various perspectives. Make decisions easier.

【0063】 各々の投影の原点は、2つの視点におけるカメラの対応する光学的中心を接続
する3次元空間内の線上に配置されることが好ましい。後述するように、図3を
参照すれば、このことは、物体に関する倍率調整された部分的3次元再構成とい
う結果となる。
The origin of each projection is preferably located on a line in three-dimensional space that connects the corresponding optical centers of the camera at the two viewpoints. As will be described below, referring to FIG. 3, this results in a scaled partial three-dimensional reconstruction of the object.

【0064】 一実施形態において、ひずみパラメータが、ユーザーにより入力され、かつ、
3次元再構成に適用される。例えば、2次元オーバーラップ画像を、シミュレー
トされた3次元空間内に初期の3次元再構成を形成するために投影が交差するよ
うな前記2次元オーバーラップ画像の基準(nominal)視点から投影した後に、
初期の3次元再構成の構成(該初期の3次元再構成の構成は、2次元画像のうち
の1つからの構成の投影上に存在するように、前記投影された画像の相関された
構成の交差投影から発生される)を制約する一方で、該初期の3次元再構成を回
転させることができ、これにより、さらなる3次元再構成が形成される。図9(
後述する)に示されるように、このことについては、実際の物体表面に平行であ
る(したがって、該物体表面の倍率調整された複製である)再構成を発生させる
ために用いることができる。上記の回転および制約は、初期の3次元再構成の平
行性の欠如により生じる横方向のひずみと、正しく整列された仮想プロジェクタ
から発生された3次元再構成とを補正する。
In one embodiment, the distortion parameters are entered by a user and
Applied to three-dimensional reconstruction. For example, a two-dimensional overlap image was projected from a nominal viewpoint of the two-dimensional overlap image such that the projections intersect to form an initial three-dimensional reconstruction in a simulated three-dimensional space. later,
An initial three-dimensional reconstruction configuration (the initial three-dimensional reconstruction configuration is a correlated configuration of the projected image such that it is on a projection of the configuration from one of the two-dimensional images) (Generated from the cross-projection of) can be rotated while the initial three-dimensional reconstruction is rotated, thereby creating a further three-dimensional reconstruction. FIG. 9 (
As shown in below), this can be used to generate a reconstruction that is parallel to the actual object surface (and thus a scaled copy of the object surface). The rotations and constraints described above correct for the lateral distortion caused by the lack of parallelism in the initial three-dimensional reconstruction and the three-dimensional reconstruction generated from a correctly aligned virtual projector.

【0065】 しかしながら、上述したように、多くの適用において、所望の技巧的効果を得
るために、3次元再構成を元の物体に対してひずませることが望ましい。
However, as noted above, in many applications, it is desirable to distort the three-dimensional reconstruction with respect to the original object in order to obtain the desired technical effect.

【0066】 3次元再構成を得ることに関する本発明の特徴が、予め得られた画像に、これ
らの画像がどれだけ得られようと、これらの画像に関連する相関された点の組と
関連して適用可能であることを特筆しておく。
A feature of the present invention with respect to obtaining three-dimensional reconstructions is that a pre-acquired image is associated with a set of correlated points associated with these images, no matter how these images are obtained. Note that this is applicable.

【0067】 前記視点は、少なくとも2組(望ましくは、少なくとも3組の)の相関された
構成から計算され、かつ、物体の3次元再構成は、前記視点の計算に応じて発生
され、かつ、前記視点の計算は、取得可能な全ての組よりも少数の組の相関され
た構成に対して行われることが好ましい。
The viewpoint is calculated from at least two (preferably at least three) sets of correlated configurations, and a three-dimensional reconstruction of an object is generated in response to the calculation of the viewpoint, and Preferably, the viewpoint calculation is performed on a smaller number of sets of correlated configurations than all available sets.

【0068】 本発明に関するこの好ましい構成は、図3(後述する)に示され、この図は、
3組の相関された構成からの投影の光束から視点を接続する線を得ることを示す
。第3組の相関されたP3,P3’からの第3の投影が、他の2つの投影の交差
により既に規定された点VPと交差する(かつこれにより、視点間において変更
されていない方位を確認するだけである)ので、厳密に言えば、視点を結びつけ
る直線を見出すことは必要ではない。したがって、この線については、カメラの
方位に変更がなければ、2組の相関された構成のみから見出すことができる。し
かしながら、2組よりも多い組の相関された構成が処理されれば、より高い精度
が得られる。
This preferred configuration for the present invention is shown in FIG. 3 (described below), which
Figure 4 shows obtaining lines connecting the viewpoints from the luminous flux of the projections from the three sets of correlated configurations. The third projection from the third set of correlated P3, P3 'intersects the point VP already defined by the intersection of the other two projections (and thus the unaltered orientation between the viewpoints) Strictly speaking, it is not necessary to find a straight line connecting the viewpoints. Thus, this line can only be found from the two sets of correlated configurations, unless the camera orientation is changed. However, more accuracy is obtained if more than two sets of correlated configurations are processed.

【0069】 前記計算は、1000組よりも少数の組の相関された構成に対して行われるこ
とが好ましく、50組よりも少数の組(例えば、8組以下)の相関された構成に
対して行われることがより好ましい。例えば、前記計算については、4組、3組
、または2組の相関された構成に対して行うことができる。
Preferably, the calculation is performed on less than 1000 sets of correlated configurations, and on less than 50 sets (eg, 8 or less) of correlated configurations. More preferably, it is performed. For example, the calculations can be performed on four, three, or two sets of correlated configurations.

【0070】 前記視点が平行またはほとんど平行(例えば、互いに10°以内)である場合
には、上述の構成によって多少なりとも処理上の節約がなされるという結果とな
ることが好ましい。
If the viewpoints are parallel or almost parallel (eg, within 10 ° of each other), the above arrangement preferably results in some savings in processing.

【0071】[0071]

【発明の実施の形態】BEST MODE FOR CARRYING OUT THE INVENTION

本発明に係るさらなる特徴は従属請求項に記載されている。 以下、本発明に関する非限定的な好ましい実施形態を、添付図面を参照しなが
ら説明する。
Further features according to the invention are set out in the dependent claims. Hereinafter, non-limiting preferred embodiments of the present invention will be described with reference to the accompanying drawings.

【0072】 まず図1を参照すると、本装置は、パーソナルコンピュータ4(例えば、Pent
ium(登録商標) PC)を備えている。パーソナルコンピュータ4は、従来のCPU,
ROM,RAM,及びハードドライブと、デジタルカメラ1に接続された入力ポート部の
結線と、画面5に接続された映像出力ポートと、キーボード及びマウス6または
その他のポインティングデバイスに接続された従来の入力ポートと、を備えてい
る。ハードドライブには、例えば、Windows(登録商標)95といった従来のOS
とソフトウェアとがロードされている。ソフトウェアとは、 a)カメラ1によって捕らえられた画像を表示するためのもの、 b)カメラ1から入力された画像のオーバーラップ領域における点の相関をとる
ためのもの、 c)得られた画像からカメラの移動線を検出するためのもの、 d)カメラによって得られた画像を、移動線上においてユーザーによって(キー
ボードまたはポインティングデバイスを用いて)選択された間隔に配置されたプ
ロジェクタから疑似3次元空間に投影する(部分3次元再構成画像を得る)ため
のもの、 e)部分3次元再構成画像を1つまたは複数の軸方向に寸法調整し、このような
部分3次元再構成画像を図12及び13に示すように組合せるためのもの、 f)図9及び図10A〜10Cに示す横方向ひずみ及び画像面湾曲を与えるか、
または補償するためのもの、などである。
First, referring to FIG. 1, the present apparatus includes a personal computer 4 (for example, Pent
ium (registered trademark) PC). The personal computer 4 has a conventional CPU,
ROM, RAM, and hard drives, connection of input ports connected to the digital camera 1, video output ports connected to the screen 5, and conventional inputs connected to a keyboard and mouse 6 or other pointing device. And a port. A conventional OS such as Windows (registered trademark) 95 is stored in the hard drive.
And software are loaded. The software includes: a) for displaying an image captured by the camera 1; b) for correlating points in an overlap region of the image input from the camera 1; c) from the obtained image For detecting a camera movement line, d) transferring an image obtained by the camera from a projector arranged at an interval selected by a user (using a keyboard or a pointing device) on the movement line into a pseudo three-dimensional space. E) projecting (obtaining a partial three-dimensional reconstructed image), e) dimensioning the partial three-dimensional reconstructed image in one or more axial directions, and reconstructing such a partial three-dimensional reconstructed image in FIG. 13) for providing the lateral distortion and field curvature shown in FIGS. 9 and 10A-10C,
Or to compensate.

【0073】 機能a)を実行するソフトウェアは、適当なグラフィックプログラムであれば
どのようなものでもよく、機能b)を実行するソフトウェアとしては、IEEE Tra
nsactions on Pattern Analysis and Machine Intelligence Vol. 16 No.10, 19
94年,1041-1049ページに掲載のHu等による論文“Matching Point Features with
ordered Geometric, Rigidity and Disparity Constraints”に開示されたアル
ゴリズムに基づくものが使用可能である。適当なアルゴリズムの1つは、Gruen
のアルゴリズムである。
The software for executing the function a) may be any suitable graphic program, and the software for executing the function b) may be IEEE Tra
nsactions on Pattern Analysis and Machine Intelligence Vol. 16 No.10, 19
Hu et al., “Matching Point Features with,” pp. 1041-1049, 1994.
An algorithm based on the algorithm disclosed in “Ordered Geometric, Rigidity and Disparity Constraints” can be used. One suitable algorithm is Grün
Algorithm.

【0074】 図1を参照すると、カメラCMは、Pulnix M-9701型プログレッシブスキャン
式デジタルカメラであり、これは手持ち支持でも、あるいは(1′に示すように
)三脚Tまたは他の支持装置に固定してもよい。カメラCMは、3軸配列された
信号を生成し画面に表示するためのフィルター回路(現時点ではKalmanフィルタ
ーが好ましい)と積分回路とを有する3軸振動型ジャイロスコープGを備え、そ
の初期視点(位置と方位で規定される)におけるx,y,z軸の第1セットを規
定し、物体3の画像を取得し、その画像を画面5に表示するために用いられる。
xyz座標係の原点は、カメラレンズの光学中心に置かれる。次いでカメラを任
意の距離だけ移動して新しい位置CM′に置き、カメラの(xyz座標係に対す
る)方位を変えずに、物体3の第2画像を取得する。方位を変えないという操作
は、必要に応じて適切な支持装置を用いることによって実現される。方位に関す
る変化のチェックは、カメラの画像平面Iにおける2つの画像の対応する点の投
影像の収束に基づいて行われるが、その方法については、図4を参照しながら追
って説明する。この目的のために必要なのは、対応して対をなす数個(例えば3
,4,5個,多くて10個)の点のみであり、これらの点は、画面に表示された
画像からユーザーが視覚的に定めることができ、あるいは、コンピュータ4のソ
フトウェアによって定めることができる。図4から明らかであるように、カメラ
の動き(すなわち、2つの位置に位置するカメラレンズの光学中心で交わるxy
z座標係における線分)もまた、この段階で特定することができる。しかし、高
精度の再構成画像が必要とされない場合には、カメラの移動方向をユーザーが推
測してもよい。
Referring to FIG. 1, the camera CM is a Pulnix M-9701 progressive scan digital camera, which may be hand-held or fixed to a tripod T or other support device (as shown at 1 ′). May be. The camera CM includes a three-axis vibratory gyroscope G having a filter circuit (currently a Kalman filter is preferable) and an integration circuit for generating signals arranged in three axes and displaying the signals on a screen. The first set of x-, y-, and z-axes is defined, and is used to acquire an image of the object 3 and display the image on the screen 5.
The origin of the xyz coordinate system is located at the optical center of the camera lens. Then, the camera is moved by an arbitrary distance to the new position CM ′, and a second image of the object 3 is acquired without changing the orientation of the camera (with respect to the xyz coordinate system). The operation of not changing the azimuth is realized by using an appropriate support device as needed. The check on the change in the azimuth is performed based on the convergence of the projection images of the corresponding points of the two images on the image plane I of the camera. The method will be described later with reference to FIG. For this purpose, all that is required is a corresponding number of pairs (eg 3
, 4, 5, and at most 10) points, which can be visually determined by the user from the image displayed on the screen, or can be determined by software of the computer 4. . As is evident from FIG. 4, the camera movement (ie, the xy crossing at the optical center of the camera lens located at the two positions)
A line segment in the z coordinate system) can also be identified at this stage. However, when a high-precision reconstructed image is not required, the user may estimate the moving direction of the camera.

【0075】 2つの画像における残りの対応点は、コンピュータ4によって(好ましくは前
段階で得られたカメラの移動に関する情報を利用し、例えば、一方の画像のエピ
ポーラー線に沿って、他方の画像の対応点まで検索するというやり方で)相関が
とられ、以下に図3を参照しながら説明するように、物体3の疑似3次元空間に
おける部分3次元再構成画像が対応点から形成される。位置1と位置1′との間
の距離は既知ではないので、この距離に対応するパラメータは、ユーザーが、例
えばキーボードまたはポインティングデバイス6を用いて入力する。コンピュー
タ4は、結果として得られる3次元再構成画像を画面に表示するようにプログラ
ムされており、ユーザーは、xyz座標係における部分3次元再構成画像が実際
の物体3と整合するまで、対話形式でパラメータを変更することができる。通常
、3次元再構成画像は、実際の物体と比較すると、位置CMからCM′への移動
方向に、伸長されたり、圧縮されたりする。
The remaining corresponding points in the two images are calculated by the computer 4 (preferably using the information about the movement of the camera obtained in the previous step, for example, along the epipolar line of one image, Correlation is performed (in a manner of searching up to corresponding points), and a partial three-dimensional reconstructed image of the object 3 in a pseudo three-dimensional space is formed from the corresponding points, as described below with reference to FIG. Since the distance between position 1 and position 1 'is not known, the parameter corresponding to this distance is entered by the user using, for example, a keyboard or a pointing device 6. The computer 4 is programmed to display the resulting three-dimensional reconstructed image on the screen, and the user may interact with the three-dimensional reconstructed image in the xyz coordinate system until the partial three-dimensional reconstructed image matches the real object 3 The parameter can be changed with. Usually, the three-dimensional reconstructed image is expanded or compressed in the moving direction from the position CM to the CM 'as compared with the actual object.

【0076】 2つの位置間でカメラの方位を保持する精度(例えばジャイロスコープGの方
位信号も利用する)によって、及び、推定された、あるいは光学的に検出された
カメラの移動に関する精度によって、部分3次元再構成画像にはひずみが生じる
。このひずみは、この段階で修正可能である。このようなひずみの修正(意図的
にひずみを付加する場合もある)については、図9及び図10A〜10Cを参照
しながら追って説明する。
Depending on the accuracy of maintaining the orientation of the camera between the two positions (for example, also using the orientation signal of the gyroscope G) and the accuracy with respect to the estimated or optically detected movement of the camera, Distortion occurs in the three-dimensional reconstructed image. This distortion can be corrected at this stage. The correction of the distortion (the distortion may be intentionally added) will be described later with reference to FIGS. 9 and 10A to 10C.

【0077】 カメラCMを新たな視点CMAに移動することによって、さらなる部分3次元
再構成画像が生成される。この移動において、物体はオーバーラップ領域に置か
れる。すなわち、視点CM及びCM′におけるカメラの視野内の少なくとも1つ
の点Pが、視点CMAにおけるカメラの視野内に保持される。この移動は、y軸
回りの回転θ(新たな軸xi,yi,ziを得る)、それに続くxi軸回りの回転φ
(新たな軸x′,y′,z′を得る)、それに続くz′軸回りの回転κ、それに
続く新たな軸方向の並進ΔX,ΔY,ΔZによって表現することができる。z′
軸回りの回転κは、図1に示すように、多くの場合ゼロである。
By moving the camera CM to a new viewpoint CMA, a further partial three-dimensional reconstructed image is generated. In this movement, the object is placed in the overlap area. That is, at least one point P in the field of view of the camera at the viewpoints CM and CM 'is held in the field of view of the camera at the viewpoint CMA. This movement involves a rotation θ about the y-axis (to obtain new axes x i , y i , z i ) followed by a rotation φ about the x i axis.
(Obtain new axes x ', y', z '), followed by a rotation κ about the z' axis, followed by new axial translations ΔX, ΔY, ΔZ. z '
The rotation κ about the axis is often zero, as shown in FIG.

【0078】 視点CMAにおいて画像を取得した後、カメラを新たな位置1A′に移動して
、さらなる画像を取得し、表示させる(視点CMAの場合と同様にカメラの方位
は変化しないように調整する)。次いで、前述した視点CM及びCM′の場合と
同様にして、物体3のさらなる部分3次元再構成画像がコンピュータ4によって
生成される。
After acquiring an image at the viewpoint CMA, the camera is moved to a new position 1A ′ to acquire and display a further image (adjustment is performed so that the direction of the camera does not change as in the case of the viewpoint CMA). ). Then, in the same manner as in the case of the viewpoints CM and CM 'described above, a further partial three-dimensional reconstructed image of the object 3 is generated by the computer 4.

【0079】 x′,y′,z′座標係の原点が、視点CMAにおいてカメラの光学中心に移
動して新たな座標係X,Y,Zを得るものと仮定すると、新たな座標係XYZに
おける任意の点XYZと、xyz座標係における同一点xyzとの関係は、以下
の式で与えられる。
Assuming that the origin of the x ′, y ′, z ′ coordinate system moves to the optical center of the camera at the viewpoint CMA to obtain new coordinate systems X, Y, Z, the new coordinate system XYZ The relationship between an arbitrary point XYZ and the same point xyz in the xyz coordinate system is given by the following equation.

【数1】 (Equation 1)

【0080】 3×3行列における各項は、XYZ座標係とxyz座標係とが成す角度のコサ
イン(余弦)で表現することができる(例えば、Boas Mathematical Methods in
the Physical Sciences Pub John Wiley & Sons, 第2版 437-438ページ参照
)。
Each term in the 3 × 3 matrix can be expressed by the cosine of the angle formed by the XYZ coordinate system and the xyz coordinate system (for example, Boas Mathematical Methods in
The Physical Sciences Pub John Wiley & Sons, 2nd ed., pages 437-438).

【0081】 従って、部分3次元再構成画像は、一般座標係に変換可能であり、部分3次元
再構成画像のオーバーラップ領域における部分3次元再構成画像間の相違点を最
小化するために、3つの全ての軸に沿って再構成画像を伸長したり圧縮したりで
き、物体3の、より完全な再構成画像を生成することができる。
Therefore, the partial three-dimensional reconstructed image can be converted into a general coordinate system, and in order to minimize the difference between the partial three-dimensional reconstructed images in the overlapping area of the partial three-dimensional reconstructed image, The reconstructed image can be decompressed and compressed along all three axes, and a more complete reconstructed image of the object 3 can be generated.

【0082】 図19を参照しながら追ってさらに詳細に説明するように、本実施形態では、
この作業はユーザーが画面上に3次元再構成画像を表示させ、3軸に沿って再構
成画像の相対的な伸長/圧縮変化させることによって実行される。
As will be described in more detail later with reference to FIG. 19, in the present embodiment,
This operation is performed by a user displaying a three-dimensional reconstructed image on a screen and changing the relative expansion / compression of the reconstructed image along three axes.

【0083】 他の実施形態においては、部分3次元再構成画像が、使用者を介入させること
なく反復最近接点アルゴリズムを使って組み合わせられている。このアルゴリズ
ムは、公に入手できるものであるので、そのアルゴリズムについての詳細な説明
は省略することにする。しかしながら、あえて簡潔にいうとすれば、それは各エ
ッジ上に位置する10組の最近接点の1つのグループを見つけることによって2
つの表面エッジを記録するものである。ついでこれら表面はこれら複数組の点の
間の密集距離を最小にするよう再配置されるとともに、つぎに新しい複数組の最
近接点が見つけだされるものである。それゆえ再配置ステップが繰り返し行われ
ている。3次元表面領域を相関させる他の方法は、英国特許第 2,292,605 号公
報に開示されている。本発明の一つの特徴によれば、計数逓減率あるいは他の変
数は、部分3次元再構成画像が物体の首尾一貫した全体表面の作図に互いに一致
させることができることを確実にするのに部分3次元再構成画像の相対サイズを
調整するために使用者によっても作り出されるし、ソフトウェア制御下でも反復
して作り出される。
In another embodiment, the partially reconstructed 3D images are combined using an iterative nearest neighbor algorithm without user intervention. Since this algorithm is publicly available, a detailed description of the algorithm will be omitted. However, in a nutshell, it can be done by finding one group of the 10 nearest neighbors located on each edge.
One surface edge is recorded. The surfaces are then rearranged to minimize the close distance between the sets of points, and a new set of closest points is then found. Therefore, the rearrangement step is repeatedly performed. Another method of correlating three-dimensional surface areas is disclosed in GB 2,292,605. According to one feature of the invention, the scaling factor or other variable is used to ensure that the three-dimensional reconstructed images can match each other to a consistent global surface plot of the object. It is created either by the user to adjust the relative size of the dimensional reconstructed image, or iteratively created under software control.

【0084】 図1および図2の実施形態の説明に戻ると、さらなる部分3次元再構成画像は
、物体3の他側からも同様に得ることができるとともに、物体の完全な3次元表
現が達成されるまで互いにおよび/または部分3次元再構成画像の現存する組み
合わせと組み合わせることができる。 その方法は図2に要約されている。
Returning to the description of the embodiment of FIGS. 1 and 2, further partial three-dimensional reconstructed images can be obtained from the other side of the object 3 as well, and a complete three-dimensional representation of the object is achieved. Can be combined with each other and / or with existing combinations of partial 3D reconstructed images. The method is summarized in FIG.

【0085】 重なっている画像が捕らえられている(ステップS10)。複数の点(あるい
はより大きい特徴、たとえば複数の線あるいは複数の領域)が相関関係にある(
ステップS20)とともに観察位置間の少なくとも近接したカメラ移動が決定さ
れている(ステップS30)。好ましい実施形態において、これは2つの画像を
処理することによって高精度で決定されている。ついで物体表面の部分3次元再
構成画像は、相関のとられた複数組の点およびカメラ移動を処理するためにコン
ピュータ4を使用する見せかけの3次元空間内に作り出されている(ステップS
40)とともに、これらは好適に首尾一貫しているが多分ひずまされた(たとえ
ば、圧縮されたり伸長された)3次元表現を与えるために使用者によってスクリ
ーン上で相互に組み合わされている(ステップS50)ことが望ましい。選択的
に、これは適当な圧縮または伸長を与えることによってひずまされたりあるいは
ひずまされなかったりする(ステップS60)。
An overlapping image has been captured (step S 10). Multiple points (or larger features, such as multiple lines or multiple regions) are correlated (
At the same time as the step S20), the camera movement at least close to the observation position is determined (step S30). In the preferred embodiment, this has been determined with high precision by processing the two images. A partial 3D reconstructed image of the object surface is then created in an apparent 3D space using the computer 4 to process the correlated sets of points and camera movements (step S).
Together with 40), they are preferably interlocked on the screen by the user to give a coherent but possibly distorted (eg compressed or decompressed) three-dimensional representation (step S50). Is desirable. Optionally, it is distorted or undistorted by providing the appropriate compression or decompression (step S60).

【0086】 別の実施形態において、ステップS30およびステップS40は、マトリック
ス処理法、たとえば3D Construction Inc. によって作り出された商業的に入手
できるINTERSECT プログラムを使用して組み合わせることができる。
In another embodiment, steps S 30 and S 40 can be combined using a matrix processing method, for example, a commercially available INTERSECT program created by 3D Construction Inc.

【0087】 以下、図3に基づいてステップS40をより詳細に説明する。 図3は位置CMおよび位置CM’でのカメラCMの視野にある物体3を示している。
物体の表面上に位置する点Qa,Qb,Qcからの主光線は各位置CM,CM’にお
けるカメラの光学中心OC,OC’を通過するとともに、それら各主光線は画像
平面上に投影される。したがって、点Qa,Qb,Qc(および図示していない
その他の多くの点)の各点から画像平面上に形成された複数組の点は対応部であ
るとともに、公知のアルゴリズムによって互いに相関をとることができる。
Hereinafter, step S40 will be described in more detail with reference to FIG. FIG. 3 shows the object 3 in the field of view of the camera CM at the position CM and the position CM ′.
The chief rays from points Qa, Qb, Qc located on the surface of the object pass through the optical center OC, OC 'of the camera at each position CM, CM', and each chief ray is projected on the image plane. . Therefore, a plurality of sets of points formed on the image plane from each of the points Qa, Qb, Qc (and many other points not shown) are corresponding parts and are correlated with each other by a known algorithm. be able to.

【0088】 さらに、同じ指向方向、焦点距離、および各観測点でのカメラとしてその他の
光学特性を有する疑似プロジェクタpr1,pr2が仮に点CM,CM’に置かれたとした
ら、つぎにそれらは相関がとられた複数組の点から疑似3次元空間内に光線を投
影する。これら相関がとられた複数組の点は、関連づけられた1組の画像点に相
当する物体表面上の対応部Qa,Qb,Qc...およびすべての他の点の真の
位置で交差する。疑似プロジェクタが操作者によって画像上に生じさせられるこ
とによって、疑似プロジェクタは画像の光学プロジェクタとして機能する。要求
された方法における画像を処理するための適切なソフトウェアルーチンは、当業
者でもやすやすと書き込みができた。
Further, if the pseudo projectors pr1 and pr2 having the same pointing direction, focal length, and other optical characteristics as a camera at each observation point are placed at the points CM and CM ′, then, their correlations will be changed. Light rays are projected into a pseudo three-dimensional space from a plurality of sets of points taken. A plurality of sets of these correlated points correspond to corresponding portions Qa, Qb, Qc. On the object surface corresponding to a set of associated image points. . . And intersect at the true position of all other points. The pseudo-projector functions as an optical projector of the image by being created on the image by the operator. Appropriate software routines for processing images in the required manner could be readily written by those skilled in the art.

【0089】 (共通のカメラ指向方向に相当する)物体の基準フレーム内で同じ指向方向を
有するプロジェクタが図3に示されているが、これは単にベクトルVが図4に開
示した画像処理方法によってより簡単に決定することができる好ましい特徴であ
る。原則として、上記分析はまた異なるカメラ指向方向とそれぞれ一致する異な
る指向方向の疑似プロジェクタにとって適切なものでもある。上述したように、
カメラの指向方向は慣性センサおよび上述した英国特許第 2,292,605 号公報に
開示されたものと同様の積分回路によって決定することができる。
A projector having the same pointing direction in the reference frame of the object (corresponding to the common camera pointing direction) is shown in FIG. 3, but this is simply because the vector V is obtained by the image processing method disclosed in FIG. This is a preferred feature that can be determined more easily. In principle, the above analysis is also appropriate for pseudo-projectors with different pointing directions, each corresponding to a different camera pointing direction. As mentioned above,
The pointing direction of the camera can be determined by an inertial sensor and an integrating circuit similar to that disclosed in the above-mentioned British Patent 2,292,605.

【0090】 もし、位置CM,CM’に位置するカメラ/プロジェクタレンズの光学中心を結ぶ
ベクトルVが延在するとともに、プロジェクタpr2が(たとえば図示した位置pr2
’に対して)その変化しなかった指向方向を有するこのベクトルに沿って移動さ
れ、かつ同じ光線がそれから投影されているなら、つぎにこれらはプロジェクタ
pr1からの光線をしかも疑似3次元空間の異なる点でこれから先も交差させる。
たとえば、Qa,Qb,Qcでの交点は、それぞれQa’,Qb’,Qc’での
交点に置き換えられている。これはOpからの光線に平行なOp’からの光線に
よるもので、Opからの光線と交差するOCからの光線として同一平面内に位置
しているとともにそれゆえにOCからの光線と交差していることになる。たとえ
ば、線Op’,Qa’は三角形OCOC’Qaと同一平面内に位置するとともに
、それゆえにこの場合、Qa’で線OCQaと交差する。
If the vector V connecting the optical centers of the camera / projector lenses located at the positions CM and CM ′ extends, and the projector pr2 (for example, the illustrated position pr2
If moved along this vector with its unaltered pointing direction (for ') and the same rays are then projected from them,
The rays from pr1 will intersect at different points in the pseudo three-dimensional space.
For example, the intersections at Qa, Qb, and Qc are replaced with the intersections at Qa ', Qb', and Qc ', respectively. This is due to the ray from Op ′ parallel to the ray from Op, which lies in the same plane as the ray from OC intersecting with the ray from Op and therefore intersects with the ray from OC. Will be. For example, the lines Op ′, Qa ′ lie in the same plane as the triangle OCOC′Qa and therefore intersect the line OCQa at Qa ′ in this case.

【0091】 したがって、投影された画像が得られるとともにプロジェクタがカメラとして
同じ指向方向を有する2位置で、仮にベクトルVがカメラレンズの光学中心を結
ぶ線に平行であるならば、縮小した表示3/3’はベクトルV上の何組かの疑似
プロジェクタによって作り出すことができる。この最終状態は、たとえ修正指向
方向が最初にわからなくても、すなわち相関がとられた何組かの点からの各光線
が交差するまでベクトルVに対して垂直となる軸について方向を調整することに
よって満たすことができる。この処理手順は、スクリーン上の画像および光線の
適切な表示の助けによって使用者が手動で実行することもできるし、ソフトウェ
アにおいて自動で実行することもできる。
Therefore, if the projected image is obtained and the vector V is parallel to the line connecting the optical centers of the camera lenses at two positions where the projector has the same directivity as the camera, the reduced display 3 / 3 'can be created by several sets of pseudo-projectors on vector V. This final state adjusts the direction about the axis that is perpendicular to the vector V until the corrected pointing direction is not initially known, ie, each ray from several correlated points intersects. Can be satisfied by This procedure can be performed manually by the user with the aid of the proper display of images and rays on the screen, or can be performed automatically in software.

【0092】 さらに、ベクトルVの方向を一度作り出すことができる物体の3次元表示は公
知である。図3を本発明のプロジェクタ−カメラ形態と関連した疑似プロジェク
タにとって適切な非常に似た方法に関連して再度参照する。
Further, a three-dimensional display of an object capable of once creating the direction of the vector V is known. FIG. 3 is referenced again in connection with a very similar method suitable for a pseudo-projector in connection with the projector-camera configuration of the present invention.

【0093】 図4はベクトルVの一誘導を示すものである(図2におけるステップS40)
。理解を容易にするために、(光学中心Oを有するレンズを備えた)カメラは動
かないように考慮されるとともに、物体3は線Mに沿って位置3’の方に動くよ
う考慮されている。点P1,P2,P3は、物体が位置3にあるとき点p1,p
2,p3として投影され、かつ物体が位置3’にあるとき点p1’,p2’,p
3’として投影される。物体フレームに対してカメラの指向方向が仮におよびた
だ2位置間で変化されないとすれば、ついでPnおよびpn’(この図において
n=1〜3であるが実際にはもっと大きい値である)を結ぶ線L1,L2,L3
の共通点VPで交わる。この共通点は透視図において消失点といくらか同質のも
のである。
FIG. 4 shows an induction of the vector V (step S40 in FIG. 2).
. For ease of understanding, the camera (with the lens having the optical center O) is considered stationary and the object 3 is considered to move along the line M toward the position 3 '. . Points P1, P2, and P3 are points p1 and p when the object is at position 3.
2, p3, and when the object is at position 3 ', points p1', p2 ', p
Projected as 3 '. Assuming that the pointing direction of the camera relative to the object frame is not changed and only between the two positions, then Pn and pn '(where n = 1 to 3 in this figure, but in practice are larger values) Connecting lines L1, L2, L3
Intersect at a common point VP. This common point is somewhat homogeneous in the perspective view as the vanishing point.

【0094】 VPを光学中心Oと結ぶ線がベクトルVであることがわかる。このベクトルは
、物体に対してカメラの光学中心の軌跡(すなわち疑似プロジェクタの所望の軌
跡)である。
It can be seen that the line connecting VP with the optical center O is the vector V. This vector is the trajectory of the optical center of the camera with respect to the object (ie, the desired trajectory of the pseudo projector).

【0095】 一般に、もしカメラが手持ち支持されているならば、互いに相関のとられた点
を結ぶ線L1,L2,L3,...,Lnは、2位置間にあるカメラの指向方向
の変化によって共通点で交わることはない。しかしながら、カメラの指向方向は
第2位置で使用者によってX軸、Y軸、Z軸について変化させることができ、一
方これらの線が共通点上あるいはその近傍で一点に集まるときにのみ、スクリー
ン上および得た第2画像に視覚的あるいはソフトウェアルーチンによって決定し
た線L1,L2,L3,...,Lnを表示している。確かに、画像は必要な収
束が達成されるときのみソフトウェアルーチンの制御下で得ることができる。
In general, if the camera is hand-held, lines L1, L2, L3,. . . , Ln do not intersect at a common point due to a change in the direction of the camera between the two positions. However, the pointing direction of the camera can be changed by the user in the second position about the X, Y and Z axes, while on the screen only when these lines converge on or near a common point. And lines L1, L2, L3,... Determined visually or by a software routine on the obtained second image. . . , Ln. Indeed, images can only be obtained under the control of software routines when the required convergence is achieved.

【0096】 ジャイロスコープGが使用される場合には、その3軸指向方向信号は2つの観
察点間のカメラの指向方向を維持するのに使用することができる。
If a gyroscope G is used, its three-axis pointing signal can be used to maintain the pointing direction of the camera between two viewing points.

【0097】 仮にカメラが移動されるとともに物体が固定されることを考慮した場合、その
最初の位置からのカメラの移動は、画像平面およびその第1位置にあるカメラの
画像平面(および画像)上のその新しい位置にあるカメラの相関のとられた画像
を重ね合わすこと、その第1位置にあるカメラの画像平面内の線L1,L2,L
3,...,Lnを映し出すこと、および交点VPの演算点をその第1位置にあ
るカメラの光学中心に結びつけることによって得られることに留意しなければな
らない。演算ベクトルVは、その第1位置でのカメラの座標フレーム内の物体の
移動である。
Considering that the camera is moved and the object is fixed, the movement of the camera from its initial position is based on the image plane and the image plane (and image) of the camera at its first position. Superimposing the correlated images of the camera at its new position, lines L1, L2, L in the image plane of the camera at its first position
3,. . . , Ln, and tying the computed point of intersection VP to the optical center of the camera at its first position. The operation vector V is the movement of the object in the coordinate frame of the camera at the first position.

【0098】 上記方法の変形実施において、さらなる画像の移動する画像あるいは急速な継
続は、それが移動するとともに各画像間あるいは移動する画像の順次フレーム間
のカメラの(見せかけの)直線移動がカメラの各増分移動に対して点VPを得る
ためにカメラの画像平面内の線L1,L2,L3,...,Lnを投影すること
によって得られるとき、カメラによって得られる。カメラの移動方向が移動する
とき、カメラの各増分移動に対して演算ベクトルVは方向を変えるとともに、そ
のセグメントはカメラの(指向方向における変化を含む)すべての移動を決定す
るのに積分することができる。
In a variant implementation of the above method, the moving image or rapid continuation of the further image is such that the (simulated) linear movement of the camera between each image or between successive frames of the moving image is as the camera moves. Lines L1, L2, L3,... In the camera image plane to obtain a point VP for each incremental movement. . . , Ln are obtained by the camera when obtained by projecting. As the direction of movement of the camera moves, the operation vector V changes direction for each incremental movement of the camera, and its segments integrate to determine all movements (including changes in pointing direction) of the camera. Can be.

【0099】 物体に対して深さ(Z)方向における移動が小さいかあるいは全くない場合に
は、線L1,L2,L3,...,Lnは平行となるかあるいは非常に接近して
いるとともに、VPは無限であるか正確に決定されるには遠すぎる。
If the object moves little or no in the depth (Z) direction, the lines L1, L2, L3,. . . , Ln are parallel or very close, and the VP is infinite or too far to be accurately determined.

【0100】 この特別な場合を図5および図6に示す。最初の位置における物体3の角に位
置する点A,B,Cは、カメラの画像平面に三角形abcとしてレンズLによっ
て投影されている。物体が新しい位置3’に移動すると、これら角A’,B’,
C’は(狭義の幾何学的見地において)三角形abcと相似形となる三角形a’
b’c’として投影されるが、たとえば回転が可能とされるものではない。以下
説明する理由として、点A,B,Cは画像平面Iに実質的に平行な平面あること
を最初に仮定している。
FIG. 5 and FIG. 6 show this special case. The points A, B, C located at the corners of the object 3 in the initial position are projected by the lens L as triangles abc on the image plane of the camera. When the object moves to a new position 3 ', these angles A', B ',
C ′ is a triangle a ′ similar to triangle abc (in a narrow sense of geometry)
Projected as b'c ', but not for example enabled for rotation. For reasons explained below, it is initially assumed that points A, B and C are planes substantially parallel to image plane I.

【0101】 表面A1B1C1によって示したように、画像abcおよび画像a’b’c’
はまた相対的にカメラにより近い位置に位置する同じ形状のより小さい物体から
得られている。
As shown by surface A1B1C1, image abc and image a′b′c ′
Has also been obtained from a smaller object of the same shape located relatively closer to the camera.

【0102】 カメラで見ているように(その画像ではない)物体3/3’を示す図6を参照
すると、種々の可能な表面ABC,A1B1C1,A2B2C2が示されている
。示されている上記のみの明瞭化の目的で、表面ABCに対して可能なサイズの
連続する範囲となっている。しかしながら、可能な表面のすべては、共通の図心
Pを有している。
Referring to FIG. 6, which shows the object 3/3 'as viewed by the camera (not its image), various possible surfaces ABC, A1B1C1, A2B2C2 are shown. For the sake of clarity only shown above, there is a continuous range of possible sizes for the surface ABC. However, all possible surfaces have a common centroid P.

【0103】 物体が表面A’B’C’によって図示した新しい位置3’に移動する場合、図
心は新しい位置Qに移動するとともに、画像平面I(図5)に平行である線PQ
が物体の真のサイズおよび距離に関係なく移動の方向を表している。事実、これ
は(線AA’,BB’,CC’が平行でないような)Z軸についていくらかの回
転があったとしても真実を維持している。
If the object moves to a new position 3 ′ illustrated by the surface A′B′C ′, the centroid moves to the new position Q and a line PQ parallel to the image plane I (FIG. 5)
Represents the direction of movement regardless of the true size and distance of the object. In fact, this holds true even with some rotation about the Z axis (such that the lines AA ', BB', CC 'are not parallel).

【0104】 しかしながら、カメラが上記線AA’,BB’,CC’が実際には平行となる
ことを確実にするZ軸について第2位置で回転されるなら、上記分析は点A,B
,Cが画像平面Iに平行となる平面ない、たとえば画像abcが図5に示す点A
1BCから得られたとしても真実を保持する。位置3’が図心Qから同様に移さ
れた後に、図6のA1BCの対応する図心(図示せず)は図心PからおよびA1
’B’C’の対応する図心から移される。しかしながら、これらの図心を結ぶ線
は、線PQに平行であるとともに、それゆえにカメラに対して物体の移動方向を
正確に表示する。
However, if the camera is rotated in a second position about the Z axis ensuring that the lines AA ′, BB ′, CC ′ are in fact parallel, the analysis will be performed at points A, B
, C are not parallel to image plane I, for example, image abc is at point A shown in FIG.
Retains truth even if obtained from 1BC. After position 3 'is similarly shifted from centroid Q, the corresponding centroid (not shown) of A1BC in FIG.
Moved from the corresponding centroid of 'B'C'. However, the line connecting these centroids is parallel to the line PQ, and thus accurately indicates the direction of movement of the object to the camera.

【0105】 線AA’,BB’,CC’が平行とならずに遠方点に集中するようにZ方向に
カメラの移動があったとしても、線PQは物体3の移動方向を正確に表示する。 したがって、上述した方法は図4の方法とある程度重なっている。
Even if the camera moves in the Z direction so that the lines AA ′, BB ′, and CC ′ are not parallel and concentrate on a distant point, the line PQ accurately indicates the moving direction of the object 3. . Therefore, the method described above somewhat overlaps the method of FIG.

【0106】 カメラの移動方向を決定する総体的な方法を図7に示す。第1像が得られる(
ステップS11)とともにカメラが視野の中にまだある物体とともに新しい位置
に移動され、かつ第1画像はスクリーン5上に表示され、新しい位置でカメラに
よって見られた瞬時の画像を重ね合わされている。対応部は目(すなわち使用者
)によって得られるし適切なソフトウェアルーチンによっても得られる(ステッ
プS13)。処理スピードおよび要求された精度に応じて、この段階で少ない数
の点、すなわち100あるいはそれよりも少ないたとえば10の点が得るのに必
要である。
FIG. 7 shows an overall method for determining the moving direction of the camera. The first image is obtained (
With step S11), the camera is moved to a new position with the objects still in the field of view, and the first image is displayed on the screen 5 and superimposed with the instantaneous image seen by the camera at the new position. The corresponding part is obtained by the eye (ie, the user) or by an appropriate software routine (step S13). Depending on the processing speed and the required accuracy, a small number of points is required at this stage, ie 100 or even less, for example 10 points.

【0107】 Z方向への移動があったことが使用者に明らかな場合、その方法はステップS
14に分岐する。このステップS14でカメラの指向方向は互いに相関のとられ
た点が共通な“消失点”VP(図4)に収束するまでX軸,Y軸,Z軸について
調整される。この段階で、第2画像が得られるとともにメモリに記憶される。
If it is clear to the user that there has been a movement in the Z direction, the method proceeds to step S
Branch to 14. In this step S14, the directional directions of the cameras are adjusted with respect to the X-axis, Y-axis and Z-axis until the points correlated with each other converge on a common "vanishing point" VP (FIG. 4). At this stage, a second image is obtained and stored in memory.

【0108】 ステップS15において、線は軌跡V(図4)を見つけるためにカメラレンズ
の光学中心を介して点VPから映し出されるとともに、この情報の助けによって
像のさらなる相関関係が実施され、かつ部分3次元再構成画像が図3に示した方
法によって作り出されている(図17)。
In step S15, a line is projected from the point VP through the optical center of the camera lens to find the trajectory V (FIG. 4), further correlation of the image is performed with the help of this information, and A three-dimensional reconstructed image has been created by the method shown in FIG. 3 (FIG. 17).

【0109】 ステップS15はまた、使用者によって(たとえばスクリーンに表示されたリ
ストから)カメラモデルの選択を含むかあるいは選択によって優先される。コン
ピュータ4は要求された投影の計算のために必要とされた各モデルのパラメータ
に関連してカメラモデルM1,M2,...,Mnのリストを記憶するためプロ
グラムされている。以下のパラメータが記憶できる。
Step S15 also includes or overrides the selection of the camera model by the user (eg, from a list displayed on the screen). The computer 4 associates the camera models M1, M2,... With respect to the parameters of each model required for the required projection calculations. . . , Mn are programmed. The following parameters can be stored:

【0110】 カメラモデルMn: x方向におけるピクセルサイズ y方向におけるピクセルサイズ 焦点距離 (ピクセルにおける)フィルム平面のx寸法 (ピクセルにおける)フィルム平面のy寸法Camera model Mn: Pixel size in x direction Pixel size in y direction Focal length x dimension of film plane (in pixels) y dimension of film plane (in pixels)

【0111】 Z方向への著しい移動はなかったことが使用者に明らかな場合(たとえば、合
理的に近接する“消失点”VPを見つけるのに失敗した結果として)、物体の移
動が画像平面に平行になるよう仮定されるとともに、ステップS17に進む前に
線PQがたとえば画像平面に平行な面(ステップS16)に位置するあるいは近
接する3つあるいは4つ以上の点のグループの画像から見つけだされている。
If it is apparent to the user that there has been no significant movement in the Z direction (eg, as a result of a failure to find a reasonably close “vanishing point” VP), the movement of the object will be in the image plane. Before proceeding to step S17, a line PQ is assumed to be parallel and is found, for example, from an image of a group of three or more points located or close to a plane parallel to the image plane (step S16). Have been.

【0112】 なぜなら一般に市場に出回っている最も多くのデジタルカメラが制限された分
解能(たとえば、1024×768ピクセル、640×480ピクセル、あるいはそれ以下の
もの)を有しているとすれば、カメラ移動の決定、およびそれゆえの相対位置、
および図3に示す疑似プロジェクタPR1,PR2の指向方向においてほとんど
必然的にエラーが生じる。このエラーの影響は図8に示す。
Because most digital cameras on the market generally have a limited resolution (eg, 1024 × 768 pixels, 640 × 480 pixels, or less), camera movement Determination, and hence the relative position,
An error almost inevitably occurs in the directional directions of the pseudo projectors PR1 and PR2 shown in FIG. The effect of this error is shown in FIG.

【0113】 図8は、像面に垂直な光線ダイアグラムであって、位置CM及びCM’でのカ
メラによる物体表面上の点P1、P2、P3の線の画像化を示したものである。
明瞭にするために、レンズLは第1の点CMでしか示していない。カメラの方位
がその2つの点で同じである点に留意されたい。
FIG. 8 is a ray diagram perpendicular to the image plane, showing the imaging of the lines of points P1, P2, P3 on the object surface by the camera at positions CM and CM ′.
For clarity, lens L is shown only at first point CM. Note that the camera orientation is the same at the two points.

【0114】 上記の方位で上記の位置に配置するならば、仮想プロジェクタpr1及びpr
2は再構成画像30として物体を正しく再構成するだろう。プロジェクタpr2
がカメラの動きV(図4)の方向に沿ってpr2’に移動すれば、それにより形
成された再構成画像30’は、やはり面方向において正確な倍率を有する像面の
湾曲のない(すなわち、長さ比P1P2/P2P3=P1’P2’/P2’P3
’)直線における点(P1’、P2’、P3’)を示すだろう。
If the virtual projectors pr1 and pr are arranged at the above positions in the above directions,
2 will correctly reconstruct the object as a reconstructed image 30. Projector pr2
Moves to pr2 'along the direction of the camera movement V (FIG. 4), the reconstructed image 30' formed thereby has no curvature of the image plane, also having the correct magnification in the plane direction (i.e., , Length ratio P1P2 / P2P3 = P1′P2 ′ / P2′P3
') Would indicate points (P1', P2 ', P3') on a straight line.

【0115】 プロジェクタを連続して新しい位置pr2’’及びpr2’’’へ回転するな
らば、図示しているように、連続的により大きな湾曲が再構成画像30’’ある
いは30’’’に導入される。再構成画像30の上記の像面の湾曲と第1の仮想
プロジェクタに対する第2の仮想プロジェクタの方位の角度誤差との間の関係を
図10Aから図10Cを参照して以下に考察する。
If the projector is continuously rotated to the new positions pr2 ″ and pr2 ′ ″, a continuously larger curvature is introduced into the reconstructed image 30 ″ or 30 ′ ″ as shown. Is done. The relationship between the curvature of the image plane of the reconstructed image 30 and the angular error of the orientation of the second virtual projector with respect to the first virtual projector will be discussed below with reference to FIGS. 10A to 10C.

【0116】 しかしながら、プロジェクタpr1とpr2によって投影された画像の相関点
からの各光線ラインは実質的に直交している図9を参照すると、プロジェクタp
r2’からの第2の画像の投影につながるプロジェクタの相対方位の誤差は像面
の無視できる程度の湾曲につながり、プロジェクタpr1からの対応光線ライン
を有するpr2’からの光線ラインの交差によって規定されるライン30’は、
正確に共に方位を向いたプロジェクタpr1及びpr2から光線ラインの対応す
る交差によって規定されるライン30のように、実質的に直線である。従って、
カメラ位置が、物体表面での対応点での交差における一対の相関点からの光線ラ
インに対する角度が実質的に90°、例えば、90°±30°、好適には、90
°±20°、さらに好適には、90°±10°になるように選択される。これは
、像面の湾曲により必要とされた補正を最小にする。
However, referring to FIG. 9, where each ray line from the correlation point of the images projected by projectors pr1 and pr2 is substantially orthogonal,
An error in the relative orientation of the projector leading to the projection of the second image from r2 'leads to negligible curvature of the image plane and is defined by the intersection of the ray lines from pr2' with the corresponding ray lines from projector pr1. Line 30 '
It is substantially straight, such as line 30 defined by the corresponding intersection of the ray lines from projectors pr1 and pr2, which are precisely oriented together. Therefore,
The camera position is substantially 90 ° relative to the ray line from a pair of correlation points at the intersection at the corresponding point on the object surface, for example 90 ° ± 30 °, preferably 90 °.
° ± 20 °, more preferably 90 ° ± 10 °. This minimizes the correction required by the curvature of the image plane.

【0117】 再構成画像の面方向のひずみ、すなわち、比P1P2/P2P3=P1’P2
’/P2’P3’(図8)の間の不一致が残っている。しかしながら、部分3次
元再構成画像30’は、図9に示したように、プロジェクタpr1の像面に平行
に位置するように、位置30Cへと回転し、全点がプロジェクタpr1からの光
線ラインによって遮られるようにシフトし、次いでこれらシフトした点とpr1
からの光線ラインとによって規定された三角形はライン30における対応する点
とこれらの光線ラインとによって規定される三角形に幾何学的に類似しており、
その結果、ライン30Cに沿っての点分布はライン30に沿っての対応分布の倍
率を変えたレプリカとなる。これは、物体表面の対応点での交差点での光線ライ
ンに対する角度には全く関わらないことを理解されたい。
The distortion in the plane direction of the reconstructed image, that is, the ratio P1P2 / P2P3 = P1′P2
There remains a mismatch between '/ P2'P3' (FIG. 8). However, as shown in FIG. 9, the partial three-dimensional reconstructed image 30 ′ is rotated to the position 30 C so as to be located parallel to the image plane of the projector pr 1, and all the points are formed by the ray lines from the projector pr 1. Shift so as to be blocked, and then these shifted points and pr1
The triangles defined by the ray lines from are geometrically similar to the triangles defined by the corresponding points in line 30 and these ray lines,
As a result, the point distribution along the line 30C becomes a replica in which the magnification of the corresponding distribution along the line 30 is changed. It should be understood that this has nothing to do with the angle to the ray line at the intersection at the corresponding point on the object surface.

【0118】 従って、部分的再構成画像を生成して、そのプロジェクタから光線ライン上に
置くために部分的3次元再構成画像における点を拘束するために用いられるプロ
ジェクタの像面に垂直な軸に対して部分的3次元再構成画像を回転することによ
って、像面に平行なひずみを補正することができる(または、故意に生じさせる
ことができる)。
Thus, to generate a partially reconstructed image and to use an axis perpendicular to the image plane of the projector used to constrain points in the partially three-dimensional reconstructed image to place on the ray line from that projector By rotating the partially reconstructed 3D image, distortion parallel to the image plane can be corrected (or can be intentionally caused).

【0119】 図10Aから図10Cは、正しい方位pr2からの一プロジェクタpr2’の
角度の位置ずれに起因した像面の湾曲を示している。各場合において、pr1及
びpr2によって規定される正しい再構成画像30は平坦であり、実際の再構成
画像30’の湾曲中心CNを示している(幾何学的に導出されたものである)。
図10Aから図10Cでは、位置ずれ(ミスアラインメント)は透視中心につい
てそれぞれ5°、10°、15°だけ回転することによって生じたものである。
FIGS. 10A to 10C show the curvature of the image plane due to the angular displacement of one projector pr2 ′ from the correct orientation pr2. In each case, the correct reconstructed image 30 defined by pr1 and pr2 is flat, indicating the center of curvature CN of the actual reconstructed image 30 '(derived geometrically).
In FIGS. 10A to 10C, the misalignment is caused by rotating the perspective center by 5 °, 10 °, and 15 °, respectively.

【0120】 再構成画像30’の曲率(湾曲)半径Rは図11に示したような位置ずれの逆
比例する。図10Aから図10Cでは、物体表面(の再構成画像30)での対応
点での交差での光線ラインに対する角度は最適角90°よりはるかに小さく、そ
のため、湾曲の度合いは実際に通常得られるものよりはるかに大きい。
The curvature (curvature) radius R of the reconstructed image 30 ′ is inversely proportional to the displacement as shown in FIG. In FIGS. 10A to 10C, the angle to the ray line at the intersection at the corresponding point on (the reconstructed image 30 of) the object surface is much less than the optimal angle of 90 °, so that the degree of curvature is usually usually obtained. Much larger than the ones.

【0121】 そのため、上記の本発明の方法はプロジェクタの方位における緯度をかなり許
容するものであり、これは2つの視点でのカメラの相対方位におけるかなりの不
確実さが許容されることを意味する。
Thus, the method of the invention described above allows for a considerable latitude in the orientation of the projector, which means that a considerable uncertainty in the relative orientation of the camera from two viewpoints is allowed. .

【0122】 上記の補正は、部分的3次元再構成画像の生成中又は互いのフィッティング中
におけるいかなる段階においても行うことができる。
The above corrections can be made at any stage during the generation of the partially reconstructed 3D image or during the fitting of each other.

【0123】 しかしながら、仮想プロジェクタpr1及びpr2(図3)の限定的な位置ず
れだけが許容されることに留意されたい。図3を参照すると、プロジェクタが正
しい方位を有する場合だけ相関点から投影される全主光線ラインが交差する。方
位における緯度は、プロジェクタからの光線ラインが有限の厚さを有すること、
又は、正確には交差しないことを意味するカメラの有限の解像度からだけ生ずる
ものである。従って、最も短いラインの長さがカメラの解像度に対応する所定の
制限を越えないならば、各プロジェクタからの光線ラインを加えてその最も短い
ラインの中心点を決定することによって再構成画像30上の点を決定することが
できる。
However, it should be noted that only a limited displacement of the virtual projectors pr1 and pr2 (FIG. 3) is allowed. Referring to FIG. 3, all chief ray lines projected from the correlation point intersect only if the projector has the correct orientation. Latitude in azimuth is that the ray of light from the projector has a finite thickness,
Or it comes only from the finite resolution of the camera, which means it doesn't intersect exactly. Therefore, if the length of the shortest line does not exceed the predetermined limit corresponding to the resolution of the camera, the ray line from each projector is added to determine the center point of the shortest line on the reconstructed image 30. Can be determined.

【0124】 図1のカメラ−カメラ実施形態に非常に類似したプロジェクタ−カメラの実施
形態を図12を参照して説明する。
A projector-camera embodiment very similar to the camera-camera embodiment of FIG. 1 will be described with reference to FIG.

【0125】 図12を参照すると、装置は、従来型のCPU、ROM、RAMと、ハードド
ライブと、デジタルカメラCMへの入力ポートとスクリーン5に接続されたビデ
オ出力ポートとキーボードに接続された従来型の入力ポートとに接続されたフレ
ーム取込装置とマウス6または他のポインティング装置とを有するパーソナルコ
ンピュータ4を備えている。ハードドライブはウィンドウズ95のような従来型
のオペレーティングシステムとソフトウェアとをロードする: a)カメラCMに撮られた画像を表示すること; b)カメラCMからの画像入力のオーバーラップ領域間の対応を生成すること; c)撮った画像からベースラインを導出してカメラ及びプロジェクタの透視中心
を加えること; d)ユーザーによって(キーボード又はポインティング装置を使って)選択され
た、又は所定の間隔でのベースライン上に位置する仮想プロジェクタからシミュ
レーション3次元空間へカメラで撮った画像を投影すること; e)一又は二以上の軸に沿って部分的3次元再構成画像の倍率を変えて、図17
,図18,図19に示したような部分的3次元再構成画像を結合すること; f)物体画像と較正画像とのさらなる相関からベースラインに沿ってカメラ及び
プロジェクタの透視中心間の間隔を決定し、それによって物体表面の正確な部分
的3次元再構成画像を導くこと。
Referring to FIG. 12, the device comprises a conventional CPU, ROM, RAM, a hard drive, an input port to the digital camera CM, a video output port connected to the screen 5 and a conventional keyboard connected to a keyboard. A personal computer 4 having a frame capture device and a mouse 6 or other pointing device connected to an input port of the mold. The hard drive loads a conventional operating system and software such as Windows 95: a) displaying images taken by the camera CM; b) mapping between overlapping areas of image input from the camera CM. C) deriving a baseline from the captured image and adding the perspective center of the camera and projector; d) a base selected by the user (using a keyboard or pointing device) or at a predetermined interval. Projecting an image taken by a camera into a simulated three-dimensional space from a virtual projector located on the line; e) changing the magnification of the partially three-dimensional reconstructed image along one or more axes,
Combining the partially reconstructed images as shown in FIG. 18, FIG. 18 and FIG. 19; f) determining the distance between the perspective center of the camera and the projector along the baseline from further correlation of the object image and the calibration image. Determining and thereby deriving an accurate partial 3D reconstructed image of the object surface.

【0126】 また、初期較正工程中又は物体画像及び較正画像の処理中の光束調整工程の一
部として画像を上記のように処理する前に、例えば、カメラ及びプロジェクタ光
学の像面の湾曲に起因したひずみに対して画像を補正するためのソフトウェアを
配備することが好ましい。適切な補正及び較正手順は、ツァイによって“An Eff
icient and Accurate Camera Calibration Technique for 3D Machine Vision”
のタイトルでProc.IEEE CVPRの364−374頁に記載されてお
り、他にはないだろう。
Also, prior to processing the image as described above as part of the light flux adjustment step during the initial calibration step or during processing of the object image and the calibration image, for example, due to curvature of the image plane of the camera and projector optics It is preferable to provide software for correcting the image with respect to the generated distortion. Appropriate correction and calibration procedures are described by Tsai in “An Eff
icient and Accurate Camera Calibration Technique for 3D Machine Vision ”
Proc. It is described in IEEE CVPR, pages 364-374, and would not be otherwise.

【0127】 カメラ、パルニックスM−9701プログレッシブ走査デジタルカメラが、例
えばボール及びソケット台上に支持フレームFの一端に取付けられたもの、及び
、スライドプロジェクタPRはフレームの他端上に確実に取付けられたものとし
て示されている。スライドプロジェクタPRは斑点パターンスライドSを備え、
カメラCMの視野にある物体3の領域Rの表面上にその結果の斑点パターンに投
影するために配置されている。
A camera, the Parnix M-9701 progressive scan digital camera, is mounted on one end of the support frame F, for example on a ball and socket table, and the slide projector PR is securely mounted on the other end of the frame. As shown. The slide projector PR includes a speckle pattern slide S,
It is arranged on the surface of the region R of the object 3 in the field of view of the camera CM for projecting on the resulting speckle pattern.

【0128】 固有カメラパラメータは最初に、周知の位置における参照プレート(図示せず
)の画像を得ることによって決定する。参照プレートは平坦であり、かつ、一定
でかつ周知の間隔の印刷しみの列を有する。以下のパラメータが決定され、それ
によって次の記載で知られることが仮定されている。 i)カメラの焦点 ii)カメラ及びプロジェクタのレンズのひずみパラメータ iii)倍率 iv)主点の画像座標
The intrinsic camera parameters are determined by first obtaining an image of a reference plate (not shown) at a known location. The reference plate is flat and has a constant and well-spaced array of printed blots. It is assumed that the following parameters have been determined and are thereby known in the following description. i) camera focus ii) distortion parameters of camera and projector lenses iii) magnification iv) image coordinates of principal points

【0129】 また、(カメラ操作者によって決定される)画素サイズが知られることが仮定
されている。
It is also assumed that the pixel size (determined by the camera operator) is known.

【0130】 任意で、以下の外部カメラパラメータを決定する: a)カメラの位置 b)カメラの方位 あるいは、カメラの位置及び方位は、物体面座標を決定する際に関係する座標
系を決定するために使うこともできる。
Optionally, determine the following external camera parameters: a) Camera position b) Camera orientation Alternatively, the camera position and orientation are used to determine the coordinate system involved in determining object plane coordinates. You can also use it.

【0131】 図2を参照すると、カメラCMは、ベースラインベクトルV上に位置する透視
中心OCと共に示され、(最初に)ターゲット表面Tと(その後の)物体3を示
している。プロジェクタPRの(仮想)原点又は透視中心OPもベースラインベ
クトルV上にあり、視野レンズOLとコンデンサレンズCLを備えたプロジェク
タの光学系によって規定される。フィラメント電球のような点光源LSはスライ
ドSを照明し、斑点パターンを(最初に)ターゲット表面T上及び(その後は)
物体3の表面上に斑点パターンを方向付ける。
Referring to FIG. 2, the camera CM is shown with the perspective center OC located on the baseline vector V, showing the (first) target surface T and the (subsequent) object 3. The (virtual) origin or perspective center OP of the projector PR is also on the baseline vector V, and is defined by the optical system of the projector including the field lens OL and the condenser lens CL. A point light source LS, such as a filament bulb, illuminates the slide S, causing a speckled pattern to be (first) on the target surface T and (after)
A speckle pattern is oriented on the surface of the object 3.

【0132】 ベースラインベクトルVは以下の手順によって見つけられる: まず第一に、投影された斑点パターンによって照明された物体3の表面の領域
の画像11(図14)は、コンピュータ4のメモリに取り込まれて格納され、ま
た、この領域の少なくとも2つの空間的に離間した点Q1及びQ2の任意のグル
ープは、カメラの光検出器面PD上に形成された画像における点q1及びq2と
して選択される。点q1及びq2のグループは格納される。
The baseline vector V is found by the following procedure: First, the image 11 (FIG. 14) of the surface area of the object 3 illuminated by the projected speckle pattern is taken into the memory of the computer 4 Any group of at least two spatially separated points Q1 and Q2 in this region is selected as points q1 and q2 in the image formed on the photodetector plane PD of the camera. . The group of points q1 and q2 is stored.

【0133】 第2には、物体3はターゲット面Tによって置き換えられ、ターゲット面の照
明された領域の画像12(図3)はカメラCMによって撮られる。カメラに対す
るターゲットTの位置及び方位は、ターゲットの周縁上に形成されたシミBLの
周知のパターンを利用して、パラメータからいかなる照明もない状態でターゲッ
トの画像を得ることによって見つけられる。画像12は格納され、また、最初の
3×3画素の周囲領域Rを選択することによって、また、上記の修正グルーエン
ズ(Gruens)アルゴリズムによって局所的な放射計による強度分布を比較し、(
例えば図14で示した簡単な場合、水平に延びた場合において)アフィン幾何学
的ひずみによってひずむことになった第2の画像12における対応領域R’に対
する探索することによって、第1の画像11の中心点(例えば、図3のQn)に
よって規定されたパッチが第2の画像12の対応点Pnに相関する。相関パッチ
は(最大19×19画素まで)拡張し、工程が繰り返される。このようにして、
対応点Pnが見つけられる。
Second, the object 3 is replaced by the target plane T, and an image 12 (FIG. 3) of the illuminated area of the target plane is taken by the camera CM. The position and orientation of the target T with respect to the camera can be found by utilizing a known pattern of spots BL formed on the periphery of the target and obtaining an image of the target without any illumination from the parameters. The image 12 is stored and also compares the local radiometric intensity distribution by selecting the surrounding region R of the first 3 × 3 pixels and by the modified Gruens algorithm described above,
By searching for the corresponding region R ′ in the second image 12 that has been distorted by affine geometric distortion (for example, in the simple case shown in FIG. 14, when extending horizontally), the first image 11 The patch defined by the center point (eg, Qn in FIG. 3) correlates to the corresponding point Pn of the second image 12. The correlation patch is expanded (up to 19 × 19 pixels) and the process is repeated. In this way,
The corresponding point Pn is found.

【0134】 この工程は大多数の対応PQのペア(図14)を見つけるため、かつ特にP1
,P2(図13)上に中心を置くパッチをグループQ1、Q2(図13)におけ
る点にそうかんさせるために繰り返される。アルゴリズムはサブ画素解像度を有
するので、後者は特別な画素上に中心を置く必要はない。
This step is to find the majority of the corresponding PQ pairs (FIG. 14), and in particular P1
, P2 (FIG. 13) are repeated to point the patches in groups Q1, Q2 (FIG. 13) to points. The latter does not need to be centered on a special pixel since the algorithm has sub-pixel resolution.

【0135】 以下の幾何学的な議論においては、対応は簡単のために点の相関ペアとして取
り扱うが、そのトポグラフィについては何も意味しないこと−特にそれらが例え
ば物体の角又はエッジに位置することを意味しないことに留意すべきである。
In the geometric discussion below, correspondence is treated as a correlated pair of points for simplicity, but does not imply anything about its topography-especially that they lie at corners or edges of an object, for example. Note that this does not mean

【0136】 図13を参照すると、プロジェクタPRの原点(OP)はP1Q1とP2Q2
との交差点にある。しかしながら、これらの4つの点の3次元位置は知られてい
ず、それらがあるカメラからの光線ライン、すなわち、p1P1、q1Q1、p
2Q2、q2Q2だけが知られている。しかし、ラインP1Q1は面OCP1Q
1、すなわち、較正工程及び2つの画像11及び12から使用できる面OCP1
Q1にあり、また、ラインP2Q2は面OCP1Q1、すなわち、同様に較正工
程及び2つの画像11及び12から使用できる面OCP1Q1にある。これらの
面はそれらの交差によって、OC及びプロジェクタの透視中心Opを過ぎるベー
スラインベクトルVを規定する。
Referring to FIG. 13, the origin (OP) of projector PR is P1Q1 and P2Q2.
At the intersection with However, the three-dimensional positions of these four points are not known, and they are the ray lines from a certain camera, ie, p1P1, q1Q1, p
Only 2Q2, q2Q2 are known. However, line P1Q1 is plane OCP1Q
1, the surface OCP1 available from the calibration step and the two images 11 and 12
Q1 and the line P2Q2 is at plane OCP1Q1, the plane OCP1Q1 also available from the calibration process and the two images 11 and 12. These planes, by their intersection, define a baseline vector V past the OC and the perspective center Op of the projector.

【0137】 ベースラインベクトルVを見つける特に簡単な方法は、光検出器PDの面にお
ける点Xで合うp1q1及びp2q2を投影することである。透視中心OCを介
した点Xの投影が示されているようにベースラインベクトルVである。
A particularly simple way of finding the baseline vector V is to project p1q1 and p2q2 that meet at point X on the plane of the photodetector PD. The baseline vector V is shown as the projection of point X through the perspective center OC is shown.

【0138】 この方法で、このベースラインに沿ったプロジェクタ原点Opの位置は決めら
れないが、ベースラインベクトルVを決めることができる。実際、点P及びQの
グループは各々2以上のペアを備え、それによってベースラインベクトルVを決
めすぎる。従って、点PQのセットによって決められるようにこのようなベクト
ル束を求め、、“アウトライアー ”すなわち平均からの所定の閾値より大きく
外れたベクトルを除去し、周知の統計的方法である残りのベクトルでベクトルV
の最小自乗法による評価を実施するために、コンピュータ4を備えていることが
好ましい。
With this method, the position of the projector origin Op along this baseline cannot be determined, but the baseline vector V can be determined. In fact, the groups of points P and Q each comprise more than one pair, thereby overdetermining the baseline vector V. Therefore, such a vector bundle is determined as determined by the set of points PQ, and "outliers", i.e., vectors that deviate more than a predetermined threshold from the mean, are removed, and the remaining vectors, a well-known statistical method, And the vector V
It is preferable to include the computer 4 in order to perform the evaluation by the least square method.

【0139】 物体3の3次元表示の導出を図3の光線ダイアグラムで示している。 ベースラインベクトルV上に位置したカメラCMとプロジェクタPRを示して
いる。第1の仮想プロジェクタpr1はコンピュータ4の画像処理ソフトウェア
によって駆動され、(初期の較正手順で決定されるように)カメラと同じ光学特
性を有する。画像11(図14)は画像処理ソフトウェアによってシミュレーシ
ョンされた3次元空間におけるこの仮想プロジェクタから投影されたものである
The derivation of the three-dimensional representation of the object 3 is shown in the ray diagram of FIG. The camera CM and the projector PR located on the baseline vector V are shown. The first virtual projector pr1 is driven by the image processing software of the computer 4 and has the same optical properties as the camera (as determined in the initial calibration procedure). Image 11 (FIG. 14) is projected from this virtual projector in a three-dimensional space simulated by image processing software.

【0140】 第2の仮想プロジェクタpr1も同様にコンピュータ4の画像処理ソフトウェ
アによって駆動され、好ましくは(図3で示したような)プロジェクタPRと同
じ光学特性を有する。この仮想プロジェクタは、各物理的プロジェクタ光線PQ
に対応するシミュレーションされた3次元空間における1セットプの光線ライン
のセットを投影し、光線ラインは各々、図14に参照して説明した画像相関プロ
セスにおいて見つけられるように、画像11の各相関画素と呼んでいる。画像1
2及びターゲットTがプロジェクタの透視中心OPを始点とする1セットの光線
を規定し、それら光線と同等とされることが理解されるだろう。プロジェクタP
R/pr1からのどの光線ラインが画像11における対応画素からの各光線ライ
ンと交差することが知られているので、各交差点に対応する3次元空間における
点を見つけることができ、それによって点Qa、Qb、Qc…のセットが表面を
規定する。
The second virtual projector pr1 is likewise driven by the image processing software of the computer 4, and preferably has the same optical properties as the projector PR (as shown in FIG. 3). This virtual projector has each physical projector ray PQ
Project a set of ray lines in a simulated three-dimensional space corresponding to each of the ray lines, as can be found in the image correlation process described with reference to FIG. Calling. Image 1
It will be appreciated that 2 and the target T define a set of rays starting at the perspective center OP of the projector and are equivalent thereto. Projector P
It is known that which ray line from R / pr1 intersects each ray line from the corresponding pixel in image 11, so that a point in three-dimensional space corresponding to each intersection can be found, whereby point Qa , Qb, Qc... Define the surface.

【0141】 実際多くの光線ラインは交差せず、対応3次元表面の最良の推定点は最も接近
したときにそれらを合わせる垂直線の中心点である。この目的のためのアルゴリ
ズムはそれ自体周知である。
In fact, many ray lines do not intersect, and the best estimate of the corresponding three-dimensional surface is the center point of the vertical line that aligns them when they come closest. Algorithms for this purpose are known per se.

【0142】 図3の上記議論において、ベースラインベクトルV(及び、それによる仮想プ
ロジェクタpr1とpr2の位置)上のカメラCMとプロジェクタPRの相対位
置が周知であることが仮定されてきた。実際、これらはコンピュータ4のユーザ
ーによって倍率変数として仮定されまたは入力されている。
In the above discussion of FIG. 3, it has been assumed that the relative positions of the camera CM and the projector PR on the baseline vector V (and thereby the positions of the virtual projectors pr1 and pr2) are known. In fact, these have been assumed or entered by the user of the computer 4 as magnification variables.

【0143】 各仮想プロジェクタからの光線ラインが仮想プロジェクタ間の間隔に関わりな
く、その方位が変化しないと仮定すると交差することは、仮定された実際のプロ
ジェクタ位置PR’に対応する代わりの仮想プロジェクタ位置pr2’によって
図3に示されている。それによる物体3’の3次元再構成は寸法が異なるが、同
じ形状である:単一の倍率は物体3と3’とを交換するために必要になる。しか
しながら、異なる水平倍率及び垂直倍率(例えば、カメラの異なる水平拡大率及
び垂直拡大率のため)を備えていることは実際便利であり、一般に、1セットの
倍率だけが同じ物体の異なる方位から撮られた部分的3次元表面の1セットと矛
盾なく互いにマッチングする。
Assuming that the ray line from each virtual projector does not change its orientation, regardless of the spacing between the virtual projectors, the intersection would result in an alternative virtual projector position corresponding to the assumed actual projector position PR ′ This is indicated in FIG. 3 by pr2 ′. The three-dimensional reconstruction of the object 3 'thereby differs in size but of the same shape: a single magnification is required to exchange the objects 3 and 3'. However, it is actually convenient to have different horizontal and vertical magnifications (eg, due to different horizontal and vertical magnifications of the camera), and generally only one set of magnifications is taken from different orientations of the same object. And consistently match each other with a given set of partial three-dimensional surfaces.

【0144】 従って、コンピュータ4のソフトウェアは、このような得られた3次元表を示
物体のセルフコンシスタントの3次元表示を形成するように互いに合致できるよ
うに倍率を変える(縮尺を変える)ために装備されたている。このことを図17
から図20を参照して以下に説明する。
Thus, the software of the computer 4 changes the magnification (changes the scale) such that the obtained three-dimensional tables can be matched to one another so as to form a self-consistent three-dimensional representation of the indicating object. It is equipped with. This is shown in FIG.
This will be described below with reference to FIG.

【0145】 しかしながら、それをする前に、図15を参照して代わりの較正手順を説明す
る。この図は、カメラ軸系に対する方位(及び好ましくは位置)が、例えば、プ
ロジェクタからの照明のない状態でそれらの画像を得ることと図2に関連した上
記の手順と類似した手順において画像を処理することとを独立に含む写真測量法
の結果として周知の(図13のターゲットTに類似の周縁シミ又はディスクを有
する)2つの平坦な較正ターゲットT1及びT2を示している。カメラ及びプロ
ジェクタの透視中心OC及びOPも示している。
However, before doing so, an alternative calibration procedure is described with reference to FIG. This figure shows that the orientation (and preferably the position) with respect to the camera axis system is to obtain those images without illumination from the projector and to process the images in a procedure similar to that described above in connection with FIG. FIG. 14 shows two flat calibration targets T1 and T2 (with peripheral spots or disks similar to the target T of FIG. 13), known as a result of photogrammetry, which independently include: Also shown are the perspective centers OC and OP of the camera and projector.

【0146】 較正手順の第1段階では、ターゲットT1をプロジェクタからの所定の光によ
って照明し、画像をカメラCMによって撮る。図15は、所定の光がターゲット
T1上で入射する3個の点p1、p2及びp3を示している。これら(及び多く
の他の点、図示せず)はカメラCMで画像化する。
In the first stage of the calibration procedure, the target T1 is illuminated by predetermined light from the projector, and an image is taken by the camera CM. FIG. 15 shows three points p1, p2, and p3 where predetermined light is incident on the target T1. These (and many other points, not shown) are imaged by the camera CM.

【0147】 較正手順の第2段階では、ターゲットT1を除去し、T2をプロジェクタから
の所定の光によって照明する。画像をカメラCMによって撮る。点p1、p2及
びp3に対応する3個の点点P1、P2及びP3は、ターゲットT2上の所定の
放射の新しく得られた画像と図13を参照して上記手順によってT1上で前に得
た対応投影画像とを相関させることによって見つけられる。
In the second stage of the calibration procedure, the target T1 is removed and T2 is illuminated by a predetermined light from the projector. An image is taken by a camera CM. Three point points P1, P2 and P3 corresponding to points p1, p2 and p3 were previously obtained on T1 by the above procedure with reference to FIG. 13 and a newly obtained image of the predetermined radiation on target T2. It is found by correlating with the corresponding projection image.

【0148】 図15は、さらに2つの較正ターゲットT1及びT2の位置とプロジェクタP
R(カメラCMはベースラインベクトルV上に固定されていると仮定されている
)の透視中心OPとの関係を示している。ターゲットT1上の点P1とP2のペ
アは各々、カメラCMの光検出器アレイPD上の画像点p1及びp2を形成し、
また、(ターゲットT1の除去に続く次の段階において)ターゲットT2上の点
P3とP4のペアは各々、光検出器アレイPD上の画像点p3及びp4を形成す
る。
FIG. 15 shows the positions of the two calibration targets T1 and T2 and the projector P
R shows the relationship of R (camera CM is assumed to be fixed on baseline vector V) to perspective center OP. Each pair of points P1 and P2 on the target T1 forms image points p1 and p2 on the photodetector array PD of the camera CM,
Also, the pairs of points P3 and P4 on target T2 (in the next stage following removal of target T1) form image points p3 and p4 on photodetector array PD, respectively.

【0149】 従って、第3の段階では、ターゲットT1及びT2上の対応点(例えば、P1
とP3;P2とP4)によって形成された光束をプロジェクタの透視中心OPの
位置を見つけるために構築する。実際、光線は1点では交差しないが、最良の推
定点は最小自乗のアルゴリズムで見つけることができる。
Therefore, in the third stage, corresponding points on the targets T1 and T2 (for example, P1
And P3; P2 and P4) are constructed to find the position of the perspective center OP of the projector. In fact, the rays do not intersect at one point, but the best estimated point can be found with a least squares algorithm.

【0150】 他の較正手順が可能であることは理解されたい。例えば、カメラはツァイ法(
ロジャー ツァイによるIEEE Journal of Robotics an
d Automation RA−3、No.4(1987年8月発行 )の32
3頁及びその中で引用された参考文献を参照)。
It should be understood that other calibration procedures are possible. For example, the camera uses the Tsai method (
IEEE Journal of Robotics an by Roger Tsai
d Automation RA-3, no. 32 of 4 (issued in August 1987)
See page 3 and the references cited therein).

【発明の効果】【The invention's effect】 【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の2カメラ方式による装置の一形態を示す概略図である。FIG. 1 is a schematic view showing an embodiment of a two-camera system according to the present invention.

【図2】 本発明の2カメラ方式による一方法のフローチャートである。FIG. 2 is a flowchart of one method according to the two-camera system of the present invention.

【図3】 本発明の一実施形態において、物体と、カメラ及びプロジェクタ
の視点と、仮想プロジェクタの視点と、部分3次元再構成画像との関係を示す光
路図である。
FIG. 3 is an optical path diagram showing a relationship among an object, a viewpoint of a camera and a projector, a viewpoint of a virtual projector, and a partially three-dimensional reconstructed image in one embodiment of the present invention.

【図4】 図2の方法及び図1の装置において、取得された画像からカメラ
の移動方向を本発明の特徴に従って検出する方法を示す3次元光路図である。
FIG. 4 is a three-dimensional optical path diagram illustrating a method of detecting a moving direction of a camera from an acquired image in the method of FIG. 2 and the apparatus of FIG. 1 according to a feature of the present invention.

【図5】 図2の方法及び図1の装置において、カメラが物体に対してZ方
向に移動しない特別な場合に関し、取得された画像からカメラの移動方向を検出
する方法を示す3次元光路図である。
FIG. 5 is a three-dimensional optical path diagram showing a method of detecting a moving direction of a camera from an acquired image in a special case where the camera does not move in a Z direction with respect to an object in the method of FIG. 2 and the apparatus of FIG. It is.

【図6】 図5の画像平面Iにおける物体の画像の移動を示す図である。FIG. 6 is a diagram illustrating movement of an image of an object on an image plane I of FIG. 5;

【図7】 図2の方法及び図1の装置に用いられる画像処理工程を要約した
フローチャートである。
FIG. 7 is a flowchart summarizing the image processing steps used in the method of FIG. 2 and the apparatus of FIG. 1;

【図8】 図1の装置及び図2の方法において、仮想プロジェクタの1つが
他のプロジェクタに対して位置ずれした場合の画像面の湾曲を示す2次元光路図
である。
FIG. 8 is a two-dimensional optical path diagram showing the curvature of an image plane when one of the virtual projectors is misaligned with respect to another projector in the apparatus of FIG. 1 and the method of FIG.

【図9】 本発明の一実施形態において、部分3次元再構成画像におけるひ
ずみ修正を説明する2次元光路図である。
FIG. 9 is a two-dimensional optical path diagram illustrating distortion correction in a partially three-dimensional reconstructed image according to an embodiment of the present invention.

【図10】 図10Aは、仮想プロジェクタが5°位置ずれした場合の画像
面の湾曲を示す2次元光路図、図10Bは、仮想プロジェクタが10°位置ずれ
した場合の画像面の湾曲を示す2次元光路図、図10Cは、仮想プロジェクタが
15°位置ずれした場合の画像面の湾曲を示す2次元光路図である。
FIG. 10A is a two-dimensional optical path diagram showing the curvature of the image plane when the virtual projector is displaced by 5 °, and FIG. 10B is a view showing the curvature of the image plane when the virtual projector is displaced by 10 °. FIG. 10C is a two-dimensional optical path diagram showing the curvature of the image plane when the virtual projector is displaced by 15 °.

【図11】 図10A〜10Cに示す位置ずれ状態に対して画像の湾曲をプ
ロットしたグラフである。
FIG. 11 is a graph in which the curvature of an image is plotted with respect to the displacement states shown in FIGS. 10A to 10C.

【図12】 本発明のプロジェクタ−カメラ方式の装置の一形態を示す概略
図である。
FIG. 12 is a schematic view showing one embodiment of a projector-camera type apparatus of the present invention.

【図13】 図12の装置における光学配置の一例を示す斜視光路図である
FIG. 13 is a perspective optical path diagram showing an example of an optical arrangement in the apparatus of FIG.

【図14】 図12及び13の装置によって得られた物体画像と較正画像、
及びそれらの相関関係を示す図である。
FIG. 14 shows an object image and a calibration image obtained by the apparatus of FIGS. 12 and 13;
FIG. 3 is a diagram illustrating a correlation between the two.

【図15】 図13の変更形態、すなわち図12の装置におけるカメラ及び
プロジェクタの位置決めに、カメラ及びプロジェクタそれぞれの透視中心を結ぶ
基線上に配置された2つの参照面を用いた状態を示す斜視光路図である。
FIG. 15 is a perspective light path showing a modification of FIG. 13, that is, a state in which two reference planes arranged on a base line connecting the perspective centers of the camera and the projector are used for positioning the camera and the projector in the apparatus of FIG. FIG.

【図16】 本発明のプロジェクタ−カメラ方式による図12及び13の装
置の操作方法を説明するフローチャートである。
FIG. 16 is a flowchart illustrating a method of operating the apparatus of FIGS. 12 and 13 using the projector-camera method of the present invention.

【図17】 図1及び2の装置、または図12の装置を用いて、物体の2つ
の3次元表面部分を合成する方法を説明する画面を示す図である。
FIG. 17 is a diagram illustrating a screen for explaining a method of synthesizing two three-dimensional surface portions of an object using the apparatus of FIGS. 1 and 2 or the apparatus of FIG.

【図18】 合成された3次元表面部分を、垂直軸方向及び水平軸方向に寸
法調整した状態を示す画面の図である。
FIG. 18 is a view of a screen showing a state where dimensions of the synthesized three-dimensional surface portion are adjusted in the vertical axis direction and the horizontal axis direction.

【図19】 交差する3次元表面部分が互いにフィットするように寸法調整
した状態を示すさらなる画面の図である。
FIG. 19 is a diagram of a further screen showing a state in which intersecting three-dimensional surface portions have been dimensioned so as to fit each other.

【図20】 図1及び2、または図12の装置によって提供され、画像及び
3次元表面を操作するためのユーザーインターフェースを示す画面の図である。
FIG. 20 is an illustration of a screen provided by the apparatus of FIGS. 1 and 2 or 12 showing a user interface for manipulating images and three-dimensional surfaces.

【符号の説明】[Explanation of symbols]

1……デジタルカメラ 3……物体 4……コンピュータ 6……ポインティングデバイス 1 ... Digital camera 3 ... Object 4 ... Computer 6 ... Pointing device

───────────────────────────────────────────────────── フロントページの続き (81)指定国 EP(AT,BE,CH,CY, DE,DK,ES,FI,FR,GB,GR,IE,I T,LU,MC,NL,PT,SE),OA(BF,BJ ,CF,CG,CI,CM,GA,GN,GW,ML, MR,NE,SN,TD,TG),AP(GH,GM,K E,LS,MW,SD,SL,SZ,UG,ZW),E A(AM,AZ,BY,KG,KZ,MD,RU,TJ ,TM),AE,AL,AM,AT,AU,AZ,BA ,BB,BG,BR,BY,CA,CH,CN,CU, CZ,DE,DK,EE,ES,FI,GB,GD,G E,GH,GM,HR,HU,ID,IL,IN,IS ,JP,KE,KG,KP,KR,KZ,LC,LK, LR,LS,LT,LU,LV,MD,MG,MK,M N,MW,MX,NO,NZ,PL,PT,RO,RU ,SD,SE,SG,SI,SK,SL,TJ,TM, TR,TT,UA,UG,US,UZ,VN,YU,Z A,ZW (72)発明者 イヴァン・ダニエル・マイアー イギリス・バッキンガムシャー・SL9・ 8JW・ジェラーズ・クロス・ノース・パ ーク・18 (72)発明者 ジョナサン・アンソニー・ホールドバック イギリス・イーリング・W5・2QN・モ ントペリエ・ロード・モントペリエ・コー ト・2 Fターム(参考) 2F065 AA04 AA53 BB05 FF04 FF07 HH05 JJ03 JJ26 QQ17 QQ24 QQ38 QQ41 SS02 SS13 5B050 BA09 DA07 EA05 EA07 EA12 EA13 EA18 EA27 FA02 5B057 BA02 CA12 CA16 CB13 CB17 CD05 CD11 CD14 CE15 DA07 DA16 DB02 DC34 5B080 BA05 ──────────────────────────────────────────────────続 き Continuation of front page (81) Designated country EP (AT, BE, CH, CY, DE, DK, ES, FI, FR, GB, GR, IE, IT, LU, MC, NL, PT, SE ), OA (BF, BJ, CF, CG, CI, CM, GA, GN, GW, ML, MR, NE, SN, TD, TG), AP (GH, GM, KE, LS, MW, SD, SL, SZ, UG, ZW), EA (AM, AZ, BY, KG, KZ, MD, RU, TJ, TM), AE, AL, AM, AT, AU, AZ, BA, BB, BG, BR , BY, CA, CH, CN, CU, CZ, DE, DK, EE, ES, FI, GB, GD, GE, GH, GM, HR, HU, ID, IL, IN, IS , JP, KE, KG, KP, KR, KZ, LC, LK, LR, LS, LT, LU, LV, MD, MG, MK, MN, MW, MX, NO, NZ, PL, PT, RO, RU, SD, SE, SG, SI, SK, SL, TJ, TM, TR, TT, UA, UG, US, UZ, VN, YU, ZA, ZW (72) Inventor Ivan Daniel Meier UK Buckinghamshire SL 9.8 JW Gellers Cross North Park 18 (72) Inventor Jonathan Anthony Holdback UK Ealing W5.2QN Montpellier Road Montpellier Court 2F Term (Reference) 2F065 AA04 AA53 BB05 FF04 FF07 HH05 JJ03 JJ26 QQ17 QQ24 QQ38 QQ41 SS02 SS13 5B050 BA09 DA07 EA05 EA07 EA12 EA13 EA18 EA27 FA02 5B057 BA02 CA12 CA16 CB13 CB17 DC05 CD11 CD05 CD11 080 BA05

Claims (52)

【特許請求の範囲】[Claims] 【請求項1】 物体に関して空間的に離された異なる視点(CM,CM’)
から取得された物体の相関オーバーラップ2次元画像から、物体(3)の少なく
とも一部の3次元表示(30)を引き出す方法であって、 視点の間における間隔は正確には知られておらず、 前記方法は、 シミュレートされた3次元空間において、個々の2次元画像の対応の間におけ
る相互オフセットと倍率変数との両方に依存して広がる3次元表示を形成するた
めに、2次元画像をデジタル方式で処理するステップ を具備し、 倍率変数は、2次元画像が取得された視点の間における間隔を示している ことを特徴とする方法。
1. Different viewpoints (CM, CM ') spatially separated with respect to an object
A method for extracting a three-dimensional representation (30) of at least a part of an object (3) from a correlated overlapped two-dimensional image of the object obtained from, wherein the distance between the viewpoints is not exactly known The method comprises the steps of: forming a two-dimensional image in a simulated three-dimensional space to form a three-dimensional representation that depends on both the mutual offset and the scaling variable between the correspondences of the individual two-dimensional images; Digitally processing, wherein the magnification variable is indicative of an interval between viewpoints from which the two-dimensional image was acquired.
【請求項2】 物体(3)の2次元画像から物体の少なくとも一部の3次元
表示(30)を引き出す方法であって、 前記方法は、 投影された所定の光学的放射で物体を照らすステップと、 照らされた物体の2次元画像(11)を取得するステップと、 2次元画像を所定の光学的放射の光線と相関させるステップと、 シミュレートされた3次元空間において、相関と倍率変数との両方に依存して
広がる3次元表示を形成するために、2次元画像をデジタル方式で処理するステ
ップと を具備し、 倍率変数は、所定の位置と所定の視点との間における間隔を示しており、 所定の光学的放射は、前記所定の位置から投影され、 2次元画像は、前記所定の視点において取得される ことを特徴とする方法。
2. A method for deriving a three-dimensional representation (30) of at least a part of an object from a two-dimensional image of the object (3), said method comprising: illuminating the object with a predetermined projected optical radiation. Acquiring a two-dimensional image (11) of the illuminated object; correlating the two-dimensional image with a predetermined ray of optical radiation; and in a simulated three-dimensional space, a correlation and a magnification variable. Digitally processing the two-dimensional image to form a three-dimensional display that expands depending on both the magnification variable and the distance between the predetermined position and the predetermined viewpoint. And wherein a predetermined optical radiation is projected from the predetermined location, and a two-dimensional image is acquired at the predetermined viewpoint.
【請求項3】 シミュレートされた3次元空間における表示(30)の光景
がディスプレイされ、 倍率変数は、ユーザによって入力される ことを特徴とする請求項1または請求項2のいずれかに記載の方法。
3. The simulated three-dimensional view of the display (30) is displayed, wherein the magnification variable is entered by a user. Method.
【請求項4】 前記方法は、 物体に関して移動させられるカメラ(CM)から、オーバーラッピング2次元
画像を取得するステップ を具備し、 カメラのネット移動は、完全には拘束されない ことを特徴とする請求項1から請求項3のいずれかに記載の方法。
4. The method according to claim 1, further comprising the step of obtaining an overlapping two-dimensional image from a camera (CM) moved with respect to the object, wherein the net movement of the camera is not completely constrained. The method according to any one of claims 1 to 3.
【請求項5】 物体(3)に関して固定された参照フレームに関する異なる
視点におけるカメラ(CM)の個々の方位は、45度未満だけ異なる ことを特徴とする請求項4記載の方法。
5. The method according to claim 4, wherein the individual orientations of the cameras at different viewpoints with respect to a reference frame fixed with respect to the object differ by less than 45 degrees.
【請求項6】 カメラ(CM)の前記個々の方位の間における差異は、30
度未満である ことを特徴とする請求項5記載の方法。
6. The difference between said individual orientations of the camera (CM) is 30
6. The method of claim 5, wherein the temperature is less than one degree.
【請求項7】 カメラ(CM)の前記個々の方位の間における差異は、10
度未満である ことを特徴とする請求項6記載の方法。
7. The difference between said individual orientations of the camera (CM) is 10
7. The method of claim 6, wherein the temperature is less than one degree.
【請求項8】 2次元画像は、ハンドヘルドカメラ(CM)によって取得さ
れる ことを特徴とする請求項4から請求項7のいずれかに記載の方法。
8. The method according to claim 4, wherein the two-dimensional image is acquired by a hand-held camera (CM).
【請求項9】 少なくとも1つの2次元画像が、カメラ(CM)によって取
得され、 カメラの方位は、慣性センサ(G)の出力信号に基づいて決定される ことを特徴とする請求項1から請求項8のいずれかに記載の方法。
9. The method according to claim 1, wherein at least one two-dimensional image is acquired by a camera (CM), and an orientation of the camera is determined based on an output signal of the inertial sensor (G). Item 9. The method according to any one of Items 8 to 9.
【請求項10】 3次元表示(30)は、シミュレートされた3次元空間に
おける直線(V)上の位置からの投影によって生成され、 シミュレートされた3次元空間は、前記2次元画像の個々の透過中心を結ぶ直
線、または、前記所定の光学的放射の個々の透過中心と照らされた物体(3)の
2次元画像とを結ぶ直線に対応する ことを特徴とする請求項1から請求項9のいずれかに記載の方法。
10. A three-dimensional representation (30) is generated by projection from a position on a straight line (V) in a simulated three-dimensional space, wherein the simulated three-dimensional space is an individual one of the two-dimensional images. Or a straight line connecting the individual transmission centers of said predetermined optical radiation with a two-dimensional image of the illuminated object (3). 10. The method according to any one of 9.
【請求項11】 シミュレートされた3次元空間における前記直線(V)は
、整列させられた2次元画像(I1,I2)の対応からの投影の光束に基づいて
決定される ことを特徴とする請求項10記載の方法。
11. The simulated three-dimensional space (V) in the three-dimensional space is determined based on the luminous flux of the projection from the correspondence of the aligned two-dimensional images (I1, I2). The method of claim 10.
【請求項12】 シミュレートされた3次元空間における前記直線(V)は
、パネル(OCP1OP,OCP2OP)の交差に基づいて決定され、 前記パネルは、少なくとも1つの透過中心(OC,OP)と、取得された2次元
画像(I1,I2)の間における少なくとも2対の対応(PQ)とによって定義
される ことを特徴とする請求項10記載の方法。
12. The method of claim 11, wherein the simulated three-dimensional space are linearly (V) includes a panel (O C P1O P, O C P2O P) is determined based on the intersection of said panel, at least one transmission center ( O C, and O P), the method of claim 10, wherein a is defined by at least two pairs correspondence (PQ) between the acquired two-dimensional images (I1, I2).
【請求項13】 前記倍率変数は、3次元表示(R1)が他の同様に引き出
された3次元表示(R2)へ適応させられることを可能にするように、ユーザに
よって変更される ことを特徴とする請求項1から請求項12のいずれかに記載の方法。
13. The magnification variable is modified by a user to enable the three-dimensional display (R1) to be adapted to another similarly derived three-dimensional display (R2). The method according to claim 1, wherein:
【請求項14】 3次元表示(30)は、空間的に離された透過中心(OC
,OP)からの透過投影の交差に基づいて生成され、 透過中心は、個々の2次元画像(I1,I2)の間における第1対の対応(P
Q)の間における相互オフセットから引き出され、かつ、個々の2次元画像の間
における第2対の対応の間における更なる相互オフセットから引き出され、 更なる対の対応が、上記透過中心決定によって拘束される検索から引き出され
、 物体の3次元表示が、更なる対の対応と投影とから引き出される ことを特徴とする請求項1から請求項13のいずれかに記載の方法。
14. A three-dimensional display (30) comprising a spatially separated transmission center (O C).
, O based on the intersection of the rear projection from P) is generated, the transmission center, the first pair between the respective two-dimensional images (I1, I2) corresponding (P
Q) and from a further mutual offset between the second pair of correspondences between the individual two-dimensional images, wherein the further pair correspondences are constrained by the transmission center determination. 14. The method according to any of the preceding claims, wherein the three-dimensional representation of the object is derived from a further search and a further pair correspondence and projection.
【請求項15】 前記計算は、1000対未満の画像対応(PQ)に基づい
て実行される ことを特徴とする請求項14記載の方法。
15. The method of claim 14, wherein the calculation is performed based on less than 1000 pairs of image correspondences (PQ).
【請求項16】 前記計算は、100対未満の画像対応(PQ)に基づいて
実行される ことを特徴とする請求項15記載の方法。
16. The method of claim 15, wherein the calculation is performed based on less than 100 pairs of image correspondences (PQ).
【請求項17】 前記計算は、50対未満の画像対応(PQ)に基づいて実
行される ことを特徴とする請求項16記載の方法。
17. The method of claim 16, wherein the calculation is performed based on less than 50 pairs of image correspondences (PQ).
【請求項18】 前記計算は、8対以下の画像対応(PQ)に基づいて実行
される ことを特徴とする請求項17記載の方法。
18. The method of claim 17, wherein the calculation is performed based on eight or fewer pairs of image correspondences (PQ).
【請求項19】 前記計算は、2対または3対または4対の画像対応(PQ
)に基づいて実行される ことを特徴とする請求項18記載の方法。
19. The method according to claim 1, wherein the calculation is performed on two pairs, three pairs or four pairs of image correspondences (PQ
19. The method according to claim 18, wherein the method is performed on the basis of:
【請求項20】 前記方法は、 更なる3次元表示を形成するために、異なる更なる視点(CMA,CMA’)
から取得された物体の更なる2次元画像をデジタル方式で処理することによって
、クレーム1またはクレーム2の方法を繰り返すステップ を具備し、 最初に述べられた3次元表示と更なる3次元表示とは、シミュレートされた3
次元空間における操作によって結合され、 前記操作は、回転と平行移動とのうちの1または2以上を含み、 少なくとも1つの軸に沿った他の3次元表示に関する1つの3次元表示を倍率
調整することによって、3次元表示の間に残っている全ての矛盾が、随意に減少
させられまたは除去される ことを特徴とする請求項1から請求項19のいずれかに記載の方法。
20. The method as claimed in claim 19, further comprising the step of creating different three-dimensional representations with different further viewpoints (CMA, CMA ′).
Repeating the method of claim 1 or claim 2 by digitally processing a further two-dimensional image of the object obtained from the first three-dimensional representation and the further three-dimensional representation. , Simulated 3
Coupled by an operation in a three-dimensional space, the operation including one or more of rotation and translation, scaling one three-dimensional display with respect to another three-dimensional display along at least one axis. 20. A method according to any of the preceding claims, wherein any inconsistencies remaining during the three-dimensional representation are optionally reduced or eliminated.
【請求項21】 少なくとも2つの3次元表示(R1,R2)が、スクリー
ン(5)上に、同時にディスプレイされ、 前記2つの3次元表示の操作が、ユーザによって入力されたコマンドに応答し
て実行される ことを特徴とする請求項20記載の方法。
21. At least two three-dimensional displays (R1, R2) are simultaneously displayed on a screen (5), wherein the operation of the two three-dimensional displays is performed in response to a command input by a user. 21. The method of claim 20, wherein:
【請求項22】 3次元表示(R1,R2)の操作が、ユーザによって操作
されるコンピュータポインティングデバイス(6)の制御の下で実行される ことを特徴する請求項21記載の方法。
22. The method according to claim 21, wherein the operation of the three-dimensional display (R1, R2) is performed under the control of a computer pointing device (6) operated by a user.
【請求項23】 ひずみパラメータが、ユーザによって入力され、かつ、前
記最初に述べられた3次元表示および/または前記更なる3次元表示へ適用され
る ことを特徴とする請求項20から請求項22のいずれかに記載の方法。
23. A method according to claim 20, wherein a distortion parameter is input by a user and is applied to the first mentioned three-dimensional display and / or the further three-dimensional display. The method according to any of the above.
【請求項24】 シミュレートされた3次元空間における初期3次元表示(
30’,図9)が、空間的に離された透過中心からの投影を交差することによっ
て生成され、かつ、 初期3次元表示の個々の透過中心からのこれらの特徴の投影上に存在するよう
に、交差している投影に基づいて生成された初期3次元表示の点を拘束しながら
、初期3次元表示が回転させられ、 それによって、更なる3次元表示(30C,図9)を形成する ことを特徴する請求項23記載の方法。
24. Initial three-dimensional display in a simulated three-dimensional space (
30 ', FIG. 9) are generated by intersecting the projections from the spatially separated transmission centers and are on the projection of these features from the individual transmission centers of the initial three-dimensional representation. In turn, the initial three-dimensional display is rotated while constraining the points of the initial three-dimensional display generated based on the intersecting projections, thereby forming a further three-dimensional display (30C, FIG. 9). 24. The method of claim 23, wherein:
【請求項25】 フィールドの曲率を示す更なるパラメータが、ユーザによ
って入力され、かつ、前記最初に述べられた3次元表示および/または前記更な
る3次元表示のフィールドの曲率を調整するために使用される ことを特徴とする請求項20から請求項24のいずれかに記載の方法。
25. A further parameter indicating the curvature of the field is entered by the user and used to adjust the curvature of the field of the initially mentioned three-dimensional display and / or of the further three-dimensional display. The method according to any of claims 20 to 24, characterized in that:
【請求項26】 物体に関して空間的に離された異なる視点から取得された
物体の相関オーバーラップ2次元画像から、物体の少なくとも一部の3次元表示
を引き出すための画像処理装置であって、 前記装置は、 シミュレートされた3次元空間において、個々の2次元画像の対応の間におけ
る相互オフセットと倍率変数との両方に依存して広がる3次元表示(30)を形
成するために、2次元画像をデジタル方式で処理するようにされた画像処理手段
(4) を具備し、 倍率変数は、2次元画像が取得された視点(CM,CM’)の間における間隔
を示している ことを特徴する画像処理装置。
26. An image processing apparatus for extracting a three-dimensional display of at least a part of an object from a correlated overlap two-dimensional image of the object obtained from different viewpoints spatially separated with respect to the object, The apparatus includes a two-dimensional image for forming a three-dimensional representation (30) that expands in a simulated three-dimensional space depending on both a mutual offset and a magnification variable between corresponding two-dimensional images. Image processing means (4) adapted to process in a digital manner, wherein the magnification variable indicates an interval between viewpoints (CM, CM ′) from which the two-dimensional image is obtained. Image processing device.
【請求項27】 照らされた物体の2次元画像から、物体の少なくとも一部
の3次元表示を引き出すための画像処理装置であって、 前記物体は、2次元画像が取得された視点(OC )から空間的に離された位置
(OP )から投影された所定の光学的放射で照らされ、 2次元画像は、所定の放射と相関させられ、 前記装置は、 シミュレートされた3次元空間において、相関と倍率変数との両方に依存して
広がる3次元表示を形成するようにされたデジタル処理手段(4) を具備し、 倍率変数は、所定の位置と所定の視点との間における間隔を示しており、 所定の光学的放射は、前記所定の位置から投影され、 2次元画像は、前記所定の視点において取得される ことを特徴とする画像処理装置。
27. An image processing apparatus for extracting a three-dimensional display of at least a part of an object from a two-dimensional image of an illuminated object, wherein the object has a viewpoint (O C) from which the two-dimensional image is acquired. ) Is illuminated with a predetermined optical radiation projected from a position (O P ) spatially separated from the two-dimensional image, the two-dimensional image is correlated with the predetermined radiation, and the device comprises a simulated three-dimensional space , Comprising digital processing means (4) adapted to form a three-dimensional display that expands depending on both the correlation and the magnification variable, wherein the magnification variable is an interval between a predetermined position and a predetermined viewpoint. And a predetermined optical radiation is projected from the predetermined position, and a two-dimensional image is acquired at the predetermined viewpoint.
【請求項28】 シミュレートされた3次元空間における表示の光景をディ
スプレイするようにされたディスプレイ手段(5) を具備し、 ディスプレイされる表示のサイズは、倍率変数の値に依存する ことを特徴する請求項26または請求項27のいずれかに記載の装置。
28. Display means (5) adapted to display a scene of a display in a simulated three-dimensional space, wherein the size of the displayed display depends on the value of a magnification variable. 28. The apparatus according to claim 26 or claim 27.
【請求項29】 前記装置は、 カメラ(CM) を更に具備し、 カメラの位置および/または方位は、物体のフレームに関して完全には拘束さ
れず、 カメラは、前記2次元画像を取得するようにされている ことを特徴する請求項28記載の画像処理装置。
29. The apparatus further comprises a camera (CM), wherein the position and / or orientation of the camera is not completely constrained with respect to the frame of the object, and the camera may acquire the two-dimensional image. The image processing apparatus according to claim 28, wherein:
【請求項30】 前記装置は、 前記2次元画像の取得の時に、物体に関するカメラの方位を決定するようにさ
れた慣性センサ手段(G) を具備する ことを特徴する請求項29記載の装置。
30. Apparatus according to claim 29, characterized in that the apparatus comprises inertial sensor means (G) adapted to determine the orientation of the camera with respect to the object when acquiring the two-dimensional image.
【請求項31】 空間的に離された透過中心(pr1,Pr2/r2’)か
らの個々の投影の交差に基づいて3次元表示を生成するようにされた装置であっ
て、 上記透過中心決定によって拘束された検索から更なる対の対応を引き出すため
に、かつ、更なる対の対応と投影とから物体の3次元表示を引き出すために、透
過中心が、個々の2次元画像の間における第1対の対応の間における相互オフセ
ットから引き出され、かつ、個々の2次元画像の間における第2対の対応の間に
おける更なる相互オフセットから引き出される ことを特徴する請求項26から請求項30のいずれかに記載の装置。
31. Apparatus adapted to generate a three-dimensional representation based on the intersection of individual projections from spatially separated transmission centers (pr1, Pr2 / r2 ′), wherein the transmission center determination is performed. In order to derive further pairs of correspondences from the search constrained by, and to derive a three-dimensional representation of the object from the further pairs of correspondences and projections, the transmission center is used to determine the first 31. The method of claim 26, further comprising deriving a mutual offset between a pair of correspondences and a further mutual offset between a second pair of correspondences between the individual two-dimensional images. An apparatus according to any of the preceding claims.
【請求項32】 更なる透過中心(CMA・m,CMA’)からの更なる投
影の更なる交差に基づいて更なる3次元表示を引き出すようにされた装置であっ
て、 前記装置は、 最初に述べられた3次元表示と更なる3次元表示とを、シミュレートされた3
次元空間における操作によって結合するようにされた結合手段(4) を具備し、 前記操作は、回転と平行移動とのうちの1または2以上を含み、 前記装置は、 少なくとも1つの軸に沿った他の3次元表示に関する1つの3次元表示を倍率
調整することによって、3次元表示の間に残っている全ての矛盾を減少させまた
は除去するようにされた倍率調整手段(BN,W1,W2) を更に具備する ことを特徴する請求項26から請求項31のいずれかに記載の装置。
32. A device adapted to derive a further three-dimensional representation based on a further intersection of a further projection from a further transmission center (CMA · m, CMA ′), said device comprising: The three-dimensional display described in Section 3 and the further three-dimensional display
Coupling means (4) adapted to be coupled by an operation in a dimensional space, said operation comprising one or more of rotation and translation, said device comprising: Magnification adjusting means (BN, W1, W2) adapted to reduce or eliminate any inconsistencies remaining during the three-dimensional display by scaling one three-dimensional display with respect to the other three-dimensional display The apparatus according to any one of claims 26 to 31, further comprising:
【請求項33】 両方の3次元表示(R1,R2)を同時にディスプレイす
るようにされ、 ユーザによって入力されたコマンドに応答して、両方の3次元表示を、シミュ
レートされた3次元空間において操作するようにされた ことを特徴とする請求項32記載の装置。
33. Simultaneous display of both three-dimensional displays (R1, R2), operation of both three-dimensional displays in a simulated three-dimensional space in response to commands entered by a user. 33. The device of claim 32, wherein the device is adapted to:
【請求項34】 前記透過中心の不正確な計算または不完全な計算に起因す
る前記最初に述べられた3次元表示および/または前記更なる3次元表示のひず
みを訂正するようにされた ことを特徴する請求項32または請求項33のいずれかに記載の装置。
34. A method for correcting distortion of said first mentioned three-dimensional representation and / or said further three-dimensional representation due to incorrect or incomplete calculation of said transmission center. Apparatus according to any of claims 32 or 33, characterized in that:
【請求項35】 前記透過中心(pr2’−図9)の不正確な計算または不
完全な計算に起因する前記最初に述べられた3次元表示および/または前記更な
る3次元表示(30’図9)のフィールドの曲率を訂正するようにされた ことを特徴する請求項32から請求項34のいずれかに記載の装置。
35. The first mentioned three-dimensional representation and / or the further three-dimensional representation (30 ′ diagram) due to incorrect or incomplete calculation of the transmission center (pr2′—FIG. 9). 35. Apparatus according to any one of claims 32 to 34, wherein the curvature of the field of 9) is corrected.
【請求項36】 カメラの視野における物体(3)に関するカメラ(CM)
の移動を決定する方法であって、 前記方法は、 共通消失点(VP)への物体の画像の特徴の経路(L1,L2,L3−図4)
を投影するステップと、 カメラ(O)の透過中心とこの消失点との間におけるベクトル(V)を決定す
るステップと を具備する ことを特徴する方法。
36. Camera (CM) for object (3) in the field of view of the camera
The movement of the feature of the image of the object to a common vanishing point (VP) (L1, L2, L3-FIG. 4).
And determining a vector (V) between the transmission center of the camera (O) and the vanishing point.
【請求項37】 カメラの視野における物体に関するカメラの移動を決定す
る装置であって、 前記装置は、 共通消失点への物体の画像の特徴の経路(L1,L2,L3−図4)を投影す
るための手段(4)と、 カメラの透過中心(O)とこの消失点との間におけるベクトル(V)を決定す
る手段と を具備する ことを特徴する装置。
37. An apparatus for determining a movement of a camera relative to an object in a field of view of the camera, said apparatus projecting a path (L1, L2, L3-FIG. 4) of an image feature of the object to a common vanishing point. Means for determining the vector (V) between the transmission center (O) of the camera and this vanishing point.
【請求項38】 物体(3)の3次元再構成画像を生成する方法であって、 前記方法は、 相互に整列させられたカメラ(CM,CM’)によって取得された物体の画像
を、整列させられた仮想プロジェクタ(pr1,pr2)からのシミュレートさ
れた3次元空間へ投影するステップ を具備し、 仮想プロジェクタの間隔は、ユーザによって変更可能である ことを特徴する方法。
38. A method for generating a three-dimensional reconstructed image of an object (3), the method comprising: aligning images of an object acquired by mutually aligned cameras (CM, CM '). Projecting the simulated three-dimensional space from the virtual projectors (pr1, pr2) caused by the virtual projectors, wherein the distance between the virtual projectors can be changed by a user.
【請求項39】 物体(3)の3次元再構成画像を生成するための装置であ
って、 前記装置は、 相互に整列させられたカメラによって取得された物体の画像を、シミュレート
された3次元空間へ投影するようにされた2つの整列させられた仮想プロジェク
タ手段(pr1,pr2) を具備し、 仮想プロジェクタの間隔は、ユーザによって変更可能である ことを特徴する装置。
39. An apparatus for generating a three-dimensional reconstructed image of an object (3), said apparatus comprising: a simulated 3D image of the object acquired by mutually aligned cameras. An apparatus comprising two aligned virtual projector means (pr1, pr2) adapted to project into a three-dimensional space, wherein the distance between the virtual projectors is changeable by a user.
【請求項40】 物体表面上への所定の光学的放射の投影の物体画像(I1
)と、物体表面から移された表面上への所定の光学的放射の投影の少なくとも1
つの校正画像(I2)とから、物体(3)の少なくとも一部の3次元表示を生成
するための装置であって、 前記装置は、 少なくとも1つの校正画像と物体画像と随意に更なる校正画像との間において
、対応(PQ)を生成するようにされた画像処理手段(4)と、 物体画像の第1投影と少なくとも2つの相関画像の個々の対応を連結する第2
投影とをシミュレートするようにされ、かつ、第1投影と第2投影との相互交差
から前記3次元表示を引き出すようにされた再構成処理手段と を具備する ことを特徴する装置。
40. An object image (I1) of a projection of a predetermined optical radiation onto an object surface.
) And the projection of predetermined optical radiation onto the surface transferred from the object surface.
Device for generating a three-dimensional representation of at least a part of an object (3) from one calibration image (I2), said device comprising at least one calibration image, an object image and optionally further calibration images An image processing means (4) adapted to generate a correspondence (PQ), and a second linking the first projection of the object image and the individual correspondence of at least two correlation images.
Reconstructing means adapted to simulate a projection and to derive said three-dimensional representation from the intersection of the first projection and the second projection.
【請求項41】 第1投影と第2投影とは、画像(I1,I2)と関連する
所定の光学的放射の起点(OP )と透過中心(OC )とを連結する基線からの投
影であり、 再構成処理手段(4)は、相関から、前記基線を引き出すようにされた ことを特徴する請求項40記載の装置。
41. The first projection and the second projection are projections from a baseline connecting the origin (O P ) and the transmission center (O C ) of a predetermined optical radiation associated with the image (I1, I2). 41. Apparatus according to claim 40, wherein the reconstruction processing means (4) is adapted to derive the baseline from a correlation.
【請求項42】 画像処理手段(4)は、2または3以上の校正画像を相関
させるようにされ、かつ、第1投影の起点と第2投影の起点(OC ,OP )との
間における間隔を、2または3以上の校正画像の相関と校正に関連する入力距離
情報または記憶距離情報とに依存して決定するようにされる ことを特徴する請求項40または請求項41のいずれかに記載の装置。
42. An image processing means (4) adapted to correlate two or three or more calibration images, and between an origin of the first projection and an origin of the second projection (O C , O P ). 42. The method according to claim 40, wherein the distance is determined depending on a correlation of two or more calibration images and input distance information or storage distance information related to calibration. An apparatus according to claim 1.
【請求項43】 前記装置は、 所定の光学的放射を物体表面上と少なくとも1つの校正表面(T1,T2)上
とへ投影するようにされたプロジェクタ手段(PR) を更に具備する ことを特徴する請求項40から請求項42のいずれかに記載の装置。
43. The apparatus further comprising: projector means (PR) adapted to project the predetermined optical radiation onto the object surface and onto at least one calibration surface (T1, T2). 43. Apparatus according to any of claims 40 to 42, wherein the apparatus comprises:
【請求項44】 前記装置は、 物体画像(I1)と少なくとも1つの校正画像(I2)とを取得するようにさ
れたカメラ(CM) を更に具備する ことを特徴する請求項40から請求項42のいずれかに記載の装置。
44. The apparatus according to claim 40, wherein the apparatus further comprises a camera (CM) adapted to acquire an object image (I1) and at least one calibration image (I2). An apparatus according to any one of the above.
【請求項45】 前記装置は、 使用時に、所定の放射によって照らされる少なくとも1つの校正ターゲット(
T1,T2) を更に具備する ことを特徴する請求項40から請求項42のいずれかに記載の装置。
45. The apparatus according to claim 45, wherein in use, the at least one calibration target is illuminated by a predetermined radiation.
43. The apparatus according to claim 40, further comprising: (T1, T2).
【請求項46】 前記装置は、 前記画素に関連する局所的放射分布と個々の位置とを比較することによって、
前記画像のうちの1つの画像(I1)における画素を、前記画像のうちの他の画
像(I2)における対応位置と相関させるようにされた画像処理手段(4) を更に具備する ことを特徴する請求項40から請求項42のいずれかに記載の装置。
46. The apparatus according to claim 46, wherein the local radiation distribution associated with the pixel is compared with individual locations.
Image processing means (4) adapted to correlate pixels in one image (I1) of the images with corresponding positions in another image (I2) of the images. 43. Apparatus according to any of claims 40 to 42.
【請求項47】 画像処理手段(4)は、相関プロセスの間における放射ひ
ずみおよび/または幾何学ひずみを許容するようにされた ことを特徴する請求項46記載の装置。
47. Apparatus according to claim 46, wherein the image processing means (4) is adapted to tolerate radiation distortion and / or geometric distortion during the correlation process.
【請求項48】 物体表面上への所定の光学的放射の投影の物体画像(I1
)と、物体表面から移された表面上への所定の光学的放射の投影のうちの少なく
とも1つの校正画像(I2)とから、物体(3)の3次元表示を生成するための
方法であって、 前記方法は、 i) 少なくとも1つの校正画像を、物体画像と相関させ、かつ、随意に更な
る校正画像と相関させるステップと、 ii) 物体画像の第1投影と所定の光学的放射の第2投影とをシミュレートす
るステップと、 iii) 第1投影と第2投影との相互交差から前記3次元表示を引き出すステッ
プと を具備する ことを特徴する方法。
48. An object image (I1) of a projection of a predetermined optical radiation onto an object surface.
) And at least one calibration image (I2) of the projection of the predetermined optical radiation onto the surface transferred from the object surface, the method for generating a three-dimensional representation of the object (3). Wherein said method comprises the steps of: i) correlating at least one calibration image with an object image, and optionally correlating with a further calibration image; ii) first projection of the object image and predetermined optical radiation. Simulating a second projection; and iii) deriving the three-dimensional representation from an intersection of the first projection and the second projection.
【請求項49】 第1投影と第2投影とは、画像と個々に関連する所定の光
学的放射の起点(OP )と透過中心(OC )とを連結する基線からの投影であり
、 前記基線は、2または3以上の対の画像対応(PQ)から引き出される ことを特徴する請求項48記載の方法。
49. The first projection and the second projection are projections from a baseline connecting a point of origin (O P ) and a center of transmission (O C ) of a predetermined optical radiation individually associated with the image; 49. The method of claim 48, wherein the baseline is derived from two or more pairs of image correspondences (PQ).
【請求項50】 2または3以上の校正画像が相関させられ、 第1投影の起点と第2投影の起点(OC,OP)との間における間隔は、2また
は3以上の校正画像の相関と校正に関連する入力距離情報または記憶距離情報と
に依存して決定される ことを特徴する請求項48または請求項49のいずれかに記載の方法。
50. Two or more calibration images are correlated, and the distance between the first projection origin and the second projection origin (O C , O P ) is two or more calibration images. 50. The method according to claim 48 or claim 49, wherein the method is determined dependent on input distance information or stored distance information related to correlation and calibration.
【請求項51】 前記画像(I1,I2)の領域(R)は、前記領域に関連
する局所的放射分布および/または色彩分布を比較することによって相関させら
れる ことを特徴する請求項48から請求項50のいずれかに記載の方法。
51. The region (R) of the image (I1, I2) is correlated by comparing a local radiation distribution and / or a color distribution associated with the region. 50. The method according to any of the items 50.
【請求項52】 放射ひずみおよび/または色彩ひずみは、潜在的に対応す
る領域(R)の間において許容される ことを特徴する請求項51記載の方法。
52. The method according to claim 51, wherein radiation distortion and / or color distortion are tolerated between potentially corresponding regions (R).
JP2000550066A 1998-05-15 1999-05-17 Method and apparatus for three-dimensional display Withdrawn JP2002516443A (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
GBGB9810553.9A GB9810553D0 (en) 1998-05-15 1998-05-15 Method and apparatus for 3D representation
GB9810553.9 1998-05-15
GB9910960A GB2352901A (en) 1999-05-12 1999-05-12 Rendering three dimensional representations utilising projected light patterns
GB9910960.5 1999-05-12
PCT/GB1999/001556 WO1999060525A1 (en) 1998-05-15 1999-05-17 Method and apparatus for 3d representation

Publications (1)

Publication Number Publication Date
JP2002516443A true JP2002516443A (en) 2002-06-04

Family

ID=26313698

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000550066A Withdrawn JP2002516443A (en) 1998-05-15 1999-05-17 Method and apparatus for three-dimensional display

Country Status (4)

Country Link
JP (1) JP2002516443A (en)
AU (1) AU4050599A (en)
GB (1) GB2353659A (en)
WO (1) WO1999060525A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106228527A (en) * 2010-11-15 2016-12-14 斯加勒宝展示技术有限公司 Utilize manually and semi-automated techniques calibrates the system and method for display system
CN107255458A (en) * 2017-06-19 2017-10-17 昆明理工大学 A kind of upright projection grating measuring analogue system and its implementation

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6377700B1 (en) * 1998-06-30 2002-04-23 Intel Corporation Method and apparatus for capturing stereoscopic images using image sensors
GB2358308B (en) * 1999-11-25 2004-03-24 Canon Kk Image processing apparatus
US6970591B1 (en) 1999-11-25 2005-11-29 Canon Kabushiki Kaisha Image processing apparatus
GB2368117A (en) * 2000-05-08 2002-04-24 Neutral Ltd Optical viewing arrangement
US7359748B1 (en) 2000-07-26 2008-04-15 Rhett Drugge Apparatus for total immersion photography
DE10114760A1 (en) * 2001-03-20 2002-09-26 Scannova Gmbh Image representation method for 3-dimensional object uses combining of at least one 2-dimensional image data set with depth mask obtained by processing image data
GB2377576B (en) * 2001-07-12 2005-06-01 Vision Works Ltd D Modelling of three dimensional shapes
US7856125B2 (en) * 2006-01-31 2010-12-21 University Of Southern California 3D face reconstruction from 2D images
US9123159B2 (en) 2007-11-30 2015-09-01 Microsoft Technology Licensing, Llc Interactive geo-positioning of imagery
US8138938B2 (en) * 2008-10-28 2012-03-20 The Boeing Company Hand-held positioning interface for spatial query
US9113153B2 (en) * 2011-01-14 2015-08-18 Kodak Alaris Inc. Determining a stereo image from video
CA2835306C (en) 2011-06-07 2016-11-15 Creaform Inc. Sensor positioning for 3d scanning
US9258550B1 (en) 2012-04-08 2016-02-09 Sr2 Group, Llc System and method for adaptively conformed imaging of work pieces having disparate configuration
WO2014006545A1 (en) 2012-07-04 2014-01-09 Creaform Inc. 3-d scanning and positioning system
WO2014013363A1 (en) 2012-07-18 2014-01-23 Creaform Inc. 3-d scanning and positioning interface
DE102013110581B4 (en) 2013-09-24 2018-10-11 Faro Technologies, Inc. Method for optically scanning and measuring an environment and device therefor
CN105066962B (en) * 2015-07-21 2017-08-25 中国航空工业集团公司北京长城航空测控技术研究所 A kind of high-precision photogrammetric apparatus of the big angle of visual field of multiresolution
WO2018027259A1 (en) 2016-08-08 2018-02-15 Bionics Institute Systems and methods for monitoring neural activity
US11298070B2 (en) 2017-05-22 2022-04-12 Deep Brain Stimulation Technologies Pty Ltd Systems and methods for monitoring neural activity

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106228527A (en) * 2010-11-15 2016-12-14 斯加勒宝展示技术有限公司 Utilize manually and semi-automated techniques calibrates the system and method for display system
CN107255458A (en) * 2017-06-19 2017-10-17 昆明理工大学 A kind of upright projection grating measuring analogue system and its implementation

Also Published As

Publication number Publication date
AU4050599A (en) 1999-12-06
GB0027703D0 (en) 2000-12-27
WO1999060525A1 (en) 1999-11-25
GB2353659A (en) 2001-02-28

Similar Documents

Publication Publication Date Title
JP2002516443A (en) Method and apparatus for three-dimensional display
US8107722B2 (en) System and method for automatic stereo measurement of a point of interest in a scene
Abraham et al. Fish-eye-stereo calibration and epipolar rectification
KR100450469B1 (en) Image Combination Method and System Using Parallax-based Technology
WO2018076154A1 (en) Spatial positioning calibration of fisheye camera-based panoramic video generating method
US8098958B2 (en) Processing architecture for automatic image registration
US8208029B2 (en) Method and system for calibrating camera with rectification homography of imaged parallelogram
US6930685B1 (en) Image processing method and apparatus
EP2104365A1 (en) Method and apparatus for rapid three-dimensional restoration
GB2352901A (en) Rendering three dimensional representations utilising projected light patterns
CN113592721B (en) Photogrammetry method, apparatus, device and storage medium
CN115830103A (en) Monocular color-based transparent object positioning method and device and storage medium
Liu et al. Epipolar rectification method for a stereovision system with telecentric cameras
KR20190130407A (en) Apparatus and method for omni-directional camera calibration
CN115272080A (en) Global deformation measurement method and system based on image stitching
GB2569609A (en) Method and device for digital 3D reconstruction
JP3221384B2 (en) 3D coordinate measuring device
Castanheiro et al. Modeling hyperhemispherical points and calibrating a dual-fish-eye system for close-range applications
Barazzetti Planar metric rectification via parallelograms
Barazzetti et al. Stitching and processing gnomonic projections for close-range photogrammetry
GB2337390A (en) Deriving a 3D representation from two or more 2D images
JP4196784B2 (en) Camera position measuring apparatus and method, and camera position control method
KR20200030205A (en) System and method for generating epipolar images by using direction cosine
Schneider et al. Development and application of an extended geometric model for high resolution panoramic cameras
Boldt et al. A handheld texel camera for acquiring near-instantaneous 3D images

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060801