JP2000115639A - Image input device and method - Google Patents

Image input device and method

Info

Publication number
JP2000115639A
JP2000115639A JP28397298A JP28397298A JP2000115639A JP 2000115639 A JP2000115639 A JP 2000115639A JP 28397298 A JP28397298 A JP 28397298A JP 28397298 A JP28397298 A JP 28397298A JP 2000115639 A JP2000115639 A JP 2000115639A
Authority
JP
Japan
Prior art keywords
image
plane
dimensional position
feature point
reference image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP28397298A
Other languages
Japanese (ja)
Inventor
Norihiko Murata
憲彦 村田
Takashi Kitaguchi
貴史 北口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP28397298A priority Critical patent/JP2000115639A/en
Publication of JP2000115639A publication Critical patent/JP2000115639A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Studio Circuits (AREA)

Abstract

PROBLEM TO BE SOLVED: To produce a composited image at a high speed and with high accuracy, even when 3 or more sheets of images of object planes are obtained by providing a projection means which projects the images on an arbitrary same image screen and composites the images which are photographed at plural visual points based on the specific information. SOLUTION: A projection means 25 projects each of images which are stored in a frame memory 15 on an arbitrary same image screen, based on the plane information outputted from a three-dimensional position/plane calculation means 23 and also on the outputs of an extension coefficient calculation means 24 which calculates the extension coefficients of the translation component obtained from every image pair and a three-dimensional position, an attitude detection means 19, a translation motion detection means 21, etc. Then the means 25 projects each of images stored in the memory 15 on a plane to composite an image, according to the projection condition that is defined based on the outputs supplied from the means 19, 21, 23 and 24.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、デジタルスチルカ
メラやデジタルビデオカメラをはじめとする複数枚の画
像を撮影する画像入力装置及びその画像入力方法に関す
るものである。
[0001] 1. Field of the Invention [0002] The present invention relates to an image input apparatus for photographing a plurality of images, such as a digital still camera and a digital video camera, and an image input method thereof.

【0002】[0002]

【従来の技術】従来より普及されている画像入力装置
は、光学系を通過した画像をCCDセンサ等の撮像素子
により光電変換し、さらに光電変換された画像信号をA
/D変換されてメモリカード等の外部記憶装置に保存す
るものであった。このような画像入力装置は、画像をデ
ジタル信号として扱うことができるため、画像の加工・
処理・伝送が手軽に行えるという利点がある。
2. Description of the Related Art Conventionally, an image input apparatus has been widely used, in which an image passing through an optical system is photoelectrically converted by an image pickup device such as a CCD sensor and an image signal obtained by the photoelectric conversion is converted into an A signal.
/ D converted and stored in an external storage device such as a memory card. Such an image input device can handle an image as a digital signal.
There is an advantage that processing and transmission can be easily performed.

【0003】一方、現在看板やパネル等の平面状の文字
や写真を簡便かつ高精度に入力できる装置が求められて
いる。A3程度の大きさの紙面像は複写機やスキャナ等
の装置により簡単に読み込むことができるが、上記画像
入力装置では新聞紙等の大面積の紙面情報やパネル壁に
描かれた情報を読み込むことは不可能である。そこで、
携帯可能な画像入力装置を用いて、これらの大きな被写
体を分割撮影し、得られた複数枚の画像を貼り合わせ
て、高解像度のパノラマ画像を合成するという方法(従
来例1)が現れた。この方法では、互いの画像の一部が
重複するか、またはそれぞれの画像が継ぎ目なく繋がる
ようにして撮影した被写体像を、球面等の投影面に逆投
影して張り合わせることにより、パノラマ画像を合成し
ている。
On the other hand, there is a demand for a device capable of easily and accurately inputting flat characters and photographs such as signs and panels. A paper image of about A3 size can be easily read by a device such as a copying machine or a scanner. However, the image input device described above cannot read large-area paper information such as newspaper or information drawn on a panel wall. Impossible. Therefore,
A method has emerged in which a large image is divided and photographed using a portable image input device, and a plurality of obtained images are combined to synthesize a high-resolution panoramic image (conventional example 1). In this method, a panoramic image is formed by overlapping and projecting a subject image taken such that a part of each image overlaps or each image is connected seamlessly to a projection surface such as a spherical surface. Combined.

【0004】また、従来例2としての特開平7−954
67号公報において、合成する画像間の連続性を良くす
るために、複数の画像入力手段から得られた画像におい
て互いに共通する部分画像を判定し、その部分画像にお
ける対応点対を抽出し、その対応点対の3次元位置から
合成画像を作成してこの合成画像を分割する装置を設け
るという画像処理装置が提案されている。
Further, Japanese Patent Application Laid-Open No.
In Japanese Patent No. 67, in order to improve continuity between images to be synthesized, partial images common to each other in images obtained from a plurality of image input means are determined, and a corresponding point pair in the partial images is extracted. 2. Description of the Related Art An image processing apparatus has been proposed in which a device for creating a composite image from a three-dimensional position of a corresponding point pair and dividing the composite image is provided.

【0005】この他、従来例3としての特開平9−32
2040号公報において、被写体を一部が重複するよう
に分割撮影して得られた画像を合成する際に、一連の画
像が遠距離撮影したものか近距離撮影したものかを判別
した結果に基づいて、近距離画像合成と遠距離画像合成
を選択的に切り替えるという画像生成装置が提案されて
いる。詳細には、近距離撮影の場合は画面上における上
下左右の並進と光軸回りの回転角、さらに光軸に沿った
並進による倍率変化に基づき画像を合成し、遠距離撮影
の場合は先に撮影した画像と次に撮影した画像との間の
装置の回転角より画像を合成するというものである。
In addition, Japanese Patent Application Laid-Open No. 9-32 as Conventional Example 3
In Japanese Patent Publication No. 2040, when combining images obtained by dividing and photographing a subject so as to partially overlap, based on a result of discriminating whether a series of images has been photographed at a long distance or a short distance. Therefore, an image generating apparatus has been proposed which selectively switches between short-range image synthesis and long-range image synthesis. In detail, in the case of close-up shooting, an image is synthesized based on the vertical and horizontal translation on the screen, the rotation angle around the optical axis, and the change in magnification due to the translation along the optical axis. The image is synthesized based on the rotation angle of the device between the captured image and the next captured image.

【0006】[0006]

【発明が解決しようとする課題】しかし、上記従来例1
では、画像入力装置を平行移動させても被写体像が殆ど
変化しないような遠景画像にのみ適用可能であり、近距
離にある被写体像を合成するのには適さない。
However, the above conventional example 1
Is applicable only to a distant view image in which the subject image hardly changes even when the image input device is translated, and is not suitable for synthesizing a subject image at a short distance.

【0007】また、上記従来例2によれば、予め装置に
実装された複数の画像入力手段より得た画像を合成する
ため、使用者の好む撮影条件で被写体を撮影することが
不可能である。また、3次元位置より合成画像を作成す
る技術については全く開示されていない。
Further, according to the conventional example 2, since images obtained from a plurality of image input means mounted in the apparatus in advance are combined, it is impossible to photograph a subject under photographing conditions preferred by the user. . Also, there is no disclosure of a technique for creating a composite image from three-dimensional positions.

【0008】更に、上記従来例3によれば、近距離画像
合成と遠距離画像合成を切り替えるという煩雑な処理が
必要なうえ、両者の判別はフォーカス情報や回転角の大
きさを閾値処理することにより行われているため、合成
画像の近距離画像合成と遠距離画像合成とが切り替わる
部分に不自然な継ぎ目が生じやすいという問題点があ
る。また、近距離撮影の場合には、装置の光軸回りの回
転角(ロール角)しか考慮されていないため、装置の上
下方向の回転角(ピッチ角)及び左右方向の回転角(ヨ
ー角)によって画像に歪みが生じると、画像を継ぎ目な
く貼り合わせることは不可能である。
Further, according to the above-mentioned conventional example 3, complicated processing of switching between short-distance image synthesis and long-distance image synthesis is required, and the discrimination between the two is performed by threshold processing of the focus information and the magnitude of the rotation angle. Therefore, there is a problem that an unnatural seam is likely to occur in a portion where the synthesized image is switched between the short-range image synthesis and the long-range image synthesis. In addition, in the case of close-up shooting, only the rotation angle (roll angle) around the optical axis of the device is considered, so the vertical rotation angle (pitch angle) and the horizontal rotation angle (yaw angle) of the device. When images are distorted due to the above, it is impossible to bond the images seamlessly.

【0009】本発明はこれらの問題点を解決するための
ものであり、対象平面の画像が3枚以上得られた場合に
おいても、高精度かつ高速に合成画像を作成することが
可能な画像入力装置及びその方法を提供することを目的
とする。
An object of the present invention is to solve these problems. Even when three or more images of a target plane are obtained, an image input device capable of creating a composite image with high accuracy and high speed. It is an object to provide an apparatus and a method thereof.

【0010】[0010]

【課題を解決するための手段】本発明は前記問題点を解
決するために、先に撮像した画像である基準画像と一部
が重複するように複数の視点から対象平面を撮像する撮
像手段と、各撮像時の撮像手段の姿勢を検出する姿勢検
出手段と、基準画像と、基準画像と重複する部分を持つ
画像である参照画像との画像対に基づいて、基準画像に
おける複数の特徴点を抽出すると共に、参照画像におけ
る特徴点と同一の箇所を示す対応点を検出する対応検出
手段と、撮像手段の姿勢、特徴点及び対応点に基づい
て、撮像手段の並進運動成分を検出する並進運動検出手
段と、撮像手段の姿勢、特徴点、対応点及び並進運動成
分に基づいて、各特徴点の3次元位置を算出する3次元
位置計測手段と、3次元位置計測手段が計測した各特徴
点の3次元位置が同一平面上にあるものとして各特徴点
の3次元位置に適合する平面の情報を算出する平面算出
手段と、各画像対を利用して求めた各特徴点の3次元位
置、及び平面算出手段が算出した平面の情報に基づい
て、各並進成分及び各3次元位置の拡大係数を算出する
拡大係数算出手段と、撮像手段の姿勢と並進成分、及び
平面算出手段が計算した平面の情報に基づいて、各画像
を任意の同一画像面に投影して複数の視点から撮像した
画像を合成する投影手段とを有することに特徴がある。
SUMMARY OF THE INVENTION In order to solve the above-mentioned problems, the present invention provides an image pickup means for picking up an object plane from a plurality of viewpoints so as to partially overlap a reference image which is a previously picked-up image. A plurality of feature points in the reference image based on an image pair of an orientation detection unit that detects an orientation of the imaging unit at each imaging, and a reference image that is an image having a portion overlapping with the reference image. Correspondence detecting means for extracting and detecting a corresponding point indicating the same point as the feature point in the reference image, and translational motion for detecting a translational motion component of the imaging means based on the attitude, the feature point, and the corresponding point of the imaging means Detecting means, three-dimensional position measuring means for calculating a three-dimensional position of each feature point based on the attitude, feature point, corresponding point, and translational motion component of the imaging means, and each feature point measured by the three-dimensional position measuring means Are the same Plane calculating means for calculating information of a plane conforming to the three-dimensional position of each feature point as being on a plane, three-dimensional position of each feature point obtained by using each image pair, and plane calculating means Based on the information of the plane, based on the information of the plane calculated by the magnification factor calculating means for calculating each translation component and the expansion coefficient of each three-dimensional position, the orientation and the translation component of the imaging means, and the plane calculation means, A projection unit for projecting each image onto an arbitrary image plane and combining images captured from a plurality of viewpoints.

【0011】更に別の発明として、先に撮像した画像で
ある基準画像と一部が重複するように複数の視点から対
象平面を撮像する撮像手段と、各撮像時の撮像手段の姿
勢及び並進成分を検出する運動検出手段と、基準画像及
び基準画像と重複する部分を持つ画像である参照画像の
画像対に基づいて、基準画像における複数の特徴点を抽
出すると共に、参照画像における特徴点と同一の箇所を
示す対応点を検出する対応検出手段と、撮像手段の姿勢
と並進成分、及び特徴点と対応点に基づいて、各特徴点
の3次元位置を算出する3次元位置計測手段と、3次元
位置計測手段が計測した各特徴点の3次元位置が同一平
面上にあるものとして各特徴点の3次元位置に適合する
平面の情報を算出する平面算出手段と、各画像対を利用
して求めた各特徴点の3次元位置、及び平面算出手段が
算出した平面の情報に基づいて、各並進成分及び各3次
元位置の拡大係数を算出する拡大係数算出手段と、撮像
手段の姿勢と並進成分、及び平面算出手段が計算した平
面の情報に基づいて、各画像を任意の同一画像面に投影
して、複数の視点から撮像した画像を合成する投影手段
とを有することに特徴がある。よって、上記2つの発明
によれば、任意の距離にある対象平面を多数枚撮影した
場合でも、簡単な計算で高精度に平面の情報を算出する
ことができ、美しい合成画像を得ることができる。ま
た、画像の重なる範囲を予め強制していないのでユーザ
は比較的自由な条件で対象平面を撮影することができ
る。更に、撮影した画像の順序をユーザが手動で設定す
る必要がないので、操作性・利用性の高い画像合成が可
能となる。
According to still another aspect of the present invention, there is provided an image pickup means for picking up an object plane from a plurality of viewpoints so as to partially overlap a reference image which is a previously picked-up image; And extracting a plurality of feature points in the reference image based on the image pair of the reference image and the reference image which is an image having a portion overlapping with the reference image, and extracting a plurality of feature points identical to the feature points in the reference image. Correspondence detection means for detecting a corresponding point indicating the position of the image, three-dimensional position measurement means for calculating the three-dimensional position of each feature point based on the attitude and translation component of the imaging means, and the feature point and the corresponding point; A plane calculating unit for calculating information on a plane conforming to the three-dimensional position of each feature point assuming that the three-dimensional positions of each feature point measured by the three-dimensional position measuring unit are on the same plane, and using each image pair Required features Magnification factor calculating means for calculating the translation component and the magnification factor of each three-dimensional position based on the three-dimensional position and the plane information calculated by the plane calculating means, the attitude and the translation component of the imaging means, and the plane calculation A projection unit for projecting each image onto an arbitrary image plane based on the information on the plane calculated by the unit, and synthesizing images captured from a plurality of viewpoints. Therefore, according to the above two inventions, even when a large number of target planes at arbitrary distances are photographed, plane information can be calculated with high accuracy by a simple calculation, and a beautiful composite image can be obtained. . Further, since the overlapping range of the images is not preliminarily forced, the user can photograph the target plane under relatively free conditions. Furthermore, since it is not necessary for the user to manually set the order of the captured images, it is possible to combine images with high operability and usability.

【0012】また別の発明として、先に撮像した画像で
ある基準画像と一部が重複するように複数の視点から対
象平面を撮像する撮像手段と、各撮像時の撮像手段の姿
勢を検出する姿勢検出手段と、基準画像と、基準画像と
重複する部分を持つ画像である参照画像との画像対に基
づいて、基準画像における複数の特徴点を抽出すると共
に、参照画像における特徴点と同一の箇所を示す対応点
を検出する対応検出手段と、撮像手段の姿勢、特徴点及
び対応点に基づいて、撮像手段の並進運動成分を検出す
る並進運動検出手段と、撮像手段の姿勢、特徴点、対応
点及び並進運動成分に基づいて、各特徴点の3次元位置
を算出する3次元位置計測手段と、3次元位置計測手段
が計測した各特徴点の3次元位置が同一平面上にあるも
のとして各特徴点の3次元位置に適合する平面の情報を
算出する平面算出手段と、平面算出手段が算出した平面
の情報に基づいて、対象平面の平面情報を最適化する平
面最適化手段と、各画像対を利用して求めた各特徴点の
3次元位置、及び平面最適化手段が最適化した平面の情
報に基づいて、各並進成分及び各3次元位置の拡大係数
を算出する拡大係数算出手段と、撮像手段の姿勢と並進
成分、及び平面最適化手段が最適化した平面の情報に基
づいて、各画像を任意の同一画像面に投影して複数の視
点から撮像した画像を合成する投影手段とを有すること
に特徴がある。
According to another aspect of the present invention, an image pickup means for picking up an object plane from a plurality of viewpoints so as to partially overlap a reference image which is a previously picked up image, and a posture of the image pickup means at each image pickup are detected. Based on an image pair of a posture detection unit, a reference image, and a reference image which is an image having a portion overlapping with the reference image, a plurality of feature points in the reference image are extracted and the same as the feature points in the reference image. Correspondence detection means for detecting a corresponding point indicating a location, translational motion detection means for detecting a translational motion component of the imaging means based on the attitude, characteristic points and corresponding points of the imaging means; The three-dimensional position measuring means for calculating the three-dimensional position of each feature point based on the corresponding point and the translational motion component, and the three-dimensional position of each feature point measured by the three-dimensional position measuring means on the same plane Each feature point A plane calculating means for calculating information on a plane conforming to the three-dimensional position, a plane optimizing means for optimizing plane information on the target plane based on the information on the plane calculated by the plane calculating means, and each image pair is used. Enlargement coefficient calculating means for calculating each translation component and an enlargement coefficient of each three-dimensional position based on the three-dimensional position of each feature point obtained as described above and information on the plane optimized by the plane optimizing means, Projection means for projecting each image onto an arbitrary same image plane and synthesizing images captured from a plurality of viewpoints, based on the posture and translation components of the image and the plane information optimized by the plane optimization means. There is a feature.

【0013】更に別の発明として、先に撮像した画像で
ある基準画像と一部が重複するように複数の視点から対
象平面を撮像する撮像手段と、各撮像時の撮像手段の姿
勢及び並進成分を検出する運動検出手段と、基準画像及
び基準画像と重複する部分を持つ画像である参照画像の
画像対に基づいて、基準画像における複数の特徴点を抽
出すると共に、参照画像における特徴点と同一の箇所を
示す対応点を検出する対応検出手段と、撮像手段の姿勢
と並進成分、及び特徴点と対応点に基づいて、各特徴点
の3次元位置を算出する3次元位置計測手段と、3次元
位置計測手段が計測した各特徴点の3次元位置が同一平
面上にあるものとして各特徴点の3次元位置に適合する
平面の情報を算出する平面算出手段と、平面算出手段が
算出した平面の情報に基づいて、対象平面の平面情報を
最適化する平面最適化手段と、各画像対を利用して求め
た各特徴点の3次元位置、及び平面最適化手段が最適化
した平面の情報に基づいて、各並進成分及び各3次元位
置の拡大係数を算出する拡大係数算出手段と、撮像手段
の姿勢と並進成分、及び平面最適化手段が最適化した平
面の情報に基づいて、各画像を任意の同一画像面に投影
して、複数の視点から撮像した画像を合成する投影手段
とを有することに特徴がある。よって、上記2つの発明
によれば、画像入力装置の姿勢または運動検出結果に誤
差が含まれた場合においても、正確な平面方程式を算出
することができる。その結果、より美しい合成画像を作
成することができる。
According to still another aspect of the present invention, there is provided an image pickup means for picking up an object plane from a plurality of viewpoints so that a part of the image is overlapped with a reference image which is a previously picked up image; And extracting a plurality of feature points in the reference image based on the image pair of the reference image and the reference image which is an image having a portion overlapping with the reference image, and extracting a plurality of feature points identical to the feature points in the reference image. Correspondence detection means for detecting a corresponding point indicating the position of the image, three-dimensional position measurement means for calculating the three-dimensional position of each feature point based on the attitude and translation component of the imaging means, and the feature point and the corresponding point; Plane calculating means for calculating information on a plane conforming to the three-dimensional position of each feature point, assuming that the three-dimensional position of each feature point measured by the three-dimensional position measuring means is on the same plane, and a plane calculated by the plane calculating means Feelings Plane optimization means for optimizing plane information of the target plane based on the three-dimensional position of each feature point obtained by using each image pair, and information on the plane optimized by the plane optimization means. A magnification factor calculating means for calculating a magnification factor of each translational component and each three-dimensional position; and an image of each image can be arbitrarily determined based on the orientation of the imaging means, the translational component, and the plane information optimized by the plane optimizing means. And projection means for projecting images onto the same image plane and combining images captured from a plurality of viewpoints. Therefore, according to the above two inventions, an accurate plane equation can be calculated even when an error is included in the posture or motion detection result of the image input device. As a result, a more beautiful composite image can be created.

【0014】[0014]

【発明の実施の形態】先に撮像した画像である基準画像
と一部が重複するように複数の視点から対象平面を撮像
する撮像手段と、各撮像時の撮像手段の姿勢を検出する
姿勢検出手段と、基準画像と、基準画像と重複する部分
を持つ画像である参照画像との画像対に基づいて、基準
画像における複数の特徴点を抽出すると共に、参照画像
における特徴点と同一の箇所を示す対応点を検出する対
応検出手段と、撮像手段の姿勢、特徴点及び対応点に基
づいて、撮像手段の並進運動成分を検出する並進運動検
出手段と、撮像手段の姿勢、特徴点、対応点及び並進運
動成分に基づいて、各特徴点の3次元位置を算出する3
次元位置計測手段と、3次元位置計測手段が計測した各
特徴点の3次元位置が同一平面上にあるものとして各特
徴点の3次元位置に適合する平面の情報を算出する平面
算出手段と、各画像対を利用して求めた各特徴点の3次
元位置、及び平面算出手段が算出した平面の情報に基づ
いて、各並進成分及び各3次元位置の拡大係数を算出す
る拡大係数算出手段と、撮像手段の姿勢と並進成分、及
び平面算出手段が計算した平面の情報に基づいて、各画
像を任意の同一画像面に投影して複数の視点から撮像し
た画像を合成する投影手段とを有する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS An image pickup means for picking up an object plane from a plurality of viewpoints so as to partially overlap a reference image which is a previously picked up image, and a posture detecting means for detecting the posture of the image pickup means at each image pickup. Means for extracting a plurality of feature points in the reference image based on an image pair of the reference image and a reference image which is an image having a portion overlapping with the reference image, and extracting a same point as the feature point in the reference image. Correspondence detecting means for detecting a corresponding point shown, translational motion detecting means for detecting a translational motion component of the imaging means based on the attitude, feature point, and corresponding point of the imaging means; and posture, feature points, and corresponding points of the imaging means. And calculating the three-dimensional position of each feature point based on the translational motion component 3
Three-dimensional position measuring means, and plane calculating means for calculating information of a plane conforming to the three-dimensional position of each feature point assuming that the three-dimensional position of each feature point measured by the three-dimensional position measuring means is on the same plane; Enlargement coefficient calculation means for calculating each translation component and an expansion coefficient for each three-dimensional position based on the three-dimensional position of each feature point obtained by using each image pair and information on the plane calculated by the plane calculation means; A projection unit for projecting each image onto an arbitrary same image plane and synthesizing images captured from a plurality of viewpoints, based on the posture and translation component of the imaging unit and information on the plane calculated by the plane calculation unit. .

【0015】[0015]

【実施例】以下、本発明の実施例について図面に基づい
て説明する。図1は本発明の画像入力装置を用いた撮影
の様子を示す図である。同図からわかるように、画像入
力装置1を用いて、異なる場所、つまり複数の視点1〜
Kから同一の対象平面の静止画像を、画像の一部が重複
するように順次撮影する。ここで、視点1で撮影した画
像を画像1、視点2で撮影した画像を画像2などと呼ぶ
ことにする。また、説明を簡単にするため、画像1と画
像2、画像2と画像3のように、隣り合う順序で撮影し
た画像j(図示せず)と画像(j+1)(図示せず)と
の間で重複領域を持つと仮定する。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a diagram showing a state of photographing using the image input device of the present invention. As can be seen from the figure, using the image input device 1, different locations, that is, a plurality of
From K, still images of the same target plane are sequentially photographed such that part of the images overlap. Here, an image photographed at the viewpoint 1 is referred to as an image 1, and an image photographed at the viewpoint 2 is referred to as an image 2. Further, for simplicity of description, between an image j (not shown) and an image (j + 1) (not shown) taken in adjacent order, such as image 1 and image 2 and image 2 and image 3. Suppose that there is an overlap region in.

【0016】図2は、本発明の第1の実施例に係る画像
入力装置の構成を示すブロック図である。同図に示す画
像入力装置1は、主として、撮像手段11と、撮像手段
11により得られた画像信号に処理を施す信号処理手段
12と、信号処理手段12によって処理された出力が供
給されるメモリ制御手段13、主制御手段14及びイン
ターフェース(以下I/Fと略す)16と、メモリ制御
手段13の指令により画像信号を蓄積するフレームメモ
リ15と、I/F16を経由して画像信号を表示する表
示手段17と、I/F16を経由して画像信号をはじめ
とする種々の信号の読み出し/書き込みを行う外部記憶
手段18とを有する。その他、画像撮影時の画像入力装
置1の姿勢を検出する姿勢検出手段19と、フレームメ
モリ15に蓄積された互いに重複する領域を持つ画像間
の特徴点及び対応点を抽出する対応検出手段20と、姿
勢検出手段19及び対応検出手段20からの出力より画
像入力装置1の並進運動を検出する並進運動検出手段2
1と、姿勢検出手段19、対応検出手段20及び並進運
動検出手段21からの出力より各特徴点の3次元位置を
算出する3次元位置計測手段22と、3次元位置計測手
段22から出力された各特徴点の3次元位置が適合する
平面の情報を算出する平面算出手段23と、3次元位置
計測手段22から出力された各特徴点の3次元位置及び
平面算出手段23より出力された平面情報に基づいて、
各画像対より求めた並進成分及び3次元位置の拡大係数
を算出する拡大係数算出手段24と、姿勢検出手段1
9、並進運動検出手段21、平面算出手段23及び拡大
係数算出手段24より供給された出力に基づき、フレー
ムメモリ15に蓄積された各画像を任意の同一画像面に
投影する投影手段25をも有している。
FIG. 2 is a block diagram showing the configuration of the image input device according to the first embodiment of the present invention. The image input device 1 shown in FIG. 1 mainly includes an imaging unit 11, a signal processing unit 12 for processing an image signal obtained by the imaging unit 11, and a memory to which an output processed by the signal processing unit 12 is supplied. The controller 13, the main controller 14 and an interface (hereinafter abbreviated as I / F) 16, a frame memory 15 for storing image signals according to instructions from the memory controller 13, and displaying image signals via the I / F 16. The display unit 17 includes a display unit 17 and an external storage unit 18 that reads / writes various signals including an image signal via the I / F 16. In addition, a posture detecting means 19 for detecting the posture of the image input device 1 at the time of image capturing, a correspondence detecting means 20 for extracting feature points and corresponding points between images having mutually overlapping areas accumulated in the frame memory 15 and Motion detecting means 2 for detecting the translation motion of the image input apparatus 1 from the outputs from the attitude detecting means 19 and the correspondence detecting means 20
1, three-dimensional position measuring means 22 for calculating the three-dimensional position of each feature point from the outputs from the attitude detecting means 19, the correspondence detecting means 20, and the translational motion detecting means 21, and the three-dimensional position measuring means 22 Plane calculating means 23 for calculating information of a plane to which the three-dimensional position of each feature point is suitable, and three-dimensional position of each feature point outputted from the three-dimensional position measuring means 22 and plane information outputted from the plane calculating means 23 On the basis of the,
Magnification factor calculating means 24 for calculating a translation component and a three-dimensional position magnification coefficient obtained from each image pair;
9. Projection means 25 for projecting each image stored in the frame memory 15 onto an arbitrary same image plane based on the outputs supplied from the translational motion detection means 21, the plane calculation means 23 and the magnification coefficient calculation means 24. are doing.

【0017】以下、各ブロックの詳細を説明する。撮像
手段11は、レンズ111、絞り112、シャッタ11
3、及び光電変換素子114及び前処理手段115より
構成されている。光電変換素子114には、例えばCC
D(charge coupled device)が
使用される。また、前処理手段115は、プリアンプや
AGC(auto gain control)等のア
ナログ信号処理やアナログ−デジタル変換器(以下A/
D変換器と略す)を備えており、光電変換素子114よ
り出力されたアナログ映像信号に対して増幅・クランプ
等の前処理を施した後、A/D変換器により上記アナロ
グ映像信号をデジタル映像信号に変換する。信号処理手
段12は、デジタル信号処理プロセッサ(以下DSPプ
ロセッサと略す)等により構成されており、撮像手段1
1より得られたデジタル映像信号に対して色分解、ホワ
イトバランス調整、γ補正等の種々の画像処理を施す。
メモリ制御手段13は、信号処理手段12により処理さ
れた画像信号をフレームメモリ15に格納したり、逆に
フレームメモリ15に格納された画像信号を読み出す。
フレームメモリ15は、少なくとも2枚の画像を格納可
能であり、一般的にVRAM、SRAM、DRAM等が
使用される。フレームメモリ15から読み出された画像
信号の記録は、信号処理手段12において画像信号に対
して画像圧縮等の信号処理を施した後、I/F16を介
して外部記憶手段18に保存することによって行われ
る。外部記憶手段18は、ICメモリカードや光磁気デ
ィスク等が使用できるが、モデムカードやISDNカー
ドを利用して、ネットワークを経由して画像信号を直接
遠隔地の記録媒体に送信しても構わない。逆に、外部記
憶装置18に記録された画像信号の読み出しは、I/F
16を介して信号処理手段12に画像信号を送信し、信
号処理手段12において画像伸長を施すことによって行
われる。一方、外部記憶手段18及びフレームメモリ1
5から読み出された画像信号の表示は、信号処理手段1
2において画像信号に対してデジタル−アナログ変換
(以後D/A変換と略す)や増幅等の信号処理を施した
後、I/F16を介して表示手段17に送信することに
よって行われる。表示手段17は、例えば画像入力装置
1の筐体に設置された液晶表示装置より構成される。
The details of each block will be described below. The imaging means 11 includes a lens 111, an aperture 112, a shutter 11
3, and a photoelectric conversion element 114 and a pre-processing means 115. For example, CC
D (charge coupled device) is used. Further, the pre-processing unit 115 includes an analog signal processing such as a preamplifier and an AGC (auto gain control) or an analog-to-digital converter (hereinafter, A / D converter).
D, which is abbreviated as D converter). The analog video signal output from the photoelectric conversion element 114 is subjected to preprocessing such as amplification and clamping, and then the analog video signal is converted into a digital video signal by an A / D converter. Convert to a signal. The signal processing unit 12 includes a digital signal processor (hereinafter abbreviated as a DSP processor) and the like.
Various digital image processing such as color separation, white balance adjustment, and γ correction are performed on the digital video signal obtained from Step 1.
The memory control unit 13 stores the image signal processed by the signal processing unit 12 in the frame memory 15 and reads the image signal stored in the frame memory 15 on the contrary.
The frame memory 15 can store at least two images, and generally uses a VRAM, an SRAM, a DRAM, or the like. The recording of the image signal read from the frame memory 15 is performed by performing signal processing such as image compression on the image signal in the signal processing unit 12 and storing the image signal in the external storage unit 18 via the I / F 16. Done. As the external storage means 18, an IC memory card, a magneto-optical disk, or the like can be used, but an image signal may be directly transmitted to a remote recording medium via a network using a modem card or an ISDN card. . Conversely, reading of the image signal recorded in the external storage device 18 is performed by the I / F
This is performed by transmitting an image signal to the signal processing unit 12 through the signal processing unit 16 and performing image expansion in the signal processing unit 12. On the other hand, the external storage means 18 and the frame memory 1
The display of the image signal read from the display unit 5 is performed by the signal processing unit 1.
In 2, the image signal is subjected to signal processing such as digital-analog conversion (hereinafter abbreviated as D / A conversion) or amplification, and then transmitted to the display unit 17 via the I / F 16. The display unit 17 is composed of, for example, a liquid crystal display device installed in the housing of the image input device 1.

【0018】次に、姿勢検出手段19は、基準画像撮影
時と参照画像撮影時における画像入力装置1の姿勢を、
直交する3軸回りの回転角という形式で検出する。画像
入力装置1の姿勢を検出する素子として、加速度セン
サ、角速度センサ、磁気センサ等を単独または併用する
という形態を取り得るが、ここでは姿勢検出手段の構成
を示す図3のように、互いに直交する3軸方向の重力加
速度を検知する3軸加速度センサ191、その3軸方向
の地磁気を検出する3軸磁気センサ192、センサ信号
処理手段193及び姿勢算出手段194より構成された
場合の動作を説明する。まず、装置座標系、ワールド座
標系の2つの座標系を定義し、それぞれ以下のように定
義する。ここで、磁場は地磁気以外に存在しないと仮定
する。
Next, the attitude detecting means 19 determines the attitude of the image input device 1 at the time of shooting the reference image and at the time of shooting the reference image.
It is detected in the form of rotation angles around three orthogonal axes. As an element for detecting the attitude of the image input apparatus 1, an acceleration sensor, an angular velocity sensor, a magnetic sensor, or the like may be used alone or in combination. However, here, as shown in FIG. A description will be given of an operation in the case of being composed of a three-axis acceleration sensor 191 for detecting gravitational acceleration in three-axis directions, a three-axis magnetic sensor 192 for detecting terrestrial magnetism in three axes directions, a sensor signal processing means 193 and an attitude calculation means 194 I do. First, two coordinate systems, a device coordinate system and a world coordinate system, are defined, and are defined as follows. Here, it is assumed that there is no magnetic field other than geomagnetism.

【0019】(a)装置座標系:xyz座標系(図4参
照) x軸:画像面右向きを正 y軸:画像面下向きを正 z軸:光軸方向;対象に向かう向きを正 原点o:撮像手段11の光学中心 なお、f、pについては後述するものとする。
(A) Apparatus coordinate system: xyz coordinate system (see FIG. 4) x-axis: positive right in image plane y-axis: positive downward in image plane z-axis: optical axis direction; direction toward object is positive Origin o: Optical center of the imaging unit 11 f and p will be described later.

【0020】(b)ワールド座標系:XYZ座標系(図
5参照) X軸:東向きを正 Y軸:重力加速度の向きを正 Z軸:磁気の向き(北向き)を正 原点O:基準画像を撮影した時の視点位置
(B) World coordinate system: XYZ coordinate system (see FIG. 5) X-axis: positive eastward direction Y-axis: positive gravitational acceleration direction Z-axis: positive magnetic direction (northward) Origin O: reference Viewpoint position when the image was taken

【0021】3軸加速度センサ191は重力加速度のx
軸、y軸成分を、3軸磁気センサ192は地磁気のx
軸、y軸、z軸成分を検出するように設置されている。
これらのセンサ信号はセンサ信号処理手段193におい
て、フィルタリングや増幅等の信号処理や、A/D変換
が行われ、姿勢算出手段194に送られる。
The three-axis acceleration sensor 191 calculates the gravitational acceleration x.
The three-axis magnetic sensor 192 determines the x-axis and y-axis components,
It is installed to detect the axis, y-axis, and z-axis components.
These sensor signals are subjected to signal processing such as filtering and amplification and A / D conversion in a sensor signal processing unit 193, and are sent to a posture calculation unit 194.

【0022】そして、姿勢算出手段194は、処理済み
センサ信号より画像入力装置1の姿勢を算出する。画像
入力装置1の姿勢は、ワールド座標系を基準とした以下
の回転行列で記述する。
Then, the attitude calculating means 194 calculates the attitude of the image input apparatus 1 from the processed sensor signals. The attitude of the image input device 1 is described by the following rotation matrix based on the world coordinate system.

【0023】 R=RYXZ (1) 但し、R = R Y R X R Z (1) where

【0024】[0024]

【数1】 (Equation 1)

【0025】である。今、重力加速度ベクトルと地磁気
ベクトルが、ワールド座標系においてそれぞれ
## EQU1 ## Now, the gravitational acceleration vector and the geomagnetic vector are

【0026】[0026]

【数2】 (Equation 2)

【0027】と表され、また3軸加速度センサ、3軸磁
気センサにより検出された、装置座標系を基準とした加
速度ベクトル、地磁気ベクトルをそれぞれ
The acceleration vector and the terrestrial magnetic vector detected by the three-axis acceleration sensor and the three-axis magnetic sensor with reference to the apparatus coordinate system are respectively

【0028】[0028]

【数3】 (Equation 3)

【0029】とする。以上のgとa、及びMとmの関係
は、回転行列Rを用いて以下の数式で記述される。
It is assumed that The above relationships between g and a, and between M and m, are described by the following equations using the rotation matrix R.

【0030】 Ra=g (5) Rm=M (6)Ra = g (5) Rm = M (6)

【0031】(5)式より、X軸回りの回転角αとZ軸
回りの回転角γが計算される。
From the equation (5), a rotation angle α around the X axis and a rotation angle γ around the Z axis are calculated.

【0032】[0032]

【数4】 (Equation 4)

【0033】(7)式、(8)式で求めたαとγを利用
して、地磁気ベクトルmからY軸回りの回転角βが次の
ようにして計算される。
Using α and γ obtained by the equations (7) and (8), the rotation angle β around the Y axis is calculated from the geomagnetic vector m as follows.

【0034】[0034]

【数5】 (Equation 5)

【0035】但し、However,

【0036】[0036]

【数6】 (Equation 6)

【0037】である。以上の計算により、α、β、γ及
び回転行列Rを、3軸加速度センサ及び3軸磁気センサ
の検出値より算出し、ワールド座標系に対する画像入力
装置1の姿勢を記述することができる。
Is as follows. With the above calculations, α, β, γ and the rotation matrix R can be calculated from the detection values of the three-axis acceleration sensor and the three-axis magnetic sensor, and the attitude of the image input device 1 with respect to the world coordinate system can be described.

【0038】次に、対応検出手段20の一例として、互
いに重複した領域を持つ2枚の画像において、相関演算
により対応点を検出する方法について説明する。対応検
出手段20は、対応検出手段の構成を示す図6のよう
に、特徴点設定手段201、相関演算手段202より構
成される。図2のフレームメモリ15には、先に撮影し
た画像(基準画像)と、基準画像と重複した領域を持つ
参照画像が蓄積されている。そこで、特徴点設定手段2
01は、当該基準画像において、特徴点の位置を決定
し、特徴点を中心とする(2N+1)(2P+1)の濃
淡パターンを抽出して相関窓を作成する。この特徴点の
位置は、角(corner)のように画像の濃度パター
ンが特徴的である箇所を抽出することにより決定され
る。また、相関演算手段202は、上記基準画像で作成
した相関窓の濃淡パターンとほぼ一致する箇所を、上記
参照画像において相関演算により検出し、これを対応点
と決定する。ここで、相関演算によるブロックマッチン
グにより対応点を検出する一例について説明する。図7
のように、(2N+1)(2P+1)の相関窓を用いた
ブロックマッチングで、基準画像におけるi番目の特徴
点Pi(xi0,yi0)と、参照画像における点(xi0
dxi,yi0+dyi)の相互相関値Siは、次式により
計算される。
Next, as an example of the correspondence detecting means 20, a method of detecting corresponding points by correlation calculation in two images having mutually overlapping areas will be described. The correspondence detecting means 20 includes a feature point setting means 201 and a correlation calculating means 202 as shown in FIG. In the frame memory 15 of FIG. 2, an image (reference image) captured earlier and a reference image having an area overlapping the reference image are stored. Therefore, the feature point setting means 2
No. 01 determines the position of a feature point in the reference image, extracts a (2N + 1) (2P + 1) gray-scale pattern centered on the feature point, and creates a correlation window. The position of the feature point is determined by extracting a portion where the density pattern of the image is characteristic, such as a corner. Further, the correlation calculating means 202 detects, by a correlation calculation in the reference image, a portion that substantially matches the shading pattern of the correlation window created in the reference image, and determines this as a corresponding point. Here, an example in which a corresponding point is detected by block matching by a correlation operation will be described. FIG.
In the block matching using the (2N + 1) (2P + 1) correlation window, the i-th feature point P i (x i0 , y i0 ) in the reference image and the point (x i0 +
dx i, the cross-correlation value S i of y i0 + dy i) is calculated by the following equation.

【0039】[0039]

【数7】 (Equation 7)

【0040】ここで、(11)式における各記号の意味
は以下の通りである。 Is(x,y):基準画像の点(x,y)における濃度 Ir(x,y):参照画像の点(x,y)における濃度
Here, the meaning of each symbol in the equation (11) is as follows. I s (x, y): density at point (x, y) of reference image I r (x, y): density at point (x, y) of reference image

【0041】MIs(x,y):基準画像の点(x,
y)を中心とする(2N+1)(2P+1)の相関窓に
おける平均濃度 MIr(x,y):参照画像の点(x,y)を中心とす
る(2N+1)(2P+1)の相関窓における平均濃度 K:定数
MI s (x, y): point (x, y) of the reference image
mean density in a (2N + 1) (2P + 1) correlation window centered on y) MI r (x, y): average in a (2N + 1) (2P + 1) correlation window centered on point (x, y) of the reference image Concentration K: constant

【0042】各特徴点Piに対して、相互相関値Siの最
大値が予め定められた閾値以上である点を求めることに
より、参照画像における対応点(xi0+dxi,yi0
dyi )が求められる。Siの最大値が閾値以下ならば、
対応点は存在しないとする。
Each feature point PiFor the cross-correlation value SiMost
Finding points where the maximum value is greater than or equal to a predetermined threshold
From the corresponding point (xi0+ Dxi, Yi0+
dyi ) Is required. SiIf the maximum of is less than or equal to the threshold,
It is assumed that there is no corresponding point.

【0043】また、並進運動検出手段21は、撮像手段
11の光学系の焦点距離f、姿勢検出手段19により検
出された姿勢情報、及び基準画像における特徴点と参照
画像における対応点の組より、以下のような処理を行う
ことにより画像入力装置1の並進運動成分を求める。ま
ず、基準画像における特徴点及び参照画像における対応
点に対して、ワールド座標系を基準とした視線ベクトル
を算出する。撮像手段11の光学系は図4のように、焦
点距離をfとする中心射影モデルであると仮定すると、
画像上の点(x,y)に対する単位視線ベクトルpは、
以下のように求められる。
The translational motion detecting means 21 calculates the focal length f of the optical system of the imaging means 11, the attitude information detected by the attitude detecting means 19, and a set of feature points in the reference image and corresponding points in the reference image. The translational motion component of the image input device 1 is obtained by performing the following processing. First, a gaze vector based on the world coordinate system is calculated for a feature point in the reference image and a corresponding point in the reference image. Assuming that the optical system of the imaging unit 11 is a center projection model with a focal length f as shown in FIG.
The unit line-of-sight vector p for the point (x, y) on the image is
It is determined as follows.

【0044】[0044]

【数8】 (Equation 8)

【0045】但し(12)式のpは、撮像座標系を基準
とした視線ベクトルである。例えば図8のように、基準
画像における特徴点(xs,ys)と参照画像における対
応点(xr,yr)に対しては、以下の単位視線ベクトル
が算出される。
Here, p in equation (12) is a line-of-sight vector based on the imaging coordinate system. For example, as shown in FIG. 8, the characteristic point in the reference image (x s, y s) corresponding point in the reference image (x r, y r) with respect to a unit line-of-sight vector of the following is calculated.

【0046】[0046]

【数9】 (Equation 9)

【0047】但し、(13),(14)式のpsは基準
画像における撮像座標系を基準とした単位視線ベクト
ル、prは参照画像における撮像座標系を基準とした単
位視線ベクトルである。ps、prをワールド座標系を基
準とした視線ベクトルに変換するには、基準画像撮影時
及び参照画像撮影時における姿勢情報(すなわち(1)
式の回転行列)を必要とする。しかし、両画像における
回転行列(それぞれRs 、Rrとする)は姿勢検出手段1
9により求められるため、これらを用いてps、prは共
に、ワールド座標系を基準とした視線ベクトルPs、Pr
に変換される。すなわち、
However, p in the expressions (13) and (14)sIs the standard
Unit line-of-sight vector based on imaging coordinate system in image
Le, prIs a unit based on the imaging coordinate system of the reference image.
It is a position gaze vector. ps, PrBased on the world coordinate system
To convert to the standard line-of-sight vector,
And posture information at the time of photographing the reference image (that is, (1)
(Rotation matrix of the expression). However, in both images
Rotation matrix (Rs , RrIs the attitude detecting means 1
9 so that ps, PrIs
Is the gaze vector P based on the world coordinate system.s, Pr
Is converted to That is,

【0048】 Ps=Rss (15) Pr=Rrr (16)[0048] P s = R s p s ( 15) P r = R r p r (16)

【0049】である。以上で求められた特徴点及び対応
点のワールド座標系を基準とした視線ベクトル群より、
撮像手段11の並進成分を算出する。例えば図8におい
て、視線ベクトルPs、Prが対応関係にあるとすると、
s、Pr、並進成分を示す単位ベクトルtの3つのベク
トルは同一平面上に存在する。これを式で表すと、以下
のスカラ3重積の数式で表される。
Is as follows. From the line-of-sight vector group based on the world coordinate system of the feature points and corresponding points determined above,
The translation component of the imaging unit 11 is calculated. For example, in FIG. 8, assuming that the line-of-sight vectors P s and Pr are in a correspondence relationship,
Three vectors of P s , P r , and a unit vector t indicating a translation component exist on the same plane. When this is expressed by an equation, it is expressed by the following scalar triple product equation.

【0050】 (Ps×t,Pr)=0 (17)(P s × t, Pr ) = 0 (17)

【0051】従って、(17)式を満たすベクトルtが
並進運動ベクトルであるが、通常画像のノイズ等の影響
により、(17)式は全ての特徴点の視線ベクトルP
s,i(i=1,・・・,N)と、対応点の視線ベクトル
r,i(i=1,・・・,N)に対しては成立しない。
そこで、以下のスカラ3重積の絶対値の総和を最小化す
るtを求めればよい。
Therefore, the vector t satisfying the expression (17) is a translational motion vector. However, the expression (17) is expressed by the line-of-sight vectors P
s, i (i = 1, ···, N) and, line-of-sight vector P r of the corresponding point, i (i = 1, ··· , N) does not hold against.
Therefore, t that minimizes the sum of the absolute values of the following scalar triple products may be obtained.

【0052】[0052]

【数10】 (Equation 10)

【0053】以上の計算より、基準画像撮影時から参照
画像撮影時に至る画像入力装置1の並進運動を求めるこ
とができる。
From the above calculations, the translational movement of the image input device 1 from the time of photographing the reference image to the time of photographing the reference image can be obtained.

【0054】但し、並進運動の絶対値を求めることはで
きないため、並進運動ベクトルtの大きさを1とする。
However, since the absolute value of the translational motion cannot be obtained, the magnitude of the translational motion vector t is set to 1.

【0055】次に、3次元位置計測手段22は、特徴点
と対応点に対する視線ベクトルPs, i、Pr,i、及び並進
運動検出手段21より求められた並進運動ベクトルを用
いて、三角測量の原理により各特徴点の3次元位置(X
i,Yi,Zi)を計算する。ここで、ワールド座標系の
原点は基準画像撮影時の視点位置であるので、算出され
る(Xi,Yi,Zi)は基準画像撮影時の視点位置を原
点としているに注意する。
Next, the three-dimensional position measuring means 22
And the line-of-sight vector P for the corresponding points, i, Pr, iAnd translation
Using the translational motion vector obtained by the motion detection means 21
And the three-dimensional position (X
i, Yi, Zi) Is calculated. Where the world coordinate system
Since the origin is the viewpoint position when the reference image was taken,
(Xi, Yi, Zi) Is based on the viewpoint position when the reference image was taken.
Note that the point is.

【0056】また、平面算出手段23は、対応検出手段
20が検出した各特徴点が同一平面上にあるものとし
て、3次元位置計測手段22が算出した各特徴点の3次
元位置(Xi,Yi,Zi)に基づいて、平面の情報を算
出する。具体的には、求める平面のワールド座標系を基
準にした方程式を、
The plane calculating means 23 determines that each feature point detected by the correspondence detecting means 20 is on the same plane, and calculates the three-dimensional position (X i , Y i , Z i ) to calculate plane information. Specifically, the equation based on the world coordinate system of the plane to be obtained is

【0057】 aX+bX+cZ+d=0(a2+b2+c2=1) (19)AX + bX + cZ + d = 0 (a 2 + b 2 + c 2 = 1) (19)

【0058】とおき、(Xi,Yi,Zi)を用いてより
平面の情報である4つのパラメータ(a,b,c,d)
を、例えば最小自乗法により算出する。
In addition, four parameters (a, b, c, d), which are more plane information, are obtained by using (X i , Y i , Z i ).
Is calculated by, for example, the least squares method.

【0059】拡大係数算出手段24は、3次元位置計測
手段22より出力された各特徴点の3次元位置(Xi
i,Zi)及び平面算出手段23より出力された平面情
報に基づいて、各画像対より求めた並進成分及び3次元
位置の拡大系数を算出する。例えば、対象平面を多視点
で撮影して特徴点の3次元位置(Xi,Yi,Zi)を計
算する場合、図9の(a)のように、(Xi,Yi
i)はほぼ同一平面上に存在するはずである。しか
し、3次元位置計測手段22で算出された(Xi,Yi
i)は、基準画像撮影時から参照画像撮影時に至る並
進運動ベクトルbを単位ベクトルとして計算されている
ので、図9の(b)のように、各視点間の並進運動の大
きさがそれぞれ等しい場合の3次元位置である。これ
は、撮影時の画像入力装置1の位置関係が互いに未知で
ある2枚の画像より被写体の3次元形状を復元する場
合、実際の被写体の大きさと並進運動の大きさは計算不
可能であり、被写体の大きさと並進運動の大きさの比と
いう形で3次元形状が求められるためである。このよう
に、単眼視において遠くて大きいものと近くて小さいも
のとを区別できないことは、拡大係数未知と呼ばれてい
る。以下、被写体が同一平面上にあるという拘束条件を
用いて、各画像対より求めた並進運動及び3次元位置の
拡大係数を求める手順を述べる。
The expansion coefficient calculating means 24 measures the three-dimensional position.
The three-dimensional position of each feature point (Xi,
Yi, Zi) And the plane information output from the plane calculating means 23
Translation component and 3D obtained from each image pair based on the information
Calculate the expansion factor of the position. For example, target plane
3D position of the feature point (Xi, Yi, Zi)
When calculating, (X) as shown in FIG.i, Yi,
Zi) Should be approximately coplanar. Only
The three-dimensional position measuring means 22 calculates (Xi, Yi ,
Zi) Indicates the average time from when the reference image was taken to when the reference image was taken.
Is calculated using the forward motion vector b as the unit vector
Therefore, as shown in FIG.
This is a three-dimensional position when the heights are equal. this
Is that the positional relationship of the image input device 1 at the time of shooting is unknown to each other.
When recovering the three-dimensional shape of a subject from two images
In this case, the actual size of the subject and the size of the translation
Is possible and the ratio between the size of the subject and the size of the translation
This is because a three-dimensional shape is required in this manner. like this
Also, in monocular vision, far and large and near and small
The inability to distinguish between
You. Hereinafter, the constraint condition that the subject is on the same plane
Of the translation and 3D position obtained from each image pair
The procedure for obtaining the enlargement factor will be described.

【0060】まず、変数を以下のように定義する。First, variables are defined as follows.

【0061】ti:画像jを基準画像、画像(j+1)
を参照画像として算出した単位並進運動ベクトル。
T i : image j as reference image, image (j + 1)
Is a unit translational motion vector calculated as a reference image.

【0062】Pm j,i:視点mを原点としたワールド座標
系で表した、画像jにおけるi番目の特徴点に対する3
次元位置。
P m j, i : 3 with respect to the i-th feature point in the image j, expressed in the world coordinate system with the viewpoint m as the origin.
Dimensional position.

【0063】画像jを基準画像、画像(j+1)を参照
画像として求められる。 kj:画像jに対する拡大係数。 Nj:画像jにおける特徴点の数。
The image j is obtained as a reference image, and the image (j + 1) is obtained as a reference image. k j : magnification factor for image j. N j : number of feature points in image j.

【0064】図10において、画像2を基準画像、画像
3を参照画像として算出した3次元位置
In FIG. 10, three-dimensional positions calculated using image 2 as a reference image and image 3 as a reference image

【0065】[0065]

【数11】 [Equation 11]

【0066】を、画像1を基準画像、画像2を参照画像
として算出した並進運動ベクトル
The translational motion vector calculated using image 1 as a reference image and image 2 as a reference image

【0067】[0067]

【数12】 (Equation 12)

【0068】及び3次元位置より求めた平面And a plane obtained from the three-dimensional position

【0069】 a1X+b1Y+c1Z+d1=0 (a1 2+b1 2+c1 2=1)(22)[0069] a 1 X + b 1 Y + c 1 Z + d 1 = 0 (a 1 2 + b 1 2 + c 1 2 = 1) (22)

【0070】に当てはめる例を用いて説明する。ここで
は求める拡大係数k2は未知変数であり、N2個の特徴点
に対する3次元位置k22 2,jが(22)式の平面に最
もよく当てはまるk2を計算する。ここで、(22)式
の平面は画像1を基準画像とした時の平面方程式であ
る。したがって、P2 2,jを視点1を基準にした3次元位
置に変換する必要がある。視点1から視点2に至る並進
運動ベクトルk11及びk2を用いて、次式によりP2
2,jを、視点1を基準にした3次元位置P1 2,jに変換す
る。
Explanation will be made using an example applied to the above. Here, the enlargement coefficient k 2 to be obtained is an unknown variable, and k 2 is calculated in which the three-dimensional position k 2 P 2 2, j with respect to N 2 feature points best fits the plane of the equation (22). Here, the plane of equation (22) is a plane equation when image 1 is used as a reference image. Therefore, it is necessary to convert the three-dimensional position relative to the viewpoint 1 P 2 2, j. Using the translational motion vectors k 1 t 1 and k 2 from viewpoint 1 to viewpoint 2, P 2
2, j is converted to a three-dimensional position P 1 2, j based on viewpoint 1.

【0071】 P1 2,j=k11+k22 2,j (23)P 1 2, j = k 1 t 1 + k 2 P 2 2, j (23)

【0072】したがって、(22)式の平面方程式に最
もよく当てはまるP1 2,jを計算すればよいが、例えば最
小自乗法を用いて次式を解けばよい。
Therefore, P 12 , j which best fits the plane equation of equation (22) may be calculated. For example, the following equation may be solved using the least square method.

【0073】[0073]

【数13】 (Equation 13)

【0074】但し、nは平面の法線ベクトルであり、Where n is a normal vector of a plane,

【0075】[0075]

【数14】 [Equation 14]

【0076】と表される。k1=1を利用して(24)
式をさらに変形すると次式が得られる。
Is expressed as follows. Using k 1 = 1 (24)
The following equation is obtained by further modifying the equation.

【0077】[0077]

【数15】 (Equation 15)

【0078】上式より、拡大係数k2を簡単な線形計算
により求めることができる。
From the above equation, the expansion coefficient k 2 can be obtained by a simple linear calculation.

【0079】以上、3視点から撮影した場合の拡大係数
の計算法を説明したが、より多数の視点から撮影した場
合にも適用可能である。具体的には、以下に示す反復処
理により、画像j(j=1,・・・,K)に対する拡大
係数を順次求めることができる。
Although the calculation method of the enlargement factor when photographing from three viewpoints has been described above, the present invention can be applied to a case where photographing is performed from more viewpoints. Specifically, the enlargement coefficient for the image j (j = 1,..., K) can be sequentially obtained by the following iterative processing.

【0080】(1)画像1を基準画像、画像2を参照画
像として求めた(22)式の平面を、当てはめる平面と
して設定する。ここで、(22)式の平面を求める際に
1の値は任意に設定でき、例えばk1=1とする。
(1) The plane of the equation (22) obtained by using the image 1 as a reference image and the image 2 as a reference image is set as a fitting plane. Here, when obtaining the plane (22) the value of k 1 can be arbitrarily set, for example, k 1 = 1.

【0081】(2)j=2,・・・,K−1に対して、
以下の(3)〜(5)の処理を繰り返す。
(2) For j = 2,..., K−1,
The following processes (3) to (5) are repeated.

【0082】(3)画像jにおける各特徴点に対応す
る、視点jを原点とした3次元位置Pj j ,i(i=1,・
・・,Nj)をkj倍する。
(3) Corresponding to each feature point in image j
Three-dimensional position P with the viewpoint j as the originj j , i(I = 1,
.., Nj) To kjMultiply.

【0083】(4)kjj j,iを、視点1を基準にした
3次元位置に変換する。
(4) Convert k j P j j, i to a three-dimensional position based on viewpoint 1.

【0084】[0084]

【数16】 (Equation 16)

【0085】(5)以下の最小自乗計算により、次式を
満たすkjを算出する。
(5) By the following least square calculation, k j satisfying the following equation is calculated.

【0086】[0086]

【数17】 [Equation 17]

【0087】次に、投影手段25は、姿勢検出手段1
9、並進運動検出手段21、平面算出手段23及び拡大
係数算出手段24より供給された出力に基づいた投影条
件を用いて、フレームメモリ15に蓄積された各画像を
平面に投影することにより画像を合成する。以下、各画
像を同一平面上に投影する動作について、図11を参照
して説明する。視点jで得た画像上の点Pj,iと、この
視点の光学中心とを結ぶ直線が、平面算出手段23が算
出した平面Gcと交差する点をPcとおく。また、新たに
合成する画像を投影する面積面をImとし、この光学中
心をOmとする。点Pcと光学中心Omとを結ぶ直線が画
像面と交差する点Pmに画素を投影する。この動作を、
必要な画素全てに対して行うことにより、図12に示す
ように、画像面Imに新たな画像を形成する。この処理
を、撮像手段11が撮像した各画像j(j=1,・・
・,K)に対して行い、撮像手段11が撮像した各画像
を任意の同一画像面Imに投影することにより、複数の
視点から撮影した画像を合成する。このようにして作成
された合成画像は、別途設けた記憶手段(図示せず)に
保存されたり、表示手段17に表示される。
Next, the projecting means 25 comprises the attitude detecting means 1
9. Projecting each image stored in the frame memory 15 onto a plane using projection conditions based on the outputs supplied from the translational motion detecting means 21, the plane calculating means 23 and the magnification coefficient calculating means 24, Combine. Hereinafter, the operation of projecting each image on the same plane will be described with reference to FIG. A point at which a straight line connecting the point P j, i on the image obtained at the viewpoint j and the optical center of this viewpoint intersects the plane G c calculated by the plane calculating means 23 is defined as P c . Further, an area surface on which an image to be newly synthesized is projected is defined as Im , and the optical center is defined as Om . Straight line connecting the point P c and the optical center O m is projected pixel to P m point which intersects the image plane. This behavior
By performing for all necessary pixel, as shown in FIG. 12, to form a new image on the image plane I m. This processing is performed for each image j (j = 1,...
-, it performed for K), the imaging means 11 by projecting each image captured in any of the same image plane I m, combining images taken from a plurality of viewpoints. The composite image created in this way is stored in a separately provided storage unit (not shown) or displayed on the display unit 17.

【0088】次に、第1の実施例の画像入力装置の動作
について、図13に示す動作フローにより説明する。ま
ず、撮像手段11により入力対象平面を撮影し、この画
像を基準画像として記憶すると同時に、撮影時の画像入
力装置1の姿勢を検出する(ステップS101)。続い
て、基準画像と一部が重複するように視点及び画像入力
装置1の姿勢を変化させて撮像手段11により入力対象
平面を撮影し、この画像を参照画像として記憶すると同
時に、撮影時の画像入力装置1の姿勢を検出する(ステ
ップS102)。基準画像において特徴点を抽出すると
共に、参照画像において該特徴点と同じ箇所を示す対応
点を検出する(ステップS103)。このようにして得
られた特徴点と対応点を上述の(15)式と(16)式
を用いてワールド座標系を基準とした視線ベクトル
s、Prにそれぞれ変換し、各画像撮影時の画像入力装
置1の姿勢を用いて、(18)式により画像入力装置1
の並進運動ベクトルtを求める(ステップS104)。
その並進運動ベクトルtと視線ベクトルPs、Prとを用
いて、基準画像撮影時の視点を原点として、三角測量の
原理で各特徴点に対する3次元位置を計算する(ステッ
プS105)。以上の処理を終えて平面の情報が既に算
出されているかを判断し(ステップS106)、まだ算
出されていない場合は平面方程式を算出し(ステップS
107)、既に平面方程式が存在する場合には求めた3
次元位置がその平面方程式に当てはまるように拡大係数
を算出し(ステップS108)、平面方程式と拡大係数
に基づいて、先に説明した方法で基準画像及び参照画像
をある同一画像面Imに投影し、合成画像を作成する
(ステップS109)。その後、さらに画像を撮影して
合成する画像を増やす場合には、以上の処理で参照画像
として使用した画像を基準画像に置き換えて、ステップ
S102からステップS109の動作を繰り返し、そう
でない場合には処理を終了する(ステップS110,S
111)。
Next, the operation of the image input apparatus of the first embodiment will be described with reference to the operation flow shown in FIG. First, a plane to be input is photographed by the imaging means 11, and this image is stored as a reference image, and at the same time, the attitude of the image input apparatus 1 at the time of photographing is detected (step S101). Then, the viewpoint and the attitude of the image input device 1 are changed so that a part of the image is overlapped with the reference image, the input target plane is photographed by the imaging means 11, and this image is stored as a reference image. The attitude of the input device 1 is detected (step S102). A feature point is extracted from the reference image, and a corresponding point indicating the same location as the feature point is detected in the reference image (step S103). Thus the corresponding points between the obtained feature points above (15) and (16) line-of-sight vector P s relative to the world coordinate system using equation converts each P r, at each image shooting Using the attitude of the image input device 1 of the above, the image input device 1
Is obtained (step S104).
Its translation vector t and a line-of-sight vector P s, by using the P r, the viewpoint at the time of the reference image photographing as the origin, calculating the three-dimensional position of each feature point by the principle of triangulation (Step S105). After the above processing, it is determined whether or not plane information has already been calculated (step S106). If not, a plane equation is calculated (step S106).
107), when the plane equation already exists, 3
An enlargement coefficient is calculated so that the dimensional position applies to the plane equation (step S108), and based on the plane equation and the enlargement coefficient, the reference image and the reference image are projected onto the same image plane Im by the method described above, A composite image is created (Step S109). After that, in order to increase the number of images to be photographed and combined, the image used as the reference image in the above processing is replaced with the reference image, and the operations from step S102 to step S109 are repeated. (Steps S110, S
111).

【0089】なお、上述の説明は、本発明の一例を説明
したにすぎない。例えば、姿勢検出手段19に関して
は、3軸加速度センサ及び3軸磁気センサで構成される
例について述べたが、角速度センサを利用するなど別の
形態をとっても構わない。また、画像を1枚撮影する度
に画像を合成する処理を行うと説明したが、画像を全て
撮り終えてから一括処理により合成画像を作成しても構
わない。また、各画像における3次元位置を、画像1を
基準画像、画像2を参照画像として算出した平面に当て
はめると説明したが、互いに重複領域を持つ任意の画像
対を選んで平面を算出しても構わない。
The above description is merely an example of the present invention. For example, as for the posture detecting means 19, an example constituted by a three-axis acceleration sensor and a three-axis magnetic sensor has been described, but another form such as using an angular velocity sensor may be employed. Also, it has been described that a process of combining images is performed each time one image is captured, but a combined image may be created by batch processing after all images have been captured. Further, it has been described that the three-dimensional position in each image is applied to the plane calculated by using the image 1 as the reference image and the image 2 as the reference image. However, the plane may be calculated by selecting an arbitrary image pair having an overlapping area with each other. I do not care.

【0090】図14は本発明の第2の実施例に係る画像
入力装置の構成を示すブロック図であり、図15は本実
施例の動作を示すフローチャートである。図14におい
て、画像入力装置1は、撮像手段11と、撮像手段11
により得られた画像信号に処理を施す信号処理手段12
と、信号処理手段12の出力が供給されるメモリ制御手
段13、主制御手段14及びI/F16と、メモリ制御
手段13の指令により画像信号を蓄積するフレームメモ
リ15と、I/F16を経由して画像信号を表示する表
示手段17と、I/F16を経由して画像信号をはじめ
とする種々の信号の読み出し/書き込みを行う外部記憶
手段18とを有する。その他、画像撮影時の画像入力装
置1の位置と姿勢を検出する運動検出手段26と、フレ
ームメモリ15に蓄積された互いに重複する領域を持つ
画像間の特徴点及び対応点を抽出する対応検出手段20
と、運動検出手段26及び対応検出手段20の出力より
各特徴点の3次元位置を算出する3次元位置計測手段2
2と、3次元位置計測手段22の出力した特徴点の3次
元位置が適合する平面の情報を算出する平面算出手段2
3と、3次元位置計測手段22より出力された各特徴点
の3次元位置及び平面算出手段23より出力された平面
情報に基づいて、各画像対より求めた並進成分及び3次
元位置の拡大係数を算出する拡大係数算出手段24と、
運動検出手段26、平面算出手段23及び拡大係数算出
手段24より供給された出力に基づき、フレームメモリ
15に蓄積された各画像を任意の同一画像面に投影する
投影手段25をも有している。また、撮像手段11、信
号処理手段12、メモリ制御手段13、主制御手段1
4、フレームメモリ15、I/F16、表示手段17、
外部記憶手段18、対応検出手段20、3次元位置計測
手段22、平面算出手段23、拡大係数算出手段24、
及び投影手段25の動作は、第1の実施例と同様である
ので、説明を省略する。ここでは、運動検出手段26の
動作について説明する。
FIG. 14 is a block diagram showing the configuration of an image input apparatus according to the second embodiment of the present invention, and FIG. 15 is a flowchart showing the operation of this embodiment. In FIG. 14, the image input device 1 includes an imaging unit 11 and an imaging unit 11.
Processing means 12 for processing the image signal obtained by
, A memory control unit 13 to which an output of the signal processing unit 12 is supplied, a main control unit 14 and an I / F 16, a frame memory 15 for storing image signals in accordance with a command from the memory control unit 13, and an I / F 16. Display means 17 for displaying image signals through the I / F 16 and external storage means 18 for reading / writing various signals including the image signals via the I / F 16. In addition, motion detection means 26 for detecting the position and orientation of the image input device 1 at the time of image capturing, and correspondence detection means for extracting feature points and corresponding points between images having mutually overlapping regions accumulated in the frame memory 15 20
And a three-dimensional position measuring means 2 for calculating a three-dimensional position of each feature point from outputs of the motion detecting means 26 and the correspondence detecting means 20
2 and a plane calculating means 2 for calculating information of a plane to which the three-dimensional position of the feature point output from the three-dimensional position measuring means 22 is suitable
3 and the translation component and the expansion coefficient of the three-dimensional position obtained from each image pair based on the three-dimensional position of each feature point output from the three-dimensional position measurement unit 22 and the plane information output from the plane calculation unit 23. Expansion coefficient calculating means 24 for calculating
There is also provided a projection unit 25 for projecting each image stored in the frame memory 15 onto an arbitrary same image plane based on outputs supplied from the motion detection unit 26, the plane calculation unit 23, and the enlargement coefficient calculation unit 24. . Further, an imaging unit 11, a signal processing unit 12, a memory control unit 13, a main control unit 1
4, frame memory 15, I / F 16, display means 17,
External storage means 18, correspondence detection means 20, three-dimensional position measurement means 22, plane calculation means 23, enlargement coefficient calculation means 24,
The operation of the projection means 25 is the same as that of the first embodiment, and the description is omitted. Here, the operation of the motion detecting means 26 will be described.

【0091】運動検出手段26は、基準画像撮影時と参
照画像撮影時との間における画像入力装置1の並進運動
成分と姿勢を検出するものであり、例えば加速度セン
サ、角速度センサ、磁気センサ、超音波センサ、赤外線
センサ等を、単独または併用して構成することができ
る。加速度センサを使用する場合は、既に説明したよう
に重力加速度の向きを検知することにより画像入力装置
1の傾斜を知ることができるほか、画像入力装置1を視
点間で移動させる過程で生じる加速度成分を積分するこ
とにより並進運動成分を算出することができる。磁気セ
ンサを使用する場合は、既に説明したように地磁気を3
軸方向で検出して画像入力装置1の方位を算出すること
により姿勢を検出することができる。また、人工的に発
生させた磁場の強弱や向きより画像入力装置1の位置と
姿勢を同時に検出することも可能である。超音波センサ
を使用する場合は、例えば画像入力装置1を使用する環
境内に超音波を発生する発信部を、また装置側に超音波
センサを設置して、受信した超音波の強弱や位相差より
画像入力装置1の位置と姿勢を検出することができる。
赤外線センサを使用する場合は、例えば画像入力装置1
を使用する環境内に赤外線スポット光を照射する装置
と、PSD(position sensitive
detector)やCCD等の光電変換素子を設置し
て、画像入力装置1に照射された赤外線スポット光の反
射光を光電変換素子で検出することにより、三角測量の
原理で画像入力装置1までの距離を算出することができ
る。この反射光を3点以上で検出することにより、位置
及び姿勢を検出することができる。
The motion detecting means 26 detects the translational motion component and the posture of the image input device 1 between the time of photographing the reference image and the time of photographing the reference image, and includes, for example, an acceleration sensor, an angular velocity sensor, a magnetic sensor, A sound wave sensor, an infrared sensor, or the like can be configured alone or in combination. When the acceleration sensor is used, the inclination of the image input device 1 can be known by detecting the direction of the gravitational acceleration as described above, and the acceleration component generated in the process of moving the image input device 1 between the viewpoints. By integrating, the translational motion component can be calculated. When using a magnetic sensor, set the geomagnetism to 3 as described above.
The posture can be detected by detecting in the axial direction and calculating the azimuth of the image input device 1. In addition, the position and orientation of the image input device 1 can be simultaneously detected from the strength and direction of the artificially generated magnetic field. When an ultrasonic sensor is used, for example, a transmitter that generates ultrasonic waves in an environment where the image input device 1 is used, and an ultrasonic sensor is installed on the device side, and the strength and phase difference of received ultrasonic waves are set. Thus, the position and orientation of the image input device 1 can be detected.
When an infrared sensor is used, for example, the image input device 1
A device for irradiating an infrared spotlight into an environment using a light emitting device, and a PSD (position sensitive)
A photoelectric conversion device such as a detector or a CCD is installed, and the reflected light of the infrared spot light applied to the image input device 1 is detected by the photoelectric conversion device, so that the distance to the image input device 1 is determined by the principle of triangulation. Can be calculated. By detecting this reflected light at three or more points, the position and orientation can be detected.

【0092】以上の処理により検出された画像入力装置
1の並進運動成分と、特徴点及び対応点により、3次元
位置計測手段22において、各特徴点に対する3次元位
置を算出し、その3次元位置を用いて平面算出手段23
において並進運動の向きだけでなく大きさの情報を持っ
ているため、先に説明した拡大係数未知の問題は解消さ
れている。しかし、使用する環境内に存在する外乱やセ
ンサノイズ等により、運動検出手段26の出力した並進
運動成分に誤差が含まれる可能性があるため、拡大係数
算出手段24において拡大係数を算出する。計算された
拡大係数、平面方程式及びフレームメモリ15に蓄積さ
れた画像は投影手段25に送られ、先に説明した方法で
合成画像を作成する。
The three-dimensional position of each feature point is calculated by the three-dimensional position measuring means 22 based on the translational motion component of the image input device 1 detected by the above processing, and the feature points and corresponding points. Plane calculating means 23 using
Has information on the size as well as the direction of the translational motion, so that the problem of the unknown expansion coefficient described above has been solved. However, there is a possibility that an error is included in the translational motion component output from the motion detecting means 26 due to disturbance, sensor noise, or the like existing in the environment in which the environment is used. Therefore, the expansion coefficient calculating means 24 calculates the expansion coefficient. The calculated enlargement coefficient, plane equation, and the image stored in the frame memory 15 are sent to the projection unit 25, and a composite image is created by the method described above.

【0093】次に、第2の実施例の画像入力装置の動作
について、図15に基づいて説明する。まず、撮像手段
11により入力対象平面を投影し、この画像を基準画像
として記憶すると同時に、撮影時の画像入力装置1の位
置及び姿勢を検出する(ステップS201)。続いて、
基準画像と一部が重複するように視点及び画像入力装置
1の姿勢を変化させて撮像手段11により入力対象平面
を撮影し、この画像を参照画像として記憶すると同時
に、撮影時の画像入力装置1の位置及び姿勢を検出する
(ステップS202)。基準画像において特徴点を抽出
すると共に、参照画像において該特徴点と同じ箇所を示
す対応点を検出する(ステップS203)。このように
して得られた特徴点と対応点を(15)式と(16)式
を用いてワールド座標系を基準とした視線ベクトル
s、Prにそれぞれ変換し、各画像撮影時の画像入力装
置1の位置及び姿勢を用いて、基準画像撮影時の視点を
原点として、三角測量の原理で各特徴点に対する3次元
位置を計算する(ステップS204)。以上の処理を終
えて平面の情報が既に算出されているかを判断し(ステ
ップS205)、まだ算出されていない場合は平面方程
式を算出し(ステップS206)、既に平面方程式が存
在する場合には求めた3次元位置がその平面方程式に当
てはまるように拡大係数を算出し(ステップS20
7)、平面方程式と拡大係数に基づいて、先に説明した
方法で基準画像及び参照画像をある同一画像面Imに投
影し、合成画像を作成する(ステップS208)。その
後、さらに画像を撮影して合成する画像を増やす場合に
は、以上の処理で参照画像として使用した画像を基準画
像に置き換えて、ステップS202からステップS20
8の動作を繰り返し、そうでない場合には処理を終了す
る(ステップS209,S210)。
Next, the operation of the image input apparatus according to the second embodiment will be described with reference to FIG. First, the input target plane is projected by the imaging means 11, and this image is stored as a reference image, and at the same time, the position and orientation of the image input device 1 at the time of shooting are detected (step S201). continue,
The viewpoint and the attitude of the image input device 1 are changed so that a part of the image input device 1 overlaps with the reference image, and an image of the input target plane is captured by the image capturing means 11, and this image is stored as a reference image. Is detected (step S202). A feature point is extracted from the reference image, and a corresponding point indicating the same location as the feature point is detected in the reference image (step S203). Thus the obtained feature points obtained by the corresponding point (15) and (16) line-of-sight vector P s relative to the world coordinate system using equation converts each P r, the image at each image shooting Using the position and orientation of the input device 1, the three-dimensional position of each feature point is calculated based on the principle of triangulation using the viewpoint at the time of capturing the reference image as the origin (step S204). After the above processing, it is determined whether plane information has already been calculated (step S205). If it has not been calculated, a plane equation is calculated (step S206). If a plane equation already exists, it is calculated. An enlargement coefficient is calculated so that the three-dimensional position corresponds to the plane equation (step S20).
7) Based on the plane equation and the enlargement coefficient, the reference image and the reference image are projected onto a certain same image plane Im by the method described above to create a composite image (step S208). Thereafter, when the number of images to be captured and synthesized is further increased, the image used as the reference image in the above processing is replaced with the reference image, and steps S202 to S20 are performed.
8 is repeated, and if not, the process is terminated (steps S209 and S210).

【0094】なお、上述の説明は、本発明の一例を説明
したにすぎない。例えば、画像を1枚撮影する度に画像
を合成する処理を行うと説明したが、画像を全て撮り終
えてから一括処理により合成画像を作成しても構わな
い。また、各画像における3次元位置を、画像1を基準
画像、画像2を参照画像として算出した平面に当てはめ
ると説明したが、互いに重複領域を持つ任意の画像対を
選んで平面を算出しても構わない。
The above description is only an example of the present invention. For example, although it has been described that a process of combining images is performed each time one image is captured, a combined image may be created by batch processing after all images have been captured. Further, it has been described that the three-dimensional position in each image is applied to the plane calculated by using the image 1 as the reference image and the image 2 as the reference image. However, the plane may be calculated by selecting an arbitrary image pair having an overlapping area with each other. I do not care.

【0095】次に、図16は本発明の第3の実施例に係
る画像入力装置の構成を示すブロック図であり、図17
は第3の実施例の動作を示すフローチャートである。上
述の第1及び第2の実施例において、ある画像対を用い
て一方を基準画像、他方を参照画像として平面方程式を
算出して、その他の画像対より求めた3次元位置及び並
進運動成分の拡大係数を逐次計算すると説明したが、全
ての画像対を用いてそれぞれにおいて平面方程式を算出
し、これらの平面方程式より平面の法線ベクトルを最適
化しても構わない。例えば画像入力装置1は、図16の
ように、撮像手段11と、撮像手段11により得られた
画像信号に処理を施す信号処理手段12と、信号処理手
段12の出力が供給されるメモリ制御手段13、主制御
手段14及びI/F16と、メモリ制御手段13の指令
により画像信号を蓄積するフレームメモリ15と、I/
F16を経由して画像信号を表示する表示手段17と、
I/F16を経由して画像信号をはじめとする種々の信
号の読み出し/書き込みを行う外部記憶手段18とを有
する。その他、画像撮影時の画像入力装置1の姿勢を検
出する姿勢検出手段19と、フレームメモリ15に蓄積
された互いに重複する領域を持つ画像間の特徴点及び対
応点を抽出する対応検出手段20と、姿勢検出手段19
及び対応検出手段20の出力より画像入力装置1の並進
運動を検出する並進運動検出手段21と、姿勢検出手段
19、対応検出手段20及び並進運動検出手段21の出
力より各特徴点の3次元位置を算出する3次元位置計測
手段22と、3次元位置計測手段22の出力した特徴点
の3次元位置が適合する平面の情報を算出する平面算出
手段23と、平面算出手段23により出力された複数の
平面の情報に基づいて最適な平面方程式を算出する平面
最適化手段27と、3次元位置計測手段22より出力さ
れた各特徴点の3次元位置及び平面算出手段23より出
力された平面情報に基づいて、各画像対より求めた並進
成分及び3次元位置の拡大係数を算出する拡大係数算出
手段24と、姿勢検出手段19、並進運動検出手段2
1、平面算出手段23及び拡大係数算出手段24より供
給された出力に基づき、フレームメモリ15に蓄積され
た各画像を任意の同一画像面に投影する投影手段25を
も有している。撮像手段11、信号処理手段12、メモ
リ制御手段13、主制御手段14、フレームメモリ1
5、I/F16、表示手段17、外部記憶手段18、姿
勢検出手段19、対応検出手段20、並進運動検出手段
21、3次元位置計測手段22、平面算出手段23、拡
大係数算出手段24、及び投影手段25の動作は、第1
の実施例と同様であるので、説明を省略する。ここで
は、平面最適化手段27の動作について説明する。
FIG. 16 is a block diagram showing the configuration of an image input apparatus according to a third embodiment of the present invention.
9 is a flowchart showing the operation of the third embodiment. In the above-described first and second embodiments, a plane equation is calculated using one image pair as a reference image and the other as a reference image, and the three-dimensional position and translational motion component obtained from the other image pairs are calculated. Although it has been described that the enlargement coefficient is calculated sequentially, a plane equation may be calculated for each of all the image pairs, and the normal vector of the plane may be optimized based on these plane equations. For example, as shown in FIG. 16, the image input device 1 includes an imaging unit 11, a signal processing unit 12 that processes an image signal obtained by the imaging unit 11, and a memory control unit to which an output of the signal processing unit 12 is supplied. 13, a main control means 14 and an I / F 16, a frame memory 15 for storing image signals in accordance with instructions from the memory control means 13,
Display means 17 for displaying an image signal via F16;
An external storage unit 18 that reads / writes various signals including an image signal via the I / F 16 is provided. In addition, a posture detecting means 19 for detecting the posture of the image input device 1 at the time of image capturing, a correspondence detecting means 20 for extracting feature points and corresponding points between images having mutually overlapping areas accumulated in the frame memory 15 and , Posture detecting means 19
And a translational motion detecting means 21 for detecting the translational motion of the image input device 1 from the output of the correspondence detecting means 20, and the three-dimensional position of each characteristic point from the outputs of the attitude detecting means 19, the correspondence detecting means 20 and the translational motion detecting means 21. , A plane calculating unit 23 that calculates information of a plane to which a three-dimensional position of a feature point output by the three-dimensional position measuring unit 22 is suitable, and a plurality of planes output by the plane calculating unit 23. The plane optimizing means 27 for calculating an optimal plane equation based on the information on the plane, and the three-dimensional position of each feature point output from the three-dimensional position measuring means 22 and the plane information output from the plane calculating means 23 Magnification factor calculating means 24 for calculating a translation component and a three-dimensional position expansion coefficient obtained from each image pair based on each image pair, posture detecting means 19, translational motion detecting means 2
1. There is also provided a projecting unit 25 for projecting each image stored in the frame memory 15 onto an arbitrary image plane based on the outputs supplied from the plane calculating unit 23 and the enlargement coefficient calculating unit 24. Imaging means 11, signal processing means 12, memory control means 13, main control means 14, frame memory 1
5, I / F 16, display means 17, external storage means 18, attitude detection means 19, correspondence detection means 20, translational movement detection means 21, three-dimensional position measurement means 22, plane calculation means 23, enlargement coefficient calculation means 24, and The operation of the projection means 25 is the first
The description is omitted because it is the same as that of the embodiment. Here, the operation of the plane optimizing means 27 will be described.

【0096】図1のように、撮影した画像がK枚である
とすると、(K−1)組の画像対が得られるため、平面
算出手段23によって(K−1)個の平面方程式が算出
可能である。これらの平面方程式の法線ベクトルをそれ
ぞれnj(j=1,・・・,K−1)とすると、njはそ
れぞれ図5に示す座標系を基準としたものである。平面
最適化手段27は、これらの当てはめる平面方程式の法
線ベクトルnを、例えばnjを平均化することによって
出力する。
As shown in FIG. 1, if the number of captured images is K, (K-1) sets of image pairs are obtained, and the plane calculating means 23 calculates (K-1) plane equations. It is possible. Assuming that the normal vectors of these plane equations are n j (j = 1,..., K−1), n j is based on the coordinate system shown in FIG. The plane optimizing unit 27 outputs the normal vector n of the fitted plane equation by averaging n j , for example.

【0097】以上の処理により出力された法線ベクトル
nを用いて、拡大係数算出手段24は第1の実施例で説
明した計算法を用いて拡大係数を算出する。計算された
拡大係数、平面方程式及びフレームメモリ15に蓄積さ
れた画像は投影手段25に送られ、先に説明した方法で
合成画像を作成する。
Using the normal vector n output by the above processing, the expansion coefficient calculation means 24 calculates the expansion coefficient by using the calculation method described in the first embodiment. The calculated enlargement coefficient, plane equation, and the image stored in the frame memory 15 are sent to the projection unit 25, and a composite image is created by the method described above.

【0098】次に、第3の実施例の画像入力装置の動作
について、図17に基づいて説明する。まず、撮像手段
11により入力対象平面を投影し、この画像を基準画像
として記憶すると同時に、撮影時の画像入力装置1の姿
勢を検出する(ステップS301)。続いて、基準画像
と一部が重複するように視点及び画像入力装置1の姿勢
を変化させて撮像手段11により入力対象平面を撮影
し、この画像を参照画像として記憶すると同時に、撮影
時の画像入力装置1の位置及び姿勢を検出する(ステッ
プS302)。基準画像において特徴点を抽出すると共
に、参照画像において該特徴点と同じ箇所を示す対応点
を検出する(ステップS303)。このようにして得ら
れた特徴点と対応点を(15)式と(16)式を用いて
ワールド座標系を基準とした視線ベクトルPs、Prにそ
れぞれ変換し、各画像撮影時の画像入力装置1の姿勢を
用いて、(18)式により画像入力装置1の並進運動ベ
クトルtを求める(ステップS304)。その並進運動
ベクトルtと視線ベクトルPs、Prとを用いて、基準画
像撮影時の視点を原点として、三角測量の原理で各特徴
点に対する3次元位置を計算する(ステップS30
5)。以上の処理を終えて得られた3次元位置より、平
面方程式を算出する(ステップS306)。さらに画像
を撮影して合成する画像を増やす場合には、以上の処理
で参照画像として使用した画像を基準画像に置き換え
て、ステップS302からステップS306の動作を繰
り返し、そうでない場合には対象平面の撮影を終了する
(ステップS307,S308)。撮影終了後、各々の
画像対より求めた平面方程式に基づき平面の法線ベクト
ルnを最適化して、平面方程式を決定する(ステップS
309)。nが求まると、各々の画像対より求めた3次
元位置がその平面方程式に当てはまるように拡大係数を
算出し(ステップS310)、平面方程式と拡大係数に
基づいて、先に説明した方法で基準画像及び参照画像を
ある同一画像面Imに投影し、合成画像を作成する(ス
テップS311)。
Next, the operation of the image input apparatus according to the third embodiment will be described with reference to FIG. First, the input target plane is projected by the imaging means 11, and this image is stored as a reference image, and at the same time, the attitude of the image input device 1 at the time of shooting is detected (step S301). Then, the viewpoint and the attitude of the image input device 1 are changed so that a part of the image is overlapped with the reference image, the input target plane is photographed by the imaging means 11, and this image is stored as a reference image. The position and orientation of the input device 1 are detected (step S302). A feature point is extracted from the reference image, and a corresponding point indicating the same location as the feature point is detected in the reference image (step S303). Thus the obtained feature points obtained by the corresponding point (15) and (16) line-of-sight vector P s relative to the world coordinate system using equation converts each P r, the image at each image shooting Using the attitude of the input device 1, a translational motion vector t of the image input device 1 is obtained by Expression (18) (Step S304). Its translation vector t and a line-of-sight vector P s, by using the P r, the viewpoint at the time of the reference image photographing as the origin, calculating the three-dimensional position of each feature point by the principle of triangulation (Step S30
5). A plane equation is calculated from the three-dimensional position obtained after the above processing (step S306). When the number of images to be captured and synthesized is further increased, the image used as the reference image in the above processing is replaced with the reference image, and the operations from step S302 to step S306 are repeated. The photographing ends (steps S307 and S308). After the photographing, the plane normal vector n is optimized based on the plane equation obtained from each image pair to determine the plane equation (step S).
309). When n is obtained, an expansion coefficient is calculated so that the three-dimensional position obtained from each image pair is applied to the plane equation (step S310), and the reference image is obtained based on the plane equation and the expansion coefficient by the method described above. and the reference image projected on the same image plane I m in the, to create a composite image (step S311).

【0099】なお、上述の説明は、本発明の一例を説明
したにすぎない。例えば、各画像対より求めた平面の法
線ベクトルを平均化すると説明したが、その他の法線ベ
クトル最適化処理を使用しても構わない。
The above description is only an example of the present invention. For example, although it has been described that the normal vector of the plane obtained from each image pair is averaged, other normal vector optimization processing may be used.

【0100】本発明は上記各実施例に限定されるもので
はなく、特許請求の範囲内の記載であれば、各種変形や
置換可能であることは言うまでもない。
The present invention is not limited to the above embodiments, and needless to say, various modifications and substitutions can be made within the scope of the claims.

【0101】[0101]

【発明の効果】以上説明したように、本発明によれば、
先に撮像した画像である基準画像と一部が重複するよう
に複数の視点から対象平面を撮像する撮像手段と、各撮
像時の撮像手段の姿勢を検出する姿勢検出手段と、基準
画像と、基準画像と重複する部分を持つ画像である参照
画像との画像対に基づいて、基準画像における複数の特
徴点を抽出すると共に、参照画像における特徴点と同一
の箇所を示す対応点を検出する対応検出手段と、撮像手
段の姿勢、特徴点及び対応点に基づいて、撮像手段の並
進運動成分を検出する並進運動検出手段と、撮像手段の
姿勢、特徴点、対応点及び並進運動成分に基づいて、各
特徴点の3次元位置を算出する3次元位置計測手段と、
3次元位置計測手段が計測した各特徴点の3次元位置が
同一平面上にあるものとして各特徴点の3次元位置に適
合する平面の情報を算出する平面算出手段と、各画像対
を利用して求めた各特徴点の3次元位置、及び平面算出
手段が算出した平面の情報に基づいて、各並進成分及び
各3次元位置の拡大係数を算出する拡大係数算出手段
と、撮像手段の姿勢と並進成分、及び平面算出手段が計
算した平面の情報に基づいて、各画像を任意の同一画像
面に投影して複数の視点から撮像した画像を合成する投
影手段とを有することに特徴がある。
As described above, according to the present invention,
Imaging means for imaging the target plane from a plurality of viewpoints so that a part of the reference image is a previously captured image partially overlaps, a posture detection means for detecting a posture of the imaging means at the time of each imaging, a reference image, Based on an image pair with a reference image which is an image having a portion overlapping with the reference image, a plurality of feature points in the reference image are extracted, and a corresponding point indicating the same point as the feature point in the reference image is detected. Detecting means, translational motion detecting means for detecting a translational motion component of the imaging means based on the attitude, feature points, and corresponding points of the imaging means, and based on the attitude, feature points, corresponding points, and translational motion components of the imaging means. Three-dimensional position measuring means for calculating the three-dimensional position of each feature point;
It is assumed that the three-dimensional position of each feature point measured by the three-dimensional position measurement means is on the same plane, and plane calculation means for calculating information of a plane conforming to the three-dimensional position of each feature point, and each image pair is used. Coefficient calculating means for calculating the translation component and the expansion coefficient of each three-dimensional position based on the three-dimensional position of each feature point obtained by the above and the plane information calculated by the plane calculating means; It is characterized by having projection means for projecting each image on an arbitrary same image plane based on the translation component and the information on the plane calculated by the plane calculation means, and synthesizing images captured from a plurality of viewpoints.

【0102】更に別の発明として、先に撮像した画像で
ある基準画像と一部が重複するように複数の視点から対
象平面を撮像する撮像手段と、各撮像時の撮像手段の姿
勢及び並進成分を検出する運動検出手段と、基準画像及
び基準画像と重複する部分を持つ画像である参照画像の
画像対に基づいて、基準画像における複数の特徴点を抽
出すると共に、参照画像における特徴点と同一の箇所を
示す対応点を検出する対応検出手段と、撮像手段の姿勢
と並進成分、及び特徴点と対応点に基づいて、各特徴点
の3次元位置を算出する3次元位置計測手段と、3次元
位置計測手段が計測した各特徴点の3次元位置が同一平
面上にあるものとして各特徴点の3次元位置に適合する
平面の情報を算出する平面算出手段と、各画像対を利用
して求めた各特徴点の3次元位置、及び平面算出手段が
算出した平面の情報に基づいて、各並進成分及び各3次
元位置の拡大係数を算出する拡大係数算出手段と、撮像
手段の姿勢と並進成分、及び平面算出手段が計算した平
面の情報に基づいて、各画像を任意の同一画像面に投影
して、複数の視点から撮像した画像を合成する投影手段
とを有することに特徴がある。
As still another invention, an image pickup means for picking up an object plane from a plurality of viewpoints so that a part of the image is overlapped with a reference image which is a previously picked-up image, and an attitude and a translation component of the image pickup means at each image pickup. And extracting a plurality of feature points in the reference image based on the image pair of the reference image and the reference image which is an image having a portion overlapping with the reference image, and extracting a plurality of feature points identical to the feature points in the reference image. Correspondence detection means for detecting a corresponding point indicating the position of the image, three-dimensional position measurement means for calculating the three-dimensional position of each feature point based on the attitude and translation component of the imaging means, and the feature point and the corresponding point; A plane calculating unit for calculating information of a plane conforming to the three-dimensional position of each feature point, assuming that the three-dimensional positions of each feature point measured by the three-dimensional position measuring unit are on the same plane, and using each image pair. Required features Magnification factor calculating means for calculating the translation component and the magnification factor of each three-dimensional position based on the three-dimensional position and the plane information calculated by the plane calculating means, the attitude and the translation component of the imaging means, and the plane calculation A projection unit for projecting each image onto an arbitrary image plane based on the information on the plane calculated by the unit, and synthesizing images captured from a plurality of viewpoints.

【0103】よって、上記2つの発明によれば、任意の
距離にある対象平面を多数枚撮影した場合でも、簡単な
計算で高精度に平面の情報を算出することができ、美し
い合成画像を得ることができる。また、画像の重なる範
囲を予め強制していないのでユーザは比較的自由な条件
で対象平面を撮影することができる。更に、撮影した画
像の順序をユーザが手動で設定する必要がないので、操
作性・利用性の高い画像合成が可能となる。
Therefore, according to the above two inventions, even when a large number of target planes at arbitrary distances are photographed, plane information can be calculated with high accuracy by a simple calculation, and a beautiful composite image is obtained. be able to. Further, since the overlapping range of the images is not preliminarily forced, the user can photograph the target plane under relatively free conditions. Furthermore, since it is not necessary for the user to manually set the order of the captured images, it is possible to combine images with high operability and usability.

【0104】また別の発明として、先に撮像した画像で
ある基準画像と一部が重複するように複数の視点から対
象平面を撮像する撮像手段と、各撮像時の撮像手段の姿
勢を検出する姿勢検出手段と、基準画像と、基準画像と
重複する部分を持つ画像である参照画像との画像対に基
づいて、基準画像における複数の特徴点を抽出すると共
に、参照画像における特徴点と同一の箇所を示す対応点
を検出する対応検出手段と、撮像手段の姿勢、特徴点及
び対応点に基づいて、撮像手段の並進運動成分を検出す
る並進運動検出手段と、撮像手段の姿勢、特徴点、対応
点及び並進運動成分に基づいて、各特徴点の3次元位置
を算出する3次元位置計測手段と、3次元位置計測手段
が計測した各特徴点の3次元位置が同一平面上にあるも
のとして各特徴点の3次元位置に適合する平面の情報を
算出する平面算出手段と、平面算出手段が算出した平面
の情報に基づいて、対象平面の平面情報を最適化する平
面最適化手段と、各画像対を利用して求めた各特徴点の
3次元位置、及び平面最適化手段が最適化した平面の情
報に基づいて、各並進成分及び各3次元位置の拡大係数
を算出する拡大係数算出手段と、撮像手段の姿勢と並進
成分、及び平面最適化手段が最適化した平面の情報に基
づいて、各画像を任意の同一画像面に投影して複数の視
点から撮像した画像を合成する投影手段とを有するに特
徴がある。
As another invention, an image pickup means for picking up an object plane from a plurality of viewpoints so as to partially overlap a reference image which is a previously picked-up image, and an attitude of the image pickup means at each image pickup are detected. Based on an image pair of a posture detection unit, a reference image, and a reference image which is an image having a portion overlapping with the reference image, a plurality of feature points in the reference image are extracted and the same as the feature points in the reference image. Correspondence detection means for detecting a corresponding point indicating a location, translational motion detection means for detecting a translational motion component of the imaging means based on the attitude, characteristic points and corresponding points of the imaging means; The three-dimensional position measuring means for calculating the three-dimensional position of each feature point based on the corresponding point and the translational motion component, and the three-dimensional position of each feature point measured by the three-dimensional position measuring means on the same plane Each feature point A plane calculating means for calculating information on a plane conforming to the three-dimensional position, a plane optimizing means for optimizing plane information on the target plane based on the information on the plane calculated by the plane calculating means, and each image pair is used. Enlargement coefficient calculating means for calculating each translation component and an enlargement coefficient of each three-dimensional position based on the three-dimensional position of each feature point obtained as described above and information on the plane optimized by the plane optimizing means, And projection means for projecting each image onto an arbitrary same image plane and synthesizing images captured from a plurality of viewpoints, based on the posture and translational components of the image, and information on the plane optimized by the plane optimization means. There are features.

【0105】更に別の発明として、先に撮像した画像で
ある基準画像と一部が重複するように複数の視点から対
象平面を撮像する撮像手段と、各撮像時の撮像手段の姿
勢及び並進成分を検出する運動検出手段と、基準画像及
び基準画像と重複する部分を持つ画像である参照画像の
画像対に基づいて、基準画像における複数の特徴点を抽
出すると共に、参照画像における特徴点と同一の箇所を
示す対応点を検出する対応検出手段と、撮像手段の姿勢
と並進成分、及び特徴点と対応点に基づいて、各特徴点
の3次元位置を算出する3次元位置計測手段と、3次元
位置計測手段が計測した各特徴点の3次元位置が同一平
面上にあるものとして各特徴点の3次元位置に適合する
平面の情報を算出する平面算出手段と、平面算出手段が
算出した平面の情報に基づいて、対象平面の平面情報を
最適化する平面最適化手段と、各画像対を利用して求め
た各特徴点の3次元位置、及び平面最適化手段が最適化
した平面の情報に基づいて、各並進成分及び各3次元位
置の拡大係数を算出する拡大係数算出手段と、撮像手段
の姿勢と並進成分、及び平面最適化手段が最適化した平
面の情報に基づいて、各画像を任意の同一画像面に投影
して、複数の視点から撮像した画像を合成する投影手段
とを有することに特徴がある。
As still another invention, an image pickup means for picking up an object plane from a plurality of viewpoints so that a part of the image is overlapped with a reference image which has been picked up earlier, and an attitude and a translation component of the image pickup means at each image pickup. And extracting a plurality of feature points in the reference image based on the image pair of the reference image and the reference image which is an image having a portion overlapping with the reference image, and extracting a plurality of feature points identical to the feature points in the reference image. Correspondence detection means for detecting a corresponding point indicating the position of the image, three-dimensional position measurement means for calculating the three-dimensional position of each feature point based on the attitude and translation component of the imaging means, and the feature point and the corresponding point; Plane calculating means for calculating information on a plane conforming to the three-dimensional position of each feature point, assuming that the three-dimensional position of each feature point measured by the three-dimensional position measuring means is on the same plane, and a plane calculated by the plane calculating means Feelings Plane optimization means for optimizing plane information of the target plane based on the three-dimensional position of each feature point obtained by using each image pair, and information on the plane optimized by the plane optimization means. A magnification factor calculating means for calculating a magnification factor of each translational component and each three-dimensional position; and an image of each image can be arbitrarily determined based on the orientation of the imaging means, the translational component, and the plane information optimized by the plane optimizing means. And projection means for projecting images onto the same image plane and combining images captured from a plurality of viewpoints.

【0106】よって、上記2つの発明によれば、画像入
力装置の姿勢または運動検出結果に誤差が含まれた場合
においても、正確な平面方程式を算出することができ
る。その結果、より美しい合成画像を作成することがで
きる。
Therefore, according to the above two inventions, an accurate plane equation can be calculated even when an error is included in the posture or motion detection result of the image input device. As a result, a more beautiful composite image can be created.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の画像入力装置を用いた撮影の様子を示
す図である。
FIG. 1 is a diagram showing a state of photographing using an image input device of the present invention.

【図2】本発明の第1の実施例に係る画像入力装置の構
成を示すブロック図である。
FIG. 2 is a block diagram illustrating a configuration of an image input device according to a first embodiment of the present invention.

【図3】図2の姿勢検出手段の構成を示すブロック図で
ある。
FIG. 3 is a block diagram illustrating a configuration of a posture detection unit in FIG. 2;

【図4】装置座標系を示す図である。FIG. 4 is a diagram showing a device coordinate system.

【図5】ワールド座標系を示す図である。FIG. 5 is a diagram showing a world coordinate system.

【図6】図2の対応検出手段の構成を示すブロック図で
ある。
FIG. 6 is a block diagram illustrating a configuration of a correspondence detection unit in FIG. 2;

【図7】基準画像と参照画像の相関演算によるマッチン
グの様子を示す図である。
FIG. 7 is a diagram illustrating a state of matching between a reference image and a reference image by a correlation operation.

【図8】基準画像と参照画像の対象平面に対する視線ベ
クトルを示す図である。
FIG. 8 is a diagram illustrating a line-of-sight vector of a reference image and a reference image with respect to a target plane.

【図9】各視点間の並進運動における並進運動ベクトル
を示す図である。
FIG. 9 is a diagram showing translational motion vectors in translational motion between viewpoints.

【図10】視点2を基準にした3次元位置を示す図であ
る。
FIG. 10 is a diagram showing a three-dimensional position based on a viewpoint 2;

【図11】各画像を同一平面上に投影する例の様子を示
す図である。
FIG. 11 is a diagram illustrating an example in which each image is projected on the same plane.

【図12】画像合成の様子を示す図である。FIG. 12 is a diagram illustrating a state of image synthesis.

【図13】第1の実施例の動作を示すフローチャートで
ある。
FIG. 13 is a flowchart showing the operation of the first embodiment.

【図14】本発明の第2の実施例に係る画像入力装置の
構成を示すブロック図である。
FIG. 14 is a block diagram illustrating a configuration of an image input device according to a second embodiment of the present invention.

【図15】第2の実施例の動作を示すフローチャートで
ある。
FIG. 15 is a flowchart showing the operation of the second embodiment.

【図16】本発明の第3の実施例に係る画像入力装置の
構成を示すブロック図である。
FIG. 16 is a block diagram illustrating a configuration of an image input device according to a third embodiment of the present invention.

【図17】第3の実施例の動作を示すフローチャートで
ある。
FIG. 17 is a flowchart showing the operation of the third embodiment.

【符号の説明】[Explanation of symbols]

11 撮像手段 12 信号処理手段 13 メモリ制御手段 14 主制御手段 15 フレームメモリ 16 インターフェース 17 表示手段 18 外部記憶手段 19 姿勢検出手段 20 対応検出手段 21 並進運動検出手段 22 3次元位置計測手段 23 平面算出手段 24 拡大係数算出手段 25 投影手段 26 運動検出手段 27 平面最適化手段 DESCRIPTION OF SYMBOLS 11 Imaging means 12 Signal processing means 13 Memory control means 14 Main control means 15 Frame memory 16 Interface 17 Display means 18 External storage means 19 Attitude detection means 20 Correspondence detection means 21 Translational motion detection means 22 Three-dimensional position measurement means 23 Plane calculation means 24 Enlargement coefficient calculation means 25 Projection means 26 Motion detection means 27 Planar optimization means

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B057 CA13 CB12 CE10 DA07 DB03 DC05 DC08 5C023 AA11 AA31 AA36 AA37 AA38 BA01 BA11 CA01 DA04  ────────────────────────────────────────────────── ─── Continued on the front page F term (reference) 5B057 CA13 CB12 CE10 DA07 DB03 DC05 DC08 5C023 AA11 AA31 AA36 AA37 AA38 BA01 BA11 CA01 DA04

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 先に撮像した画像である基準画像と一部
が重複するように複数の視点から対象平面を撮像する撮
像手段と、 各撮像時の前記撮像手段の姿勢を検出する姿勢検出手段
と、 基準画像と、基準画像と重複する部分を持つ画像である
参照画像との画像対に基づいて、基準画像における複数
の特徴点を抽出すると共に、参照画像における特徴点と
同一の箇所を示す対応点を検出する対応検出手段と、 前記撮像手段の姿勢、特徴点及び対応点に基づいて、前
記撮像手段の並進運動成分を検出する並進運動検出手段
と、 前記撮像手段の姿勢、特徴点、対応点及び並進運動成分
に基づいて、各特徴点の3次元位置を算出する3次元位
置計測手段と、 該3次元位置計測手段が計測した各特徴点の3次元位置
が同一平面上にあるものとして各特徴点の3次元位置に
適合する平面の情報を算出する平面算出手段と、 各画像対を利用して求めた各特徴点の3次元位置、及び
前記平面算出手段が算出した平面の情報に基づいて、各
並進成分及び各3次元位置の拡大係数を算出する拡大係
数算出手段と、 前記撮像手段の姿勢と並進成分、及び前記平面算出手段
が計算した平面の情報に基づいて、各画像を任意の同一
画像面に投影して複数の視点から撮像した画像を合成す
る投影手段とを有することを特徴とする画像入力装置。
An image pickup means for picking up an object plane from a plurality of viewpoints such that a part of the image is overlapped with a reference image which is an image picked up earlier, and an attitude detecting means for detecting an attitude of the image pickup means at each image pickup. And extracting a plurality of feature points in the reference image based on an image pair of the reference image and a reference image which is an image having a portion overlapping with the reference image, and indicating a same point as the feature point in the reference image. Correspondence detecting means for detecting a corresponding point, a posture of the imaging means, a translational motion detecting means for detecting a translational motion component of the imaging means based on the feature points and the corresponding points, an attitude, a feature point of the imaging means, A three-dimensional position measuring means for calculating a three-dimensional position of each feature point based on the corresponding point and the translational motion component; and a three-dimensional position of each feature point measured by the three-dimensional position measuring means being on the same plane. As each feature A plane calculating means for calculating information on a plane conforming to the three-dimensional position, and a three-dimensional position of each feature point obtained by using each image pair, and information on the plane calculated by the plane calculating means, Magnification factor calculating means for calculating a magnification factor of each translation component and each three-dimensional position; and arbitrarily identifying each image based on information on the orientation and the translation component of the imaging means and the plane calculated by the plane calculation means. An image input device comprising: projection means for projecting onto an image plane and combining images captured from a plurality of viewpoints.
【請求項2】 先に撮像した画像である基準画像と一部
が重複するように複数の視点から対象平面を撮像する撮
像手段と、 各撮像時の前記撮像手段の姿勢を検出する姿勢検出手段
と、 基準画像と、基準画像と重複する部分を持つ画像である
参照画像との画像対に基づいて、基準画像における複数
の特徴点を抽出すると共に、参照画像における特徴点と
同一の箇所を示す対応点を検出する対応検出手段と、 前記撮像手段の姿勢、特徴点及び対応点に基づいて、前
記撮像手段の並進運動成分を検出する並進運動検出手段
と、 前記撮像手段の姿勢、特徴点、対応点及び並進運動成分
に基づいて、各特徴点の3次元位置を算出する3次元位
置計測手段と、 該3次元位置計測手段が計測した各特徴点の3次元位置
が同一平面上にあるものとして各特徴点の3次元位置に
適合する平面の情報を算出する平面算出手段と、 該平面算出手段が算出した平面の情報に基づいて、対象
平面の平面情報を最適化する平面最適化手段と、 各画像対を利用して求めた各特徴点の3次元位置、及び
前記平面最適化手段が最適化した平面の情報に基づい
て、各並進成分及び各3次元位置の拡大係数を算出する
拡大係数算出手段と、 前記撮像手段の姿勢と並進成分、及び前記平面最適化手
段が最適化した平面の情報に基づいて、各画像を任意の
同一画像面に投影して複数の視点から撮像した画像を合
成する投影手段とを有することを特徴とする画像入力装
置。
2. An image pickup means for picking up an object plane from a plurality of viewpoints so as to partially overlap a reference image which is an image picked up earlier, and an attitude detecting means for detecting an attitude of the image pickup means at each image pickup. And extracting a plurality of feature points in the reference image based on an image pair of the reference image and a reference image which is an image having a portion overlapping with the reference image, and indicating a same point as the feature point in the reference image. Correspondence detecting means for detecting a corresponding point, a posture of the imaging means, a translational motion detecting means for detecting a translational motion component of the imaging means based on the feature points and the corresponding points, an attitude, a feature point of the imaging means, A three-dimensional position measuring means for calculating a three-dimensional position of each feature point based on the corresponding point and the translational motion component; and a three-dimensional position of each feature point measured by the three-dimensional position measuring means being on the same plane. As each feature Plane calculating means for calculating information on a plane conforming to the three-dimensional position, plane optimizing means for optimizing plane information on the target plane based on the information on the plane calculated by the plane calculating means, Expansion factor calculation means for calculating the translation component and the expansion coefficient of each three-dimensional position based on the three-dimensional position of each feature point obtained by using the information and the plane information optimized by the plane optimization means. A projection for projecting each image onto an arbitrary same image plane and synthesizing images captured from a plurality of viewpoints, based on the attitude and translation component of the imaging unit and information on a plane optimized by the plane optimizing unit; And an image input device.
【請求項3】 撮像手段を用いて先に撮像した画像であ
る基準画像と一部が重複するように複数の視点から対象
平面を撮像すると共に、各撮像時の前記撮像手段の姿勢
を検出する工程と、 基準画像及び基準画像と重複する部分を持つ画像である
参照画像の画像対に基づいて、基準画像における複数の
特徴点を抽出すると共に、参照画像における特徴点と同
一の箇所を示す対応点を検出する工程と、 前記撮像手段の姿勢、特徴点と対応点に基づいて、前記
撮像手段の並進運動成分を検出する工程と、 前記撮像手段の姿勢、特徴点と対応点、及び並進運動成
分に基づいて、各特徴点の3次元位置を算出する工程
と、 計測した各特徴点の3次元位置が同一平面上にあるもの
として各特徴点の3次元位置に適合する平面の情報を算
出する工程と、 各画像対を利用して求めた各特徴点の3次元位置、及び
算出された平面の情報に基づいて、各並進成分及び各3
次元位置の拡大係数を算出する工程と、 前記撮像手段の姿勢と並進成分、及び算出された平面の
情報に基づいて、各画像を任意の同一画像面に投影し
て、複数の視点から撮像した画像を合成する工程とを有
することを特徴とする画像入力方法。
3. A target plane is imaged from a plurality of viewpoints so that a part of the target plane is overlapped with a reference image which is an image previously picked up by an image pickup means, and a posture of the image pickup means at each image pickup is detected. And extracting a plurality of feature points in the reference image based on an image pair of the reference image, which is an image having a portion overlapping with the reference image, and indicating the same location as the feature point in the reference image. A step of detecting a point; a step of detecting a translational motion component of the imaging unit based on a posture, a feature point, and a corresponding point of the imaging unit; a posture, a feature point, a corresponding point, and a translational motion of the imaging unit. Calculating the three-dimensional position of each feature point based on the component, and calculating plane information that matches the three-dimensional position of each feature point assuming that the measured three-dimensional position of each feature point is on the same plane Process and each Three-dimensional positions of the feature points obtained using the image pair, and based on the information of the calculated plane, each translation component and the 3
Calculating the magnification factor of the dimensional position; and the orientation and translation component of the imaging unit, and based on the calculated plane information, each image is projected onto any same image plane and imaged from a plurality of viewpoints. Combining an image.
【請求項4】 前記撮像手段を用いて先に撮像した画像
である基準画像と一部が重複するように複数の視点から
対象平面を撮像すると共に、各撮像時の撮像手段の姿勢
を検出する工程と、 基準画像及び基準画像と重複する部分を持つ画像である
参照画像の画像対に基づいて、基準画像における複数の
特徴点を抽出すると共に、参照画像における特徴点と同
一の箇所を示す対応点を検出する工程と、 前記撮像手段の姿勢、特徴点と対応点に基づいて、前記
撮像手段の並進運動成分を検出する工程と、 前記撮像手段の姿勢、特徴点と対応点、及び並進運動成
分に基づいて、各特徴点の3次元位置を算出する工程
と、 計測した各特徴点の3次元位置が同一平面上にあるもの
として各特徴点の3次元位置に適合する平面の情報を算
出する工程と、 各画像対より求めた各々の平面の情報に基づいて、対象
平面の平面情報を最適化する工程と、 各画像対を利用して求めた各特徴点の3次元位置、及び
最適化された平面の情報に基づいて、各並進成分及び各
3次元位置の拡大係数を算出する工程と、 前記撮像手段の姿勢と並進成分、及び最適化された平面
の情報に基づいて、各画像を任意の同一画像面に投影し
て、複数の視点から撮像した画像を合成する工程とを有
することを特徴とする画像入力方法。
4. An object plane is imaged from a plurality of viewpoints so as to partially overlap a reference image which is an image previously imaged by using the image pickup means, and an attitude of the image pickup means at each image pickup is detected. And extracting a plurality of feature points in the reference image based on an image pair of the reference image, which is an image having a portion overlapping with the reference image, and indicating the same location as the feature point in the reference image. A step of detecting a point; a step of detecting a translational motion component of the imaging unit based on a posture, a feature point, and a corresponding point of the imaging unit; a posture, a feature point, a corresponding point, and a translational motion of the imaging unit. Calculating the three-dimensional position of each feature point based on the component, and calculating plane information that matches the three-dimensional position of each feature point assuming that the measured three-dimensional position of each feature point is on the same plane Process and each A step of optimizing plane information of the target plane based on information of each plane obtained from the image pair, a three-dimensional position of each feature point obtained by using each image pair, and Calculating the translational component and the expansion coefficient of each three-dimensional position based on the information; and transforming each image into an arbitrary identical image based on the orientation and the translational component of the imaging unit and the information on the optimized plane. Projecting the image on a surface and combining images captured from a plurality of viewpoints.
【請求項5】 先に撮像した画像である基準画像と一部
が重複するように複数の視点から対象平面を撮像する撮
像手段と、 各撮像時の前記撮像手段の姿勢及び並進成分を検出する
運動検出手段と、 基準画像及び基準画像と重複する部分を持つ画像である
参照画像の画像対に基づいて、基準画像における複数の
特徴点を抽出すると共に、参照画像における特徴点と同
一の箇所を示す対応点を検出する対応検出手段と、 前記撮像手段の姿勢と並進成分、及び特徴点と対応点に
基づいて、各特徴点の3次元位置を算出する3次元位置
計測手段と、 該3次元位置計測手段が計測した各特徴点の3次元位置
が同一平面上にあるものとして各特徴点の3次元位置に
適合する平面の情報を算出する平面算出手段と、 各画像対を利用して求めた各特徴点の3次元位置、及び
前記平面算出手段が算出した平面の情報に基づいて、各
並進成分及び各3次元位置の拡大係数を算出する拡大係
数算出手段と、 前記撮像手段の姿勢と並進成分、及び前記平面算出手段
が計算した平面の情報に基づいて、各画像を任意の同一
画像面に投影して、複数の視点から撮像した画像を合成
する投影手段とを有することを特徴とする画像入力装
置。
5. An image pickup means for picking up an object plane from a plurality of viewpoints so as to partially overlap a reference image which is an image picked up earlier, and detecting an attitude and a translation component of the image pickup means at each image pickup. A plurality of feature points in the reference image are extracted based on the motion detection unit and the image pair of the reference image and the reference image which is an image having a portion overlapping with the reference image; Correspondence detecting means for detecting the corresponding point indicated by the image capturing means; three-dimensional position measuring means for calculating the three-dimensional position of each feature point based on the attitude and translation component of the image capturing means; and the feature point and the corresponding point; Plane calculating means for calculating information on a plane conforming to the three-dimensional position of each feature point, assuming that the three-dimensional position of each feature point measured by the position measuring means is on the same plane; 3 of each feature point Expansion factor calculation means for calculating each translation component and an expansion coefficient of each three-dimensional position based on the original position and information on the plane calculated by the plane calculation means; and an orientation and a translation component of the imaging means, and the plane An image input apparatus comprising: a projection unit that projects each image onto an arbitrary same image plane based on information on a plane calculated by a calculation unit and combines images captured from a plurality of viewpoints.
【請求項6】 先に撮像した画像である基準画像と一部
が重複するように複数の視点から対象平面を撮像する撮
像手段と、 各撮像時の前記撮像手段の姿勢及び並進成分を検出する
運動検出手段と、 基準画像及び基準画像と重複する部分を持つ画像である
参照画像の画像対に基づいて、基準画像における複数の
特徴点を抽出すると共に、参照画像における特徴点と同
一の箇所を示す対応点を検出する対応検出手段と、 前記撮像手段の姿勢と並進成分、及び特徴点と対応点に
基づいて、各特徴点の3次元位置を算出する3次元位置
計測手段と、 該3次元位置計測手段が計測した各特徴点の3次元位置
が同一平面上にあるものとして各特徴点の3次元位置に
適合する平面の情報を算出する平面算出手段と、 該平面算出手段が算出した平面の情報に基づいて、対象
平面の平面情報を最適化する平面最適化手段と、 各画像対を利用して求めた各特徴点の3次元位置、及び
前記平面最適化手段が最適化した平面の情報に基づい
て、各並進成分及び各3次元位置の拡大係数を算出する
拡大係数算出手段と、 前記撮像手段の姿勢と並進成分、及び前記平面最適化手
段が最適化した平面の情報に基づいて、各画像を任意の
同一画像面に投影して、複数の視点から撮像した画像を
合成する投影手段とを有することを特徴とする画像入力
装置。
6. An image pickup means for picking up an object plane from a plurality of viewpoints so as to partially overlap a reference image which is an image picked up earlier, and detecting an attitude and a translation component of the image pickup means at each image pickup. A plurality of feature points in the reference image are extracted based on the motion detection unit and the image pair of the reference image and the reference image which is an image having a portion overlapping with the reference image; Correspondence detecting means for detecting the corresponding point indicated by the image capturing means; three-dimensional position measuring means for calculating the three-dimensional position of each feature point based on the attitude and translation component of the image capturing means; and the feature point and the corresponding point; Plane calculating means for calculating information of a plane conforming to the three-dimensional position of each feature point, assuming that the three-dimensional position of each feature point measured by the position measuring means is on the same plane; and a plane calculated by the plane calculating means Information A plane optimizing unit for optimizing plane information of the target plane, a three-dimensional position of each feature point obtained by using each image pair, and information on the plane optimized by the plane optimizing unit. A magnification factor calculating means for calculating a magnification factor of each translational component and each three-dimensional position; each image based on information on a plane and a translational component of the imaging means, and a plane optimized by the plane optimizing means. And a projection unit for projecting the image on an arbitrary image plane and combining images captured from a plurality of viewpoints.
【請求項7】 撮像手段を用いて先に撮像した画像であ
る基準画像と一部が重複するように複数の視点から対象
平面を撮像すると共に、各撮像時の前記撮像手段の姿勢
及び並進成分を検出する工程と、 基準画像及び基準画像と重複する部分を持つ画像である
参照画像の画像対に基づいて、基準画像における複数の
特徴点を抽出すると共に、参照画像における特徴点と同
一の箇所を示す対応点を検出する工程と、 前記撮像手段の姿勢と並進成分、特徴点と対応点に基づ
いて、各特徴点の3次元位置を算出する工程と、 計測した各特徴点の3次元位置が同一平面上にあるもの
として各特徴点の3次元位置に適合する平面の情報を算
出する工程と、 各画像対を利用して求めた各特徴点の3次元位置、及び
算出された平面の情報に基づいて、各並進成分及び各3
次元位置の拡大係数を算出する工程と、 前記撮像手段の姿勢と並進成分、及び計算した平面の情
報に基づいて、各画像を任意の同一画像面に投影して、
複数の視点から撮像した画像を合成する工程とを有する
ことを特徴とする画像入力方法。
7. A target plane is imaged from a plurality of viewpoints so that a part of the target plane is overlapped with a reference image which is an image previously picked up by an image pickup means, and a posture and a translation component of the image pickup means at each image pickup. And extracting a plurality of feature points in the reference image based on an image pair of the reference image and the reference image which is an image having a portion overlapping with the reference image, and extracting the same portion as the feature point in the reference image. Detecting the corresponding points indicating the following: calculating the three-dimensional position of each feature point based on the attitude and translational component of the imaging means, the feature points and the corresponding points; and measuring the three-dimensional position of each measured feature point Calculating the information of a plane that conforms to the three-dimensional position of each feature point assuming that they are on the same plane, and the three-dimensional position of each feature point obtained using each image pair, and the Each translation based on information Minute and each 3
Calculating the magnification factor of the dimensional position, and the orientation and translation component of the imaging unit, based on the information of the calculated plane, to project each image to any same image plane,
Synthesizing images captured from a plurality of viewpoints.
【請求項8】 撮像手段を用いて先に撮像した画像であ
る基準画像と一部が重複するように複数の視点から対象
平面を撮像すると共に、各撮像時の前記撮像手段の姿勢
及び並進成分を検出する工程と、 基準画像及び基準画像と重複する部分を持つ画像である
参照画像の画像対に基づいて、基準画像における複数の
特徴点を抽出すると共に、参照画像における特徴点と同
一の箇所を示す対応点を検出する工程と、 前記撮像手段の姿勢と並進成分、特徴点と対応点に基づ
いて、各特徴点の3次元位置を算出する工程と、 計測した各特徴点の3次元位置が同一平面上にあるもの
として各特徴点の3次元位置に適合する平面の情報を算
出する工程と、 各画像対より求めた各々の平面の情報に基づいて、対象
平面の平面情報を最適化する工程と、 各画像対を利用して求めた各特徴点の3次元位置、及び
最適化された平面の情報に基づいて、各並進成分及び各
3次元位置の拡大係数を算出する工程と、 前記撮像手段の姿勢と並進成分、及び最適化された平面
の情報に基づいて、各画像を任意の同一画像面に投影し
て、複数の視点から撮像した画像を合成する工程とを有
することを特徴とする画像入力方法。
8. A target plane is imaged from a plurality of viewpoints so that a part of the target plane is overlapped with a reference image which is an image previously imaged by using an image pickup means, and a posture and a translation component of the image pickup means at each image pickup. And extracting a plurality of feature points in the reference image based on an image pair of the reference image and the reference image which is an image having a portion overlapping with the reference image, and extracting the same portion as the feature point in the reference image. Detecting the corresponding points indicating the following: calculating the three-dimensional position of each feature point based on the attitude and translational component of the imaging means, the feature points and the corresponding points; and measuring the three-dimensional position of each measured feature point Calculating plane information that conforms to the three-dimensional position of each feature point assuming that they are on the same plane, and optimizing plane information of the target plane based on information of each plane obtained from each image pair Process and each drawing A step of calculating a translation component and an expansion coefficient of each three-dimensional position based on the three-dimensional position of each feature point obtained using the pair and information on the optimized plane; Projecting each image on an arbitrary same image plane based on the translation component and the information of the optimized plane, and synthesizing images captured from a plurality of viewpoints. .
JP28397298A 1998-10-06 1998-10-06 Image input device and method Pending JP2000115639A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP28397298A JP2000115639A (en) 1998-10-06 1998-10-06 Image input device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP28397298A JP2000115639A (en) 1998-10-06 1998-10-06 Image input device and method

Publications (1)

Publication Number Publication Date
JP2000115639A true JP2000115639A (en) 2000-04-21

Family

ID=17672625

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28397298A Pending JP2000115639A (en) 1998-10-06 1998-10-06 Image input device and method

Country Status (1)

Country Link
JP (1) JP2000115639A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003178298A (en) * 2001-12-07 2003-06-27 Sony Corp Image processor, image processing method, storage medium and computer program
JP2016001386A (en) * 2014-06-11 2016-01-07 日本電信電話株式会社 Image generation method, image generation device, computer program and recording medium
JP2017518547A (en) * 2014-03-14 2017-07-06 クアルコム,インコーポレイテッド Sensor-based camera motion detection for unconstrained SLAM

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003178298A (en) * 2001-12-07 2003-06-27 Sony Corp Image processor, image processing method, storage medium and computer program
US7426317B2 (en) 2001-12-07 2008-09-16 Sony Corporation Image processing apparatus and image processing method, storage medium and computer program
JP2017518547A (en) * 2014-03-14 2017-07-06 クアルコム,インコーポレイテッド Sensor-based camera motion detection for unconstrained SLAM
JP2016001386A (en) * 2014-06-11 2016-01-07 日本電信電話株式会社 Image generation method, image generation device, computer program and recording medium

Similar Documents

Publication Publication Date Title
EP0782100B1 (en) Three-dimensional shape extraction apparatus and method
US6839081B1 (en) Virtual image sensing and generating method and apparatus
US5706419A (en) Image capturing and processing apparatus and image capturing and processing method
JP4010753B2 (en) Shape measuring system, imaging device, shape measuring method, and recording medium
US20110249117A1 (en) Imaging device, distance measuring method, and non-transitory computer-readable recording medium storing a program
JP2001134751A (en) Method and device for processing image, digital camera, image processing system and recording medium with image processing program recorded thereon
JPH08116490A (en) Image processing unit
JP2011182236A (en) Camera calibration apparatus
JP2004213355A (en) Information processing method
JP3957888B2 (en) Imaging apparatus and captured image composition method
JP4306006B2 (en) Three-dimensional data input method and apparatus
JP2009205193A (en) Image processing apparatus, method, and program
KR20020066219A (en) Imaging system, program used for controlling image data in same system, method for correcting distortion of captured image in same system, and recording medium storing procedures for same method
JP2003279310A (en) Apparatus and method for correcting position and attitude
JP2000134537A (en) Image input device and its method
JP2000028332A (en) Three-dimensional measuring device and method therefor
JP2007033087A (en) Calibration device and method
JP3730450B2 (en) Image input apparatus and image input method
JP4169464B2 (en) Image processing method, image processing apparatus, and computer-readable recording medium
JP4324271B2 (en) Image processing apparatus and method
JP2000115639A (en) Image input device and method
JP2000228748A (en) Image inputting device
JP2821042B2 (en) Image synthesis device
JP3924576B2 (en) Three-dimensional measurement method and apparatus by photogrammetry
JP4451968B2 (en) 3D image input device