JP2000137815A - New viewpoint image generating method - Google Patents

New viewpoint image generating method

Info

Publication number
JP2000137815A
JP2000137815A JP10312139A JP31213998A JP2000137815A JP 2000137815 A JP2000137815 A JP 2000137815A JP 10312139 A JP10312139 A JP 10312139A JP 31213998 A JP31213998 A JP 31213998A JP 2000137815 A JP2000137815 A JP 2000137815A
Authority
JP
Japan
Prior art keywords
image
target object
new viewpoint
captured
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10312139A
Other languages
Japanese (ja)
Inventor
Labo Stephen
ラボー ステファン
Yutaka Ozaki
裕 尾崎
Boromie Philippe
ボロミエ フィリップ
Tenrin Han
天倫 潘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GEN TEC KK
Gentech Co Ltd
Original Assignee
GEN TEC KK
Gentech Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GEN TEC KK, Gentech Co Ltd filed Critical GEN TEC KK
Priority to JP10312139A priority Critical patent/JP2000137815A/en
Publication of JP2000137815A publication Critical patent/JP2000137815A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable easy application to a three-dimensional body which has a complicated surface shape and a complicated texture and further a high-speed process by covering an object body in a photographed image with a triangular area and finding a projection conversion matrix from a three-dimensional space to an image of a new viewpoint. SOLUTION: The projection conversion matrix from the three-dimensional space where the object body 22 is arranged to photographed images 25a to 25c is found by using a calibration box 21. In the box 21, quadrangular or triangular marks 23 are drawn on the floor surface and wall surfaces. The projection conversion matrix includes data, such as the positions, attitudes, and field angles of cameras 24a to 24c, regarding the cameras. All the photographed images 25 are related by specifying reference points at parts showing the shape of the object body 22 and the reference points are used to cover the whole image of the object body 22 with triangular areas. Then the projection conversion matrix to the image of the new viewpoint is found to generate a new-viewpoint image.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、3次元空間にお
ける対象物体の画像生成の技術分野に属する。更に詳細
には、複数の撮影画像を利用して別の視点から見た画像
を生成する技術に関する。
The present invention belongs to the technical field of generating an image of a target object in a three-dimensional space. More specifically, the present invention relates to a technique for generating an image viewed from another viewpoint using a plurality of captured images.

【0002】[0002]

【従来の技術】コンピュータの処理速度の高速化、メモ
リーの大容量化によって近年3次元空間における物体の
画像処理が急速に発展している。例えば、公開特許公報
第平10−27268号に記載されているように、3次
元空間における物体又は風景が視点が変化するにつれて
3次元画像の変化を生成する技術にも利用されている。
このような場合に、3次元物体の表面の全点の3次元座
標及びその点の情報をメモリに記録して、視点が変化し
たときはそれらを演算により求めて表示する方法が単純
で理論的にも明快な方法であると考えられる。しかし、
現状の段階ではメモリ容量、処理時間の関係等から非現
実的である。一方、2次元画像は現状の技術で処理可能
であるが、2次元画像だけからでは視点の変化に対して
物体の形状等が変化した画像を生成することができな
い。
2. Description of the Related Art In recent years, image processing of an object in a three-dimensional space has been rapidly developed due to an increase in a processing speed of a computer and an increase in a memory capacity. For example, as described in Japanese Patent Application Laid-Open No. 10-27268, the technique is used for generating a change in a three-dimensional image as the viewpoint of an object or landscape in a three-dimensional space changes.
In such a case, a simple and theoretical method is to record the three-dimensional coordinates of all points on the surface of the three-dimensional object and information on the points in a memory, and calculate and display them when the viewpoint has changed. It is considered to be a clear method. But,
At the current stage, it is impractical due to the relationship between the memory capacity and the processing time. On the other hand, a two-dimensional image can be processed by the current technology, but it is not possible to generate an image in which the shape or the like of an object changes with respect to a change in viewpoint from only the two-dimensional image.

【0003】そこで、従来は、ある種のバーチャルリア
リティのように、多数の2次元画像を撮影しておき、視
点が変化したときには、視点の変化に対応して撮影画像
を切り換えて見せることにより、3次元空間を体験させ
る技術も開発されている。しかし、この方法は予め、多
数の撮影画像を準備しておく必要があり、準備された画
像により視点の変化が制約されるという欠点があった。
また、画像の電送には多大の時間が必要であり、問題で
あった。
[0003] Therefore, conventionally, a large number of two-dimensional images are photographed, as in a certain kind of virtual reality, and when the viewpoint changes, the photographed image is switched and shown according to the change in the viewpoint. Techniques for experiencing three-dimensional space have also been developed. However, this method has a drawback that it is necessary to prepare a large number of captured images in advance, and the prepared image restricts a change in viewpoint.
In addition, transmission of an image requires a lot of time, which is a problem.

【0004】また、別の従来の方法としては、例えば、
公開特許公報、特開平9−212689に開示されてい
る画像描画装置では、3次元画像、即ち、3次元空間に
おける3次元物体の画像を構成する個々の物体に着目
し、基本的な立体や、それらの位置関係及び立体の表面
の模様を文字等の手段によって記憶し、文字等で記述さ
れた基本形状から実際の3次元形状を生成する方法を採
用している。
Another conventional method is, for example,
The image drawing apparatus disclosed in Japanese Patent Laid-Open Publication No. Hei 9-212689 focuses on a three-dimensional image, that is, an individual object constituting an image of a three-dimensional object in a three-dimensional space, and performs basic three-dimensional image processing. A method is used in which the positional relationship and the three-dimensional surface pattern are stored by means of characters and the like, and an actual three-dimensional shape is generated from a basic shape described by characters and the like.

【0005】しかし、この様な方法は人間の持っている
イメージや概念等を仲介して表現し、記録しているため
複雑な形状の3次元物体や複雑なテクスチャを持つ物体
の画像生成に適用するのは困難である。
However, such a method is applied to the generation of an image of a three-dimensional object having a complicated shape or an object having a complicated texture because the method expresses and records the images and concepts of human beings. It is difficult to do.

【0006】[0006]

【発明が解決しようとする課題】この発明は、上述のよ
うな背景の下になされたもので、3次元画像の距離情報
を客観的な手段で表現でき、複雑な表面形状や複雑なテ
クスチャをもつ3次元物体にも容易に適用でき、かつ、
従来の方法に比べて簡単な3次元モデルを構成するだけ
で高速処理が可能な3次元画像生成方法及び装置を提供
することを課題としている。本出願人は上記課題を解決
するために、特許出願(平成10年第227069号)
において、既に幾つかの解決手段を提案している。本発
明は前記解決手段に追加する解決手段、改良した解決手
段及び新たな解決手段を提供するものである。
SUMMARY OF THE INVENTION The present invention has been made under the above-described background, and can express distance information of a three-dimensional image by objective means, and can express a complicated surface shape or a complicated texture. It can be easily applied to three-dimensional objects with
It is an object of the present invention to provide a method and an apparatus for generating a three-dimensional image, which can perform high-speed processing only by constructing a simple three-dimensional model as compared with a conventional method. The present applicant has filed a patent application (1998 No. 227069) to solve the above problems.
Have already proposed several solutions. The present invention provides additional, improved, and new solutions to the above solutions.

【0007】[0007]

【課題を解決するための手段】上記課題を解決するため
に本発明は以下の手段を採用している。即ち、請求項1
に記載の発明は、3次元空間における対象物体を複数の
異なる視点から撮影した画像に基づいて新視点から見た
該対象物体の画像を生成する方法であって、前記対象物
体が配置された3次元空間から撮影画像への射影変換行
列を求める第1工程と、撮影された対象物体の形状等を
表す部分に点を指定し、前記複数の撮影画像上で該対象
物体の同じ点を指定している各撮影画像の点同士を対応
づける第2工程と、前記対応づけられた点のうち3個の
点を指定して3角形領域を形成し、前記撮影画像の前記
対象物体を該3角形領域でカバーする第3工程と、前記
3次元空間から新視点の画像への射影変換行列を求める
第4工程と、前記第1工程〜第4工程によって得られた
データに基づいて新視点の画像を生成する第5工程とを
含む画像生成方法において、前記第2工程はエピ極線上
の点を相関を利用して探索し、対応点を自動的に抽出す
ることを特徴としている。請求項1に記載の発明は最初
の撮影画像に参照点を指定すれば、残りの他の撮影画像
については自動的に対応した参照点が付与されることを
1つの特徴としている。
The present invention employs the following means to solve the above-mentioned problems. That is, claim 1
The invention described in the above is a method of generating an image of a target object viewed from a new viewpoint based on images of the target object in a three-dimensional space taken from a plurality of different viewpoints, wherein the target object is arranged in a 3D space. A first step of obtaining a projection transformation matrix from a dimensional space to a captured image, designating a point in a portion representing the shape or the like of the captured target object, and specifying the same point of the target object on the plurality of captured images A second step of associating the points of each captured image with each other, and specifying three points among the associated points to form a triangular area, and defining the target object of the captured image as the triangle. A third step of covering an area, a fourth step of obtaining a projection transformation matrix from the three-dimensional space to an image of a new viewpoint, and an image of a new viewpoint based on the data obtained in the first to fourth steps. Generating method including generating a fifth image Oite, the second step is characterized in that searching by using the correlation points epipolar line, automatically extracting corresponding points. The invention according to claim 1 is characterized in that, if a reference point is specified for the first captured image, the corresponding reference point is automatically given to the remaining other captured images.

【0008】請求項2に記載の発明は、前記した画像生
成方法において、第5工程は前記撮影画像を選択し、該
選択された撮影画像のテクスチャをホモグラフィ変換を
利用した逆ワーピングにより新視点画像にテクスチャを
ワーピングする工程を含むことを特徴としている。
According to a second aspect of the present invention, in the image generation method described above, the fifth step is to select the photographed image and to apply a new viewpoint to the texture of the selected photographed image by inverse warping using homography conversion. The method is characterized by including a step of warping a texture in the image.

【0009】請求項3に記載の発明は、請求項2に記載
の発明において、前記ホモグラフィ変換は、ゲンテック
方式を利用して変換行列を求めることを特徴としてい
る。本発明は正確で安定な解が得られるゲンテック方式
を採用したことを1つの特徴としている。
A third aspect of the present invention is characterized in that, in the second aspect of the present invention, the homography conversion obtains a conversion matrix using a Gentech method. One of the features of the present invention is that a gentech method that can obtain an accurate and stable solution is adopted.

【0010】請求項4に記載の発明は、前記した画像生
成方法において、第5工程は各3角形領域についてソー
テングを行って、不可視の領域が新視点画像面に表れな
いようにしたことを特徴としている。本発明は不可視の
画像を見えないようにしたことを1つの特徴としてい
る。
According to a fourth aspect of the present invention, in the above-described image generation method, the fifth step performs sorting on each of the triangular regions so that an invisible region does not appear on the new viewpoint image plane. And One feature of the present invention is that an invisible image is made invisible.

【0011】請求項5に記載の発明は、請求項4に記載
の発明において、前記ソーテングは、バウンデイングボ
ックスを利用して不可視の領域が表れないようにしたこ
とを特徴としている。本発明はバウンデイングボックス
を利用して、ソーテングを簡易化したことを1つの特徴
としている。
A fifth aspect of the present invention is characterized in that, in the fourth aspect of the invention, the sorting uses a bounding box so that an invisible area does not appear. One feature of the present invention is that the sorting is simplified by using a bounding box.

【0012】請求項6に記載の発明は、請求項4又は請
求項5記載の発明において、前記ソーテング工程の前又
は後において、バックフェースカリングを行ったことを
特徴としている。本発明は視点からみて3角形領域の表
面が見えない場合はワーピングをしないことを1つの特
徴としている。
According to a sixth aspect of the present invention, in the fourth or fifth aspect of the invention, back face culling is performed before or after the sorting step. One feature of the present invention is that no warping is performed when the surface of the triangular area cannot be seen from the viewpoint.

【0013】請求項7に記載の発明は、前記した画像生
成方法において、第1工程は、前記撮影画像が3枚以上
の場合にバンドル調整法による射影変換行列の修正工程
を含むことを特徴としている。本発明は全ての撮影画像
間の変換が一致するように調整したことを1つの特徴と
している。
According to a seventh aspect of the present invention, in the above-described image generating method, the first step includes a step of correcting a projection transformation matrix by a bundle adjustment method when the number of the photographed images is three or more. I have. One feature of the present invention is that the conversion between all captured images is adjusted to match.

【0014】[0014]

【発明の実施形態】図1は本発明の実施形態のアルゴリ
ズムの全体のフローチャートである。図2はキャリブレ
ーションボックスと撮影画像の配置関係を示した図であ
る。図3はエピ曲線の例を示した図である。図4は相関
を利用して対応点の自動探索法を示した図である。図5
は撮影画像の物体を3角形領域でカバーした例を示した
図である。図6はステップS50の詳細内容を示したフ
ローチャートである。図7〜図9はバウンデイングボッ
クスを使用したソーテングの方法を説明したフローチャ
ート及び説明図である。図10はバックフェースカリン
グを説明した図である。図11及び図12はバックフェ
ースかリングの具体例を示した図である。図13はホモ
グラフィック変換によるワーピングを説明するための図
である。図14〜図16はバンドル調整を説明した図で
ある。以下、図面を参照してこの発明の実施形態につい
て説明する。
FIG. 1 is an overall flowchart of an algorithm according to an embodiment of the present invention. FIG. 2 is a diagram illustrating an arrangement relationship between the calibration box and the captured image. FIG. 3 is a diagram showing an example of an epi curve. FIG. 4 is a diagram showing an automatic search method for corresponding points using correlation. FIG.
FIG. 4 is a diagram showing an example in which an object of a captured image is covered by a triangular region. FIG. 6 is a flowchart showing the details of step S50. 7 to 9 are a flowchart and an explanatory diagram illustrating a sorting method using a bounding box. FIG. 10 is a diagram illustrating back face culling. 11 and 12 are diagrams showing specific examples of the back face or the ring. FIG. 13 is a diagram for explaining warping by homographic conversion. 14 to 16 are diagrams illustrating the bundle adjustment. Hereinafter, embodiments of the present invention will be described with reference to the drawings.

【0015】図1を参照して本実施形態の方法の全体手
順を説明する。まず、ステップS10は、図2に示すよ
うに、対象物体22が配置された3次元空間から撮影画
像25(25a〜25c)への射影変換行列を求める第
1工程で、キャリブレーションボックス21を利用す
る。即ち、3次元空間に置かれたキャリブレーションボ
ックス21には、床面及び壁面に4角形又は3角形等の
複数の目印22が描かれている。目印の4角形等の頂点
の座標は3次元空間において規定された既知の3次元座
標(X、Y、Z)を持っている。各撮影画像25a〜2
5cには対象物体22と共にキャリブレーションボック
ス21の目印23が撮影されている。
The overall procedure of the method according to the present embodiment will be described with reference to FIG. First, as shown in FIG. 2, the calibration box 21 is used in a first step of obtaining a projection transformation matrix from the three-dimensional space in which the target object 22 is arranged to the photographed image 25 (25a to 25c), as shown in FIG. I do. That is, in the calibration box 21 placed in the three-dimensional space, a plurality of marks 22 such as a square or a triangle are drawn on the floor surface and the wall surface. The coordinates of the vertices of the mark, such as a quadrangle, have known three-dimensional coordinates (X, Y, Z) defined in a three-dimensional space. Each photographed image 25a-2
5c, the mark 23 of the calibration box 21 is photographed together with the target object 22.

【0016】次に、3次元空間から各撮影画像への射影
変換行列の求め方について説明する。まず、撮影画像2
5aについて射影変換行列を求める。指定された目印点
13の3次元座標(X、Y、Z)及び撮影画像25aの
対応する目印点の2次元座標(x、y)を読みとる。指
定された目印点(少なくとも6個以上)の3次元座標、
2次元座標を読みとったら、これらの座標データから射
影変換行列は6個の連立方程式を解くことにより(又は
目印点が6個以上の場合には最小二乗法を利用した演算
により)求められる。この演算方法は公知であり、従来
技術を利用して求める。
Next, a method of obtaining a projection transformation matrix from a three-dimensional space to each photographed image will be described. First, photographed image 2
A projection transformation matrix is obtained for 5a. The three-dimensional coordinates (X, Y, Z) of the designated landmark point 13 and the two-dimensional coordinates (x, y) of the corresponding landmark point of the captured image 25a are read. The three-dimensional coordinates of the specified landmark points (at least 6 or more),
When the two-dimensional coordinates are read, a projective transformation matrix is obtained from these coordinate data by solving six simultaneous equations (or, if there are six or more landmark points, by an operation using the least squares method). This calculation method is publicly known, and is determined by using a conventional technique.

【0017】この射影変換行列にはカメラ24aの位
置、姿勢、画角等のカメラに関するデータが全て含まれ
ている。求めた射影変換行列はメモリに記録する。他の
残りの撮影画像25b、25cについても同様にして射
影変換行列を求め記録する。なお、指定する目印点の数
が多いほど正確な射影変換行列が求められる。また、任
意の視点から見た画像を計算で生成させるためには一対
の画像だけでは不十分であり、対象物体のいろんな角度
から見た撮影画像を用意しておくことが望ましい。この
場合に各撮影画像を首尾一貫したものにするためには射
影変換行列をバンドル調整によって調整しておく必要が
ある。バンドル調整の方法については後述する。
The projection transformation matrix includes all data relating to the camera, such as the position, attitude, and angle of view of the camera 24a. The obtained projective transformation matrix is recorded in the memory. For the other remaining captured images 25b and 25c, a projection transformation matrix is similarly obtained and recorded. The more the number of designated mark points, the more accurate the projection transformation matrix is obtained. Further, in order to generate an image viewed from an arbitrary viewpoint by calculation, it is not sufficient to use only a pair of images, and it is desirable to prepare captured images of the target object viewed from various angles. In this case, in order to make each captured image consistent, it is necessary to adjust the projection transformation matrix by bundle adjustment. The method of adjusting the bundle will be described later.

【0018】ステップS20(第2工程)では全ての撮
影画像について、対象物体の形状を表す部分に点(以
下、参照点という)を指定する。各撮影画像について参
照点の対応付けを行うことにより、各撮影画像は関連づ
けられる。この関連づけにより、新視点から見た画像と
任意の撮影画像との関係が定められ、新視点画像の生成
に撮影画像のピクセルデータが利用できる。なお、各撮
影画像上の参照点は3次元物体上の同じ点を指してい
る。撮影画像の参照点の指定は2番目以降の撮影画像に
ついては、以下に説明するように相関を利用して自動的
に指定することもできる。
In step S20 (second step), a point (hereinafter, referred to as a reference point) is designated in a portion representing the shape of the target object for all the captured images. By associating a reference point with each photographed image, each photographed image is associated. By this association, a relationship between an image viewed from the new viewpoint and an arbitrary captured image is determined, and pixel data of the captured image can be used to generate a new viewpoint image. Note that the reference point on each captured image points to the same point on the three-dimensional object. The reference point of the captured image can be automatically specified for the second and subsequent captured images using the correlation as described below.

【0019】まず、図3に示すように、撮影画像のうち
任意の1個(以下、第1撮影画像という)をディスプレ
イに表示し、対象物体の形状を表す部分の参照点Piを
マウス(ライトペン等を使用してもよい)で指定する。
指定する参照点Piは、対象物体のエッジ及びコーナ
部、目立つテクスチャやその切れ目、対象物体の突起部
の頂点や凹み部分等の画像の特定が容易な点を指定する
のが好ましい。また、参照点は後述する第3工程の対象
物体の撮影画像を分割する基点となるものである。第1
画像の参照点は上記の事項を目安にしてオペレータが指
定する。
First, as shown in FIG. 3, an arbitrary one of the photographed images (hereinafter, referred to as a first photographed image) is displayed on a display, and a reference point Pi of a portion representing the shape of the target object is indicated by a mouse (light). (A pen or the like may be used.)
The reference point Pi to be specified is preferably a point at which an image can be easily specified, such as an edge and a corner portion of a target object, a noticeable texture or a cut thereof, a vertex or a concave portion of a projection of the target object, or the like. The reference point is a base point for dividing a captured image of the target object in a third step described later. First
The reference point of the image is specified by the operator using the above items as a guide.

【0020】次に、2枚目の撮影画像を選択して表示す
る(以下、第2撮影画像という)。表示は最初の画像と
一緒に表示するのが望ましい。なお、自動的に抽出する
場合は表示は必ずしも必要ではない。第1撮影画像の参
照点Pi(図3参照)から第2画像の対応点Qiを求め
る。参照点Piと参照点Qiは対象物体上の同じ点を指し
ている。従って、参照点Qiは参照点Piのエピ極線Ei
上にあることが知られている。エピ曲線Eiは参照点P
iとQiが対象物体の同一点であるための拘束条件(エピ
ポーラ拘束)から導かれる直線関係である。従って、参
照点Qiはエピ極線Ei上になければならない。参照点Q
iを決定するために、図4に示すように、参照点Piの近
傍領域のデータ(ピクセルデータ)とエピ極線Ei上の
点Qi(1)、Qi(2)、・・・、Qi(n)の近傍領
域のデータとの相関を計算し、相関が最大になる点を参
照点Qiと定める。
Next, a second photographed image is selected and displayed (hereinafter, referred to as a second photographed image). The display is preferably displayed together with the first image. In addition, when extracting automatically, display is not necessarily required. The corresponding point Qi of the second image is obtained from the reference point Pi of the first captured image (see FIG. 3). The reference point Pi and the reference point Qi point to the same point on the target object. Therefore, the reference point Qi is the epipolar Ei of the reference point Pi.
It is known to be on. The epi curve Ei is the reference point P
This is a linear relationship derived from a constraint condition (epipolar constraint) for i and Qi being the same point of the target object. Therefore, the reference point Qi must be on the epipolar line Ei. Reference point Q
In order to determine i, as shown in FIG. 4, data (pixel data) in the vicinity of the reference point Pi and points Qi (1), Qi (2),. The correlation with the data in the neighboring area of n) is calculated, and the point at which the correlation becomes maximum is determined as a reference point Qi.

【0021】次に、3番目の撮影画像(以下、第3画像
という)に対しては以下のようにして参照点を決定する
ことができる。まず、1番目及び2番目の撮影画像の射
影変換行列と上記で求めた参照点の座標データを用いて
演算により3次元空間の対応点(対象物体上の点)の座
標(X、Y、Z)を求める。この対象物体上の点の座標
に対して第3撮影画像の射影変換行列を適用することに
より第3撮影画像の参照点が求められる。以下、同様に
して、4番目以降の撮影画像に対しては計算により参照
点を決定することができる。以上の手続きを繰り返し、
全ての参照点を決定する。
Next, a reference point can be determined for a third captured image (hereinafter, referred to as a third image) as follows. First, the coordinates (X, Y, Z) of the corresponding point (point on the target object) in the three-dimensional space are calculated by using the projection transformation matrices of the first and second captured images and the coordinate data of the reference point obtained above. ). The reference point of the third captured image is obtained by applying the projection transformation matrix of the third captured image to the coordinates of the point on the target object. Hereinafter, similarly, the reference point can be determined by calculation for the fourth and subsequent captured images. Repeat the above procedure,
Determine all reference points.

【0022】ステップS30(第3工程)は各撮影画像
における対象物体の画像を3角形領域でカバーする。即
ち、ステップS20で求めた参照点を利用して対象物体
の画像全体を3角形領域でカバーする。この3角形領域
についても各撮影画像間で対応づけられている。各撮影
画像において、対象物体は複数の3角領域を接続して合
成したものとしてみなされる。即ち、各3角形領域はそ
の頂点を通過する平面とみなされ、この平面には撮影画
像の対応するテクスチャが与えられている。また、各頂
点は対応する3次元空間における点の座標が与えられて
おり、3次元空間の対象物体の曲面を複数の平面3角形
を接続した折れ平面で近似し、そのテクスチャは撮影画
像に表されているテクスチャを持っているとみなす。以
上の3角形領域のカバーリングは全ての撮影画像につい
て行われ、各3角形領域は参照点と共に各撮影画像間で
対応ずけられて、そのデータはメモリに記録されてい
る。
In step S30 (third step), the image of the target object in each captured image is covered with a triangular area. That is, the entire image of the target object is covered with the triangular area using the reference points obtained in step S20. This triangular area is also associated between the captured images. In each captured image, the target object is regarded as a combination of a plurality of triangular regions connected to each other. That is, each triangular area is regarded as a plane passing through its vertex, and this plane is given a corresponding texture of the captured image. Each vertex is given the coordinates of a point in the corresponding three-dimensional space, and the curved surface of the target object in the three-dimensional space is approximated by a polygonal plane connecting a plurality of plane triangles, and the texture is represented in the captured image. Assume that you have a texture that is The above-described covering of the triangular region is performed for all the photographed images, and each triangular region is associated with each reference image along with the reference point, and the data is recorded in the memory.

【0023】図5は撮影画像で表されている対象物体を
3角形領域で分割し、カバーした1例を示している。3
角形領域の分割の指定は対象物体の表面形状が正確に近
似され、かつ、3角形領域の個数が少ないのが望まし
い。従って、平面部分は大きな3角形で指定し、曲面部
分は小さな3角形で指定する。3角形の指定は、後の処
理を容易にするため重ならないように指定する。また、
指定された3角形領域では対象物体の表面形状を正確に
再現していない場合、例えば3角形領域が大きすぎた
り、指定が不適切な場合には参照点を追加し、若しくは
変更することも可能である。図5は缶の画像について行
った例である。
FIG. 5 shows an example in which a target object represented by a photographed image is divided and covered by a triangular area. 3
It is preferable that the designation of the division of the polygonal region is such that the surface shape of the target object is accurately approximated and the number of the triangular regions is small. Therefore, a plane portion is designated by a large triangle, and a curved surface portion is designated by a small triangle. Triangles are specified so as not to overlap to facilitate later processing. Also,
If the specified triangular area does not accurately reproduce the surface shape of the target object, for example, if the triangular area is too large or incorrectly specified, a reference point can be added or changed. It is. FIG. 5 is an example performed on an image of a can.

【0024】ステップS40(第4工程)では新視点に
おける角度又は位置を求め、さらに、新視点における画
像への射影変換行列を求める。まず、回転角度又は位置
を求める。これはキーボード6から数値データを入力し
てもよいが、マウス7のドラッグした距離(クリックを
押しながら移動した距離)によって与えてもよい。
In step S40 (fourth step), the angle or position at the new viewpoint is determined, and a projection transformation matrix for the image at the new viewpoint is determined. First, the rotation angle or position is determined. This may be input by numerical data from the keyboard 6 or may be given by the dragged distance of the mouse 7 (the distance moved while pressing the click).

【0025】回転角度は基準のカメラアングル、例えば
1番目の撮影画像のカメラアングルを基準とする。即
ち、1番目のカメラの視点と3次元空間の原点と結ぶ直
線の水平角度及び垂直角度を共に基準に選び、ゼロとす
る。その固定された基準アングルから計測し、停止した
場合はその回転角度をメモリに記録し、再度ドラッグし
た場合はそのドラッグ距離に応じた回転角度を追加す
る。得られた角度から、対応する回転行列を演算によっ
て求め、この回転行列を基準とする撮影画像に対する射
影変換行列に作用させて、新視点画像の射影変換行列を
得る。
The rotation angle is based on a reference camera angle, for example, the camera angle of the first captured image. That is, both the horizontal angle and the vertical angle of the straight line connecting the viewpoint of the first camera and the origin of the three-dimensional space are selected as a reference and set to zero. The rotation angle is measured from the fixed reference angle, and when stopped, the rotation angle is recorded in the memory, and when dragged again, the rotation angle corresponding to the drag distance is added. From the obtained angle, a corresponding rotation matrix is obtained by calculation, and the rotation matrix is applied to a projection transformation matrix for a captured image to obtain a projection transformation matrix of the new viewpoint image.

【0026】ステップS50は新視点画像を生成するレ
ンダリング工程(第5工程)である。この工程の詳細を
図6に示す。ステップS51では新視点画像の参照点を
決定するために、2個の撮影画像を選択する。このた
め、新視点のカメラ光軸を求める。カメラ光軸は、新視
点画像の結像面とカメラの焦点面とに垂直な直線で光心
(レンズの中心点に相当する点)を通る直線をいう。各
撮影画像の視点と求めたカメラ光軸との距離を計算し、
距離の最も小さい2個の撮影画像を選択する。
Step S50 is a rendering step (fifth step) of generating a new viewpoint image. FIG. 6 shows the details of this step. In step S51, two captured images are selected to determine a reference point of the new viewpoint image. Therefore, the camera optical axis of the new viewpoint is obtained. The camera optical axis refers to a straight line that passes through the optical center (a point corresponding to the center point of the lens) with a straight line perpendicular to the imaging plane of the new viewpoint image and the focal plane of the camera. Calculate the distance between the viewpoint of each captured image and the calculated camera optical axis,
The two photographed images having the shortest distance are selected.

【0027】ステップS52では選択された2個の撮影
画像のデータから対応する参照点及び対応する3角形頂
点のデータを求める。対応する参照点を求める演算方法
には例えば以下の方法がある。即ち、2個の撮影画像に
対する射影変換行列と対応する参照点座標を利用する方
法がある。また、2つの撮影画像のデータから2本のエ
ピ極線を生成させて、それらの交点から求める方法があ
る。更に、トリフオーカルテンソルを利用する方法もあ
る。本実施形態では第1番目の方法を採用するが、他の
方法を使用する場合も本発明の範囲に属する。
In step S52, corresponding reference points and corresponding triangle vertex data are obtained from the data of the two selected photographed images. For example, there are the following methods for calculating the corresponding reference point. That is, there is a method of using a projective transformation matrix for two captured images and corresponding reference point coordinates. There is also a method in which two epipolar lines are generated from data of two captured images, and the epipolar lines are obtained from their intersection. Further, there is a method using a trifocal tensor. In the present embodiment, the first method is adopted, but the case where another method is used also belongs to the scope of the present invention.

【0028】第1番目の方法は、2個の射影変換行列と
対応する参照点座標から3次元空間における対象物体上
の対応点の3次元座標を求め、求めた点に新視点画像の
射影変換行列を作用させて新視点画像の参照点を求める
方法である。なお、3次元空間における対象物体上の対
応点を予め求めておいて、記録しておき、これを利用し
てもよい。
In the first method, three-dimensional coordinates of a corresponding point on a target object in a three-dimensional space are obtained from two projective transformation matrices and corresponding reference point coordinates. This is a method of obtaining a reference point of a new viewpoint image by applying a matrix. Note that the corresponding points on the target object in the three-dimensional space may be obtained in advance, recorded, and used.

【0029】次に、ステップS53では、得られた参照
点と、選択された1個の撮影画像(光軸との距離が最小
の撮影画像を選択する。)の3角形頂点データとから対
応する新視点画像の3角形領域を求める。求めた3角領
域と新参照点データを同じインデックスを付して新3角
形頂点データ共にメモりに記録する。
Next, in step S53, the obtained reference point corresponds to the triangle vertex data of one selected photographed image (a photographed image having a minimum distance from the optical axis is selected). A triangular area of the new viewpoint image is obtained. The obtained triangular area and the new reference point data are assigned the same index and recorded together with the new triangular vertex data in a memory.

【0030】ステップS54では隠面処理のためのソー
テングを行う。このソーテングにおいては、本発明にお
ける三角形領域の形成方法から図7(A)又は(B)に
示すような三角形領域が交叉する場合は生じない。図7
(A)は3つの3角形が相互に前後関係にある場合であ
り、図7(B)は2つの3角形が部分的に前後関係にあ
る場合である。ソーテングを行うためには2個の3角形
領域の前後関係を調べることが必要であり、ソーテング
のための前後関係を調べる手段としてバウンデイングボ
ックス(以下、BBと記す)を利用する。
In step S54, sorting for hidden surface processing is performed. In this sorting, the case where the triangular regions intersect as shown in FIG. 7A or 7B does not occur due to the method of forming the triangular regions in the present invention. FIG.
FIG. 7A shows a case where three triangles are in a front-rear relationship with each other, and FIG. 7B shows a case where two triangles are partially in a front-rear relationship. In order to perform sorting, it is necessary to check the context of two triangular regions, and a bounding box (hereinafter referred to as BB) is used as a means for examining the context for sorting.

【0031】BBは、図7(C)に示すように、3角形
の頂点のx座標の最小値、y座標の最小値を(x、y)
座標とする点Sと、3角形の頂点のx座標の最大値、y
座標の最大値を(x、y)座標とする点Tを角点とする
矩形として定義する。同様にして、3角形の頂点のz座
標の最小値と最大値とで定まるz座標の範囲(z最小
値、z最大値)を3角形のz範囲と定義する。ここにお
けるz座標は3次元空間における光心と各頂点の間の距
離を使用する。
BB indicates the minimum value of the x coordinate and the minimum value of the y coordinate of the vertex of the triangle as (x, y) as shown in FIG.
Point S to be coordinated, maximum value of x-coordinate of triangle vertex, y
It is defined as a rectangle having a point T at which the maximum value of the coordinates is (x, y) coordinates as a corner point. Similarly, the range of the z coordinate (z minimum value, z maximum value) determined by the minimum value and the maximum value of the z coordinate of the vertex of the triangle is defined as the z range of the triangle. The z coordinate here uses the distance between the optical center and each vertex in the three-dimensional space.

【0032】まず、新視点画像における3角形の中から
任意の2個の3角形を選び、隠面処理のための2個の3
角形の前後関係を調べる手順を図8に示す。図8におい
て、ステップS1では2個の3角形についてBBを求め
る。ステップS2は2個のBBがオーバラップするか否
かを調べる。オーバラップする場合には、ステップS3
で2個の3角形についてz範囲を調べる。BBがオーバ
ラップしない場合(ステップS4)は描く順序は独立で
あり、どちらを先に描いてもよい。
First, any two triangles are selected from among the triangles in the new viewpoint image, and two triangles for hidden surface processing are selected.
FIG. 8 shows a procedure for examining the context of a square. In FIG. 8, in step S1, BB is obtained for two triangles. A step S2 checks whether or not the two BBs overlap. If they overlap, step S3
To check the z range for two triangles. If the BBs do not overlap (step S4), the drawing order is independent, and either one may be drawn first.

【0033】ステップS5ではz範囲がオーバラップす
るかどうかを調べる。オーバラップしない場合は、ステ
ップ6で処理Aを行う。処理Aは詳細な検討をせずにz
座標の大きい方の3角形領域を先に描くように順序をつ
ける。z範囲がオーバラップする場合は(x、y)平面
における2個の3角形の頂点のうち、共有する頂点の個
数を調べる。共有する頂点がない場合は、図9に示す
(A)〜(C)の場合であり、処理Bを行う。
In step S5, it is checked whether or not the z ranges overlap. If they do not overlap, processing A is performed in step 6. Processing A is performed without further consideration.
The order is set so that the triangular area having the larger coordinates is drawn first. When the z ranges overlap, the number of vertices shared among the two triangular vertices in the (x, y) plane is checked. The case where there is no shared vertex is the case of (A) to (C) shown in FIG.

【0034】処理Bでは、一方の3角形が他方の3角形
の内部にあるかどうかを調べ、内部にある場合は図
(A)の場合に相当する。この場合は2個の3角形のz
座標の前後関係を調べ、後方にある3角形を先に描く
(或いは省略する)。内部にない場合は更に、両3角形
の辺の線分が交叉するものがあるかどうかを調べる。交
叉する線分がない場合は図(B)に相当し、描く順序は
独立である。交叉する線分がある場合は図(C)に相当
する。この場合は、交点の前後関係を調べ、後方にある
3角形を先に描く。
In the process B, it is checked whether or not one triangle is inside the other triangle, and if it is inside, it corresponds to the case of FIG. In this case, two triangular z
The coordinates are checked before and after, and the rear triangle is drawn first (or omitted). If it is not inside, it is further checked whether there is any intersection of the line segments on both sides of the triangle. The case where there is no intersecting line segment corresponds to the diagram (B), and the drawing order is independent. The case where there is an intersecting line segment corresponds to FIG. In this case, the anteroposterior relationship of the intersection is examined, and the triangle behind is drawn first.

【0035】1個の頂点を共有する場合はステップ12
で処理Cを行う。処理Cでは辺の線分が交叉するかどう
かを調べ、交叉しない場合は図(D)に相当し、描く順
序は独立である。交叉する場合は図(E)に相当し、交
点の前後関係を調べ、後方にある3角形を先に描く。2
個の頂点を共有する場合は共通線分の同じ側にあるかど
うかを調べ、同じ側にない場合は図(F)に相当し、描
く順序は独立である。同じ側にある場合は交叉する線分
の交点の前後関係を調べ、後方にある方を先に描く。以
上に述べた手順により2個の3角形の描く順序関係が与
えられる。これを新視点画像における3角形領域の全て
の組み合わせについて行う。
If one vertex is shared, step 12
The process C is performed. In the process C, it is checked whether or not the line segments intersect. If the line segments do not intersect, this corresponds to FIG. 9D, and the drawing order is independent. In the case of crossing, it corresponds to the diagram (E). The front-back relationship of the crossing point is checked, and the triangle behind is drawn first. 2
If the vertices are shared, it is checked whether they are on the same side of the common line segment. If they are not on the same side, this corresponds to FIG. 11F, and the drawing order is independent. If they are on the same side, check the anteroposterior relationship of the intersections of the intersecting line segments, and draw the rear one first. According to the above-described procedure, the order of drawing two triangles is given. This is performed for all combinations of triangular regions in the new viewpoint image.

【0036】ステップS55ではバックフェースカリン
グを行う。バックフェースカリングとは、3角形領域が
カメラの焦点F(図10参照)からみて裏面を表してい
る場合には3角形領域のテクスチャのワーピングを省略
することをいう。即ち、新視点におけるカメラ焦点から
見て表面を表していない部分にはピクセルデータをワー
ピングしないで処理速度を速めるための操作である。図
11に示すように、凸面体の対象物体について、撮影画
像Aから新視点画像を生成する場合について考える。立
方体の対象物体ABCDEFGHの面ABCDにはハー
ト17が、面CDHGにはダイヤ18が、面ADHEに
はスペード19が描かれている。まず、バックフェース
カリングなしの場合は、最初に、図(B)のように、一
番遠くにある3角形領域EGHのワーピングが行われ、
スペード19の一部19aとダイヤ18の一部18aが
ワーピングされる。また、3角形領域EFGについてワ
ーピングが行われる。同様に、面ABFEの3角形領
域、面BCGFの3角形領域(図示されていない)につ
いても行われる。その後から、手前の面AEHD、面C
DHG及び面ABCDに指定されている3角形領域(図
示省略)についてワーピングが行われて、図(C)に示
すようにハート17,ダイヤ18及びスペード19が上
描きされる。すなわち、矢印の、の順にワーピング
される。一方、バックフェースカリングをして新視点画
像を生成する場合には、直接図(C)のように、ハート
17、ダイヤ18及びスペード19がワーピングされ、
手順は矢印のみとなる。従って、この場合は結果とし
て同じ新視点画像が得られる。即ち、バックフェースカ
リングは処理時間を速めるという効果が得られる。
In step S55, back face culling is performed. Back face culling refers to omitting texture warping of the triangular area when the triangular area represents the back side when viewed from the focal point F of the camera (see FIG. 10). In other words, the operation is to increase the processing speed without warping the pixel data in a portion that does not represent the surface when viewed from the camera focus at the new viewpoint. As shown in FIG. 11, consider a case where a new viewpoint image is generated from a captured image A for a convex target object. The heart 17 is drawn on the surface ABCD, the diamond 18 is drawn on the surface CDHG, and the spade 19 is drawn on the surface ADHE of the cubic target object ABCDEFGH. First, in the case without back face culling, first, the farthest triangular area EGH is warped as shown in FIG.
A part 19a of the spade 19 and a part 18a of the diamond 18 are warped. In addition, warping is performed on the triangular area EFG. Similarly, this is also performed for a triangular area of the plane ABFE and a triangular area (not shown) of the plane BCGF. After that, the front AEHD, front C
Warping is performed on a triangular area (not shown) specified in the DHG and the plane ABCD, and the heart 17, the diamond 18, and the spade 19 are overwritten as shown in FIG. That is, warping is performed in the order of arrows. On the other hand, when a new viewpoint image is generated by back face culling, the heart 17, the diamond 18 and the spade 19 are directly warped as shown in FIG.
The procedure is only an arrow. Therefore, in this case, the same new viewpoint image is obtained as a result. That is, the back face culling has the effect of shortening the processing time.

【0037】対象物体が凹面体、例えば、コップや皿等
の場合は、上記と異なる。図12に示すようにコップ1
6の内面17が新視点画像に表れる場合にはバックフェ
ースカリングをしないと内面の模様または色が描かれ、
バックフェースカリングをするとこの部分17はワピー
ングされないので黒(模様ではなく、ピクセルデータが
ない)として表される。従って、コップのように内面が
見えるものはバックフェースカリングしない方が実際の
画像とよりよく一致する。
When the target object is a concave body, for example, a glass or a dish, the above is different. Cup 1 as shown in FIG.
When the inner surface 17 of 6 appears in the new viewpoint image, the inner surface pattern or color is drawn unless back face culling is performed,
When the back face culling is performed, this portion 17 is not warped, so that it is represented as black (not a pattern and no pixel data). Therefore, what looks like an inner surface like a glass better matches the actual image without backface culling.

【0038】新視点画像における各3角形領域が表面で
あるか裏面であるかの判断は以下のように行う。図10
において、3角形10は3次元空間における対象物体上
の3角形ABCとする。頂点A、B、Cの座標は既知で
あり、その番号を反時計方向に増大するように13,1
4,15と付すとすれば、3角形10を平面として、そ
の任意の頂点A(又はB、C)の法線ベクトルnは容易
に求められる。また、この法線ベクトルnは3角形10
内の任意の点における法線ベクトルと方向及び向きは一
致している。カメラの焦点Fとし、画像12上の点Aの
像を点aとし、点Fから点aへのベクトルをuとする。
ベクトルnとベクトルuのなす狭角θが−90度<θ<
90度であるかθが90度<θ<180度であるか、即
ち、3角形10の表面が焦点Fから見えるかどうかの判
定はベクトルuとnの内積W=u・nを計算すればよ
い。内積Wが3角形10の表面が画像12に表れるかど
うかはすぐに判定できる。内積Wが正であれば、−90
度<θ<90度で3角形10の表面は見えず、バックフ
ェースカリングを行う。内積Wが負であれば3角形10
の表面は焦点Fから見える。なお、3角形10は平面3
角形と仮定しているので表面一部が見えて、表面の他の
一部が陰に隠れるということは起こらない。
The determination as to whether each triangular region in the new viewpoint image is the front surface or the back surface is performed as follows. FIG.
, The triangle 10 is a triangle ABC on the target object in the three-dimensional space. The coordinates of the vertices A, B, and C are known, and the numbers of the vertices 13, 1 and
If it is assumed that the triangle 10 is a plane, the normal vector n of an arbitrary vertex A (or B, C) can be easily obtained. The normal vector n is a triangle 10
The direction and the direction are the same as the normal vector at an arbitrary point in. The focus F of the camera is set, the image of the point A on the image 12 is set as a point a, and the vector from the point F to the point a is set as u.
The narrow angle θ between the vector n and the vector u is −90 degrees <θ <
Whether the angle is 90 degrees or θ is 90 degrees <θ <180 degrees, that is, whether the surface of the triangle 10 is visible from the focal point F is determined by calculating the inner product W = un of the vectors u and n. Good. It can be immediately determined whether or not the surface of the inner product W of the triangle 10 appears in the image 12. If the inner product W is positive, -90
When the degree <θ <90 degrees, the surface of the triangle 10 is not visible, and back face culling is performed. If inner product W is negative, triangle 10
Are visible from the focal point F. The triangle 10 is a plane 3
Since it is assumed to be rectangular, it does not happen that a part of the surface is visible and the other part of the surface is hidden behind.

【0039】ステップS56は逆方向ワーピングを行
う。逆方向ワーピングは図13に示すように、新視点画
像上の3角形14の点mに選択された撮影画像の対応す
る3角形16の領域内から、対応点m’を求め、対応点
m’のピクセルデータを点mのピクセルデータとして与
えるための処理である。従って、ここでは新視点画像の
3角形14の点mから指定された撮影画像(以下、ソー
ス画像という)の3角形の点m’に変換する射影変換H
を求めることが問題となる。
In step S56, reverse warping is performed. In the backward warping, as shown in FIG. 13, a corresponding point m ′ is obtained from the area of the corresponding triangle 16 of the captured image selected at the point m of the triangle 14 on the new viewpoint image, and the corresponding point m ′ is obtained. Is a process for giving the pixel data of the point m as the pixel data of the point m. Therefore, here, the projective transformation H for transforming the point m of the triangle 14 of the new viewpoint image into the triangle point m ′ of the designated captured image (hereinafter referred to as a source image).
Is a problem.

【0040】射影変換Hとしては、アフィン変換を利用
する方法、エピ曲線を利用するホモグラフィ変換があ
る。アフィン変換は変換行列を求めるのが容易で優れた
近似方式であるが、正確な変換ではない。エピ曲線を利
用したホモグラフィ変換は問題の3角形が細長い等の場
合において、エピ曲線が同じ3角形の2つの頂点を通る
直線の近くにあるときには数値的に不安定が生じるとい
う問題がある。従って、正確な変換を求める場合には以
下に提案する方式を採用する。
The projective transformation H includes a method using an affine transformation and a homography transformation using an epicurve. The affine transformation is an excellent approximation method in which a transformation matrix can be easily obtained, but is not an accurate transformation. Homography conversion using an epicurve has a problem that numerical instability occurs when an epicurve is near a straight line passing through two vertices of the same triangle in a case where the triangle in question is elongated or the like. Therefore, when accurate conversion is required, the method proposed below is adopted.

【0041】以下に、提案する新しい方式(以下ゲンテ
ック方式という)を説明する。ゲンテック方式は、以下
の条件及びを満たす変換行列H(3x3行列)を求
める方式である。 条件: mi’=H・mi (i=0,1,2) 条件: (mi’)t・F・mi=0 (i=0、1、2) 条件は新視点画像の3角形14の頂点mi(i=0、
1、2)がソース画像の3角形16の頂点mi’(i=
0、1、2)に射影変換される条件で、条件はエピポ
ール拘束条件である。Fは新視点画像からソースが像へ
の1つの基本行列である。なお、「t」は転置を意味す
る。条件に条件を代入した結果からエピポール拘束
条件は条件のように変形される。従って、本問題は条
件、を満たす変換行列Hを求めることと等価であ
る。条件は、 条件: Ht・F+Ft・H=0 である。即ち、条件は行列(Ht・F)は歪対象行列
であることを意味する。
The proposed new system (hereinafter referred to as Gentech system) will be described below. The Gentech method is a method for obtaining a transformation matrix H (3 × 3 matrix) satisfying the following conditions and conditions. Condition: mi ′ = H · mi (i = 0, 1, 2) Condition: (mi ′) t · F · mi = 0 (i = 0, 1, 2) The condition is the vertex of the triangle 14 of the new viewpoint image. mi (i = 0,
1, 2) are vertices mi '(i =
0, 1, 2), and the condition is an epipole constraint condition. F is one elementary matrix from a new viewpoint image to a source image. Note that “ t ” means transposition. The epipole constraint is transformed like the condition from the result of substituting the condition into the condition. Therefore, this problem is equivalent to obtaining a transformation matrix H that satisfies the condition. The condition is as follows: Condition: Ht · F + Ft · H = 0. That is, the condition means that the matrix (H t · F) is a distortion target matrix.

【0042】条件を条件に変形する。 条件: A・h=0 但し、hは(1x9)の縦ベク
トルで、行列Hの行を縦に並べたベクトルで、h={H
00、H01、H02、H10、...H22t である。行列A
は(6x9)行列でその係数は基本行列Fから取られ
る。行列Aを特異値分解すると、A=U・S・Vt
表せる。ここで、Uは(6x6)直交行列、Sは(6x
9)行列、Vは(9x9)直交行列である。また、Sの
対角行列の最後の項S66は、S66 =0 となり、条件
の解hは、4個の自由度を持つ。従って、解hは基底ベ
クトルh0 1 2 3の1次結合として表現できる。
即ち、h=c0 0+c1・h1+c2 2+3 3=C・
c となる。ここで、c={c0、c1、c2、c3t
でc0〜c3は未知の実係数である。また、行列Cは(4
x4)行列で、C={h0 1 2 3 }となる。
The conditions are modified based on the conditions. Condition: A · h = 0, where h is a vertical vector of (1 × 9)
Torr, a vector in which the rows of the matrix H are arranged vertically, and h = {H
00, H01, H02, HTen,. . . Htwenty twot It is. Matrix A
Is a (6 × 9) matrix whose coefficients are taken from the fundamental matrix F
You. When the singular value decomposition of the matrix A, A = U · S · Vt When
Can be expressed. Here, U is a (6 × 6) orthogonal matrix, and S is (6 × 6)
9) Matrix, V is a (9 × 9) orthogonal matrix. In addition, S
Last term S of diagonal matrix66Is S66 = 0 and the condition
The solution h has four degrees of freedom. Therefore, the solution h is
Hector h0 ,h1 ,hTwo ,hThreeCan be expressed as a linear combination of
That is, h = c0 h0+ C1・ H1+ CTwo h2+cThree hThree= C
c. Where c = {c0, C1, CTwo, CThreet,
And c0~ CThreeIs an unknown real coefficient. The matrix C is (4
x4) matrix, C = {h0 ,h1 ,hTwo ,hThree It becomes}.

【0043】条件は、ベクトルの外積の形、即ち、条
件’と書き直してもよい。 条件’: mi’x H・mi=0、 (i=0,1,2) 条件’にmi 、mi’(i=0,1,2)の座標を代
入して、整理すると条件が得られる。 条件: B・h=0 但し、Bは(6x9)行列で、その要素はmi とmi
(i=0,1,2)の座標値xi、yi及びxi’、yi
(i=0、1、2)で与えられ、hは条件の解であ
る。従って、連立方程式 B・C・c=0 をcについ
て解けば目的のホモグラフィHが求まる。
The condition may be rewritten as the form of a vector cross product, that is, condition '. Conditions ': m i' x H · m i = 0, by substituting the coordinates of (i = 0, 1, 2) conditions 'in m i, m i' (i = 0,1,2), and rearranging The condition is obtained. Conditions: B · h = 0 where, B is (6x9) in the matrix, its elements m i and m i '
(I = 0, 1, 2) coordinate values x i , y i and x i ′, y i
(I = 0, 1, 2), and h is the solution of the condition. Therefore, the target homography H can be obtained by solving the simultaneous equations B, C, c = 0 for c.

【0044】上記連立方程式 B・C・c=0は方程式
が6個で、未知数cは、{c0、c1 、c2、c3}の4個
であるので最小二乗法を使用して一意的に求める。以上
により、行列Hが求められたので、新視点画像14に適
宜に配置した点mの対応点m’が求められる。従って、
点m’のピクセルデータを点mに付与することにより3
角形14、16の逆ワーピングが行われる。以上の手順
を新視点画像の全ての3角形領域について実行する。こ
のゲンテック方式は最小二乗法を使用して解を求めてい
るため不安定になることがない。従って、ゲンテック方
式を利用したホモグラフィ変換を使用すれば正確かつ安
定な逆ワーピングを行うことができる。
The simultaneous equations BCCC = 0 are the equations
And the unknown c is {c0, C1 , CTwo, CThree4 four
Therefore, it is uniquely obtained using the least squares method. that's all
, The matrix H was obtained, so that it was suitable for the new viewpoint image 14.
A corresponding point m 'of the point m arranged as appropriate is obtained. Therefore,
By adding the pixel data of the point m 'to the point m, 3
The inverse warping of the squares 14, 16 is performed. The above steps
Is performed for all the triangular regions of the new viewpoint image. This
Gentech's method uses a least-squares method to find a solution
Therefore, it does not become unstable. Therefore, Gentech
Using a homography transform that uses the equation
Constant reverse warping can be performed.

【0045】次に、バンドル調整法について説明する。
広範囲にわたる新視点から見た画像を一対の撮影画像か
ら生成させると正確な新視点画像を生成することができ
ない。従って、対象物体のいろんな角度から見た撮影画
像を用意しておくことが望ましい。例えば、図14に示
すように、一定の間隔でカメラを配置し、それらの撮影
画像を利用することが望ましい。図14では6台のカメ
ラを等間隔で配置した場合を示す。この場合において、
例えば、カメラ3と4の間の角度から見た新視点画像を
生成するにはカメラ3又は4による撮影画像又は双方の
撮影画像を利用することが考えられる。また、カメラ4
と5の間の角度から見た新視点画像を生成するにはカメ
ラ4又は5による撮影画像を利用するのが便利である。
Next, the bundle adjustment method will be described.
If an image viewed from a wide range of new viewpoints is generated from a pair of captured images, an accurate new viewpoint image cannot be generated. Therefore, it is desirable to prepare photographed images of the target object viewed from various angles. For example, as shown in FIG. 14, it is desirable to arrange cameras at regular intervals and to use the captured images. FIG. 14 shows a case where six cameras are arranged at equal intervals. In this case,
For example, in order to generate a new viewpoint image viewed from an angle between the cameras 3 and 4, it is conceivable to use an image captured by the camera 3 or 4 or both captured images. In addition, camera 4
In order to generate a new viewpoint image as viewed from an angle between 5 and 5, it is convenient to use an image captured by the camera 4 or 5.

【0046】しかしながら、複数のカメラを配置した場
合にはその複数のカメラのジオメトリが一致していなけ
れば選択された撮影画像によって新視点画像が異なるも
のとなり、好ましくない。即ち、図15に示すように、
3次元物体上の点をMとした場合に、カメラ1〜5の撮
影画像の点をm1〜m5とする。この場合カメラ1〜5の
光心(ピンホールカメラのピンホールに相当する点)を
1〜C5とすると、半直線(m11)〜半直線(m
55)は一点Mで交わらなければならない。一点Mで交
わらない場合はm1〜m5を点Mの正確な像とみなすこと
ができない。そこで、この場合に射影変換行列のパラメ
ータをバンドル調整により修正する。
However, when a plurality of cameras are arranged, if the geometries of the plurality of cameras do not match, the new viewpoint image differs depending on the selected photographed image, which is not preferable. That is, as shown in FIG.
Assuming that a point on the three-dimensional object is M, the points of the images captured by the cameras 1 to 5 are m 1 to m 5 . In this case the optical center of the camera 1 to 5 (point corresponding to the pinhole of the pinhole camera) and a C 1 -C 5, half lines (m 1 C 1) ~ half line (m
5 C 5 ) must meet at one point M. If they do not intersect at one point M, m 1 to m 5 cannot be regarded as an accurate image of the point M. Therefore, in this case, the parameters of the projective transformation matrix are modified by bundle adjustment.

【0047】バンドル調整には2つの方法がある。即
ち、全ての射影変換行列Pi(i=1、2...M)及
び3次元の対象物体上の全ての参照点Mj(j=1,
2...N)について明示的に評価Jを最小化する明示
的バンドル調整と、射影変換行列Pi(i=1、
2...M)について評価Jを最小化する暗黙的バンド
ル調整とがある。評価Jとしては、例えば、基準化した
偏差の距離の二乗の全体和J(又は評価Jの平方根)を
評価として採用する。 J=ΣΣ’{(Cxij2+(Cyij2 }、 ここで、Cxij =mij 1/mij 3−(Pi・Mj1/(P
i・Mj3、Cyij =mij 2/mij 3−(Pi・Mj2
(Pi・Mj3 である。なお、最初のΣはi=1,
2,..M までの和を表し、2番目のΣ’はj=1,
2、...Nまでの和を表す。また、mij及び(Pi
j の右肩の数字は要素の番号を示す。
There are two methods for bundle adjustment. That is, all projective transformation matrices P i (i = 1, 2,... M) and all reference points M j (j = 1, 2) on the three-dimensional target object
2. . . N), an explicit bundle adjustment that explicitly minimizes the evaluation J, and a projective transformation matrix P i (i = 1,
2. . . There is an implicit bundle adjustment that minimizes the evaluation J for M). As the evaluation J, for example, the total sum J (or the square root of the evaluation J) of the square of the standardized deviation distance is adopted as the evaluation. J = {'{(Cx ij ) 2 + (Cy ij ) 2 }, where Cx ij = m ij 1 / m ij 3 − (P i · M j ) 1 / (P
i · M j ) 3 , Cy ij = m ij 2 / m ij 3 − (P i · M j ) 2 /
(P i · M j ) 3 . Note that the first Σ is i = 1,
2,. . Represents the sum up to M, the second Σ ′ is j = 1,
2,. . . Represents the sum up to N. Also, m ij and (P i ·
M j ) The number at the right shoulder of indicates the element number.

【0048】明示的バンドル調整は評価JをPi(i=
1、2...M)及びMj(j=1,2...N)につ
いて最小化するものであり、最適化されたPi *(i=
1、2...M)及びMj *(j=1,2...N)が同
時に求められる。一方、暗黙的バンドル調整は評価Jを
i(i=1、2...M)について最小化し、次に最
小化したPi *(i=1、2...M)を用いて評価Jを
j について最小化するいう、手続きを繰り返して最適
化されたPi *(i=1、2...M)及びMj *(j=
1,2...N)を求めるものである。
[0048] The explicit bundle adjustment calculates the evaluation J as P i (i =
1,2. . . M) and M j (j = 1, 2,... N) to minimize the optimized P i * (i =
1,2. . . M) and M j * (j = 1, 2,... N) are determined simultaneously. On the other hand, the implicit bundle adjustment minimizes the evaluation J with respect to P i (i = 1, 2,... M), and then evaluates using the minimized P i * (i = 1, 2,. the J say that minimizes the M j, optimized P i by repeating the procedure * (i = 1,2 ... M) and M j * (j =
1,2. . . N).

【0049】両者の解は理論的には一致するはずである
が、途中の計算過程が異なる。最小化する計算方法とし
てはニュートンの最小化方法に類似した最小化方法が公
知であり、この公知技術を使用する。なお、本発明では
どちらを使用してもよく、問題に合わせて適宜選択す
る。
Although the two solutions should theoretically agree with each other, the intermediate calculation process is different. As a calculation method for minimizing, a minimization method similar to Newton's minimization method is known, and this known technique is used. In the present invention, either of them may be used, and an appropriate one is selected according to the problem.

【0050】以上、この発明の実施形態、実施例を図面
により詳述してきたが、具体的な構成はこの実施例に限
られるがものではなく、この発明の要旨を逸脱しない範
囲の設計の変更等があってもこの発明に含まれる。例え
ば、ワーピングにおける射影変換は上記したゲンテック
方式に限られるものではなく、エピ曲線を使用したホモ
グラフィック変換でもよいし、アフィン変換を使用した
場合も本発明の範囲に入る。本願発明の範囲はあくまで
も各請求項に記載されている通りである。
The embodiments and examples of the present invention have been described in detail with reference to the drawings. However, the specific configuration is not limited to this example, and the design may be changed without departing from the scope of the present invention. The present invention is included in the present invention. For example, the projective transformation in warping is not limited to the Gentech method described above, but may be a homographic transformation using an epi-curve or a case using an affine transformation is within the scope of the present invention. The scope of the present invention is as described in each claim.

【0051】[0051]

【発明の効果】以上説明したように、この発明の構成に
よれば、請求項1記載の発明では、各撮影画像における
対応点(又は参照点)は1個の撮影画像で定めれば、他
の撮影画像については自動的に定められるので、操作が
容易になるという効果がある。請求項2、3記載の発明
では、正確なワーピングが可能になるという効果があ
り、更に、請求項3記載の発明では変換行列を求める計
算が安定になるという効果がある。
As described above, according to the configuration of the present invention, according to the first aspect of the present invention, if the corresponding point (or reference point) in each photographed image is determined by one photographed image, the other points can be obtained. Since the photographed image is automatically determined, the operation is facilitated. According to the second and third aspects of the present invention, there is an effect that accurate warping can be performed, and furthermore, the third aspect of the present invention has an effect that calculation for obtaining a transformation matrix becomes stable.

【0052】請求項4、5記載の発明では不可視の形状
等の像が新視点画像に表れないため、実際との近似が良
くなるという効果がある。請求項6記載の発明では、新
視点画像における物体の裏面は表面の画像と区別されて
表示されるため、生成された画像が見易いという効果が
ある。請求項6記載の発明ではバックフェースカリング
をすることにより、その部分のワーピングが省略される
ため処理速度が速くなるという効果がある。請求項7記
載の発明では、多数の撮影画像を使用した場合に各撮影
画像間の一致が取られているので、ワーピングする場合
の選択画像によって新視点画像に差が生じにくいという
効果がある。
According to the fourth and fifth aspects of the present invention, an image of an invisible shape or the like does not appear in the new viewpoint image. According to the sixth aspect of the present invention, since the back surface of the object in the new viewpoint image is displayed separately from the image of the front surface, there is an effect that the generated image is easy to see. According to the sixth aspect of the present invention, by performing back face culling, the warping of the portion is omitted, so that the processing speed is increased. According to the seventh aspect of the present invention, when a large number of photographed images are used, the coincidence between the photographed images is obtained. Therefore, there is an effect that the difference between the new viewpoint images hardly occurs depending on the selected image in the warping.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の実施形態のアルゴリズムのフローチ
ャートを示す。
FIG. 1 shows a flowchart of an algorithm according to an embodiment of the present invention.

【図2】 対象物体と画像の関係を示した図である。FIG. 2 is a diagram showing a relationship between a target object and an image.

【図3】 エピ曲線の例を示した図である。FIG. 3 is a diagram showing an example of an epi curve.

【図4】 相関を利用して対応点の自動探索法を示した
図である。。
FIG. 4 is a diagram showing an automatic search method of a corresponding point using a correlation. .

【図5】 撮影画像の物体を3角形領域でカバーした例
を示した図である。
FIG. 5 is a diagram illustrating an example in which an object of a captured image is covered by a triangular region.

【図6】 新視点画像の生成のアルゴリズムのフローチ
ャートを示す。
FIG. 6 shows a flowchart of an algorithm for generating a new viewpoint image.

【図7】 (A)、(B)は交叉する3角形を示し、
(C)はバウンダリ・ボックスの説明図である。
FIGS. 7A and 7B show intersecting triangles,
(C) is an explanatory view of a boundary box.

【図8】 ソーテングのアルゴリズムを示すフローチャ
ートである。
FIG. 8 is a flowchart showing a sorting algorithm.

【図9】 (A)〜(G)は2つの3角形領域の関係を
示した図である。
FIGS. 9A to 9G are diagrams showing a relationship between two triangular regions.

【図10】 バックフェースカリングを説明する図であ
り、バックフェースを求める原理を示した図である。
FIG. 10 is a diagram for explaining back face culling, and is a diagram showing a principle of obtaining a back face.

【図11】 バックフェースカリングの具体例を示す図
である。
FIG. 11 is a diagram showing a specific example of back face culling.

【図12】 バックフェースカリングの具体例を示す図
である。
FIG. 12 is a diagram showing a specific example of back face culling.

【図13】 逆ワーピングを説明した図である。FIG. 13 is a diagram illustrating reverse warping.

【図14】 多数のカメラを配置した例を示す図であ
る。
FIG. 14 is a diagram showing an example in which many cameras are arranged.

【図15】 多数のカメラを配置した場合にバンドル調
整が必要であることを説明した図である。
FIG. 15 is a diagram illustrating that bundle adjustment is necessary when a large number of cameras are arranged.

【図16】 3次元空間の物体と撮影画像の点との符号
関係を示す。
FIG. 16 shows a sign relationship between an object in a three-dimensional space and a point of a captured image.

【符号の説明】[Explanation of symbols]

BB... バウンデイングボックス Ei ...エピ曲線 H ... 画像間の射影変換行列 M ... 3次元空間における物体上の点(ベクト
ル) m ... Mの撮影画像上の点(ベクトル) P ... 3次元空間から画像への射影変換行列
BB. . . Bounding box Ei. . . Epicurve H. . . Projective transformation matrix between images M. . . A point (vector) on an object in three-dimensional space m. . . M (point) on the captured image of P . . Projection transformation matrix from 3D space to image

───────────────────────────────────────────────────── フロントページの続き (72)発明者 フィリップ ボロミエ 東京都渋谷区広尾5−19−9広尾ONビル 株式会社ゲン・テック内 (72)発明者 潘 天倫 東京都渋谷区広尾5−19−9広尾ONビル 株式会社ゲン・テック内 Fターム(参考) 5B050 BA04 BA07 BA09 DA07 EA05 EA11 EA26 5B057 BA02 CA13 CB13 CD20 5B080 BA07 GA21  ──────────────────────────────────────────────────続 き Continued on the front page (72) Inventor Philip Boromier 5-19-9 Hiroo, Shibuya-ku, Tokyo Hiroo ON Building Inside Gen-Tech Co., Ltd. (72) Inventor Ban Tenrin 5-19-9 Hiroo, Shibuya-ku, Tokyo Hiroo ON Building Gen-Tech Co., Ltd. F-term (reference) 5B050 BA04 BA07 BA09 DA07 EA05 EA11 EA26 5B057 BA02 CA13 CB13 CD20 5B080 BA07 GA21

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 3次元空間における対象物体を複数の異
なる視点から撮影した画像に基づいて新視点から見た該
対象物体の画像を生成する方法であって、前記対象物体
が配置された3次元空間から撮影画像への射影変換行列
を求める第1工程と、撮影された対象物体の形状等を表
す部分に点を指定し、前記複数の撮影画像上で該対象物
体の同じ点を指定している各撮影画像の点同士を対応づ
ける第2工程と、前記対応づけられた点のうち3個の点
を指定して3角形領域を形成し、前記撮影画像の前記対
象物体を該3角形領域でカバーする第3工程と、前記3
次元空間から新視点の画像への射影変換行列を求める第
4工程と、前記第1工程〜第4工程によって得られたデ
ータに基づいて新視点の画像を生成する第5工程とを含
む画像生成方法において、前記第2工程はエピ極線上の
点を相関を利用して探索し、対応点を自動的に抽出する
ことを特徴とする新視点画像生成方法。
1. A method for generating an image of a target object as viewed from a new viewpoint based on images of the target object taken from a plurality of different viewpoints in a three-dimensional space, the method comprising the steps of: A first step of obtaining a projection transformation matrix from space to a captured image, and specifying a point in a portion representing the shape or the like of the captured target object, and specifying the same point of the target object on the plurality of captured images A second step of associating the points of each captured image with each other, and specifying three points among the associated points to form a triangular area, and defining the target object of the captured image as the triangular area. A third step of covering with
Image generation including a fourth step of obtaining a projection transformation matrix from a dimensional space to an image of a new viewpoint, and a fifth step of generating an image of a new viewpoint based on the data obtained in the first to fourth steps In the method, the second step is to search for a point on the epipolar line using the correlation, and to automatically extract a corresponding point, wherein a new viewpoint image is generated.
【請求項2】 3次元空間における対象物体を複数の異
なる視点から撮影した画像に基づいて新視点から見た該
対象物体の画像を生成する方法であって、前記対象物体
が配置された3次元空間から撮影画像への射影変換行列
を求める第1工程と、撮影された対象物体の形状等を表
す部分に点を指定し、前記複数の撮影画像上で該対象物
体の同じ点を指定している各撮影画像の点同士を対応づ
ける第2工程と、前記対応づけられた点のうち3個の点
を指定して3角形領域を形成し、前記撮影画像の前記対
象物体を該3角形領域でカバーする第3工程と、前記3
次元空間から新視点の画像への射影変換行列を求める第
4工程と、前記第1工程〜第4工程によって得られたデ
ータに基づいて新視点の画像を生成する第5工程とを含
む画像生成方法において、前記第5工程は前記撮影画像
を選択し、該選択された撮影画像のテクスチャをホモグ
ラフィ変換を利用した逆ワーピングにより新視点画像に
テクスチャをワーピングする工程を含むことを特徴とす
る新視点画像生成方法。
2. A method for generating an image of a target object as viewed from a new viewpoint based on images of the target object taken from a plurality of different viewpoints in a three-dimensional space, the method comprising the steps of: A first step of obtaining a projection transformation matrix from space to a captured image, and specifying a point in a portion representing the shape or the like of the captured target object, and specifying the same point of the target object on the plurality of captured images A second step of associating the points of each captured image with each other, and specifying three points among the associated points to form a triangular area, and defining the target object of the captured image as the triangular area. A third step of covering with
Image generation including a fourth step of obtaining a projection transformation matrix from a dimensional space to an image of a new viewpoint, and a fifth step of generating an image of a new viewpoint based on the data obtained in the first to fourth steps In the method, the fifth step includes a step of selecting the photographed image, and warping the texture of the selected photographed image to a new viewpoint image by inverse warping using a homography transform. Viewpoint image generation method.
【請求項3】 前記ホモグラフィ変換は、ゲンテック方
式を利用して変換行列を求めることを特徴とする請求項
2に記載の新視点画像生成方法。
3. The new viewpoint image generation method according to claim 2, wherein the homography conversion obtains a conversion matrix using a Gentech method.
【請求項4】 3次元空間における対象物体を複数の異
なる視点から撮影した画像に基づいて新視点から見た該
対象物体の画像を生成する方法であって、前記対象物体
が配置された3次元空間から撮影画像への射影変換行列
を求める第1工程と、撮影された対象物体の形状等を表
す部分に点を指定し、前記複数の撮影画像上で該対象物
体の同じ点を指定している各撮影画像の点同士を対応づ
ける第2工程と、前記対応づけられた点のうち3個の点
を指定して3角形領域を形成し、前記撮影画像の前記対
象物体を該3角形領域でカバーする第3工程と、前記3
次元空間から新視点の画像への射影変換行列を求める第
4工程と、前記第1工程〜第4工程によって得られたデ
ータに基づいて新視点の画像を生成する第5工程とを含
む画像生成方法において、前記第5工程は、各3角形領
域についてソーテングを行って、不可視の領域が新視点
画像面に表れないようにしたことを特徴とする新視点画
像生成方法。
4. A method for generating an image of a target object viewed from a new viewpoint based on images of the target object taken from a plurality of different viewpoints in a three-dimensional space, the method comprising: A first step of obtaining a projection transformation matrix from space to a captured image, and specifying a point in a portion representing the shape or the like of the captured target object, and specifying the same point of the target object on the plurality of captured images A second step of associating the points of each captured image with each other, and specifying three points among the associated points to form a triangular area, and defining the target object of the captured image as the triangular area. A third step of covering with
Image generation including a fourth step of obtaining a projection transformation matrix from a dimensional space to an image of a new viewpoint, and a fifth step of generating an image of a new viewpoint based on the data obtained in the first to fourth steps In the method, the fifth step may include performing sorting on each of the triangular regions so that invisible regions do not appear on the new viewpoint image plane.
【請求項5】 前記ソーテングは、バウンデイングボッ
クスを利用して不可視の領域が表れないようにしたこと
を特徴とする請求項4に記載の新視点画像生成方法。
5. The new viewpoint image generation method according to claim 4, wherein the sorting uses a bounding box so that an invisible area does not appear.
【請求項6】 前記ソーテング工程の前又は後におい
て、バックフェースカリングを行ったことを特徴とする
請求項4又は請求項5の何れか1に記載の新視点画像生
成方法。
6. The new viewpoint image generating method according to claim 4, wherein back face culling is performed before or after the sorting step.
【請求項7】 3次元空間における対象物体を複数の異
なる視点から撮影した画像に基づいて新視点から見た該
対象物体の画像を生成する方法であって、前記対象物体
が配置された3次元空間から撮影画像への射影変換行列
を求める第1工程と、撮影された対象物体の形状等を表
す部分に点を指定し、前記複数の撮影画像上で該対象物
体の同じ点を指定している各撮影画像の点同士を対応づ
ける第2工程と、前記対応づけられた点のうち3個の点
を指定して3角形領域を形成し、前記撮影画像の前記対
象物体を該3角形領域でカバーする第3工程と、前記3
次元空間から新視点の画像への射影変換行列を求める第
4工程と、前記第1工程〜第4工程によって得られたデ
ータに基づいて新視点の画像を生成する第5工程とを含
む画像生成方法において、前記第1工程は、前記撮影画
像が3枚以上の場合にバンドル調整法による射影変換行
列の修正工程を含むことを特徴とする新視点画像生成方
法。
7. A method for generating an image of a target object as viewed from a new viewpoint based on images of the target object taken from a plurality of different viewpoints in a three-dimensional space, the method comprising the steps of: A first step of obtaining a projection transformation matrix from space to a captured image, and specifying a point in a portion representing the shape or the like of the captured target object, and specifying the same point of the target object on the plurality of captured images A second step of associating the points of each captured image with each other, and specifying three points among the associated points to form a triangular area, and defining the target object of the captured image as the triangular area. A third step of covering with
Image generation including a fourth step of obtaining a projection transformation matrix from a dimensional space to an image of a new viewpoint, and a fifth step of generating an image of a new viewpoint based on the data obtained in the first to fourth steps In the method, the first step includes a step of correcting a projection transformation matrix by a bundle adjustment method when the number of the captured images is three or more.
JP10312139A 1998-11-02 1998-11-02 New viewpoint image generating method Pending JP2000137815A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10312139A JP2000137815A (en) 1998-11-02 1998-11-02 New viewpoint image generating method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10312139A JP2000137815A (en) 1998-11-02 1998-11-02 New viewpoint image generating method

Publications (1)

Publication Number Publication Date
JP2000137815A true JP2000137815A (en) 2000-05-16

Family

ID=18025731

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10312139A Pending JP2000137815A (en) 1998-11-02 1998-11-02 New viewpoint image generating method

Country Status (1)

Country Link
JP (1) JP2000137815A (en)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000064078A (en) * 2000-08-17 2000-11-06 오창근 The Technique of 3 Dimensional Modelling using Real Multiple Photographs
JP2002024850A (en) * 2000-07-03 2002-01-25 Sony Corp Device and method for forming three-dimensional image and program providing medium
JP2002157603A (en) * 2000-11-21 2002-05-31 Mixed Reality Systems Laboratory Inc Device and method for image processing, and storage medium
JP2003006671A (en) * 2001-06-21 2003-01-10 Namco Ltd Image generating system, program and information storage medium
KR100480007B1 (en) * 2000-12-29 2005-03-30 이항규 System for producing and displaying three dimensional image and method for the same
JP2006042361A (en) * 2004-07-27 2006-02-09 Microsoft Corp System and method for calibrating multiple cameras without employing pattern by inter-image homography
US7006089B2 (en) 2001-05-18 2006-02-28 Canon Kabushiki Kaisha Method and apparatus for generating confidence data
US7120289B2 (en) 2000-10-27 2006-10-10 Canon Kabushiki Kaisha Image generation method and apparatus
JP2011146762A (en) * 2010-01-12 2011-07-28 Nippon Hoso Kyokai <Nhk> Solid model generator
JP2012048687A (en) * 2010-08-30 2012-03-08 Rakuten Inc Image processing device, image processing method, program and information recording medium
JP5318225B2 (en) * 2009-12-11 2013-10-16 三菱電機株式会社 Image composition apparatus and image composition program
JP2015032198A (en) * 2013-08-05 2015-02-16 大成建設株式会社 Image searching apparatus
KR20180125970A (en) * 2016-03-25 2018-11-26 아웃워드, 인코포레이티드 Create an arbitrary view
JP2020522803A (en) * 2017-05-31 2020-07-30 ベライゾン・パテント・アンド・ライセンシング・インコーポレイテッドVerizon Patent And Licensing Inc. Method and system for rendering virtual reality content based on two-dimensional ("2D") captured images of a three-dimensional ("3D") scene
US10832468B2 (en) 2016-03-25 2020-11-10 Outward, Inc. Arbitrary view generation
US10909749B2 (en) 2016-03-25 2021-02-02 Outward, Inc. Arbitrary view generation
US11024076B2 (en) 2016-03-25 2021-06-01 Outward, Inc. Arbitrary view generation
US11222461B2 (en) 2016-03-25 2022-01-11 Outward, Inc. Arbitrary view generation
US11232627B2 (en) 2016-03-25 2022-01-25 Outward, Inc. Arbitrary view generation
WO2024048210A1 (en) * 2022-09-02 2024-03-07 富士フイルム株式会社 Viewpoint image generation device, viewpoint image generation method, and program
US11972522B2 (en) 2016-03-25 2024-04-30 Outward, Inc. Arbitrary view generation
US11989820B2 (en) 2016-03-25 2024-05-21 Outward, Inc. Arbitrary view generation
US11989821B2 (en) 2016-03-25 2024-05-21 Outward, Inc. Arbitrary view generation

Cited By (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002024850A (en) * 2000-07-03 2002-01-25 Sony Corp Device and method for forming three-dimensional image and program providing medium
KR20000064078A (en) * 2000-08-17 2000-11-06 오창근 The Technique of 3 Dimensional Modelling using Real Multiple Photographs
US7120289B2 (en) 2000-10-27 2006-10-10 Canon Kabushiki Kaisha Image generation method and apparatus
US7545384B2 (en) 2000-10-27 2009-06-09 Canon Kabushiki Kaisha Image generation method and apparatus
JP2002157603A (en) * 2000-11-21 2002-05-31 Mixed Reality Systems Laboratory Inc Device and method for image processing, and storage medium
KR100480007B1 (en) * 2000-12-29 2005-03-30 이항규 System for producing and displaying three dimensional image and method for the same
US7006089B2 (en) 2001-05-18 2006-02-28 Canon Kabushiki Kaisha Method and apparatus for generating confidence data
JP2003006671A (en) * 2001-06-21 2003-01-10 Namco Ltd Image generating system, program and information storage medium
JP2006042361A (en) * 2004-07-27 2006-02-09 Microsoft Corp System and method for calibrating multiple cameras without employing pattern by inter-image homography
JP5318225B2 (en) * 2009-12-11 2013-10-16 三菱電機株式会社 Image composition apparatus and image composition program
JP2011146762A (en) * 2010-01-12 2011-07-28 Nippon Hoso Kyokai <Nhk> Solid model generator
JP2012048687A (en) * 2010-08-30 2012-03-08 Rakuten Inc Image processing device, image processing method, program and information recording medium
JP2015032198A (en) * 2013-08-05 2015-02-16 大成建設株式会社 Image searching apparatus
US10748265B2 (en) 2016-03-25 2020-08-18 Outward, Inc. Arbitrary view generation
KR102324651B1 (en) 2016-03-25 2021-11-11 아웃워드, 인코포레이티드 Arbitrary view generation
US11989821B2 (en) 2016-03-25 2024-05-21 Outward, Inc. Arbitrary view generation
KR102143098B1 (en) * 2016-03-25 2020-08-10 아웃워드, 인코포레이티드 Create arbitrary view
KR20200096691A (en) * 2016-03-25 2020-08-12 아웃워드, 인코포레이티드 Arbitrary view generation
KR20180125970A (en) * 2016-03-25 2018-11-26 아웃워드, 인코포레이티드 Create an arbitrary view
US10832468B2 (en) 2016-03-25 2020-11-10 Outward, Inc. Arbitrary view generation
US10909749B2 (en) 2016-03-25 2021-02-02 Outward, Inc. Arbitrary view generation
KR20210024218A (en) * 2016-03-25 2021-03-04 아웃워드, 인코포레이티드 Arbitrary view generation
KR102221937B1 (en) * 2016-03-25 2021-03-04 아웃워드, 인코포레이티드 Arbitrary view generation
US11024076B2 (en) 2016-03-25 2021-06-01 Outward, Inc. Arbitrary view generation
JP2019516202A (en) * 2016-03-25 2019-06-13 アウトワード・インコーポレーテッドOutward Incorporated Generate arbitrary view
KR20210137235A (en) * 2016-03-25 2021-11-17 아웃워드, 인코포레이티드 Arbitrary view generation
US11222461B2 (en) 2016-03-25 2022-01-11 Outward, Inc. Arbitrary view generation
US11232627B2 (en) 2016-03-25 2022-01-25 Outward, Inc. Arbitrary view generation
US11544829B2 (en) 2016-03-25 2023-01-03 Outward, Inc. Arbitrary view generation
KR102530116B1 (en) 2016-03-25 2023-05-10 아웃워드, 인코포레이티드 Arbitrary view generation
US11989820B2 (en) 2016-03-25 2024-05-21 Outward, Inc. Arbitrary view generation
US11676332B2 (en) 2016-03-25 2023-06-13 Outward, Inc. Arbitrary view generation
US11875451B2 (en) 2016-03-25 2024-01-16 Outward, Inc. Arbitrary view generation
US11972522B2 (en) 2016-03-25 2024-04-30 Outward, Inc. Arbitrary view generation
JP7289796B2 (en) 2017-05-31 2023-06-12 ベライゾン・パテント・アンド・ライセンシング・インコーポレイテッド A method and system for rendering virtual reality content based on two-dimensional ("2D") captured images of a three-dimensional ("3D") scene
JP2020522803A (en) * 2017-05-31 2020-07-30 ベライゾン・パテント・アンド・ライセンシング・インコーポレイテッドVerizon Patent And Licensing Inc. Method and system for rendering virtual reality content based on two-dimensional ("2D") captured images of a three-dimensional ("3D") scene
WO2024048210A1 (en) * 2022-09-02 2024-03-07 富士フイルム株式会社 Viewpoint image generation device, viewpoint image generation method, and program

Similar Documents

Publication Publication Date Title
JP2000137815A (en) New viewpoint image generating method
CN109872397B (en) Three-dimensional reconstruction method of airplane parts based on multi-view stereo vision
US8208029B2 (en) Method and system for calibrating camera with rectification homography of imaged parallelogram
US6278460B1 (en) Creating a three-dimensional model from two-dimensional images
US9001120B2 (en) Using photo collections for three dimensional modeling
CN109040738B (en) Calibration method and non-transitory computer readable medium
JP2013038775A (en) Ray image modeling for fast catadioptric light field rendering
US6868191B2 (en) System and method for median fusion of depth maps
EP1522051B1 (en) Discrete linear space sampling method and apparatus for generating digital 3d models
US6744441B2 (en) Three-dimensional-picture-generating apparatus, three-dimensional-picture-generating method and program-presenting medium
US10783607B2 (en) Method of acquiring optimized spherical image using multiple cameras
CN110246186A (en) A kind of automatized three-dimensional colour imaging and measurement method
CN110243307A (en) A kind of automatized three-dimensional colour imaging and measuring system
CN111060006A (en) Viewpoint planning method based on three-dimensional model
CN110230979A (en) A kind of solid target and its demarcating three-dimensional colourful digital system method
CN109767381A (en) A kind of rectangle panoramic picture building method of the shape optimum based on feature selecting
CN111753644A (en) Method and device for detecting key points on three-dimensional face scanning
CN115205491A (en) Method and device for handheld multi-view three-dimensional reconstruction
JP2000057376A (en) Method for generating new viewpoint image
JPH09331440A (en) Three-dimension scene re-configuration system
CN115205490A (en) Full-view three-dimensional reconstruction method and device
JPH06229761A (en) Formation of position correspondence table for three-dimensional position measurement
Lin et al. Complete 3D model reconstruction from multiple views
CN117474749A (en) 2.5-dimensional map projection method
CN114266861A (en) Method for generating accurate 3D pattern in 2D image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051025

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20060922

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081209

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090407