JP2002324249A - Image display system and its method - Google Patents

Image display system and its method

Info

Publication number
JP2002324249A
JP2002324249A JP2001305230A JP2001305230A JP2002324249A JP 2002324249 A JP2002324249 A JP 2002324249A JP 2001305230 A JP2001305230 A JP 2001305230A JP 2001305230 A JP2001305230 A JP 2001305230A JP 2002324249 A JP2002324249 A JP 2002324249A
Authority
JP
Japan
Prior art keywords
image
image display
interpolated
server
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001305230A
Other languages
Japanese (ja)
Other versions
JP3876142B2 (en
Inventor
Mikio Terasawa
幹雄 寺沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NABURA KK
Original Assignee
NABURA KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NABURA KK filed Critical NABURA KK
Priority to JP2001305230A priority Critical patent/JP3876142B2/en
Publication of JP2002324249A publication Critical patent/JP2002324249A/en
Application granted granted Critical
Publication of JP3876142B2 publication Critical patent/JP3876142B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an image display system and method capable of stereoscopically displaying the image of an object from an arbitrary point of view on a computer. SOLUTION: This image display system for automatically preparing the interposed image of an object from a point of view desired by a user is provided with a server having a means for fetching a two-dimensional image from a plurality of points of view of the object and a user terminal for transmitting and receiving data through a network with the server. The user terminal is provided with a means for receiving the two-dimensional image from the server, and for automatically preparing the interposed image of the object from the point of view desired by the user.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、コンピュータ上に
於いて任意の視点から立体的に物体の画像を表示するこ
とが可能な画像表示システム及び方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image display system and method capable of displaying an image of an object three-dimensionally from an arbitrary viewpoint on a computer.

【0002】[0002]

【従来の技術】従来、物体(対象物)の画像を立体的に
コンピュータ上に於いて表示する方法としては、 (1)対象物の動画を予め撮影しその動画データを表示
する。 (2)対象物の3次元データを予め入力しユーザが視点
を指定することにより、その3次元データに基づいてそ
の視点から見える対象物を計算し表示する。 (3)2枚の画像からユーザが指定した視点に於ける内
挿画像を自動作成し表示する。 等がその主な方法として存在している。
2. Description of the Related Art Conventionally, a method of displaying an image of an object (object) three-dimensionally on a computer is as follows: (1) A moving image of an object is photographed in advance and the moving image data is displayed. (2) By inputting three-dimensional data of an object in advance and specifying a viewpoint by a user, an object viewed from the viewpoint is calculated and displayed based on the three-dimensional data. (3) Automatically create and display an interpolated image at a viewpoint designated by the user from two images. Etc. exist as its main method.

【0003】[0003]

【発明が解決しようとする課題】(1)の方法は、対象
物を予めビデオカメラ等を用いてその周囲、全景等を撮
影しておき、その画像(動画データ)をMPEG(Movi
ng Pictures Experts Group)等の公知の圧縮方法でデ
ータ圧縮を行い、その動画データに対応しているソフト
ウェアで再生することにより対象物の画像をコンピュー
タ上に於いて表示する方法である。この方法を用いる
と、対象物の画像を閲覧したい人(以下、ユーザ)がこ
の対象物の視点を任意に変更することは出来ない。何故
ならば、この方法では予め撮影された対象物の画像をユ
ーザが有する端末(以下、ユーザ端末)上で単に再生し
ているにすぎないからである。即ち、予め撮影されてい
ない視点からの画像をユーザは閲覧することは出来な
い。
In the method (1), the surroundings, the whole view, and the like of an object are photographed in advance using a video camera or the like, and the image (moving image data) is recorded in an MPEG (Movi- ture) image.
In this method, data is compressed by a known compression method such as NG Pictures Experts Group, and the image of the target object is displayed on a computer by reproducing the data using software corresponding to the moving image data. With this method, a person who wants to view an image of the object (hereinafter, user) cannot arbitrarily change the viewpoint of the object. This is because, in this method, an image of the object photographed in advance is simply reproduced on a terminal (hereinafter, a user terminal) of the user. That is, the user cannot browse images from viewpoints that have not been photographed in advance.

【0004】又、全ての視点からの画像を動画データと
して保持しようとすると、そのデータ量が多大な量とな
ってしまう問題点がある。これは、ユーザがネットワー
クを介してこの動画データを閲覧しようとする場合に
は、多大なる通信時間を必要とすることを意味する。つ
まりデータ量に比例して通信コストが費やされることと
なり、これはユーザにとっては多大なる負担となる。更
に、動画データを格納しているコンピュータからユーザ
端末まで大量のデータ転送をする必要性があり、ネット
ワークのトラフィックを増加させる。つまり、この動画
データを閲覧しないが同じネットワークを一部でも使用
している、他のユーザに対してもトラフィックの増加を
発生させることとなり、レスポンスの低下を招く問題点
もある。
Further, there is a problem in that if images from all viewpoints are to be stored as moving image data, the amount of data becomes large. This means that a great deal of communication time is required when a user tries to browse this moving image data via a network. That is, the communication cost is expended in proportion to the data amount, which imposes a great burden on the user. Furthermore, it is necessary to transfer a large amount of data from a computer storing moving image data to a user terminal, thereby increasing network traffic. In other words, traffic is increased for other users who do not browse the moving image data but use some of the same network, and there is a problem that response is reduced.

【0005】(1)に於ける問題点を解決する一つの方
法として、(2)の方法が考案された。この方法は、対
象物の存在する3次元空間上の一点(対象物上でなくて
も良い)を3次元空間上に於ける原点とし、その原点か
らの距離、あるいは3次元座標(x座標、y座標、z座
標)を入力することにより、対象物の3次元形状データ
を作成する。その後、ユーザが指定した視点からの距
離、座標等を演算しこれを2次元の平面に投影し表示す
ることにより、ユーザが指定した視点からの対象物の画
像を閲覧することを可能にした方法である。
As one method for solving the problem in (1), the method (2) has been devised. In this method, a point in a three-dimensional space where an object is present (not necessarily on the object) is set as an origin in the three-dimensional space, and a distance from the origin or three-dimensional coordinates (x-coordinate, By inputting (y-coordinate, z-coordinate), three-dimensional shape data of the object is created. After that, the distance from the viewpoint designated by the user, coordinates, etc. are calculated, and projected and displayed on a two-dimensional plane, so that the image of the object from the viewpoint designated by the user can be browsed. It is.

【0006】しかし、この方法では、対象物の3次元形
状データを作成する為に、対象物の縦、横、高さ等を精
確に計測しそれを入力しなければならない等非常に煩雑
であり、データ作成側にとって多大なる負担を強いるこ
ととなる。更に、元々2次元の平面データ(例えば、写
真等)から3次元形状データを作成するのは非常に困難
であるという問題点もある。
[0006] However, this method is very complicated, for example, in order to create three-dimensional shape data of an object, the length, width, height, etc. of the object must be accurately measured and input. This imposes a great burden on the data creator. Furthermore, there is a problem that it is very difficult to create three-dimensional shape data from originally two-dimensional plane data (for example, a photograph).

【0007】これら問題点を更に解決する為に、対象物
の2視点からの2次元平面データ(即ち、ある対象物の
2方向からの平面データ(例えば写真等))を予め入力
し、その2視点の2次元平面データから視点間に於ける
内挿画像(元となる画像から視点を補間する為に自動的
に作成された画像を指す)を自動的に作成しそれを表示
するという方法が考案されている。
In order to further solve these problems, two-dimensional plane data of an object from two viewpoints (that is, plane data (for example, photographs) of an object from two directions) is input in advance, A method of automatically creating an interpolated image between the viewpoints (refers to an image created automatically to interpolate the viewpoint from the original image) from the two-dimensional plane data of the viewpoint and displaying it. It has been devised.

【0008】この方法は、2視点からの2次元平面デー
タ(以下、画像)に於いて対応する点を8組以上と、画
像の特徴を表す線分(以下、特徴線)を任意の本数指定
することにより2画像間の視点を補間してその内挿画像
を表示する方法であり、その一例が特願2000−24
3032号公報に明示されている。この方法を用いると
従来の画像補間と異なり視点の射影幾何学的制約に基づ
いた内挿画像を作成することが可能となる。
In this method, eight or more sets of corresponding points in two-dimensional plane data (hereinafter, referred to as an image) from two viewpoints and an arbitrary number of line segments (hereinafter, referred to as feature lines) representing features of the image are designated. And interpolating the viewpoint between the two images to display the interpolated image, an example of which is disclosed in Japanese Patent Application No. 2000-24.
3032 publication. Using this method, unlike conventional image interpolation, it is possible to create an interpolated image based on projective geometric constraints of the viewpoint.

【0009】しかし上記発明には、以下のような問題点
が存在している。 (1)内挿画像を作成する際に、特徴線と画像内の全画
素の組合せが膨大な数となり、多大なる演算時間が必要
となる。 (2)特徴線の影響範囲のパラメータ設定が困難であ
り、不自然な内挿画像を作成する場合がある。 (3)特願2000−243032号公報に明示されて
いるように2視点からの画像補間においては、例え2画
像の組合せを複数枚用意しても、その視点移動は1次元
的にしか実現できず、空間内を自由に視点移動すること
が出来ない。
However, the above-mentioned invention has the following problems. (1) When creating an interpolated image, the number of combinations of feature lines and all pixels in the image becomes enormous, and a great deal of calculation time is required. (2) It is difficult to set the parameter of the influence range of the characteristic line, and an unnatural interpolated image may be created. (3) As disclosed in Japanese Patent Application No. 2000-243032, in image interpolation from two viewpoints, even if a plurality of combinations of two images are prepared, the viewpoint movement can be realized only in one dimension. And the viewpoint cannot be freely moved in the space.

【0010】[0010]

【課題を解決するための手段】本発明者は上記問題点に
鑑み、以下のような手法を採用することにより解決し
た。 (1)画像の組に対して共通の面を定義し、面の頂点の
みを平行化画像(後述)で内挿し、面内部の画素につい
ては線形補間した面のテクスチャをマッピングして表示
する。 (2)従来2視点だった視点を3視点とすることも可能
となり、この場合には視点を2次元的に移動できる。即
ち、3視点の組を全方位に設定すれば、ユーザが希望す
る任意の視点から対象物の画像を閲覧できる。
SUMMARY OF THE INVENTION In view of the above problems, the present inventor has solved the problem by employing the following method. (1) A common plane is defined for a set of images, only the vertices of the plane are interpolated by a parallelized image (described later), and the pixels inside the plane are displayed by mapping the texture of the linearly interpolated plane. (2) It is possible to change the viewpoint from the conventional two viewpoints to the three viewpoints. In this case, the viewpoint can be moved two-dimensionally. That is, if the set of three viewpoints is set to all directions, the image of the object can be viewed from any viewpoint desired by the user.

【0011】請求項1の発明は、ユーザが希望する視点
からの対象物の内挿画像を自動作成する画像表示システ
ムであって、前記対象物の複数視点からの2次元画像を
取り込む画像取込手段を有するサーバとネットワークを
介してデータの送受信が可能なユーザ端末を有する画像
表示システムに於いて、前記ユーザ端末は、前記サーバ
から前記2次元画像を受信し前記ユーザが希望する視点
からの対象物の内挿画像を自動作成する内挿画像作成手
段を有する画像表示システムである。
According to a first aspect of the present invention, there is provided an image display system for automatically creating an interpolated image of an object from a viewpoint desired by a user, wherein the image capturing system captures a two-dimensional image of the object from a plurality of viewpoints. In an image display system having a user terminal capable of transmitting and receiving data via a network with a server having means, the user terminal receives the two-dimensional image from the server and receives an object from a viewpoint desired by the user. An image display system having an interpolated image creating means for automatically creating an interpolated image of an object.

【0012】請求項33の発明は、サーバとネットワー
クを介してデータの送受信が可能なユーザ端末に於い
て、ユーザが希望する視点からの対象物の内挿画像を自
動作成する画像表示方法であって、前記ユーザ端末は、
前記サーバから前記2次元画像を受信することにより前
記ユーザが希望する視点からの対象物の内挿画像を自動
作成する画像表示方法である。
The invention according to claim 33 is an image display method for automatically creating an interpolated image of an object from a viewpoint desired by a user in a user terminal capable of transmitting and receiving data via a server and a network. And the user terminal
An image display method for automatically creating an interpolated image of an object from a viewpoint desired by the user by receiving the two-dimensional image from the server.

【0013】請求項65の発明は、ユーザが希望する視
点からの対象物の内挿画像を自動作成し閲覧するサーバ
上に於いて、前記内挿画像を自動作成する画像表示シス
テムであって、前記サーバは、前記対象物の複数視点か
らの2次元画像を取り込む画像取込手段と、前記希望す
る視点からの対象物の内挿画像を自動作成する内挿画像
作成手段とを有する画像表示システムである。
An invention according to claim 65 is an image display system for automatically creating an interpolated image on a server for automatically creating and browsing an interpolated image of an object from a viewpoint desired by a user, An image display system comprising: an image capturing unit that captures a two-dimensional image of the object from a plurality of viewpoints; and an interpolated image creating unit that automatically creates an interpolated image of the object from the desired viewpoint. It is.

【0014】請求項94の発明は、ユーザが希望する視
点からの対象物の内挿画像を自動作成し閲覧するサーバ
上に於いて、前記内挿画像を自動作成する画像表示方法
であって、前記サーバは、前記対象物の複数視点からの
2次元画像を取込み、前記希望する視点からの対象物の
内挿画像を自動作成する画像表示方法である。
An invention according to claim 94 is an image display method for automatically creating an interpolated image on a server for automatically creating and browsing an interpolated image of an object from a viewpoint desired by a user, The server is an image display method for acquiring a two-dimensional image of the object from a plurality of viewpoints and automatically creating an interpolated image of the object from the desired viewpoint.

【0015】請求項1及び請求項33の発明によって、
サーバ上に於いて予め取り込まれた2次元画像から、ユ
ーザが希望する視点の内挿画像をユーザ端末上に於いて
自動作成することが可能となる。
According to the first and third aspects of the present invention,
From the two-dimensional image captured in advance on the server, an interpolated image of the viewpoint desired by the user can be automatically created on the user terminal.

【0016】請求項65及び請求項94の発明によっ
て、サーバ上に於いて予め取り込んだ2次元画像を同一
サーバ上(但し論理的に同一端末という意味であって、
物理的に同一端末でなくても良い。以下同様)に於い
て、希望する視点の内挿画像を自動作成することが可能
となる。
According to the inventions of claims 65 and 94, the two-dimensional image previously captured on the server is transferred to the same server (however, logically the same terminal,
The terminals need not be physically the same. In the same manner, the interpolated image of the desired viewpoint can be automatically created.

【0017】請求項2の発明は、ユーザが希望する視点
からの対象物の内挿画像を自動作成する画像表示システ
ムであって、前記ユーザが希望する視点からの対象物の
内挿画像を自動作成する内挿画像作成手段を有するユー
ザ端末とネットワークを介してデータの送受信が可能な
サーバを有する画像表示システムに於いて、前記サーバ
は、前記対象物の複数視点からの2次元画像を取り込み
前記2次元画像を前記ユーザ端末に送信する画像取込手
段を有する画像表示システムである。
According to a second aspect of the present invention, there is provided an image display system for automatically creating an interpolated image of an object from a viewpoint desired by a user, wherein the interpolated image of the object from a viewpoint desired by the user is automatically generated. In an image display system having a server capable of transmitting and receiving data via a network and a user terminal having an interpolated image creating means for creating, the server captures a two-dimensional image of the object from a plurality of viewpoints. An image display system having image capturing means for transmitting a two-dimensional image to the user terminal.

【0018】請求項34の発明は、ユーザ端末とネット
ワークを介してデータの送受信が可能なサーバに於い
て、ユーザが希望する視点からの対象物の内挿画像を前
記ユーザ端末に於いて自動作成させる画像表示方法であ
って、前記サーバは、前記対象物の複数視点からの2次
元画像を取込み、前記2次元画像を前記ユーザ端末に送
信する画像表示方法である。
According to a thirty-fourth aspect of the present invention, in a server capable of transmitting and receiving data to and from a user terminal via a network, an interpolated image of an object from a viewpoint desired by the user is automatically created at the user terminal. An image display method in which the server acquires a two-dimensional image of the object from a plurality of viewpoints and transmits the two-dimensional image to the user terminal.

【0019】請求項2及び請求項34の発明によって、
サーバ上に於いて予め取り込んだ2次元画像をユーザ端
末に送信し、ユーザが希望する視点の内挿画像をユーザ
端末上に於いて自動作成させることが可能となる。
According to the invention of claims 2 and 34,
It is possible to transmit a two-dimensional image captured in advance on the server to the user terminal and automatically create an interpolated image of a viewpoint desired by the user on the user terminal.

【0020】請求項3及び請求項66の発明は、前記画
像取込手段は、前記取り込んだ2次元画像の組に対して
共通の頂点と前記頂点を線で結んだ面とを定義する画像
表示システムである。
According to a third aspect of the present invention, in the image display device, the image capturing means defines a common vertex and a plane connecting the vertex with a line for the captured two-dimensional image set. System.

【0021】請求項35の発明は、前記サーバは、前記
ユーザ端末に前記2次元画像を送信する前に、複数の前
記2次元画像を取込み、前記取り込んだ2次元画像の組
に対して共通の頂点と前記頂点を線で結んだ面とを定義
する画像表示方法である。
According to a thirty-fifth aspect of the present invention, the server captures a plurality of the two-dimensional images before transmitting the two-dimensional image to the user terminal, and common to the set of the captured two-dimensional images. This is an image display method for defining vertices and a plane connecting the vertices with a line.

【0022】請求項95の発明は、前記サーバは、前記
取り込んだ2次元画像の組に対して共通の頂点と前記頂
点を線で結んだ面とを定義する画像表示方法である。
The invention according to claim 95 is an image display method in which the server defines a common vertex and a plane connecting the vertex with a line for the set of the captured two-dimensional images.

【0023】請求項3及び請求項35の発明によって、
面の定義を行うことで、従来行っていた画像モーフィン
グを行わずに、面のテクスチャをマッピングすることに
よって内挿画像の作成が可能となる。又請求項66及び
請求項95の発明によって、これらの面の定義を同一の
サーバ上で行うことが可能となる。
According to the invention of claims 3 and 35,
By defining a surface, it is possible to create an interpolated image by mapping the texture of the surface without performing the image morphing conventionally performed. According to the inventions of claims 66 and 95, it is possible to define these aspects on the same server.

【0024】請求項4及び請求項67の発明は、前記画
像取込手段は、前記取り込んだ2次元画像の組に対して
共通の頂点と前記頂点を線で結んだ面とを定義する際
に、前記対象物のエッジ端点を抽出し、前記取り込んだ
2次元画像の組に於いてドロネー三角形指定点を指定
し、前記2次元画像の組の内1枚の2次元画像に於いて
ドロネー三角形を生成し、前記ドロネー三角形指定点か
らエピポール制約を満たす修正を行い、前記修正後線形
探索を行うことによって、前記2次元画像の組に対して
共通の頂点と前記頂点を線で結んだ面とを自動的に定義
する画像表示システムである。
According to a fourth aspect of the present invention, the image capturing means defines a common vertex and a plane connecting the vertex with a line for the set of the captured two-dimensional images. Extracting the edge endpoint of the object, designating a Delaunay triangle designation point in the captured two-dimensional image set, and extracting a Delaunay triangle in one two-dimensional image of the two-dimensional image set. Generate and correct the Epipole constraint from the Delaunay triangle specified point, and perform the corrected linear search to obtain a common vertex and a surface connecting the vertex with a line for the set of two-dimensional images. This is an image display system that is automatically defined.

【0025】請求項36及び請求項96の発明は、前記
サーバは、前記取り込んだ2次元画像の組に対して共通
の頂点と前記頂点を線で結んだ面とを定義する際に、前
記対象物のエッジ端点を抽出し、前記取り込んだ2次元
画像の組に於いてドロネー三角形指定点を指定し、前記
2次元画像の組の内1枚の2次元画像に於いてドロネー
三角形を生成し、前記ドロネー三角形指定点からエピポ
ール制約を満たす修正を行い、前記修正後線形探索を行
うことによって、前記2次元画像の組に対して共通の頂
点と前記頂点を線で結んだ面とを自動的に定義する画像
表示方法である。
According to a thirty-sixth aspect of the present invention, in the server, when defining a common vertex and a plane connecting the vertex with a line for the captured two-dimensional image set, Extracting an edge end point of the object, designating a Delaunay triangle designation point in the set of the captured two-dimensional images, and generating a Delaunay triangle in one two-dimensional image of the set of the two-dimensional images; By performing a correction that satisfies the epipole constraint from the Delaunay triangle designation point and performing the corrected linear search, a common vertex and a surface connecting the vertex with a line are automatically set for the set of the two-dimensional images. This is the image display method to be defined.

【0026】請求項4、請求項36、請求項67及び請
求項96の発明によって、請求項3、請求項35、請求
項66及び請求項95の発明のように、人間(画像作成
者)自らが両方の共通の頂点と前記頂点を結んだ面とを
定義しなくとも、一方の画像に於いてそれらを指定すれ
ば、他方の画像に於いてもそれらが自動的に定義させる
こととなり、手間の負担を軽減することが可能となる。
According to the inventions of claims 4, 36, 67, and 96, the human (image creator) himself / herself can be provided as in the inventions of claims 3, 35, 66, and 95. Does not define both common vertices and the surface connecting the vertices, if they are specified in one image, they will be automatically defined in the other image, Can be reduced.

【0027】請求項5及び請求項68の発明は、前記画
像取込手段は、仮想3次元空間座標系を前記サーバ上に
想定し、前記仮想3次元空間座標系原点を中心とする球
の極座標と前記サーバにおける入力デバイスの移動量と
を対応させることにより、前記2次元画像の視点設定を
行う画像表示システムである。
According to a fifth and a 68th aspect of the present invention, the image capturing means assumes a virtual three-dimensional space coordinate system on the server and polar coordinates of a sphere centered on the virtual three-dimensional space coordinate system origin. An image display system that sets a viewpoint of the two-dimensional image by associating a movement amount of an input device with the server.

【0028】請求項37及び請求項97の発明は、前記
サーバは、前記2次元画像を取り込む際に、仮想3次元
空間座標系を前記サーバ上に想定し、前記仮想3次元空
間座標系原点を中心とする球の極座標と前記サーバにお
ける入力デバイスの移動量とを対応させることにより、
前記2次元画像の視点設定を行う画像表示方法である。
According to the inventions of claims 37 and 97, when the server takes in the two-dimensional image, the server assumes a virtual three-dimensional space coordinate system on the server and sets the virtual three-dimensional space coordinate system origin. By associating the polar coordinates of the center sphere with the amount of movement of the input device in the server,
This is an image display method for setting a viewpoint of the two-dimensional image.

【0029】請求項5、請求項37、請求項68及び請
求項97の発明によって、2次元画像を取り込む際の3
次元の視点設定が、マウス等の入力デバイスを2次元的
に移動するだけで可能となり、2次元画像を取り込む際
の負担を軽減することが可能となる。
According to the fifth, 37th, 68th, and 97th aspects of the present invention, the three-dimensional
A two-dimensional viewpoint can be set only by moving an input device such as a mouse two-dimensionally, so that the burden of capturing a two-dimensional image can be reduced.

【0030】請求項6の発明は、前記内挿画像作成手段
は、前記サーバから前記2次元画像を受信し前記受信し
た2次元画像に対して予め定められた演算を行う初期情
報演算手段と、前記演算結果に基づいて平行化画像を自
動作成する平行化画像作成手段と、前記平行化画像に対
してテクスチャマッピングを行うテクスチャマッピング
手段とを有する画像表示システムである。
According to a sixth aspect of the present invention, the interpolated image creating means receives the two-dimensional image from the server and performs a predetermined operation on the received two-dimensional image, An image display system comprising: a parallelized image creating unit that automatically creates a parallelized image based on the calculation result; and a texture mapping unit that performs texture mapping on the parallelized image.

【0031】請求項38の発明は、前記ユーザ端末は、
前記ユーザが希望する視点からの対象物の内挿画像を自
動作成する際に、前記サーバから前記2次元画像を受信
し前記受信した2次元画像に対して予め定められた演算
を行い、前記演算結果に基づいて平行化画像を自動作成
し、前記平行化画像に対してテクスチャマッピングを行
う画像表示方法である。
According to a thirty-eighth aspect of the present invention, the user terminal comprises:
When automatically creating an interpolated image of the object from the viewpoint desired by the user, the user receives the two-dimensional image from the server and performs a predetermined operation on the received two-dimensional image. This is an image display method for automatically creating a parallelized image based on a result and performing texture mapping on the parallelized image.

【0032】請求項69の発明は、前記内挿画像作成手
段は、前記2次元画像に対して予め定められた演算を行
う初期情報演算手段と、前記演算結果に基づいて平行化
画像を自動作成する平行化画像作成手段と、前記平行化
画像に対してテクスチャマッピングを行うテクスチャマ
ッピング手段とを有する画像表示システムである。
The invention of claim 69 is characterized in that the interpolation image creation means performs initial information calculation means for performing a predetermined calculation on the two-dimensional image, and automatically creates a parallelized image based on the calculation result. An image display system comprising: a parallelized image generating unit that performs texture mapping; and a texture mapping unit that performs texture mapping on the parallelized image.

【0033】請求項98の発明は、前記サーバは、前記
ユーザが希望する視点からの対象物の内挿画像を自動作
成する際に、前記2次元画像に対して予め定められた演
算を行い、前記演算結果に基づいて平行化画像を自動作
成し、前記平行化画像に対してテクスチャマッピングを
行う画像表示方法である。
The invention according to claim 98, wherein the server performs a predetermined operation on the two-dimensional image when automatically creating an interpolated image of the object from a viewpoint desired by the user, An image display method for automatically creating a parallelized image based on the calculation result and performing texture mapping on the parallelized image.

【0034】請求項6及び請求項38の発明によって、
従来の画像モーフィングを行わずに面のテクスチャをマ
ッピングすることに因る内挿画像の作成が可能となる。
又請求項69及び請求項98の発明によって、テクスチ
ャマッピングに因る内挿画像の作成を、その元とのなる
2次元画像を取り込んだサーバと同一のサーバ上に於い
て行うことが可能となる。
According to the invention of claims 6 and 38,
Interpolated images can be created by mapping surface textures without performing conventional image morphing.
According to the inventions of claims 69 and 98, the creation of an interpolated image based on texture mapping can be performed on the same server as the server that imported the original two-dimensional image. .

【0035】請求項7及び請求項70の発明は、前記初
期情報演算手段は、前記予め定められた演算として前記
2次元画像の組に対する基本行列の演算とエピポールの
演算とを含む画像表示システムである。
The invention according to claim 7 and claim 70 is an image display system wherein the initial information calculation means includes a calculation of a basic matrix and a calculation of epipole for the set of two-dimensional images as the predetermined calculation. is there.

【0036】請求項39及び請求項99の発明は、前記
予め定められた演算として前記2次元画像の組に対する
基本行列の演算とエピポールの演算とを含む画像表示方
法である。
The invention according to claims 39 and 99 is an image display method including a basic matrix operation and an epipole operation on the two-dimensional image set as the predetermined operation.

【0037】請求項8の発明は、前記テクスチャマッピ
ング手段は、前記サーバに於いて定義された面の頂点を
前記自動作成した平行化画像に内挿し、線形補間を行
い、前記線形補間した面の頂点の内部に面内部の画素を
テクスチャマッピングする画像表示システムである。
In a preferred embodiment of the present invention, the texture mapping means interpolates vertices of the surface defined in the server into the automatically created parallelized image, performs linear interpolation, and calculates the linearly interpolated surface. This is an image display system that texture-maps pixels inside a surface inside vertices.

【0038】請求項40の発明は、前記テクスチャマッ
ピングを行う際に、前記サーバに於いて定義された面の
頂点を前記自動作成した平行化画像に内挿し、線形補間
を行い、前記線形補間した面の頂点の内部に面内部の画
素をテクスチャマッピングする画像表示方法である。
According to a 40th aspect of the present invention, when the texture mapping is performed, the vertices of the surface defined in the server are interpolated into the automatically created parallelized image, linear interpolation is performed, and the linear interpolation is performed. This is an image display method in which pixels inside the surface are texture-mapped inside the vertices of the surface.

【0039】請求項71の発明は、前記テクスチャマッ
ピング手段は、前記定義した面の頂点を前記自動作成し
た平行化画像に内挿し、線形補間を行い、前記線形補間
した面の頂点の内部に面内部の画素をテクスチャマッピ
ングする画像表示システムである。
The invention according to claim 71, wherein the texture mapping means interpolates the vertices of the defined surface into the automatically created parallelized image, performs linear interpolation, and sets the surface inside the vertices of the linearly interpolated surface. This is an image display system that texture maps internal pixels.

【0040】請求項100の発明は、前記テクスチャマ
ッピングを行う際に、前記定義した面の頂点を前記自動
作成した平行化画像に内挿し、線形補間を行い、前記線
形補間した面の頂点の内部に面内部の画素をテクスチャ
マッピングする画像表示方法である。
According to a 100th aspect of the present invention, when the texture mapping is performed, the vertices of the defined surface are interpolated into the automatically created parallelized image, and linear interpolation is performed. This is an image display method for texture mapping pixels inside the surface.

【0041】従来は画像モーフィングの際に全画素に対
して特徴線との演算を行い、その処理時間に多大なる時
間を費やしていたいが、請求項8及び請求項40の発明
によって、実時間での内挿画像作成が可能となった。又
請求項71及び請求項100の発明によって、これらを
2次元画像を取り込んだサーバと同一のサーバ上に於い
て行うことが可能となった。
Conventionally, at the time of image morphing, calculation with a characteristic line is performed for all pixels, and it is desired to spend a great deal of time on the processing time. Interpolated images can be created. Also, according to the inventions of claims 71 and 100, it is possible to perform these on the same server as the server that has captured the two-dimensional image.

【0042】請求項9の発明は、前記テクスチャマッピ
ング手段は、前記定義された全て又は一部の面に対して
テクスチャ画像を選択する面選択手段を更に有する画像
表示システムである。
A ninth aspect of the present invention is the image display system, wherein the texture mapping means further includes a face selecting means for selecting a texture image for all or some of the defined faces.

【0043】請求項41の発明は、前記テクスチャマッ
ピングを行う際に、前記定義された全て又は一部の面に
対してテクスチャ画像を選択する処理を更に行う画像表
示方法である。
The invention according to claim 41 is an image display method which further includes, when performing the texture mapping, a process of selecting a texture image for all or some of the defined surfaces.

【0044】請求項72の発明は、前記テクスチャマッ
ピング手段は、前記定義した全て又は一部の面に対して
テクスチャ画像を選択する面選択手段を更に有する画像
表示システムである。
The invention of claim 72 is an image display system wherein said texture mapping means further comprises a face selecting means for selecting a texture image for all or some of the defined faces.

【0045】請求項101の発明は、前記テクスチャマ
ッピングを行う際に、前記定義した全て又は一部の面に
対してテクスチャ画像を選択する処理を更に行う画像表
示方法である。
The invention according to claim 101 is an image display method for further performing a process of selecting a texture image for all or some of the defined surfaces when performing the texture mapping.

【0046】請求項10及び請求項73の発明は、前記
面選択手段は、前記面に対して1の面のみが前記ユーザ
が指定する視点に対して表向きの場合にはその面をテク
スチャ画像として選択し、2以上の面が表向きの場合に
は、前記表向きの面の面積を計算し前記面積が大きい面
をテクスチャ画像として選択する、及び/又は、画像A
の輝度をA、画像Bの輝度をB、前記画像Aと前記画像
Bとの間の視点に於いて、前記画像Bから視点迄の距離
の比率をd(0≦d≦1)とした場合、S=A×d+B
(1−d)によって算出される画像の輝度Sをテクスチ
ャ画像として選択する画像表示システムである。
In a tenth aspect and a thirty-third aspect of the invention, when only one surface of the surface is facing up to a viewpoint designated by the user, the surface selecting means sets the surface as a texture image. If two or more faces are facing up, the area of the facing face is calculated and the face having the larger area is selected as a texture image, and / or image A
Is A, the brightness of the image B is B, and the ratio of the distance from the image B to the viewpoint at the viewpoint between the image A and the image B is d (0 ≦ d ≦ 1). , S = A × d + B
This is an image display system that selects a luminance S of an image calculated by (1-d) as a texture image.

【0047】請求項42及び請求項102の発明は、前
記テクスチャ画像を選択する処理の際に、前記面に対し
て1の面のみが前記ユーザが指定する視点に対して表向
きの場合にはその面をテクスチャ画像として選択し、2
以上の面が表向きの場合には、前記表向きの面の面積を
計算し前記面積が大きい面をテクスチャ画像として選択
する、及び/又は、画像Aの輝度をA、画像Bの輝度を
B、前記画像Aと前記画像Bとの間の視点に於いて、前
記画像Bから視点迄の距離の比率をd(0≦d≦1)と
した場合、S=A×d+B(1−d)によって算出され
る画像の輝度Sをテクスチャ画像として選択する画像表
示方法である。
The invention of claims 42 and 102 is characterized in that, in the process of selecting the texture image, if only one of the surfaces is facing up with respect to the viewpoint specified by the user, Select the face as the texture image,
When the above-mentioned surface is facing up, the area of the facing surface is calculated and the surface having the larger area is selected as a texture image, and / or the brightness of the image A is A, the brightness of the image B is B, When the ratio of the distance from the image B to the viewpoint at the viewpoint between the image A and the image B is d (0 ≦ d ≦ 1), S = A × d + B (1-d). This is an image display method in which the luminance S of the image to be selected is selected as a texture image.

【0048】請求項10、請求項42、請求項73及び
請求項102の発明によって、テクスチャ画像の画質の
向上が可能となり、より自然な内挿画像をテクスチャと
することが可能となる。
According to the inventions of claims 10, 42, 73 and 102, the image quality of a texture image can be improved, and a more natural interpolated image can be used as a texture.

【0049】請求項11及び請求項74の発明は、前記
面選択手段は、エピポールからの距離が遠い面から順に
描画する画像表示システムである。
The eleventh aspect and the seventy-fourth aspect are the image display system in which the plane selecting means draws the image in order from a plane far from the epipole.

【0050】請求項43及び請求項103の発明は、前
記テクスチャ画像を選択する処理の際に、エピポールか
らの距離が遠い面から順に描画する画像表示方法であ
る。
The invention according to claims 43 and 103 is an image display method in which, in the process of selecting the texture image, the image is drawn in order from the surface farther from the epipole.

【0051】請求項10、請求項42、請求項73及び
請求項102の発明に於いては、必ずどちらかの画像か
らテクスチャとして貼り付けられる画像が選択されてい
た。その為、視点を移動する際に頻繁にテクスチャとし
て貼り付けられる画像が切り替わる場合があり、見かけ
上好ましくなかったが、請求項11、請求項43、請求
項74及び請求項103の発明によって、視点移動の際
に画像の切り替わりをなくし、より自然且つ簡便な内挿
画像の描画が可能となった。
In the inventions of claims 10, 42, 73 and 102, an image to be pasted as a texture is always selected from one of the images. For this reason, when the viewpoint is moved, the image pasted as the texture may be frequently switched, which is not preferable in appearance. However, according to the invention of claim 11, claim 43, claim 74, and claim 103, Switching between images during movement has been eliminated, and more natural and simple rendering of interpolated images has become possible.

【0052】請求項12及び請求項75の発明は、前記
テクスチャマッピング手段は、前記面の輪郭処理を行う
輪郭処理手段を更に有する画像表示システムである。
The invention according to claims 12 and 75 is an image display system wherein said texture mapping means further comprises contour processing means for performing contour processing on said surface.

【0053】請求項44及び請求項104の発明は、前
記テクスチャマッピングを行う際に、前記面の輪郭処理
を更に行う画像表示方法である。
The invention according to claims 44 and 104 is an image display method for further performing contour processing of the surface when performing the texture mapping.

【0054】請求項13及び請求項76の発明は、前記
輪郭処理手段は、前記面の頂点座標を平均する点を面の
重心とし前記面の重心を通り面頂点間のつながりである
稜線に垂直な外向きの単位ベクトルである稜線オフセッ
トベクトルを各面毎に演算し、前記演算した稜線オフセ
ットベクトルを平均することにより、頂点を含む境界稜
線オフセットベクトルの平均単位ベクトルである頂点オ
フセットベクトルを演算し、前記作成した内挿画像に対
して境界稜線の両端頂点とそこからオフセットベクトル
方向に移動した頂点で構成されるオフセット面を表示
し、その後、通常の面を表示することにより、輪郭処理
を行う画像表示システムである。
According to a thirteenth aspect of the present invention, the contour processing means sets a point at which a vertex coordinate of the surface is averaged as a center of gravity of the surface and passes through the center of gravity of the surface and is perpendicular to a ridge line which is a connection between surface vertices. Calculate the vertex offset vector, which is the average unit vector of the boundary ridge offset vector including the vertex, by calculating a ridge line offset vector, which is a unit outward vector, for each surface, and averaging the calculated ridge line offset vectors. The contour processing is performed by displaying an offset surface composed of the vertices at both ends of the boundary ridge line and vertices moved in the offset vector direction from the created interpolated image, and then displaying a normal surface. An image display system.

【0055】請求項45及び請求項105の発明は、前
記輪郭処理の際に、前記面の頂点座標を平均する点を面
の重心とし前記面の重心を通り面頂点間のつながりであ
る稜線に垂直な外向きの単位ベクトルである稜線オフセ
ットベクトルを各面毎に演算し、前記演算した稜線オフ
セットベクトルを平均することにより、頂点を含む境界
稜線オフセットベクトルの平均単位ベクトルである頂点
オフセットベクトルを演算し、前記作成した内挿画像に
対して境界稜線の両端頂点とそこからオフセットベクト
ル方向に移動した頂点で構成されるオフセット面を表示
し、その後、通常の面を表示することにより、輪郭処理
を行う画像表示方法である。
The invention according to claims 45 and 105 is characterized in that, in the contour processing, a point at which the coordinates of the vertices of the surface are averaged is set as the center of gravity of the surface, and the ridge line which passes through the center of gravity of the surface and is a connection between the surface vertices Calculate a vertex offset vector, which is an average unit vector of a boundary ridge offset vector including a vertex, by calculating a ridge offset vector that is a vertical outward unit vector for each face, and averaging the calculated ridge offset vectors. Then, for the created interpolated image, an offset surface composed of both end vertices of the boundary ridge line and vertices moved in the direction of the offset vector therefrom is displayed, and thereafter, a normal surface is displayed, thereby performing contour processing. This is an image display method to be performed.

【0056】請求項13、請求項45、請求項76及び
請求項105の発明によって、テクスチャ画像の輪郭を
より鮮明とすることが可能となり、例えばぬいぐるみの
ような輪郭を直線で示すことが困難である対象物に対し
ても、その輪郭の鮮明化を可能とする。
According to the inventions of claims 13, 45, 76 and 105, the contour of the texture image can be sharpened. For example, it is difficult to show the contour of a stuffed toy with a straight line. The contour of a certain object can be sharpened.

【0057】請求項14及び請求項77の発明は、前記
テクスチャマッピング手段は、前記面の色補正処理を行
う色補正手段を更に有する画像表示システムである。
The invention according to claims 14 and 77 is an image display system wherein the texture mapping means further comprises a color correction means for performing a color correction process on the surface.

【0058】請求項46及び請求項106の発明は、前
記テクスチャマッピングを行う際に、前記面の色補正処
理を更に行う画像表示方法である。
The invention according to claims 46 and 106 is an image display method for further performing a color correction process on said surface when performing said texture mapping.

【0059】請求項15及び請求項78の発明は、前記
色補正手段は、画素点pに対応するテクスチャ画像0,
1の色をC(p)、C(p)とし稜線の重みをwと
すると、補正する色C(p)を、数1で演算することに
より補正する色を算出し色を補正する画像表示システム
である。
According to a fifteenth aspect and a thirty-eighth aspect of the present invention, the color correction means includes the steps of:
Assuming that the color of No. 1 is C 0 (p) and C 1 (p) and the weight of the ridge line is w, the color to be corrected is calculated by calculating the color C (p) to be corrected by Equation 1 to correct the color. An image display system.

【0060】請求項47及び請求項107の発明は、前
記色補正処理を行う際に、画素点pに対応するテクスチ
ャ画像0,1の色をC (p)、C(p)とし稜線の
重みをwとすると、補正する色C(p)を、数1で演算
することにより補正する色を算出し色を補正する画像表
示方法である。
The invention of claim 47 and claim 107 is
When performing the color correction process, the text corresponding to the pixel point p
Color of image 0,1 is C 0(P), C1(P)
Assuming that the weight is w, the color C (p) to be corrected is calculated by Equation 1.
Image table to calculate the color to be corrected by performing
It is a method of showing.

【0061】請求項15、請求項47、請求項78及び
請求項107の発明によって、隣接面毎に異なるテクス
チャ画像が選択された場合に色差が生じる場合がある
が、それを解消することが可能となる。
According to the inventions of claims 15, 47, 78 and 107, a color difference may occur when a different texture image is selected for each adjacent face, but this can be solved. Becomes

【0062】請求項16及び請求項79の発明は、前記
画像取込手段に於いて3枚の前記2次元画像を1組とし
た場合には、前記ユーザが希望する視点からの最終内挿
画像を自動作成する際に前記内挿画像作成手段は、前記
取り込んだ2次元画像の組の中に於ける2枚の組合せを
用いて1次内挿画像を自動作成し、前記組の中に於ける
前記2枚の組合せ以外の2枚の組合せを用いて他の1次
内挿画像を自動作成し、前記自動作成した2枚の1次内
挿画像を用いて前記ユーザが希望する視点からの最終内
挿画像を自動作成する画像表示システムである。
The invention according to claims 16 and 79 is characterized in that, in the case where three sets of the two-dimensional images are set as one set in the image capturing means, the final interpolated image from the viewpoint desired by the user. Automatically creating a primary interpolated image by using a combination of the two images in the set of the captured two-dimensional images, and automatically creating a primary interpolated image in the set. Automatically creating another primary interpolation image using two combinations other than the combination of the two images obtained from the viewpoint from the viewpoint desired by the user using the two primary interpolation images created automatically. This is an image display system that automatically creates a final interpolated image.

【0063】請求項48の発明は、前記サーバに於いて
3枚の前記2次元画像を1組とした場合には、前記ユー
ザが希望する視点からの最終内挿画像を自動作成する際
に前記ユーザ端末は、前記取り込んだ2次元画像の組の
中に於ける2枚の組合せを用いて1次内挿画像を自動作
成し、前記組の中に於ける前記2枚の組合せ以外の2枚
の組合せを用いて他の1次内挿画像を自動作成し、前記
自動作成した2枚の1次内挿画像を用いて前記ユーザが
希望する視点からの最終内挿画像を自動作成する画像表
示方法である。
In the invention according to claim 48, when three sets of the two-dimensional images are set in the server, when the user automatically creates the final interpolated image from the viewpoint desired by the user, The user terminal automatically creates a primary interpolation image using the combination of the two images in the set of the captured two-dimensional images, and outputs two images other than the combination of the two images in the set. Image display for automatically creating another primary interpolation image using a combination of the above, and automatically creating a final interpolation image from a viewpoint desired by the user using the two primary interpolation images created automatically. Is the way.

【0064】請求項108の発明は、前記サーバに於い
て3枚の前記2次元画像を1組とした場合には、前記ユ
ーザが希望する視点からの最終内挿画像を自動作成する
際に、前記取り込んだ2次元画像の組の中に於ける2枚
の組合せを用いて1次内挿画像を自動作成し、前記組の
中に於ける前記2枚の組合せ以外の2枚の組合せを用い
て他の1次内挿画像を自動作成し、前記自動作成した2
枚の1次内挿画像を用いて前記ユーザが希望する視点か
らの最終内挿画像を自動作成する画像表示方法である。
The present invention according to claim 108, in the case where the three two-dimensional images are set as one set in the server, when the user automatically creates a final interpolated image from a viewpoint desired by the user, A primary interpolated image is automatically created using a combination of two images in the set of the captured two-dimensional images, and a combination of two images other than the combination of the two images in the set is used. Automatically create another primary interpolation image by using
This is an image display method for automatically creating a final interpolated image from a viewpoint desired by the user using one primary interpolated image.

【0065】請求項16及び請求項48の発明によっ
て、2次元での視点移動が可能となる。更に請求項79
及び請求項108の発明によって、2次元画像を取り込
んだサーバと同一のサーバ上に於いて、最終内挿画像を
作成することを可能とし、2次元での視点移動が可能と
なる。
According to the sixteenth and forty-eighth aspects, two-dimensional viewpoint movement is possible. Claim 79
In addition, according to the invention of Claim 108, it is possible to create a final interpolated image on the same server as the server that has imported the two-dimensional image, and it is possible to move the viewpoint in two dimensions.

【0066】請求項17及び請求項80の発明は、前記
画像取込手段に於いて3枚の前記2次元画像を1組とし
た場合には、前記ユーザが希望する視点からの内挿画像
を自動作成する際に前記内挿画像作成手段は、前記取り
込んだ3枚の2次元画像を用いて回転行列を算出し、前
記回転行列を用いて平行化回転変換を行い、前記平行化
回転変換に基づいて水平化回転変換を行い、前記水平化
回転変換に基づいてスケール変換を行い、前記平行化回
転変換、水平化回転変換、スケール変換に基づいてホモ
グラフィ行列を内挿し、内挿画像を自動作成する画像表
示システムである。
According to a seventeenth aspect of the present invention, in the case where three sets of the two-dimensional images are set as one set in the image capturing means, the interpolated image from the viewpoint desired by the user is converted to a set. When automatically creating, the interpolated image creating means calculates a rotation matrix using the three captured two-dimensional images, performs parallelization rotation conversion using the rotation matrix, and performs the parallelization rotation conversion. Performs a horizontal rotation conversion based on the horizontal rotation conversion, performs a scale conversion based on the horizontal rotation rotation conversion, interpolates the homography matrix based on the parallelization rotation conversion, the horizontal rotation conversion, and the scale conversion, and automatically interpolates the image. This is an image display system to be created.

【0067】請求項49及び請求項109の発明は、前
記サーバに於いて3枚の前記2次元画像を1組とした場
合には、前記ユーザが希望する視点からの内挿画像を自
動作成する際に前記ユーザ端末は、前記取り込んだ3枚
の2次元画像を用いて回転行列を算出し、前記回転行列
を用いて平行化回転変換を行い、前記平行化回転変換に
基づいて水平化回転変換を行い、前記水平化回転変換に
基づいてスケール変換を行い、前記平行化回転変換、水
平化回転変換、スケール変換に基づいてホモグラフィ行
列を内挿し、内挿画像を自動作成する画像表示方法であ
る。
According to the invention of claims 49 and 109, when three sets of the two-dimensional images are set as one set in the server, an interpolated image from a viewpoint desired by the user is automatically created. At this time, the user terminal calculates a rotation matrix using the three captured two-dimensional images, performs a parallelization rotation conversion using the rotation matrix, and performs a horizontal rotation conversion based on the parallelization rotation conversion. Perform the scale conversion based on the horizontal rotation conversion, the parallelization rotation conversion, the horizontal rotation conversion, interpolate the homography matrix based on the scale conversion, the image display method to automatically create an interpolation image is there.

【0068】請求項16、請求項48、請求項80及び
請求項109の発明に於いては、2次元での視点移動を
可能とする為に、3枚の1組としてその3枚の内2枚の
組を2組作成し、それらから1次内挿画像を作成し、そ
の後2枚の1次内挿画像から最終内挿画像を作成してい
た。従って、3枚の画像から作成する際に2段階のプロ
セスを経ていることとなる。しかし2段階のプロセスを
経ることによって、計算時間の増加、画像の歪み等が生
じることとなる。しかし請求項17及び請求項49の発
明によって、2次元での視点移動を保持した上で、3枚
の画像から1度で内挿画像を作成できることとなり、計
算時間の短縮、画像の歪み等を防ぐことが可能となる。
In the inventions of claims 16, 48, 80 and 109, in order to enable two-dimensional viewpoint movement, two of the three are set as one set of three. Two sets of sheets were created, a primary interpolation image was created from them, and then a final interpolation image was created from the two primary interpolation images. Therefore, when creating from three images, a two-step process is performed. However, going through the two-step process results in an increase in calculation time, image distortion, and the like. However, according to the seventeenth and forty-ninth aspects of the present invention, it is possible to create an interpolated image from three images at a time while maintaining the viewpoint movement in two dimensions, thereby shortening the calculation time and distorting the image. Can be prevented.

【0069】請求項18の発明は、前記ユーザ端末は、
前記作成した内挿画像に対して影を作成する影作成手段
を更に有する画像表示システムである。
[0069] The invention of claim 18 is a communication system, wherein the user terminal comprises:
An image display system further comprising a shadow creating means for creating a shadow on the created interpolated image.

【0070】請求項50の発明は、前記ユーザ端末は、
前記内挿画像を作成後、前記作成した内挿画像に対して
影を作成する処理を行う画像表示方法である。
The invention according to claim 50 is characterized in that the user terminal comprises:
An image display method for performing a process of creating a shadow on the created interpolation image after creating the interpolation image.

【0071】請求項81の発明は、前記サーバは、前記
作成した内挿画像に対して影を作成する影作成手段を更
に有する画像表示システムである。
The invention according to claim 81 is an image display system wherein said server further comprises a shadow creating means for creating a shadow on said created interpolated image.

【0072】請求項110の発明は、前記サーバは、前
記内挿画像を作成後、前記作成した内挿画像に対して影
を作成する処理を行う画像表示方法である。
The invention according to claim 110 is an image display method in which the server creates a shadow on the created interpolation image after creating the interpolation image.

【0073】請求項18及び請求項50の発明によっ
て、作成した内挿画像に対して影を付けることが可能と
なり、よりリアリティのある内挿画像をユーザ端末上に
於いて作成することが可能となる。又請求項81及び請
求項110の発明によって、作成した内挿画像に対して
影を付けることが可能となり、よりリアリティのある内
挿画像を、2次元画像を取り込んだサーバと同一のサー
バ上に於いて作成することが可能となる。
According to the inventions of claims 18 and 50, it is possible to add a shadow to the created interpolation image, and to create a more realistic interpolation image on the user terminal. Become. According to the inventions of claims 81 and 110, it is possible to add a shadow to the created interpolated image, and a more realistic interpolated image is placed on the same server as the server that imported the two-dimensional image. It can be created at

【0074】請求項19及び請求項82の発明は、前記
影作成手段は、アフィン変換行列を用いて対象物に対す
る影を作成する画像表示システムである。
The invention according to claims 19 and 82 is an image display system wherein the shadow creating means creates a shadow for an object using an affine transformation matrix.

【0075】請求項51及び請求項111の発明は、前
記影を作成する処理は、アフィン変換行列を用いて対象
物に対する影を作成する画像表示方法である。
The invention of claims 51 and 111 is an image display method in which the process of creating a shadow creates a shadow on an object using an affine transformation matrix.

【0076】請求項20の発明は、前記ユーザ端末は、
前記作成した内挿画像に対して反射を作成する反射作成
手段を更に有する画像表示システムである。
According to a twentieth aspect, the user terminal comprises:
An image display system further comprising reflection creating means for creating a reflection on the created interpolation image.

【0077】請求項52の発明は、前記ユーザ端末は、
前記内挿画像を作成後、前記作成した内挿画像に対して
反射を作成する処理を更に行う画像表示方法である。
[0077] The invention according to claim 52 is that the user terminal comprises:
This is an image display method that further performs a process of creating a reflection on the created interpolation image after creating the interpolation image.

【0078】請求項83の発明は、前記サーバは、前記
作成した内挿画像に対して反射を作成する反射作成手段
を更に有する画像表示システムである。
The invention according to claim 83 is an image display system in which the server further comprises reflection creating means for creating a reflection on the created interpolation image.

【0079】請求項112の発明は、前記サーバは、前
記内挿画像を作成後、前記作成した内挿画像に対して反
射を作成する処理を更に行う画像表示方法である。
The invention according to claim 112 is an image display method in which the server further performs a process of creating a reflection on the created interpolation image after creating the interpolation image.

【0080】請求項20及び請求項52の発明によっ
て、作成した内挿画像に対して反射を付けることが可能
となり、よりリアリティのある内挿画像をユーザ端末上
に於いて作成することが可能となる。又請求項83及び
請求項112の発明によって、作成した内挿画像に対し
て反射を付けることが可能となり、よりリアリティのあ
る内挿画像を、2次元画像を取り込んだサーバと同一の
サーバ上に於いて作成することが可能となる。
According to the twentieth and fifty-second aspects of the present invention, it is possible to reflect the created interpolated image, and to create a more realistic interpolated image on the user terminal. Become. Further, according to the inventions of claims 83 and 112, it is possible to add reflection to the created interpolation image, so that the interpolation image with more reality is placed on the same server as the server that imported the two-dimensional image. It can be created at

【0081】請求項21及び請求項84の発明は、前記
反射作成手段は、アフィン変換行列を用いて対象物に対
する反射を作成する画像表示システムである。
The invention according to claims 21 and 84 is an image display system wherein the reflection creating means creates a reflection for an object using an affine transformation matrix.

【0082】請求項53及び請求項113の発明は、前
記反射を作成する処理は、アフィン変換行列を用いて対
象物に対する反射を作成する画像表示方法である。
The invention of claims 53 and 113 is an image display method in which the processing of creating a reflection creates an reflection on an object using an affine transformation matrix.

【0083】請求項22の発明は、前記ユーザ端末は、
少なくとも一以上の内挿画像、影、反射及び/又は2次
元画像からその3次元情報を復元することにより、少な
くとも一以上の対象物を同一視点で一枚以上の画像に合
成する合成表示手段を更に有する画像表示システムであ
る。
According to a twenty-second aspect of the present invention, the user terminal includes:
Combination display means for combining at least one or more objects with one or more images from the same viewpoint by restoring the three-dimensional information from at least one or more interpolated images, shadows, reflections, and / or two-dimensional images. This is an image display system further provided.

【0084】請求項54の発明は、前記ユーザ端末は、
少なくとも一以上の内挿画像、影、反射及び/又は2次
元画像からその3次元情報を復元することにより、少な
くとも一以上の対象物を同一視点で一枚以上の画像に合
成する処理を更に行う画像表示方法である。
The invention of claim 54 is that the user terminal comprises:
By restoring the three-dimensional information from at least one or more interpolated images, shadows, reflections, and / or two-dimensional images, a process of combining at least one or more objects with one or more images from the same viewpoint is further performed. This is an image display method.

【0085】請求項85の発明は、前記サーバは、少な
くとも一以上の内挿画像、影、反射及び/又は2次元画
像からその3次元情報を復元することにより、少なくと
も一以上の対象物を同一視点で一枚以上の画像に合成す
る合成表示手段を更に有する画像表示システムである。
[0085] The server according to claim 85, wherein the server restores at least one or more objects by identifying the three-dimensional information from at least one or more interpolated images, shadows, reflections, and / or two-dimensional images. An image display system further comprising a combination display unit for combining one or more images from a viewpoint.

【0086】請求項114の発明は、前記サーバは、少
なくとも一以上の内挿画像、影、反射及び/又は2次元
画像からその3次元情報を復元することにより、少なく
とも一以上の対象物を同一視点で一枚以上の画像に合成
する処理を更に行う画像表示方法である。
The invention according to claim 114, wherein the server restores at least one or more objects by identifying the three-dimensional information from at least one or more interpolated images, shadows, reflections, and / or two-dimensional images. This is an image display method that further performs a process of synthesizing one or more images from a viewpoint.

【0087】請求項22及び請求項54の発明によっ
て、対象物の画像を他の2次元画像と組み合わせること
が可能となる。又請求項85及び請求項114の発明に
よって、2次元画像を取り込んだサーバと同一のサーバ
上に於いて、対象物の画像を他の2次元画像と組み合わ
せることが可能となる。
According to the inventions of claims 22 and 54, it is possible to combine an image of an object with another two-dimensional image. According to the inventions of claims 85 and 114, it is possible to combine an image of a target object with another two-dimensional image on the same server as the server that has captured the two-dimensional image.

【0088】請求項23及び請求項86の発明は、前記
復元として、射影復元あるいはユークリッド復元を用い
る画像表示システムである。
The invention according to claims 23 and 86 is an image display system using projection restoration or Euclidean restoration as the restoration.

【0089】請求項55及び請求項115の発明は、前
記復元として、射影復元あるいはユークリッド復元を用
いる画像表示方法である。
The invention of claims 55 and 115 is an image display method using projection restoration or Euclidean restoration as said restoration.

【0090】請求項24及び請求項87の発明は、前記
サーバは、前記内挿画像の自動連続表示を行う際の視点
の経路と移動速度を設定する自動連続手段を更に有して
いる画像表示システムである。
The invention according to claims 24 and 87, wherein the server further comprises an automatic continuation means for setting a viewpoint path and a moving speed when performing the automatic continuous display of the interpolated image. System.

【0091】請求項56及び請求項116の発明は、前
記サーバは、前記内挿画像の自動連続表示を行う際の視
点の経路と移動速度を設定する自動連続処理を更に行う
画像表示方法である。
The invention according to claims 56 and 116 is an image display method wherein said server further performs an automatic continuous process for setting a viewpoint path and a moving speed when performing said automatic continuous display of said interpolated image. .

【0092】請求項24、請求項56、請求項87及び
請求項116の発明によって、内挿画像の自動連続表示
を行う際に、より柔軟性のある連続表示を行うことが可
能となる。
According to the twenty-fourth, fifty-sixth, eighty-seventh, and sixteenth aspects of the present invention, it is possible to perform continuous display with more flexibility when performing automatic continuous display of interpolated images.

【0093】請求項25及び請求項88の発明は、前記
自動連続手段は、仮想3次元空間座標系を前記サーバ上
に想定し、前記仮想3次元空間座標系原点を中心とする
球の極座標と前記サーバに於ける入力デバイスの移動量
とを対応させることにより経路を設定する画像表示シス
テムである。
According to a twenty-fifth aspect of the present invention, in the automatic continuation means, a virtual three-dimensional space coordinate system is assumed on the server, and a polar coordinate of a sphere centered on the virtual three-dimensional space coordinate system origin. An image display system for setting a route by associating the amount of movement of an input device with the server.

【0094】請求項57及び請求項117の発明は、前
記自動連続処理を行う際には、仮想3次元空間座標系を
前記サーバ上に想定し、前記仮想3次元空間座標系原点
を中心とする球の極座標と前記サーバに於ける入力デバ
イスの移動量とを対応させることにより経路を設定する
画像表示方法である。
According to the inventions of claims 57 and 117, in performing the automatic continuous processing, a virtual three-dimensional space coordinate system is assumed on the server, and the virtual three-dimensional space coordinate system origin is set as a center. This is an image display method for setting a route by associating the polar coordinates of a sphere with the movement amount of an input device in the server.

【0095】請求項25、請求項57、請求項88及び
請求項117の発明によって、サーバ上に於いてマウス
等の入力デバイスを用いて視点の経路を容易に設定する
ことが可能となる。
According to the invention of claims 25, 57, 88 and 117, it is possible to easily set the route of the viewpoint on the server by using an input device such as a mouse.

【0096】請求項26の発明は、前記ユーザ端末は、
前記内挿画像の自動連続表示を行う際の視点の経路と移
動速度を設定する自動連続手段を更に有している画像表
示システムである。
[0096] According to a twenty-sixth aspect, the user terminal comprises:
An image display system further comprising automatic continuation means for setting a path and a moving speed of a viewpoint when performing automatic continuous display of the interpolated image.

【0097】請求項58の発明は、前記ユーザ端末は、
前記内挿画像の自動連続表示を行う際の視点の経路と移
動速度を設定する自動連続処理を更に行う画像表示方法
である。
The invention according to claim 58 is characterized in that the user terminal comprises:
This is an image display method that further performs automatic continuous processing for setting a viewpoint route and a moving speed when performing the automatic continuous display of the interpolated image.

【0098】請求項26及び請求項58の発明によっ
て、内挿画像の自動連続表示を行う際に、より柔軟性の
ある連続表示を行うことが可能となる。
According to the twenty-sixth and fifty-eighth aspects, it is possible to perform continuous display with more flexibility when performing automatic continuous display of interpolated images.

【0099】請求項27の発明は、前記自動連続手段
は、仮想3次元空間座標系を前記ユーザ端末上に想定
し、前記仮想3次元空間座標系原点を中心とする球の極
座標と前記ユーザ端末に於ける入力デバイスの移動量と
を対応させることにより経路を設定する画像表示システ
ムである。
The invention according to claim 27 is characterized in that said automatic continuation means assumes a virtual three-dimensional space coordinate system on said user terminal, and polar coordinates of a sphere centered on said virtual three-dimensional space coordinate system origin and said user terminal. Is an image display system for setting a route by associating the amount of movement of the input device in the above.

【0100】請求項59の発明は、前記自動連続処理を
行う際には、仮想3次元空間座標系を前記ユーザ端末上
に想定し、前記仮想3次元空間座標系原点を中心とする
球の極座標と前記ユーザ端末に於ける入力デバイスの移
動量とを対応させることにより経路を設定する画像表示
方法である。
The invention of claim 59 is characterized in that when performing said automatic continuous processing, a virtual three-dimensional space coordinate system is assumed on said user terminal, and polar coordinates of a sphere centered on said virtual three-dimensional space coordinate system origin. And an amount of movement of the input device at the user terminal.

【0101】請求項27及び請求項59の発明によっ
て、ユーザ端末上に於いてマウス等の入力デバイスを用
いて視点の経路を容易に設定することが可能となる。
According to the twenty-seventh and fifty-ninth aspects, it is possible to easily set a viewpoint path using an input device such as a mouse on a user terminal.

【0102】請求項28及び請求項89の発明は、前記
自動連続手段は、前記入力デバイスの移動量と時間とを
対応させることにより前記設定した経路に於ける移動速
度を設定する画像表示システムである。
The invention according to claims 28 and 89 is an image display system wherein said automatic continuation means sets a moving speed on said set path by associating a moving amount of said input device with time. is there.

【0103】請求項60及び請求項118の発明は、前
記自動連続処理を行う際には、前記入力デバイスの移動
量と時間とを対応させることにより前記設定した経路に
於ける移動速度を設定する画像表示方法である。
In the invention of claims 60 and 118, when the automatic continuous processing is performed, the moving speed of the set path is set by associating the moving amount of the input device with time. This is an image display method.

【0104】請求項28、請求項60、請求項89及び
請求項118の発明によって、視点の移動速度を入力し
なくとも、マウス等の入力デバイスを移動するのみで視
点の移動速度を設定することが可能となる。
According to the inventions of claims 28, 60, 89 and 118, the moving speed of the viewpoint can be set only by moving an input device such as a mouse without inputting the moving speed of the viewpoint. Becomes possible.

【0105】請求項29及び請求項90の発明は、前記
自動連続手段は、前記2次元画像内に於ける対象物の範
囲を示す情報を設定する画像表示システムである。
[0105] The invention of claims 29 and 90 is an image display system wherein said automatic continuation means sets information indicating a range of an object in said two-dimensional image.

【0106】請求項61及び請求項119の発明は、前
記自動連続処理を行う際には、前記2次元画像内に於け
る対象物の範囲を示す情報を設定する画像表示方法であ
る。
The invention of claims 61 and 119 is an image display method for setting information indicating a range of a target in the two-dimensional image when performing the automatic continuous processing.

【0107】請求項29、請求項61、請求項90及び
請求項119の発明によって、位置、大きさの補正処理
が可能となる。
According to the inventions of claims 29, 61, 90 and 119, the position and size can be corrected.

【0108】請求項30の発明は、前記ユーザ端末は、
前記サーバ上又は前記ユーザ端末上に於いて設定された
経路と移動速度に基づいて連続的に内挿画像を自動作成
し表示する自動連続作成手段を更に有している画像表示
システムである。
[0108] According to a thirtieth aspect of the present invention, the user terminal comprises:
An image display system further comprising automatic continuous creation means for automatically creating and displaying an interpolated image continuously based on a route and a moving speed set on the server or the user terminal.

【0109】請求項62の発明は、前記ユーザ端末は、
前記サーバ上又は前記ユーザ端末上に於いて設定された
経路と移動速度に基づいて連続的に内挿画像を自動作成
し表示する自動連続再生処理を更に行う画像表示方法で
ある。
[0109] The invention of claim 62 is that the user terminal comprises:
An image display method that further performs an automatic continuous reproduction process for automatically creating and displaying an interpolated image continuously based on a route and a moving speed set on the server or the user terminal.

【0110】請求項91の発明は、前記サーバは、設定
された経路と移動速度に基づいて連続的に内挿画像を自
動作成し表示する自動連続作成手段を更に有している画
像表示システムである。
The invention according to claim 91 is an image display system wherein said server further comprises automatic continuous creation means for automatically creating and displaying an interpolated image continuously based on the set route and moving speed. is there.

【0111】請求項120の発明は、前記サーバは、設
定された経路と移動速度に基づいて連続的に内挿画像を
自動作成し表示する自動連続再生処理を更に行う画像表
示方法である。
The invention according to claim 120 is an image display method in which the server further performs an automatic continuous reproduction process for automatically creating and displaying an interpolated image continuously based on the set route and moving speed.

【0112】請求項30及び請求項62の発明によっ
て、サーバ上/ユーザ端末上に於いて設定された自動連
続表示の設定に基づいてユーザ端末上で自動連続表示を
行うことが可能となる。又請求項91及び請求項120
の発明によって、自動連続表示の設定を行ったサーバと
同一のサーバ上に於いて、自動連続表示を行うことが可
能となる。
According to the inventions of claims 30 and 62, it is possible to perform automatic continuous display on the user terminal based on the setting of automatic continuous display set on the server / user terminal. Claims 91 and 120
According to the invention, automatic continuous display can be performed on the same server as the server on which automatic continuous display is set.

【0113】請求項31の発明は、前記ユーザ端末は、
前記対象物の範囲を示す情報に基づいて拡大/縮小倍率
と平行移動量とを算出して前記対象物に対する位置、大
きさの補正処理を行う補正処理手段を更に有する画像表
示システムである。
[0113] According to a thirty-first aspect, the user terminal comprises:
An image display system further comprising a correction processing unit that calculates an enlargement / reduction magnification and a parallel movement amount based on information indicating a range of the target object, and corrects a position and a size of the target object.

【0114】請求項63の発明は、前記ユーザ端末は、
前記対象物の範囲を示す情報に基づいて拡大/縮小倍率
と平行移動量とを算出して前記対象物に対する位置、大
きさの補正処理を行う画像表示方法である。
[0114] In the invention according to claim 63, the user terminal comprises:
An image display method for calculating an enlargement / reduction magnification and a translation amount based on information indicating a range of the object and performing a position and size correction process on the object.

【0115】請求項92の発明は、前記サーバは、前記
対象物の範囲を示す情報に基づいて拡大/縮小倍率と平
行移動量とを算出して前記対象物に対する位置、大きさ
の補正処理を行う補正処理手段を更に有する画像表示シ
ステムである。
In a ninth aspect of the present invention, the server calculates an enlargement / reduction magnification and a translation amount based on the information indicating the range of the object, and performs a position and size correction process on the object. The image display system further includes a correction processing unit for performing the correction.

【0116】請求項121の発明は、前記ユーザ端末
は、前記対象物の範囲を示す情報に基づいて拡大/縮小
倍率と平行移動量とを算出して前記対象物に対する位
置、大きさの補正処理を行う画像表示方法である。
The invention of claim 121, wherein the user terminal calculates an enlargement / reduction magnification and a translation amount based on the information indicating the range of the object, and corrects the position and size of the object with respect to the object. Is an image display method for performing the following.

【0117】請求項32及び請求項93の発明は、前記
補正処理手段は、数2により前記対象物の内挿画像の範
囲を算出し前記範囲内に内挿画像を補正する画像表示シ
ステムである。
The invention according to claims 32 and 93 is an image display system in which the correction processing means calculates a range of an interpolated image of the object by Equation 2 and corrects the interpolated image within the range. .

【0118】請求項64及び請求項122の発明は、前
記補正処理を行う際には、数2により前記対象物の内挿
画像の範囲を算出し前記範囲内に内挿画像を補正する画
像表示方法である。
According to the invention of claims 64 and 122, when performing the correction processing, the image display for calculating the range of the interpolated image of the object by the formula 2 and correcting the interpolated image within the range is provided. Is the way.

【0119】[0119]

【発明の実施の形態】本発明の画像表示システム1のシ
ステム構成の一例を図1及び図2に示すシステム構成図
を用いて詳細に説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS An example of a system configuration of an image display system 1 according to the present invention will be described in detail with reference to the system configuration diagrams shown in FIGS.

【0120】任意の視点からの対象物の内挿画像を閲覧
することを希望するユーザが有するユーザ端末15とサ
ーバ14は、ネットワーク16を介してデータの送受信
が可能である画像表示システム1である。ここでネット
ワーク16とは、インターネット等のオープンネットワ
ーク、LAN(Local Area Networ
k)等のクローズドネットワーク、それらの組合せであ
るイントラネットのいずれであってもよい。ネットワー
ク16を介してデータの送受信がサーバ14とユーザ端
末15間に於いて為される場合には、公知のデータ転送
技術を用いることが好適である。又本実施態様に於いて
は説明の便宜上、ユーザ端末15及びサーバ14はいず
れも1台を想定し説明するが、複数台にその機能が分散
してあっても良いことは言うまでもない。又ネットワー
ク16を介さずにサーバ14(又はユーザ端末15)の
みで全ての機能が実現されても良い。
A user terminal 15 and a server 14 of a user who wants to view an interpolated image of an object from an arbitrary viewpoint are an image display system 1 capable of transmitting and receiving data via a network 16. . Here, the network 16 is an open network such as the Internet, or a LAN (Local Area Network).
k) or an intranet which is a combination thereof. When data is transmitted and received between the server 14 and the user terminal 15 via the network 16, it is preferable to use a known data transfer technique. Further, in this embodiment, for convenience of explanation, one user terminal 15 and one server 14 are assumed and described, but it goes without saying that the functions may be distributed to a plurality of terminals. Further, all functions may be realized only by the server 14 (or the user terminal 15) without passing through the network 16.

【0121】サーバ14は、画像取込手段2を有し、ユ
ーザ端末15は、内挿画像作成手段3、影作成手段4、
反射作成手段5、作成画像記憶手段6、合成表示手段
7、補正処理手段8とを有している。
The server 14 has the image capturing means 2, and the user terminal 15 has the interpolated image creating means 3, the shadow creating means 4,
It has a reflection creating means 5, a created image storing means 6, a combining display means 7, and a correction processing means 8.

【0122】画像取込手段2は、対象物を複数視点から
撮影した2次元画像(基本画像)を取り込む手段であ
り、画像表示用の情報を作成する手段である。又前記取
り込んだ情報をユーザ端末15にネットワーク16を介
して送信する手段でもある。
The image capturing means 2 is a means for capturing a two-dimensional image (basic image) obtained by photographing an object from a plurality of viewpoints, and is a means for creating information for image display. It is also means for transmitting the fetched information to the user terminal 15 via the network 16.

【0123】内挿画像作成手段3は基本画像と設定され
た視点とに基づいて内挿画像を作成する手段であって、
初期情報演算手段9、平行化画像作成手段10、テクス
チャマッピング手段19を有している。
The interpolated image creating means 3 is means for creating an interpolated image based on the basic image and the set viewpoint.
It has initial information calculation means 9, parallelized image creation means 10, and texture mapping means 19.

【0124】初期情報演算手段9は、内挿画像を作成す
るのに必要となる各基本画像の組に於ける、基本行列及
びエピポールを算出する手段である。
The initial information calculation means 9 is a means for calculating a basic matrix and an epipole in each basic image set required to create an interpolated image.

【0125】平行化画像作成手段10は、初期情報演算
手段9に於いて算出したエピポールを用いてホモグラフ
ィ行列を算出し、2視点間の画像を平行で共通点が同一
走査線上に並ぶように平面に画像を写像する手段であ
る。
The parallelized image creating means 10 calculates a homography matrix by using the epipole calculated by the initial information calculating means 9 so that the images between the two viewpoints are parallel and the common points are arranged on the same scanning line. This is a means for mapping an image on a plane.

【0126】テクスチャマッピング手段19は、平行化
画像作成手段10に於いて作成した平行化画像に対し
て、サーバ14に於いて定義された面の頂点を内挿し、
線形補間を行い、線形補間した面の頂点の内部に面内部
の画素のテクスチャマッピングを行う手段であって、面
選択手段11と輪郭処理手段12と色補正手段13とを
有している。
The texture mapping means 19 interpolates the vertices of the plane defined by the server 14 into the parallelized image created by the parallelized image creating means 10,
This is a means for performing linear interpolation and performing texture mapping of pixels inside the surface inside the vertices of the linearly interpolated surface, and includes a surface selecting means 11, a contour processing means 12, and a color correcting means 13.

【0127】面選択手段11は、テクスチャとして用い
る画像を、2つの画像から選択する、或いは何れかの画
像を選択してそのまま用いるのではなく、2つの画像を
組み合わせ、より自然な画像を作成し、テクスチャとし
て用いる手段である。2つの画像からテクスチャとして
用いる画像を選択するプロセス、2つの画像を組合わせ
ることでより自然な画像を作成しテクスチャとして用い
るプロセスについては後述する。更にオクルージョンが
発生する場合には面の表裏の判断が出来ないので、視点
からの距離に相当する基準(即ちエピポール)を用いる
ことで、遠くの画像から順番に描画を行っても良い。こ
れによって、より簡便な内挿画像の作成が行える。この
場合のプロセスについても後述する。
The plane selecting means 11 selects an image to be used as a texture from two images, or selects one of the images and uses it as it is, but combines the two images to create a more natural image. Means used as a texture. The process of selecting an image to be used as a texture from two images and the process of creating a more natural image by combining the two images and using the image as a texture will be described later. Further, when occlusion occurs, it is not possible to determine the front and back of the surface, and therefore, drawing may be performed in order from a far image by using a reference (ie, epipole) corresponding to the distance from the viewpoint. Thereby, it is possible to more easily create an interpolated image. The process in this case will also be described later.

【0128】輪郭処理手段12は、対象物の画像に対し
て面を定義する際に、輪郭の細部の画像を内挿画像に反
映させる手段である。この手段により、対象物がより明
確な画像として表示される。
The contour processing means 12 is a means for reflecting an image of the details of a contour on an interpolated image when defining a plane for an image of an object. By this means, the object is displayed as a clearer image.

【0129】色補正手段13は、テクスチャとして内挿
画像に適用する画像の色を補正する手段である。この手
段により、対象物のテクスチャ間の色差が解消される。
The color correcting means 13 is a means for correcting the color of the image applied to the interpolated image as a texture. By this means, the color difference between the textures of the object is eliminated.

【0130】影作成手段4は、対象物に対して影を付け
る手段である。この手段により、画像のリアリティの向
上が図られる。
The shadow creating means 4 is a means for adding a shadow to the object. By this means, the reality of the image is improved.

【0131】反射作成手段5は、対象物に対して他の対
象物に反射して映り込む状態を作成する手段である。こ
の手段により、画像のリアリティの向上が図られる。
The reflection creating means 5 is a means for creating a state in which an object is reflected and reflected on another object. By this means, the reality of the image is improved.

【0132】作成画像記憶手段6は、内挿画像作成手段
3、影作成手段4、反射作成手段5で作成、演算した情
報を一時的に記憶する手段である。
The created image storage means 6 is a means for temporarily storing information created and calculated by the interpolated image creating means 3, the shadow creating means 4, and the reflection creating means 5.

【0133】合成表示手段7は、作成画像記憶手段6に
於いて格納している内挿画像、影、反射等を一つの画像
上に合成する手段である。
The combining display means 7 is a means for combining the interpolated image, shadow, reflection, and the like stored in the created image storage means 6 on one image.

【0134】補正処理手段8は、視点毎の対象物の位
置、大きさの線形補間を行う手段である。これは、基本
画像は、カメラから対象物までの距離、画像内での対象
物の位置が視点毎に異なることがあり、これらが異なっ
たまま連続的に内挿画像を作成した場合、視点移動以外
の対象物の変移が発生し、見かけ上対象物が拡大/縮小
表示されたり、対象物が一定の点の周りに回転せず上下
に動いたりする問題が発生するが、それを補正する手段
である。
The correction processing means 8 is means for performing linear interpolation of the position and size of the object for each viewpoint. This is because, in the basic image, the distance from the camera to the object and the position of the object in the image may be different for each viewpoint. There is a problem that the displacement of the object other than the above occurs, the object appears to be enlarged / reduced, and the object moves up and down without rotating around a certain point. It is.

【0135】[0135]

【実施例1】本発明のプロセスの一例を図5から図13
に示すフローチャート図を用いて詳細に説明する。本実
施態様に於いては対象物の2視点からの2次元画像(基
本画像)(I、I)からユーザが希望する視点に於
ける内挿画像(I)を作成するプロセスを説明する。
Embodiment 1 An example of the process of the present invention is shown in FIGS.
This will be described in detail with reference to the flowchart shown in FIG. In the present embodiment, a process of creating an interpolated image (I s ) at a viewpoint desired by the user from a two-dimensional image (basic image) (I 0 , I 1 ) from two viewpoints of the object will be described. I do.

【0136】画像を作成する人(画像作成者)は、画像
作成者が有するサーバ14から所定の手続きを経て(例
えば、コンピュータの起動、ソフトウェアの起動、周辺
機器の起動等)、画像取込手段2から対象物の複数視点
からの基本画像を取り込む(S100)。対象物を仮想
的な3次元空間に位置するものとして、各基本画像を撮
影した視点の位置調整を行う。基本画像を取り込むプロ
セスについては後述する。
The person who creates the image (image creator) performs a predetermined procedure from the server 14 of the image creator (for example, activation of a computer, activation of software, activation of a peripheral device, etc.), and acquires the image. From 2, a basic image from a plurality of viewpoints of the object is captured (S100). Assuming that the object is located in a virtual three-dimensional space, the position of the viewpoint at which each basic image is photographed is adjusted. The process of capturing the basic image will be described later.

【0137】S100に於いて作成した対象物の複数の
視点に於ける基本画像に於いて、2枚の基本画像を1組
とし、その組内に於ける基本画像に共通する位置の座
標、即ち共通点座標を8点以上定義する(S160)。
この選択した座標に対して以後のプロセスで内挿画像作
成を実行する。但し共通点座標は、任意の3点を取って
も一直線上に並ばないような対応点でなければならな
い。又、マウス等の入力デバイス(図示せず)で共通点
座標を定義することが好適であるが、他の手段によって
も良い。
In the basic images at a plurality of viewpoints of the object created in S100, two basic images are set as one set, and coordinates of positions common to the basic images in the set, that is, Eight or more common point coordinates are defined (S160).
An interpolation image is created for the selected coordinates in a subsequent process. However, the common point coordinates must be corresponding points such that any three points will not be aligned on a straight line. Further, it is preferable to define the common point coordinates using an input device (not shown) such as a mouse, but other means may be used.

【0138】組になっている基本画像から対応する点を
選択し、それらの点を直線で結んで面を定義する(即
ち、面定義座標を定義する)。これを対象物全体に対し
て行う(S170)。面を定義するための面定義画面の
一例を図20に示す。この際に、S160に於いて定義
した共通点座標と面を定義する点である面定義座標は同
一であっても良いし、異なっていても良い。
[0138] Corresponding points are selected from the set of basic images, and these points are connected by a straight line to define a plane (ie, define plane definition coordinates). This is performed for the entire object (S170). FIG. 20 shows an example of a plane definition screen for defining a plane. At this time, the common point coordinates defined in S160 and the plane definition coordinates which are points defining the plane may be the same or different.

【0139】更に、この基本画像から対応する点を選択
する場合には、上記のように人間が行わなくとも、片方
の基本画像に於いて点を選択しておけば、一方の基本画
像に於いてそれと対応する点を自動的に選択するように
しても良い。このプロセスについては後述する。
Further, when a corresponding point is selected from this basic image, a point can be selected in one of the basic images even if a human does not perform the operation as described above. And the corresponding point may be automatically selected. This process will be described later.

【0140】面の定義が終了後、S100からS170
に於ける情報は、サーバ14の画像取込手段2からユー
ザ端末15の内挿画像作成手段3へ送信される。
After the surface definition is completed, S100 to S170
Is transmitted from the image capturing means 2 of the server 14 to the interpolated image creating means 3 of the user terminal 15.

【0141】ユーザは、閲覧を希望する視点を、マウス
等を用いることにより指定する(S176)。内挿画像
作成手段3は、ユーザが指定したこの視点からのものを
作成する。
The user specifies a viewpoint desired to be browsed by using a mouse or the like (S176). The interpolated image creating means 3 creates an image from this viewpoint specified by the user.

【0142】その後、画像取込手段2に於いて定義した
共通点情報と面定義座標とに基づいて内挿画像を作成す
る(S180)。内挿画像を作成するにあたって、まず
初期情報(基本行列とエピポール)を内挿画像作成手段
3の初期情報演算手段9で算出する。そのプロセスを以
下に説明する。
Thereafter, an interpolated image is created based on the common point information defined by the image capturing means 2 and the plane definition coordinates (S180). When creating an interpolated image, first, initial information (basic matrix and epipole) is calculated by the initial information calculating means 9 of the interpolated image creating means 3. The process will be described below.

【0143】2視点間に於ける各座標系の位置関係を図
36に示す。2視点をC、C、2視点からの基本画
像を各々I、Iとする。基本画像IとI の3
×3の基本行列を各々F、Fとする。
FIG. 36 shows the positional relationship of each coordinate system between the two viewpoints. The two viewpoints are C 0 and C 1 , and the basic images from the two viewpoints are I 0 and I 1 , respectively. 3 of basic images I 0 and I 1
Let the base matrix of × 3 be F 0 and F 1 respectively.

【0144】基本行列を算出するには、公知の手法(例
えば、アール・エイチ・ハートレイ(R.H.Hartley)著,
「8点アルゴリズムに関する弁論」(In Defense of t
heEight-point Algorithm)、Vol.19、No.6、p.580-59
3、1997.)を用いることにより算出できる(S19
0)。
To calculate the basic matrix, a well-known method (for example, by RH Hartley,
"A defense on the 8-point algorithm" (In Defense of t)
heEight-point Algorithm), Vol.19, No.6, p.580-59
3, 1997.) (S19).
0).

【0145】S190に於いて基本行列を算出後、算出
した基本行列に基づいて公知の手法(例えば、オー・デ
・フォージャース(O.D.Faugeras)、テ・パパドプロ
(T.Papadopoulo)著、「3視点射影幾何評価の為の非
線形手法」(A Nonlinear Method for Estimating the
Projective Geometry of Three Views)、p.1-27、199
7)により各基本画像のエピポールを算出する(S20
0)。基本画像IとIについて基本画像Iのエピ
ポールをe、基本画像Iのエピポールをeとす
る。エピポールe はF の最小固有値に対応
する固有ベクトルであり、エピポールeはF
の最小固有値に対応する固有ベクトルである。
After the basic matrix is calculated in S190, a known method (for example, ODFaugeras, Te Papadopro, etc.) is used based on the calculated basic matrix.
(T. Papadopoulo), A Nonlinear Method for Estimating the
Projective Geometry of Three Views), p.1-27, 199
The epipole of each basic image is calculated according to (7) (S20).
0). Base image I 0 and I 1 e 0 the epipole of the basic image I 0 for the epipole of the basic image I 1 and e 1. Epipole e 0 is an eigenvector corresponding to the smallest eigenvalue of F 0 T F 0 , and epipole e 1 is F 0 F 0 T
Is the eigenvector corresponding to the smallest eigenvalue of

【0146】基本画像I、Iに於ける基本行列及び
エピポールを算出後、ユーザがユーザ端末15から指定
した視点Sからの対象物の閲覧を要求した場合、2視点
間に於ける内挿画像を作成する為に、画像取込手段2に
於いて取り込んだ情報と初期情報演算手段9に於いて算
出した情報とに基づいて、平行化画像(後述)を作成す
る(S210)。
After calculating the basic matrices and epipoles in the basic images I 0 and I 1 , if the user requests viewing of the object from the specified viewpoint S from the user terminal 15, interpolation between the two viewpoints In order to create an image, a parallelized image (described later) is created based on the information captured by the image capturing unit 2 and the information calculated by the initial information calculating unit 9 (S210).

【0147】従来の内挿画像作成方法(例えば特願20
00−243032号公報に示した例)では、以下のよ
うなプロセスを経て内挿画像を作成している。 (1)与えられた8点以上の共通点から基本行列とエピ
ポールを計算する。 (2)エピポールが無限遠で共通点が同一走査線上に並
ぶように平行化画像変換をするホモグラフィ行列H
を求める。 (3)基本画像I、Iに於ける特徴線の端点を行列
−1 ,H−1 によって平行化画像I^、I^
の点に変換する。 (4)変換後の特徴線の端点を視点間の比sに内挿す
る。 (5)基本画像I、Iと平行化画像I^、I^
の4隅の点の内挿から平行化画像を画像座標に変換する
行列Hを計算する。 (6)内挿された特徴線に定義された影響関数から2枚
の基本画像を混ぜ合わせる画像モーフィングを行う。
A conventional interpolation image creation method (for example, Japanese Patent Application No.
In the example shown in Japanese Patent Application Laid-Open No. 00-243032, an interpolated image is created through the following process. (1) A basic matrix and an epipole are calculated from given common points of eight or more. (2) A homography matrix H 0 that performs parallel image conversion so that the epipole is at infinity and common points are arranged on the same scanning line,
Determine the H 1. (3) base image I 0, the end point of the matrix in characteristic lines I 1 H -1 0, H -1 collimated by first image I ^ 0, I ^ 1
To a point. (4) The end point of the converted feature line is interpolated into the ratio s between viewpoints. (5) Basic images I 0 , I 1 and parallelized images I ^ 0 , I ^ 1
Calculating a matrix H s to convert the collimated image to the image coordinates from the interpolation of the four corners of the points. (6) Image morphing for mixing two basic images is performed based on the influence function defined for the interpolated feature line.

【0148】しかし、このようなプロセスを経て行う内
挿画像の作成方法の場合、全ての画素と全ての特徴線の
組合せに対して距離を計算して影響関数を算出する為
に、計算時間が非常にかかる。又、この場合、平行化画
像は一般に大きく歪んだ画像になり、特徴線の影響範囲
が向きによって大きく異なる為、パラメータ設定が難し
い。
However, in the case of the method of creating an interpolated image performed through such a process, since the distance is calculated for all combinations of all pixels and all characteristic lines to calculate the influence function, the calculation time is reduced. Takes very much. In this case, the parallelized image is generally a greatly distorted image, and the influence range of the feature line greatly differs depending on the direction.

【0149】オンラインショッピングのように一つの対
象物に注視する場合には視点からの奥行きは近い値なの
で対象物内部の歪みは小さくほぼ線形に近似することが
可能である。そこで、本発明では、特徴線を定義するの
ではなく、面を定義し(面定義座標を定義し)、面の頂
点のみを平行化画像上で内挿した後に面内部の画像をテ
クスチャマッピングで表示する。即ち、画像モーフィン
グを行う代わりに、(4)に於いて特徴線の端点ではな
く面の頂点を内挿してホモグラフィ行列H(後述)を
適用し、基本画像をテクスチャマッピングすることによ
り内挿画像を得る。面は2次元上で表示される為、テク
スチャマッピングは通常の3次元空間から2次元空間へ
の写像ではなく、2次元空間同士の写像になる。又、面
の内部は線形に補間されるので、画像モーフィングを用
いたときのような不自然な歪みは生じないことになる。
In the case of gazing at a single object as in online shopping, since the depth from the viewpoint is a close value, distortion inside the object is small and can be approximated almost linearly. Therefore, in the present invention, instead of defining a characteristic line, a surface is defined (a surface definition coordinate is defined), and only vertices of the surface are interpolated on the parallelized image, and then an image inside the surface is texture-mapped. indicate. That is, instead of performing image morphing, in (4), a homography matrix H s (described later) is applied by interpolating a vertex of a surface instead of an end point of a characteristic line, and interpolation is performed by texture-mapping a basic image. Get an image. Since the surface is displayed in two dimensions, the texture mapping is not a mapping from a normal three-dimensional space to a two-dimensional space, but a mapping between two-dimensional spaces. Further, since the inside of the plane is linearly interpolated, unnatural distortion unlike the case of using image morphing does not occur.

【0150】2枚の基本画像から内挿画像を作成するに
は、まず、2枚の基本画像を平行で共通点(S170に
於いて定めた面定義座標)が同一走査線上に並ぶように
画像を写像する必要性があり、このプロセスを一般的に
平行化といい、作成した画像を平行化画像という。この
平行化を行う為には、S200に於いて算出されたエピ
ポールを用いて内挿画像作成手段3の平行化画像作成手
段10に於いて、2枚の基本画像の平行化を実行する
(即ち平行化画像を作成する)(S210)。2枚の画
像の平行化のプロセスについては後述する。
In order to create an interpolated image from two basic images, first, the two basic images are imaged such that common points (surface definition coordinates determined in S170) are aligned on the same scanning line. This process is generally called parallelization, and the created image is called a parallelized image. In order to perform the parallelization, the two basic images are parallelized in the parallelized image creating unit 10 of the interpolated image creating unit 3 using the epipole calculated in S200 (that is, the parallelization is performed). A parallelized image is created) (S210). The process of parallelizing two images will be described later.

【0151】S210に於いて、2枚の基本画像の平行
化画像を作成後、定義した面の頂点である面定義座標の
みを内挿して(S220)、ホモグラフィ行列Hを適
用し基本画像をテクスチャマッピングすることで内挿画
像を作成する(S230)。テクスチャマッピングのプ
ロセスについては後述する。
[0151] In S210, after creating the parallelizing two images of the basic image, by interpolating the only surface defining the coordinates are the vertices of the defined surface (S220), the basic image by applying the homography matrix H s Is interpolated by texture mapping (S230). The texture mapping process will be described later.

【0152】S200に於いて内挿画像作成手段3で、
2枚の基本画像(IとI)から内挿画像(Is)を
作成する。
In S200, the interpolation image creating means 3
An interpolated image (Is) is created from the two basic images (I 0 and I 1 ).

【0153】本実施態様に於いては2視点を1組として
いるので、作成した内挿画像を最終的な内挿画像(最終
内挿画像)(Is)として作成画像記憶手段6に送信
し、一時的に格納する。図34(a)(b)に示した2
枚の基本画像から作成した内挿画像の一例を図35に示
す。
In this embodiment, since two viewpoints constitute one set, the created interpolated image is transmitted to the created image storage means 6 as the final interpolated image (final interpolated image) (Is). Store temporarily. 2 shown in FIGS. 34 (a) and 34 (b)
FIG. 35 shows an example of an interpolated image created from the basic images.

【0154】次に作成した最終内挿画像に対してリアリ
ティを持たせる為に、対象物に対する影を影作成手段4
に於いて作成し(S240)、作成した影を作成画像記
憶手段6に対して送信し一時的に格納する。影を作成す
るプロセスについては後述する。又対象物に対する反射
を反射作成手段5に於いて作成し(S250)、作成し
た反射を作成画像記憶手段6に対して送信し一時的に格
納する。反射を作成するプロセスについては後述する。
S240及びS250に於いて作成する、影及び反射の
作成プロセスは順不同である。
Next, in order to give the created final interpolated image a reality, a shadow for the object is created by the shadow creating means 4.
In step S240, the created shadow is transmitted to the created image storage unit 6 and temporarily stored. The process of creating a shadow will be described later. The reflection for the object is created by the reflection creation means 5 (S250), and the created reflection is transmitted to the created image storage means 6 and temporarily stored. The process of creating the reflection will be described later.
The order of creating shadows and reflections in S240 and S250 is random.

【0155】S180からS250に於いて作成され、
作成画像記憶手段6に一時的に格納した最終内挿画像、
影及び反射を合成表示手段7に対して送信し、これらを
1枚の画像に合成する(S260)。S260に於ける
合成の手法は、対象物の複数画像からその3次元的な情
報を「復元」することにより、複数の対象物を同一視点
で合成して表示することにより実現できる。これは「復
元」の手法として「射影復元」あるいは「ユークリッド
復元」の公知技術を用いることにより実現する。この合
成プロセスを付加することにより、例えば図29に示す
ように、テーブルと椅子といったように複数の対象物を
組み合わせて表示したり、自宅の部屋の写真を撮影し、
そこに家具の画像を合成して大きさ、色調等の調和を視
覚的に確認したり、自分の全身像を撮影したデータを保
存しておき、それにファッション商品の画像や髪型の画
像を合成して閲覧(バーチャル試着システム、バーチャ
ル美容院)する等が可能となる。
Created in S180 to S250,
A final interpolated image temporarily stored in the created image storage means 6,
The shadow and reflection are transmitted to the combination display means 7, and these are combined into one image (S260). The method of combining in S260 can be realized by combining and displaying a plurality of objects from the same viewpoint by "restoring" the three-dimensional information from a plurality of images of the objects. This is realized by using a known technique of "projection restoration" or "Euclidean restoration" as a technique of "restoration". By adding this combination process, for example, as shown in FIG. 29, a plurality of objects such as a table and a chair are combined and displayed, or a photograph of a room at home is taken,
Combine furniture images and visually check the harmony of size, color tone, etc., save data of your own full body image, and combine fashion product images and hairstyle images with it. To browse (virtual fitting system, virtual beauty salon).

【0156】S260に於いて影や反射、内挿画像が合
成表示された後、位置、大きさに関する補正処理が実行
される(S270)。これは、S100に於いて取り込
んだ基本画像は、カメラから対象物までの距離や、基本
画像内での対象物の位置が視点毎に異なることが一般的
である。そしてこれらが異なったまま内挿画像の作成を
連続的に行うと、視点移動以外の対象物の変位が発生
し、見かけ上、対象物が拡大/縮小表示されたり、対象
物が一定の点の周りに回転せず上下に動いたりする問題
点が発生する点を解決する為である。
After the shadows, reflections, and interpolated images are synthesized and displayed in S260, correction processing relating to the position and size is executed (S270). This is because in the basic image captured in S100, the distance from the camera to the object and the position of the object in the basic image generally differ from viewpoint to viewpoint. If interpolation images are continuously created while these are different from each other, displacement of the object other than the movement of the viewpoint occurs, and the object is apparently enlarged / reduced or the object is displayed at a fixed point. This is to solve the problem of moving up and down without rotating around.

【0157】これを防ぐ為に、本発明では、基本画像内
の対象物のカメラからの距離(=拡大/縮小倍率)と位
置を補正するプロセスを付加することにより、この問題
点の解決を図る。位置、大きさの補正処理プロセスにつ
いては後述する。
In order to prevent this, the present invention solves this problem by adding a process for correcting the distance (= enlargement / reduction magnification) and position of the object in the basic image from the camera. . The position and size correction processing will be described later.

【0158】S270に於いて、位置、大きさの補正処
理が終了後、作成した内挿画像を表示する。S240か
らS270に於ける影・反射・合成表示・位置、大きさ
の補正に付いてはその全てあるいは一部だけが行われて
も、あるいは行われなくても良い。
In step S270, after the position and size correction processing is completed, the created interpolated image is displayed. The correction of the shadow, reflection, combined display, position, and size in S240 to S270 may or may not be performed entirely or partially.

【0159】[0159]

【実施例2】本発明に於ける他の実施態様を図1及び図
2のシステム構成図に基づいて詳細に説明する。本実施
態様に於いては対象物の3視点からの2次元画像(基本
画像)(I、I、I)からユーザが希望する視点
に於ける内挿画像(I)を作成するプロセスを説明す
る。又、前記実施態様と重複する部分については説明を
省略する。
Embodiment 2 Another embodiment of the present invention will be described in detail with reference to the system configuration diagrams of FIGS. In the present embodiment, an interpolated image (I s ) at a viewpoint desired by the user is created from a two-dimensional image (basic image) (I 0 , I 1 , I 2 ) of the object from three viewpoints. Describe the process. The description of the same parts as those of the above embodiment will be omitted.

【0160】画像作成者は、サーバ14上に於いて画像
取込手段2から対象物の少なくとも3枚以上の基本画像
を取り込む(S100)。取り込んだ基本画像におい
て、3枚の基本画像を1組とし(本実施態様に於いて
は、3枚1組を例とするが、4枚以上であっても3枚の
組を複数設けることにより同様に行える)その組内に於
ける基本画像に共通する位置の座標、即ち共通点座標を
8点以上定義する(S160)。但し共通点座標は、任
意に3点を取っても一直線上に並ばないような共通点で
なければならない。又、マウス等の入力デバイス(図示
せず)で共通点座標を定義することが好適であるが、他
の手段によっても良い。
The image creator fetches at least three or more basic images of the object from the image fetching means 2 on the server 14 (S100). In the captured basic image, three basic images are set as one set (in the present embodiment, one set of three images is taken as an example. Eight or more coordinates of positions common to the basic images in the group, that is, common point coordinates are defined (S160). However, the common point coordinates must be such that even if three points are arbitrarily taken, they do not line up on a straight line. Further, it is preferable to define the common point coordinates using an input device (not shown) such as a mouse, but other means may be used.

【0161】ここで3枚の基本画像を1組とするのは、
従来は2枚の基本画像を1組として内挿画像を作成して
いたが、3枚以上の基本画像を1組とすることにより、
従来内挿画像の作成可能視点が1次元に限られていた問
題点を解決できることになる。即ち、3枚の基本画像を
1組とすることにより、内挿画像の作成可能視点を2次
元に拡大することが出来、この3枚の基本画像の組を複
数設けることにより、任意の視点に於いて内挿画像を作
成することが可能となるのである。3視点に於ける内挿
画像を作成する為には、まず組の中に於ける2枚の基本
画像(I、I )の1次内挿画像(Is0)を作成
し、次に組の中に於いて別の2枚の基本画像(I、I
)の1次内挿画像(Is2)を作成し、作成した2枚
の内挿画像(Is0、Is2)から最終的な視点の内挿
画像(最終内挿画像)(I)を作成する。ここで1次
内挿画像とは、最終内挿画像を作成するために一時的に
作成する内挿画像を示す。図22に示すように、最終内
挿画像(I)を作成する為、基本画像(I、I
に於ける内挿画像(Is0)、基本画像(I、I
における内挿画像(Is2)の概念図を示す。
Here, one set of three basic images is
Conventionally, an interpolated image was created using two basic images as a set.
However, by making three or more basic images into one set,
Previously, the viewpoints at which interpolation images could be created were limited to one dimension.
The problem can be solved. That is, three basic images
By using one set, the viewpoint that can create an interpolated image is secondary
It can be enlarged to the original, and the set of these three basic images
By creating a number, an interpolated image can be created from any viewpoint.
It becomes possible. Interpolation in three viewpoints
To create an image, you first need to create two basic
Image (I0, I 1) Primary interpolation image (Is0Create)
Then, another two basic images (I0, I
2) Primary interpolation image (Is2) Created, two created
Interpolation image (Is0, Is2) To final viewpoint interpolation
Image (final interpolation image) (Is) To create. Where primary
An interpolated image is temporarily used to create the final interpolated image.
5 shows an interpolation image to be created. As shown in FIG.
Inset image (Is), The basic image (I0, I1)
Image (Is0), Basic image (I0, I2)
Image (Is2FIG.

【0162】組になっている基本画像から対応する点を
選択し、それらの点を直線で結んで面を定義する(即
ち、面定義座標を定義する)。これを対象物全体に対し
て行う(S170)。面を定義する為の面定義画面の一
例を図20に示す。S160からS170を少なくとも
一以上の基本画像の組合せに対して実行する。この際
に、S160に於いて定義した共通点座標と面を定義す
る点である面定義座標とは同一であっても良いし、異な
っていても良い。
The corresponding points are selected from the set of basic images, and these points are connected by a straight line to define a plane (ie, define plane definition coordinates). This is performed for the entire object (S170). FIG. 20 shows an example of a plane definition screen for defining a plane. Steps S160 to S170 are executed for at least one or more basic image combinations. At this time, the common point coordinates defined in S160 may be the same as or different from the plane definition coordinates that define the plane.

【0163】更にS170に於いて、実施例1と同様
に、基本画像から対応する点を選択する場合には、上記
のように人間が行わなくとも、片方の基本画像に於いて
点を選択しておけば、一方の基本画像に於いてそれと対
応する点を自動的に選択するようにしても良い。このプ
ロセスについては後述する。
Further, in S170, as in the first embodiment, when selecting a corresponding point from the basic image, the point is selected in one of the basic images even if no human operation is performed as described above. If so, a point corresponding to one of the basic images may be automatically selected. This process will be described later.

【0164】少なくとも一以上の基本画像の組合せに対
し面の定義が終了後、S100からS170に於ける情
報は、画像取込手段2から内挿画像作成手段3へ送信さ
れる。
After the surface definition for at least one or more basic image combinations is completed, the information in S100 to S170 is transmitted from the image capturing means 2 to the interpolated image generating means 3.

【0165】次に、ユーザが閲覧を希望する視点をマウ
ス等を用いて指定する(S176)。その後、画像取込
手段2に於いて定義した共通点情報と面定義座標とに基
づいて内挿画像を作成する(S180)。まず内挿画像
を作成するにあたって必要となる初期情報(基本行列と
エピポール)を初期情報演算手段9で算出する。そのプ
ロセスを以下に説明する。
Next, the viewpoint which the user desires to browse is specified by using a mouse or the like (S176). Thereafter, an interpolated image is created based on the common point information defined by the image capturing means 2 and the plane definition coordinates (S180). First, initial information (basic matrix and epipole) necessary for creating an interpolated image is calculated by the initial information calculating means 9. The process will be described below.

【0166】3視点間に於ける各座標系の位置関係を図
21に示す。3視点をC、C、C、3視点からの
基本画像を各々I、I、Iとする。基本画像I
とI 、基本画像IとI、基本画像IとIの3
×3の基本行列を各々、F、F、Fとする。
FIG. 18 shows the positional relationship of each coordinate system among three viewpoints.
21. C from 3 viewpoints0, C1, C2From three perspectives
Each basic image is I0, I1, I2And Basic image I0
And I 1, Basic image I1And I2, Basic image I2And I03
Let each of the × 3 basic matrices be F0, F1, F2And

【0167】基本行列を算出するには、基本画像I
、基本画像IとI(あるいは基本画像IとI
、基本画像IとI)から2つの基本行列を算出す
る必要性があるが、これは公知の手法を用いることによ
り算出できる(S190)。
To calculate the basic matrix, the basic images I 0 and I 1 , the basic images I 1 and I 2 (or the basic images I 0 and I 1)
1, there is a need to calculate the two base matrix from the basic image I 2 and I 0), which can be calculated by using a known method (S190).

【0168】又この基本行列の算出は同様のプロセスで
算出が可能であるので、3枚の基本画像を1組とした本
実施態様の例では、このプロセスを3回繰り返す必要性
がある。
Since the calculation of this basic matrix can be performed by the same process, in the example of the present embodiment in which three basic images are set as one set, it is necessary to repeat this process three times.

【0169】S190に於いて全ての基本行列を算出
後、算出した基本行列に基づいて公知の手法により各基
本画像のエピポールを算出する(S200)。基本画像
とIについて基本画像Iのエピポールを
00、基本画像Iのエピポールをe11とする。同
様に基本画像IとIについて基本画像Iのエピポ
ールをe10、基本画像Iのエピポールをe21、基
本画像IとIについて基本画像Iのエピポールを
20、基本画像Iのエピポールをe01とする。エ
ピポールe00はF の最小固有値に対応する固
有ベクトルであり、エピポールe11はF の最
小固有値に対応する固有ベクトルである。他のエピポー
ルについても同様に算出可能である。S190及びS2
00に於いて算出した基本行列とエピポール間は独立で
はなく、数3に示す制約が成立している。
After calculating all the basic matrices in S190, the epipole of each basic image is calculated by a known method based on the calculated basic matrices (S200). Base image I 0 and I 1 e 00 a epipole of the basic image I 0 for the epipole of the basic image I 1 and e 11. Similarly, for the basic images I 1 and I 2 , the epipole of the basic image I 1 is e 10 , the epipole of the basic image I 2 is e 21 , and for the basic images I 2 and I 0 , the epipole of the basic image I 2 is e 20 . Let the epipole of I 0 be e 01 . Epipole e 00 is an eigenvector corresponding to the minimum eigenvalue of F 0 T F 0, epipole e 11 is an eigenvector corresponding to the smallest eigenvalue of the F 0 F 0 T. The same can be calculated for other epipoles. S190 and S2
The relationship between the basic matrix calculated in 00 and the epipole is not independent, and the constraint shown in Expression 3 holds.

【数3】e10 01=e20 11=e
00 21=0
Equation 3] e 10 T F 0 e 01 = e 20 T F 1 e 11 = e
00 T F 2 e 21 = 0

【0170】基本画像I、I、Iに於ける基本行
列及びエピポールを算出後、内挿画像Iを作成する為
に、まず3枚の基本画像(I、I、I)から2枚
の1次内挿画像(Is0、Is2)を作成し、その作成
した1次内挿画像2枚からユーザが希望する視点の最終
内挿画像(I)を作成する。内挿画像作成手段3は、
2枚の画像(基本画像あるいは内挿画像)から1枚の内
挿画像を作成する手段である。これは、図22に示すよ
うに、3枚の基本画像から2枚の内挿画像を作成し、そ
の作成した内挿画像2枚からユーザが希望する視点の最
終内挿画像を再作成するからである。
[0170] The basic image I 0, I 1, after calculating the in base matrix and epipole in I 2, in order to create an interpolation image I s, first three basic images (I 0, I 1, I 2 primary in interpolated image of two from) (I s0, create a I s2), the user from the primary in interpolated two images to create it to produce the final in interpolated image of the viewpoint to the desired (I s). The interpolation image creation means 3
This is a means for creating one interpolated image from two images (basic image or interpolated image). This is because, as shown in FIG. 22, two interpolated images are created from three basic images, and a final interpolated image of a viewpoint desired by the user is re-created from the two interpolated images created. It is.

【0171】2枚の基本画像から内挿画像を作成するに
は、まず、2枚の基本画像を平行で共通点(S170に
於いて定めた面定義座標)が同一走査線上に並ぶように
画像を写像する必要性があり、このプロセスを一般的に
平行化といい、作成した画像を平行化画像という。この
平行化を行う為には、S200に於いて算出されたエピ
ポールを用いて内挿画像作成手段3の平行化画像作成手
段10に於いて、2枚の基本画像の平行化を実行する
(即ち平行化画像を作成する)(S210)。2枚の画
像の平行化のプロセスについては後述する。
In order to create an interpolated image from two basic images, first, two basic images are imaged such that common points (surface definition coordinates determined in S170) are aligned on the same scanning line. This process is generally called parallelization, and the created image is called a parallelized image. In order to perform the parallelization, the two basic images are parallelized in the parallelized image creating unit 10 of the interpolated image creating unit 3 using the epipole calculated in S200 (that is, the parallelization is performed). A parallelized image is created) (S210). The process of parallelizing two images will be described later.

【0172】S210に於いて、2枚の基本画像の平行
化画像を作成後、テクスチャマッピング手段19は、定
義した面の頂点である面定義座標のみを内挿して(S2
20)、ホモグラフィ行列Hを適用し基本画像をテク
スチャマッピングすることで内挿画像を作成することに
なる(S230)。テクスチャマッピングのプロセスに
ついては後述する。
After creating a parallelized image of the two basic images in S210, the texture mapping means 19 interpolates only the surface definition coordinates which are vertices of the defined surface (S2).
20), it will create an interpolation image by texture mapping the basic image by applying the homography matrix H s (S230). The texture mapping process will be described later.

【0173】本実施態様に於いては3視点を1組として
いるので、2枚の基本画像(I、I)から1次内挿
画像(Is0)を作成する。同様のプロセスで2枚の基
本画像(I、I)から他の1次内挿画像(Is2
を作成する。即ちS180を2回行うこととなる。
In the present embodiment, since three viewpoints constitute one set, a primary interpolation image (I s0 ) is created from two basic images (I 0 , I 1 ). In a similar process, two primary images (I 0 , I 2 ) are converted into another primary interpolation image (I s2 ).
Create That is, S180 is performed twice.

【0174】2枚の1次内挿画像(Is0、Is2)を
作成すると、その2枚の1次内挿画像からS180と同
様のプロセスにより、最終的な内挿画像(最終内挿画
像)(I)を作成する(即ちこの段階に於けるS18
0の内挿画像は、先程作成した1次内挿画像2枚に基づ
いて作成する)。作成した最終内挿画像(I)を作成
画像記憶手段6に送信し、一時的に格納する。即ち合計
3回S180を行うこととなる。
When two primary interpolated images (I s0 , I s2 ) are created, a final interpolated image (final interpolated image) is formed from the two primary interpolated images by a process similar to S180. ) (I s ) (ie, S18 at this stage)
The 0 interpolation image is created based on the two primary interpolation images created earlier). The created final interpolated image (I s ) is transmitted to the created image storage means 6 and temporarily stored. That is, S180 is performed three times in total.

【0175】次に作成した最終内挿画像に対してリアリ
ティを持たせる為に、対象物に対する影を影作成手段4
に於いて作成し(S240)、作成した影を作成画像記
憶手段6に対して送信し一時的に格納する。影を作成す
るプロセスについては後述する。又対象物に対する反射
を反射作成手段5に於いて作成し(S250)、作成し
た反射を作成画像記憶手段6に対して送信し一時的に格
納する。反射を作成するプロセスについては後述する。
S240及びS250に於いて作成する、影及び反射の
作成プロセスは順不同である。
Next, in order to give the created final interpolated image a reality, a shadow on the object is created by the shadow creating means 4.
In step S240, the created shadow is transmitted to the created image storage unit 6 and temporarily stored. The process of creating a shadow will be described later. The reflection for the object is created by the reflection creation means 5 (S250), and the created reflection is transmitted to the created image storage means 6 and temporarily stored. The process of creating the reflection will be described later.
The order of creating shadows and reflections in S240 and S250 is random.

【0176】S180からS250に於いて作成され、
作成画像記憶手段6に一時的に格納した最終内挿画像、
影及び反射を合成表示手段7に対して送信し、これらを
1枚の画像に合成する(S260)。S260に於ける
合成の手法は、対象物の複数画像からその3次元的な情
報を「復元」することにより、複数の対象物を同一視点
で合成して表示することにより実現できる。これは「復
元」の手法として「射影復元」あるいは「ユークリッド
復元」の公知技術を用いることにより実現する。
Created in S180 to S250,
A final interpolated image temporarily stored in the created image storage means 6,
The shadow and reflection are transmitted to the combination display means 7, and these are combined into one image (S260). The method of combining in S260 can be realized by combining and displaying a plurality of objects from the same viewpoint by "restoring" the three-dimensional information from a plurality of images of the objects. This is realized by using a known technique of "projection restoration" or "Euclidean restoration" as a technique of "restoration".

【0177】S260に於いて影や反射、内挿画像が合
成表示された後、位置、大きさに関する補正処理が実行
される(S270)。これは、S100に於いて取り込
んだ基本画像は、カメラから対象物までの距離や、基本
画像内での対象物の位置が視点毎に異なることが一般的
である。そしてこれらが異なったまま内挿画像の作成を
連続的に行うと、視点移動以外の対象物の変位が発生
し、見かけ上、対象物が拡大/縮小表示されたり、対象
物が一定の点の周りに回転せず上下に動いたりする問題
点が発生する点を解決する為である。
After the shadows, reflections, and interpolated images are synthesized and displayed in S260, correction processing relating to the position and size is executed (S270). This is because in the basic image captured in S100, the distance from the camera to the object and the position of the object in the basic image generally differ from viewpoint to viewpoint. If interpolation images are continuously created while these are different from each other, displacement of the object other than the movement of the viewpoint occurs, and the object is apparently enlarged / reduced or the object is displayed at a fixed point. This is to solve the problem of moving up and down without rotating around.

【0178】これを防ぐ為に、本発明では、基本画像内
の対象物のカメラからの距離(=拡大/縮小倍率)と位
置を補正するプロセスを付加することにより、この問題
点の解決を図る。位置、大きさの補正処理プロセスにつ
いては後述する。
To prevent this, the present invention solves this problem by adding a process for correcting the distance (= enlargement / reduction magnification) and position of the object in the basic image from the camera. . The position and size correction processing will be described later.

【0179】S270に於いて、位置、大きさの補正処
理が終了後、作成した内挿画像を表示する。S240か
らS270に於ける影・反射・合成表示・位置、大きさ
の補正に付いてはその全てあるいは一部だけが行われて
も、あるいは行われなくても良い。
In step S270, after the position and size correction processing is completed, the created interpolated image is displayed. The correction of the shadow, reflection, combined display, position, and size in S240 to S270 may or may not be performed entirely or partially.

【0180】[0180]

【実施例3】本発明に於ける他の実施態様を図1及び図
2のシステム構成図に基づいて詳細に説明する。本実施
態様に於いては対象物の3視点からの2次元画像(基本
画像)(I、I、I)からユーザが希望する視点
に於ける内挿画像(I)を作成するプロセスを説明す
る(即ち2次元の視点移動を可能とするプロセスを説明
する)。但し実施例2に於いては、3枚以上の基本画像
を1組として、その組内の2枚の基本画像から1次内挿
画像を作成し、複数の1次内挿画像から最終内挿画像を
作成する、2段階のプロセスを経た場合を説明した。
Embodiment 3 Another embodiment of the present invention will be described in detail with reference to the system configuration diagrams of FIGS. In this embodiment, an interpolated image (I S ) at a viewpoint desired by the user is created from a two-dimensional image (basic image) (I 0 , I 1 , I 2 ) of the object from three viewpoints. The process will be described (that is, a process that enables two-dimensional viewpoint movement). However, in the second embodiment, a primary interpolation image is created from two or more basic images in a set of three or more basic images, and a final interpolation is performed from a plurality of primary interpolation images. The case of passing through a two-step process of creating an image has been described.

【0181】しかし、この場合であると2段階のプロセ
スを経ることから例えば3枚の基本画像を1組とした場
合には、内挿画像を作成するプロセスを3回行う必要性
がありその分処理時間が遅延化し、更に1次内挿画像か
ら最終内挿画像を作成することによって、最終内挿画像
が歪みやすくなる欠点を有している。
However, in this case, since a two-stage process is performed, for example, when three basic images are set as one set, the process of creating an interpolated image needs to be performed three times. The processing time is delayed, and the final interpolated image is created from the primary interpolated image, so that the final interpolated image is easily distorted.

【0182】そこで本実施態様に於いては、3枚の基本
画像から1度で内挿画像(最終内挿画像)の作成を行う
プロセスを説明する。尚実施例1及び実施例2と重複す
る部分については簡略化の為、説明を省略する。
Therefore, in the present embodiment, a process for creating an interpolated image (final interpolated image) at a time from three basic images will be described. Note that, for the sake of simplicity, a description of the same parts as those of the first and second embodiments will be omitted.

【0183】画像作成者は、サーバ14上に於いて画像
取込手段2から対象物の3枚の基本画像を取り込む(S
100)。取り込んだ基本画像に於いて、3枚の基本画
像を1組とし、その組内に於ける基本画像に共通する位
置の座標、即ち共通点座標を8点以上定義する(S16
0)。但し、共通点座標は、任意に3点を取っても一直
線上に並ばないような共通点でなければならない。又、
マウス等の入力デバイス(図示せず)で共通点座標を定
義することが好適であるが、他の手段によっても良い。
The image creator takes in three basic images of the object from the image taking means 2 on the server 14 (S
100). In the captured basic images, three basic images are made into one set, and coordinates of positions common to the basic images in the set, that is, eight or more common point coordinates are defined (S16).
0). However, the common point coordinates must be such that even if three points are arbitrarily taken, they are not aligned on a straight line. or,
It is preferable to define the common point coordinates by using an input device (not shown) such as a mouse, but other means may be used.

【0184】組になっている基本画像から対応する点を
選択し、それらの点を直線で結んで面を定義する(即
ち、面定義座標を定義する)。これを対象物全体に対し
て行う(S170)。面を定義する為の面定義画面の一
例を図20に示す。S160に於いて定義した共通点座
標と面を定義する点である面定義座標とは同一であって
も良いし、異なっていても良い。
[0184] Corresponding points are selected from the set of basic images, and these points are connected by a straight line to define a plane (ie, define plane definition coordinates). This is performed for the entire object (S170). FIG. 20 shows an example of a plane definition screen for defining a plane. The common point coordinates defined in S160 may be the same as or different from the surface definition coordinates that define the surface.

【0185】又対応する点の選択の際に、実施例1及び
実施例2と同様に一枚の基本画像に於いて選択するのみ
で、残りの基本画像の対応する点は、自動的に選択でき
るようにしても良い。このプロセスについては後述す
る。
At the time of selecting corresponding points, only one basic image is selected as in the first and second embodiments, and the corresponding points of the remaining basic images are automatically selected. You may be able to. This process will be described later.

【0186】基本画像の組合せに対し面の定義が終了
後、S100からS170に於ける情報は、画像取込手
段2から内挿画像作成手段3へ送信される。
After the surface definition for the combination of the basic images is completed, the information in S100 to S170 is transmitted from the image capturing means 2 to the interpolated image creating means 3.

【0187】次に、ユーザが閲覧を希望する視点をマウ
ス等を用いて指定する(S176)。その後、画像取込
手段2に於いて定義した共通点情報と面定義座標とに基
づいて内挿画像を作成する(S180)。先ず、内挿画
像を作成するにあたって必要となる初期情報(基本行列
とエピポール)を初期情報演算手段9で算出する。その
プロセスを以下に説明する。
Next, the user specifies a viewpoint desired to be browsed using a mouse or the like (S176). Thereafter, an interpolated image is created based on the common point information defined by the image capturing means 2 and the plane definition coordinates (S180). First, initial information (basic matrix and epipole) required to create an interpolated image is calculated by the initial information calculating means 9. The process will be described below.

【0188】3視点間に於ける各座標系の位置関係を図
40に示す。3視点をC、C、C、3視点からの
基本画像をI、I、Iとする。各基本画像I
、IとI、IとIの3×3の基本行列を各
々F、F、Fとする。基本行列は、各基本画像の
組の8組以上の対応点から公知の手法である8点アルゴ
リズム等を用いて算出することが可能である(S19
0)。
FIG. 40 shows the positional relationship of each coordinate system among the three viewpoints. The three viewpoints are C 0 , C 1 , and C 2 , and the basic images from the three viewpoints are I 0 , I 1 , and I 2 . The 3 × 3 basic matrices of the basic images I 0 and I 1 , I 1 and I 2 , and I 2 and I 0 are F 0 , F 1 , and F 2 , respectively. The basic matrix can be calculated from eight or more corresponding points of each basic image set by using a known method such as an eight-point algorithm (S19).
0).

【0189】S190に於いて基本行列を算出後、算出
した基本行列に基づいて公知の手法により各基本画像の
エピポールを算出する(S200)。基本画像IとI
について基本画像Iのエピポールをe00、基本画
像Iのエピポールをe01、同様に基本画像IとI
について基本画像Iのエピポールをe10、基本画
像Iのエピポールをe11、基本画像IとIにつ
いて基本画像Iのエピポールをe20、基本画像I
のエピポールをe21とする。エピポールe はF
の最小固有値に対応する固有ベクトルである。他
のエピポールについても同様に算出可能である。
After calculating the basic matrix in S190, the epipole of each basic image is calculated by a known method based on the calculated basic matrix (S200). Basic images I 0 and I
1 , the epipole of the basic image I 0 is e 00 , the epipole of the basic image I 1 is e 01 , and similarly the basic images I 1 and I 1
Basic image epipole the e 10 of I 1 for 2, the base image I 2 of the epipole of e 11, the base image I 2 and I 0 base image I 2 of the epipole the e 20 for the basic image I 0
The epipoles and e 21. Epipole e 0 0 is F 0
Is the eigenvector corresponding to the smallest eigenvalue of T F 0. The same can be calculated for other epipoles.

【0190】基本画像I、I、Iに於ける基本行
列及びエピポールを算出後、内挿画像Iを作成するに
は、S200に於いて算出されたエピポールを用いて内
挿画像作成手段3の平行化画像作成手段10に於いて、
3枚の基本画像の平行化を実行し平行化画像を作成する
(S210)。3枚の基本画像の平行化のプロセスにつ
いては後述する。
After calculating the basic matrices and epipoles in the basic images I 0 , I 1 , and I 2 , in order to generate an interpolated image IS, an interpolated image is generated using the epipole calculated in S 200. In the parallelized image creating means 10 of the means 3,
The three basic images are parallelized to create a parallelized image (S210). The process of parallelizing the three basic images will be described later.

【0191】S210に於いて、3枚の基本画像の平行
化画像を作成後、テクスチャマッピング手段19は、定
義した面の頂点である面定義座標のみを内挿して(S2
20)、ホモグラフィ行列Hを適用して基本画像をテ
クスチャマッピングすることで内挿画像を作成する(S
230)。テクスチャマッピングのプロセスについては
後述する。
After creating parallelized images of the three basic images in S210, the texture mapping means 19 interpolates only the surface definition coordinates which are vertices of the defined surface (S2).
20), to create the interpolated image by texture mapping the basic image by applying the homography matrix H s (S
230). The texture mapping process will be described later.

【0192】内挿画像作成手段3に於いて内挿画像(I
)を作成すると、作成画像記憶手段6に送信し一時的
に格納する。本実施態様に於いては、実施例2と同様に
3枚の基本画像から最終的な内挿画像(I)を作成す
るが、実施例2に於いては2枚の組からS180を3回
行うことによって最終的な内挿画像(I)を作成して
いる。しかし、本実施手態様に於いては3枚の基本画像
から1度に最終的な内挿画像(I)を作成するので1
回で良い。
In the interpolated image creating means 3, the interpolated image (I
When s ) is created, it is transmitted to the created image storage means 6 and temporarily stored. In the present embodiment, a final interpolated image (I s ) is created from three basic images in the same manner as in the second embodiment. The final interpolation image (I s ) is created by performing this operation twice. However, in the present embodiment, since the final interpolated image (I s ) is created at once from three basic images, 1
Time is good.

【0193】次に作成した内挿画像に対してリアリティ
を持たせる為に、影作成手段4、反射作成手段5に於い
て影、反射を作成し(S240、S250)、作成画像
記憶手段6に対して送信し一時的に格納する。これらの
プロセスについては詳細は前記実施例と同様なので詳細
は省略する。
Next, in order to give the created interpolation image a reality, shadows and reflections are created by the shadow creating means 4 and the reflection creating means 5 (S240, S250), and the created image storage means 6 is created. Send to and store temporarily. The details of these processes are the same as those in the above-described embodiment, and thus the details are omitted.

【0194】作成画像記憶手段6に一時的に格納した内
挿画像、影、反射を合成表示手段7に於いて合成し(S
260)、位置、大きさに関する補正処理を行う(S2
70)。これらのプロセスについても同様なので詳細は
省略する。S270に於いて補正処理が終了後、この画
像を表示する。当然のことながら、影、反射、合成表
示、補正処理については、その全て或いは一部だけが行
われても、或いは行われなくとも良い。
The interpolated image, shadow, and reflection temporarily stored in the created image storage means 6 are synthesized by the synthesis display means 7 (S
260), a correction process relating to the position and size is performed (S2).
70). Since these processes are the same, the details are omitted. After the correction processing is completed in S270, this image is displayed. As a matter of course, the shadow, reflection, composite display, and correction processing may or may not be performed entirely or partially.

【0195】[0195]

【実施例4】又本発明に於ける他の実施例として、予め
決められたパス(経路)と移動速度で視点移動を行い内
挿画像を自動作成し連続表示する自動表示について説明
する。実施例1、実施例2及び実施例3と重複する部分
については説明を省略する。本実施態様に於いては、パ
スと視点間の移動速度の設定を行う自動連続手段17が
サーバ14上に具備され、前記設定したパスと移動速度
に基づいて自動連続表示を行う自動連続作成手段18が
ユーザ端末15上に具備されている例を説明する。図3
にその際の画像表示システム1のシステム構成の一例で
あるシステム構成図を示す。
[Embodiment 4] As another embodiment of the present invention, there will be described an automatic display in which a viewpoint is moved at a predetermined path and a moving speed, an interpolated image is automatically created and continuously displayed. The description of the same parts as in the first, second and third embodiments will be omitted. In the present embodiment, an automatic continuation unit 17 for setting a moving speed between a path and a viewpoint is provided on the server 14, and an automatic continuation creating unit for performing automatic continuous display based on the set path and the moving speed. An example in which 18 is provided on the user terminal 15 will be described. FIG.
FIG. 1 shows a system configuration diagram as an example of the system configuration of the image display system 1 at that time.

【0196】従来、このような自動連続表示には3次元
データを入力し実行する、動画データにより実現する等
があるが、データ量が増加する等の前記のような問題点
が存在している。又従来視点区間を指定されたフレーム
数で分割し、各フレームを順次表示することにより実行
しているが、この場合、視点の移動速度は、視点区間で
は一定となる問題点がある。
Conventionally, such automatic continuous display has been realized by inputting and executing three-dimensional data, realizing moving image data, and the like, but has the above-mentioned problems such as an increase in data amount. . Conventionally, a viewpoint section is divided by a specified number of frames, and each frame is sequentially displayed. In this case, however, there is a problem that a viewpoint moving speed is constant in the viewpoint section.

【0197】そこで本実施態様では、サーバ14に於い
て予めパスと移動速度を指定し、それに基づいて視点移
動を行うことにより、内挿画像を自動作成しそれをユー
ザ端末15上に於いて連続的に表示する実施例を説明す
る。プロセスの流れの一例を図14から図16のフロー
チャート図に示す。
Therefore, in the present embodiment, an interpolated image is automatically created by specifying a path and a moving speed in advance in the server 14 and moving the viewpoint based on the path and the moving speed. A description will be given of an embodiment in which the information is displayed. One example of the process flow is shown in the flowcharts of FIGS.

【0198】まず自動連続表示させることを希望する場
合に、画像取込手段2に於いて自動連続表示させる基本
画像を複数枚取り込む(S100)。基本画像を取り込
むプロセスは後述する。S100に於いて取り込んだ基
本画像に対して2枚以上を1組としてその組内に於ける
基本画像に共通する位置の座標、即ち共通点座標を8点
以上定義する(S160)。この際に、組は実施例1に
示したように2枚1組でも良いし、実施例2又は実施例
3に示したように3枚1組(又は3枚1組を複数組設け
る)でも良い。
First, when the automatic continuous display is desired, a plurality of basic images to be automatically and continuously displayed are captured by the image capturing means 2 (S100). The process of capturing the basic image will be described later. Two or more of the basic images captured in S100 are defined as one set, and coordinates of positions common to the basic images in the set, that is, eight or more common point coordinates are defined (S160). At this time, the set may be a pair of two as shown in the first embodiment, or a pair of three (or a plurality of sets of three) may be provided as shown in the second or third embodiment. good.

【0199】組になっている基本画像から対応する点を
選択し、それらの点を直線で結んで面を定義する(S1
70)(即ち、面定義座標を定義する)。これを対象物
全体に対して行う。この際にS160に於いて定めた共
通点座標と面を定義する点である面定義座標が同一であ
っても良いし、異なる点であっても良い。
[0199] Corresponding points are selected from the set of basic images, and the points are connected by straight lines to define a surface (S1).
70) (ie, define the surface definition coordinates). This is performed for the entire object. At this time, the common point coordinates determined in S160 may be the same as the plane definition coordinates that define the plane, or they may be different points.

【0200】S100に於いて取り込んだ基本画像はカ
メラ(視点)から対象物までの距離や基本画像内での対
象物の位置が視点毎に異なることが多い。これらが異な
ったまま自動連続表示を行うと、視点移動以外の対象物
の変位が発生し、見かけ上対象物が拡大/縮小表示され
たり、対象物が一定の点の周りに回転せず上下に動く等
の問題点が発生する。
In the basic image captured in S100, the distance from the camera (viewpoint) to the target and the position of the target in the basic image often differ from viewpoint to viewpoint. If automatic continuous display is performed while these are different, displacement of the object other than movement of the viewpoint occurs, and the object appears to be enlarged / reduced, or the object does not rotate around a certain point Problems such as movement occur.

【0201】そこで、本発明に於いて自動連続表示を行
う際には、各基本画像内の対象物のカメラ(視点)から
の距離(=拡大/縮小倍率)と位置を補正する為に、対
象物の範囲を示す情報(基本画像内の上、左、下、右の
位置座標とし、以下ターゲット枠情報とする)を設定す
る(S175)。ターゲット枠情報が設定された基本画
像の一例を図37(a)(b)に示す。図37内に於い
て内側の四角はターゲット枠を示し、外側の四角は基本
画像の視点の枠を示す。
Therefore, when automatic continuous display is performed in the present invention, in order to correct the distance (enlargement / reduction magnification) and position of the object in each basic image from the camera (viewpoint), the object is corrected. Information indicating the range of the object (upper, left, lower, right position coordinates in the basic image, hereinafter referred to as target frame information) is set (S175). FIGS. 37A and 37B show an example of a basic image in which target frame information is set. In FIG. 37, the inner square indicates the target frame, and the outer square indicates the viewpoint frame of the basic image.

【0202】面の定義が終了後、S100からS175
に於ける情報は、画像取込手段2から自動連続手段17
へ送信する。
After the surface definition is completed, S100 to S175
Information from the image capturing means 2 to the automatic continuation means 17
Send to

【0203】まず、自動連続表示の開始となる視点(開
始視点)、停止する視点(停止視点)終了する視点(終
了視点)を設定する(S500)。この視点設定を行う
際には、サーバ14に具備されている入力デバイス(図
示せず)であるマウス等を用いて行うことが好適であ
る。
First, a viewpoint from which automatic continuous display is started (start viewpoint), a viewpoint to stop (stop viewpoint), and a viewpoint to end (end viewpoint) are set (S500). When setting the viewpoint, it is preferable to use a mouse or the like which is an input device (not shown) provided in the server 14.

【0204】視点を設定する際には、S100の基本画
像の取込プロセスに於いて説明するように、マウスの移
動量に応じて視点の移動を行うことが好適である。具体
的な手法についてはS150に於けるプロセスと同様に
数3及び数4(後述)を用いて算出できる。又、停止視
点を設定する際には、その視点に於いてマウスが停止し
ている時間をサーバ14内に予め具備されているタイマ
機能(図示せず)を用い時間の計測を行うことが好適で
ある。
When setting the viewpoint, it is preferable to move the viewpoint in accordance with the amount of movement of the mouse, as described in the process of capturing the basic image in S100. The specific method can be calculated using Equations 3 and 4 (described later), similarly to the process in S150. When setting the stop viewpoint, it is preferable to measure the time during which the mouse is stopped at the viewpoint using a timer function (not shown) provided in the server 14 in advance. It is.

【0205】即ち、S500を実行することにより、自
動連続表示のパスが設定できることとなる。又このパス
に対して各々移動速度を設定することにより、パス毎の
移動速度を変化させることが可能となる。移動速度の設
定の際には、キーボードを用いて移動速度を入力しても
良いし、マウスの移動速度とタイマとを対応させること
により、パスに於ける移動速度を設定しても良い。
That is, by executing S500, a path for automatic continuous display can be set. By setting the moving speed for each pass, the moving speed for each pass can be changed. When setting the moving speed, the moving speed may be input using a keyboard, or the moving speed in the path may be set by associating the moving speed of the mouse with the timer.

【0206】S500に於いて視点のパスと移動速度を
設定後、自動連続表示プロセスを自動連続手段17に於
いて実行する(S505)。
After setting the viewpoint path and moving speed in S500, the automatic continuous display process is executed by the automatic continuous means 17 (S505).

【0207】次にユーザがユーザ端末15から自動連続
表示要求を送信し、それをサーバ14の自動連続手段1
7に於いて受信すると、S100からS175及びS5
00の情報をサーバ14からユーザ端末15の自動連続
作成手段18に送信する。
Next, the user sends an automatic continuous display request from the user terminal 15 and sends it to the automatic continuous
7, the data is received from S100 to S175 and S5.
00 is transmitted from the server 14 to the automatic continuous creation means 18 of the user terminal 15.

【0208】自動連続表示では、複数の静止画を連続的
に表示することにより動画的に表示する。ここで静止画
1枚をフレームと呼ぶ。即ちフレームの連続表示により
動画となる。又視点から視点の間のパスを視点区間とす
る。図38に概念図を示す。
In the automatic continuous display, a plurality of still images are displayed in a moving image by displaying them continuously. Here, one still image is called a frame. That is, a moving image is formed by continuous display of frames. A path between the viewpoints is defined as a viewpoint section. FIG. 38 shows a conceptual diagram.

【0209】まず、現在の描画区間位置が、視点区間の
開始又は終了視点で、且つ停止カウント(停止時間)が
0であるか否かを判定する(S510)。最初に表示さ
れる画像は開始視点であるはずなので、停止時間を減算
する(S515)。その間は開始視点の基本画像を表示
することとになる。
First, it is determined whether or not the current drawing section position is the start or end viewpoint of the view section and the stop count (stop time) is 0 (S510). Since the image displayed first should be the start viewpoint, the stop time is subtracted (S515). During that time, the basic image of the starting viewpoint is displayed.

【0210】停止時間が0になると、サーバ14の自動
連続手段17に於いて定義されたパスに基づいて視点移
動が開始される。即ちS510に於いて描画停止でない
場合のプロセスを実行することとなる。
When the stop time becomes 0, the viewpoint movement is started based on the path defined by the automatic continuation means 17 of the server 14. That is, the process in the case where the drawing is not stopped in S510 is executed.

【0211】現在の描画区間位置から次描画区間位置の
計算を行う(S520)。当然の事ながらこの際には連
続表示のパスの方向によって、描画区間位置は減増する
こととなる。
A next drawing section position is calculated from the current drawing section position (S520). Naturally, in this case, the position of the drawing section is increased or decreased depending on the direction of the path of the continuous display.

【0212】次描画区間位置が視点区間の開始位置以
下、又は終了位置以上になるかを判定する(S53
0)。つまり次描画区間位置が視点区間を越えるか否か
を判定する。
It is determined whether the position of the next drawing section is equal to or less than the start position or the end position of the viewpoint section (S53).
0). That is, it is determined whether or not the next drawing section position exceeds the viewpoint section.

【0213】S530に於いて、次描画区間位置が視点
区間を越えない場合、視点区間と描画区間位置の情報を
内挿画像作成手段3に送信し内挿画像を作成する(S1
80)。又内挿画像を作成する際には、S180に於け
る内挿画像作成プロセスを用いて行えばよい。又必要に
応じてS260に於ける影の作成、S270に於ける反
射の作成、S280に於ける合成表示処理、S290に
於ける位置、大きさの補正処理を行う。
If the position of the next drawing section does not exceed the viewpoint section in S530, information on the viewpoint section and the drawing section position is transmitted to the interpolated image creating means 3 to create an interpolated image (S1).
80). When an interpolated image is created, the interpolation image creation process in S180 may be used. If necessary, a shadow is created in S260, a reflection is created in S270, a combined display process is performed in S280, and a position and size correction process is performed in S290.

【0214】S530に於いて次描画区間位置が視点区
間を越える場合、次視点区間を次に隣接する視点区間
に、次描画区間位置を初期値(開始区間位置又は終了区
間位置)に設定を行う(S540)。
If the next drawing section position exceeds the viewpoint section in S530, the next viewpoint section is set to the next adjacent viewpoint section, and the next drawing section position is set to the initial value (start section position or end section position). (S540).

【0215】S540に於いて設定後、次視点区間が自
動連続表示の最終視点区間を越えるか否かの判定を行う
(S550)。次視点区間が最終視点区間を越えない場
合には、S180の内挿画像を作成する。
After setting in S540, it is determined whether or not the next viewpoint section exceeds the last viewpoint section of automatic continuous display (S550). If the next viewpoint section does not exceed the final viewpoint section, an interpolated image in S180 is created.

【0216】次視点区間が最終視点区間を越え(S55
0)、且つ自動連続表示がループ表示(即ち、最終視点
区間に到達した場合、開始視点区間に戻り再表示を行う
場合)の場合(S555)、ループに設定されている視
点区間と初期描画区間位置を設定する(S560)。S
550に於いて次視点区間が最終視点区間を越えない場
合、又S555に於いてループ表示の設定が為されてい
ない場合内挿画像を作成する(S180)。このループ
表示の設定は予めサーバ14の自動連続手段17に於い
て、パスの設定等を行う際に指定しても良いし、ユーザ
端末15に於いて設定しても良い。
The next viewpoint section exceeds the last viewpoint section (S55).
0), and when the automatic continuous display is a loop display (ie, when the final viewpoint section is reached, the display is returned to the start viewpoint section and redisplay is performed) (S555), the viewpoint section set in the loop and the initial drawing section The position is set (S560). S
If the next viewpoint section does not exceed the final viewpoint section in 550, or if the loop display is not set in S555, an interpolated image is created (S180). The setting of the loop display may be specified in advance when setting a path or the like in the automatic continuation means 17 of the server 14 or may be set in the user terminal 15.

【0217】S180に於いて内挿画像を作成後、影、
反射の作成(S240、S250)及びそれらの合成表
示(S260)を行い、その後内挿画像が補正処理手段
8に送信され、位置・大きさの補正処理を実行する(S
270)。位置・大きさの補正処理についてはS270
と同様のプロセスを実行する。
After creating the interpolated image in S180, the shadow,
A reflection is created (S240, S250) and a composite display thereof is performed (S260), and then the interpolated image is transmitted to the correction processing means 8 to execute the position / size correction processing (S240).
270). S270 about position / size correction processing
Perform the same process as.

【0218】S270に於いて補正処理を実行後、それ
をユーザ端末15上に於いて表示する。その後、最終視
点に到達するまでS505を連続的に繰り返すことによ
り連続的なフレームが作成することが可能となり、これ
をユーザ端末15上で表示することにより動画のように
表示することが可能となる(S570)。
After executing the correction processing in S270, the correction processing is displayed on the user terminal 15. Thereafter, by continuously repeating S505 until the final viewpoint is reached, a continuous frame can be created, and by displaying this on the user terminal 15, it becomes possible to display it as a moving image. (S570).

【0219】[0219]

【実施例5】以下に、ユーザ端末15上でパスを設定す
るプロセスを説明する。又、重複するプロセスについて
は省略する。本実施態様に於いてはパスと視点間の移動
速度を設定する自動連続手段17及び前記設定したパス
と移動速度に基づいて自動連続表示を行う自動連続作成
手段18がユーザ端末15に具備されている場合の画像
表示システム1を説明する。図4にこの場合の画像表示
システム1のシステム構成図の一例を示す。
Embodiment 5 Hereinafter, a process for setting a path on the user terminal 15 will be described. Also, overlapping processes are omitted. In the present embodiment, the user terminal 15 includes an automatic continuation unit 17 for setting a moving speed between a path and a viewpoint, and an automatic continuation creating unit 18 for performing automatic continuous display based on the set path and the moving speed. The image display system 1 in the case where there is is described. FIG. 4 shows an example of a system configuration diagram of the image display system 1 in this case.

【0220】サーバ14上に於いて、対象物の基本画像
を取込み(S100)、それに対して共通点と面を定義
し(S160及びS170)、ターゲット枠情報を設定
する(S175)。S100からS175の情報がユー
ザ端末15に送信され、ユーザ端末15に具備した自動
連続手段17に於いて視点設定が行われる(S50
0)。この際にユーザはユーザ端末15上に予め具備さ
れているマウス等の入力デバイス(図示せず)を用いる
ことにより、パスとその視点間の移動速度を設定する。
On the server 14, the basic image of the object is fetched (S100), common points and planes are defined for it (S160 and S170), and target frame information is set (S175). The information from S100 to S175 is transmitted to the user terminal 15, and the viewpoint setting is performed in the automatic continuation means 17 provided in the user terminal 15 (S50).
0). At this time, the user sets the moving speed between the path and the viewpoint by using an input device (not shown) such as a mouse provided on the user terminal 15 in advance.

【0221】視点設定を行う際には、S100の基本画
像の取込プロセスに於いて説明するように、マウスの移
動量に応じて視点の移動を行うことが好適である。具体
的な手法についてはS150に於けるプロセスと同様に
数4及び数5(後述)を用いて算出できる。又、停止視
点を設定する際には、その視点に於いてマウスが停止し
ている時間をユーザ端末15内に予め具備されているタ
イマ(図示せず)を用い時間の計測を行うことが好適で
ある。
When setting the viewpoint, it is preferable to move the viewpoint according to the amount of movement of the mouse, as described in the process of capturing the basic image in S100. The specific method can be calculated by using Equations 4 and 5 (described later), similarly to the process in S150. Further, when setting the stop viewpoint, it is preferable to measure the time during which the mouse is stopped at the viewpoint using a timer (not shown) provided in the user terminal 15 in advance. It is.

【0222】即ち、S500を実行することにより、自
動連続表示のパスが設定できることとなる。又このパス
に対して各々移動速度を設定することにより、パス毎の
移動速度を変化させることが可能となる。
That is, by executing S500, a path for automatic continuous display can be set. By setting the moving speed for each pass, the moving speed for each pass can be changed.

【0223】S500に於いて視点のパスと移動速度を
設定後、設定した視点を自動連続作成手段18に送信し
S505からS570までのプロセスを実行することに
より、ユーザ端末15上に於いて視点と移動速度を設定
することで、自動連続表示を行うことが可能となる。
After setting the path and moving speed of the viewpoint in S500, the set viewpoint is transmitted to the automatic continuous creation means 18 and the processes from S505 to S570 are executed. By setting the moving speed, automatic continuous display can be performed.

【0224】<基本画像取込みのプロセス>以下に基本
画像を取り込むプロセスを説明する。基本画像を取り込
むプロセスの流れの一例を示したフローチャート図の一
例を図8に示す。先ず、画像作成者は、スキャナ等から
対象物を撮影した、あるいは従前にデジタルデータとし
てコンピュータ上に格納している2次元画像を抽出し、
読み込む(S110)。複数の画像を読込後、画像作成
者は画像取込手段2を起動し(即ち、図17(a)に示
した視点定義を行う為の視点定義画面を起動する)初期
状態にする。その後、視点定義画面に於いて、視点とな
る2次元平面を3次元仮想空間上(この3次元仮想空間
は、3次元仮想空間を座標系原点とする球を想定する)
に作成する(S120)。この状態の視点定義画面の画
面イメージを図17(b)に示す。S120に於いて視
点を作成後、S110に於いて読み込んだ画像を取込
み、S120に於いて作成した視点に基本画像を対応さ
せる。この状態における視点定義画面の画面イメージを
図17(c)に示す。視点に読み込まれた基本画像の上
下左右等の視点の位置調整を実行する(S130)。こ
の状態の視点定義画面の画面イメージを図17(d)に
示す。
<Process of Capturing Basic Image> The process of capturing a basic image will be described below. FIG. 8 shows an example of a flowchart illustrating an example of the flow of a process for capturing a basic image. First, the image creator extracts a two-dimensional image of an object photographed by a scanner or the like or previously stored as digital data on a computer,
It is read (S110). After reading the plurality of images, the image creator activates the image capturing means 2 (that is, activates the viewpoint definition screen for performing the viewpoint definition shown in FIG. 17A) to an initial state. Then, on the viewpoint definition screen, a two-dimensional plane serving as a viewpoint is placed on a three-dimensional virtual space (this three-dimensional virtual space is assumed to be a sphere having the origin of the three-dimensional virtual space as a coordinate system).
(S120). FIG. 17B shows a screen image of the viewpoint definition screen in this state. After creating the viewpoint in S120, the image read in S110 is fetched, and the basic image is made to correspond to the viewpoint created in S120. FIG. 17C shows a screen image of the viewpoint definition screen in this state. The position of the viewpoint such as up, down, left, and right of the basic image read into the viewpoint is adjusted (S130). FIG. 17D shows a screen image of the viewpoint definition screen in this state.

【0225】S110からS130に於いて設定された
視点を全ての視点に於いて実行していない場合(S14
0)、次の視点を入力する為に視点移動を行う。この際
には、各画像の視点位置、及び視線方向(画像面の方
向)を数値化してキー入力をすることによって実現して
も良いが、画像作成者が数値化してキー入力することは
煩雑である。その為、図18に示すように、想定された
仮想3次元空間上の座標系原点を中心とした球に於い
て、視点上でのx、y座標を球面の極座標(φ、θ)に
対応させ、マウス等の入力デバイス(図示せず)の移動
量に応じて極座標(φ、θ)を算出し、その位置に視点
を移動する(S150)。3次元仮想空間上に於いて視
点が移動した画面イメージを図19(a)に示す。
When the viewpoint set in S110 to S130 is not executed in all viewpoints (S14)
0) Move the viewpoint to input the next viewpoint. In this case, the viewpoint position and the line of sight (direction of the image plane) of each image may be converted into a numerical value and keyed. However, it is complicated for the image creator to numerically input the key. It is. Therefore, as shown in FIG. 18, in a sphere centered on the coordinate system origin in the assumed virtual three-dimensional space, the x and y coordinates on the viewpoint correspond to the polar coordinates (φ, θ) of the spherical surface. Then, polar coordinates (φ, θ) are calculated according to the amount of movement of an input device (not shown) such as a mouse, and the viewpoint is moved to that position (S150). FIG. 19A shows a screen image in which the viewpoint has moved in the three-dimensional virtual space.

【0226】極座標(φ、θ)は、以下のように算出す
る。単位時間に於けるx、y座標の変化をΔx、Δyと
すると、Δφ、Δθは数4で算出できる。
The polar coordinates (φ, θ) are calculated as follows. Assuming that changes in the x and y coordinates in a unit time are Δx and Δy, Δφ and Δθ can be calculated by Equation 4.

【数4】Δφ=Cx × Δx(Cx∈Z) Δθ=Cy × Δy(Cy∈Z)[Number 4] Δφ = Cx × Δx (∀ Cx∈Z ) Δθ = Cy × Δy (∀ Cy∈Z)

【0227】数4と下記に示す数5を用いることにより
極座標(φ、θ)は算出することが出来る。
The polar coordinates (φ, θ) can be calculated by using Expression 4 and Expression 5 shown below.

【数5】φ=(φ+Δφ)mod 2π θ=Θmax (θ+Δθ≧Θmax ) θ+Δθ(Θmax>θ+Δθ>Θmin) Θmin (Θmin≧θ+Δθ) Θmax、Θminは、0.5π>Θmax>Θmin
>−0.5πを満たす定数
[Number 5] φ = (φ + Δφ) mod 2π θ = Θ max (θ + Δθ ≧ Θ max) θ + Δθ (Θ max> θ + Δθ> Θ min) Θ min (Θ min ≧ θ + Δθ) Θ max, Θ min is, 0.5π> Θ max > Θ min
> -0.5π

【0228】S150に於いて視点移動後、再びS11
0からS140を繰り返すことにより、2視点以上を作
成する。2番目以降の視点が作成された画面イメージを
図19の(b)から図19の(d)に示す。本実施態様
で用いた画面イメージでは8視点を設けたが、2視点以
上であれば視点はいくつであっても構わない。
After moving the viewpoint in S150, the process returns to S11 again.
By repeating S0 to S140, two or more viewpoints are created. Screen images in which the second and subsequent viewpoints have been created are shown in FIGS. 19B to 19D. Although eight viewpoints are provided in the screen image used in the present embodiment, any number of viewpoints may be used as long as the number is two or more.

【0229】<対応する点の自動照合のプロセス>基本
画像の組から対応する点を定義する際には、組となる基
本画像の全てからマウス等を用いて手作業で指定する必
要性があった。しかし、手作業に因った場合では非常に
手間がかかることからとても煩雑であり、組となる画像
の枚数が多くなる、画像サイズが大きくなる等の場合に
は非常に負担となる。そこで組となる基本画像のうち、
一枚の基本画像に於いて点を定義すると、組となる残り
の基本画像から自動的に対応する点を抽出するプロセス
を以下に説明する。まず、2枚の基本画像(I
)を組とする場合を説明する。
<Automatic Matching Process of Corresponding Points> When defining corresponding points from a set of basic images, it is necessary to manually specify all the basic images to be set using a mouse or the like. Was. However, manual work is very troublesome because it takes a lot of time and labor, and is extremely burdensome when the number of images to be grouped is large or the image size is large. So, among the basic images that make up a set,
Once points are defined in one basic image, the process of automatically extracting corresponding points from the remaining basic images in the set will be described below. First, two basic images (I 0 ,
The case where I 1 ) is a set will be described.

【0230】まず、各基本画像に於いて対象物の輪郭線
沿いの点(以下、エッジ端点)をスーザン演算子を用い
ることによって自動的に抽出する。スーザン演算子を用
いて対象物のエッジ端点を自動的に抽出する方法は、エ
ス・エム・スティーブ、エム・ブレイディー(S.M.Stev
e and M.Brady)著「低レベル画像処理に於ける新しいア
プローチ」(SUSAN A New Approach to Low Level Ima
ge Processing,International Journal of Computer Vi
sion, Vol.23, No.1,p.45-78,1997)に記載されてい
る。エッジ端点を自動的に抽出した図を図44に示す。
First, in each basic image, points along the outline of the object (hereinafter, edge end points) are automatically extracted by using the Susan operator. The method of automatically extracting the edge end point of the object using the Susan operator is described in S.M. Steve, M. Brady (SMStev
e and M. Brady), "SUSAN A New Approach to Low Level Ima"
ge Processing, International Journal of Computer Vi
sion, Vol.23, No.1, p.45-78, 1997). FIG. 44 shows a diagram in which edge end points are automatically extracted.

【0231】抽出したエッジ端点の中で組となる任意の
点を弱校正用の点(以下、ドロネー三角形指定点)と定
め、ユーザが指定を行う。図45にドロネー三角形指定
点を指定した場合の図を示す。尚図45に於いては11
点を指定している。
An arbitrary point forming a pair among the extracted edge end points is determined as a point for weak calibration (hereinafter, designated Delaunay triangle designated point), and the user designates it. FIG. 45 shows a case where a Delaunay triangle designation point is designated. Note that in FIG.
You have specified a point.

【0232】エッジ端点の抽出によって得られた基本画
像I上の1点をpとし、基本画像IとI上の対
応するドロネー三角形指定点(指定したドロネー三角形
指定点の対応点の組の数をnとする)を各々q0iとq
1iと(i=0,1,…,n−1)とする。ドロネー三
角形指定点から逐次法を用いることによって、ドロネー
三角形を基本画像I内に生成する。逐次法について
は、ディー・リスチンスキー(D.Lischinski)著「グラ
フィック・ジェムズ第4巻 逐次ドロネー三角形化」
(Incremental Delaunay triangluation in Graphics G
ems IV, AP Professional,1994)に記載されている。ド
ロネー三角形が生成された基本画像の一例を図46に示
す。
One point on the basic image I 0 obtained by extracting the edge end points is defined as p 0, and the corresponding Delaunay triangle designated points on the basic images I 0 and I 1 (the corresponding points of the designated Delaunay triangle designated points). Let the number of pairs be n) be q 0i and q
1i and (i = 0, 1,..., N−1). By using the sequential method from Delaunay designated point to generate a Delaunay triangle in the base image I 0. For the sequential method, see D. Lischinski, Graphic Gems, Volume 4, Sequential Delaunay Triangulation.
(Incremental Delaunay triangluation in Graphics G
ems IV, AP Professional, 1994). FIG. 46 shows an example of the basic image in which the Delaunay triangle is generated.

【0233】点pを含むドロネー三角形の頂点をq
00、q01、q02とする。点pがドロネー三角形
の外部にある場合には、距離が近い点から順にq00
01、q02と定義する。この時u、vを未知のスカ
ラパラメータとして、以下のように定義する。 a=q01−q00 b=q02−q00=ua+vb+q00
The vertices of the Delaunay triangle including the point p 0 are defined as q
00 , q 01 and q 02 . If the point p 0 is outside the Delaunay triangle, q 00 ,
Defined as q 01 and q 02 . At this time, u and v are defined as unknown scalar parameters as follows. a = q 01 -q 00 b = q 02 -q 00 p 0 = ua + vb + q 00

【0234】これらの式から図47が得られ、これを解
くことによってu、vを算出する。但し、正則でない場
合にはq02を次に近いドロネー三角形指定点に置き換
える。これらによって、基本画像Iに於ける対応点の
初期推定位置p^は以下の式で与えられる。 p^=u(q11−q10)+v(q12−q10
+q10
FIG. 47 is obtained from these equations, and u and v are calculated by solving them. However, if it is not regular is replaced with the next closest Delaunay triangle specified point q 02. These initial estimated position p ^ 1 of corresponding points that put the base image I 1 is given by the following equation. p ^ 1 = u (q 11 −q 10 ) + v (q 12 −q 10 )
+ Q 10

【0235】ドロネー三角形指定点の三角形から線形に
補間をしてもエピポール制約を満たさないので、基本画
像Iの点p^が基本画像Iの点pとの間にエピ
ポール制約を満たすように修正を行う必要性がある。点
、pの同次座標表現をp 、p とすると、
対応する点は基本画像内に存在する有限空間内の点であ
ることから同次成分を1として、p =(p
1)=(p1x、p1y、1)とすることが出来る。
[0235] does not satisfy the epipoles constraints even if the interpolation from the triangle of the Delaunay triangle specified point in linear, point p ^ 1 of the basic image I 1 satisfies the epipoles constraints between the point p 0 of the basic image I 0 There is a need to make modifications. When the same next coordinate representation of the point p 0, p 1 and p ~ 0, p ~ 1,
As 1 homogeneous component since the corresponding point is a point of the finite spaces present in a basic image, p ~ 1 = (p T 1,
1) = (p 1x , p 1y , 1) T.

【0236】この時のエピポール制約は3×3の基本行
列Fを用いてp〜T Fp =0で表せる。基本行列
Fの各成分も点p の点の成分も既知であることか
ら、エピポール制約によりp は図48に示すような
エピポール制約直線上に拘束されることが明らかであ
る。即ちL=Fp とするとエピポール制約はL・p
=0である。
At this time, the epipole constraint is a 3 × 3 basic row.
P using column F~ T 1Fp~ 0= 0. Elementary matrix
Each component of F is also a point p~ 0That the component of the point is also known
From the epipole constraint~ 1Is as shown in FIG.
It is clear that it is constrained on the epipole constraint line.
You. That is, L = Fp~ 0Then the epipole constraint is Lp
~ 0= 0.

【0237】このエピポール制約直線上に初期推定位置
p^を投影すると、エピポール制約直線に垂直な直線
=t(L、L+p^が、L・p =0
満たすことから、パラメータt=−(L1x+L
p^1y+L)/(L +L )で算出が可能と
なる。これらからエピポール制約を満たすpが求ま
る。
[0237] When the projection of the initial estimated position p ^ 1 in this epipoles constraints on a straight line, epipoles constraints straight line to a straight line perpendicular p 1 = t (L x, L y) T + p ^ 1 is, L · p ~ 0 = 0
Therefore, the parameter t = − (L x p 1x + L y
p ^ 1y + L z) / (L 2 x + L 2 y) in the calculation can be performed. P 1 from these meet the epipoles constraints is obtained.

【0238】先程求めたエピポール制約を満たすp
基本画像上の対応点に一致するとは限らないので、エピ
ポール制約直線上との輝度差を調べることによって、対
応する点の修正を行う(線形探索と呼ぶ)。
[0238] Since p 1 satisfying epipoles constraints obtained earlier is not necessarily coincide with the corresponding points on the basic image by examining the luminance difference between epipoles constraints straight line, correcting the corresponding point (linear search ).

【0239】点pから一定距離内にあるエピポール制
約直線上の各画素について点pの周辺に定義した探索
窓(図48参照:本実施態様に於いては正方形である場
合を説明するが、それ以外であっても良い)との輝度の
差が最小になる位置を求める。2枚の基本画像を用いた
場合では視点の違いにより、対応する点であっても輝度
が異なることがあるが、相対的な誤差の極小点は比較的
安定的に求めることが自明である。又輝度の差は、探索
窓全体について平均を用いるだけではなく、部分につい
ても輝度差を求めることで周波数の影響を考慮する。
[0239] point search window defined around the point p 0 for each pixel of the epipole constraints on a straight line from p 1 within a predetermined distance (Figure 48 See: While in the present embodiment describes a case of a square , Or any other position) at which the difference in luminance is minimized. When two basic images are used, the brightness may be different even at the corresponding points due to the difference in viewpoint, but it is obvious that the relative error minimum point is relatively stably obtained. As for the difference in luminance, not only the average is used for the entire search window, but also the influence of the frequency is considered by calculating the luminance difference for the portion.

【0240】探索窓に於ける輝度差は、探索窓の幅を2
h、基本画像I、Iの座標(x 、y)、
(x、y)に於ける輝度差C(x、y)、C
(x、y)を用いて、図49のように再帰的に算
出することによって可能である。又kは探索窓の大きさ
毎の重みを表し、k=1では全ての大きさについて同じ
重みで考慮する。k<1では小さい探索窓の影響を重視
し、k>1では大きい探索窓の影響を重視する。一般的
にはノイズの影響を減らし、低周波成分を重視する為に
k>1を用いることが好適である。図50に自動的に対
応する点の照合を行った場合の図を示す。
The brightness difference in the search window is determined by setting the width of the search window to 2
h, Basic image I0, I1Coordinates (x 0, Y0),
(X1, Y1Luminance difference C)0(X0, Y0), C
1(X1, Y1) And recursively calculated as shown in FIG.
It is possible by putting out. K is the size of the search window
Represents the weight of each size, and is the same for all sizes when k = 1
Consider by weight. For k <1, focus on the influence of small search window
However, when k> 1, the influence of a large search window is emphasized. general
To reduce the effect of noise and emphasize low frequency components
It is preferred to use k> 1. FIG. 50
FIG. 4 shows a diagram when matching of corresponding points is performed.

【0241】上記では2枚の基本画像の場合を説明した
が、次に3枚以上の画像で自動的に対応する点の照合を
行う場合を説明する。3枚以上の画像の場合には、上述
のように2枚の画像についてまず対応点を求め、その後
3枚目以降の画像について解析的に対応点を求める。以
下にそのプロセスを説明する。
In the above description, the case of two basic images has been described. Next, the case of automatically matching points corresponding to three or more images will be described. In the case of three or more images, corresponding points are first obtained for two images as described above, and then corresponding points are obtained analytically for the third and subsequent images. The process will be described below.

【0242】基本画像I、I、Iの対応する点を
同次座標で表したものを各々p 、p 、p
し、基本画像IとI、基本画像IとI、基本画
像I とIの基本行列をF01、F12、F20とす
る。p 、p は既知であるので、f12=F12
、f20=F 20 、とすると、図51の
式が求められ、この一次方程式を求めることによって、
3枚目の画像に於いてもpを求めることが可能とな
る。これは、基本画像I、Iからの2つのエピポー
ル制約直線の交点を求めることであって、輝度差を考慮
した線形探索を行う必要がなくなる。但し正則でない場
合には2直線が平行となることは自明であり、輝度差を
用いて求めることとなる。
Basic image I0, I1, I2The corresponding point of
Each represented by homogeneous coordinates is p~ 0, P~ 1, P~ 2When
And basic image I0And I1, Basic image I1And I2, Basic painting
Statue I 2And I0The basic matrix of F01, F12, F20Toss
You. p~ 0, P~ 1Is known, so f12= F12
p~ 1, F20= FT 20p~ 1Then, in FIG.
Equation is obtained, and by obtaining this linear equation,
P in the third image2It is possible to ask for
You. This is the basic image I0, I1Two epipaws from
To determine the intersection point of
This eliminates the need for performing a linear search. However, if it is not regular
In this case, it is obvious that the two straight lines are parallel.
It will be determined using

【0243】<2枚の画像の平行化のプロセス>以下に
S210に於ける画像の平行化のプロセスの一例を説明
する。本実施態様に於いては2枚の基本画像IとI
の平行化を説明するが、当然の事ながら平行化は、対
象となる2枚の基本画像に於いて全て作成する必要性が
ある。
<Process for Parallelizing Two Images> An example of the process for parallelizing images in S210 will be described below. In this embodiment, two basic images I 0 and I 1
The parallelization will be described. Naturally, the parallelization needs to be created for all two target basic images.

【0244】2枚の基本画像を平行化する為には、まず
2枚の基本画像を、S190に於いて算出したエピポー
ルeij(i=0,1,j=0,1)と平行でない任意
の軸dijの周りにθijだけ回転させることで平行に
する。本実施態様に於いては簡単の為に、dijをエピ
ポールeijと垂直な無限遠の直線dij = (e
ijy ijx 0)とする。2枚の基本画像が平
行と言うことはこの変換によりエピポールが無限遠点に
移されることを意味する。即ち、回転行列R(d ij
θij)を図23(a)に示すと、R(dij
θij)eijの同次成分は0となる。
To parallelize two basic images, first,
The two basic images are combined with the epicard calculated in S190.
Le eijArbitrary not parallel to (i = 0,1, j = 0,1)
Axis d ofijAround θijJust by rotating
I do. In this embodiment, for simplicity, dijEpi
Paul eijAnd a line d at infinity perpendicular toij= (E
izyeijx0)TAnd Two basic images are flat
The line means that this conversion turns the epipole to infinity
Means being transferred. That is, the rotation matrix R (d ij,
θij) Shown in FIG. 23A, R (dij,
θij) EijIs 0.

【0245】次にエピポーラ線を水平にするようにz軸
周りに回転する。即ちこの回転行列を図23(b)に示
すようにR(φij)、e’ij =R(dij、θ
ij)eijとすると、R(φij)e’ij のy成
分は0である。
Next, the epipolar line is rotated about the z-axis so as to be horizontal. That is, as shown in FIG. 23B, this rotation matrix is R (φ ij ), e ′ ij = R (d ij , θ
ij ) e ij , the y component of R (φ ij ) e ′ ij is 0.

【0246】p^ij=R(φij)R(dij、θ
ij)pの変換によって定数倍の不定性を除いて面定
義座標同士は同一走査線上に並ぶ。定数倍の不定性を取
り除く為の第2の基本画像にかける3×3の剪断変形行
列Tとすると、数6及び数7で計算されるホモグラフ
ィHi0、Hi+1,1により、同一走査線上に面定義
座標が並ぶ平行化が行える。この関係を図示すると図2
4のようになる。
P ^ ij = R (φ ij ) R (d ij , θ
ij ) The plane-defined coordinates are aligned on the same scanning line except for the indefiniteness of a constant multiple due to the conversion of p i . Assuming that a 3 × 3 shear deformation matrix T i is applied to the second basic image for removing the indeterminacy of a constant multiple, the same scan is performed by the homography H i0 , H i + 1,1 calculated by Expressions 6 and 7. Parallelization in which surface definition coordinates are arranged on a line can be performed. This relationship is illustrated in FIG.
It looks like 4.

【数6】 Hi0 =R(di0,−θi0)R(−φi0H i0 = R (d i0 , −θ i0 ) R (−φ i0 )

【数7】 Hi+1,1=(TR(φi+1,i)R(di+1,1 ,θi+1 ,1 ))−1 =R(di+1,1 ,−θi+1,1)R(φi+1 ,i )T −1 Equation 7] H i + 1,1 = (T i R (φ i + 1, i) R (d i + 1,1, θ i + 1, 1)) -1 = R (di + 1,1 , -θi + 1,1 ) R (φi + 1 , i ) Ti- 1

【0247】基本画像Iの座標点(面定義座標のうち
の一点)pが平行化によって写像された点p^00
−1 00と、基本画像Iの座標点pが平行化
によって写像された点p^11=H−1 11とは同
一y座標を持つ。基本画像I 、Iをsの比に内分
する点p^s0 (図22参照)も平行化座標では同一
y座標を持つことから数8のように内挿できる。同様
に、基本画像I、Iをsの比に内分する点p^
s2は数9のように示される。
Basic image I0Coordinate point (of the surface definition coordinates
One point) p0Is the point p ^00=
H-1 00p0And the basic image I1Coordinate point p1Is parallelized
The point p ^ mapped by11= H-1 11p1Same as
It has one y coordinate. Basic image I 0, I1S1To the ratio of
Points0 (See FIG. 22)
Since it has the y-coordinate, it can be interpolated as shown in Expression 8. As well
The basic image I0, I2S1The point p ^ that is internally divided into the ratio
s2Is shown as in Equation 9.

【数8】 p^s0 =(1−s)p^00+sp^11 [Equation 8] p ^ s0 = (1-s 1) p ^ 00 + s 1 p ^ 11

【数9】 p^s2 =(1−s)p^01+sp^20 [Equation 9] p ^ s2 = (1-s 1) p ^ 01 + s 1 p ^ 20

【0248】基本画像I、Iの組について、基本画
像Iの4隅の点をb0i(i=0,1,2,3)とし
て、その平行化画像での点をb^00iとする。又、基
本画像Iの4隅の点をb1i(i=0,1,2,3)
として、その平行化画像での点をb^11iとする。基
本画像上での4隅の点の内挿をbs0i =(1−
)b0i+s1iとし、その平行化画像上での
4隅の点の内挿をb^s0 =(1−s)b^
00i+s11iとする。このとき、ps0i=H
s0p^s0iの最小自乗解となるような3×3の行列
s0を基本画像I、Iの内挿ホモグラフィとす
る。同様に基本画像I、Iの組についてもH
算出することが可能である。
Basic image I0, I1The basic drawing
Statue I0The four corner points of b0i(I = 0,1,2,3)
And the point in the parallelized image is b ^00iAnd In addition,
Main image I1The four corner points of b1i(I = 0, 1, 2, 3)
And the point in the parallelized image is b ^11iAnd Base
Interpolation of the four corner points on the main image is bs0i = (1-
s 1) B0i+ S1b1iAnd on the parallelized image
Interpolation of the four corner points is b ^s0 i = (1-s1) B ^
00i+ S1b11iAnd At this time, ps0i= H
s0p ^s0i3 × 3 matrix that is the least squares solution of
Hs0To the basic image I0, I1Interpolation homography of
You. Similarly, the basic image I0, I2Hs 2To
It is possible to calculate.

【0249】内挿ホモグラフィを算出後、中間視点I
s0に於ける点の座標を数10を用いることにより算出
する。
After calculating the interpolation homography, the intermediate viewpoint I
The coordinates of the point at s0 are calculated by using equation ( 10).

【数10】ps0 =Hs0p^s0 [ Mathematical formula-see original document ] p s0 = H s0 p ^ s0

【0250】<3枚の画像の平行化のプロセス>以下に
3枚の画像を平行化する場合のプロセスの一例を説明す
る。基本画像I、I、Iを平行にする回転行列を
それぞれR(d、θ)、R(d、θ)R
(d、θ)とする。但し、R(d、θ)は回転
軸dの回りの角度θの回転を示す。回転行列R(d
、θ)は図41(a)で示される。
<Process for Parallelizing Three Images> An example of a process for parallelizing three images will be described below. Basic image I 0, I 1, respectively rotation matrix to collimate the I 2 R (d 0, θ 0), R (d 1, θ 1) R
(D 2 , θ 2 ). However, R (d i, θ i ) indicates the rotation about the angle theta i of the rotation shaft d i. Rotation matrix R (d
i , θ i ) are shown in FIG.

【0251】基本画像I、I、Iのz軸周りの回
転行列を各々R(φ)、R(φ)、R(φ)とす
る。z軸回りの回転行列R(φ)は図41(b)で示
される。又基本画像IのIに対する3×3の剪断変
形行列をT、基本画像IのIに対する3×3の剪
断変形行列をTとする。
The rotation matrices of the basic images I 0 , I 1 and I 2 around the z-axis are R (φ 0 ), R (φ 1 ) and R (φ 2 ), respectively. The rotation matrix R (φ i ) about the z-axis is shown in FIG. A 3 × 3 shear matrix for I 0 of the basic image I 1 is T 1 , and a 3 × 3 shear matrix for I 0 of the basic image I 2 is T 2 .

【0252】3枚の基本画像を一度に変換する場合につ
いては、2枚の基本画像の場合と同様にエピポールを無
限遠に移す回転変換を行えばよいが、各基本画像の組に
ついて回転を求めるのではなく、全ての基本画像を同時
に変換するので、回転軸の自由度は失われ一意に定まる
こととなる。
In the case of converting three basic images at a time, the rotation conversion for moving the epipole to infinity may be performed as in the case of the two basic images, but the rotation is obtained for each set of basic images. However, since all the basic images are converted at the same time, the degree of freedom of the rotation axis is lost and uniquely determined.

【0253】回転行列R(d、θ)、R(d、θ
)R(d、θ)によって移されるエピポールを
e’ij(i=0,1,2,j=0,1)とすると、 (1) e’00 = R(d、θ)e00 (2) e’21 = R(d、θ)e21 (3) e’10 = R(d、θ)e10 (4) e’01 = R(d、θ)e01 (5) e’20 = R(d、θ)e20 (6) e’11 = R(d、θ)e11 となる。
[0253] the rotation matrix R (d 0, θ 0) , R (d 1, θ
1 ) If the epipole transferred by R (d 2 , θ 2 ) is e ′ ij (i = 0, 1, 2, j = 0, 1), (1) e ′ 00 = R (d 0 , θ 0) ) E 00 (2) e ′ 21 = R (d 0 , θ 0 ) e 21 (3) e ′ 10 = R (d 1 , θ 1 ) e 10 (4) e ′ 01 = R (d 1 , θ) 1 ) e 01 (5) e ′ 20 = R (d 2 , θ 2 ) e 20 (6) e ′ 11 = R (d 2 , θ 2 ) e 11

【0254】ここで、画像が平行になるとは、他のエピ
ポールが無限遠になり同次成分が0になることを意味す
るので、e’ijz=0が成立する。基本画像Iの無
限遠回りの回転を表す為に、回転軸dの同次成分に関
して、 (7) (−e00x0y+e00y0x)sin
θ+cosθ=0 (8) (−e01x0y+e01y0x)sin
θ+cosθ=0 が成立する。従ってd0y=d0x×(e01y−e
00y)/(e01x−e 00x)が得られる。
Here, that the images become parallel means that other
It means that the pole becomes infinity and the homogeneous component becomes 0
So e 'ijz= 0 holds. Basic image I0No
The rotation axis d0Of the same components
Then, (7) (-e00xd0y+ E00yd0x) Sin
θ0+ Cosθ0= 0 (8) (-e01xd0y+ E01yd0x) Sin
θ0+ Cosθ0= 0 holds. Therefore d0y= D0x× (e01y-E
00y) / (E01x-E 00x) Is obtained.

【0255】ここでd0xの係数をαとすると、回転
軸は単位ベクトルであるので、d 0x+d 0y
(1+α )d 0x=1となり、回転軸dは、図
42(a)として求められる。この式に(7)を代入す
ると、回転角度θは、tanθ=1/(e00x
0y−e00y0x)で算出可能となる。従って、図
42(b)を図41(a)に代入することで回転行列R
(d、θ)を算出することが可能となる。R
(d、θ)、R(d、θ)についても同様に算
出が可能である。このプロセスを平行化回転変換(3画
像を平行にする変換)と呼ぶ。
Here, d0xThe coefficient of α0Then rotate
Since the axis is a unit vector, d2 0x+ D2 0y=
(1 + α2 0) D2 0x= 1 and the rotation axis d0The figure
42 (a). Substituting (7) into this equation
The rotation angle θ0Is tanθ0= 1 / (e00xd
0y-E00yd0x) Can be calculated. Therefore, the figure
By substituting 42 (b) into FIG. 41 (a), the rotation matrix R
(D0, Θ0) Can be calculated. R
(D1, Θ1), R (d2, Θ2)
It is possible to leave. This process is called a parallelization rotation conversion (3 images
(Parallel image transformation).

【0256】次に対応点の組を同一水平線上に並べる水
平化回転変換のプロセスを行う。2画像の場合にはエピ
ポールのy座標が0になる変換を行えばよいが、3画像
ではエピポールが各画像の組毎に定義されている為、上
記の方法は用いることが出来ない。そこで、最初に基本
画像I、Iの組について平行化を行い、基本画像I
に関しては、基本画像I、Iの座標系に対する相
対的な変換を求める。
Next, a horizontal rotation conversion process for arranging sets of corresponding points on the same horizontal line is performed. In the case of two images, the conversion may be performed so that the y-coordinate of the epipole becomes 0. However, in the case of three images, since the epipole is defined for each set of images, the above method cannot be used. Therefore, performs collimation for the first to the base image I 0, I 1 set, the base image I
For 2 , the relative transformation of the basic images I 0 and I 1 with respect to the coordinate system is determined.

【0257】まず基本画像I、Iについては2枚の
基本画像に於ける場合と同様に、エピポールのy座標が
0になるように変換することで対応点が同一y座標に並
ぶように変換を行う。即ちe’’00=R(φ)e’
00 、e’’01=R(φ )e’01 で変換され
たエピポールのy座標がe’’00y=0、e’’
1y=0となる。ここで基本画像Iについて解くと、
e’’00y=e’00 sinφ+e’00yco
sφ=0となり、これより、回転角度φ=−e’
00y /e’00xとして求められる。従って図42
(c)を図41(b)に代入して回転行列R(φ)が
求められる。基本画像Iについても同様である。
First, basic image I0, I1About two
As in the basic image, the y-coordinate of the epipole is
By converting to 0, the corresponding points are aligned at the same y coordinate.
Perform the conversion as follows. That is, e ''00= R (φ0) E '
00 , E ''01= R (φ 1) E '01 Is converted by
The epi-coordinate y coordinate is e ''00y= 0, e ''0
1y= 0. Here the basic image I0Solving for
e ''00y= E '00 xsinφ0+ E '00yco
0= 0 and the rotation angle φ0= -E '
00y / E '00xIs required. Therefore, FIG.
By substituting (c) for FIG. 41 (b), the rotation matrix R (φ0)But
Desired. Basic image I1The same applies to

【0258】次に基本画像I、Iの座標系に対する
基本画像Iの相対的な変換を求めることとなるが、基
本画像I、Iの平行化に於ける変換で基本画像I
に対するエピポールe21を変換したものが、基本画像
、Iのエピポールの方向になればよい(相対的な
変換である為)。即ち、e’’20=−ke’’21
成立する。
[0258] Then the base image I 0, it becomes possible to determine the relative translation of the basic image I 2 with respect to the coordinate system of the I 1, the base image I 0, the basic image in converted into a parallel of I 1 I 2
(Because of the relative conversion) to a transformation of epipole e 21 is the base image I 0, it becomes the direction of the epipole of I 2 for. That, e '' 20 = -ke ' ' 21 is established.

【0259】ここで、e’’21=R(φ)R
(d、θ)e21は既知であり、同様にe’’20
R(φ)e’20であるので、図42(d)を解けば
よい。これを解くと、図42(e)となり、R(φ
を得られる。
Here, e ″ 21 = R (φ 0 ) R
(D 0 , θ 0 ) e 21 is known, and similarly, e ″ 20 =
Since it is R (φ 2 ) e ′ 20 , FIG. 42 (d) may be solved. Solving this results in FIG. 42 (e), where R (φ 2 )
Can be obtained.

【0260】次に基本画像Iの焦点距離と位置を合わ
せるスケール変換のプロセスを説明する。即ち剪断変形
行列Tを求めることとなる。基本画像I、Iの射
影された対応点p’’0y、p’’2yがp’’0y
p’’2yを図43(a)のように示すことが出来る。
ここで、R、Rを図43(b)のように定義する
と、図43(a)から(TKR
(R KR)p=0となる。
[0260] Next will be described a process of scaling to adjust the focal length and position of the base image I 2. That is, to determine the shear matrix T 2. The projected corresponding points p ″ 0y , p ″ 2y of the basic images I 0 , I 2 are p ″ 0y =
The p '' 2y can be shown as in FIG. 43 (a).
Here, if R 0 and R 1 are defined as shown in FIG. 43 (b), from FIG. 43 (a), (T 2 R 2 p 2 ) T KR 0 p 0 =
p T 2 ( RT 2 T T 2 KR 0 ) p 0 = 0.

【0261】一方基本画像I、Iには基本行列F
のp =0の関係が成立しているので、図4
3(c)が成立する。但し、tijはTの成分を示
す。従って図43(d)のように剪断変形行列Tが定
まる。従って基本画像Iのホモグラフィ行列H
(TR(φ)R(d、θ))−1となる。同様
にホモグラフィ行列H、Hを算出する。
On the other hand, the basic images F 0 and I 2 have the basic matrix F 2
Since the relationship of p T 2 F 2 p 0 = 0 holds, FIG.
3 (c) holds. However, t ij denotes the component of T 2. Thus it is determined shear matrix T 2 as shown in FIG. 43 (d). Therefore homography matrix of the basic image I 2 H 2 =
(T 2 R (φ 2 ) R (d 2 , θ 2 )) − 1 . Similarly, the homography matrices H 0 and H 1 are calculated.

【0262】基本画像I、I、Iを(1−s−
t):s:tの比に内分する点に於ける内挿ホモグラフ
ィHst(即ち最終的に求めるべき内挿ホモグラフィ行
列)のプロセス(ホモグラフィ行列の内挿プロセス)は
以下のようにして算出する。
The basic images I 0 , I 1 , I 2 are represented by (1-s−
The process of the interpolation homography H st (that is, the interpolation homography matrix to be finally obtained) at the point where the ratio of t): s: t is internally divided is as follows. And calculate.

【0263】基本画像I、I、Iの4隅の点をそ
れぞれb0i、b1i、b2i(i=0,1,2,3)
とし、平行化座標に於ける点をb^0i、b^1i、b
とすると、 b^0i=H−1 0i b^1i=H−1 1i b^2i=H−1 0i となる。
The four corner points of the basic images I 0 , I 1 , I 2 are respectively set to b 0i , b 1i , b 2i (i = 0, 1, 2, 3)
And the points in the parallelized coordinates are b を 0i , b ^ 1i , b
^ When 2 i, the b ^ 0i = H -1 0 b 0i b ^ 1i = H -1 1 b 1i b ^ 2i = H -1 2 b 0i.

【0264】但しこれらの座標は3次元の同次座標で表
される。ここで内挿する基本画像I stの4隅の点b
sti及びその平行化座標に於けるb^stiを、b
sti=(1−s−t)b0i+sb1i+tb2i
b^sti=(1−s−t)b^ 0i+sb^1i+t
b^2iで内挿する。このとき、bsti=Hstb^
tiの最小自乗解となるような3×3の行列を内挿ホ
モグラフィHstとする。
However, these coordinates are represented by three-dimensional homogeneous coordinates.
Is done. Basic image I to be interpolated here stPoint b at the four corners
stiAnd b ^ in its parallelized coordinatesstiAnd b
sti= (1-st) b0i+ Sb1i+ Tb2i,
b ^sti= (1-st) b ^ 0i+ Sb ^1i+ T
b ^2iTo interpolate. At this time, bsti= Hstb ^
s tiInterpolate a 3 × 3 matrix that gives the least squares solution of
MOGRAPHY HstAnd

【0265】<テクスチャマッピングのプロセス>以下
にS230に於けるテクスチャマッピングを説明する。
テクスチャマッピングのプロセスの流れの一例を示した
フローチャート図を図9に示す。テクスチャマッピング
を行う際には、まず、全ての面に対して、どの面をテク
スチャ画像として用いるかを面選択手段11に於いて選
択する(S300)。面選択のプロセスについては後述
する。全ての面に対して面のテクスチャ画像を選択した
ならば(S350)、次に面と面との輪郭に対する処理
を輪郭処理手段12に於いて実行する(S360)。輪
郭処理のプロセスについては後述する。この輪郭処理
は、面を定義する際に曲面を粗い多角形で近似すると輪
郭部分での角が目立つ画像となる為、それを回避し、よ
り自然な画像に近づける為の処理である。S360に於
いて輪郭処理が終了後、面に対する色の補正処理を色補
正手段13に於いて実行する。この色補正処理は、テク
スチャ画像をS300のように選択した場合、隣接面同
士で異なる画像から選択することもあり、隣接面同士で
発生する色差をなくし、自然な画像に近づける為のプロ
セスである。色補正処理のプロセスについては後述す
る。S360に於ける輪郭処理、S410に於ける色補
正処理はテクスチャマッピングのプロセスに於いて具備
されることが好適であるが、その全部またはどちらか一
方のみが具備されても良いし、具備されなくとも良い。
<Process of Texture Mapping> The texture mapping in S230 will be described below.
FIG. 9 is a flowchart illustrating an example of the flow of the texture mapping process. When performing texture mapping, first of all, which surface is to be used as a texture image is selected by the surface selecting means 11 (S300). The surface selection process will be described later. If the texture images of the faces have been selected for all the faces (S350), the processing for the contours of the faces is executed by the contour processing means 12 (S360). The process of the contour processing will be described later. This contour processing is a process for avoiding the corners in the contour portion when the curved surface is approximated by a rough polygon when defining the surface, thereby avoiding this and bringing the image closer to a more natural image. After the end of the contour processing in S360, the color correcting means 13 executes color correction processing for the surface. This color correction process is a process for eliminating a color difference occurring between adjacent surfaces and bringing the image closer to a natural image when a texture image is selected as in step S300, and an image may be selected from different images between adjacent surfaces. . The color correction process will be described later. The contour processing in S360 and the color correction processing in S410 are preferably provided in the texture mapping process. However, all or only one of them may or may not be provided. Good.

【0266】<面選択のプロセス>以下に、S300に
於ける面の選択プロセスについて説明する。面の選択プ
ロセスの流れの一例を示したフローチャート図を図10
に示す。
<Process of Selecting a Surface> The process of selecting a surface in S300 will be described below. FIG. 10 is a flowchart showing an example of the flow of the face selection process.
Shown in

【0267】テクスチャマッピングを行う際に、テクス
チャとして用いる画像は視点移動途中で変更すると表示
が不自然になる。その為、面選択手段11に於いてどの
面をテクスチャ画像とするかを選択する。
At the time of performing texture mapping, if an image used as a texture is changed during movement of the viewpoint, the display becomes unnatural. Therefore, the plane selecting means 11 selects which plane is to be a texture image.

【0268】面毎にテクスチャ画像参照番号を前処理で
一度決定しておく。2枚の基本画像のうちどちらの基本
画像を利用するかを決定するかは、以下の2つの基準に
よって決定される。図25にテクスチャの選択基準の概
念図を示す。 (基準1)面の向き (基準2)面の面積
A texture image reference number is determined once for each surface by preprocessing. Which of the two basic images is to be used is determined based on the following two criteria. FIG. 25 shows a conceptual diagram of a texture selection criterion. (Reference 1) Surface orientation (Reference 2) Surface area

【0269】対象となる面に対して表向きの画像か否か
を判断する(S310)。対応する面が両画像とも表向
きの場合(つまり図25に示した面1の場合)、各画像
に於ける面の面積を計算し(S320)、その面積が大
きい方の画像をその面のテクスチャ画像とする(S33
0)。面積を基準とする場合には、2画像のうち解像度
の高い方の画像を利用する為、高画質化に有効である。
又S310に於いて表向きの画像が1枚の場合には、表
向きの画像をその面のテクスチャ画像とする(S34
0)。つまり、図25の面2に示したように、一方が表
向きで他方が裏向きの場合には表向きの画像をその面の
テクスチャ画像とする。
It is determined whether or not the image is a face-up image for the target surface (S310). If the corresponding surfaces are both facing up (that is, the surface 1 shown in FIG. 25), the area of the surface in each image is calculated (S320), and the image with the larger area is textured on the surface. Image (S33)
0). When the area is used as a reference, the image with the higher resolution of the two images is used, which is effective for improving the image quality.
If one face-up image is found in S310, the face-up image is used as the texture image of the surface (S34).
0). That is, as shown on the surface 2 in FIG. 25, when one is facing up and the other is facing down, the image facing up is set as the texture image of that surface.

【0270】更に、面選択手段11に於いてテクスチャ
画像として用いる面を単に2枚の画像から選択するのみ
ならず2枚の画像を視点に応じて組み合わせ、新たな画
像を作成することによって、その作成した画像をテクス
チャ画像として選択しても良い。これは、前記の面選択
の方法に於いては、2枚の画像から1枚の画像を選択す
る為に、視点の移動の仕方によっては頻繁にテクスチャ
画像が切り替わる等が発生するからである。
Further, the plane selecting means 11 not only selects a plane to be used as a texture image from the two images, but also combines the two images according to the viewpoint and creates a new image. The created image may be selected as the texture image. This is because, in the above-described plane selection method, in order to select one image from two images, the texture image is frequently switched depending on the way of moving the viewpoint.

【0271】ここで2枚の画像を視点に応じて組み合わ
せるとは、画像Aの輝度をA、画像Bの輝度をB、画像
Aと画像Bとの間の視点に於いて、画像Bから視点迄の
距離の比率をd(0≦d≦1)とした場合、以下の式に
よって組み合わせる比率を算出する。 S=A×d+B(1−d)
Here, combining two images according to the viewpoint means that the brightness of the image A is A, the brightness of the image B is B, and the viewpoint between the image A and the image B is from the image B. Assuming that the ratio of the distance up to the distance is d (0 ≦ d ≦ 1), the combination ratio is calculated by the following equation. S = A × d + B (1-d)

【0272】従って、例えば視点からの距離の比率がA
から10%、Bから90%である場合に組み合わせる画
像の輝度Sは、0.9A+0.1Bとなる。又、視点か
らの距離の比率がBから50%、Aから50%である場
合に組み合わせる画像の輝度Sは、0.5A+0.5B
となる。この場合は視点が画像Aと画像Bとの中間に存
在する場合である。
Therefore, for example, if the ratio of the distance from the viewpoint is A
Is 10% and B is 90%, the luminance S of the combined image is 0.9A + 0.1B. Further, when the ratio of the distance from the viewpoint is 50% from B and 50% from A, the luminance S of the image combined is 0.5A + 0.5B
Becomes In this case, the viewpoint is located between the image A and the image B.

【0273】<面選択の他のプロセス>更に前記の面選
択の方法に於いては、例えば図25に於いては、面に向
き付けがされている為に途中の視点の画像であっても表
裏の判別は出来、面自体の可視不可視は判断できるが、
図52に示すような文字盤とリストバントの関係のよう
に両方とも表向きの場合には、他の面によって隠される
オクルージョンが生じる為可視性の判断が行えない。そ
こで各画像に於けるエピポールを利用し、視点から遠く
に存在する面から順番に描画を行うプロセスを説明す
る。
<Other Process of Surface Selection> Further, in the above-described surface selection method, for example, in FIG. 25, since the surface is oriented, even if it is an image of a viewpoint on the way, The front and back can be distinguished, and the visibility of the surface itself can be determined,
When both face up as in the relationship between the dial and the wristband as shown in FIG. 52, occlusion hidden by other surfaces occurs, so that visibility cannot be determined. Therefore, a process of drawing sequentially from a surface located far from the viewpoint using an epipole in each image will be described.

【0274】面は2次元であって奥行きは持たない為、
面を選択する順序に依存する隠面消去が行われる。従っ
て面を選択する順序は、面の見えている画像に於いて視
点からの距離に相当する基準によって決定することが可
能となる。図53に示すように、基本画像I、I
視点をC、Cとし、エピポールe、eで表す。
オクルージョンが生じた場合、エピポールからの距離が
遠い面から順に描画することで近似的な隠面消去が行え
ることとなる。
Since the surface is two-dimensional and has no depth,
Hidden surface removal is performed depending on the order in which the surfaces are selected. Therefore, the order in which the planes are selected can be determined based on the criterion corresponding to the distance from the viewpoint in the image in which the plane is visible. As shown in FIG. 53, the viewpoints of the basic images I 0 and I 1 are C 0 and C 1 and are represented by epipoles e 0 and e 1 .
When occlusion occurs, approximate hidden surface elimination can be performed by drawing sequentially from the surface farthest from the epipole.

【0275】<輪郭処理のプロセス>以下にS360の
輪郭処理手段12に於ける輪郭処理のプロセスを説明す
る。輪郭処理プロセスの流れの一例を示したフローチャ
ート図を図11に示す。
<Process of Contour Processing> The process of contour processing in the contour processing means 12 in S360 will be described below. FIG. 11 is a flowchart showing an example of the flow of the contour processing process.

【0276】面を定義する際に曲面を粗い多角形で近似
すると輪郭部分での角が目立ち不自然な画像になってし
まう。この問題を避けるには細かく多角形分割する必要
があるが、そうなると平行化画像に内挿する面の頂点の
数が増加することとなり、データ量が増加する。同時に
入力作業が困難にもなる。3次元CGでは輪郭部分だけ
を適応的に細分割する方法や、粗い分割のまま輪郭部分
だけにテクスチャ付きの面を付加する手法が存在してい
る。
When a curved surface is approximated by a rough polygon when defining a surface, the corner at the outline portion becomes conspicuous and an unnatural image is obtained. To avoid this problem, it is necessary to finely divide the polygon. However, in this case, the number of vertices of the surface to be interpolated in the parallelized image increases, and the data amount increases. At the same time, the input operation becomes difficult. In the three-dimensional CG, there are a method of adaptively subdividing only the outline portion and a method of adding a textured surface only to the outline portion with coarse division.

【0277】本発明に於いては、従来の手法よりもより
自然な画像を作成することが可能な以下のような方法に
よりそれを実現している。即ち、元の画像に対象物以外
を消去するマスクを作成し、定義した面の輪郭部分の外
側に新たな四辺形面を付加し、マスク付きテクスチャを
写像する。マスクは図26に示すように、元の画像から
画像編集ソフトを使用し手作業で背景を塗りつぶすこと
で作成できるが、ブルーバック等の単一色の背景ならば
自動的に抽出することも可能である。
In the present invention, this is realized by the following method capable of creating a more natural image than the conventional method. That is, a mask for erasing other than the target object is created in the original image, a new quadrilateral surface is added outside the outline of the defined surface, and the texture with the mask is mapped. The mask can be created by manually painting the background from the original image using image editing software as shown in FIG. 26, but it is also possible to automatically extract a single color background such as a blue background. is there.

【0278】面の外側の四辺形面のことをオフセット面
と呼ぶ。面頂点間のつながりである稜線をはさんで面が
接続する場合、隣り合う面を隣接面と呼ぶ。隣接面が存
在しない稜線を外部境界稜線、隣接面が存在し一方は表
向き他方は裏向きとなる輪郭の稜線を内部境界稜線と
し、外部境界稜線と内部境界稜線を総称して境界稜線と
呼ぶ。面の頂点座標を平均する点を面の重心とすると
き、重心を通り稜線に垂直な外向きの単位ベクトルを稜
線オフセットベクトルとする。又頂点を含む境界稜線オ
フセットベクトルの平均単位ベクトルを頂点オフセット
ベクトル、頂点を頂点オフセットベクトル方向に移動し
た点をオフセット頂点と呼ぶ。以上の関係を概念的に図
示した図が図27である。
A quadrilateral surface outside the surface is called an offset surface. When faces are connected via a ridge line that is a connection between face vertices, adjacent faces are called adjacent faces. A ridge line having no adjacent surface is referred to as an outer boundary ridge line, and an ridge line having an adjacent surface with one facing up and the other facing down is referred to as an inner boundary ridge, and the outer boundary ridge and the inner boundary ridge are collectively called a boundary ridge. When the point at which the vertex coordinates of the surface are averaged is defined as the center of gravity of the surface, an outward unit vector passing through the center of gravity and perpendicular to the ridge is defined as a ridge offset vector. The average unit vector of the boundary ridge line offset vector including the vertex is called a vertex offset vector, and the point at which the vertex is moved in the vertex offset vector direction is called an offset vertex. FIG. 27 conceptually illustrates the above relationship.

【0279】図27に示した場合、オフセット面の表示
プロセスは次のようになる。先ず、各画像毎に稜線オフ
セットベクトルを計算する(S370)。計算された稜
線オフセットベクトルを平均して頂点オフセットベクト
ルを計算する(S380)。作成された内挿画像につい
て、境界稜線の両端頂点とそこからオフセットベクトル
方向に移動した頂点で構成されるオフセット面を表示す
る(S390)。その後、通常の面を表示する(S40
0)。
In the case shown in FIG. 27, the display process of the offset plane is as follows. First, a ridge offset vector is calculated for each image (S370). A vertex offset vector is calculated by averaging the calculated edge offset vectors (S380). With respect to the created interpolated image, an offset plane constituted by both vertices of the boundary ridge line and vertices moved in the direction of the offset vector therefrom is displayed (S390). Thereafter, a normal surface is displayed (S40).
0).

【0280】この場合、補間された頂点だけは数3に示
したエピポール制約を満たしているが、頂点以外のオフ
セット面内部の点は、視点の射影幾何学的制約を満たさ
ない。しかし、オフセット面は通常、稜線から近い部分
に定義されるので歪みは小さくて済むこととなる。
In this case, only the interpolated vertex satisfies the epipole constraint shown in Equation 3, but points inside the offset plane other than the vertex do not satisfy the projective geometric constraint of the viewpoint. However, since the offset plane is usually defined near the edge line, the distortion is small.

【0281】<色補正処理のプロセス>以下にS410
の色補正手段13に於ける色補正プロセスを説明する。
色補正プロセスの流れの一例を示したフローチャート図
を図12に示す。
<Process of Color Correction Processing> Hereinafter, step S410 will be described.
The color correction process in the color correction means 13 will be described.
FIG. 12 is a flowchart showing an example of the flow of the color correction process.

【0282】S300の面選択手段11に於いてテクス
チャ画像を選択した場合、隣接面同士で異なる画像を選
択することがあり、境界部分の色差が目立ち不自然な画
像となる場合がある。
When a texture image is selected by the plane selection means 11 in S300, different images may be selected between adjacent planes, and the color difference at the boundary portion may be conspicuous and unnatural.

【0283】そこで、本発明に於いては2枚のテクスチ
ャ画像を混ぜ合わせることにより色の差を修正する。混
ぜ合わせる際には、混ぜ合わせる割合を稜線からの距離
に応じて減衰する。この処理はテクスチャ画像に対して
一度だけ計算される処理であり、以下のように実行す
る。
Thus, in the present invention, the color difference is corrected by mixing two texture images. When mixing, the mixing ratio is attenuated according to the distance from the ridgeline. This process is a process that is calculated only once for the texture image, and is executed as follows.

【0284】先ず、面内部の各画素について隣接面のテ
クスチャ画像参照番号が異なる稜線から画素までの距離
を求める(S420)。次に画素点pにおける稜線の重
みをwとし、稜線iからの最短距離をdとし、面の
重心から稜線までの距離をr とした時、図28に示す
式で稜線の重みwを算出することにより(S43
0)、稜線の重みwを数11より算出する(S44
0)。
First, for each pixel inside the plane, the text on the adjacent plane
Distance from edge line with different texture image reference number to pixel
Is obtained (S420). Next, the edge line weight at pixel point p
WiAnd the shortest distance from ridge line i is diAnd the face
The distance from the center of gravity to the ridgeline is r iIs shown in FIG.
Weight w of the ridgeiBy calculating (S43)
0), the weight w of the ridge line is calculated from Equation 11 (S44)
0).

【数11】w=min(Σ ,1)[Equation 11] w = min (Σ i w i , 1)

【0285】画素点pに対応するテクスチャ画像0,1
の色をそれぞれC(p),C(p)とすると、補正
した色C(p)は数12で算出する(S450)。
Texture images 0 and 1 corresponding to pixel point p
Assuming that the colors are C 0 (p) and C 1 (p), the corrected color C (p) is calculated by Equation 12 (S450).

【数12】 C(p)=(1−w)C(p)+wC(p)C (p) = (1−w) C 0 (p) + wC 1 (p)

【0286】<影作成のプロセス>以下に、S260の
影作成手段4に於ける射影復元した対象物に擬似的な影
を付加するプロセスを説明する。但し、影は1枚の平面
に投影されるものとする。
<Shadow Creation Process> A process of adding a pseudo shadow to the projected and restored object in the shadow creation means 4 in S260 will be described below. However, it is assumed that the shadow is projected on one plane.

【0287】6自由度の2次元アフィン変換行列をNと
する。床面(影が作成される平面を床面とするがそれ以
外でもよい)に投影される対象物頂点の画像上の点をm
=(u,v,1) とする。影の相対位置を決
定する為に2点を指定することにより4自由度が決定さ
れるので、残りの2自由度で影の方向と大きさを指定す
るものとする。影の方向と大きさの指定は剪断変形で実
現できる。射影復元した対象物の頂点を2点を基準とす
る相対座標に変換した後、剪断変形を適用して元の座標
に戻す。mを原点とするように平行移動する変換行列
をT、mがx軸になるような原点を中心とした回
転行列をR、剪断変形行列をSとする(但し剪断変形式
に於いてx方向の変位をa、y方向の変位をbとす
る)。即ち、各行列T、R、Sは図30(a)から
(c)のように各々示される。
Let N be a two-dimensional affine transformation matrix with six degrees of freedom. The point on the image of the vertex of the object projected on the floor surface (the plane on which the shadow is created is the floor surface, but may be other than m) is m
i = (u i, v i , 1) and T. Since four degrees of freedom are determined by specifying two points to determine the relative position of the shadow, the direction and size of the shadow are specified by the remaining two degrees of freedom. Specifying the direction and size of the shadow can be realized by shear deformation. After the vertices of the projected and restored object are converted into relative coordinates based on two points, the original coordinates are restored by applying shear deformation. Let T be the transformation matrix that translates so that m 1 is the origin, R be the rotation matrix about the origin such that m 1 m 2 is the x-axis, and S be the shear deformation matrix (where the shear deformation equation is A in the x direction and b in the y direction). That is, the matrices T, R, and S are shown as shown in FIGS.

【0288】又、cosθ、sinθは各々図30
(d)、(e)のように示される。視点移動により2点
,mがそれぞれm’,m’に移るものとし、
新たな座標に於ける平行移動行列をT’、回転行列を
R’とすると、影の座標変換を表すアフィン変換行列N
は図31に示す式で表される。又、影を算出する過程を
示した概念図を図32に示す。射影復元する際の面情報
を利用して変換された頂点を辿り、半透明な面を表示す
れば影が作成される。当然の事ながら、射影復元した対
象物の表示は影の表示処理後に行う。
Further, cos θ and sin θ are shown in FIG.
(D) and (e) are shown. By moving the viewpoint, two points m 1 and m 2 move to m ′ 1 and m ′ 2 , respectively.
Assuming that the translation matrix at the new coordinates is T 'and the rotation matrix is R', the affine transformation matrix N representing the coordinate transformation of the shadow
Is represented by the equation shown in FIG. FIG. 32 is a conceptual diagram showing a process of calculating a shadow. A shadow is created by tracing the converted vertices using surface information at the time of projective restoration and displaying a translucent surface. As a matter of course, the display of the projected and restored object is performed after the shadow display processing.

【0289】<反射作成のプロセス>以下に、S270
の反射手段に於ける反射する画像を作成するプロセスを
説明する。反射画像も影と同様に射影復元した対象物の
アフィン変換行列で作成する。2次元アフィン変換は6
自由度なので、反射する床面上にある対象物の2点と反
射して見える1点を指定することで変換行列を決定でき
る。
<Process of Creating Reflection> Hereinafter, the process of S270 will be described.
The process of creating an image to be reflected by the reflecting means will be described. The reflection image is also created using the affine transformation matrix of the object subjected to projection restoration similarly to the shadow. The two-dimensional affine transformation is 6
Since it has a degree of freedom, the transformation matrix can be determined by designating two points of the object on the reflecting floor and one point that appears to be reflected.

【0290】影の場合と同様に床面上にある対象物の2
点をm,mとし、mを原点とするように平行移動
する行列をT、mがx軸になるような原点を中心
とした回転行列をRとする(但し、行列T、Rは図30
(a)(b)で定義される)。又視点移動後の平行移動
行列、回転行列をT’、R’とする。この時、反射を表
すアフィン変換行列Mは数13で示される。又、S’は
反射する点m=(u ,v,1)を用いて図33
で表される。
As in the case of the shadow, the object 2 on the floor surface
Point to m1, M2And m1Translate so that the origin is
T, m1m2Is centered on the origin where
Let R be the rotation matrix that has been set (where the matrices T and R are
(A) and (b)). Parallel movement after moving the viewpoint
The matrix and rotation matrix are T 'and R'. At this time, the reflection
The affine transformation matrix M is shown in Expression 13. Also, S '
Reflecting point m3= (U 3, V3, 1)TUsing FIG. 33
It is represented by

【数13】M=T’−1R’−1S’RTM = T ′ −1 R ′ −1 S′RT

【0291】<位置、大きさの補正処理のプロセス>以
下にS290の補正処理手段8に於ける位置、大きさの
補正処理のプロセスを説明する。位置、大きさの補正処
理のプロセスの流れの一例を図13に示す。
<Position and Size Correction Process> The position and size correction process in the correction processing means 8 in S290 will be described below. FIG. 13 shows an example of a process flow of the position and size correction processing.

【0292】S100に於いて取り込んだ基本画像は、
カメラから対象物までの距離や、基本画像内での対象物
の位置が視点毎に異なることが一般的である。そしてこ
れらが異なったまま内挿画像の作成を連続的に行うと、
視点移動以外の対象物の変位が発生し、見かけ上、対象
物が拡大/縮小表示されたり、対象物が一定の点の周り
に回転せず上下に動いたりする問題点が発生する点を解
決する為である。
The basic image captured in S100 is
In general, the distance from the camera to the target and the position of the target in the basic image are different for each viewpoint. And if these are different and the creation of the interpolated image is performed continuously,
Solved the problem that the displacement of the object other than the viewpoint movement caused the problem that the object was apparently enlarged / reduced and the object moved up and down without rotating around a certain point To do that.

【0293】これを防ぐ為に、本発明では、基本画像内
の対象物のカメラからの距離(=拡大/縮小倍率)と位
置を補正するプロセスを付加することにより、この問題
点の解決を図る。
In order to prevent this, the present invention solves this problem by adding a process of correcting the distance (= enlargement / reduction magnification) and position of the object in the basic image from the camera. .

【0294】まず、対象物の範囲を示す情報(基本画像
内の上、左、下、右の位置座標とし、これを以下「ター
ゲット枠情報」とする)をS100に於いて2次元画像
の取込みを行う際に設定しておく。
First, in step S100, information indicating the range of the object (the upper, left, lower, and right position coordinates in the basic image, which is hereinafter referred to as “target frame information”) is taken in as a two-dimensional image. It is set when performing.

【0295】次にS200に於いて内挿画像を作成する
際に、このターゲット枠情報に基づいて拡大/縮小倍率
と平行移動量を算出して補正を加える(S470)。タ
ーゲット枠情報は、視点毎に異なる為、開始視点のター
ゲット枠情報と、開始視点から終了視点までの総フレー
ム数を利用して線形に補間して数14に基づいて算出す
る(S480)。位置、大きさの補正処理を行わない場
合のイメージ図を図39(a)に示し、行った場合のイ
メージ図を図39(b)に示す。
Next, when an interpolated image is created in S200, the enlargement / reduction magnification and the amount of parallel movement are calculated based on the target frame information and corrected (S470). Since the target frame information differs for each viewpoint, the target frame information is calculated based on Equation 14 by linearly interpolating using the target frame information of the start viewpoint and the total number of frames from the start viewpoint to the end viewpoint (S480). FIG. 39A shows an image when the position and size correction processing is not performed, and FIG. 39B shows an image when the correction processing is performed.

【数14】((総フレーム数−フレーム数)×開始視点
の範囲を示す情報+フレーム数×終了視点の範囲を示す
情報)÷総フレーム数
[Equation 14] ((total number of frames−number of frames) × information indicating range of start viewpoint + number of frames × information indicating range of end viewpoint) ÷ total number of frames

【0296】当然のことながら、影や反射、合成表示、
補正処理等は行われず、単純に内挿画像が作成されるだ
けでも良い。
Naturally, shadows and reflections, composite display,
Correction processing or the like is not performed, and an interpolated image may simply be created.

【0297】尚、本発明を実施するにあたり本実施態様
の機能を実現するソフトウェアのプログラムを記録した
記憶媒体をシステムに供給し、そのシステムのコンピュ
ータが記憶媒体に格納されたプログラムを読み出し実行
することによって実現されることは当然である。
In implementing the present invention, a storage medium storing a software program for realizing the functions of the present embodiment is supplied to the system, and the computer of the system reads and executes the program stored in the storage medium. It is natural to be realized by.

【0298】この場合、記憶媒体から読み出されたプロ
グラム自体が前記した実施態様の機能を実現することと
なり、そのプログラムを記憶した記録媒体は本発明を当
然のことながら構成することになる。
In this case, the program itself read from the storage medium realizes the functions of the above-described embodiment, and the storage medium storing the program naturally constitutes the present invention.

【0299】プログラムコードを供給するための記憶媒
体としては、例えばフロッピー(登録商標)ディスク、
ハードディスク、光ディスク、光磁気ディスク、磁気テ
ープ、不揮発性のメモリカード等を使用することができ
る。
As a storage medium for supplying the program code, for example, a floppy (registered trademark) disk,
A hard disk, an optical disk, a magneto-optical disk, a magnetic tape, a nonvolatile memory card, or the like can be used.

【0300】また、コンピュータが読み出したプログラ
ムを実行することにより、上述した実施態様の機能が実
現されるだけではなく、そのプログラムの指示に基づ
き、コンピュータ上で稼働しているオペレーティングシ
ステムなどが実際の処理の一部または全部を行い、その
処理によって前記した実施態様の機能が実現される場合
も含まれることは言うまでもない。
When the computer executes the readout program, not only the functions of the above-described embodiments are realized, but also the operating system running on the computer based on the instructions of the program. It goes without saying that a part or all of the processing is performed and the functions of the above-described embodiments are realized by the processing.

【0301】さらに、記憶媒体から読み出されたプログ
ラムが、コンピュータに挿入された機能拡張ボードやコ
ンピュータに接続された機能拡張ユニットに備わる不揮
発性あるいは揮発性の記憶手段に書き込まれた後、その
プログラムの指示に基づき、機能拡張ボードあるいは機
能拡張ユニットに備わる演算処理装置などが実際の処理
の一部あるいは全部を行い、その処理により前記した実
施態様の機能が実現される場合も含まれることは当然で
ある。
[0301] Further, after the program read from the storage medium is written into a nonvolatile or volatile storage means provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the program is read. Based on the instruction, the arithmetic processing device or the like provided in the function expansion board or the function expansion unit may perform part or all of the actual processing, and the processing may realize the functions of the above-described embodiments. It is.

【0302】[0302]

【発明の効果】本発明により、従来の動画データや3次
元データによる表示方法と異なりデータ量が少なく、又
今まで存在していた問題点を解決し、よりリアリティの
ある表示を可能とした。
According to the present invention, unlike the conventional display method using moving image data or three-dimensional data, the amount of data is small, and the problems which have existed so far have been solved, and a more realistic display has been made possible.

【0303】又、基本画像から連続的に内挿画像を自動
作成し連続表示を行うことにより、従来の動画データに
比べて少ないデータ量で動画が可能となった。又その際
にパスと視点間の移動速度を任意に設定できるようにし
たことにより、よりインタラクティブな動画の表現が可
能となった。
Further, by automatically creating an interpolated image continuously from the basic image and performing continuous display, a moving image can be formed with a smaller data amount than conventional moving image data. Also, at this time, the moving speed between the path and the viewpoint can be arbitrarily set, so that a more interactive moving image can be expressed.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明のシステム構成の一例を示すシステム
構成図である。
FIG. 1 is a system configuration diagram showing an example of a system configuration of the present invention.

【図2】 本発明の内挿画像作成手段のシステム構成の
一例を示す図である。
FIG. 2 is a diagram illustrating an example of a system configuration of an interpolated image creating unit according to the present invention.

【図3】 自動連続表示を行う手段を具備した際のシス
テム構成の一例を示すシステム構成図である。
FIG. 3 is a system configuration diagram showing an example of a system configuration when a means for performing automatic continuous display is provided.

【図4】 自動連続表示を行う手段を具備した際のシス
テム構成の他の一例を示したシステム構成図である。
FIG. 4 is a system configuration diagram showing another example of a system configuration provided with a means for performing automatic continuous display.

【図5】 本発明のプロセスの一例を示すフローチャー
ト図の一ページ目である。
FIG. 5 is a first page of a flowchart showing an example of the process of the present invention.

【図6】 本発明のプロセスの一例を示すフローチャー
ト図の二ページ目である。
FIG. 6 is a second page of a flowchart showing an example of the process of the present invention.

【図7】 内挿画像作成プロセスの一例を示すフローチ
ャート図である。
FIG. 7 is a flowchart illustrating an example of an interpolation image creation process.

【図8】 基本画像の取込プロセスの一例を示すフロー
チャート図である。
FIG. 8 is a flowchart illustrating an example of a process of capturing a basic image.

【図9】 テクスチャマッピングのプロセスの一例を示
すフローチャート図である。
FIG. 9 is a flowchart illustrating an example of a texture mapping process.

【図10】面の選択プロセスの一例を示すフローチャー
ト図である。
FIG. 10 is a flowchart illustrating an example of a surface selection process.

【図11】輪郭処理のプロセスの一例を示すフローチャ
ート図である。
FIG. 11 is a flowchart illustrating an example of a contour processing process.

【図12】色補正処理のプロセスの一例を示すフローチ
ャート図である。
FIG. 12 is a flowchart illustrating an example of a color correction process.

【図13】位置、大きさの補正処理のプロセスの一例を
示すフローチャート図である。
FIG. 13 is a flowchart illustrating an example of a process of a position and size correction process.

【図14】自動連続処理を行うプロセスの一例を示すフ
ローチャート図である。
FIG. 14 is a flowchart illustrating an example of a process for performing automatic continuous processing.

【図15】自動連続表示のプロセスの一例を示すフロー
チャート図の一ページ目である。
FIG. 15 is a first page of a flowchart showing an example of a process of automatic continuous display.

【図16】自動連続表示のプロセスの一例を示すフロー
チャート図の二ページ目である。
FIG. 16 is a second page of the flowchart showing an example of the process of automatic continuous display.

【図17】視点定義画面の一例を示す図である。FIG. 17 is a diagram illustrating an example of a viewpoint definition screen.

【図18】視点移動の概念図である。FIG. 18 is a conceptual diagram of viewpoint movement.

【図19】視点定義画面の他の一例を示す図である。FIG. 19 is a diagram showing another example of the viewpoint definition screen.

【図20】面定義画面の一例を示す図である。FIG. 20 is a diagram illustrating an example of a plane definition screen.

【図21】3視点間に於ける各座標系の位置関係を示し
た概念図である。
FIG. 21 is a conceptual diagram showing a positional relationship of each coordinate system among three viewpoints.

【図22】3視点補間の概念図である。FIG. 22 is a conceptual diagram of three viewpoint interpolation.

【図23】回転行列を示した図である。FIG. 23 is a diagram showing a rotation matrix.

【図24】画像の平行化の概念図である。FIG. 24 is a conceptual diagram of image parallelization.

【図25】面選択の概念図である。FIG. 25 is a conceptual diagram of plane selection.

【図26】マスク付き画像の一例である。FIG. 26 is an example of an image with a mask.

【図27】オフセット面の概念図である。FIG. 27 is a conceptual diagram of an offset plane.

【図28】稜線の重みを示した図である。FIG. 28 is a diagram illustrating weights of ridge lines.

【図29】合成表示を行った際の画像の一例である。FIG. 29 is an example of an image when performing a composite display.

【図30】変換行列、回転行列、剪断変形行列を示した
図である。
FIG. 30 is a diagram showing a transformation matrix, a rotation matrix, and a shear deformation matrix.

【図31】アフィン変換行列を示した図である。FIG. 31 is a diagram showing an affine transformation matrix.

【図32】影を算出する過程を示した概念図である。FIG. 32 is a conceptual diagram showing a process of calculating a shadow.

【図33】反射する点を示した図である。FIG. 33 is a diagram showing points of reflection.

【図34】基本画像の一例を示した図である。FIG. 34 is a diagram showing an example of a basic image.

【図35】内挿画像の一例を示した図である。FIG. 35 is a diagram showing an example of an interpolated image.

【図36】2視点間に於ける各座標系の位置関係を示し
た概念図である。
FIG. 36 is a conceptual diagram showing a positional relationship of each coordinate system between two viewpoints.

【図37】ターゲット枠情報が設定された基本画像の一
例を示す。
FIG. 37 shows an example of a basic image in which target frame information is set.

【図38】自動連続表示の概念図である。FIG. 38 is a conceptual diagram of automatic continuous display.

【図39】補正処理のイメージ図である。FIG. 39 is an image diagram of a correction process.

【図40】3視点間に於ける各座標系の位置関係を示し
た概念図である。
FIG. 40 is a conceptual diagram showing a positional relationship of each coordinate system among three viewpoints.

【図41】回転行列を示す図である。FIG. 41 is a diagram showing a rotation matrix.

【図42】平行化回転変換、水平化回転変換に於ける途
中式を示した図である。
FIG. 42 is a diagram showing intermediate expressions in the parallelization rotation conversion and the horizontal rotation conversion.

【図43】スケール変換に於ける途中式を示した図であ
る。
FIG. 43 is a diagram showing an intermediate expression in scale conversion.

【図44】エッジ端点を自動的に抽出した図である。FIG. 44 is a diagram in which edge end points are automatically extracted.

【図45】ドロネー三角形指定点を指定した場合の図で
ある。
FIG. 45 is a diagram when a Delaunay triangle designation point is designated.

【図46】ドロネー三角形が生成された基本画像の図で
ある。
FIG. 46 is a diagram of a basic image in which Delaunay triangles have been generated.

【図47】スカラパラメータを解く連立一次方程式を示
した図である。
FIG. 47 is a diagram showing simultaneous linear equations for solving a scalar parameter.

【図48】エピポール制約直線と探索窓の概念図であ
る。
FIG. 48 is a conceptual diagram of an epipole constraint line and a search window.

【図49】輝度差を求めるアルゴリズムを示した図であ
る。
FIG. 49 is a diagram showing an algorithm for obtaining a luminance difference.

【図50】自動的に対応する点の照合を行った場合の図
である。
FIG. 50 is a diagram in a case where matching of corresponding points is automatically performed.

【図51】3枚の画像の際の1次方程式を示す図であ
る。
FIG. 51 is a diagram showing a linear equation for three images.

【図52】面が重なる場合の一例を示す図である。FIG. 52 is a diagram illustrating an example of a case where surfaces overlap.

【図53】面の描画順序を示す概念図である。FIG. 53 is a conceptual diagram showing a drawing order of surfaces.

【符号の説明】[Explanation of symbols]

1:画像表示システム 2:画像取込手段 3:内挿画像作成手段 4:影作成手段 5:反射作成手段 6:作成画像記憶手段 7:合成表示手段 8:補正処理手段 9:初期情報演算手段 10:平行化画像作成手段 11:面選択手段 12:輪郭処理手段 13:色補正手段 14:サーバ 15:ユーザ端末 16:ネットワーク 17:自動連続手段 18:自動連続作成手段 19:テクスチャマッピング手段 1: Image display system 2: Image capture means 3: Interpolated image creation means 4: Shadow creation means 5: Reflection creation means 6: Created image storage means 7: Composite display means 8: Correction processing means 9: Initial information calculation means 10: Parallelized image creation means 11: Surface selection means 12: Contour processing means 13: Color correction means 14: Server 15: User terminal 16: Network 17: Automatic continuation means 18: Automatic continuation creation means 19: Texture mapping means

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B050 AA10 BA09 BA13 CA05 CA07 DA07 EA12 EA13 EA19 EA28 FA02 FA06 5B057 AA20 CA08 CA12 CA16 CB08 CB13 CB16 CC04 CD02 CD05 CD14 CE08 CH01 CH11 5B069 AA01 BA03 BB03 DD09 DD12 DD13 DD15 LA03 5B080 BA05 BA08 FA08 FA16 GA22 5C061 AA21 AB04 AB17  ──────────────────────────────────────────────────続 き Continued on front page F term (reference) 5B050 AA10 BA09 BA13 CA05 CA07 DA07 EA12 EA13 EA19 EA28 FA02 FA06 5B057 AA20 CA08 CA12 CA16 CB08 CB13 CB16 CC04 CD02 CD05 CD14 CE08 CH01 CH11 5B069 AA01 BA03 BB03 DD09 DD03 DD03 DD03 BA05 BA08 FA08 FA16 GA22 5C061 AA21 AB04 AB17

Claims (122)

【特許請求の範囲】[Claims] 【請求項1】ユーザが希望する視点からの対象物の内挿
画像を自動作成する画像表示システムであって、前記対
象物の複数視点からの2次元画像を取り込む画像取込手
段を有するサーバとネットワークを介してデータの送受
信が可能なユーザ端末を有する画像表示システムに於い
て、前記ユーザ端末は、前記サーバから前記2次元画像
を受信し前記ユーザが希望する視点からの対象物の内挿
画像を自動作成する内挿画像作成手段を有することを特
徴とする画像表示システム。
1. An image display system for automatically creating an interpolated image of an object from a viewpoint desired by a user, comprising: a server having image capturing means for capturing two-dimensional images of the object from a plurality of viewpoints; In an image display system having a user terminal capable of transmitting and receiving data via a network, the user terminal receives the two-dimensional image from the server and receives an interpolation image of an object from a viewpoint desired by the user. An image display system comprising an interpolated image creating means for automatically creating an image.
【請求項2】ユーザが希望する視点からの対象物の内挿
画像を自動作成する画像表示システムであって、前記ユ
ーザが希望する視点からの対象物の内挿画像を自動作成
する内挿画像作成手段を有するユーザ端末とネットワー
クを介してデータの送受信が可能なサーバを有する画像
表示システムに於いて、前記サーバは、前記対象物の複
数視点からの2次元画像を取り込み前記2次元画像を前
記ユーザ端末に送信する画像取込手段を有することを特
徴とする画像表示システム。
2. An image display system for automatically creating an interpolated image of an object from a viewpoint desired by a user, wherein the interpolated image automatically creates an interpolated image of the object from a viewpoint desired by the user. In an image display system having a server capable of transmitting and receiving data via a network with a user terminal having a creating unit, the server captures a two-dimensional image of the object from a plurality of viewpoints and converts the two-dimensional image into An image display system, comprising: an image capturing unit that transmits an image to a user terminal.
【請求項3】前記画像取込手段は、前記取り込んだ2次
元画像の組に対して共通の頂点と前記頂点を線で結んだ
面とを定義することを特徴とする請求項1又は請求項2
に記載の画像表示システム。
3. The image capturing means according to claim 1, wherein the image capturing means defines a common vertex and a plane connecting the vertex with a line for the captured two-dimensional image set. 2
The image display system according to 1.
【請求項4】前記画像取込手段は、前記取り込んだ2次
元画像の組に対して共通の頂点と前記頂点を線で結んだ
面とを定義する際に、前記対象物のエッジ端点を抽出
し、前記取り込んだ2次元画像の組に於いてドロネー三
角形指定点を指定し、前記2次元画像の組の内1枚の2
次元画像に於いてドロネー三角形を生成し、前記ドロネ
ー三角形指定点からエピポール制約を満たす修正を行
い、前記修正後線形探索を行うことによって、前記2次
元画像の組に対して共通の頂点と前記頂点を線で結んだ
面とを自動的に定義することを特徴とする請求項1から
請求項3のいずれかに記載の画像表示システム。
4. The image capturing means extracts an edge end point of the object when defining a common vertex and a plane connecting the vertex with a line in the captured two-dimensional image set. Then, a designated Delaunay triangle is designated in the set of the captured two-dimensional images, and one of the two-dimensional image
A Delaunay triangle is generated in the two-dimensional image, a modification satisfying the epipole constraint is performed from the designated Delaunay triangle, and the corrected linear search is performed. The image display system according to any one of claims 1 to 3, wherein a surface connected by a line is automatically defined.
【請求項5】前記画像取込手段は、仮想3次元空間座標
系を前記サーバ上に想定し、前記仮想3次元空間座標系
原点を中心とする球の極座標と前記サーバにおける入力
デバイスの移動量とを対応させることにより、前記2次
元画像の視点設定を行うことを特徴とする請求項1から
請求項4のいずれかに記載の画像表示システム。
5. The image capturing means assumes a virtual three-dimensional space coordinate system on the server, polar coordinates of a sphere centered on the origin of the virtual three-dimensional space coordinate system, and an amount of movement of an input device in the server. 5. The image display system according to claim 1, wherein a viewpoint of the two-dimensional image is set by associating the two.
【請求項6】前記内挿画像作成手段は、前記サーバから
前記2次元画像を受信し前記受信した2次元画像に対し
て予め定められた演算を行う初期情報演算手段と、前記
演算結果に基づいて平行化画像を自動作成する平行化画
像作成手段と、前記平行化画像に対してテクスチャマッ
ピングを行うテクスチャマッピング手段とを有すること
を特徴とする請求項1又は請求項2に記載の画像表示シ
ステム。
6. An interpolated image creating means for receiving the two-dimensional image from the server and performing a predetermined operation on the received two-dimensional image, based on the result of the operation. 3. The image display system according to claim 1, further comprising: a parallelized image creating unit configured to automatically create a parallelized image by using a texture mapping unit that performs texture mapping on the parallelized image. .
【請求項7】前記初期情報演算手段は、前記予め定めら
れた演算として前記2次元画像の組に対する基本行列の
演算とエピポールの演算とを含むことを特徴とする請求
項6に記載の画像表示システム。
7. The image display according to claim 6, wherein the initial information calculation means includes a calculation of a basic matrix and a calculation of an epipole for the set of two-dimensional images as the predetermined calculation. system.
【請求項8】前記テクスチャマッピング手段は、前記サ
ーバに於いて定義された面の頂点を前記自動作成した平
行化画像に内挿し、線形補間を行い、前記線形補間した
面の頂点の内部に面内部の画素をテクスチャマッピング
することを特徴とする請求項6に記載の画像表示システ
ム。
8. The texture mapping means interpolates vertices of a surface defined in the server into the automatically created parallelized image, performs linear interpolation, and generates a surface inside the vertices of the linearly interpolated surface. 7. The image display system according to claim 6, wherein texture mapping is performed on internal pixels.
【請求項9】前記テクスチャマッピング手段は、前記定
義された全て又は一部の面に対してテクスチャ画像を選
択する面選択手段を更に有することを特徴とする請求項
6から請求項8のいずれかに記載の画像表示システム。
9. The apparatus according to claim 6, wherein said texture mapping means further comprises a face selecting means for selecting a texture image for all or some of the defined faces. The image display system according to 1.
【請求項10】前記面選択手段は、前記面に対して1の
面のみが前記ユーザが指定する視点に対して表向きの場
合にはその面をテクスチャ画像として選択し、2以上の
面が表向きの場合には、前記表向きの面の面積を計算し
前記面積が大きい面をテクスチャ画像として選択する、
及び/又は、画像Aの輝度をA、画像Bの輝度をB、前
記画像Aと前記画像Bとの間の視点に於いて、前記画像
Bから視点迄の距離の比率をd(0≦d≦1)とした場
合、S=A×d+B(1−d)によって算出される画像
の輝度Sをテクスチャ画像として選択することを特徴と
する請求項9に記載の画像表示システム。
10. The surface selecting means, when only one of the surfaces is facing up with respect to the viewpoint designated by the user, selects the surface as a texture image, and the two or more surfaces are facing up. In the case of, calculate the area of the surface facing upward and select the surface having the larger area as a texture image,
And / or the luminance of the image A is A, the luminance of the image B is B, and the ratio of the distance from the image B to the viewpoint at the viewpoint between the image A and the image B is d (0 ≦ d The image display system according to claim 9, wherein, when ≦ 1), the luminance S of the image calculated by S = A × d + B (1−d) is selected as a texture image.
【請求項11】前記面選択手段は、エピポールからの距
離が遠い面から順に描画することを特徴とする請求項9
又は請求項10に記載の画像表示システム。
11. The apparatus according to claim 9, wherein said plane selecting means draws in order from a plane which is farther from the epipole.
Or the image display system according to claim 10.
【請求項12】前記テクスチャマッピング手段は、前記
面の輪郭処理を行う輪郭処理手段を更に有することを特
徴とする請求項6から請求項11のいずれかに記載の画
像表示システム。
12. The image display system according to claim 6, wherein said texture mapping means further includes a contour processing means for performing contour processing of said surface.
【請求項13】前記輪郭処理手段は、前記面の頂点座標
を平均する点を面の重心とし前記面の重心を通り面頂点
間のつながりである稜線に垂直な外向きの単位ベクトル
である稜線オフセットベクトルを各面毎に演算し、前記
演算した稜線オフセットベクトルを平均することによ
り、頂点を含む境界稜線オフセットベクトルの平均単位
ベクトルである頂点オフセットベクトルを演算し、前記
作成した内挿画像に対して境界稜線の両端頂点とそこか
らオフセットベクトル方向に移動した頂点で構成される
オフセット面を表示し、その後、通常の面を表示するこ
とにより、輪郭処理を行うことを特徴とする請求項12
に記載の画像表示システム。
13. An edge processing unit according to claim 1, wherein said contour processing means sets a point at which a vertex coordinate of said surface is averaged to a center of gravity of said surface, and passes through said center of gravity of said surface and is an outward unit vector perpendicular to an edge which is a connection between surface vertices. By calculating the offset vector for each surface, and averaging the calculated edge line offset vector, calculate the vertex offset vector which is the average unit vector of the boundary edge line offset vector including the vertex, for the created interpolation image 13. The contour processing is performed by displaying an offset plane formed by both end vertices of the boundary ridge line and vertices moved in the offset vector direction from the end vertices, and then displaying a normal plane.
The image display system according to 1.
【請求項14】前記テクスチャマッピング手段は、前記
面の色補正処理を行う色補正手段を更に有することを特
徴とする請求項6から請求項13のいずれかに記載の画
像表示システム。
14. The image display system according to claim 6, wherein said texture mapping means further comprises a color correction means for performing a color correction process on said surface.
【請求項15】前記色補正手段は、画素点pに対応する
テクスチャ画像0,1の色をC(p)、C(p)と
し稜線の重みをwとすると、補正する色C(p)を、数
1で演算することにより補正する色を算出し色を補正す
ることを特徴とする請求項14に記載の画像表示システ
ム。 【数1】 C(p)=(1−w)C(p)+wC(p)
15. The color correcting means, when the colors of the texture images 0 and 1 corresponding to the pixel point p are C 0 (p) and C 1 (p) and the weight of the edge is w, 15. The image display system according to claim 14, wherein the color to be corrected is calculated by calculating p) by Equation (1). ## EQU1 ## C (p) = (1−w) C 0 (p) + wC 1 (p)
【請求項16】前記画像取込手段に於いて3枚の前記2
次元画像を1組とした場合には、前記ユーザが希望する
視点からの最終内挿画像を自動作成する際に前記内挿画
像作成手段は、前記取り込んだ2次元画像の組の中に於
ける2枚の組合せを用いて1次内挿画像を自動作成し、
前記組の中に於ける前記2枚の組合せ以外の2枚の組合
せを用いて他の1次内挿画像を自動作成し、前記自動作
成した2枚の1次内挿画像を用いて前記ユーザが希望す
る視点からの最終内挿画像を自動作成することを特徴と
する請求項1から請求項15のいずれかに記載の画像表
示システム。
16. The image capturing means according to claim 3, wherein:
When one set of two-dimensional images is used, when automatically creating the final interpolated image from the viewpoint desired by the user, the interpolated image creating means may include the set of two-dimensional images in the captured two-dimensional image. A primary interpolation image is automatically created using a combination of the two images,
Another primary interpolation image is automatically created using two combinations other than the two combinations in the set, and the user is created using the two primary interpolation images created automatically. 16. The image display system according to claim 1, wherein a final interpolated image from a desired viewpoint is automatically created.
【請求項17】前記画像取込手段に於いて3枚の前記2
次元画像を1組とした場合には、前記ユーザが希望する
視点からの内挿画像を自動作成する際に前記内挿画像作
成手段は、前記取り込んだ3枚の2次元画像を用いて回
転行列を算出し、前記回転行列を用いて平行化回転変換
を行い、前記平行化回転変換に基づいて水平化回転変換
を行い、前記水平化回転変換に基づいてスケール変換を
行い、前記平行化回転変換、水平化回転変換、スケール
変換に基づいてホモグラフィ行列を内挿し、内挿画像を
自動作成することを特徴とする請求項1から請求項15
のいずれかに記載の画像表示システム。
17. The image capturing means according to claim 3, wherein:
When one set of two-dimensional images is used, when automatically creating an interpolated image from the viewpoint desired by the user, the interpolated image creating means uses a rotation matrix using the three captured two-dimensional images. Is calculated, a parallelization rotation conversion is performed using the rotation matrix, a horizontal rotation conversion is performed based on the parallelization rotation conversion, a scale conversion is performed based on the horizontal rotation conversion, and the parallelization rotation conversion is performed. 16. An interpolated image is automatically created by interpolating a homography matrix based on a horizontal rotation conversion and a scale conversion.
The image display system according to any one of the above.
【請求項18】前記ユーザ端末は、前記作成した内挿画
像に対して影を作成する影作成手段を更に有することを
特徴とする請求項1から請求項17のいずれかに記載の
画像表示システム。
18. The image display system according to claim 1, wherein said user terminal further comprises a shadow creating means for creating a shadow on said created interpolated image. .
【請求項19】前記影作成手段は、アフィン変換行列を
用いて対象物に対する影を作成することを特徴とする請
求項18に記載の画像表示システム。
19. The image display system according to claim 18, wherein said shadow creating means creates a shadow for the object using an affine transformation matrix.
【請求項20】前記ユーザ端末は、前記作成した内挿画
像に対して反射を作成する反射作成手段を更に有するこ
とを特徴とする請求項1から請求項17のいずれかに記
載の画像表示システム。
20. The image display system according to claim 1, wherein said user terminal further comprises reflection creating means for creating a reflection for said created interpolation image. .
【請求項21】前記反射作成手段は、アフィン変換行列
を用いて対象物に対する反射を作成することを特徴とす
る請求項20に記載の画像表示システム。
21. The image display system according to claim 20, wherein said reflection creating means creates a reflection for an object using an affine transformation matrix.
【請求項22】前記ユーザ端末は、少なくとも一以上の
内挿画像、影、反射及び/又は2次元画像からその3次
元情報を復元することにより、少なくとも一以上の対象
物を同一視点で一枚以上の画像に合成する合成表示手段
を更に有することを特徴とする請求項1から請求項21
のいずれかに記載の画像表示システム。
22. The user terminal restores at least one or more objects from the same viewpoint by restoring the three-dimensional information from at least one or more interpolated images, shadows, reflections, and / or two-dimensional images. 22. The image display apparatus according to claim 1, further comprising a combining display unit for combining the image with the image.
The image display system according to any one of the above.
【請求項23】前記復元として、射影復元あるいはユー
クリッド復元を用いることを特徴とする請求項22に記
載の画像表示システム。
23. The image display system according to claim 22, wherein projection restoration or Euclidean restoration is used as said restoration.
【請求項24】前記サーバは、前記内挿画像の自動連続
表示を行う際の視点の経路と移動速度を設定する自動連
続手段を更に有していることを特徴とする請求項1から
請求項23のいずれかに記載の画像表示システム。
24. The server according to claim 1, wherein said server further comprises automatic continuation means for setting a path of a viewpoint and a moving speed when performing automatic continuous display of said interpolated image. 23. The image display system according to any one of 23.
【請求項25】前記自動連続手段は、仮想3次元空間座
標系を前記サーバ上に想定し、前記仮想3次元空間座標
系原点を中心とする球の極座標と前記サーバに於ける入
力デバイスの移動量とを対応させることにより経路を設
定することを特徴とする請求項24に記載の画像表示シ
ステム。
25. The automatic continuation means, assuming a virtual three-dimensional space coordinate system on the server, the polar coordinates of a sphere centered at the origin of the virtual three-dimensional space coordinate system, and the movement of an input device in the server. The image display system according to claim 24, wherein a path is set by associating the amount with the amount.
【請求項26】前記ユーザ端末は、前記内挿画像の自動
連続表示を行う際の視点の経路と移動速度を設定する自
動連続手段を更に有していることを特徴とする請求項1
から請求項23のいずれかに記載の画像表示システム。
26. The apparatus according to claim 1, wherein said user terminal further comprises an automatic continuation means for setting a path of a viewpoint and a moving speed when performing automatic continuous display of said interpolated image.
The image display system according to any one of claims 1 to 23.
【請求項27】前記自動連続手段は、仮想3次元空間座
標系を前記ユーザ端末上に想定し、前記仮想3次元空間
座標系原点を中心とする球の極座標と前記ユーザ端末に
於ける入力デバイスの移動量とを対応させることにより
経路を設定することを特徴とする請求項26に記載の画
像表示システム。
27. The automatic continuation means, assuming a virtual three-dimensional space coordinate system on the user terminal, polar coordinates of a sphere centered on the origin of the virtual three-dimensional space coordinate system, and an input device at the user terminal. 27. The image display system according to claim 26, wherein a route is set by associating the movement amount with the moving amount.
【請求項28】前記自動連続手段は、前記入力デバイス
の移動量と時間とを対応させることにより前記設定した
経路に於ける移動速度を設定することを特徴とする請求
項24から請求項27のいずれかに記載の画像表示シス
テム。
28. The method according to claim 24, wherein said automatic continuation means sets a moving speed on said set route by associating a moving amount of said input device with time. The image display system according to any one of the above.
【請求項29】前記自動連続手段は、前記2次元画像内
に於ける対象物の範囲を示す情報を設定することを特徴
とする請求項24から請求項28のいずれかに記載の画
像表示システム。
29. An image display system according to claim 24, wherein said automatic continuation means sets information indicating a range of a target object in said two-dimensional image. .
【請求項30】前記ユーザ端末は、前記サーバ上又は前
記ユーザ端末上に於いて設定された経路と移動速度に基
づいて連続的に内挿画像を自動作成し表示する自動連続
作成手段を更に有していることを特徴とする請求項1か
ら請求項29のいずれかに記載の画像表示システム。
30. The user terminal further includes automatic continuous creation means for automatically creating and displaying an interpolated image continuously based on a route and a moving speed set on the server or on the user terminal. The image display system according to any one of claims 1 to 29, wherein:
【請求項31】前記ユーザ端末は、前記対象物の範囲を
示す情報に基づいて拡大/縮小倍率と平行移動量とを算
出して前記対象物に対する位置、大きさの補正処理を行
う補正処理手段を更に有することを特徴とする請求項1
から請求項30のいずれかに記載の画像表示システム。
31. A correction processing means, wherein the user terminal calculates an enlargement / reduction magnification and a translation amount based on information indicating a range of the object, and corrects a position and a size of the object with respect to the object. 2. The method according to claim 1, further comprising:
31. The image display system according to any one of claims 30 to 30.
【請求項32】前記補正処理手段は、数2により前記対
象物の内挿画像の範囲を算出し前記範囲内に内挿画像を
補正することを特徴とする請求項31に記載の画像表示
システム。 【数2】((総フレーム数−フレーム数)×開始視点の
範囲を示す情報+フレーム数×終了視点の範囲を示す情
報)÷総フレーム数
32. The image display system according to claim 31, wherein said correction processing means calculates a range of an interpolated image of said object by Equation 2 and corrects the interpolated image within said range. . [Equation 2] ((total number of frames−number of frames) × information indicating range of start viewpoint + number of frames × information indicating range of end viewpoint) ÷ total number of frames
【請求項33】サーバとネットワークを介してデータの
送受信が可能なユーザ端末に於いて、ユーザが希望する
視点からの対象物の内挿画像を自動作成する画像表示方
法であって、前記ユーザ端末は、前記サーバから前記2
次元画像を受信することにより前記ユーザが希望する視
点からの対象物の内挿画像を自動作成することを特徴と
する画像表示方法。
33. An image display method for automatically creating an interpolated image of an object from a viewpoint desired by a user in a user terminal capable of transmitting and receiving data via a server and a network, wherein the user terminal From the server
An image display method, wherein an interpolated image of an object from a viewpoint desired by the user is automatically created by receiving a two-dimensional image.
【請求項34】ユーザ端末とネットワークを介してデー
タの送受信が可能なサーバに於いて、ユーザが希望する
視点からの対象物の内挿画像を前記ユーザ端末に於いて
自動作成させる画像表示方法であって、前記サーバは、
前記対象物の複数視点からの2次元画像を取込み、前記
2次元画像を前記ユーザ端末に送信することを特徴とす
る画像表示方法。
34. An image display method in which a server capable of transmitting and receiving data to and from a user terminal via a network has an image display method for automatically creating an interpolated image of an object from a viewpoint desired by the user at the user terminal. And the server is
An image display method, comprising: capturing a two-dimensional image of the object from a plurality of viewpoints, and transmitting the two-dimensional image to the user terminal.
【請求項35】前記サーバは、前記ユーザ端末に前記2
次元画像を送信する前に、複数の前記2次元画像を取込
み、前記取り込んだ2次元画像の組に対して共通の頂点
と前記頂点を線で結んだ面とを定義することを特徴とす
る請求項33又は請求項34に記載の画像表示方法。
35. The server as claimed in claim 2, wherein the user terminal includes
Before transmitting a two-dimensional image, a plurality of the two-dimensional images are captured, and a common vertex and a surface connecting the vertex with a line are defined for the set of the captured two-dimensional images. 35. The image display method according to claim 33 or 34.
【請求項36】前記サーバは、前記取り込んだ2次元画
像の組に対して共通の頂点と前記頂点を線で結んだ面と
を定義する際に、前記対象物のエッジ端点を抽出し、前
記取り込んだ2次元画像の組に於いてドロネー三角形指
定点を指定し、前記2次元画像の組の内1枚の2次元画
像に於いてドロネー三角形を生成し、前記ドロネー三角
形指定点からエピポール制約を満たす修正を行い、前記
修正後線形探索を行うことによって、前記2次元画像の
組に対して共通の頂点と前記頂点を線で結んだ面とを自
動的に定義することを特徴とする請求項33から請求項
35のいずれかに記載の画像表示方法。
36. The server, when defining a common vertex and a plane connecting the vertex with a line for the set of the captured two-dimensional images, extracts an edge end point of the object, A Delaunay triangle designated point is designated in the set of the captured two-dimensional images, a Delaunay triangle is generated in one two-dimensional image of the set of the two-dimensional images, and an epipole constraint is defined from the designated Delaunay triangle. The method according to claim 1, wherein a common vertex and a plane connecting the vertex with a line are automatically defined for the set of two-dimensional images by performing a correction that satisfies and performing the corrected linear search. The image display method according to any one of claims 33 to 35.
【請求項37】前記サーバは、前記2次元画像を取り込
む際に、仮想3次元空間座標系を前記サーバ上に想定
し、前記仮想3次元空間座標系原点を中心とする球の極
座標と前記サーバにおける入力デバイスの移動量とを対
応させることにより、前記2次元画像の視点設定を行う
ことを特徴とする請求項33から請求項36のいずれか
に記載の画像表示方法。
37. The server, when capturing the two-dimensional image, assumes a virtual three-dimensional space coordinate system on the server, and calculates the polar coordinates of a sphere centered on the virtual three-dimensional space coordinate system origin and the server. 37. The image display method according to claim 33, wherein the viewpoint setting of the two-dimensional image is performed by associating the movement amount of the input device with the viewpoint.
【請求項38】前記ユーザ端末は、前記ユーザが希望す
る視点からの対象物の内挿画像を自動作成する際に、前
記サーバから前記2次元画像を受信し前記受信した2次
元画像に対して予め定められた演算を行い、前記演算結
果に基づいて平行化画像を自動作成し、前記平行化画像
に対してテクスチャマッピングを行うことを特徴とする
請求項33又は請求項34に記載の画像表示方法。
38. The user terminal, when automatically creating an interpolated image of an object from a viewpoint desired by the user, receives the two-dimensional image from the server, and receives the two-dimensional image from the server. 35. The image display according to claim 33, wherein a predetermined calculation is performed, a parallelized image is automatically created based on the calculation result, and texture mapping is performed on the parallelized image. Method.
【請求項39】前記予め定められた演算として前記2次
元画像の組に対する基本行列の演算とエピポールの演算
とを含むことを特徴とする請求項38に記載の画像表示
方法。
39. The image display method according to claim 38, wherein the predetermined operation includes an operation of a basic matrix and an operation of an epipole for the set of two-dimensional images.
【請求項40】前記テクスチャマッピングを行う際に、
前記サーバに於いて定義された面の頂点を前記自動作成
した平行化画像に内挿し、線形補間を行い、前記線形補
間した面の頂点の内部に面内部の画素をテクスチャマッ
ピングすることを特徴とする請求項38に記載の画像表
示方法。
40. When performing the texture mapping,
Interpolating the vertices of the surface defined in the server into the automatically created parallelized image, performing linear interpolation, and texture-mapping the pixels inside the surface inside the vertices of the linearly interpolated surface. 39. The image display method according to claim 38.
【請求項41】前記テクスチャマッピングを行う際に、
前記定義された全て又は一部の面に対してテクスチャ画
像を選択する処理を更に行うことを特徴とする請求項3
8から請求項40のいずれかに記載の画像表示方法。
41. When performing the texture mapping,
4. The method according to claim 3, further comprising the step of selecting a texture image for all or some of the defined surfaces.
The image display method according to any one of claims 8 to 40.
【請求項42】前記テクスチャ画像を選択する処理の際
に、前記面に対して1の面のみが前記ユーザが指定する
視点に対して表向きの場合にはその面をテクスチャ画像
として選択し、2以上の面が表向きの場合には、前記表
向きの面の面積を計算し前記面積が大きい面をテクスチ
ャ画像として選択する、及び/又は、画像Aの輝度を
A、画像Bの輝度をB、前記画像Aと前記画像Bとの間
の視点に於いて、前記画像Bから視点迄の距離の比率を
d(0≦d≦1)とした場合、 S=A×d+B(1−d) によって算出される画像の輝度Sをテクスチャ画像とし
て選択することを特徴とする請求項41に記載の画像表
示方法。
42. In the process of selecting the texture image, if only one surface of the surface is facing up to a viewpoint designated by the user, the surface is selected as a texture image. When the above-mentioned surface is facing up, the area of the facing surface is calculated and the surface having the larger area is selected as a texture image, and / or the brightness of the image A is A, the brightness of the image B is B, In the viewpoint between the image A and the image B, when the ratio of the distance from the image B to the viewpoint is d (0 ≦ d ≦ 1), S = A × d + B (1-d) 42. The image display method according to claim 41, wherein a luminance S of the image to be processed is selected as a texture image.
【請求項43】前記テクスチャ画像を選択する処理の際
に、エピポールからの距離が遠い面から順に描画するこ
とを特徴とする請求項41又は請求項42に記載の画像
表示方法。
43. The image display method according to claim 41, wherein, in the process of selecting the texture image, drawing is performed in order from a surface farther from the epipole.
【請求項44】前記テクスチャマッピングを行う際に、
前記面の輪郭処理を更に行うことを特徴とする請求項3
8から請求項43のいずれかに記載の画像表示方法。
44. When performing the texture mapping,
4. The method according to claim 3, further comprising performing contour processing on the surface.
The image display method according to any one of claims 8 to 43.
【請求項45】前記輪郭処理の際に、前記面の頂点座標
を平均する点を面の重心とし前記面の重心を通り面頂点
間のつながりである稜線に垂直な外向きの単位ベクトル
である稜線オフセットベクトルを各面毎に演算し、前記
演算した稜線オフセットベクトルを平均することによ
り、頂点を含む境界稜線オフセットベクトルの平均単位
ベクトルである頂点オフセットベクトルを演算し、前記
作成した内挿画像に対して境界稜線の両端頂点とそこか
らオフセットベクトル方向に移動した頂点で構成される
オフセット面を表示し、その後、通常の面を表示するこ
とにより、輪郭処理を行うことを特徴とする請求項44
に記載の画像表示方法。
45. An outward unit vector perpendicular to a ridge line passing through the center of gravity of the surface and taking a point at which the coordinates of the vertices of the surface are averaged in the contour processing as a center of gravity of the surface. The edge offset vector is calculated for each surface, and the calculated edge line offset vector is averaged to calculate a vertex offset vector which is an average unit vector of the boundary edge line offset vector including the vertex. 45. Contrast processing is performed by displaying an offset surface composed of vertices at both ends of a boundary ridge line and vertices moved in the direction of an offset vector from the boundary surface, and then displaying a normal surface.
The image display method described in 1.
【請求項46】前記テクスチャマッピングを行う際に、
前記面の色補正処理を更に行うことを特徴とする請求項
38から請求項45のいずれかに記載の画像表示方法。
46. When performing the texture mapping,
The image display method according to any one of claims 38 to 45, further comprising performing a color correction process on the surface.
【請求項47】前記色補正処理を行う際に、画素点pに
対応するテクスチャ画像0,1の色をC(p)、C
(p)とし稜線の重みをwとすると、補正する色C
(p)を、数1で演算することにより補正する色を算出
し色を補正することを特徴とする請求項46に記載の画
像表示方法。
47. When performing the color correction processing, the colors of the texture images 0 and 1 corresponding to the pixel points p are represented by C 0 (p) and C 1
(P) and the weight of the ridgeline is w, the color C to be corrected
47. The image display method according to claim 46, wherein the color to be corrected is calculated by calculating (p) by Expression 1, and the color is corrected.
【請求項48】前記サーバに於いて3枚の前記2次元画
像を1組とした場合には、前記ユーザが希望する視点か
らの最終内挿画像を自動作成する際に前記ユーザ端末
は、前記取り込んだ2次元画像の組の中に於ける2枚の
組合せを用いて1次内挿画像を自動作成し、前記組の中
に於ける前記2枚の組合せ以外の2枚の組合せを用いて
他の1次内挿画像を自動作成し、前記自動作成した2枚
の1次内挿画像を用いて前記ユーザが希望する視点から
の最終内挿画像を自動作成することを特徴とする請求項
33から請求項47のいずれかに記載の画像表示方法。
48. In the case where three sets of the two-dimensional images are set as one set in the server, when the user automatically creates a final interpolated image from a viewpoint desired by the user, the user terminal performs A primary interpolated image is automatically created using a combination of two images in a set of the captured two-dimensional images, and a two-image combination other than the combination of the two images in the set is used. 5. The method according to claim 1, wherein another primary interpolation image is automatically created, and a final interpolation image from a viewpoint desired by the user is automatically created using the two automatically created primary interpolation images. The image display method according to any one of claims 33 to 47.
【請求項49】前記サーバに於いて3枚の前記2次元画
像を1組とした場合には、前記ユーザが希望する視点か
らの内挿画像を自動作成する際に前記ユーザ端末は、前
記取り込んだ3枚の2次元画像を用いて回転行列を算出
し、前記回転行列を用いて平行化回転変換を行い、前記
平行化回転変換に基づいて水平化回転変換を行い、前記
水平化回転変換に基づいてスケール変換を行い、前記平
行化回転変換、水平化回転変換、スケール変換に基づい
てホモグラフィ行列を内挿し、内挿画像を自動作成する
ことを特徴とする請求項33から請求項47のいずれか
に記載の画像表示方法。
49. In the case where three sets of the two-dimensional images are set as one set in the server, when automatically creating an interpolated image from a viewpoint desired by the user, the user terminal sets the A rotation matrix is calculated using the three two-dimensional images, a parallelization rotation conversion is performed using the rotation matrix, a horizontal rotation conversion is performed based on the parallelization rotation conversion, and the horizontal rotation conversion is performed. 48. The method according to claim 33, wherein a scale conversion is performed on the basis of the parallelization rotation conversion, the horizontal rotation conversion, and the homography matrix based on the scale conversion, and an interpolation image is automatically created. The image display method according to any of the above.
【請求項50】前記ユーザ端末は、前記内挿画像を作成
後、前記作成した内挿画像に対して影を作成する処理を
行うことを特徴とする請求項33から請求項49のいず
れかに記載の画像表示方法。
50. The user terminal according to claim 33, wherein, after creating the interpolated image, the user terminal performs a process of creating a shadow on the created interpolated image. Image display method described.
【請求項51】前記影を作成する処理は、アフィン変換
行列を用いて対象物に対する影を作成することを特徴と
する請求項50に記載の画像表示方法。
51. The image display method according to claim 50, wherein said shadow creating process creates a shadow for an object using an affine transformation matrix.
【請求項52】前記ユーザ端末は、前記内挿画像を作成
後、前記作成した内挿画像に対して反射を作成する処理
を更に行うことを特徴とする請求項33から請求項49
のいずれかに記載の画像表示方法。
52. The user terminal according to claim 33, further comprising, after creating said interpolated image, a process of creating a reflection on said created interpolated image.
The image display method according to any one of the above.
【請求項53】前記反射を作成する処理は、アフィン変
換行列を用いて対象物に対する反射を作成することを特
徴とする請求項52に記載の画像表示方法。
53. The image display method according to claim 52, wherein said processing for creating a reflection creates a reflection for an object using an affine transformation matrix.
【請求項54】前記ユーザ端末は、少なくとも一以上の
内挿画像、影、反射及び/又は2次元画像からその3次
元情報を復元することにより、少なくとも一以上の対象
物を同一視点で一枚以上の画像に合成する処理を更に行
うことを特徴とする請求項33から請求項52のいずれ
かに記載の画像表示方法。
54. The user terminal restores at least one or more objects from the same viewpoint by restoring the three-dimensional information from at least one or more interpolated images, shadows, reflections, and / or two-dimensional images. The image display method according to any one of claims 33 to 52, further comprising the step of combining the image with the image.
【請求項55】前記復元として、射影復元あるいはユー
クリッド復元を用いることを特徴とする請求項54に記
載の画像表示方法。
55. The image display method according to claim 54, wherein projection restoration or Euclidean restoration is used as said restoration.
【請求項56】前記サーバは、前記内挿画像の自動連続
表示を行う際の視点の経路と移動速度を設定する自動連
続処理を更に行うことを特徴とする請求項33から請求
項55のいずれかに記載の画像表示方法。
56. The server according to claim 33, wherein said server further performs an automatic continuous process for setting a path of a viewpoint and a moving speed when performing automatic continuous display of said interpolated image. Image display method described in Crab.
【請求項57】前記自動連続処理を行う際には、仮想3
次元空間座標系を前記サーバ上に想定し、前記仮想3次
元空間座標系原点を中心とする球の極座標と前記サーバ
に於ける入力デバイスの移動量とを対応させることによ
り経路を設定することを特徴とする請求項56に記載の
画像表示方法。
57. When performing the automatic continuous processing, a virtual 3
Assuming a three-dimensional space coordinate system on the server, and setting a route by associating polar coordinates of a sphere centered on the origin of the virtual three-dimensional space coordinate system with a movement amount of an input device in the server. 57. The image display method according to claim 56, wherein:
【請求項58】前記ユーザ端末は、前記内挿画像の自動
連続表示を行う際の視点の経路と移動速度を設定する自
動連続処理を更に行うことを特徴とする請求項33から
請求項55のいずれかに記載の画像表示方法。
58. The user terminal according to claim 33, wherein said user terminal further performs an automatic continuous process for setting a viewpoint path and a moving speed when performing automatic continuous display of said interpolated image. The image display method according to any of the above.
【請求項59】前記自動連続処理を行う際には、仮想3
次元空間座標系を前記ユーザ端末上に想定し、前記仮想
3次元空間座標系原点を中心とする球の極座標と前記ユ
ーザ端末に於ける入力デバイスの移動量とを対応させる
ことにより経路を設定することを特徴とする請求項58
に記載の画像表示方法。
59. When performing the automatic continuous processing, a virtual 3
A path is set by assuming a three-dimensional space coordinate system on the user terminal and associating the polar coordinates of a sphere centered on the origin of the virtual three-dimensional space coordinate system with the movement amount of the input device in the user terminal. 58. The method of claim 58, wherein
The image display method described in 1.
【請求項60】前記自動連続処理を行う際には、前記入
力デバイスの移動量と時間とを対応させることにより前
記設定した経路に於ける移動速度を設定することを特徴
とする請求項56から請求項59のいずれかに記載の画
像表示方法。
60. When the automatic continuous processing is performed, the moving speed of the set route is set by associating the moving amount of the input device with time. The image display method according to claim 59.
【請求項61】前記自動連続処理を行う際には、前記2
次元画像内に於ける対象物の範囲を示す情報を設定する
ことを特徴とする請求項56から請求項60のいずれか
に記載の画像表示方法。
61. When the automatic continuous processing is performed,
61. The image display method according to claim 56, wherein information indicating a range of the target in the two-dimensional image is set.
【請求項62】前記ユーザ端末は、前記サーバ上又は前
記ユーザ端末上に於いて設定された経路と移動速度に基
づいて連続的に内挿画像を自動作成し表示する自動連続
再生処理を更に行うことを特徴とする請求項33から請
求項61のいずれかに記載の画像表示方法。
62. The user terminal further performs an automatic continuous reproduction process for automatically creating and displaying an interpolated image continuously based on a route and a moving speed set on the server or on the user terminal. The image display method according to any one of claims 33 to 61, wherein:
【請求項63】前記ユーザ端末は、前記対象物の範囲を
示す情報に基づいて拡大/縮小倍率と平行移動量とを算
出して前記対象物に対する位置、大きさの補正処理を行
うことを特徴とする請求項33から請求項62のいずれ
かに記載の画像表示方法。
63. A method according to claim 63, wherein the user terminal calculates an enlargement / reduction magnification and a translation amount based on the information indicating the range of the object, and performs a position and size correction process on the object. The image display method according to any one of claims 33 to 62.
【請求項64】前記補正処理を行う際には、数2により
前記対象物の内挿画像の範囲を算出し前記範囲内に内挿
画像を補正することを特徴とする請求項63に記載の画
像表示方法。
64. The method according to claim 63, wherein, when performing the correction processing, a range of the interpolated image of the object is calculated by Expression 2 and the interpolated image is corrected within the range. Image display method.
【請求項65】ユーザが希望する視点からの対象物の内
挿画像を自動作成し閲覧するサーバ上に於いて、前記内
挿画像を自動作成する画像表示システムであって、前記
サーバは、前記対象物の複数視点からの2次元画像を取
り込む画像取込手段と、前記希望する視点からの対象物
の内挿画像を自動作成する内挿画像作成手段とを有する
ことを特徴とする画像表示システム。
65. An image display system for automatically creating an interpolated image on a server for automatically creating and viewing an interpolated image of an object from a viewpoint desired by a user, wherein the server comprises: An image display system comprising: an image capturing unit that captures a two-dimensional image of an object from a plurality of viewpoints; and an interpolated image creating unit that automatically creates an interpolated image of the object from the desired viewpoint. .
【請求項66】前記画像取込手段は、前記取り込んだ2
次元画像の組に対して共通の頂点と前記頂点を線で結ん
だ面とを定義することを特徴とする請求項65に記載の
画像表示システム。
66. The image capturing means, comprising:
The image display system according to claim 65, wherein a common vertex and a plane connecting the vertex with a line are defined for the set of the dimensional images.
【請求項67】前記画像取込手段は、前記取り込んだ2
次元画像の組に対して共通の頂点と前記頂点を線で結ん
だ面とを定義する際に、前記対象物のエッジ端点を抽出
し、前記取り込んだ2次元画像の組に於いてドロネー三
角形指定点を指定し、前記2次元画像の組の内1枚の2
次元画像に於いてドロネー三角形を生成し、前記ドロネ
ー三角形指定点からエピポール制約を満たす修正を行
い、前記修正後線形探索を行うことによって、前記2次
元画像の組に対して共通の頂点と前記頂点を線で結んだ
面とを自動的に定義することを特徴とする請求項65又
は請求項66に記載の画像表示システム。
67. The image capturing means according to claim 42, wherein:
When defining a common vertex and a plane connecting the vertices with a line for a set of two-dimensional images, an edge end point of the object is extracted, and a Delaunay triangle is designated in the set of the captured two-dimensional image. A point is designated, and one of the two-dimensional image sets 2
A Delaunay triangle is generated in the two-dimensional image, a modification satisfying the epipole constraint is performed from the designated Delaunay triangle, and the corrected linear search is performed. 67. The image display system according to claim 65 or 66, wherein a surface which is connected by a line is automatically defined.
【請求項68】前記画像取込手段は、仮想3次元空間座
標系を前記サーバ上に想定し、前記仮想3次元空間座標
系原点を中心とする球の極座標と前記サーバに於ける入
力デバイスの移動量とを対応させることにより、前記2
次元画像の視点設定を行うことを特徴とする請求項65
から請求項67のいずれかに記載の画像表示システム。
68. The image capturing means, assuming a virtual three-dimensional space coordinate system on the server, polar coordinates of a sphere centered on the origin of the virtual three-dimensional space coordinate system, and an input device of the server. By associating the amount of movement,
65. A viewpoint setting of a two-dimensional image is performed.
The image display system according to any one of claims 1 to 67.
【請求項69】前記内挿画像作成手段は、前記2次元画
像に対して予め定められた演算を行う初期情報演算手段
と、前記演算結果に基づいて平行化画像を自動作成する
平行化画像作成手段と、前記平行化画像に対してテクス
チャマッピングを行うテクスチャマッピング手段とを有
することを特徴とする請求項65に記載の画像表示シス
テム。
69. An interpolation information creating means for performing a predetermined operation on the two-dimensional image, and a parallelized image creation means for automatically creating a parallelized image based on the operation result. The image display system according to claim 65, further comprising: a texture mapping unit configured to perform texture mapping on the parallelized image.
【請求項70】前記初期情報演算手段は、前記予め定め
られた演算として前記2次元画像の組に対する基本行列
の演算とエピポールの演算とを含むことを特徴とする請
求項69に記載の画像表示システム。
70. The image display according to claim 69, wherein said initial information calculation means includes a calculation of a basic matrix and a calculation of an epipole for said set of two-dimensional images as said predetermined calculation. system.
【請求項71】前記テクスチャマッピング手段は、前記
定義した面の頂点を前記自動作成した平行化画像に内挿
し、線形補間を行い、前記線形補間した面の頂点の内部
に面内部の画素をテクスチャマッピングすることを特徴
とする請求項70に記載の画像表示システム。
71. The texture mapping means interpolates the vertices of the defined surface into the automatically created parallelized image, performs linear interpolation, and assigns pixels inside the surface to the vertices of the linearly interpolated surface. The image display system according to claim 70, wherein mapping is performed.
【請求項72】前記テクスチャマッピング手段は、前記
定義した全て又は一部の面に対してテクスチャ画像を選
択する面選択手段を更に有することを特徴とする請求項
69から請求項71のいずれかに記載の画像表示システ
ム。
72. The apparatus according to claim 69, wherein said texture mapping means further comprises a face selecting means for selecting a texture image for all or some of the defined faces. Image display system as described.
【請求項73】前記面選択手段は、前記面に対して1の
面のみが前記ユーザが指定する視点に対して表向きの場
合にはその面をテクスチャ画像として選択し、2以上の
面が表向きの場合には、前記表向きの面の面積を計算し
前記面積が大きい面をテクスチャ画像として選択する、
及び/又は、画像Aの輝度をA、画像Bの輝度をB、前
記画像Aと前記画像Bとの間の視点に於いて、前記画像
Bから視点迄の距離の比率をd(0≦d≦1)とした場
合、 S=A×d+B(1−d) によって算出される画像の輝度Sをテクスチャ画像とし
て選択することを特徴とする請求項72に記載の画像表
示システム。
73. When only one surface of the surface is facing the viewpoint specified by the user, the surface selecting means selects that surface as a texture image, and the two or more surfaces face up. In the case of, calculate the area of the surface facing upward and select the surface having the larger area as a texture image,
And / or the luminance of the image A is A, the luminance of the image B is B, and the ratio of the distance from the image B to the viewpoint at the viewpoint between the image A and the image B is d (0 ≦ d 73. The image display system according to claim 72, wherein, when ≤ 1), the luminance S of the image calculated by S = A x d + B (1-d) is selected as a texture image.
【請求項74】前記面選択手段は、エピポールからの距
離が遠い面から順に描画することを特徴とする請求項7
2又は請求項73に記載の画像表示システム。
74. The apparatus according to claim 7, wherein the plane selecting means draws the plane in order from a plane farther from the epipole.
An image display system according to claim 2 or 73.
【請求項75】前記テクスチャマッピング手段は、前記
面の輪郭処理を行う輪郭処理手段を更に有することを特
徴とする請求項69から請求項74のいずれかに記載の
画像表示システム。
75. The image display system according to claim 69, wherein said texture mapping means further comprises a contour processing means for performing contour processing of said surface.
【請求項76】前記輪郭処理手段は、前記面の頂点座標
を平均する点を面の重心とし前記面の重心を通り面頂点
間のつながりである稜線に垂直な外向きの単位ベクトル
である稜線オフセットベクトルを各面毎に演算し、前記
演算した稜線オフセットベクトルを平均することによ
り、頂点を含む境界稜線オフセットベクトルの平均単位
ベクトルである頂点オフセットベクトルを演算し、前記
作成した内挿画像に対して境界稜線の両端頂点とそこか
らオフセットベクトル方向に移動した頂点で構成される
オフセット面を表示し、その後、通常の面を表示するこ
とにより、輪郭処理を行うことを特徴とする請求項75
に記載の画像表示システム。
76. The contour processing means, wherein a point at which a vertex coordinate of the surface is averaged is set as a center of gravity of the surface, and a ridge line which is an outward unit vector passing through the center of gravity of the surface and perpendicular to a ridge line connecting the surface vertices. By calculating the offset vector for each surface, by averaging the calculated edge line offset vector, calculate the vertex offset vector which is the average unit vector of the boundary edge line offset vector including the vertex, for the created interpolation image 76. The contour processing is performed by displaying an offset plane formed by both end vertices of the boundary ridge line and vertices moved in the offset vector direction from the end face, and then displaying a normal plane.
The image display system according to 1.
【請求項77】前記テクスチャマッピング手段は、前記
面の色補正処理を行う色補正手段を更に有することを特
徴とする請求項69から請求項76のいずれかに記載の
画像表示システム。
77. The image display system according to claim 69, wherein said texture mapping means further comprises a color correction means for performing a color correction process on said surface.
【請求項78】前記色補正手段は、画素点pに対応する
テクスチャ画像0,1の色をC(p)、C(p)と
し稜線の重みをwとすると、補正する色C(p)を、数
1で演算することにより補正する色を算出し色を補正す
ることを特徴とする請求項77に記載の画像表示システ
ム。
78. If the colors of the texture images 0 and 1 corresponding to the pixel point p are C 0 (p) and C 1 (p) and the weight of the ridge line is w, the color correction means corrects the color C ( 78. The image display system according to claim 77, wherein a color to be corrected is calculated by calculating p) by Equation 1, and the color is corrected.
【請求項79】前記画像取込手段に於いて3枚の前記2
次元画像を1組とした場合には、前記ユーザが希望する
視点からの最終内挿画像を自動作成する際に前記内挿画
像作成手段は、前記取り込んだ2次元画像の組の中に於
ける2枚の組合せを用いて1次内挿画像を自動作成し、
前記組の中に於ける前記2枚の組合せ以外の2枚の組合
せを用いて他の1次内挿画像を自動作成し、前記自動作
成した2枚の1次内挿画像を用いて前記ユーザが希望す
る視点からの最終内挿画像を自動作成することを特徴と
する請求項65から請求項78のいずれかに記載の画像
表示システム。
79. In the image taking means, three sheets of the 2
When one set of two-dimensional images is used, when automatically creating the final interpolated image from the viewpoint desired by the user, the interpolated image creating means may include the set of two-dimensional images in the captured two-dimensional image. A primary interpolation image is automatically created using a combination of the two images,
Another primary interpolation image is automatically created using two combinations other than the two combinations in the set, and the user is created using the two primary interpolation images created automatically. The image display system according to any one of claims 65 to 78, wherein automatically generates a final interpolated image from a desired viewpoint.
【請求項80】前記画像取込手段に於いて3枚の前記2
次元画像を1組とした場合には、前記ユーザが希望する
視点からの内挿画像を自動作成する際に前記内挿画像作
成手段は、前記取り込んだ3枚の2次元画像を用いて回
転行列を算出し、前記回転行列を用いて平行化回転変換
を行い、前記平行化回転変換に基づいて水平化回転変換
を行い、前記水平化回転変換に基づいてスケール変換を
行い、前記平行化回転変換、水平化回転変換、スケール
変換に基づいてホモグラフィ行列を内挿し、内挿画像を
自動作成することを特徴とする請求項65から請求項7
8のいずれかに記載の画像表示システム。
80. In the image taking means, three sheets of the 2
When one set of two-dimensional images is used, when automatically creating an interpolated image from the viewpoint desired by the user, the interpolated image creating means uses a rotation matrix using the three captured two-dimensional images. Is calculated, a parallelization rotation conversion is performed using the rotation matrix, a horizontal rotation conversion is performed based on the parallelization rotation conversion, a scale conversion is performed based on the horizontal rotation conversion, and the parallelization rotation conversion is performed. The interpolated image is automatically created by interpolating a homography matrix based on an image, a horizontal rotation conversion, and a scale conversion.
9. The image display system according to any one of 8.
【請求項81】前記サーバは、前記作成した内挿画像に
対して影を作成する影作成手段を更に有することを特徴
とする請求項65から請求項80のいずれかに記載の画
像表示システム。
81. The image display system according to claim 65, wherein said server further comprises shadow creating means for creating a shadow on said created interpolated image.
【請求項82】前記影作成手段は、アフィン変換行列を
用いて対象物に対する影を作成することを特徴とする請
求項81に記載の画像表示システム。
82. The image display system according to claim 81, wherein said shadow creating means creates a shadow for the object using an affine transformation matrix.
【請求項83】前記サーバは、前記作成した内挿画像に
対して反射を作成する反射作成手段を更に有することを
特徴とする請求項65から請求項80のいずれかに記載
の画像表示システム。
83. The image display system according to claim 65, wherein said server further comprises reflection creating means for creating a reflection on said created interpolated image.
【請求項84】前記反射作成手段は、アフィン変換行列
を用いて対象物に対する反射を作成することを特徴とす
る請求項83に記載の画像表示システム。
84. The image display system according to claim 83, wherein said reflection creating means creates a reflection for an object using an affine transformation matrix.
【請求項85】前記サーバは、少なくとも一以上の内挿
画像、影、反射及び/又は2次元画像からその3次元情
報を復元することにより、少なくとも一以上の対象物を
同一視点で一枚以上の画像に合成する合成表示手段を更
に有することを特徴とする請求項65から請求項84の
いずれかに記載の画像表示システム。
85. The server restores at least one or more objects from the same viewpoint by restoring the three-dimensional information from at least one or more interpolated images, shadows, reflections and / or two-dimensional images. The image display system according to any one of claims 65 to 84, further comprising a combination display unit for combining the image with the image.
【請求項86】前記復元として、射影復元あるいはユー
クリッド復元を用いることを特徴とする請求項85に記
載の画像表示システム。
86. The image display system according to claim 85, wherein projection restoration or Euclidean restoration is used as said restoration.
【請求項87】前記サーバは、前記内挿画像の自動連続
表示を行う際の視点の経路と移動速度を設定する自動連
続手段を更に有していることを特徴とする請求項65か
ら請求項86のいずれかに記載の画像表示システム。
87. The apparatus according to claim 65, wherein said server further comprises automatic continuation means for setting a path of a viewpoint and a moving speed when performing automatic continuous display of said interpolated image. 86. The image display system according to any one of 86.
【請求項88】前記自動連続手段は、仮想3次元空間座
標系を前記サーバ上に想定し、前記仮想3次元空間座標
系原点を中心とする球の極座標と前記サーバに於ける入
力デバイスの移動量とを対応させることにより経路を設
定することを特徴とする請求項87に記載の画像表示シ
ステム。
88. The automatic continuation means, assuming a virtual three-dimensional space coordinate system on the server, and polar coordinates of a sphere centered at the origin of the virtual three-dimensional space coordinate system and movement of an input device in the server. The image display system according to claim 87, wherein a path is set by associating the amount with the amount.
【請求項89】前記自動連続手段は、前記入力デバイス
の移動量と時間とを対応させることにより前記設定した
経路に於ける移動速度を設定することを特徴とする請求
項87又は請求項88に記載の画像表示システム。
89. The apparatus according to claim 87, wherein said automatic continuation means sets a moving speed on said set route by associating a moving amount of said input device with time. Image display system as described.
【請求項90】前記自動連続手段は、前記2次元画像内
に於ける対象物の範囲を示す情報を設定することを特徴
とする請求項87から請求項89のいずれかに記載の画
像表示システム。
90. The image display system according to claim 87, wherein said automatic continuation means sets information indicating a range of a target in said two-dimensional image. .
【請求項91】前記サーバは、前記設定された経路と移
動速度に基づいて連続的に内挿画像を自動作成し表示す
る自動連続作成手段を更に有していることを特徴とする
請求項65から請求項90のいずれかに記載の画像表示
システム。
91. The server according to claim 65, wherein said server further comprises automatic continuous creation means for automatically creating and displaying an interpolated image continuously based on said set route and moving speed. 90. The image display system according to claim 90.
【請求項92】前記サーバは、前記対象物の範囲を示す
情報に基づいて拡大/縮小倍率と平行移動量とを算出し
て前記対象物に対する位置、大きさの補正処理を行う補
正処理手段を更に有することを特徴とする請求項65か
ら請求項91のいずれかに記載の画像表示システム。
92. A correction processing means for calculating an enlargement / reduction magnification and a translation amount based on information indicating the range of the object and performing a correction process of a position and a size with respect to the object. The image display system according to any one of claims 65 to 91, further comprising:
【請求項93】前記補正処理手段は、数2により前記対
象物の内挿画像の範囲を算出し前記範囲内に内挿画像を
補正することを特徴とする請求項92に記載の画像表示
システム。
93. The image display system according to claim 92, wherein said correction processing means calculates a range of an interpolated image of said object by Equation 2 and corrects the interpolated image within said range. .
【請求項94】ユーザが希望する視点からの対象物の内
挿画像を自動作成し閲覧するサーバ上に於いて、前記内
挿画像を自動作成する画像表示方法であって、前記サー
バは、前記対象物の複数視点からの2次元画像を取込
み、前記希望する視点からの対象物の内挿画像を自動作
成することを特徴とする画像表示方法。
94. An image display method for automatically creating an interpolated image on a server for automatically creating and viewing an interpolated image of an object from a viewpoint desired by a user, wherein the server comprises: An image display method, comprising taking in a two-dimensional image of an object from a plurality of viewpoints and automatically creating an interpolated image of the object from the desired viewpoint.
【請求項95】前記サーバは、前記取り込んだ2次元画
像の組に対して共通の頂点と前記頂点を線で結んだ面と
を定義することを特徴とする請求項94に記載の画像表
示方法。
95. The image display method according to claim 94, wherein said server defines a common vertex and a plane connecting said vertex with a line for said set of fetched two-dimensional images. .
【請求項96】前記サーバは、前記取り込んだ2次元画
像の組に対して共通の頂点と前記頂点を線で結んだ面と
を定義する際に、前記対象物のエッジ端点を抽出し、前
記取り込んだ2次元画像の組に於いてドロネー三角形指
定点を指定し、前記2次元画像の組の内1枚の2次元画
像に於いてドロネー三角形を生成し、前記ドロネー三角
形指定点からエピポール制約を満たす修正を行い、前記
修正後線形探索を行うことによって、前記2次元画像の
組に対して共通の頂点と前記頂点を線で結んだ面とを自
動的に定義することを特徴とする請求項94又は請求項
95に記載の画像表示方法。
96. The server, when defining a common vertex and a plane connecting the vertex with a line for the set of the captured two-dimensional images, extracts an edge end point of the object, A Delaunay triangle designation point is specified in the set of the captured two-dimensional images, a Delaunay triangle is generated in one of the two-dimensional images in the set of the two-dimensional images, and an epipole constraint is defined from the Delaunay triangle specification point. The method according to claim 1, wherein a common vertex and a plane connecting the vertex with a line are automatically defined for the set of two-dimensional images by performing a correction that satisfies and performing the corrected linear search. The image display method according to claim 94 or 95.
【請求項97】前記サーバは、前記2次元画像を取り込
む際に、仮想3次元空間座標系を前記サーバ上に想定
し、前記仮想3次元空間座標系原点を中心とする球の極
座標と前記サーバにおける入力デバイスの移動量とを対
応させることにより、前記2次元画像の視点設定を行う
ことを特徴とする請求項94から請求項96のいずれか
に記載の画像表示方法。
97. The server, when capturing the two-dimensional image, assumes a virtual three-dimensional space coordinate system on the server, and calculates polar coordinates of a sphere centered on the origin of the virtual three-dimensional space coordinate system and the server. The image display method according to any one of claims 94 to 96, wherein the viewpoint setting of the two-dimensional image is performed by associating the movement amount of the input device with the moving amount of the input device.
【請求項98】前記サーバは、前記ユーザが希望する視
点からの対象物の内挿画像を自動作成する際に、前記2
次元画像に対して予め定められた演算を行い、前記演算
結果に基づいて平行化画像を自動作成し、前記平行化画
像に対してテクスチャマッピングを行うことを特徴とす
る請求項94に記載の画像表示方法。
98. When automatically creating an interpolated image of an object from a viewpoint desired by the user, the server
The image according to claim 94, wherein a predetermined calculation is performed on the two-dimensional image, a parallelized image is automatically created based on the calculation result, and texture mapping is performed on the parallelized image. Display method.
【請求項99】前記予め定められた演算として前記2次
元画像の組に対する基本行列の演算とエピポールの演算
とを含むことを特徴とする請求項98に記載の画像表示
方法。
99. The image display method according to claim 98, wherein said predetermined operation includes an operation of a basic matrix and an operation of an epipole for said set of two-dimensional images.
【請求項100】前記テクスチャマッピングを行う際
に、前記定義した面の頂点を前記自動作成した平行化画
像に内挿し、線形補間を行い、前記線形補間した面の頂
点の内部に面内部の画素をテクスチャマッピングするこ
とを特徴とする請求項99に記載の画像表示方法。
100. When the texture mapping is performed, vertices of the defined surface are interpolated into the automatically generated parallelized image, linear interpolation is performed, and pixels inside the surface are included in the vertices of the linearly interpolated surface. The image display method according to claim 99, wherein texture mapping is performed.
【請求項101】前記テクスチャマッピングを行う際
に、前記定義した全て又は一部の面に対してテクスチャ
画像を選択する処理を更に行うことを特徴とする請求項
98から請求項100のいずれかに記載の画像表示方
法。
101. The method according to claim 98, wherein when performing the texture mapping, a process of selecting a texture image for all or some of the defined surfaces is further performed. Image display method described.
【請求項102】前記テクスチャ画像を選択する処理の
際に、前記面に対して1の面のみが前記ユーザが指定す
る視点に対して表向きの場合にはその面をテクスチャ画
像として選択し、2以上の面が表向きの場合には、前記
表向きの面の面積を計算し前記面積が大きい面をテクス
チャ画像として選択する、及び/又は、画像Aの輝度を
A、画像Bの輝度をB、前記画像Aと前記画像Bとの間
の視点に於いて、前記画像Bから視点迄の距離の比率を
d(0≦d≦1)とした場合、 S=A×d+B(1−d) によって算出される画像の輝度Sをテクスチャ画像とし
て選択することを特徴とする請求項101に記載の画像
表示方法。
102. In the process of selecting the texture image, if only one surface of the surface is facing the viewpoint specified by the user, the surface is selected as a texture image. When the above-mentioned surface is facing up, the area of the facing surface is calculated and the surface having the larger area is selected as a texture image, and / or the brightness of the image A is A, the brightness of the image B is B, In the viewpoint between the image A and the image B, when the ratio of the distance from the image B to the viewpoint is d (0 ≦ d ≦ 1), S = A × d + B (1-d) 102. The image display method according to claim 101, wherein a luminance S of the image to be processed is selected as a texture image.
【請求項103】前記テクスチャ画像を選択する処理の
際に、エピポールからの距離が遠い面から順に描画する
ことを特徴とする請求項101又は請求項102に記載
の画像表示方法。
103. The image display method according to claim 101, wherein, in the process of selecting the texture image, drawing is performed in order from a surface far from the epipole.
【請求項104】前記テクスチャマッピングを行う際
に、前記面の輪郭処理を更に行うことを特徴とする請求
項98から請求項103のいずれかに記載の画像表示方
法。
104. The image display method according to any one of claims 98 to 103, wherein, when performing said texture mapping, contour processing of said surface is further performed.
【請求項105】前記輪郭処理の際に、前記面の頂点座
標を平均する点を面の重心とし前記面の重心を通り面頂
点間のつながりである稜線に垂直な外向きの単位ベクト
ルである稜線オフセットベクトルを各面毎に演算し、前
記演算した稜線オフセットベクトルを平均することによ
り、頂点を含む境界稜線オフセットベクトルの平均単位
ベクトルである頂点オフセットベクトルを演算し、前記
作成した内挿画像に対して境界稜線の両端頂点とそこか
らオフセットベクトル方向に移動した頂点で構成される
オフセット面を表示し、その後、通常の面を表示するこ
とにより、輪郭処理を行うことを特徴とする請求項10
4に記載の画像表示方法。
105. In the contour processing, a point at which a vertex coordinate of the surface is averaged is defined as a center of gravity of the surface, and is an outward unit vector which passes through the center of gravity of the surface and is perpendicular to a ridge line which is a connection between surface vertices. The edge offset vector is calculated for each surface, and the calculated edge line offset vector is averaged to calculate a vertex offset vector which is an average unit vector of the boundary edge line offset vector including the vertex. 11. The contour processing is performed by displaying an offset plane composed of both end vertices of the boundary ridge line and vertices moved in the offset vector direction from the end vertices, and then displaying a normal plane.
4. The image display method according to 4.
【請求項106】前記テクスチャマッピングを行う際
に、前記面の色補正処理を更に行うことを特徴とする請
求項98から請求項105のいずれかに記載の画像表示
方法。
The image display method according to any one of claims 98 to 105, wherein a color correction process for said surface is further performed when said texture mapping is performed.
【請求項107】前記色補正処理を行う際に、画素点p
に対応するテクスチャ画像0,1の色をC(p)、C
(p)とし稜線の重みをwとすると、補正する色C
(p)を、数1で演算することにより補正する色を算出
し色を補正することを特徴とする請求項106に記載の
画像表示方法。
107. When performing the color correction processing, a pixel point p
The colors of the texture images 0 and 1 corresponding to C 0 (p), C
1 (p) and the weight of the ridgeline is w, the color C to be corrected
107. The image display method according to claim 106, wherein the color to be corrected is calculated by calculating (p) by Expression 1, and the color is corrected.
【請求項108】前記サーバに於いて3枚の前記2次元
画像を1組とした場合には、前記ユーザが希望する視点
からの最終内挿画像を自動作成する際に、前記取り込ん
だ2次元画像の組の中に於ける2枚の組合せを用いて1
次内挿画像を自動作成し、前記組の中に於ける前記2枚
の組合せ以外の2枚の組合せを用いて他の1次内挿画像
を自動作成し、前記自動作成した2枚の1次内挿画像を
用いて前記ユーザが希望する視点からの最終内挿画像を
自動作成することを特徴とする請求項94から請求項1
07のいずれかに記載の画像表示方法。
108. In the case where the server sets three two-dimensional images as one set, when automatically creating a final interpolated image from a viewpoint desired by the user, the acquired two-dimensional image is used. 1 using the combination of two images in the set of images
A next interpolated image is automatically created, another primary interpolated image is automatically created by using two combinations other than the two combinations in the set, and the two automatically created ones are used. 95. The final interpolated image from the viewpoint desired by the user is automatically created using the next interpolated image.
07. The image display method according to any one of the above aspects.
【請求項109】前記サーバに於いて3枚の前記2次元
画像を1組とした場合には、前記ユーザが希望する視点
からの内挿画像を自動作成する際に、前記取り込んだ3
枚の2次元画像を用いて回転行列を算出し、前記回転行
列を用いて平行化回転変換を行い、前記平行化回転変換
に基づいて水平化回転変換を行い、前記水平化回転変換
に基づいてスケール変換を行い、前記平行化回転変換、
水平化回転変換、スケール変換に基づいてホモグラフィ
行列を内挿し、内挿画像を自動作成することを特徴とす
る請求項94から請求項107のいずれかに記載の画像
表示方法。
In the case where the server sets three two-dimensional images as one set, when automatically creating an interpolated image from a viewpoint desired by the user, the acquired three-dimensional image is used.
A rotation matrix is calculated using the two two-dimensional images, a parallelization rotation conversion is performed using the rotation matrix, a horizontal rotation conversion is performed based on the parallelization rotation conversion, and a horizontal rotation conversion is performed based on the horizontal rotation conversion. Perform a scale conversion, the parallelization rotation conversion,
108. The image display method according to claim 94, wherein an interpolated image is automatically created by interpolating a homography matrix based on horizontal rotation conversion and scale conversion.
【請求項110】前記サーバは、前記内挿画像を作成
後、前記作成した内挿画像に対して影を作成する処理を
行うことを特徴とする請求項94から請求項109のい
ずれかに記載の画像表示方法。
110. The server according to claim 94, wherein, after creating said interpolated image, said server performs a process of creating a shadow on said created interpolated image. Image display method.
【請求項111】前記影を作成する処理は、アフィン変
換行列を用いて対象物に対する影を作成することを特徴
とする請求項110に記載の画像表示方法。
111. The image display method according to claim 110, wherein said shadow creating process creates a shadow for an object using an affine transformation matrix.
【請求項112】前記サーバは、前記内挿画像を作成
後、前記作成した内挿画像に対して反射を作成する処理
を更に行うことを特徴とする請求項94から請求項10
9のいずれかに記載の画像表示方法。
112. The server according to claim 94, wherein, after creating said interpolated image, said server further performs a process of creating a reflection on said created interpolated image.
10. The image display method according to any one of items 9.
【請求項113】前記反射を作成する処理は、アフィン
変換行列を用いて対象物に対する反射を作成することを
特徴とする請求項112に記載の画像表示方法。
113. The image display method according to claim 112, wherein said reflection creating process creates a reflection for an object using an affine transformation matrix.
【請求項114】前記サーバは、少なくとも一以上の内
挿画像、影、反射及び/又は2次元画像からその3次元
情報を復元することにより、少なくとも一以上の対象物
を同一視点で一枚以上の画像に合成する処理を更に行う
ことを特徴とする請求項94から請求項113のいずれ
かに記載の画像表示方法。
114. The server restores at least one or more objects from the same viewpoint by restoring the three-dimensional information from at least one or more interpolated images, shadows, reflections and / or two-dimensional images. The image display method according to any one of claims 94 to 113, further comprising a step of combining the image with the image.
【請求項115】前記復元として、射影復元あるいはユ
ークリッド復元を用いることを特徴とする請求項114
に記載の画像表示方法。
115. A method according to claim 114, wherein projection restoration or Euclidean restoration is used as said restoration.
The image display method described in 1.
【請求項116】前記サーバは、前記内挿画像の自動連
続表示を行う際の視点の経路と移動速度を設定する自動
連続処理を更に行うことを特徴とする請求項94から請
求項115のいずれかに記載の画像表示方法。
116. The server according to claim 94, wherein said server further performs an automatic continuous process for setting a path of a viewpoint and a moving speed when performing automatic continuous display of said interpolated image. Image display method described in Crab.
【請求項117】前記自動連続処理を行う際には、仮想
3次元空間座標系を前記サーバ上に想定し、前記仮想3
次元空間座標系原点を中心とする球の極座標と前記サー
バに於ける入力デバイスの移動量とを対応させることに
より経路を設定することを特徴とする請求項116に記
載の画像表示方法。
117. When performing the automatic continuous process, a virtual three-dimensional space coordinate system is assumed on the server,
117. The image display method according to claim 116, wherein a route is set by associating polar coordinates of a sphere centered on the origin of a dimensional space coordinate system with a movement amount of an input device in the server.
【請求項118】前記自動連続処理を行う際には、前記
入力デバイスの移動量と時間とを対応させることにより
前記設定した経路に於ける移動速度を設定することを特
徴とする請求項116又は請求項117に記載の画像表
示方法。
118. When the automatic continuous processing is performed, the moving speed of the set route is set by associating the moving amount of the input device with time. The image display method according to claim 117.
【請求項119】前記自動連続処理を行う際には、前記
2次元画像内に於ける対象物の範囲を示す情報を設定す
ることを特徴とする請求項116から請求項118のい
ずれかに記載の画像表示方法。
119. The information processing apparatus according to claim 116, wherein when the automatic continuous processing is performed, information indicating a range of an object in the two-dimensional image is set. Image display method.
【請求項120】前記サーバは、前記設定された経路と
移動速度に基づいて連続的に内挿画像を自動作成し表示
する自動連続再生処理を更に行うことを特徴とする請求
項94から請求項119のいずれかに記載の画像表示方
法。
120. The server according to claim 94, wherein said server further performs an automatic continuous reproduction process for automatically creating and displaying an interpolated image continuously based on said set route and moving speed. 119. The image display method according to any one of [119].
【請求項121】前記サーバは、前記対象物の範囲を示
す情報に基づいて拡大/縮小倍率と平行移動量とを算出
して前記対象物に対する位置、大きさの補正処理を行う
ことを特徴とする請求項94から請求項120のいずれ
かに記載の画像表示方法。
121. The server calculates the enlargement / reduction magnification and the amount of parallel movement based on the information indicating the range of the object, and performs a position and size correction process on the object. The image display method according to any one of claims 94 to 120.
【請求項122】前記補正処理を行う際には、数2によ
り前記対象物の内挿画像の範囲を算出し前記範囲内に内
挿画像を補正することを特徴とする請求項121に記載
の画像表示方法。
122. The apparatus according to claim 121, wherein, when performing said correction processing, a range of an interpolated image of said object is calculated by Expression 2 and the interpolated image is corrected within said range. Image display method.
JP2001305230A 2001-02-26 2001-10-01 Image display system Expired - Fee Related JP3876142B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001305230A JP3876142B2 (en) 2001-02-26 2001-10-01 Image display system

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2001050353 2001-02-26
JP2001-50353 2001-02-26
JP2001305230A JP3876142B2 (en) 2001-02-26 2001-10-01 Image display system

Publications (2)

Publication Number Publication Date
JP2002324249A true JP2002324249A (en) 2002-11-08
JP3876142B2 JP3876142B2 (en) 2007-01-31

Family

ID=26610096

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001305230A Expired - Fee Related JP3876142B2 (en) 2001-02-26 2001-10-01 Image display system

Country Status (1)

Country Link
JP (1) JP3876142B2 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005056295A (en) * 2003-08-07 2005-03-03 Iwane Kenkyusho:Kk 360-degree image conversion processing apparatus
JP2005107431A (en) * 2003-10-02 2005-04-21 Fujitsu Frontech Ltd Display method of display apparatus, display apparatus, and display control program of display apparatus
US7483563B2 (en) * 2003-06-27 2009-01-27 Ricoh Company, Ltd. Image processing apparatus and method
US7529401B2 (en) 2003-10-02 2009-05-05 Ricoh Company, Ltd. Image processing apparatus and image processing method
JP2009110397A (en) * 2007-10-31 2009-05-21 Nippon Telegr & Teleph Corp <Ntt> Image generating method, device, program, and recording medium
JP2009116532A (en) * 2007-11-05 2009-05-28 Nippon Telegr & Teleph Corp <Ntt> Method and apparatus for generating virtual viewpoint image
JP2010020487A (en) * 2008-07-09 2010-01-28 Nippon Hoso Kyokai <Nhk> Optional viewpoint video generation device and optional viewpoint video generation program
JP2010085240A (en) * 2008-09-30 2010-04-15 Mazda Motor Corp Image processing device for vehicle
JP2010140097A (en) * 2008-12-09 2010-06-24 Nippon Telegr & Teleph Corp <Ntt> Method of creating image, method of authenticating image, image creation device, image authentication device, program, and recording medium
JP2011070579A (en) * 2009-09-28 2011-04-07 Dainippon Printing Co Ltd Captured image display device
JP2011186868A (en) * 2010-03-10 2011-09-22 Omron Corp Common image plane determination program, common image plane determining method, and common image plane determination device
JP2012048687A (en) * 2010-08-30 2012-03-08 Rakuten Inc Image processing device, image processing method, program and information recording medium
WO2019031259A1 (en) * 2017-08-08 2019-02-14 ソニー株式会社 Image processing device and method
JP2020173726A (en) * 2019-04-12 2020-10-22 日本放送協会 Virtual viewpoint conversion device and program

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7483563B2 (en) * 2003-06-27 2009-01-27 Ricoh Company, Ltd. Image processing apparatus and method
JP2005056295A (en) * 2003-08-07 2005-03-03 Iwane Kenkyusho:Kk 360-degree image conversion processing apparatus
JP2005107431A (en) * 2003-10-02 2005-04-21 Fujitsu Frontech Ltd Display method of display apparatus, display apparatus, and display control program of display apparatus
US7529401B2 (en) 2003-10-02 2009-05-05 Ricoh Company, Ltd. Image processing apparatus and image processing method
JP2009110397A (en) * 2007-10-31 2009-05-21 Nippon Telegr & Teleph Corp <Ntt> Image generating method, device, program, and recording medium
JP2009116532A (en) * 2007-11-05 2009-05-28 Nippon Telegr & Teleph Corp <Ntt> Method and apparatus for generating virtual viewpoint image
JP2010020487A (en) * 2008-07-09 2010-01-28 Nippon Hoso Kyokai <Nhk> Optional viewpoint video generation device and optional viewpoint video generation program
JP4702569B2 (en) * 2008-09-30 2011-06-15 マツダ株式会社 Image processing apparatus for vehicle
JP2010085240A (en) * 2008-09-30 2010-04-15 Mazda Motor Corp Image processing device for vehicle
JP2010140097A (en) * 2008-12-09 2010-06-24 Nippon Telegr & Teleph Corp <Ntt> Method of creating image, method of authenticating image, image creation device, image authentication device, program, and recording medium
JP2011070579A (en) * 2009-09-28 2011-04-07 Dainippon Printing Co Ltd Captured image display device
JP2011186868A (en) * 2010-03-10 2011-09-22 Omron Corp Common image plane determination program, common image plane determining method, and common image plane determination device
JP2012048687A (en) * 2010-08-30 2012-03-08 Rakuten Inc Image processing device, image processing method, program and information recording medium
WO2019031259A1 (en) * 2017-08-08 2019-02-14 ソニー株式会社 Image processing device and method
JPWO2019031259A1 (en) * 2017-08-08 2020-09-10 ソニー株式会社 Image processing equipment and methods
JP7003994B2 (en) 2017-08-08 2022-01-21 ソニーグループ株式会社 Image processing equipment and methods
JP2020173726A (en) * 2019-04-12 2020-10-22 日本放送協会 Virtual viewpoint conversion device and program
JP7352374B2 (en) 2019-04-12 2023-09-28 日本放送協会 Virtual viewpoint conversion device and program

Also Published As

Publication number Publication date
JP3876142B2 (en) 2007-01-31

Similar Documents

Publication Publication Date Title
Szeliski Image mosaicing for tele-reality applications
Seitz et al. View morphing
Szeliski Video mosaics for virtual environments
KR101707707B1 (en) Method for fiiting virtual items using human body model and system for providing fitting service of virtual items
CN107484428B (en) Method for displaying objects
CN104246795B (en) The method and system of adaptive perspective correction for extrawide angle lens image
JPH1186033A (en) Method for automatically mapping face image into wire frame topology
JP3876142B2 (en) Image display system
JP2000067267A (en) Method and device for restoring shape and pattern in there-dimensional scene
JP3104638B2 (en) 3D image creation device
US6795090B2 (en) Method and system for panoramic image morphing
JP4468631B2 (en) Texture generation method and apparatus for 3D face model
JP3643511B2 (en) 3D image processing method, 3D modeling method, and recording medium recording 3D image processing program
JP6719596B2 (en) Image generation device and image display control device
JP2001291116A (en) Device and method for generating three-dimensional image and program providing medium
JP3309841B2 (en) Synthetic moving image generating apparatus and synthetic moving image generating method
JPH10208074A (en) Picture generation method
KR100447778B1 (en) Apparatus for Embodying Stereo/Multiview Realistic Mixed Reality using Pose Estimation and Method Thereof
Shimamura et al. Construction and presentation of a virtual environment using panoramic stereo images of a real scene and computer graphics models
Pollard et al. View synthesis by edge transfer with application to the generation of immersive video objects
US6633291B1 (en) Method and apparatus for displaying an image
WO2002069277A1 (en) Image display system and method
JP3648099B2 (en) Image composition display method and apparatus, and recording medium on which image composition display program is recorded
JP2002312810A (en) Device and method for generating composite moving image
JP2000348196A (en) Three-dimensional picture generation device and environment map generation method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051018

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051201

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20051201

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051226

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20051226

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060131

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20060131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060314

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060508

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20060508

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20060601

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060815

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20060904

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060904

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20061024

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20061030

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees