JP3392088B2 - Image storage method, image drawing method, image storage device, image processing device, image download method, computer, and storage medium - Google Patents

Image storage method, image drawing method, image storage device, image processing device, image download method, computer, and storage medium

Info

Publication number
JP3392088B2
JP3392088B2 JP35908699A JP35908699A JP3392088B2 JP 3392088 B2 JP3392088 B2 JP 3392088B2 JP 35908699 A JP35908699 A JP 35908699A JP 35908699 A JP35908699 A JP 35908699A JP 3392088 B2 JP3392088 B2 JP 3392088B2
Authority
JP
Japan
Prior art keywords
image
data
space
resolution
hierarchical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP35908699A
Other languages
Japanese (ja)
Other versions
JP2001175888A (en
Inventor
昭宏 片山
幸雄 坂川
大輔 小竹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP35908699A priority Critical patent/JP3392088B2/en
Priority to AT00118747T priority patent/ATE353460T1/en
Priority to EP00118747A priority patent/EP1081650B1/en
Priority to DE60033249T priority patent/DE60033249D1/en
Priority to US09/653,271 priority patent/US6774898B1/en
Publication of JP2001175888A publication Critical patent/JP2001175888A/en
Application granted granted Critical
Publication of JP3392088B2 publication Critical patent/JP3392088B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Processing Or Creating Images (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、実写画像データに
基づいて生成された空間データから仮想画像を蓄積する
方法、蓄積された空間データに基づいて仮想空間を描画
する方法、更にはこれらの装置に関し、特に、上記空間
データのプログレッシブな蓄積、更には描画に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method of accumulating a virtual image from spatial data generated based on real image data, a method of drawing a virtual space based on the accumulated spatial data, and these devices. In particular, the present invention relates to progressive accumulation of the spatial data, and further to drawing.

【0002】[0002]

【従来の技術】仮想空間を、3次元幾何形状を基に記述
するのではなく、実写画像を基に記述表現する手法が数
多く提案されている。これらはImage Based Rendering
(以下、IBRと略す)と呼ばれており、実写画像を基に
するが故に、3次元幾何形状を基にする手法からは得ら
れない写実性の高い仮想空間を表現できる点に特徴があ
る。 IBRの一手法である光線空間理論に基づいた仮想
空間の記述に関する試みが提案されている。例えば、電
子情報通信学会論文誌「CGモデルと光線空間データとの
融合による仮想環境の実現」(D-11, Vol. J80-D-11 No.
11, pp3048-3057, 1997年11月)、または、「3次元統
合画像通信を目指したホログラムと光線空間の相互変
換」(3D Image Conference)、更には、特開平10−9
7642号などを参照。
2. Description of the Related Art Many techniques have been proposed for describing and describing a virtual space based on a photographed image, rather than based on a three-dimensional geometric shape. These are Image Based Rendering
It is called (hereinafter abbreviated as IBR), and is characterized in that it can represent a highly realistic virtual space that cannot be obtained from a method based on a three-dimensional geometric shape because it is based on a real image. . An attempt to describe a virtual space based on the ray space theory, which is a method of IBR, has been proposed. For example, IEICE Transactions "Realization of Virtual Environment by Fusion of CG Model and Ray Space Data" (D-11, Vol. J80-D-11 No.
11, pp3048-3057, November 1997), or "Mutual conversion between hologram and ray space for three-dimensional integrated image communication" (3D Image Conference), and further Japanese Patent Laid- Open No. 10-9.
See No. 7642.

【0003】光線空間理論について説明する。f 第1図に示すように実空間に座標系O-X-Y-Zを設置す
る。Z軸に垂直な基準面P(Z=z)を通過する光線を、
光線がPを横切る位置(x,y)と、光線の方向を示す
変数θ、φで表すことにする。すなわち、1本の光線は
(x, y, z,θ,φ)の5つの変数により一意に定められ
る。この光線の光強度を表す関数をfと定義すると、こ
の空間中の光線群データはf(x, y, z,θ,φ)で表現する
ことが出来る。この5次元の空間を「光線空間」と呼
ぶ。
The ray space theory will be described. f As shown in Fig. 1, the coordinate system OXYZ is installed in the real space. A ray passing through the reference plane P (Z = z) perpendicular to the Z axis is
A position (x, y) where the ray crosses P and variables θ and φ indicating the direction of the ray are used. That is, one ray
It is uniquely defined by the five variables (x, y, z, θ, φ). If the function expressing the light intensity of this ray is defined as f, the ray group data in this space can be expressed by f (x, y, z, θ, φ). This five-dimensional space is called "ray space".

【0004】ここで、基準面Pをz=0に設定し、光線の
垂直方向の視差情報、すなわちφ方向の自由度を省略す
ると、光線の自由度を(x,θ)の2次元に縮退させること
ができる。このx-θ2次元空間は、光線空間の部分空間
となる。そして、実空間中の点(X,Z)を通る光線
(第2図)は、u = tanθとおくと、x−u空間上で
は、第3図に示すように、 [数9]X = x + u.Z
Here, if the reference plane P is set to z = 0 and the parallax information in the vertical direction of the light beam, that is, the degree of freedom in the φ direction is omitted, the degree of freedom of the light beam is reduced to two dimensions (x, θ). Can be made. This x-θ two-dimensional space is a subspace of the ray space. Then, if a ray (Fig. 2) passing through a point (X, Z) in the real space is set as u = tan θ, as shown in Fig. 3 in x-u space, [Equation 9] X = x + uZ

【0005】という直線上に写像される。カメラによる
撮影とは、カメラのレンズ焦点を通過する光線を撮像面
で受光し、その明るさや色を画像化する操作に相当す
る。言い換えると、焦点位置という実空間中の1点を通
る光線群を画像として画素数分獲得していることにな
る。ここでは、φ方向の自由度を省略し、X−Z平面内
のみでの光線の振舞いを考えているので、画像中のY軸
との直交面と交わる線分上の画素のみを考えることにな
る。このように、画像の撮影によって1点を通る光線を
集めることができ、1回の撮影でx−u空間の1本の線
分上のデータを獲得することができる。
Is mapped on a straight line. Shooting with a camera corresponds to an operation of receiving a light beam that passes through the lens focal point of the camera on an imaging surface and imaging its brightness and color. In other words, a group of light rays passing through one point in the real space, which is the focus position, is acquired as an image for the number of pixels. Here, since the degree of freedom in the φ direction is omitted and the behavior of light rays is considered only in the XZ plane, only pixels on a line segment that intersects the plane orthogonal to the Y axis in the image are considered. Become. In this way, light rays passing through one point can be collected by photographing an image, and data on one line segment in the x-u space can be acquired by one photographing.

【0006】この撮影を視点位置(本明細書では、特に
断らない限りは、視点位置は、視点の位置と視線方向の
双方を含むものとする)を変え多数行うと、多数の点を
通る光線群を獲得することができる。第4図のようにN
台のカメラを用いて実空間を撮影すると、n番目(n=
1,2,...,N)のカメラCnの焦点位置(Xn, Zn)に
対応して、第5図のごとく、
[0006] If this photographing is carried out a large number of times by changing the viewpoint position (in this specification, unless otherwise specified, the viewpoint position includes both the viewpoint position and the line-of-sight direction), a ray group passing through a large number of points is obtained. Can be earned. N as shown in FIG.
When the real space is photographed using two cameras, the nth (n =
1, 2, ..., N) corresponding to the focal positions (X n , Z n ) of the cameras C n , as shown in FIG.

【0007】[数10]x + Znu = Xn の直線上のデータを入力することができる。このよう
に、十分に多数の視点からの撮影を行うことによって、
x−u空間を密にデータで埋めていくことができる。
[Equation 10] x + Znu = Xn You can enter the data on the straight line. like this
In addition, by shooting from a sufficient number of viewpoints,
The xu space can be densely filled with data.

【0008】逆に、x−u空間のデータ(第6図)か
ら、新しい任意の視点位置からの観察画像を生成するこ
とができる(第7図)。この図に示すように、目の形で
表した新しい視点位置E(X,Z)からの観察画像は、
x−u空間上の数式1の直線上のデータをx−u空間か
ら読み出すことによって生成できる。
On the contrary, it is possible to generate an observation image from a new arbitrary viewpoint position from the data in xu space (FIG. 6) (FIG. 7). As shown in this figure, the observation image from the new viewpoint position E (X, Z) expressed in the form of eyes is
It can be generated by reading the data on the straight line of Expression 1 on the xu space from the xu space.

【0009】[0009]

【発明が解決しようとする問題点】しかしながら、上記
従来例では、実写画像のすべての画素を光線群に変換す
るための演算を行っていた。すなわち、E枚の実写画像
があり、それぞれの画素数がm×n個とすると、E×m×n
回の計算を行って光線群に変換するため、非常に計算量
が多くなる。特に、入力画像の解像度を保つように光線
群を光線空間に射影し、光線空間データを離散化する
と、離散化されたデータ量も膨大になる。
However, in the above-mentioned conventional example, the calculation for converting all the pixels of the photographed image into the light ray group is performed. That is, if there are E actual images and the number of pixels is m × n, then E × m × n
Since the calculation is performed once and converted into the ray group, the amount of calculation becomes very large. In particular, when a ray group is projected onto a ray space so as to maintain the resolution of an input image and the ray space data is discretized, the amount of discretized data becomes enormous.

【0010】本発明の目的は、対象物体の光線空間デー
タをプログレッシブ表示可能となるようにするための光
線空間理論データの蓄積方法および装置を提案する。
It is an object of the present invention to propose a method and apparatus for accumulating theoretical light space data so that the light space data of a target object can be progressively displayed.

【0011】本発明の他の目的は、プログレッシブ蓄積
された空間データを表示する方法および装置を提案す
る。
Another object of the invention proposes a method and apparatus for displaying progressively accumulated spatial data.

【0012】[0012]

【課題を解決するための手段】上記課題を達成するため
の、実写画像の画像データから、この画像空間と異なる
所定の空間に関して構成された空間データを蓄積する画
像蓄積方法は、
In order to achieve the above object, an image storage method for storing spatial data configured for a predetermined space different from this image space from image data of a real image is

【0013】前記空間データ中の実画像データを解像度
に応じて階層化して分割する第1の階層分割工程と、
A first hierarchical division step of dividing the actual image data in the spatial data into hierarchies according to the resolution;

【0014】前記実画像空間と前記所定の空間との対応
関係を表すマップを解像度に応じて階層化して分割する
第2の階層分割工程であって、夫々の階層での解像度が
前記第1分割工程における各階層の解像度に対応するよ
うに設定されている第2の階層分割工程と、
A second hierarchical division step of hierarchically dividing a map representing the correspondence between the actual image space and the predetermined space according to the resolution, wherein the resolution in each hierarchical layer is the first division. A second layer division step set to correspond to the resolution of each layer in the step,

【0015】得られた階層化画像データと階層化マップ
データとを記憶装置に記憶する工程とを具備することを
特徴とする。
It is characterized by comprising the step of storing the obtained layered image data and layered map data in a storage device.

【0016】本発明の好適な一態様である請求項2に拠
れば、前記空間データは光線空間データである。
According to claim 2 which is a preferable aspect of the present invention, the spatial data is ray space data.

【0017】本発明の好適な一態様である請求項3に拠
れば、階層と解像度は昇順或いは降順に設定されてい
る。
According to claim 3 which is a preferable aspect of the present invention, the hierarchy and the resolution are set in ascending order or descending order.

【0018】本発明の好適な一態様である請求項4に拠
れば、前記階層分割工程はデータの間引き処理を行う。
According to claim 4 which is a preferred aspect of the present invention, the layer dividing step performs data thinning processing.

【0019】本発明の好適な一態様である請求項5に拠
れば、前記第2の階層分割工程は、階層分割数に応じて
設定された大きさのブロックに対応して前記マップデー
タを複数のブロックに分割するブロック分割工程を含
む。
According to claim 5 which is a preferable aspect of the present invention, in the second layer dividing step, a plurality of pieces of the map data are provided corresponding to blocks having a size set according to the number of layer divisions. Block division step of dividing into blocks.

【0020】空間データのマップはアドレス情報を含
む。マップデータが階層化されていく過程で、このアド
レス情報も適正に変換されなくてはならない。そこで、
請求項6の方法に拠れば、前記第2の階層分割工程は、
階層の分割数をp、処理対象の階層をi、第i階層のマ
ップデータの記憶アドレスをnjとすると、変換後のアド
レスnIとして、
The map of spatial data contains address information. This address information must be properly converted as the map data is layered. Therefore,
According to the method of claim 6, the second layer division step comprises:
If the number of layers is p, the layer to be processed is i, and the storage address of the map data of the i-th layer is n j , the converted address n I

【0021】[数11] [Equation 11]

【0022】を用いることを特徴とする。本発明の好適
な一態様である請求項7に拠れば、前記ブロック分割工
程は、階層の分割数をpとすると、ブロックの大きさを
N×Nとして、
Is used. According to claim 7 which is a preferable aspect of the present invention, in the block dividing step, when the number of layers is p, the block size is N × N,

【0023】[数12] [Equation 12]

【0024】に設定することを特徴とする。この条件を
満足させることにより、階層化処理が単純化する。請求
項1乃至7のいずれかに記載の方法で蓄積された階層化
空間データは本来的には描画時点で、プログレッシブ表
示の点で威力を発揮する。そこで、本発明の好適な一態
様である請求項8の、仮想空間に描画する画像描画方法
は、解像度のより低い階層の階層化空間データから順に
読み取る工程と、読みとった順に仮想画像を描画する描
画工程を具備する。
It is characterized in that it is set to. By satisfying this condition, the layering process is simplified. Hierarchical space data accumulated by the method according to any one of claims 1 to 7 is essentially effective in progressive display at the time of drawing. Therefore, the image drawing method for drawing in the virtual space according to claim 8 which is a preferable aspect of the present invention includes a step of sequentially reading from the hierarchical space data of a layer having a lower resolution and a virtual image is drawn in the order of reading. A drawing process is provided.

【0025】本発明の好適な一態様である請求項9に拠
れば、ユーザの視点位置を検出する検出工程を有し、前
記描画工程は、検出された視点位置に基づいた仮想画像
を描画する。
According to claim 9 which is a preferable aspect of the present invention, there is a detection step of detecting the viewpoint position of the user, and the drawing step draws a virtual image based on the detected viewpoint position. .

【0026】仮想画像の描画を更に高速にするために
は、描画対象を限定すればよい。そこで、請求項10の
方法に拠れば、前記読み取り工程は、検出された視点位
置に近い空間の階層化空間データを読み取る。
In order to further speed up the drawing of the virtual image, the drawing target may be limited. Therefore, according to the method of claim 10, the reading step reads the hierarchical space data of the space close to the detected viewpoint position.

【0027】上記課題は、上述の蓄積方法または描画方
法をコンピュータ上で実現するプログラムを記憶する記
憶媒体を提供することによっても達成される。
The above object can also be achieved by providing a storage medium for storing a program for realizing the above-mentioned storage method or drawing method on a computer.

【0028】本発明の好適な一態様である請求項12に
拠れば、本発明は記憶媒体を搭載するコンピュータであ
る。
According to claim 12 which is a preferred aspect of the present invention, the present invention is a computer having a storage medium.

【0029】また、更に、上記課題は、画像蓄積装置ま
たは画像処理装置によっても達成される。
Further, the above object can also be achieved by an image storage device or an image processing device.

【0030】上記課題は、実写画像の画像データから、
この画像空間と異なる所定の空間に関して構成された空
間データをダウンロードする画像のダウンロード方法に
よっても達成される。即ち、この方法は、
The above-mentioned problems are
This is also achieved by an image downloading method of downloading spatial data configured for a predetermined space different from the image space. That is, this method

【0031】前記空間データ中の実画像データを解像度
に応じて階層化して分割する第1の階層分割工程と、
A first hierarchical dividing step of dividing the real image data in the spatial data into hierarchies according to the resolution;

【0032】得られた階層化画像データと前記実画像空
間と前記所定の空間との対応関係を表すマップとを外部
にダウンロードするダウンロード工程と、前記マップを
解像度に応じて階層化して分割する第2の階層分割工程
を具備し、
Dividing hierarchized according the downloading process, the pre-Symbol map resolution for download [0032] The resulting layered image data wherein the real image space and a map representing the correspondence relationship between the predetermined space to the outside Second hierarchical division process
Was immediately Bei,

【0033】前記ダウンロード工程は、得られた階層化
画像データと階層化マップデータとをダウンロードする
ものであることを特徴とする。
The download step is characterized in that the obtained layered image data and layered map data are downloaded.

【0034】[0034]

【0035】[0035]

【0036】[0036]

【0037】[0037]

【0038】[0038]

【0039】上記課題はまた、以下のような画像処理方
法によっても達成される。即ち、この方法は、入力画像
データを、該画像データの画像空間座標と異なる所定の
空間座標に関する空間データに変換する工程と、前記空
間データを解像度に応じて階層化して分割する第1の階
層分割工程と、前記画像空間座標における画像データと
前記所定の空間における空間データとの対応関係を表す
マップを生成する工程と、前記マップを解像度に応じて
階層化して分割する第2の階層分割工程と、得られた階
層化空間データと階層化マップデータとを記憶装置に記
憶する工程と、前記階層化空間データと前記階層化マッ
プデータとから画像を生成する画像生成工程と、を具備
する。
The above object can also be achieved by the following image processing method. That is, this method includes a step of converting input image data into spatial data relating to predetermined spatial coordinates different from the image spatial coordinates of the image data, and a first layer for hierarchically dividing the spatial data according to the resolution. A dividing step, a step of generating a map showing a correspondence relationship between the image data in the image space coordinates and the spatial data in the predetermined space, and a second hierarchical dividing step of hierarchically dividing the map according to the resolution And a step of storing the obtained layered spatial data and the layered map data in a storage device, and an image generation step of generating an image from the layered spatial data and the layered map data.

【0040】本発明の好適な一態様である請求項16
拠れば、前記第2の階層分割工程は、夫々の階層での解
像度が前記第1分割工程における各階層の解像度に対応
するように設定されている。
According to claim 16 which is a preferred aspect of the present invention, in the second layer dividing step, the resolution in each layer corresponds to the resolution of each layer in the first dividing step. It is set.

【0041】本発明の好適な一態様である請求項17
拠れば、階層と解像度は昇順或いは降順に設定されてい
る。
According to claim 17 which is a preferable aspect of the present invention, the hierarchy and the resolution are set in ascending order or descending order.

【0042】[0042]

【0043】本発明の好適な一態様である請求項18
拠れば、前記第2の階層分割工程は、階層分割数に応じ
て設定された大きさのブロックに対応して前記マップデ
ータを複数のブロックに分割するブロック分割工程を含
む。
According to claim 18 which is a preferred aspect of the present invention, in the second layer division step, a plurality of pieces of the map data are provided in correspondence with blocks having a size set according to the number of layer divisions. Block division step of dividing into blocks.

【0044】[0044]

【0045】[0045]

【0046】本発明の好適な一態様である請求項19
拠れば、解像度のより低い階層の階層化空間データから
順に読み取る工程と、読みとった順に仮想画像を描画す
る描画工程を具備する。
According to a nineteenth aspect of the present invention, which is a preferred aspect of the present invention, the method further comprises a step of sequentially reading from the hierarchical space data of a hierarchy having a lower resolution, and a drawing step of drawing a virtual image in the order of reading.

【0047】本発明の好適な一態様である請求項20
拠れば、ユーザの視点位置を検出する検出工程を有し、
前記描画工程は、検出された視点位置に基づいた仮想画
像を描画する。
According to a twentieth aspect which is a preferred aspect of the present invention, there is provided a detection step of detecting the viewpoint position of the user,
The drawing step draws a virtual image based on the detected viewpoint position.

【0048】仮想画像の描画を更に高速にするために
は、描画対象を限定すればよい。そこで、本発明の好適
な一態様である請求項21に拠れば、前記読み取り工程
は、検出された視点位置に近い空間の階層化空間データ
を読み取る。
In order to further speed up the drawing of the virtual image, the drawing target may be limited. Therefore, according to claim 21 , which is a preferable aspect of the present invention, the reading step reads hierarchical space data of a space close to the detected viewpoint position.

【0049】上記課題は、上述の処理方法をコンピュー
タ上で実現するプログラムを記憶する記憶媒体を提供す
ることによっても達成される。
The above object can also be achieved by providing a storage medium for storing a program for realizing the above processing method on a computer.

【0050】更に、上記課題は、以下のような画像処理
装置によっても達成される。すなわち、この装置は、入
力画像データを、該画像データの画像空間座標と異なる
所定の空間座標に関する空間データに変換する手段と、
前記空間データを解像度に応じて階層化して分割する第
1の階層分割手段と、前記画像空間座標における画像デ
ータと前記所定の空間における空間データとの対応関係
を表すマップを生成する手段と、前記マップを解像度に
応じて階層化して分割する第2の階層分割手段と、得ら
れた階層化空間データと階層化マップデータとを記憶装
置に記憶する手段と、前記階層化空間データと前記階層
化マップデータとから画像を生成する画像生成手段と、
を具備する。
Further, the above object can be achieved by the following image processing apparatus. That is, this device comprises means for converting the input image data into spatial data relating to predetermined spatial coordinates different from the image spatial coordinates of the image data,
First layer dividing means for hierarchically dividing the spatial data according to resolution, and means for generating a map showing a correspondence relationship between the image data in the image space coordinates and the spatial data in the predetermined space; Second hierarchical division means for hierarchically dividing the map according to the resolution, means for storing the obtained hierarchical spatial data and hierarchical map data in a storage device, the hierarchical spatial data and the hierarchical Image generating means for generating an image from the map data,
It is equipped with.

【0051】[0051]

【0052】[0052]

【0053】[0053]

【0054】[0054]

【0055】[0055]

【0056】[0056]

【0057】[0057]

【0058】[0058]

【0059】[0059]

【0060】[0060]

【発明の実施の形態】以下添付図面を参照しながら本発
明の好適な実施形態を説明する。この実施形態は、複数
の視点位置で撮像された実写画像群データを用いて、ユ
ーザにウオークスルー環境を提供するアプリケーション
に適用したものである。第8図に、複数の視点位置で撮
像された実写画像群から任意の視点位置における画像を
生成・表示する装置の実施形態の概略図を示す。
Preferred embodiments of the present invention will be described below with reference to the accompanying drawings. This embodiment is applied to an application that provides a walk-through environment to a user by using real shot image group data picked up at a plurality of viewpoint positions. FIG. 8 shows a schematic diagram of an embodiment of an apparatus for generating and displaying an image at an arbitrary viewpoint position from a group of photographed images taken at a plurality of viewpoint positions.

【0061】図中、101は、実写画像群を撮像するた
めの画像入力装置である。画像入力装置は、1台のカメ
ラをずらすことによって多数枚の画像を撮像しても、複
数台のカメラをセットすることで多数枚の画像を撮像し
てもよい。また、画像入力装置101の代わりに、予め
撮影した多数枚の画像を格納したデータベースを用いて
もよい。102は、RAM等の高速メモリ103に記憶さ
れているプログラムに従って処理を行うCPUである。1
03は記憶装置であり、該実写画像群の画像データや多
視点画像から生成された光線空間データ、CPUの処理手
順を示したウオークスルーアプリケーションプログラム
等を記憶し、また、その一部をワークメモリとして使用
する。104は観察者の視点位置・視線方向を検出する
ための視点・視線検出装置である。視点・視線検出装置
には、キーボードやマウスなどの入力デバイスを用いる
か、またはHMD(ヘッドマウントディスプレイ)などセ
ンサの付いているデバイスなどを用いることができる。
105は、観察者の視点位置・視線方向にしたがって生
成された画像を表示するための画像出力装置である。画
像出力装置には、CRTや液晶などの一般的な2次元ディ
スプレイを用いても、レンティキュラやHMDなどの3次
元ディスプレイを用いてもよい。なお、プログラムは、
FD(フロッピー(登録商標)ディスク)・CD-ROM・磁気
テープ等の記憶媒体に記録しておき、記憶媒体読み取り
装置106から読みだして記憶装置103に記憶させて
もよい。
In the figure, reference numeral 101 denotes an image input device for picking up a photographed image group. The image input device may capture a large number of images by shifting one camera, or may capture a large number of images by setting a plurality of cameras. Further, instead of the image input device 101, a database that stores a large number of images captured in advance may be used. A CPU 102 performs processing according to a program stored in a high speed memory 103 such as a RAM. 1
Reference numeral 03 denotes a storage device, which stores image data of the photographed image group, ray space data generated from multi-viewpoint images, a walk-through application program showing the processing procedure of the CPU, and a part of the work memory. To use as. Reference numeral 104 denotes a viewpoint / line-of-sight detection device for detecting the viewpoint position / line-of-sight direction of the observer. As the viewpoint / gaze detecting device, an input device such as a keyboard or a mouse can be used, or a device with a sensor such as an HMD (head mounted display) can be used.
Reference numeral 105 denotes an image output device for displaying an image generated in accordance with the viewpoint position / line-of-sight direction of the observer. As the image output device, a general two-dimensional display such as CRT or liquid crystal may be used, or a three-dimensional display such as lenticular or HMD may be used. The program is
It may be recorded in a storage medium such as an FD (floppy (registered trademark) disk), a CD-ROM, or a magnetic tape, read from the storage medium reading device 106, and stored in the storage device 103.

【0062】200は光線空間(以下、光線空間を「R
S」と略称する)データのデータベースシステムであ
り、後述するように、CPU102が構成するホスト10
00に対してファイルサーバとして機能する。
200 is a ray space (hereinafter, ray space is referred to as "R
"S" for short) is a data database system, and the host 10 configured by the CPU 102, as will be described later.
00 to function as a file server.

【0063】本実施形態の特徴は、第9図に示すよう
に、ウオークスルーを提供するアプリケーション・プロ
グラムが仮想空間を描画するための光線空間データを必
要とするときは、光線空間データをデータベース200
からそのままRAM103にダウンロードするのではな
く、光線空間データを階層化(本実施形態では、便宜
上、4つの階層に分割)し、階層化光線空間データを1
階層分ずつダウンロードするものである。アプリケーシ
ョン・プログラムはダウンロードした階層化光線空間デ
ータを合成して復元し、その復元データに基づいて仮想
画像を描画して表示装置108に表示する。
The feature of this embodiment is that, as shown in FIG. 9, when the application program for providing walkthrough requires the ray space data for drawing the virtual space, the ray space data is stored in the database 200.
Instead of directly downloading from the RAM 103 to the RAM 103, the ray space data is hierarchized (in this embodiment, it is divided into four hierarchies for convenience), and the hierarchized ray space data is set to 1
It downloads each layer. The application program synthesizes and restores the downloaded layered ray space data, draws a virtual image based on the restored data, and displays it on the display device 108.

【0064】RAM103にはダウンロードの進行状況を
管理する管理テーブルが設けられ、その詳細は第27図
に関連して説明されるであろう。
The RAM 103 is provided with a management table for managing the progress of download, the details of which will be described with reference to FIG.

【0065】後述するように、光線空間データ(RSデー
タ)は、画像データとマップデータ(xu空間とxy空
間との対応関係を示すマップ)との対から構成される。
従って、画像データとマップデータとから構成される光
線空間データをデータベース200においてどのように
階層化するか、また、ホスト100において、階層化さ
れた光線空間データをどのようにして復元するかが重要
である。
As will be described later, the ray space data (RS data) is composed of a pair of image data and map data (a map showing the correspondence between the xu space and the xy space).
Therefore, it is important how the ray space data composed of image data and map data is hierarchized in the database 200, and how the hierarchized ray space data is restored in the host 100. Is.

【0066】第10図は、実施形態に対して適用される
階層化処理の概念を示すもので、この図では、説明の便
宜上、光線空間データのうちの画像データに対する階層
化処理を示した。マップデータの階層化については第1
7図乃至第20図によって説明される。第10図の例で
は、一例として、2×2画素の原画像In(同図で最
下位階層の画像)に対して、さらにn個の階層の画像で
あって、夫々の画素数が2n-1×2n-1 , 2n-2×2n-2…20×
20 である画像In-1, In-2 〜 I0が生成されている。第
10図の例では、ある階層iの画像データは、階層i+1
の画像の対応する2×2画素の範囲内の画素値の例えば
平均値によって与えられる。
FIG. 10 shows the concept of the layering process applied to the embodiment. In FIG. 10, the layering process for the image data of the ray space data is shown for convenience of explanation. First about map data hierarchization
This will be explained with reference to FIGS. 7 to 20. In the example of FIG. 10, as an example, with respect to the original image I n of 2 n × 2 n pixels (the image of the lowest hierarchy in the figure), the image of n layers is further added, and the number of pixels of each is Is 2 n-1 × 2 n-1 , 2 n-2 × 2 n-2 … 2 0 ×
2 images I n-1, I n- 2 ~ I 0 is 0 is generated. In the example of FIG. 10, the image data of a certain layer i is the layer i + 1.
Given by, for example, an average value of the pixel values in the corresponding 2 × 2 pixel range.

【0067】次に、第11図のフローチャートを用い
て、撮影された多視点画像と光線空間データとの対応関
係を示すマップデータを作成する制御手順を説明する。
この制御手順は、第9図では、画像入力装置101から
データベース200への画像のアップロードに相当す
る。尚、第11図の制御手順は、DBシステム200が、
画像入力装置101を制御しながら行ってもよいし、或
いは、画像入力装置101から一旦読み取った画像デー
タを不図示のメモリに記憶し、その画像データに対して
マップデータ作成処理を施すようにしてもよい。いずれ
にしても、第11の制御手順はその性質上オフライン処
理(バッチ処理)に適している。
Next, the control procedure for creating the map data showing the correspondence between the photographed multi-view images and the ray space data will be described with reference to the flowchart of FIG.
This control procedure corresponds to the uploading of an image from the image input device 101 to the database 200 in FIG. In addition, the control procedure of FIG.
The process may be performed while controlling the image input device 101, or the image data once read from the image input device 101 may be stored in a memory (not shown) and the map data creation process may be performed on the image data. Good. In any case, the 11th control procedure is suitable for off-line processing (batch processing) by its nature.

【0068】第11図のステップS102では、画像入
力装置101を用いて複数の視点位置からE枚の画像を
撮像し、記憶装置103に保存する。ステップS104
では、記憶装置103に保存された各画像データ中の先
頭1ライン分のデータを光線群に分解し、前述の[数
9]または[数10]に従って光線空間(x, u)に射影す
る。この射影を第12図を用いて説明する。
In step S 102 of FIG. 11, E images are picked up from a plurality of viewpoint positions by using the image input device 101 and stored in the storage device 103. Step S104
Then, the data for the first one line in each image data stored in the storage device 103 is decomposed into a ray group, and projected into the ray space (x, u) according to the above [Equation 9] or [Equation 10]. This projection will be described with reference to FIG.

【0069】第12図において、αはZ軸に対する光軸
のずれ角であり、レンズ中心の位置Q(x、z)(これ
を視点位置とする)にカメラを置いて画像を撮影してい
る状況を示したものである。図中、301は視点位置Q
(x、z)、302は撮像面、303は撮像面中の任意
ラインのj番目の画素、αはユーザ視点(即ち、仮想カ
メラ視点)からのカメラ光軸がZ軸となす角、θは視点
位置301とj番目の画素303を通過する光線がZ軸
となす角度、ωはカメラの画角、304はj番目の画素
を通過する光線がX軸と交差する点を表している。撮像
面中の各ラインの画素数をmとすれば、光線方向を示す
角度データθは、以下の式を解くことにより求めること
ができる。
In FIG. 12, α is the deviation angle of the optical axis with respect to the Z axis, and the camera is placed at the lens center position Q (x 0 , z 0 ) (this is the viewpoint position) to take an image. It shows the situation. In the figure, 301 is the viewpoint position Q.
(x 0 , z 0 ), 302 is the imaging plane, 303 is the j-th pixel of an arbitrary line in the imaging plane, α is the angle formed by the camera optical axis from the user viewpoint (that is, the virtual camera viewpoint) with the Z axis, θ is the angle formed by the ray passing through the viewpoint position 301 and the jth pixel 303 with the Z axis, ω is the angle of view of the camera, and 304 is the point where the ray passing through the jth pixel intersects the X axis. . If the number of pixels of each line on the imaging surface is m, the angle data θ indicating the light ray direction can be obtained by solving the following equation.

【0070】[数17] [Equation 17]

【0071】ステップS104での、画像データをRS空
間に変換するという作業は、[数17]を、E枚の画像
のデータ中の先頭1ライン分のデータ(即ち、E×m画
素分のデータ)に適用して、E×m個の光線方向θ
i(i=1〜E.m)を求めることに他ならない。ステップ
S106では、光線方向θi(i=1〜E.m)を有するE
×m個の光線群を[数9][数10]に従って光線空間
に射影する。光線空間に記録されるデータとは、k番目
の画像(k番目の視点位置にて撮像された画像)中の、
主走査方向でh番目の画素から生成された光線が光線空
間中の(x1、u1)の位置に射影されたとすると、光線空間
中のこの位置(x1、u1)に、
The operation of converting the image data into the RS space in step S104 is performed by using [Equation 17] as the data for the first one line in the data of the E images (that is, the data for E × m pixels). ) To E × m ray directions θ
It is nothing but the calculation of i (i = 1 to Em). In step S106, E having the ray direction θ i (i = 1 to Em)
The xm light ray groups are projected in the light ray space according to [Equation 9] and [Equation 10]. The data recorded in the ray space means that in the k-th image (the image captured at the k-th viewpoint position),
When light generated from h-th pixel in the main scanning direction is projected at the position of (x 1, u 1) in the light space, in this position in the light space (x 1, u 1),

【0072】(k、h)(ここで、k:画像番号、h:主
走査方向画素位置) という値が記録されることによって表現されるデータで
ある。ここで、各画像データ中の先頭1ライン分のデー
タのみを光線空間に射影する理由であるが、[数9]
[数10]から分かるように、これらの式には、画像の
高さ(y)方向の項が入っていない。そのため、2ライ
ン目以降のデータも先頭ラインのデータと同じ(光線空
間中の)位置に射影される。従って、各画像中の先頭ラ
インのみを計算しておけば、その他のデータは計算しな
くても自動的に光線空間中のどの位置に射影されるかを
求めることができる。このように先頭ラインのみを計算
することにより、高速化を図ることができる。
The data is expressed by recording the values (k, h) (where, k: image number, h: pixel position in the main scanning direction). Here, the reason for projecting only the data for the first one line of each image data in the ray space is as follows.
As can be seen from [Equation 10], these expressions do not include a term in the height (y) direction of the image. Therefore, the data of the second and subsequent lines are also projected at the same position (in the ray space) as the data of the first line. Therefore, if only the leading line in each image is calculated, it is possible to automatically determine to which position in the ray space the image is projected without calculating other data. By calculating only the first line in this way, it is possible to increase the speed.

【0073】さらにステップS108において、射影さ
れた光線空間データを、入力画像と同等の解像度を保っ
た状態になるようにx軸、u軸を量子化する。このよう
に量子化することで、無意味なデータの生成を抑制する
ことができる。
Further, in step S108, the projected ray space data is quantized on the x-axis and u-axis so as to maintain the same resolution as the input image. By quantizing in this way, meaningless data generation can be suppressed.

【0074】第13図に、ステップ108までの処理が
終了した時点での量子化された光線空間データの一例を
示す。説明を簡単にするために、この例では、x軸、u
軸が量子化された結果、11×5個の要素になってい
る。そして、それぞれの要素には、それぞれの光線に対
応する
FIG. 13 shows an example of quantized ray space data at the time when the processing up to step 108 is completed. For simplicity of explanation, in this example, the x-axis, u
As a result of quantized axes, there are 11 × 5 elements. And each element corresponds to each ray

【0075】〔画像番号、画素番号〕=[k,h] 尚、実画像空間内の集合要素と光線空間内の集合要素は
一対一に対応するものの、量子化のために、値が未定の
要素(第13図中の空白部)が存在する。このため、ス
テップS108では、量子化に併せて、補間処理を、即
ち、値が未定な要素の値を推定する。ここでは推定方法
として、nearest neighbor法を採用するが、これに限ら
ず、どんな手法を用いて推定しても良い。推定した値
は、〔画像番号、画素番号〕の組として対応する要素に
記録する。このような形式で光線空間データを保持して
おくと、後で述べる任意視点画像生成がテーブル(対応
関係表)を参照する形で行えるので、高速処理が可能と
なる。
[Image number, pixel number] = [k, h] Although the set elements in the actual image space and the set elements in the ray space correspond one-to-one, their values are undetermined due to quantization. There is an element (blank part in FIG. 13). Therefore, in step S108, an interpolation process is performed, that is, a value of an element whose value is undetermined is estimated in addition to the quantization. Here, the nearest neighbor method is adopted as the estimation method, but the estimation method is not limited to this, and any method may be used for estimation. The estimated value is recorded in the corresponding element as a set of [image number, pixel number]. By holding the ray space data in such a format, the arbitrary viewpoint image generation, which will be described later, can be performed by referring to a table (correspondence table), and thus high-speed processing becomes possible.

【0076】第14図に、ステップS102乃至ステッ
プS108までの処理を行った結果として得られた対応
関係マップの例を示す。尚、第14図の例は第13図の
例に対して、nearest neighbor法を用いて補間したもの
である。
FIG. 14 shows an example of the correspondence map obtained as a result of performing the processing from step S102 to step S108. The example of FIG. 14 is an interpolation of the example of FIG. 13 using the nearest neighbor method.

【0077】ステップS110では、このようにして得
られた対応関係マップと、元の画像データ(画像番号k
と画素位置hと画素値Pの組)とが光線空間データ(以
下、「非階層化RSデータ」と略称する)として、DBシス
テム200内の所定の大容量メモリに記憶される。
In step S110, the correspondence map thus obtained and the original image data (image number k
And a pixel position h and a pixel value P) are stored in a predetermined large capacity memory in the DB system 200 as ray space data (hereinafter abbreviated as “non-hierarchical RS data”).

【0078】第9図に関連して説明したように、本実施
形態では、データベース200とホスト100との間で
は、光線空間データがそのままダウンロードされるので
はなく、一旦階層化された光線空間データがダウンロー
ドされる。また、光線空間データはマップデータと画像
データとからなるから、光線空間データを階層化すると
言うことは、画像データとマップデータの双方を階層化
することを意味する。画像データの階層化は、本実施形
態では、周知の階層化符号化をを用いるので、以下で
は、マップデータの階層化について主に説明する。
As described with reference to FIG. 9, in the present embodiment, the ray space data is not directly downloaded between the database 200 and the host 100, but the ray space data once hierarchized. Is downloaded. Moreover, since the ray space data is composed of map data and image data, to make the ray space data hierarchical means to make both the image data and the map data hierarchical. In the present embodiment, the well-known layered encoding is used for the layering of image data, and thus the layering of map data will be mainly described below.

【0079】前述の如く、本実施形態のマップデータは
第13図のように二次元構造を有するように生成され
る。マップデータを階層化する場合には、マップデータ
を8×8の大きさのブロックに分割する。各ブロックに
おいては、8×8=64個の各々のセルに対して、
“1”乃至“4”までの離散度値が、例えば第14図の
ように、割り当てられる。各離散度値に対するブロック
内位置は第15図に示すようである。即ち、各ブロック
において、
As described above, the map data of this embodiment is generated so as to have a two-dimensional structure as shown in FIG. When the map data is hierarchized, the map data is divided into blocks of 8 × 8 size. In each block, for each 8 × 8 = 64 cells,
Discreteness values from "1" to "4" are assigned, for example, as shown in FIG. The position in the block for each discreteness value is as shown in FIG. That is, in each block

【0080】・離散度値“1”の要素は、左上の要素の
みに割り当てられ、結局、1つのブロック内では、1つ
の要素のみが“1”の離散度値を有する。離散度値が
“1”の要素からなる階層化データを第1階層マップDD
b(1)(第17図)と呼ぶ。第1階層マップDDb(1)は、ブ
ロックから、離散度値“1”の要素(即ち、各ブロック
の最左上の要素)のみを抜き出して得られる。従って、
第1階層マップデータのデータ量は、元のマップデータ
に対して、1/64
An element having a discreteness value of “1” is assigned only to the upper left element, and consequently, only one element has a discreteness value of “1” in one block. Layered data consisting of elements with discreteness value of "1" is the first layer map DD
It is called b (1) (Fig. 17). The first hierarchical map DD b (1) is obtained by extracting only the element having the discreteness value “1” (that is, the element at the upper left of each block) from the block. Therefore,
The data amount of the first layer map data is 1/64 of the original map data.

【0081】に圧縮されている。即ち、第1階層マップ
データは、元のマップデータの縦横について、夫々1/8
に間引いたマップデータである。・離散度値“2”の要
素は、上下方向で4個おきの要素に割り当てられ、結
局、1つのブロック内では、3つの要素のみが“1”の
離散度値を有する。物体bについての、離散度値が
“2”の要素からなる階層化データを第2階層マップデ
ータDDb(2)(第18図)と呼ぶ。第2階層マップデータ
DDb(2)は、ブロックから、離散度値“1”と“2”の要
素のみを抜き出して得られる。
It has been compressed to. That is, the first layer map data is 1/8 of the vertical and horizontal of the original map data.
It is the map data thinned out to. The elements having the discreteness value “2” are assigned to every fourth element in the vertical direction, and consequently, only three elements have a discreteness value of “1” in one block. The layered data including the elements of which the discreteness value is “2” for the object b is referred to as second layer map data DD b (2) (FIG. 18). Second layer map data
DD b (2) is obtained by extracting only the elements having the discreteness values “1” and “2” from the block.

【0082】・離散度値“3”を有する要素は、1つの
ブロック内で12個の要素のみが離散的に分布するよう
に設定される。離散度値が“3”の要素からなる階層化
データを第3階層マップデータDDb(3)(第19図)と呼
ぶ。・離散度値“4”を有する要素は、1つのブロック
内で48個の要素のみが離散的に分布するように設定さ
れる。離散度値が“4”の要素からなる階層化データを
第4階層マップDDb(4)(第20図)と呼ぶ。尚、離散度
値の分布(位置ならびに数)は上記例に限定されず、全
体の画素数が一致する限りは、種々の変形例が自由に可
能である。また、1ブロックの大きさを8×8としたこ
との理由は、階層化の分割数を4階層としたことに起因
するが、その理由は後述する。
The elements having the discreteness value “3” are set such that only 12 elements are discretely distributed within one block. Referred to as a hierarchical data consisting of elements of the discrete level value is "3" third hierarchical map data DD b (3) (Figure 19). An element having a discreteness value of "4" is set so that only 48 elements are discretely distributed within one block. Referred to as a hierarchical data consisting of elements of the discrete level value is "4" fourth hierarchical map DD b (4) (Figure 20). The distribution (position and number) of the discreteness value is not limited to the above example, and various modifications can be freely made as long as the total number of pixels is the same. Further, the reason why the size of one block is 8 × 8 is that the number of divisions for hierarchization is four, which will be described later.

【0083】後述の制御手順から明らかになるように、
上述のようなデータ量が軽減された各離散度の光線空間
データがDB200からホスト1000までダウンロード
されるので、ダウンロードに要する時間は短いものとな
る。従って、ホスト1000側のアプリケーション・プ
ログラムは、生のままの光線空間データをダウンロード
するときに比べて、仮想画像を高速に描画することがで
きる。
As will be apparent from the control procedure described later,
Since the light space data of each discrete degree with the reduced data amount as described above is downloaded from the DB 200 to the host 1000, the time required for the download becomes short. Therefore, the application program on the host 1000 side can draw the virtual image faster than when downloading the raw ray space data.

【0084】本実施形態における仮想画像の描画は、上
記階層化マップデータをそのまま用いて描画されるので
はなく、それまでにダウンロードされていて保存されて
いた合成階層化マップデータに、描画時点でダウンロー
ドされた階層化マップデータをマージして得た光線空間
データに基づいて為される。即ち、ある物体bの階層数
iの合成階層化マップデータDb(i)は、それまでの階層
数i−1の合成階層化マップデータSDb(i-1)と、離散度
db(i)の階層化マップデータDDb(i)とに基づいて、
In the drawing of the virtual image in the present embodiment, the above-described hierarchical map data is not used for drawing as it is, but the composite hierarchical map data that has been downloaded and saved until then is drawn. This is done based on the ray space data obtained by merging the downloaded layered map data. That is, the composite layered map data D b (i) of the number i of layers of a certain object b is the same as the composite layered map data SD b (i-1) of the number of layers i−1 up to that point.
Based on the hierarchical map data DD b (i) of d b (i),

【0085】[数18]Db(i) = SDb(i-1) + DDb(i)[Equation 18] D b (i) = SD b (i-1) + DD b (i)

【0086】により計算される。尚、上記[数18]
で、+は論理和を表す。第21図乃至第24図は、夫
々、合成第1階層マップデータSDb(1)、合成第2階層マ
ップデータSDb(2)、合成第3階層マップデータSDb(3)、
合成第4階層マップデータSDb(4)を示す。
Is calculated by The above [Equation 18]
And + represents a logical sum. 21 to 24 respectively show the combined first layer map data SD b (1), the combined second layer map data SD b (2), the combined third layer map data SD b (3),
The synthesized fourth layer map data SD b (4) is shown.

【0087】即ち、第21図に示すように、合成第1階
層マップデータSDb(1)は第1階層マップデータDD b(1)
(第17図)に等しい。合成第1階層マップデータSD
b(1)は、ブロックから、離散度値“1”の要素(即ち、
各ブロックの最左上の要素)のみを抜き出したものであ
る。このような要素は各ブロックに1つしか存在しな
い。従って、合成第1階層マップデータSDb(1)は、元の
マップデータに対して、1/64に圧縮されている。即ち、
元のマップデータの縦横について、夫々1/8に間引いた
マップデータである。
That is, as shown in FIG. 21, the combined first layer map data SD b (1) is the first layer map data DD b (1).
(Fig. 17). Composite 1st layer map data SD
b (1) is the element of the discreteness value “1” (that is,
Only the upper left element of each block) is extracted. There is only one such element in each block. Therefore, the combined first layer map data SD b (1) is compressed to 1/64 of the original map data. That is,
The vertical and horizontal directions of the original map data are thinned to 1/8.

【0088】合成第2階層マップデータSDb(2)は、合成
第1階層マップデータSDb(1)と第2階層マップデータDD
b(2) (第18図)との和であるから、第22図のよう
になる。即ち、合成第2階層マップデータSDb(2)は、ブ
ロックから、離散度値“1”と“2”の要素のみを抜き
出したものである。離散度値“1”の要素は1つ、離散
度値“2”の要素は各ブロックに3つしか存在しない。
従って、合成第2階層マップデータSDb(2)の要素の数は
4であり、従って、そのデータ量は、元のマップデータ
に対して、1/16に圧縮されている。即ち、合成第2階層
マップデータSDb(2)は、元のマップデータの縦横につい
て、夫々1/4に間引いたマップデータである。
The combined second layer map data SD b (2) is composed of the combined first layer map data SD b (1) and the second layer map data DD.
Since it is the sum of b (2) (Fig. 18), it becomes as shown in Fig. 22. That is, the composite second layer map data SD b (2) is obtained by extracting only the elements having the discreteness values “1” and “2” from the block. There are only one element with the discreteness value "1" and only three elements with the discreteness value "2" in each block.
Therefore, the number of elements of the combined second layer map data SD b (2) is 4, and therefore the data amount is compressed to 1/16 of the original map data. That is, the composite second layer map data SD b (2) is map data in which the vertical and horizontal directions of the original map data are thinned to 1/4.

【0089】合成第3階層マップデータSDb(3)は、合成
第2階層マップデータSDb(2)と第3階層マップデータDD
b(3)(第19図)との和であるから、第23図のよう
になる。合成第3階層マップデータSDb(3)は、ブロック
から、離散度値“1”、“2”、“3”の要素のみを抜
き出したものである。1つのブロックには、離散度値
“1”の要素は1つ、離散度値“2”の要素は3つ、離
散度値“3”の要素は12個しか存在しない。合成第3
階層マップデータSDb(3)の要素の数は16であり、従っ
て、データ量は、元のマップデータに対して、1/4に圧
縮されている。即ち、合成第3階層マップデータSDb(3)
は、元のマップデータの縦横について、夫々1/2に間引
いたマップデータである。
The combined third layer map data SD b (3) is the combined second layer map data SD b (2) and the third layer map data DD.
Since it is the sum of b (3) (FIG. 19), it becomes as shown in FIG. The combined third layer map data SD b (3) is obtained by extracting only the elements having the discreteness values “1”, “2”, and “3” from the block. In one block, there are only one element having the discreteness value “1”, three elements having the discreteness value “2”, and only 12 elements having the discreteness value “3”. Synthetic third
The number of elements of the hierarchical map data SD b (3) is 16, so the data amount is compressed to 1/4 of the original map data. That is, the composite third layer map data SD b (3)
Is the map data obtained by thinning out the original map data in both vertical and horizontal directions.

【0090】合成第4階層マップデータSDb(4)は、合成
第3階層マップデータSDb(3)と第4階層マップデータDD
b(4)(第20図)との和であるから、第24図のよう
になる。合成第4階層マップデータSDb(4)は、ブロック
から、離散度値“1”、“2”、“3”。“4”の要素
のみを抜き出したものである。1つのブロックには、離
散度値“1”の要素は1つ、離散度値“2”の要素は3
つ、離散度値“3”の要素は12個、離散度“4”の要
素は48個しか存在しない。ステップS314の処理に
よって生成される第4階層データの要素の数は64であ
り、従って、合成第4階層マップデータSDb(4)は元のマ
ップデータに他ならない。
The combined fourth layer map data SD b (4) is composed of the combined third layer map data SD b (3) and the fourth layer map data DD.
Since it is the sum of b (4) (Fig. 20), it becomes as shown in Fig. 24. The composite fourth layer map data SD b (4) has discreteness values “1”, “2”, and “3” from the block. Only the elements of "4" are extracted. One block has one element with discreteness value “1” and three elements with discreteness value “2”.
On the other hand, there are only 12 elements having the discreteness value “3” and 48 elements having the discreteness value “4”. The number of elements of the fourth layer data generated by the process of step S314 is 64. Therefore, the combined fourth layer map data SD b (4) is the original map data.

【0091】以上のようにして、対応関係マップの階層
化は成される。階層化された画像データとマップデータ
(以下、「階層化されたRSデータ」と呼び、
The correspondence map is hierarchized as described above. Layered image data and map data (hereinafter referred to as “layered RS data”,

【0092】階層化されたこれらのデータを「階層化R
S空間データ」と呼ぶ。ここで、階層の分割数p(上記
実施形態では4分割)とブロックの大きさN(上記実施
形態では8×8)との関係について言及する。
These hierarchical data are converted into “hierarchical R
S-space data ". Here, the relationship between the number of divisions p of the hierarchy (4 divisions in the above embodiment) and the block size N (8 × 8 in the above embodiment) will be described.

【0093】この実施形態では、最上位の階層の解像度
は元の光線空間データの解像度と一致していることが望
ましい。従って、 [数19] である。しかしながら、このような関係で階層数やブロ
ックサイズを設定することができない場合がある。
In this embodiment, it is desirable that the resolution of the highest layer is the same as the resolution of the original ray space data. Therefore, [Equation 19] Is. However, there are cases where the number of layers and the block size cannot be set due to such a relationship.

【0094】特に、階層化されたマップデータには、階
層化前の画像データのアドレスが含まれているので、第
1の階層の画像データには無いアドレスが含まれる。例
えば、第1階層の合成マップデータには、(5,23)
というアドレスが入っていたとすると、23列目は、階
層化される前の画像データの画素を指しているが、画像
データを4階層に分けたときには、第2列目に縮対して
いるはずである。ここで、2列目の2は、[]をガウス
記号とすると、 [数20] から求めた。
Particularly, since the layered map data includes the address of the image data before layering, the address that does not exist in the image data of the first layer is included. For example, (5,23) is included in the composite map data of the first layer.
The 23rd column indicates the pixel of the image data before being layered, but when the image data is divided into 4 layers, it should be decompressed to the 2nd column. is there. Here, 2 in the second column is [Equation 20], where [] is a Gaussian symbol. I asked from.

【0095】従って、実際の処理では、上記の変換を考
慮する必要がある。一般的には、この変換は、階層の分
割数をp、処理対象の階層をi、変換されたアドレスを
ni、第i階層の合成マップデータの何列目に記憶されて
いるかを表すアドレスをnjとすると、 [数21] で表される。
Therefore, in the actual processing, it is necessary to consider the above conversion. Generally, in this conversion, the number of divisions of the layer is p, the layer to be processed is i, and the converted address is
n i, when the address indicating whether stored in what column of composite map data of the i-th layer and n j, [Equation 21] It is represented by.

【0096】以上のようにして生成された階層化光線空
間データは、個々の物体について得られた多視点画像に
対して得られる。即ち、ある仮想空間中に、L個の仮想
物体(若しくは現実物体)があるならば、L組の階層化
RS空間データが得られることになる。第25図は、あ
る空間中に4つの仮想物体(若しくは現実物体)が存在
することを示し、それらの物体1乃至4について、夫
々、E1枚の画像、E2枚の画像、E3枚の画像、E4枚の画像
が得られたとすると、4つの物体に対して4組の階層化
RS空間データが得られることを示している。
The layered ray space data generated as described above is obtained for multi-viewpoint images obtained for individual objects. That is, if there are L virtual objects (or real objects) in a certain virtual space, L sets of layered RS space data will be obtained. FIG. 25 shows that there are four virtual objects (or real objects) in a certain space, and for each of these objects 1 to 4, E 1 image, E 2 images, E 3 images, respectively. Image, and E 4 images are obtained, it indicates that four sets of hierarchical RS spatial data are obtained for four objects.

【0097】次に、階層化RS空間データを用いて所望の
視点位置の画像を生成する方法について、第26図のフ
ローチャートに従って説明する。任意視点位置(視線方
向も含む)からの仮想画像を描画するときは、上記の階
層化された画像データとマップデータに基づいて描画す
る。この処理はリアルタイムベースで行うことが望まし
いが、この実施形態では、階層化RSデータを用いるの
で、少なくとも、解像度は低いが全体的に見通しのよい
第1階層のRSデータによる仮想画像の描画が生成され
るので、リアルタイムで仮想空間を把握することが可能
となる。
Next, a method of generating an image at a desired viewpoint position using the hierarchical RS space data will be described with reference to the flowchart of FIG. When drawing a virtual image from an arbitrary viewpoint position (including the line-of-sight direction), the virtual image is drawn based on the hierarchical image data and map data. Although it is desirable to perform this processing on a real-time basis, in this embodiment, since the hierarchical RS data is used, at least a virtual image drawing is generated by the RS data of the first hierarchy, which has a low resolution but has a good visibility. Therefore, it is possible to grasp the virtual space in real time.

【0098】尚、本実施形態では、階層分割数は、4に
留まらず、上述したように所定の条件([数20][数
21]など)を満たせば、任意の分割数に設定できるの
で、以下の説明では、分割数=iとする。
In the present embodiment, the number of layer divisions is not limited to four, and can be set to an arbitrary number of divisions if the predetermined conditions ([Equation 20], [Equation 21], etc.) are satisfied as described above. In the following description, the number of divisions is i.

【0099】第26図は、本実施形態のアプリケーショ
ン・プログラムの処理手順を示す。このウオークスルー
アプリケーションでは、仮想空間柱の物体に対してオブ
ジェクト番号bが割り当てられており、各物体について
の光線空間データがDB200に格納されているものとす
る。換言すれば、複数の物体が予めウオークスルー対象
の空間に配置されている。
FIG. 26 shows the processing procedure of the application program of this embodiment. In this walkthrough application, it is assumed that the object number b is assigned to the object of the virtual space pillar, and the ray space data for each object is stored in the DB 200. In other words, a plurality of objects are placed in the walk-through target space in advance.

【0100】ステップS200では、ユーザの視点位置
(例えば、観察者の位置・視線方向等))を検出する。
ユーザの位置・視線方向を入力する手段としては、ジョ
イスティック、キーボード、磁気センサ、視線検出器な
どがあるが、この目的が達せられるものならば何でも良
い。ステップS202では、この視点位置から見えるは
ずの視野範囲内にある物体をサーチする。前述したよう
に、空間内において配置されている仮想物体(現実物体
の実写から構成される仮想物体)の配置位置は既知であ
るので、ユーザの視点位置がステップS200で決定で
きれば、その位置から見えるはずの全ての仮想物体のオ
ブジェクト番号bを特定することができる。
In step S200, the position of the viewpoint of the user (for example, the position of the observer / the direction of the line of sight) is detected.
A joystick, a keyboard, a magnetic sensor, a line-of-sight detector, and the like may be used as means for inputting the position / line-of-sight direction of the user, but any device that achieves this purpose may be used. In step S202, an object within the visual field range that should be seen from this viewpoint position is searched. As described above, since the arrangement position of the virtual object (the virtual object formed by the actual image of the physical object) arranged in the space is known, if the viewpoint position of the user can be determined in step S200, it can be seen from that position. The object numbers b of all supposed virtual objects can be specified.

【0101】ステップS204では、ステップS22で
サーチされた仮想物体のデータがDB200からダウンロ
ードされているか否かを判断するために、管理テーブル
内をサーチする。このサーチにより、ステップS200
で検出された視点位置にユーザが移動してきたことによ
って初めて現れてきた仮想物体のオブジェクト番号を知
ることができる。
In step S204, the management table is searched to determine whether or not the data of the virtual object searched in step S22 has been downloaded from the DB 200. By this search, step S200
It is possible to know the object number of the virtual object that first appears when the user moves to the viewpoint position detected in.

【0102】ステップS204で用いられる管理テーブ
ルの構成を第27図に示す。第27図において、管理テ
ーブルの1つのレコードは4つのフィールドから構成さ
れている。各レコードはオブジェクト番号b毎に構成さ
れ、フラグFbPと、階層番号i bとを有する。管理テーブ
ルは、本実施形態のウオークスルーアプリケーション・
プログラムが対象とする仮想空間で定義される物体の数
に等しいレコード数を持つ。描画対象フラグFbDは、そ
の物体bが描画対象であることを示すフラグである。
Management table used in step S204
The structure of the package is shown in FIG. In Fig. 27, the management
Each record in the table consists of four fields.
Has been. Each record consists of object number b
Flag FbPAnd the layer number i bHave and. Management table
Is the walkthrough application of this embodiment.
Number of objects defined in the virtual space targeted by the program
Has a number of records equal to. Drawing target flag FbDIs that
Is a flag indicating that the object b is a drawing target.

【0103】データ有無フラグFbPPと階層番号ibとによ
り、その物体bの光線空間データの階層番号ibの階層化
データがホストのRAM103上に存在することを示す。
データ有無フラグFbPPと階層番号ibとは、光線空間デー
タをホストのアプリケーション・プログラムが受け取る
毎に更新される。
The data presence / absence flag F bPP and the layer number i b indicate that the layered data of the layer number i b of the ray space data of the object b exists in the RAM 103 of the host.
The data presence / absence flag F bPP and the layer number i b are updated each time the host application program receives the ray space data.

【0104】階層番号ibの値は0乃至4の値を有する。
階層番号ibの最大値を4としたのは、この実施形態の説
明の便宜上、階層化の分割数を4階層としたためであ
る。ダウンロードがある程度進んだ時点での例を示す第
27図では、オブジェクト番号bが1である物体は階層
番号ibが“3”である光線空間データが、オブジェクト
番号bが2である物体は階層番号ibが“1”である光線
空間データが、オブジェクト番号bが3である物体は階
層番号ibが“2”である光線空間データが、オブジェク
ト番号bが4である物体は階層番号ibが“4”である光
線空間データが、夫々、ホスト1000側にダウンロー
ドされていることを示す。
The value of the layer number i b has a value of 0 to 4.
The maximum value of the layer number i b is 4 because the number of divisions of layering is 4 layers for convenience of explanation of this embodiment. In FIG. 27 showing an example at the time when the download has progressed to some extent, the object having the object number b of 1 is the ray space data having the layer number i b of “3”, and the object having the object number b of 2 is the layer. Ray space data with the number i b of “1”, light space data with the layer number i b of “2” for the object with the object number b of 3, and layer number i for the object with the object number b of 4 It shows that the ray space data in which b is "4" is downloaded to the host 1000 side, respectively.

【0105】階層番号ibは解像度に対応する。本実施形
態では、1乃至4のいずれかの値の階層番号ibの光線空
間データがホスト1000側に存在すれば(ダウンロー
ドされていれば)、そのデータをホスト1000側の表
示装置108に表示することとしているので、ib≠0で
ある物体に対しては、表示データが存在することとなる
ので、対応するフラグF bDの値を“1”とする。第27
図の例では、物体1乃至4に対してはいずれかの解像度
の表示データが存在するので、対応するフラグF bDの値
は“1”となっており、オブジェクト番号5の物体につ
いては対応するフラグF bDの値は“0”である。
The layer number i b corresponds to the resolution. In this embodiment, if the ray space data of the layer number i b having any one of the values 1 to 4 exists on the host 1000 side (if downloaded), the data is displayed on the display device 108 of the host 1000 side. Since display data exists for an object with i b ≠ 0, the value of the corresponding flag F bD is set to “1”. 27th
In the example of the figure, since the display data of any resolution exists for the objects 1 to 4, the value of the corresponding flag F bD is “1”, and the object of the object number 5 corresponds. The value of the flag F bD is “0”.

【0106】従って、ステップS204では、フラグF
bD = 0である物体は、「新たに」現れら物体となる。
そこで、ステップS206ではこのような物体b(=
x)が存在するか否かを判断する。
Therefore, in step S204, the flag F
An object with bD = 0 becomes an object that appears "newly".
Therefore, in step S206, such an object b (=
x) is present.

【0107】かかる物体xが存在すれば、ステップS2
08に進んで、その物体xが描画対象であることを示す
ために、フラグFxD = 1とする。そして、ステップS2
10で、当該物体xの光線空間データをダウンロードす
べきことをDB200に要求する。そして、ステップS3
00に進む。
If such an object x exists, step S2
Proceeding to 08, the flag F xD = 1 is set to indicate that the object x is the drawing target. And step S2
At 10, the DB 200 is requested to download the ray space data of the object x. And step S3
Go to 00.

【0108】一方、ステップS206で新登場の物体が
存在しないと判断されれば、ステップS300に進む。
On the other hand, if it is determined in step S206 that there is no newly appearing object, the process proceeds to step S300.

【0109】ステップS300は、管理テーブル(第2
7図)のFbPが“1”である物体の光線空間データを描
画表示するルーチンである。
In step S300, the management table (second
This is a routine for drawing and displaying ray space data of an object whose F bP in FIG. 7) is “1”.

【0110】かくして、ステップS200で検出された
視点位置が、それまでの視点位置から、描画対象とすべ
き空間(若しくは物体)の変更を強いるほどの移動があ
った場合には、ステップS208で、その物体が描画対
象であることを記憶し、ステップS210で、その仮想
物体の空間データをデータベース200に要求し、ステ
ップS300では、ダウンロードされたその新たな空間
データ(階層化空間データ)に従って、その新たな物体
についての、ステップS200で検出した視点位置での
仮想画像を描画する。尚、新たな物体が見つかった場合
において、ステップS300で仮想画像の描画を行う処
理は、後述するように、既存の物体に対しては、それま
でにダウンロードされていた最高解像度での空間データ
により描画する。
Thus, if the viewpoint position detected in step S200 has moved from the previous viewpoint position enough to force a change in the space (or object) to be rendered, in step S208, It stores that the object is a drawing target, requests the spatial data of the virtual object from the database 200 in step S210, and in step S300, the spatial data of the virtual object is stored in accordance with the downloaded new spatial data (hierarchical spatial data). A virtual image of the new object at the viewpoint position detected in step S200 is drawn. When a new object is found, the process of drawing a virtual image in step S300 is performed on the existing object by the spatial data with the highest resolution downloaded up to that point, as will be described later. draw.

【0111】ステップS300の描画ルーチンの詳細は
第29図に、ホスト1000側での階層化データの受信
ルーチンは第30図に、データベース側での光線空間デ
ータの送出ルーチンは第31図に示されている。
The details of the drawing routine in step S300 are shown in FIG. 29, the layered data reception routine on the host 1000 side is shown in FIG. 30, and the ray space data transmission routine on the database side is shown in FIG. ing.

【0112】ホスト1000が新たな物体の光線空間デ
ータを要求するときは、ステップS210で、第28図
に示したリクエストコマンドをデータベース200に送
る。このコマンドは、光線空間データを要求する物体b
の指定(オブジェクト番号b)、要求する解像度(階層
度ib)の指定を含む。尚、ステップS210で送るコマ
ンドは、最低解像度(階層番号1)の階層化光線空間デ
ータを要求するものであるから、ib = 1である。尚、よ
り高い解像度(階層番号2〜4)の階層化光線空間デー
タは、後述の第30図のステップS416で要求され
る。
When the host 1000 requests the ray space data of a new object, the request command shown in FIG. 28 is sent to the database 200 in step S210. This command is for object b that requires ray space data.
(Object number b) and requested resolution (hierarchical level i b ) are included. Since the command sent in step S210 requests the layered ray space data of the lowest resolution (layer number 1), i b = 1. Hierarchical ray space data of higher resolution (hierarchy numbers 2 to 4) is requested in step S416 of FIG. 30 described later.

【0113】ホスト側は、ステップS210で要求コマ
ンドをデータベース200に発行した後は、ステップS
300の描画表示ルーチンを実行する。一方、ステップ
S210で発行された要求コマンドはデータベース20
0により受信されるであろう。
After issuing the request command to the database 200 in step S210, the host side executes step S210.
The drawing display routine of 300 is executed. On the other hand, the request command issued in step S210 is the database 20.
Will be received by 0.

【0114】ステップS300の詳細は第29図に示さ
れる。即ち、第29図のステップS302において、上
記入力された視点位置・視線方向における仮想カメラを
設定する。ステップS304において、仮想カメラの画
像座標での先頭ラインの各画素を光線群に分解する。次
にステップS306において、ステップS304で求ま
った光線群を[数9][数10]を用いて各光線が光線
空間中のどの位置に射影されるかを求める。このときス
テップS108(第11図)の処理と同様に量子化す
る。ステップS308では、管理テーブル(第27図)
のフラグFbDとフラグFbPを参照して、既に、描画対象で
あって光線空間データがダウンロードされている物体を
探索する。
Details of step S300 are shown in FIG. That is, in step S302 of FIG. 29, the virtual camera in the input viewpoint position and line-of-sight direction is set. In step S304, each pixel on the top line at the image coordinates of the virtual camera is decomposed into a ray group. Next, in step S306, the position of each ray in the ray space to which the ray group obtained in step S304 is projected is obtained using [Equation 9] and [Equation 10]. At this time, quantization is performed in the same manner as the processing in step S108 (FIG. 11). In step S308, the management table (Fig. 27)
By referring to the flags F bD and F bP of the above, an object which is a drawing target and whose ray space data has already been downloaded is searched for.

【0115】第27図の例では、物体1、2、3、4と
xとが描画対象である(視点位置から見える)が、物体
xの光線空間データはまだダウンロードされていないこ
とを示している。従って、ステップS310,ステップ
S312では、フラグFbPが“1”である物体(物体
1、2、3、4)の描画を行う。ステップS314で
は、その物体の仮想画像の表示を行う。
In the example of FIG. 27, the objects 1, 2, 3, 4 and x are objects to be drawn (visible from the viewpoint position), but the ray space data of the object x has not been downloaded yet. There is. Therefore, in steps S310 and S312, the object (object 1, 2, 3, 4) whose flag F bP is “1” is drawn. In step S314, a virtual image of the object is displayed.

【0116】以下に、物体xの光線空間データのダウン
ロードについての説明を行う。データベース200は、
ステップS501(第31図)において、ホストからの
物体bの、階層度ibの光線空間データ要求を待ってい
る。従って、新たな物体xのデータ要求は、データベー
ス200により、ステップS501(第31図)におい
て受け付けられる。ステップS502では、データ要求
が、物体b(=x)の階層度ib(=ix)についての階層
化データであることが分析される。ステップS504で
は、データ要求が第1階層度についてであるかの判断を
する。この判断は、階層化データを得るには一度は、物
体bの光線空間データの全ブロックを8×8に分解しな
ければならないからである。その分解処理はステップS
506〜ステップS510で行われる。ステップS51
2では、ワークレジスタdbに階層度ibを待避する。
The download of the ray space data of the object x will be described below. The database 200 is
In step S501 (FIG. 31), the host awaits a ray space data request for the object b from the host at the hierarchical level i b . Therefore, the data request for the new object x is accepted by the database 200 in step S501 (FIG. 31). In step S502, it is analyzed that the data request is hierarchical data for the hierarchical level i b (= i x ) of the object b (= x). In step S504, it is determined whether the data request is for the first hierarchical level. This determination is because all blocks of the ray space data of the object b must be decomposed into 8 × 8 once to obtain the hierarchical data. The disassembling process is step S
It is performed from 506 to step S510. Step S51
At 2, the hierarchical level i b is saved in the work register d b .

【0117】ステップS514では、離散度dbのマップ
要素を集める。第27図の例では、物体xについてはdb
=1であるから、第17図のDDb(1)となる。ステップS
516では、離散度dbの画像データの要素(第10図参
照)を集める。ステップS517では、離散度dbの階層
化マップデータと画像データとを、階層化光線空間デー
タとしてホスト1000側に送る。即ち、階層化光線空
間データをホスト1000に向けてダウンロードする。
In step S514, map elements having the discrete degree d b are collected. In the example of FIG. 27, for the object x, d b
Since = 1, DD b (1) in FIG. 17 is obtained. Step S
At 516, the elements of the image data having the discrete degree d b (see FIG. 10) are collected. In step S517, the layered map data and the image data having the discrete degree d b are sent to the host 1000 side as layered ray space data. That is, the layered ray space data is downloaded toward the host 1000.

【0118】ステップS518ではカウンタdbを1つ増
加させる。ステップS520,ステップS522では、
第4階層度までの光線空間データをダウンロードし終わ
ったかを調べ、終了したならば、ステップS510で保
存していたワークデータをワークメモリから解放する。
In step S518, the counter d b is incremented by 1. In steps S520 and S522,
It is checked whether or not the ray space data up to the fourth hierarchical level has been downloaded, and if completed, the work data saved in step S510 is released from the work memory.

【0119】データベース200がステップS517で
送出した階層化データ(物体b、階層度ib)を、ホスト
1000はステップS402(第30図)で受信する。
ステップS404では、階層化データが、物体b、階層
度ibについてのものであることを確認し、ステップS4
06では、物体bについての階層化データが少なくとも
第1階層度について存在することを記憶するために、デ
ータ有無フラグFbPを“1”にセットする。
In step S402 (FIG. 30), the host 1000 receives the hierarchical data (object b, hierarchical degree i b ) sent from the database 200 in step S517.
In step S404, it is confirmed that the layered data is for the object b and the layer degree i b ,
In 06, the data presence flag F bP is set to “1” in order to store that the layered data for the object b exists for at least the first layer degree.

【0120】ステップS408では、ステップS402
で受信した第ib階層化データを、それまでに累積してい
た階層数ib-1の合成階層化マップデータSDb(i-1)と、
[数18]に従って合成する。尚、第1階層化データを
受信したときはそのデータが合成第1階層化データとな
る(第21図を参照)。ステップS410で、合成第i
階層データは、それまでの第i-1階層データの上に上書
きされる。ステップS412では、階層度を1つ上げ、
ステップS414で階層度が4を超えていないことを確
認して、ステップS416で、次の階層度の光線空間デ
ータを要求する。
In step S408, step S402
I received atbHierarchical data has been accumulated so far
Number of layers ib-1 Composite hierarchical map data SDb(i-1)When,
Synthesis is performed according to [Equation 18]. In addition, the first layered data
When received, the data becomes the composite first layered data.
(See FIG. 21). In step S410, the composite i-th
Hierarchical data will be overwritten on the i-1st hierarchical data up to that point.
Will be killed. In step S412, the hierarchy level is increased by 1,
It is confirmed in step S414 that the hierarchical level does not exceed 4.
Then, in step S416, the ray space data of the next hierarchical level is obtained.
Request data.

【0121】かくして、物体xの第1階層の合成空間デ
ータがメモリ103上に形成された。この状態はフラグ
FbP=1に反映されているので、ステップS312で、
物体xの仮想画像が合成第1階層空間データSD1(1)に基
づいて描画表示される。
Thus, the first-layer synthetic space data of the object x is formed on the memory 103. This state is a flag
Since it is reflected in F bP = 1, in step S312,
The virtual image of the object x is drawn and displayed based on the combined first hierarchical space data SD 1 (1).

【0122】ステップS416で、データベース200
に対して発行された物体bの第2階層の空間データのダ
ウンロード要求は、第31図のステップS501で受け
付けられ、ステップS501→ステップS502→ステ
ップS504→ステップS514→…ステップS517
と進んで、第2階層化光線空間データ(第18図)が送
られ、その第2階層化光線空間データはステップS42
0でホスト1000によって受信される。受信された第
2階層化光線空間データは、ステップS408,ステッ
プS410で、合成第2階層化光線空間データとして形
成され、この合成データはステップS310で描画され
る。
In step S416, the database 200
The request for downloading the spatial data of the second layer of the object b issued to the user is accepted in step S501 of FIG. 31, and is received in step S501 → step S502 → step S504 → step S514 → ... step S517.
Then, the second layered ray space data (FIG. 18) is sent, and the second layered ray space data is obtained in step S42.
At 0, it is received by the host 1000. The received second layered ray space data is formed as combined second layered ray space data in steps S408 and S410, and the combined data is rendered in step S310.

【0123】上述のダウンロードは、ステップS414
により、第4階層度に到達するまで継続される。 この
繰り返し処理により、低解像度(低階層度)から高解像
度の順番に、夫々の解像度の仮想画像が表示され、即
ち、プログレッシブに表示される。
The above-mentioned download is performed in step S414.
Thus, it is continued until the fourth hierarchical level is reached. By this iterative process, virtual images of respective resolutions are displayed in order from low resolution (low hierarchy) to high resolution, that is, progressively displayed.

【0124】このプログレッシブなダウンロードに際し
て、階層分割された光線空間データがホストに送られる
ので、ダウンロードに要する時間が短縮されるという効
果が得られる。このために、描画表示が効率化される。
特に、最もデータ量の少ない(解像度の低い)第1階層
から初めて順に解像度の高いデータをダウンロードする
ようにしているので、換言すれば、表示される物体の仮
想画像は次第に解像度が上昇するように制御されるの
で、特に、ウオークスルーアプリケーションでは、低解
像度の画像が早期に表示されるので、その画像の物体が
目的の物体であるか否かを早期に判断することができ
る。
At the time of this progressive download, since the ray space data divided into layers is sent to the host, there is an effect that the time required for the download is shortened. Therefore, the drawing display is made efficient.
In particular, since the data with high resolution is downloaded from the first layer with the smallest data amount (low resolution) for the first time, in other words, the resolution of the virtual image of the displayed object gradually increases. Since it is controlled, especially in a walk-through application, a low-resolution image is displayed at an early stage, so that it can be determined early whether or not the object in the image is the target object.

【0125】尚、上記実施形態では、データベースから
送られてきた低解像度の光線空間データは、それよりも
高い解像度の光線空間データが送られてきたときは、捨
てられる(ステップS410で上書き)ので、大容量の
メモリが不要となる。
In the above embodiment, the low resolution ray space data sent from the database is discarded (overwritten in step S410) when the ray space data having a higher resolution than that is sent. , Large capacity memory is unnecessary.

【0126】尚、光線空間への射影時に上下視差を考慮
するときには、前述の本発明の出願人による特開平10
−97642号の手法を適用する。
Incidentally, when the vertical parallax is taken into consideration when projecting in the light space, the above-mentioned applicant of the present invention, Japanese Unexamined Patent Publication No.
The method of -97642 is applied.

【0127】なお、視点位置・視線方向検出装置104
には視点位置・視線方向が検出できるものであれば何で
もよい。また、画像出力装置105に、レンチキュラ方
式やメガネ方式などの両眼立体視が可能な立体表示部を
用い、かつ、多視点画像の撮影時に、観察者の左右各々
の目の位置に対応する画像を生成することにより、観察
者の視点移動に対応可能な両眼立体表示装置となる。
The viewpoint position / line-of-sight direction detecting device 104
May be anything that can detect the viewpoint position and the line-of-sight direction. Further, the image output device 105 uses a stereoscopic display unit capable of binocular stereoscopic vision such as a lenticular system or a glasses system, and an image corresponding to each of the left and right eye positions of the observer at the time of capturing a multi-viewpoint image. Is generated, it becomes a binocular stereoscopic display device capable of coping with the viewpoint movement of the observer.

【0128】〈第1変形例〉上記実施形態は、仮想空間
全体の物体の仮想画像を、プログレッシブに生成描画す
るものであった。例えば、ウオークスルー体験を提供す
るシステムでは、仮想空間は、複数のサブ仮想空間に分
割され、各々のサブ仮想空間毎に光線空間データが生成
されている。或いは、光線空間内の各々の物体毎に光線
空間データが生成されている。換言すれば、仮想空間
は、所定の単位毎に分割されて光線空間データ化されて
いる。
<First Modification> In the above embodiment, the virtual image of the object in the entire virtual space is progressively generated and drawn. For example, in a system that provides a walkthrough experience, a virtual space is divided into a plurality of sub virtual spaces, and ray space data is generated for each sub virtual space. Alternatively, ray space data is generated for each object in the ray space. In other words, the virtual space is divided into predetermined units and converted into light space data.

【0129】変形例の画像処理装置は、ユーザの視点位
置に近いサブ仮想空間の階層化RSデータをプログレッ
シブ表示するものである。このような描画が可能なの
も、第2実施形態では、副仮想空間(或いは物体毎に)
毎の光線空間データが階層化されて記憶装置に記憶され
ているからである。
The image processing apparatus of the modified example progressively displays the hierarchical RS data in the sub virtual space close to the user's viewpoint position. Such drawing is also possible in the second embodiment in the sub virtual space (or for each object).
This is because the ray space data for each of them is hierarchized and stored in the storage device.

【0130】具体的には、この変形例では、ユーザの視
点位置を把握し、この視点位置に近い物体若しくは副仮
想空間の光線空間データを記憶装置から読み出す。
Specifically, in this modified example, the user's viewpoint position is grasped, and the light space data of the object or the sub virtual space close to this viewpoint position is read from the storage device.

【0131】そこで、まず、ユーザの視点位置に近い物
体(或いは副仮想空間)から順に、その物体(或いは副
仮想空間)の階層化RSデータを描画生成する。この描
画生成は、全ての物体(或いは副仮想空間)に対して、
まず、最低解像度の階層化RSデータを用いて描画を行
い、次に、次に粗い解像度の階層化RSデータを用いて
同じく全ての物体(或いは副仮想空間)に対して行うよ
うにする。
Therefore, first, the layered RS data of the object (or the sub virtual space) is drawn and generated in order from the object (or the sub virtual space) close to the user's viewpoint position. This drawing generation, for all objects (or sub-virtual space)
First, the drawing is performed using the lowest-resolution layered RS data, and then the same is used for all objects (or the sub-virtual space) using the coarser-resolution layered RS data.

【0132】尚、ユーザが移動した場合には、その移動
方向にある物体(或いは副仮想空間)の階層化RSデー
タから順に描画を行う。
When the user moves, drawing is performed in order from the hierarchical RS data of the object (or the sub virtual space) in the moving direction.

【0133】〈第2変形例〉次のような変形例をさらに
提案する。即ち、仮想空間(複合現実空間)で、ユーザ
が特に指定した仮想物体(或いは現実物体)は、そのユ
ーザが特に把握を急ぐ物体(或いは副仮想空間)の筈で
ある。そこで、ユーザが、仮想物体や現実物体をつか
み、或いは、移動し、或いは回転させたような場合に
は、当該仮想物体(現実物体)の仮想画像の描画につい
て上記プログレッシブ描画を行うようにする。
<Second Modification> The following modification is further proposed. That is, in the virtual space (mixed reality space), the virtual object (or real object) specified by the user should be the object (or sub-virtual space) that the user particularly needs to grasp. Therefore, when the user grabs, moves, or rotates a virtual object or a real object, the progressive drawing is performed for drawing a virtual image of the virtual object (real object).

【0134】〈第3変形例〉また、上記実施形態では、
光線空間の、画像データとマップデータの双方を階層化
していた。しかしながら、画像データのデータ量に比し
て、マップデータのデータ量は圧倒的に少ない。従っ
て、マップデータを階層化したことによって得られるダ
ウンロード時間の減少幅は、画像データのそれによる減
少幅よりも少ない。従って、マップデータの階層化を省
略しても、マップデータを階層化する場合に比して、ダ
ウンロード時間の増加の度合いは問題とならない場合が
あり得る。そこで、上記実施形態に対する変形例とし
て、マップデータの階層化を省略することを提案する。
マップデータの階層化を省略すれば、その復元処理をホ
スト側で行う必要がないから、その分だけ、描画を開始
するまでの時間が短縮されるという副次的な効果が得ら
れる。
<Third Modification> Further, in the above embodiment,
Both the image data and the map data in the ray space were hierarchized. However, the amount of map data is much smaller than the amount of image data. Therefore, the reduction width of the download time obtained by layering the map data is smaller than that of the image data. Therefore, even if the layering of the map data is omitted, the degree of increase in the download time may not be a problem as compared with the layering of the map data. Therefore, as a modification of the above embodiment, it is proposed to omit the layering of map data.
If the layering of the map data is omitted, there is no need to perform the restoration process on the host side, and the side effect of shortening the time until the drawing starts is obtained.

【0135】〈第4変形例〉更に、上記実施形態では、
光線空間データの階層化をデータベース側で行い、その
階層化データをホスト側にダウンロードしていた。ホス
ト側では、階層化データをダウンロードする毎に合成
し、合成時点での解像度での合成階層化データを表示し
ていた。即ち、第9図に示した実施形態では、光線空間
データを階層化データに変換する作業を、ホスト側から
要求があった時点で行っていたが、この変換作業を前も
ってバッチ処理で行っていてもよい。階層化処理は、ユ
ーザの視点位置によって影響を受けないので、前もって
行うことが可能となるのである。階層化処理を前もって
行うことは、階層化データを記憶するための領域をデー
タベース200上に要求するが、前記実施形態のように
ダウンロード時点で階層化を行う必要がないから、ダウ
ンロードが高速化される。
<Fourth Modification> Furthermore, in the above embodiment,
The layering of ray space data was performed on the database side, and the layered data was downloaded to the host side. On the host side, the layered data is synthesized each time it is downloaded, and the synthesized layered data at the resolution at the time of synthesis is displayed. That is, in the embodiment shown in FIG. 9, the work of converting the ray space data into the layered data is performed at the time of the request from the host side, but this conversion work is performed in advance by batch processing. Good. Since the hierarchical processing is not affected by the viewpoint position of the user, it can be performed in advance. Performing the layering process in advance requires an area for storing layered data on the database 200, but since the layering need not be performed at the time of downloading as in the above-described embodiment, the download speed is increased. It

【0136】〈第5変形例〉第5変形例は、第4変形例
に対する変形例である。即ち、この第5変形例では、合
成階層化データをバッチ処理によりデータベース200
側で準備しておくものである。合成階層化データは階層
化データよりもデータ量が多いので、ダウンロードに要
する時間が階層化データのダウンロードよりも長い時間
を要するが、合成のための処理がホスト1000側で不
要となるという長所が生まれる。
<Fifth Modification> The fifth modification is a modification of the fourth modification. That is, in the fifth modified example, the composite layered data is processed by the database 200 by batch processing.
It is something to be prepared by the side. Since the combined hierarchical data has a larger amount of data than the hierarchical data, the time required for the download is longer than the download of the hierarchical data, but the advantage is that the processing for combining is unnecessary on the host 1000 side. to be born.

【0137】〈第6変形例〉上記実施形態では、光線空
間データベース200はホストに通信回線を介して接続
されていたが、本発明は、並列バス接続のデータベース
に対しても適用可能である。
<Sixth Modification> In the above embodiment, the ray space database 200 is connected to the host through the communication line, but the present invention is also applicable to a parallel bus connection database.

【0138】〈第7変形例〉上記実施形態では、データ
ベースから、一旦、第4階層度までダウンロードされた
光線空間データはメモリ103に記憶されていたが、視
点位置の移動によって、視界からはずれたような物体に
ついての空間データは秒がされないので、不要であり、
従って、視界からはずれたならば、その物体の光線空間
データをRAM103から消去し、併せて、フラグFbP
“0”とする。
<Seventh Modification> In the above embodiment, the ray space data once downloaded to the fourth hierarchical level from the database is stored in the memory 103, but it is out of the field of view due to the movement of the viewpoint position. Spatial data for such objects is unnecessary, as seconds are not
Therefore, if it is out of the field of view, the ray space data of the object is erased from the RAM 103, and at the same time, the flag F bP is set to “0”.

【0139】また、本発明は、複数の機器から構成され
るシステムに適用しても、一つの機器からなる装置に適
用しても良い。また、本発明はシステムあるいは装置に
プログラムを供給することによって実施される場合にも
適用されることは言うまでもない。この場合、本発明に
係るプログラムを格納した記憶媒体が、本発明を構成す
ることになる。そして、該記憶媒体からそのプログラム
をシステムあるいは装置に読み出すことによって、その
システムあるいは装置が、予め定められた方法で動作す
る。
Further, the present invention may be applied to a system composed of a plurality of devices or an apparatus composed of one device. Further, it goes without saying that the present invention is also applied to the case of being implemented by supplying a program to a system or an apparatus. In this case, the storage medium storing the program according to the present invention constitutes the present invention. Then, by reading the program from the storage medium to the system or device, the system or device operates in a predetermined method.

【0140】[0140]

【発明の効果】以上詳述したように、本発明によれば、
実写画像に基づいて生成された空間データから仮想画像
を生成する場合において、階層化された仮想画像が、特
に低い解像度の仮想画像がより早く生成・描画されるの
で、ユーザは、早期に仮想空間の構造を把握することが
できる。
As described in detail above, according to the present invention,
When generating a virtual image from spatial data generated based on a real image, a layered virtual image is generated and drawn especially at a low resolution, so that the user can quickly create a virtual space. The structure of can be understood.

【図面の簡単な説明】[Brief description of drawings]

【図1】 光線空間データを生成する原理を説明する
図。
FIG. 1 is a diagram illustrating a principle of generating ray space data.

【図2】 実空間でのデータを説明する図。FIG. 2 is a diagram illustrating data in a real space.

【図3】 図2の空間が光線空間データによって表され
たときの図。
FIG. 3 is a diagram when the space of FIG. 2 is represented by ray space data.

【図4】 カメラが複数ある時の実空間データを生成す
る原理を説明する図。
FIG. 4 is a diagram illustrating a principle of generating real space data when there are a plurality of cameras.

【図5】 カメラが複数ある時の光線空間データを生成
する原理を説明する図。
FIG. 5 is a diagram for explaining the principle of generating ray space data when there are a plurality of cameras.

【図6】 カメラが複数ある時の光線空間データから、
任意の視点位置における光線空間データ(x+Zu=X)を生成
する原理を説明する図。
[FIG. 6] From ray space data when there are multiple cameras,
The figure explaining the principle which produces | generates ray space data (x + Zu = X) in arbitrary viewpoint positions.

【図7】 図6の任意視点からの実空間を再構成する原
理を説明する図。
FIG. 7 is a diagram illustrating the principle of reconstructing the real space from the arbitrary viewpoint of FIG.

【図8】 実施形態の画像処理装置の構成を示すブロッ
ク図。
FIG. 8 is a block diagram showing a configuration of an image processing apparatus according to an embodiment.

【図9】 図8の実施形態におけるデータの流れを示す
ブロック図。
9 is a block diagram showing the flow of data in the embodiment of FIG.

【図10】 実施形態の画像処理装置において採用され
ている画像データの階層化の原理を説明する図。
FIG. 10 is a diagram illustrating a principle of layering image data, which is adopted in the image processing apparatus according to the embodiment.

【図11】 実施形態において多視点において取得され
た画像データを光線空間データに変換して蓄積する処理
を説明するフローチャート。
FIG. 11 is a flowchart illustrating a process of converting image data acquired from multiple viewpoints into light space data and accumulating the light space data in the embodiment.

【図12】 入力画像を光線群に分解する処理を説明す
る図。
FIG. 12 is a diagram illustrating a process of decomposing an input image into a ray group.

【図13】 光線空間の補間処理が終了した時点での量
子化された光線空間データの一例を説明する図。
FIG. 13 is a diagram illustrating an example of quantized ray space data at the time when the ray space interpolation processing is completed.

【図14】 図13の光線空間データが補間処理された
結果を示す図。
FIG. 14 is a diagram showing a result of interpolating the ray space data of FIG.

【図15】 マップを8×8のブロックに分割する様子
を説明する図。
FIG. 15 is a diagram illustrating how a map is divided into 8 × 8 blocks.

【図16】 1ブロック内における離散度値の分布を説
明する図。
FIG. 16 is a diagram illustrating the distribution of discreteness values in one block.

【図17】 第1階層マップデータの構成を示す図。FIG. 17 is a diagram showing the structure of first layer map data.

【図18】 第2階層マップデータの構成を示す図。FIG. 18 is a diagram showing the configuration of second layer map data.

【図19】 第3階層マップデータの構成を示す図。FIG. 19 is a diagram showing the structure of third layer map data.

【図20】 第4階層マップデータの構成を示す図。FIG. 20 is a diagram showing the structure of fourth layer map data.

【図21】 合成第1階層マップデータの構成を示す
図。
FIG. 21 is a view showing the structure of combined first layer map data.

【図22】 合成第2階層マップデータの構成を示す
図。
FIG. 22 is a diagram showing a structure of combined second layer map data.

【図23】 合成第3階層マップデータの構成を示す
図。
FIG. 23 is a diagram showing a structure of combined third layer map data.

【図24】 合成第4階層マップデータの構成を示す
図。
FIG. 24 is a diagram showing the structure of combined fourth layer map data.

【図25】 仮想空間が、複数のサブ空間に分割され、
或いは、複数の物体を含むことを説明する図。
FIG. 25 shows that a virtual space is divided into a plurality of sub spaces,
Alternatively, a diagram illustrating that a plurality of objects are included.

【図26】 ウオークスルーなどの任視の視点位置から
の仮想空間を描画表示するためのアプリケーション・プ
ログラムの制御手順を示すフローチャート。
FIG. 26 is a flow chart showing a control procedure of an application program for drawing and displaying a virtual space from an arbitrary viewpoint position such as walkthrough.

【図27】 ダウンロード管理テーブルの構成を示す
図。
FIG. 27 is a diagram showing the structure of a download management table.

【図28】 ダウンロードを要求するコマンドと応答す
るコマンドの構成を示す図。
FIG. 28 is a diagram showing a configuration of a command requesting a download and a command responding to the download.

【図29】 ステップS300の描画表示ルーチンの詳
細を説明するフローチャート。
FIG. 29 is a flowchart illustrating the details of the drawing display routine in step S300.

【図30】 ホスト側における光線空間データの受信ル
ーチンを説明するフローチャート。
FIG. 30 is a flowchart illustrating a reception routine of ray space data on the host side.

【図31】 データベース200側でのダウンロード要
求コマンドの処理ルーチンの詳細を示すフローチャー
ト。
FIG. 31 is a flowchart showing details of a download request command processing routine on the database 200 side.

フロントページの続き (72)発明者 小竹 大輔 横浜市西区花咲町6丁目145番地 横浜 花咲ビル 株式会社エム・アール・シス テム研究所内 (56)参考文献 特開 平10−111951(JP,A) 特開 平7−21350(JP,A) 特開 平10−97642(JP,A) 石川彰夫 外3名,”光線記述に基づ く3次元実写空間のインタラクティブ操 作”,電子情報通信学会論文誌,社団法 人電子情報通信学会,1998年5月25日, 第J81−D−II巻,第5号,p.850 −860 苗村健 外3名,”光線情報による3 次元実空間の効率的記述へ向けた光線空 間射影法”,テレビジョン学会技術報 告,社団法人テレビジョン学会,1996年 2月1日,第20巻,第4号,p.49−56 (58)調査した分野(Int.Cl.7,DB名) G06T 17/40 G06T 1/00 H04N 1/387 G01B 11/00 CSDB(日本国特許庁)Front page continuation (72) Inventor Daisuke Kotake 6-145, Hanasaki-cho, Nishi-ku, Yokohama Hanasaki Building, Yokohama, M Systems Co., Ltd. (56) Reference JP-A-10-111951 (JP, A) Kaihei 7-21350 (JP, A) JP 10-97642 (JP, A) Akio Ishikawa 3 others, "Interactive operation of 3D live-action space based on ray description", IEICE Transactions , Japan Society of Electronic and Information Communication, May 25, 1998, Vol. J81-D-II, No. 5, p. 850-860 Ken Naemura, 3 persons, "Ray space projection method for efficient description of 3D real space by ray information", Technical Report of The Institute of Television Engineers of Japan, Television Society of Japan, February 1, 1996. , Volume 20, Issue 4, p. 49-56 (58) Fields investigated (Int.Cl. 7 , DB name) G06T 17/40 G06T 1/00 H04N 1/387 G01B 11/00 CSDB (Japan Patent Office)

Claims (23)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 実写画像の画像データから、この画像空
間と異なる所定の空間に関して構成された空間データを
蓄積する画像蓄積方法において、 前記空間データ中の実画像データを解像度に応じて階層
化して分割する第1の階層分割工程と、 前記実画像空間と前記所定の空間との対応関係を表すマ
ップを解像度に応じて階層化して分割する第2の階層分
割工程であって、夫々の階層での解像度が前記第1分割
工程における各階層の解像度に対応するように設定され
ている第2の階層分割工程と、 得られた階層化画像データと階層化マップデータとを記
憶装置に記憶する工程とを具備することを特徴とする画
像蓄積方法。
1. An image storage method for storing spatial data composed of a predetermined space different from this image space from image data of a real shot image, wherein real image data in the spatial data is hierarchized according to resolution. A first hierarchical division step of dividing, and a second hierarchical division step of hierarchically dividing the map showing the correspondence relationship between the actual image space and the predetermined space according to the resolution, in each hierarchy Second hierarchical division step in which the resolution of each of the layers is set to correspond to the resolution of each layer in the first division step, and the step of storing the obtained hierarchical image data and hierarchical map data in a storage device. An image storage method comprising:
【請求項2】 前記空間データは光線空間データである
ことを特徴とする請求項1に記載の画像蓄積方法。
2. The image storage method according to claim 1, wherein the spatial data is ray space data.
【請求項3】 階層と解像度は昇順或いは降順に設定さ
れていることを特徴とする請求項1乃至請求項2のいず
れか1項に記載の画像蓄積方法。
3. The image storage method according to claim 1, wherein the hierarchy and the resolution are set in ascending order or descending order.
【請求項4】 前記階層分割工程はデータの間引き処理
を行うことを特徴とする請求項1乃至請求項3のいずれ
か1項に記載の画像蓄積方法。
4. The image storage method according to claim 1, wherein in the layer dividing step, data thinning processing is performed.
【請求項5】 前記第2の階層分割工程は、階層分割数
に応じて設定された大きさのブロックに対応して前記マ
ップデータを複数のブロックに分割するブロック分割工
程を含むことを特徴とする請求項1乃至請求項4のいず
れか1項に記載の画像蓄積方法。
5. The second layer division step includes a block division step of dividing the map data into a plurality of blocks corresponding to blocks having a size set according to the number of layer divisions. The image storage method according to any one of claims 1 to 4.
【請求項6】 前記第2の階層分割工程は、階層の分割
数をp、処理対象の階層をi、第i階層のマップデータ
の記憶アドレスをnjとすると、変換後のアドレスnIとし
て、 [数1] を用いることを特徴とする請求項1乃至請求項4のいず
れか1項に記載の画像蓄積方法。
6. In the second layer division step, when the number of layer divisions is p, the layer to be processed is i, and the storage address of the map data of the i-th layer is n j , the converted address n I is obtained. , [Equation 1] 5. The image storage method according to claim 1, wherein the image storage method is used.
【請求項7】 前記ブロック分割工程は、階層の分割数
をpとすると、ブロックの大きさをN×Nとして、 [数2] に設定することを特徴とする請求項5に記載の画像蓄積
方法。
7. In the block dividing step, when the number of layers is p, the block size is N × N, and The image storage method according to claim 5, wherein the image storage method is set to.
【請求項8】 請求項1乃至請求項7のいずれか1項に
記載の方法で蓄積された階層化空間データを仮想空間に
描画する画像描画方法であって、 解像度のより低い階層の階層化空間データから順に読み
取る工程と、 読みとった順に仮想画像を描画する描画工程を具備する
ことを特徴とする画像描画方法。
8. An image drawing method for drawing the layered spatial data accumulated by the method according to claim 1 in a virtual space, the layering of a layer having a lower resolution. An image drawing method comprising: a step of sequentially reading from spatial data; and a drawing step of drawing a virtual image in the order of reading.
【請求項9】 ユーザの視点位置を検出する検出工程を
有し、前記描画工程は、検出された視点位置に基づいた
仮想画像を描画することを特徴とする請求項8に記載の
画像描画方法。
9. The image drawing method according to claim 8, further comprising a detection step of detecting a viewpoint position of the user, wherein the drawing step draws a virtual image based on the detected viewpoint position. .
【請求項10】 前記読み取り工程は、検出された視点
位置に近い空間の階層化空間データを読み取ることを特
徴とする請求項9に記載の画像描画方法。
10. The image drawing method according to claim 9, wherein the reading step reads hierarchical space data of a space close to the detected viewpoint position.
【請求項11】 請求項1乃至請求項10のいずれか1
項に記載の方法をコンピュータ上で実現するプログラム
を記憶する記憶媒体。
11. The method according to any one of claims 1 to 10.
A storage medium for storing a program for realizing the method according to the item on a computer.
【請求項12】 請求項11に記載の記憶媒体を搭載す
るコンピュータ。
12. A computer equipped with the storage medium according to claim 11.
【請求項13】 実写画像の画像データから、この画像
空間と異なる所定の空間に関して構成された空間データ
を蓄積する画像蓄積装置において、 前記空間データ中の実画像データを解像度に応じて階層
化して分割する第1の階層分割手段と、 前記実画像空間と前記所定の空間との対応関係を表すマ
ップを解像度に応じて階層化して分割する第2の階層分
割手段であって、夫々の階層での解像度が前記第1分割
手段における各階層の解像度に対応するように設定され
ている第2の階層分割手段と、 得られた階層化画像データと階層化マップデータとを記
憶する記憶手段とを具備することを特徴とする画像蓄積
装置。
13. An image storage device for storing, from image data of a real shot image, spatial data configured for a predetermined space different from this image space, wherein real image data in the spatial data is hierarchized according to resolution. First hierarchical dividing means for dividing, and second hierarchical dividing means for dividing the map showing the correspondence relationship between the actual image space and the predetermined space into hierarchies according to the resolution, in each hierarchy. A second layer division means whose resolution is set to correspond to the resolution of each layer in the first division means, and a storage means for storing the obtained layered image data and layered map data. An image storage device comprising.
【請求項14】 実写画像の画像データから、この画像
空間と異なる所定の 空間に関して構成された空間データ
をダウンロードする画像のダウンロード方法において、 前記空間データ中の実画像データを解像度に応じて階層
化して分割する第1の階層分割工程と、 得られた階層化画像データと前記実画像空間と前記所定
の空間との対応関係を表すマップとを外部にダウンロー
ドするダウンロード工程と、 前記マップを解像度に応じて階層化して分割する第2の
階層分割工程を具備し、 前記ダウンロード工程は、得られた階層化画像データと
階層化マップデータとをダウンロードするものであるこ
とを特徴とする画像のダウンロード方法。
14. This image is obtained from image data of a photographed image.
Spatial data constructed for a given space different from the space
In the method of downloading an image, the real image data in the spatial data is layered according to the resolution.
A first hierarchical dividing step of dividing into a plurality of layers, the obtained hierarchical image data, the real image space, and the predetermined
Map showing the correspondence with the space of
Comprising a sul downloading step, the second hierarchy division step of dividing hierarchized according to the map resolution, the download process, which downloads the resulting hierarchized image data of layered map data how to download images you wherein a is.
【請求項15】 入力画像データを、該画像データの画
像空間座標と異なる所定の空間座標に関する空間データ
に変換する工程と、 前記空間データを解像度に応じて階層化して分割する第
1の階層分割工程と、 前記画像空間座標における画像データと前記所定の空間
における空間データとの対応関係を表すマップを生成す
る工程と、 前記マップを解像度に応じて階層化して分割する第2の
階層分割工程と、 得られた階層化空間データと階層化マップデータとを記
憶装置に記憶する工程と、 前記階層化空間データと前記階層化マップデータとから
画像を生成する画像生成工程と、を具備することを特徴
とする画像処理方法。
15. A step of converting input image data into spatial data relating to predetermined spatial coordinates different from image space coordinates of the image data, and a first hierarchical division for hierarchically dividing the spatial data according to a resolution. A step of generating a map showing a correspondence relationship between the image data in the image space coordinates and the spatial data in the predetermined space; and a second hierarchical division step of hierarchically dividing the map according to the resolution. And a step of storing the obtained layered spatial data and the layered map data in a storage device, and an image generation step of generating an image from the layered spatial data and the layered map data. Characterized image processing method.
【請求項16】 前記第2の階層分割工程は、夫々の階
層での解像度が前記第1分割工程における各階層の解像
度に対応するように設定されていることを特徴とする請
求項15に記載の画像処理方法。
16. The second hierarchy division process, according to claim 15, characterized in that it is set to correspond to the resolution of each hierarchy resolution in the hierarchy of each of the first division step Image processing method.
【請求項17】 階層と解像度は昇順或いは降順に設定
されていることを特徴とする請求項15乃至請求項16
のいずれか1項に記載の画像処理方法。
17. The method of claim 15 through claim 16 hierarchy and resolution, characterized in that it is set in ascending or descending order
The image processing method according to any one of 1.
【請求項18】 前記第2の階層分割工程は、階層分割
数に応じて設定された大きさのブロックに対応して前記
マップデータを複数のブロックに分割するブロック分割
工程を含むことを特徴とする請求項15乃至請求項17
のいずれか1項に記載の画像処理方法。
18. The second layer division step includes a block division step of dividing the map data into a plurality of blocks corresponding to blocks having a size set according to the number of layer divisions. Claims 15 to 17
The image processing method according to any one of 1.
【請求項19】 解像度のより低い階層の階層化空間デ
ータから順に読み取る工程と、 読みとった順に仮想画像を描画する描画工程を具備する
ことを特徴とする請求項15に記載の画像処理方法。
19. The image processing method according to claim 15 , further comprising a step of sequentially reading from the hierarchical space data of a hierarchy with a lower resolution, and a drawing step of drawing a virtual image in the order of reading.
【請求項20】 ユーザの視点位置を検出する検出工程
を有し、前記描画工程は、検出された視点位置に基づい
た仮想画像を描画することを特徴とする請求項19に記
載の画像処理方法。
20. The image processing method according to claim 19 , further comprising a detection step of detecting a viewpoint position of the user, wherein the drawing step draws a virtual image based on the detected viewpoint position. .
【請求項21】 前記読み取り工程は、検出された視点
位置に近い空間の階層化空間データを読み取ることを特
徴とする請求項20に記載の画像処理方法。
21. The image processing method according to claim 20 , wherein the reading step reads hierarchical space data of a space close to the detected viewpoint position.
【請求項22】 請求項15乃至請求項21のいずれか
1項に記載の方法をコンピュータ上で実現するプログラ
ムを記憶する記憶媒体。
22. A storage medium storing a program for realizing the method described on the computer in any one of claims 15 to 21.
【請求項23】 入力画像データを、該画像データの画
像空間座標と異なる所定の空間座標に関する空間データ
に変換する手段と、 前記空間データを解像度に応じて階層化して分割する第
1の階層分割手段と、 前記画像空間座標における画像データと前記所定の空間
における空間データとの対応関係を表すマップを生成す
る手段と、 前記マップを解像度に応じて階層化して分割する第2の
階層分割手段と、 得られた階層化空間データと階層化マップデータとを記
憶装置に記憶する手段と、 前記階層化空間データと前記階層化マップデータとから
画像を生成する画像生成手段と、を具備することを特徴
とする画像処理装置。
23. A means for converting the input image data into spatial data relating to predetermined spatial coordinates different from the image spatial coordinates of the image data, and a first hierarchical division for hierarchically dividing the spatial data according to the resolution. Means, means for generating a map representing a correspondence relationship between image data in the image space coordinates and spatial data in the predetermined space, and second hierarchy dividing means for hierarchically dividing the map according to resolution. A storage unit for storing the obtained layered spatial data and the layered map data in a storage device; and an image generation unit for generating an image from the layered spatial data and the layered map data. A characteristic image processing device.
JP35908699A 1999-09-02 1999-12-17 Image storage method, image drawing method, image storage device, image processing device, image download method, computer, and storage medium Expired - Fee Related JP3392088B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP35908699A JP3392088B2 (en) 1999-12-17 1999-12-17 Image storage method, image drawing method, image storage device, image processing device, image download method, computer, and storage medium
AT00118747T ATE353460T1 (en) 1999-09-02 2000-08-30 PROGRESSIVE DISPLAY OF TARGET OBJECTS
EP00118747A EP1081650B1 (en) 1999-09-02 2000-08-30 Progressive Display of Target Objects
DE60033249T DE60033249D1 (en) 1999-09-02 2000-08-30 Progressive display of target objects
US09/653,271 US6774898B1 (en) 1999-09-02 2000-08-31 Image storage method, image rendering method, image storage apparatus, image processing apparatus, image download method, and computer and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP35908699A JP3392088B2 (en) 1999-12-17 1999-12-17 Image storage method, image drawing method, image storage device, image processing device, image download method, computer, and storage medium

Publications (2)

Publication Number Publication Date
JP2001175888A JP2001175888A (en) 2001-06-29
JP3392088B2 true JP3392088B2 (en) 2003-03-31

Family

ID=18462679

Family Applications (1)

Application Number Title Priority Date Filing Date
JP35908699A Expired - Fee Related JP3392088B2 (en) 1999-09-02 1999-12-17 Image storage method, image drawing method, image storage device, image processing device, image download method, computer, and storage medium

Country Status (1)

Country Link
JP (1) JP3392088B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011077623A1 (en) 2009-12-24 2011-06-30 株式会社ソニー・コンピュータエンタテインメント Image processing device, image data generation device, image processing method, image data generation method, and data structure of image file
JP5061177B2 (en) * 2009-12-24 2012-10-31 株式会社ソニー・コンピュータエンタテインメント Image processing apparatus, image data generation apparatus, image processing method, image data generation method, and data structure of image file

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
石川彰夫 外3名,"光線記述に基づく3次元実写空間のインタラクティブ操作",電子情報通信学会論文誌,社団法人電子情報通信学会,1998年5月25日,第J81−D−II巻,第5号,p.850−860
苗村健 外3名,"光線情報による3次元実空間の効率的記述へ向けた光線空間射影法",テレビジョン学会技術報告,社団法人テレビジョン学会,1996年2月1日,第20巻,第4号,p.49−56

Also Published As

Publication number Publication date
JP2001175888A (en) 2001-06-29

Similar Documents

Publication Publication Date Title
CN114004941B (en) Indoor scene three-dimensional reconstruction system and method based on nerve radiation field
CN112053446B (en) Real-time monitoring video and three-dimensional scene fusion method based on three-dimensional GIS
CN111788610B (en) Method and apparatus for generating a three-dimensional reconstruction of a surface in a scene
CN110574076B (en) Image generation device, image generation method, and computer-readable storage medium
EP3057066B1 (en) Generation of three-dimensional imagery from a two-dimensional image using a depth map
JP4052331B2 (en) Virtual viewpoint image generation method, three-dimensional image display method and apparatus
CN110675489B (en) Image processing method, device, electronic equipment and storage medium
EP0680019B1 (en) Image processing method and apparatus
US9286718B2 (en) Method using 3D geometry data for virtual reality image presentation and control in 3D space
JP2003536160A (en) Method and apparatus for mapping images and videos to create operable and virtual reality videos and images
US6774898B1 (en) Image storage method, image rendering method, image storage apparatus, image processing apparatus, image download method, and computer and storage medium
WO2009093136A2 (en) Image capture and motion picture generation
JP4406824B2 (en) Image display device, pixel data acquisition method, and program for executing the method
EP2159756B1 (en) Point-cloud clip filter
WO2020184174A1 (en) Image processing device and image processing method
KR101588935B1 (en) A method using 3d geometry data for virtual reality image presentation and control in 3d space
JPH07129792A (en) Method and device for image processing
JP3392088B2 (en) Image storage method, image drawing method, image storage device, image processing device, image download method, computer, and storage medium
JPH1097642A (en) Image processing method, its device and storage medium
JP4710081B2 (en) Image creating system and image creating method
JP3387900B2 (en) Image processing method and apparatus
CN109379577B (en) Video generation method, device and equipment of virtual viewpoint
JP3403143B2 (en) Image processing method, apparatus and storage medium
JP2002042158A (en) Image composing device, image composing method, and medium recording program
Naemura et al. Ray-based approach to integrated 3D visual communication

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030106

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090124

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090124

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100124

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110124

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120124

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130124

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140124

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees