JP2001229397A - Method and system for constructing three-dimensional virtual space and storage medium - Google Patents

Method and system for constructing three-dimensional virtual space and storage medium

Info

Publication number
JP2001229397A
JP2001229397A JP2000039534A JP2000039534A JP2001229397A JP 2001229397 A JP2001229397 A JP 2001229397A JP 2000039534 A JP2000039534 A JP 2000039534A JP 2000039534 A JP2000039534 A JP 2000039534A JP 2001229397 A JP2001229397 A JP 2001229397A
Authority
JP
Japan
Prior art keywords
image
panoramic
observation point
panoramic image
center
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000039534A
Other languages
Japanese (ja)
Other versions
JP4082546B2 (en
Inventor
Eiketsu Kou
英傑 黄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2000039534A priority Critical patent/JP4082546B2/en
Publication of JP2001229397A publication Critical patent/JP2001229397A/en
Application granted granted Critical
Publication of JP4082546B2 publication Critical patent/JP4082546B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To construct a continuous three-dimensional virtual space for providing a virtual environment having no sense of incompatibility in forward and back ward movements, translation and rotation by using a comparatively simple image synthesizing process. SOLUTION: A plurality of all around panoramic images 100 around each vertex of regular triangles which are aligned in a mesh form in a real space are stored. When the movement of a point of observation and rotation of a line of sight are indicated by using a mouse 103 and a keyboard 102, the image 100 that is selected by a panoramic image selector 105 is inputted to a display image production device 107 on the basis of the result of analysis of an input analysis device 104. The device 107 synthesizes the images which are seen from the point of observation during movements or rotations, and this synthetic image is shown on an image display device 101 by an image display controller 110.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、3次元仮想空間を
構築する技術に関する。
The present invention relates to a technique for constructing a three-dimensional virtual space.

【0002】[0002]

【従来の技術】コンピュータ・グラフィックス(CG)
により3次元仮想空間を構築する方法がある。この方法
では、予め3次元モデルを用意し、テクスチャマッピン
グやレンダリングなどの技法を駆使して任意の位置から
任意の方向を見たシーンを画面に描画する。しかし、自
由に歩き回ることができる自然な3次元仮想空間を実現
するには、3次元モデルデータの取得など困難な技術的
課題が多い。
2. Description of the Related Art Computer graphics (CG)
There is a method of constructing a three-dimensional virtual space by using In this method, a three-dimensional model is prepared in advance, and a scene viewed in an arbitrary direction from an arbitrary position is drawn on a screen by making full use of techniques such as texture mapping and rendering. However, in order to realize a natural three-dimensional virtual space that can freely walk around, there are many difficult technical issues such as acquisition of three-dimensional model data.

【0003】3次元仮想空間を実現するもう1つの方法
として、ある地点で撮影した複数枚の2次元実写画像か
ら、その地点の周囲のシーンを表すパノラマ画像を合成
し、このパノラマ画像から任意の観察点から見えるシー
ンを表す画像を切り出して画面に表示する方法がある。
しかし、切り出された画像の単純な拡大処理によって観
察点の前進運動時のシーンを表す画像を作成するため、
前進するほどシーンの画質が悪化してしまう。また、あ
くまで1つの全周パノラマ画像でシーンを表現するので
あるから、運動の自由度と範囲が制限されてしまう。
As another method of realizing a three-dimensional virtual space, a panoramic image representing a scene around the point is synthesized from a plurality of two-dimensional photographed images photographed at a point, and an arbitrary image is obtained from the panoramic image. There is a method in which an image representing a scene seen from an observation point is cut out and displayed on a screen.
However, since the image representing the scene at the time of the forward movement of the observation point is created by a simple enlargement process of the extracted image,
As one moves forward, the image quality of the scene deteriorates. In addition, since the scene is represented by a single panoramic image, the degree of freedom and range of motion are limited.

【0004】もう1つの方法として、例えば特開平10
−91814号公報に開示されているように、「ホット
リンク」と呼ばれる手法によって、予め用意されたいく
つかのパノラマ画像の間を移動できるようにする方法が
ある。しかしながら、パノラマ画像間の移動が可能にな
るとはいっても、あるパノラマ画像から別のパノラマ画
像へ移動する際の環境の変化を切れ目なく見ることがで
きるわけではなく、連続した3次元仮想空間は構築でき
ない。
Another method is disclosed in, for example,
As disclosed in JP-A-91814, there is a method that allows a user to move between several panorama images prepared in advance by a technique called “hot link”. However, even though it is possible to move between panoramic images, it is not possible to see changes in the environment when moving from one panoramic image to another panoramic image without a break, and a continuous three-dimensional virtual space is constructed. Can not.

【0005】[0005]

【発明が解決しようとする課題】以上の問題点に鑑み、
本発明は、比較的簡単な画像合成処理によって、観察点
又は視線の運動時に違和感のない連続した仮想環境を提
供できる3次元仮想空間構築方法及びシステムを実現し
ようとするものである。
In view of the above problems,
An object of the present invention is to realize a method and a system for constructing a three-dimensional virtual space that can provide a continuous virtual environment without discomfort during movement of an observation point or a line of sight by relatively simple image synthesis processing.

【0006】[0006]

【課題を解決するための手段】本発明においては、実空
間において離散的に配置された地点をそれぞれ中心とし
た複数の全周パノラマ画像をデジタルデータとして用意
し、観察点に近い中心を持つ少なくとも2つの全周パノ
ラマ画像を用いて、観察点から見えるシーンを表す画像
を作成し表示することにより、連続した3次元仮想空間
を構築する。より具体的には、各全周パノラマ画像の中
心は、実空間上でメッシュ状に並べられた正三角形の各
頂点に配置される。
According to the present invention, a plurality of all-around panoramic images centered on discretely arranged points in a real space are prepared as digital data, and at least a panoramic image having a center close to an observation point is prepared. A continuous three-dimensional virtual space is constructed by creating and displaying an image representing a scene viewed from an observation point using two panoramic images of the entire circumference. More specifically, the center of each perimeter panoramic image is located at each vertex of an equilateral triangle arranged in a mesh on the real space.

【0007】本発明においては、観察点の前進運動時に
違和感のない連続した仮想環境を提供するため、観察点
に近い中心を持つ第1の全周パノラマ画像と、この第1
の全周パノラマ画像の中心から視線方向にある最も近い
中心を持つ第2の全周パノラマ画像とを用いて、観察点
の前進運動時に観察点から見えるシーンを表す画像を合
成する。また、シーンの中央部の解像度を維持するた
め、シーンを表す画像の中心部の画素情報を第2の全周
パノラマ画像から、周辺部の画素情報を第1の全周パノ
ラマ画像から、それぞれ提供する合成方法とする。
In the present invention, in order to provide a continuous virtual environment without discomfort during forward movement of the observation point, a first full-circle panoramic image having a center close to the observation point,
An image representing a scene seen from the observation point when the observation point moves forward is synthesized using the second full-circle panorama image having the closest center in the line of sight from the center of the full-circle panorama image. In addition, in order to maintain the resolution of the central part of the scene, pixel information of the central part of the image representing the scene is provided from the second full-panoramic image, and pixel information of the peripheral part is provided from the first full-panoramic image. And a synthesis method.

【0008】本発明においては、観察点の後退運動時に
違和感のない連続した仮想環境を提供するため、観察点
に近い中心を持つ第1の全周パノラマ画像と、この第1
の全周パノラマ画像の中心から視線方向と反対方向にあ
る最も近い中心を持つ第2の全周パノラマ画像とを用い
て、観察点の後退運動時に観察点から見えるシーンを表
す画像を合成する。また、シーンの中央部の解像度を維
持するため、シーンを表す画像の中心部の画素情報を第
1の全周パノラマ画像から、周辺部の画素情報を第2の
全周パノラマ画像から、それぞれ提供する合成方法とす
る。
In the present invention, in order to provide a continuous virtual environment without discomfort during the backward movement of the observation point, a first full-circle panoramic image having a center close to the observation point,
And a second full-circle panoramic image having the closest center in the direction opposite to the line of sight from the center of the full-circle panoramic image. In addition, in order to maintain the resolution of the central portion of the scene, pixel information of the central portion of the image representing the scene is provided from the first full panoramic image, and pixel information of the peripheral portion is provided from the second full panoramic image. And a synthesis method.

【0009】本発明おいては、観察点の並進運動時に違
和感のない連続した仮想環境を提供するため、観察点に
近い中心を持つ第1の全周パノラマ画像と、この第1の
全周パノラマ画像の中心から観察点の並進方向にある最
も近い中心を持つ第2の全周パノラマ画像とを用いて、
観察点の並進運動時に観察点から見えるシーンを表す画
像を合成する。並進に応じた視差のあるシーンを表現す
るため、合成画像において、第1と第2の全周パノラマ
画像がオーバーラップする部分の画素情報を、第1の全
周パノラマ画像の中心及び第2の全周パノラマ画像の中
心と観察点との距離に応じた重みを用いた第1と第2の
全周パノラマ画像の重み付け加算により合成する。
In the present invention, in order to provide a continuous virtual environment without discomfort during translational movement of the observation point, a first full-circle panoramic image having a center close to the observation point, Using the second full-circle panoramic image having the closest center in the translation direction of the observation point from the center of the image,
An image representing a scene seen from the observation point during the translational movement of the observation point is synthesized. In order to express a scene with parallax corresponding to translation, in the composite image, pixel information of a portion where the first and second full-circle panoramic images overlap is determined by using the center of the first full-circle panoramic image and the second The first and second full-circle panoramic images are combined by weighted addition using a weight corresponding to the distance between the center of the full-circle panoramic image and the observation point.

【0010】本発明においては、視線の回転運動時に違
和感のない連続した仮想環境を提供するため、観察点に
近い中心を持つ3つの全周パノラマ画像から新しい全周
パノラマ画像を合成し、この新しい全周パノラマ画像か
ら視線の回転運動時に見えるシーンを表す画像を作成す
る。
In the present invention, in order to provide a continuous virtual environment without a sense of incongruity during the rotational movement of the line of sight, a new omnidirectional panoramic image is synthesized from three omnidirectional panoramic images having centers close to the observation point. From the panoramic image of the entire circumference, an image representing a scene seen during the rotational movement of the line of sight is created.

【0011】[0011]

【発明の実施の形態】本発明の実施の一形態である3次
元仮想空間構築システムのブロック構成を図1に示す。
この3次元仮想空間構築システムは、画像表示装置10
1、キーボード102、マウス(ポインティング装置)
103、入力解析装置104、パノラマ画像選択装置1
05、パノラマ画像蓄積装置106、表示画像作成装置
107、画像表示制御装置110から構成される。この
ようなシステムは、通常、汎用又は専用のコンピュータ
の資源を利用しソフトウェアにより実現されるが、専用
のハードウェアによって実現することも可能である。
FIG. 1 shows a block configuration of a three-dimensional virtual space construction system according to an embodiment of the present invention.
This three-dimensional virtual space construction system includes an image display device 10
1. Keyboard 102, mouse (pointing device)
103, input analysis device 104, panorama image selection device 1
05, a panoramic image storage device 106, a display image creation device 107, and an image display control device 110. Such a system is generally realized by software using resources of a general-purpose or dedicated computer, but can also be realized by dedicated hardware.

【0012】パノラマ画像蓄積装置106には、実空間
において所定の相対位置関係にある離散的な複数の地点
(地点1,...地点n)を中心とした複数の全周パノ
ラマ画像100がデジタルデータとして予め蓄積されて
いる。これら複数の全周パノラマ画像の中心(撮影地
点)は、実空間において、例えば図2に示すように、メ
ッシュ状に並んだ正三角形の各頂点(黒丸で示されてい
る)に配置される。図2中の各円は全周パノラマ画像を
表している。
The panoramic image storage device 106 digitally stores a plurality of all-around panoramic images 100 centered on a plurality of discrete points (points 1,..., Point n) having a predetermined relative positional relationship in the real space. It is stored in advance as data. The centers (photographing points) of the plurality of all-around panoramic images are arranged at respective vertices (shown by black circles) of regular triangles arranged in a mesh in the real space, for example, as shown in FIG. Each circle in FIG. 2 represents a full-circle panoramic image.

【0013】なお、全周パノラマ画像などの画像はデジ
タルデータとして表現されるが、本明細書においては単
に画像と呼ぶことがある。
Note that an image such as an all-around panoramic image is represented as digital data, but may be simply referred to as an image in this specification.

【0014】キーボード102とマウス103は、3次
元仮想空間における観察点又は視線の運動の種類(前
進、後退、並進又は回転)と、その運動量(前進距離、
後退距離、並進距離、回転角度)などを指示するために
ユーザにより利用されるものである。入力解析装置10
4は、キーボード102やマウス103から入力された
情報を解析し、3次元仮想空間内の観察点の現在位置と
視線方向、指定された運動の種類(前進、後退、並進又
は回転)及び運動量を判定し、判定した情報をパノラマ
画像選択装置105及び表示画像作成装置107に与え
る。パノラマ画像選択装置105は、入力解析装置10
4より与えられた情報に基づいて、表示画像作成装置1
07で必要とされる全周パノラマ画像を選択し、それを
パノラマ画像蓄積装置106から表示画像作成装置10
7へ出力させるものである。表示画像成装置107は、
パノラマ画像蓄積装置106から入力された全周パノラ
マ画像から、観察点から見えるシーンを表す表示画像を
作成し、それを画像表示制御装置110に渡す。画像表
示制御装置110は、その表示画像を画像表示装置10
1の画面に表示させる。
The keyboard 102 and the mouse 103 are used to move the observation point or the line of sight in the three-dimensional virtual space (forward, backward, translation or rotation), and the amount of movement (forward distance,
It is used by the user to instruct a retreat distance, a translation distance, a rotation angle, and the like. Input analysis device 10
Reference numeral 4 analyzes information input from the keyboard 102 or the mouse 103, and determines the current position and line-of-sight direction of the observation point in the three-dimensional virtual space, the type of specified movement (forward, backward, translation or rotation), and the amount of movement. The determination is performed, and the determined information is provided to the panoramic image selection device 105 and the display image creation device 107. The panoramic image selection device 105 is a
Display image creation device 1 based on the information given by
07, a required panoramic image is selected from the panorama image storage device 106 and the display image creation device 10 is selected.
7 is output. The display image generating device 107 includes:
From the panoramic image input from the panoramic image storage device 106, a display image representing a scene viewed from the observation point is created and passed to the image display control device 110. The image display control device 110 displays the display image on the image display device 10.
1 is displayed on the screen.

【0015】以下、この3次元仮想空間構築システムの
動作を説明する。この3次元仮想空間構築システムが起
動されると、例えば、既定の地点を中心とした1つの全
周パノラマ画像、あるいは事前にユーザによって選択さ
れた1つの全周パノラマ画像がパノラマ画像選択装置1
05によって選択され、この全周パノラマ画像がパノラ
マ画像蓄積装置106より表示画像作成装置107へ出
力される。表示画像作成装置107は、その全周パノラ
マ画像より、その中心での既定の視線方向の視野角(画
像表示装置101の画面の大きさに対応)の範囲を切り
出し、切り出した画像を最初の表示画像として画像表示
制御装置110に渡す。例えば、図3のA地点を中心と
した全周パノラマ画像100Aが表示画像作成装置10
7に与えられた場合、既定の視線方向をA地点からB地
点に向かう方向とし、A地点(観察点)での視野角φの
範囲の画像Aを切り出し、これを最初の表示画像として
画像表示制御装置110に渡す。
The operation of the three-dimensional virtual space construction system will be described below. When the three-dimensional virtual space construction system is started, for example, one full-circle panoramic image centered on a predetermined point or one full-circle panoramic image selected in advance by the user is displayed in the panoramic image selecting device 1.
The panoramic image is selected from the panorama image and output to the display image creation device 107 from the panorama image storage device 106. The display image creation device 107 cuts out a range of a viewing angle (corresponding to the size of the screen of the image display device 101) in a predetermined line of sight direction at the center from the panoramic image of the entire circumference, and displays the cut out image for the first time. The image is passed to the image display control device 110 as an image. For example, the panoramic image 100A around the point A in FIG.
7, the default line-of-sight direction is set to the direction from point A to point B, an image A in a range of the viewing angle φ at point A (observation point) is cut out, and this is displayed as the first display image. Transfer to control device 110.

【0016】その後、ユーザが、この最初の表示画像が
表示された画像表示装置101の画面を見ながらマウス
103又はキーボード102によって、例えば前進運動
を指示したとする。入力解析装置104は、その入力情
報を解析し、観察点の現在位置(例えばA地点)、前進
運動である旨と前進距離の情報をパノラマ画像選択装置
105及び表示画像作成装置107に与える。前進距離
は、例えばマウス103のボタンやキーボード102の
特定キーの押された時間の長さに応じて決定される。こ
こで、前進運動とは、観察点の視線方向への移動であ
る。前進運動の場合、観察点が進むにつれてシーンの中
心部のオブジェクトが徐々に大きく見える(近づく)よ
うな表示画像が作成される。そのような表示画像の作成
のためには、観察点の移動につれて異なった全周パノラ
マ画像が必要となる。必要な全周パノラマ画像がパノラ
マ画像選択部105によって選択され、それがパノラマ
画像蓄積部106から表示画像作成部107へ出力され
る。
Thereafter, it is assumed that the user instructs, for example, forward movement by using the mouse 103 or the keyboard 102 while viewing the screen of the image display device 101 on which the first display image is displayed. The input analysis device 104 analyzes the input information and provides the panorama image selection device 105 and the display image creation device 107 with information on the current position of the observation point (for example, point A), forward motion, and forward distance. The advance distance is determined according to, for example, the length of time during which a button of the mouse 103 or a specific key of the keyboard 102 is pressed. Here, the forward movement is movement of the observation point in the direction of the line of sight. In the case of the forward movement, a display image is created in which the object at the center of the scene looks gradually larger (approaches) as the observation point advances. In order to create such a display image, different panoramic images are required as the observation point moves. A necessary panoramic image is selected by the panorama image selection unit 105 and output from the panorama image storage unit 106 to the display image creation unit 107.

【0017】例えば、図3のA地点からP地点まで観察
点が前進する場合、パノラマ画像選択装置105は、地
点Aから前進方向(視線方向)にある最も近いB地点を
中心とした全周パノラマ画像100Bを選択し、それを
パノラマ画像蓄積装置106から表示画像作成装置10
7へ出力させる。A地点を中心とした全周パノラマ画像
100Aはすでに表示画像作成部107に入力され蓄積
されている。表示画像作成装置107において、前進運
動時に観察点から見えるシーンを表す表示画像を順次作
成する。
For example, when the observation point advances from the point A to the point P in FIG. 3, the panoramic image selection device 105 uses the panoramic image panorama centering on the nearest point B in the forward direction (sight direction) from the point A. The image 100B is selected, and the selected image 100B is transferred from the panoramic image storage device 106 to the display image creation device 10
7 is output. An all-around panoramic image 100A centered on the point A has already been input and stored in the display image creation unit 107. The display image creation device 107 sequentially creates a display image representing a scene seen from the observation point during the forward movement.

【0018】P地点で見えるシーンを表す表示画像の作
成方法は次の通りである。表示画像作成装置107にお
いて、図3に示すように、全周パノラマ画像100Aよ
り、A地点での視野角φの範囲の画像Aを切り出す。こ
の画像Aを、A地点からP地点の距離つまり観察点の前
進距離に応じた倍率で拡大し、この拡大画像のP地点で
の視野角φの範囲に対応する部分(画像a)を切り出
す。換言すれば、表示画像のサイズに合うように拡大画
像の周辺部分をトリミングする。なお、全周パノラマ画
像100Aから画像aに対応する部分を直接切り出して
拡大処理してもよい。また、全周パノラマ画像100B
より、B地点での視野角φの範囲に対応する画像Bを切
り出す。この画像Bを前進距離に応じた倍率で縮小処理
する。すなわち、B地点より前進距離だけ進んだ位置で
の視野角φの範囲に対応するサイズまで画像Bを縮小処
理する。そして、画像Bの縮小画像bの周辺に、画像a
を使って画素を補間することにより、地点Pで見えるシ
ーンを表す表示画像を合成する。つまり、表示画像の周
辺部の画素情報は全周パノラマ画像Aから提供し、表示
画像の中心部の画素情報は全周パノラマ画像Bから提供
するという合成方法である。このような合成方法によっ
て、中心部の解像度の高い表示画像を作成することがで
きる。
The method of creating a display image representing a scene seen at point P is as follows. As shown in FIG. 3, the display image creation device 107 cuts out the image A in the range of the viewing angle φ at the point A from the panoramic image 100A. The image A is enlarged at a magnification corresponding to the distance from the point A to the point P, that is, the forward distance of the observation point, and a portion (image a) corresponding to the range of the viewing angle φ at the point P of the enlarged image is cut out. In other words, the peripheral portion of the enlarged image is trimmed to match the size of the display image. Note that a portion corresponding to the image a may be directly cut out from the full-circumference panoramic image 100A and may be enlarged. In addition, an all-around panoramic image 100B
Thus, the image B corresponding to the range of the viewing angle φ at the point B is cut out. The image B is reduced at a magnification corresponding to the forward distance. That is, the image B is reduced to a size corresponding to the range of the viewing angle φ at the position advanced by the forward distance from the point B. Then, the image a is placed around the reduced image b of the image B.
Is used to synthesize a display image representing the scene seen at the point P. In other words, the pixel information of the peripheral portion of the display image is provided from the panoramic image A, and the pixel information of the central portion of the display image is provided from the panoramic image B. By such a combining method, a display image with a high resolution at the center can be created.

【0019】同様の方法で、A地点からB地点までの間
の各地点における表示画像が逐次作成され、画像表示装
置101に表示される。観察点がさらに前進してB地点
に到達すると、全周パノラマ画像100Bから切り出さ
れた画像Bが表示画像として表示される。観察点がさら
に前進すると、B地点の視線方向にある最も近いC地点
を中心とした全周パノラマ画像100C(不図示)と全
周パノラマ画像Bとから表示画像が同様の方法で作成さ
れて表示される。
In the same manner, display images at each point from the point A to the point B are sequentially created and displayed on the image display device 101. When the observation point further advances and reaches the point B, the image B cut out from the all-around panoramic image 100B is displayed as a display image. When the observation point further advances, a display image is created and displayed in a similar manner from the full-circle panoramic image 100C (not shown) and the full-circle panoramic image B centered on the closest point C in the line of sight of the point B. Is done.

【0020】なお、概念的には、B地点における表示画
像も、B地点を通過した地点における表示画像と同じ合
成方法によって作成される。ただし、全周パノラマ画像
100C(不図示)から切り出された画像はゼロサイズ
まで縮小されてから合成されることになるため、結果と
して、全周パノラマ画像100BのみでB地点の表示画
像が作成される形になるのである。このことは、後述の
後退運動の場合も同様に理解してよい。
Note that, conceptually, the display image at the point B is created by the same combining method as the display image at the point passing the point B. However, since the image cut out from the full-circle panoramic image 100C (not shown) is reduced to zero size and then synthesized, as a result, a display image at the point B is created using only the full-circle panoramic image 100B. It becomes a form. This may be similarly understood in the case of the backward movement described below.

【0021】このようにして作成された表示画像が画像
表示装置101の画面に逐次表示されるため、画像表示
装置101の画面を見ているユーザは、あたかも切れ目
のない自然な3次元空間内を前進しているかのような感
覚を体験できる。また、シーンの中央部は良好な解像度
が維持されるためシーンの画質の面から前進距離が制限
されることはない。
Since the display images created in this way are sequentially displayed on the screen of the image display device 101, the user looking at the screen of the image display device 101 can view the natural three-dimensional space as if it were continuous. You can experience the feeling of moving forward. In addition, since the central portion of the scene maintains a good resolution, the advance distance is not limited in terms of the image quality of the scene.

【0022】次に、マウス103又はキーボード102
によって後退運動が指示されたとする。この時、入力解
析装置104から、観察点の現在位置、後退運動である
旨及び後退距離の情報がパノラマ画像選択装置105及
び表示画像作成装置107に与えられる。後退距離は、
例えばマウス103のボタンやキーボード102の特定
キーの押された時間の長さに応じて決定される。ここ
で、後退運動とは観察点が視線方向と反対の方向へ移動
することである。後退運動の場合、観察点が移動するに
つれてシーンの中心部のオブジェクトが徐々に小さく見
える(遠ざかる)ような表示画像が作成される。そのよ
うな表示画像の作成のためには、観察点の移動につれて
異なった全周パノラマ画像が必要となる。
Next, the mouse 103 or the keyboard 102
Assume that a backward movement is instructed. At this time, the input analysis device 104 provides the current position of the observation point, information indicating the retreating motion and the retreat distance to the panoramic image selecting device 105 and the display image creating device 107. The retreat distance is
For example, it is determined according to the length of time during which a button of the mouse 103 or a specific key of the keyboard 102 is pressed. Here, the backward movement means that the observation point moves in the direction opposite to the line of sight. In the case of the backward movement, a display image is created in which the object at the center of the scene looks gradually smaller (moves away) as the observation point moves. In order to create such a display image, different panoramic images are required as the observation point moves.

【0023】例えば、図4のB地点からA地点へ向かっ
て後退する場合、パノラマ画像選択装置105は、B地
点から後退方向(視線方向と反対の方向)にある最も近
いA地点を中心とした全周パノラマ画像100Aをパノ
ラマ画像蓄積装置106から表示画像作成装置107に
入力させる。B地点を中心とする全周パノラマ画像10
0Bはすでに表示画像作成部107に蓄積されている。
For example, in the case of retreating from point B to point A in FIG. 4, the panoramic image selecting device 105 centers on the closest point A in the retreating direction (the direction opposite to the line of sight) from point B. The entire circumference panoramic image 100A is input from the panoramic image storage device 106 to the display image creating device 107. All-around panoramic image 10 centered on point B
0B has already been stored in the display image creation unit 107.

【0024】後退途中のP地点で見えるシーンの表示画
像の作成方法は図3に関連して説明した前進運動の場合
と処理的には同等である。ただし、図4から理解される
ように、観察点の現在位置に対応する全周パノラマ画像
100Bより、表示画像の中心部の画素情報が提供さ
れ、表示画像の周辺部の画素情報は後退方向にある全周
パノラマ画像100Aより提供されるという点で、概念
的には前進の場合と逆の処理となる。また、B地点から
P地点までの間の各地点での表示画像が逐次作成される
が、その順序は前進の場合と逆であり、B地点に近い地
点の表示画像から先に作成される。かくして、ユーザ
は、あたかも切れ目のない自然な3次元空間内を後退し
ているかのような感覚を擬似的に体験できる。また、シ
ーンの中心部は良好な解像度が維持される。
The method of creating the display image of the scene seen at the point P in the middle of the retreat is processingally equivalent to the forward motion described with reference to FIG. However, as can be understood from FIG. 4, pixel information of the central portion of the display image is provided from the panoramic image 100B corresponding to the current position of the observation point, and pixel information of the peripheral portion of the display image moves in the backward direction. In terms of being provided from a certain panoramic image 100A, the process is conceptually the reverse of the case of forward movement. Further, display images at each point from the point B to the point P are sequentially created, but the order is reverse to that in the case of the forward movement, and the display images at points near the point B are created first. Thus, the user can simulate the feeling of retreating in a seamless natural three-dimensional space. Also, good resolution is maintained at the center of the scene.

【0025】現在の一般的なデジタルカメラは、光学ズ
ーム機構と電子ズーム機構を備えている。電子ズーム機
構では、画像の一部を切り出して拡大処理を行うことに
よりズームインを実現するため、光学ズーム機構によっ
てズームインした画像に比べ画質が劣る。これに対し、
以上に述べた前進運動及び後退運動の際の表示画像の合
成方法によれば、画像の中心部の解像度が悪化しないた
め、光学ズーム機構に近いズーム機能を実現できる。
A current general digital camera has an optical zoom mechanism and an electronic zoom mechanism. In the electronic zoom mechanism, since the zoom-in is realized by cutting out a part of the image and performing an enlargement process, the image quality is inferior to the image zoomed in by the optical zoom mechanism. In contrast,
According to the method of synthesizing the displayed images at the time of the forward movement and the backward movement described above, the resolution at the center of the image does not deteriorate, so that a zoom function close to that of the optical zoom mechanism can be realized.

【0026】図5は、このようなズームの様子を示して
いる。図中、観察点の右から左への前進移動がズームイ
ンに相当し、左から右への後退移動がズームアウトに相
当する。黒丸はパノラマ画像蓄積装置106に予め蓄積
されている各全周パノラマ画像100の中心である地点
1〜nを示し、画像1〜nは地点1〜nに観察点が位置
しているときの表示画像で、その地点を中心とした1つ
の全周パノラマ画像より直接的に切り出されたものであ
る。地点1〜nの間の地点での表示画像は相前後した2
つの全周パノラマ画像から合成されるが、これが図5中
の「合成画像」であり、その中心部の解像度は画像1〜
nと同等である。
FIG. 5 shows such a zoom state. In the figure, forward movement of the observation point from right to left corresponds to zoom-in, and backward movement from left to right corresponds to zoom-out. Black circles indicate points 1 to n, which are the centers of the all-around panoramic images 100 stored in the panorama image storage device 106 in advance, and images 1 to n are displayed when the observation point is located at points 1 to n. This is an image that is directly cut out from one entire panoramic image centered on the point. The displayed images at the points between the points 1 to n are two behind each other.
This is a “composite image” in FIG. 5, and the resolution at the center is images 1 to
It is equivalent to n.

【0027】次に、ユーザが並進運動を指示したとす
る。並進運動とは観察点が視線方向と直交する方向へ移
動することである。例えば、図6に示すように、A地点
からB地点へ向かって並進する場合を考える。画像Aは
全周パノラマ画像100AからA地点での視野角φの範
囲を切り出した画像であり、画像Bは全周パノラマ画像
100BのB地点での視野角φの範囲を切り出した画像
である。並進途中のP地点で見えるシーンを表す表示画
像(合成画像)は、画像A,Bを用いて次のようにして
作成される。
Next, it is assumed that the user instructs a translational movement. Translational movement means that the observation point moves in a direction orthogonal to the line of sight. For example, as shown in FIG. 6, consider a case where translation is performed from point A to point B. The image A is an image obtained by cutting out the range of the viewing angle φ at the point A from the all-around panoramic image 100A, and the image B is an image obtained by cutting out the range of the viewing angle φ at the point B of the all-around panoramic image 100B. A display image (synthetic image) representing a scene seen at point P in the middle of translation is created as follows using images A and B.

【0028】図6において、P地点での視野角φの空間
をA’,D,B’に分けて考える。空間Dは、視差のあ
る画像Aの一部と画像Bの一部がオーバーラップして投
影される空間である。空間A’は画像Aの一部みが投影
される空間であり、空間Bは画像Bの一部だけが投影さ
れる空間である。このことに着目し、P地点のA,B地
点からの距離に応じた重み(換言すればA地点からの移
動距離に応じた重み)を用いて、画像A,Bの空間Dに
対応した部分の重み付け加算によって表示画像のD部分
の画素情報を合成し、表示画像の空間A’,B’に対応
する部分の画素情報として画像A,Bの対応部分の画素
情報を用いる。つまり、表示画像のオーバーラップ部分
Dの画素情報は、全周パノラマ画像100Aと全周パノ
ラマ画像100Bから与えられ、表示画像のA’部分の
画素情報は全周パノラマ画像100Aから与えられ、表
示画像のB’部分の画素情報は全周パノラマ画像100
Bから与えられる。このような合成方法によれば、観察
点の位置に応じた視差のある、より自然なシーンを表示
できる。
In FIG. 6, the space of the viewing angle φ at the point P is divided into A ′, D, and B ′. The space D is a space where a part of the image A having a parallax and a part of the image B are overlapped and projected. The space A ′ is a space where only a part of the image A is projected, and the space B is a space where only a part of the image B is projected. Paying attention to this, using the weight corresponding to the distance of the point P from the points A and B (in other words, the weight corresponding to the moving distance from the point A), the portion corresponding to the space D of the images A and B The pixel information of the D portion of the display image is synthesized by the weighted addition, and the pixel information of the corresponding portion of the images A and B is used as the pixel information of the portion corresponding to the spaces A ′ and B ′ of the display image. That is, the pixel information of the overlap portion D of the display image is given from the full-width panoramic image 100A and the full-width panorama image 100B, and the pixel information of the A ′ portion of the display image is given from the full-width panorama image 100A. The pixel information of the B ′ portion of
B. According to such a combining method, a more natural scene with parallax corresponding to the position of the observation point can be displayed.

【0029】同様の方法によって、A地点からB地点ま
での各地点で見えるシーンを表す表示画像が逐次合成さ
れる。このようにして合成された表示画像が画像表示装
置101に逐次表示されるため、ユーザは、あたかも切
れ目のない自然な3次元空間内をA地点からB地点まで
並進するかのような感覚を体験することができる。B地
点を越えて並進する場合には、全周パノラマ画像100
Bとその右側の全周パノラマ画像とを用い、同様の方法
でシーンを表す表示画像が合成されて表示される。
By the same method, display images representing scenes seen at points A to B are sequentially synthesized. Since the display images synthesized in this way are sequentially displayed on the image display device 101, the user experiences a feeling as if translating from the point A to the point B in a seamless natural three-dimensional space. can do. When translating beyond point B, the panoramic image 100
A display image representing a scene is synthesized and displayed in a similar manner using B and the entire panoramic image on the right side of B.

【0030】次に、ユーザが回転運動を指示したとす
る。回転運動とは視線を水平に振る運動、つまり視線の
水平回転である。回転角度は、例えばマウス103のボ
タン又はキーボード102の特定キーの押下時間によっ
て指示される。回転運動の場合、パノラマ画像選択装置
105は、観察点に近い地点を中心とした3つの全周パ
ノラマ画像を選択し、表示画像作成装置107に入力さ
せる。表示画像作成装置107は、その3つの全周パノ
ラマ画像を用いて回転運動時のシーンを表す表示画像を
作成する。これについて図7により説明する。
Next, it is assumed that the user instructs a rotational movement. The rotational motion is a motion of horizontally moving the line of sight, that is, a horizontal rotation of the line of sight. The rotation angle is specified by, for example, the pressing time of a button of the mouse 103 or a specific key of the keyboard 102. In the case of the rotational motion, the panoramic image selecting device 105 selects three full-circle panoramic images centered on a point near the observation point, and causes the display image creating device 107 to input the panoramic image. The display image creation device 107 creates a display image representing a scene at the time of the rotational movement using the three panoramic images. This will be described with reference to FIG.

【0031】図7に示す斜線領域内のP地点で回転運動
をする場合、このP地点に最も近いA,B,C地点を中
心とした全周パノラマ画像100A,100B,100
Cを用いて、P地点を中心とした新しい全周パノラマ画
像100Pを合成する。この全周パノラマ画像100P
のPA,PB,PC部分には全周パノラマ画像100
A,100B,100CのA’,B’,C’部分(太線
部分)が貼り付けられるが、PA,PB,PC部分の接
続端部ではA’,B’,C’部分の共通した(オーバー
ラップした)画像データを利用して貼り付け処理が行わ
れる。このようにして合成された全周パノラマ画像10
0Pから、回転中の各時点での視野角の範囲が表示画像
として切り出され、画像表示装置101に表示される。
かくして、ユーザは、あたかも連続した自然な3次元空
間内で回転運動をするかのような感覚を擬似体験するこ
とができる。
When a rotational movement is made at a point P in the hatched area shown in FIG. 7, panoramic images 100A, 100B, 100 around the points A, B, and C closest to the point P are used.
Using C, a new panoramic image 100P around the point P is synthesized. This panoramic image 100P
The PA, PB, and PC portions of the panoramic image 100
The A ', B', and C 'portions (thick line portions) of A, 100B, and 100C are pasted, but the connection end portions of the PA, PB, and PC portions have the common (over) portions of A', B ', and C'. A pasting process is performed using the (wrapped) image data. An all-around panoramic image 10 synthesized in this way
From 0P, the range of the viewing angle at each point during rotation is cut out as a display image and displayed on the image display device 101.
In this way, the user can simulate the sensation of performing a rotating motion in a continuous natural three-dimensional space.

【0032】ただし、ある全周パノラマ画像の中心を観
察点として回転運動する場合には、その全周パノラマ画
像の各時点における視野角の範囲を切り出した画像を表
示画像として用いる。例えば、A地点で回転運動をする
場合には、全周パノラマ画像100Aから表示画像が切
り出される。
However, in the case of performing a rotational movement around the center of a certain panoramic image as an observation point, an image obtained by cutting out the range of the viewing angle at each point in the panoramic image is used as a display image. For example, when performing a rotary motion at the point A, a display image is cut out from the entire circumference panoramic image 100A.

【0033】以上説明したような本発明による3次元仮
想空間構築処理は、前述のように汎用又は専用のコンピ
ュータの資源を利用しソフトウェアにより実現し得る。
例えば、図8に示すようなCPU200、主メモリ20
1、ハードディスク203、キーボードやマウスなどの
入力装置207、CRTディスプレイや液晶ディスプレ
イなどの表示装置204とその制御のための表示コント
ローラ205、表示データを記憶するためのフレームバ
ッファメモリ206、各種記憶媒体(磁気ディスク、光
ディスク、光磁気ディスク、メモリカードなど)210
の読み書きのための媒体ドライブ209、外部の機器や
ネットワークとの通信のための通信装置(モデム、ネッ
トワークアダプタなど)208などをバス211で接続
した一般的な構成のコンピュータを利用し、ソフトウェ
アにより実現することもできる。
The three-dimensional virtual space construction processing according to the present invention as described above can be realized by software using the resources of a general-purpose or special-purpose computer as described above.
For example, the CPU 200 and the main memory 20 as shown in FIG.
1, a hard disk 203, an input device 207 such as a keyboard and a mouse, a display device 204 such as a CRT display and a liquid crystal display, a display controller 205 for controlling the display device 204, a frame buffer memory 206 for storing display data, various storage media ( Magnetic disk, optical disk, magneto-optical disk, memory card, etc.) 210
A medium drive 209 for reading and writing data, a communication device (modem, network adapter, etc.) 208 for communication with external devices and networks, etc., are implemented by software using a computer having a general configuration connected via a bus 211. You can also.

【0034】この場合、予め用意された、実空間におい
て離散的に配置された地点をそれぞれ中心とした複数の
全周パノラマ画像データの中から、観察点に近い中心を
持つ少なくとも2つの全周パノラマ画像データを選択す
るステップと、このステップで選択された全周パノラマ
画像データを用いて観察点から見えるシーンを表す画像
データを作成するステップと、このステップで作成され
た画像データを表示装置204に表示させるステップと
を少なくとも含む3次元仮想空間構築処理をコンピュー
タに実行させるためのプログラムが、例えば、それが記
録された記憶媒体210から媒体ドライブ209によっ
て主メモリ201に読み込まれたり、外部装置より通信
装置208によって主メモリ201に読み込まれたり、
あるいはハードディスク203から主メモリ201に読
み込まれ、CPU200により実行される。このプログ
ラムを、それを固定記憶させた半導体ROMとして実装
してもよい。このようなプログラムが記録された各種記
憶媒体210や半導体ROMなどの記憶媒体も本発明に
包含されるものである。また、全周パノラマ画像データ
は、例えば、通信装置208や媒体ドライブ209から
入力されてハードディスク203に一旦蓄積され、必要
な1枚又は複数枚の全周パノラマ画像データがハードデ
ィスク203より主メモリ201に読み込まれ処理され
る。なお、デジタルカメラなどによって撮影された2次
元画像データをコンピュータに入力し、コンピュータ内
でそれら2次元画像データから全周パノラマ画像データ
を作成してハードディスク203に保存するようにして
もよい。
In this case, from among a plurality of all-around panoramic image data prepared in advance and centered on discretely arranged points in the real space, at least two all-around panoramic images having a center close to the observation point are provided. A step of selecting image data, a step of using the omnidirectional panoramic image data selected in this step to create image data representing a scene seen from the observation point, and a step of transmitting the image data created in this step to the display device 204. A program for causing a computer to execute a three-dimensional virtual space construction process including at least a displaying step is read into the main memory 201 by the medium drive 209 from the storage medium 210 in which the program is recorded, or communicated from an external device. Read into the main memory 201 by the device 208,
Alternatively, the program is read from the hard disk 203 into the main memory 201 and executed by the CPU 200. This program may be implemented as a semiconductor ROM in which the program is fixedly stored. Storage media such as various storage media 210 and semiconductor ROMs on which such programs are recorded are also included in the present invention. Further, the full-circle panoramic image data is input from, for example, the communication device 208 or the medium drive 209 and temporarily stored in the hard disk 203, and one or a plurality of necessary full-circle panoramic image data is stored in the main memory 201 from the hard disk 203. Read and processed. Note that two-dimensional image data photographed by a digital camera or the like may be input to a computer, and the entire circumference panoramic image data may be created from the two-dimensional image data in the computer and stored in the hard disk 203.

【0035】[0035]

【発明の効果】以上に詳細に説明した如く、請求項1乃
至7記載の発明によれば、複数の全周パノラマ画像を用
意するだけで、比較的単純な画像合成処理によって、連
続した3次元仮想空間を構築し、その空間内で観察点又
は視線を自由に動かすことができる。請求項3乃至6記
載の発明によれば前進運動、後退行動、並進運動、回転
運動の際に違和感のない連続した仮想環境を提供するこ
とができ、また、請求項3又は4記載の発明によれば、
前進時又は後退時のシーンの画質悪化を回避できる。ま
た、請求項5記載の発明によれば、並進に応じた視差の
ある自然なシーンを表現できる。また、請求項8記載の
発明によれば、このような3次元仮想空間を一般的なコ
ンピュータを用いて容易に構築することが可能になる、
等々の効果を得られる。
As described in detail above, according to the first to seventh aspects of the present invention, a continuous three-dimensional image can be obtained by relatively simple image synthesizing processing only by preparing a plurality of panoramic images. It is possible to construct a virtual space and freely move an observation point or a line of sight in the space. According to the invention of claims 3 to 6, it is possible to provide a continuous virtual environment without discomfort during forward movement, backward movement, translation movement, and rotation movement. According to
It is possible to avoid deterioration of the image quality of the scene when moving forward or when moving backward. According to the invention described in claim 5, a natural scene having parallax according to translation can be expressed. According to the invention of claim 8, it is possible to easily construct such a three-dimensional virtual space using a general computer.
And so on.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明による3次元仮想空間構築システムのブ
ロック図である。
FIG. 1 is a block diagram of a three-dimensional virtual space construction system according to the present invention.

【図2】全周パノラマ画像の中心の実空間上での配置を
示す図である。
FIG. 2 is a diagram showing an arrangement of a center of an all-around panoramic image in a real space.

【図3】前進運動時のシーンを表す表示画像の合成方法
を説明する図である。
FIG. 3 is a diagram illustrating a method of synthesizing a display image representing a scene during a forward motion.

【図4】後退運動時のシーンを表す表示画像の合成方法
を説明する図である。
FIG. 4 is a diagram for explaining a method of synthesizing a display image representing a scene at the time of a backward movement.

【図5】3次元仮想空間内での前進運動又は後退運動に
より実現されるズーム機能の説明図である。
FIG. 5 is an explanatory diagram of a zoom function realized by a forward movement or a backward movement in a three-dimensional virtual space.

【図6】並進運動時のシーンを表す表示画像の合成方法
を説明する図である。
FIG. 6 is a diagram illustrating a method for synthesizing a display image representing a scene during a translational motion.

【図7】回転運動時のシーンを表す表示画像の合成方法
を説明する図である。
FIG. 7 is a diagram illustrating a method of synthesizing a display image representing a scene during a rotational motion.

【図8】本発明による3次元仮想空間構築のために利用
し得るコンピュータの一例を示すブロック図である。
FIG. 8 is a block diagram illustrating an example of a computer that can be used for constructing a three-dimensional virtual space according to the present invention.

【符号の説明】[Explanation of symbols]

100 全周パノラマ画像 101 画像表示装置 102 キーボード 103 マウス 104 入力解析装置 105 パノラマ画像選択装置 106 パノラマ画像蓄積装置 107 表示画像作成装置 110 画像表示制御装置 REFERENCE SIGNS LIST 100 panoramic image 101 image display device 102 keyboard 103 mouse 104 input analysis device 105 panorama image selection device 106 panorama image storage device 107 display image creation device 110 image display control device

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 実空間において離散的に配置された地点
をそれぞれ中心とした複数の全周パノラマ画像をデジタ
ルデータとして用意し、観察点に近い中心を持つ少なく
とも2つの全周パノラマ画像を用いて、観察点から見え
るシーンを表す画像を作成し表示することによって、連
続した3次元仮想空間を構築することを特徴とする3次
元仮想空間構築方法。
1. A plurality of omnidirectional panoramic images centered on discretely arranged points in a real space are prepared as digital data, and at least two omnidirectional panoramic images having a center close to an observation point are used. A method for constructing a continuous three-dimensional virtual space by creating and displaying an image representing a scene seen from an observation point.
【請求項2】 各全周パノラマ画像の中心は、実空間上
でメッシュ状に並べられた正三角形の各頂点に配置され
ることを特徴とする請求項1記載の3次元仮想空間構築
方法。
2. The three-dimensional virtual space construction method according to claim 1, wherein the center of each panoramic image is arranged at each vertex of an equilateral triangle arranged in a mesh on the real space.
【請求項3】 観察点に近い中心を持つ第1の全周パノ
ラマ画像と、この第1の全周パノラマ画像の中心から視
線方向にある最も近い中心を持つ第2の全周パノラマ画
像とを用いて、観察点の前進運動時に観察点から見える
シーンを表す画像が合成され、この合成画像の中心部の
画素情報は第2の全周パノラマ画像から、周辺部の画素
情報は第1の全周パノラマ画像から、それぞれ提供され
ることを特徴とする請求項1又は2記載の3次元仮想空
間構築方法。
3. A first all-around panoramic image having a center close to the observation point and a second all-around panoramic image having a center closest to the line of sight from the center of the first all-around panoramic image. An image representing a scene seen from the observation point during forward movement of the observation point is synthesized using the pixel information at the center of the synthesized image from the second full-width panoramic image and the pixel information at the periphery of the image at the first full panorama. The three-dimensional virtual space construction method according to claim 1, wherein the three-dimensional virtual space construction method is provided from a circumferential panoramic image.
【請求項4】 観察点に近い中心を持つ第1の全周パノ
ラマ画像と、この第1の全周パノラマ画像の中心から視
線方向と反対方向にある最も近い中心を持つ第2の全周
パノラマ画像とを用いて、観察点の後退運動時に観察点
から見えるシーンを表す画像が合成され、この合成画像
の中心部の画素情報は第1の全周パノラマ画像から、周
辺部の画素情報は第2の全周パノラマ画像から、それぞ
れ提供されることを特徴とする請求項1又は2記載の3
次元仮想空間構築方法。
4. A first full-circle panoramic image having a center close to an observation point, and a second full-circle panorama having a closest center from the center of the first full-circle panoramic image in a direction opposite to a line-of-sight direction. An image representing a scene seen from the observation point during the backward movement of the observation point is synthesized using the image and the pixel information at the center of the synthesized image is obtained from the first panoramic image of the entire circumference, and the pixel information at the periphery is obtained from the first panoramic image. 3. The method according to claim 1, wherein each of the plurality of panoramic images is provided from each of the two panoramic images.
Dimension virtual space construction method.
【請求項5】 観察点に近い中心を持つ第1の全周パノ
ラマ画像と、この第1の全周パノラマ画像の中心から観
察点の並進方向にある最も近い中心を持つ第2の全周パ
ノラマ画像とを用いて、観察点の並進運動時に観察点か
ら見えるシーンを表す画像が合成され、この合成画像
の、第1の全周パノラマ画像と第2のパノラマ画像とが
オーバーラップする部分の画素情報は、第1の全周パノ
ラマ画像の中心及び第2の全周パノラマ画像の中心と観
察点との距離に応じた重みを用いた、第1の全周パノラ
マ画像及び第2の全周パノラマ画像の重み付け加算によ
り決定されることを特徴とする請求項1又は2記載の3
次元仮想空間構築方法。
5. A first full panoramic image having a center close to the observation point, and a second full panorama having a closest center from the center of the first full panoramic image in the translation direction of the observation point. Using the image, an image representing a scene seen from the observation point during the translational movement of the observation point is synthesized, and pixels of a portion of the synthesized image where the first full-circle panoramic image and the second panoramic image overlap each other The information includes a first full-circle panoramic image and a second full-circle panorama using weights according to the distance between the center of the first full-circle panoramic image and the center of the second full-circle panoramic image and the observation point. 3. The method according to claim 1, wherein the image is determined by weighted addition of images.
Dimension virtual space construction method.
【請求項6】 観察点に近い中心を持つ3つの全周パノ
ラマ画像から新しい全周パノラマ画像が合成され、この
新しい全周パノラマ画像から視線の回転運動時に観察点
から見えるシーンを表す画像が作成されることを特徴と
する請求項1又は2記載の3次元仮想空間構築方法。
6. A new panoramic image is synthesized from three panoramic images having a center close to the observation point, and an image representing a scene seen from the observation point when the line of sight is rotated is created from the new panoramic image. The method according to claim 1, wherein the method is performed.
【請求項7】 複数の全周パノラマ画像をデジタルデー
タとして蓄積するためのパノラマ画像蓄積手段と、観察
点及び視線の運動に関する情報を入力するための入力手
段と、この入力手段により入力された情報を解析する入
力解析手段と、この入力解析手段による解析結果に従っ
て全周パノラマ画像を選択し、それを前記パノラマ画像
蓄積手段より出力させるパノラマ画像選択手段と、前記
パノラマ画像蓄積手段より出力された全周パノラマ画像
から、前記入力解析手段による解析結果に従って観察点
から見えるシーンを表す表示画像を作成する表示画像作
成手段と、この表示画像作成手段により作成された表示
画像を画像表示装置に表示させる画像表示制御手段とを
具備し、請求項3,4,5又は6記載の3次元仮想空間
構築方法を実施することを特徴とする3次元仮想空間構
築システム。
7. A panoramic image storage unit for storing a plurality of panoramic images as digital data, an input unit for inputting information relating to observation point and line-of-sight movements, and information input by the input unit. Input panorama image selecting means for selecting an entire panorama image according to the analysis result by the input analysis means, and outputting the selected panoramic image from the panorama image storage means, Display image creation means for creating a display image representing a scene seen from an observation point from a peripheral panorama image in accordance with the analysis result by the input analysis means, and an image for displaying the display image created by the display image creation means on an image display device And a display control means for implementing the three-dimensional virtual space construction method according to claim 3, 4, 5, or 6. A three-dimensional virtual space construction system, characterized in that:
【請求項8】 予め用意された、実空間において離散的
に配置された地点をそれぞれ中心とした複数の全周パノ
ラマ画像データの中から、観察点に近い中心を持つ少な
くとも2つの全周パノラマ画像データを選択するステッ
プと、このステップで選択された全周パノラマ画像デー
タを用いて観察点から見えるシーンを表す画像データを
作成するステップと、このステップで作成された画像デ
ータを表示するステップとを含む3次元仮想空間構築処
理をコンピュータに実行させるためのプログラムが記録
されたことを特徴とするコンピュータ読み取り可能な記
憶媒体。
8. At least two panoramic panoramic images having a center close to an observation point from among a plurality of panoramic panoramic image data prepared in advance, each centering on a discretely arranged point in a real space. A step of selecting data, a step of creating image data representing a scene seen from the observation point using the panoramic image data selected in this step, and a step of displaying the image data created in this step. A computer-readable storage medium on which a program for causing a computer to execute a three-dimensional virtual space construction process including the program is recorded.
JP2000039534A 2000-02-17 2000-02-17 3D virtual space construction system Expired - Fee Related JP4082546B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000039534A JP4082546B2 (en) 2000-02-17 2000-02-17 3D virtual space construction system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000039534A JP4082546B2 (en) 2000-02-17 2000-02-17 3D virtual space construction system

Publications (2)

Publication Number Publication Date
JP2001229397A true JP2001229397A (en) 2001-08-24
JP4082546B2 JP4082546B2 (en) 2008-04-30

Family

ID=18563081

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000039534A Expired - Fee Related JP4082546B2 (en) 2000-02-17 2000-02-17 3D virtual space construction system

Country Status (1)

Country Link
JP (1) JP4082546B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003203251A (en) * 2001-09-28 2003-07-18 Fuji Xerox Co Ltd Video system, method for generating virtual reality, transport protocol, storage medium readable by computer and program
WO2011039904A1 (en) * 2009-09-29 2011-04-07 株式会社ソニー・コンピュータエンタテインメント Panoramic image display device and panoramic image display method
JP2015200918A (en) * 2014-04-04 2015-11-12 大木 光晴 Image processor, method, and program
JP2020519094A (en) * 2017-04-28 2020-06-25 華為技術有限公司Huawei Technologies Co.,Ltd. Video playback method, device, and system

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003203251A (en) * 2001-09-28 2003-07-18 Fuji Xerox Co Ltd Video system, method for generating virtual reality, transport protocol, storage medium readable by computer and program
JP2009181587A (en) * 2001-09-28 2009-08-13 Fuji Xerox Co Ltd Video system and program for video system
WO2011039904A1 (en) * 2009-09-29 2011-04-07 株式会社ソニー・コンピュータエンタテインメント Panoramic image display device and panoramic image display method
JP2011076249A (en) * 2009-09-29 2011-04-14 Sony Computer Entertainment Inc Device and method for displaying panoramic image
US9251561B2 (en) 2009-09-29 2016-02-02 Sony Corporation Apparatus and method for displaying panoramic images
US10298839B2 (en) 2009-09-29 2019-05-21 Sony Interactive Entertainment Inc. Image processing apparatus, image processing method, and image communication system
JP2015200918A (en) * 2014-04-04 2015-11-12 大木 光晴 Image processor, method, and program
JP2020519094A (en) * 2017-04-28 2020-06-25 華為技術有限公司Huawei Technologies Co.,Ltd. Video playback method, device, and system
US11159848B2 (en) 2017-04-28 2021-10-26 Huawei Technologies Co., Ltd. Video playing method, device, and system
JP7110234B2 (en) 2017-04-28 2022-08-01 華為技術有限公司 Video playback methods, devices and systems

Also Published As

Publication number Publication date
JP4082546B2 (en) 2008-04-30

Similar Documents

Publication Publication Date Title
TWI451358B (en) Banana codec
US6683608B2 (en) Seaming polygonal projections from subhemispherical imagery
JP5116416B2 (en) Panorama video generation apparatus and method
US20020141655A1 (en) Image-based digital representation of a scenery
US8504941B2 (en) Digital image magnification user interface
JP2006107213A (en) Stereoscopic image printing system
JP3962676B2 (en) Image processing method and apparatus
JP2018136936A (en) Image processing device
JP2007233996A (en) Image compositing apparatus, image compositing method, image compositing program and recording medium
JP3352475B2 (en) Image display device
US20030095131A1 (en) Method and apparatus for processing photographic images
JP4406824B2 (en) Image display device, pixel data acquisition method, and program for executing the method
WO2012032996A1 (en) Information processing device, method of processing information, and program
WO2002019270A1 (en) Curved image conversion method and record medium where this method for converting curved image is recorded
CN113253842A (en) Scene editing method and related device and equipment
CN113286138A (en) Panoramic video display method and display equipment
JPWO2019078033A1 (en) Reproduction device and method, and generation device and method
US20020060691A1 (en) Method for increasing multimedia data accessibility
JP2006309802A (en) Image processor and image processing method
JP2000505219A (en) 3D 3D browser suitable for the Internet
JP6719596B2 (en) Image generation device and image display control device
JP2001229397A (en) Method and system for constructing three-dimensional virtual space and storage medium
JP4498450B2 (en) Display device
KR102196032B1 (en) Novel view synthesis method based on multiple 360 images for 6-dof virtual reality and the system thereof
JP2003111100A (en) Image composing method and apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070711

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070910

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080207

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110222

Year of fee payment: 3

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120222

Year of fee payment: 4

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130222

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130222

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140222

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees