JPH0463092A - Three-dimensional scene display system - Google Patents
Three-dimensional scene display systemInfo
- Publication number
- JPH0463092A JPH0463092A JP2173660A JP17366090A JPH0463092A JP H0463092 A JPH0463092 A JP H0463092A JP 2173660 A JP2173660 A JP 2173660A JP 17366090 A JP17366090 A JP 17366090A JP H0463092 A JPH0463092 A JP H0463092A
- Authority
- JP
- Japan
- Prior art keywords
- display
- dimensional
- dimensional scene
- scene
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004364 calculation method Methods 0.000 claims description 8
- 230000000007 visual effect Effects 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 6
- 230000009466 transformation Effects 0.000 description 4
- 238000000034 method Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Landscapes
- Stereoscopic And Panoramic Photography (AREA)
- Processing Or Creating Images (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Devices For Indicating Variable Information By Combining Individual Elements (AREA)
Abstract
Description
【発明の詳細な説明】
〔産業上の利用分野〕
この発明は3次元シーン表示システムに関し、特にたと
えば異なる複数の視線方向の画像を異なる表示画面に同
時に表示するマルチスクリーン表示システムなどに利用
される、3次元シーン表示システムに関する。[Detailed Description of the Invention] [Industrial Application Field] The present invention relates to a three-dimensional scene display system, and is particularly applicable to, for example, a multi-screen display system that simultaneously displays images from a plurality of different viewing directions on different display screens. , relates to a three-dimensional scene display system.
博覧会などで臨場感のある映像を提供するシステムの1
つにマルチスクリーン表示システムがある。このシステ
ムでは、複数のカメラを用いて成る視点からの異なる視
線方向の映像を撮影し、劇場などでそれらの映像を観察
者から見て異なる視線方向に配置された複数の表示画面
上に同時に表示するものである。One of the systems that provides realistic images at exhibitions, etc.
has a multi-screen display system. This system uses multiple cameras to capture images in different viewing directions from viewpoints, and displays these images simultaneously on multiple display screens placed in different viewing directions from the viewer's perspective, such as in a theater. It is something to do.
従来の一般的なマルチスクリーン表示システムにおいて
は、異なる視線方向に配置された複数の表示画面に異な
る映像を表示するため、複数の異なる映像が必要である
。そのために、それらの映像の数に相当する数のカメラ
で実際の表示画面と観察者との関係(視線方向)を再現
するようにカメラの位置や方向を決めて撮影する必要が
あり、したがって撮影に対して多くの制限があった。In a conventional general multi-screen display system, a plurality of different images are required to display different images on a plurality of display screens arranged in different viewing directions. For this purpose, it is necessary to determine the position and direction of the cameras to reproduce the relationship between the actual display screen and the viewer (line of sight direction) using a number of cameras corresponding to the number of images, and to take pictures. There were many restrictions on.
また、表示画面を十数個有する大型表示システムにおい
ては、撮影に使用するカメラの数もそれに伴って多く必
要となり、撮影機材が大型のものになってしまう。Furthermore, in a large display system having more than ten display screens, a correspondingly large number of cameras are required for photographing, resulting in large photographic equipment.
さらに、−度撮影した映像の表示に対しても、それらを
撮影したときのカメラの位置や方向などの撮影条件を再
現するような表示画面を配置した表示システムが必要と
なり、映像を表示できるシステムや劇場が限定されてし
まうという問題があった。たとえば、第7図に示すよう
に3つの表示画面1a、lbおよび1cを有するマルチ
スクリーン表示システムにおいては、観察者2から見た
異なる視線方向の画像がそれぞれ表示されている。これ
ら3つの表示画面1a〜ICに表示される映像は、3台
のカメラでこの表示画面の配置を想定して撮影されたも
のであり、たとえば第8図に示すように上下に配列され
た2つの表示画面1dおよび1eのような配置の異なる
マルチスクリーン表示システムにおいては表示できない
。Furthermore, in order to display images shot at -degrees, a display system is required that has a display screen that reproduces the shooting conditions such as the position and direction of the camera when the images were shot. There was a problem that theaters were limited. For example, in a multi-screen display system having three display screens 1a, lb, and 1c as shown in FIG. 7, images viewed from different viewing directions from the observer 2 are displayed. The images displayed on these three display screens 1a to IC were taken with three cameras assuming the arrangement of the display screens. For example, two images arranged vertically as shown in FIG. This cannot be displayed in a multi-screen display system with different layouts, such as two display screens 1d and 1e.
それゆえに、この発明の主たる目的は、撮影時や表示の
際の制限を緩和することができる、3次元シーン表示シ
ステムを提供することである。Therefore, the main object of the present invention is to provide a three-dimensional scene display system that can alleviate restrictions during photographing and display.
[課題を解決するための手段]
この発明は、簡単にいえば、3次元シーンの映像を入力
するシーン入力手段、入力された3次元シーンの映像を
記憶する記憶手段、表示画面と観察者との関係を表わす
表示環境に関する情報を入力する表示環境入力手段、表
示環境入力手段によって入力された表示環境に応じて、
記憶手段に記憶されている3次元シーンの映像から表示
すべき2次元画像を計算によって求めるための計算手段
、および計算手段によって求められた2次元画像を表示
するための表示手段を備える、3次元シーン表示システ
ムである。[Means for Solving the Problems] Simply put, the present invention comprises a scene input means for inputting an image of a three-dimensional scene, a storage means for storing the input image of the three-dimensional scene, a display screen and an observer. a display environment input means for inputting information regarding the display environment representing the relationship between the display environment input means;
A three-dimensional device comprising: calculation means for calculating a two-dimensional image to be displayed from an image of a three-dimensional scene stored in the storage means; and display means for displaying the two-dimensional image obtained by the calculation means. It is a scene display system.
3次元シーン入力手段では、表示されるべき複数の2次
元画像を含む広範囲の3次元シーンの映像を、たとえば
広角レンズや魚眼レンズを装着したカメラで予め撮影し
、3次元シーンの映像を入力する。この3次元シーンの
映像が記憶手段に記憶され、表示の際には、表示手段の
表示画面に対する観察者からの方向(視線方向)や観察
者から表示画面の視野角など、表示環境入力手段から入
力された表示環境に応じて、3次元シーンの映像を計算
手段によってたとえば投影変換した2次元画像に変換し
、その2次元画像を表示手段によって表示する。The three-dimensional scene input means takes an image of a wide range of three-dimensional scenes including a plurality of two-dimensional images to be displayed in advance with a camera equipped with, for example, a wide-angle lens or a fisheye lens, and inputs the images of the three-dimensional scene. The image of this three-dimensional scene is stored in the storage means, and when displayed, information such as the direction from the observer to the display screen of the display means (line of sight direction) and the viewing angle of the display screen from the observer is input from the display environment input means. Depending on the input display environment, the calculation means converts the image of the three-dimensional scene into a two-dimensional image, for example, by projection transformation, and the two-dimensional image is displayed by the display means.
この発明によれば、たとえばマルチスクリーン表示シス
テムのための映像を撮影する際に、従来であればその表
示画面の数に相当する数のカメラを用いてする必要があ
ったが、この発明によれば、広範囲の3次元シーンの映
像を記憶しておき、それを計算手段によって必要な2次
元画像に変換するので、カメラの台数を減じもしくは1
台にすることができる。また、表示環境に応じて計算手
段によって表示すべき2次元画像を求めるようにしてい
るので、表示環境が異なる表示システムにおいても簡単
に対応することができる。According to the present invention, for example, when photographing images for a multi-screen display system, conventionally it was necessary to use a number of cameras corresponding to the number of display screens, but according to the present invention, For example, images of a wide range of 3D scenes are stored and converted into the necessary 2D images using calculation means, so the number of cameras can be reduced or
It can be made into a stand. Furthermore, since the two-dimensional image to be displayed is determined by the calculation means according to the display environment, it is possible to easily handle display systems with different display environments.
この発明の上述の目的、その他の目的、特徴および利点
は、図面を参照して行う以下の実施例の詳細な説明から
一層明らかとなろう。The above objects, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
第2図を参照して、この実施例の3次元シーン表示シス
テム10は、3次元シーン入力装置12を含み、このシ
ーン入力装置12がらの3次元シーンの映像が処理装置
’14を介して記憶装置16に記憶される。そして、表
示環境入力装置18からの表示環境入力が処理装置14
に与えられ、記憶装置16から読み出された3次元シー
ンの映像に対して所定の計算を施し、必要な2次元画像
のデータを得て表示装置20に与える。Referring to FIG. 2, a three-dimensional scene display system 10 of this embodiment includes a three-dimensional scene input device 12, and a three-dimensional scene image from this scene input device 12 is stored via a processing device '14. stored in the device 16. Then, the display environment input from the display environment input device 18 is transmitted to the processing device 14.
A predetermined calculation is performed on the image of the three-dimensional scene read out from the storage device 16 to obtain necessary two-dimensional image data and provided to the display device 20.
より詳しく説明すると、3次元シーン入力装置12は、
第1図に示すように、表示装置20の表示画面1a、l
bおよび1.cに表示すべき2次元画像を含む広範囲な
3次元シーンの映像3を入力する。そのために、このシ
ーン入力装置12は、広角レンズや魚眼レンズなどの広
範囲の撮影が可能なレンズを装着したカメラを用いて撮
影する。To explain in more detail, the three-dimensional scene input device 12 is
As shown in FIG. 1, the display screens 1a, l of the display device 20
b and 1. An image 3 of a wide range of three-dimensional scenes including two-dimensional images to be displayed is input to c. For this purpose, the scene input device 12 uses a camera equipped with a lens capable of photographing a wide range, such as a wide-angle lens or a fisheye lens.
処理装置14は典型的にはマイクロコンビュ−夕やその
他のデータ処理装置を含み、記憶装置16から読み出し
た第1図に示す3次元シーンの映像3を各表示画面1a
、lbおよび1cに表示する2次元画像に変換する。そ
のために、表示環境入力装置18からは、観察者からの
各表示画面1a、lbおよびICに対する視線方向やそ
の視野角などの表示環境情報が入力される。そして、処
理装置14では、第4図に示すように、広角レンズなど
で撮影した3次元シーン3をたとえば表示画面la上に
投影変換し、必要に応じて補間などの画像処理を施して
表示画面1aに対する2次元画像を得る。The processing device 14 typically includes a microcomputer or other data processing device, and displays the image 3 of the three-dimensional scene shown in FIG. 1 read out from the storage device 16 on each display screen 1a.
, lb and 1c. For this purpose, the display environment input device 18 inputs display environment information such as the line of sight direction and viewing angle of each display screen 1a, lb and IC from the observer. Then, as shown in FIG. 4, the processing device 14 projects and transforms the three-dimensional scene 3 photographed with a wide-angle lens onto the display screen la, performs image processing such as interpolation as necessary, and performs image processing on the display screen. A two-dimensional image for 1a is obtained.
たとえば、第4図に示すように、観察者の視点をO(0
,0,0)とし、3次元シーンの映像3上の点P (x
、y、z)を投影変換により表示画面1aの点P” (
X”、y”、Z′)に変換する場合、表示画面1aの平
面の方程式をAx+By+Cz+D=Oとすると、点P
°は次式で与えられる。For example, as shown in Figure 4, the observer's viewpoint is set to O(0
,0,0), and the point P (x
, y, z) on the display screen 1a by projective transformation.
X", y", Z'), if the equation of the plane of the display screen 1a is Ax+By+Cz+D=O, then the point P
° is given by the following formula.
表示画面la上の全ての点(画素)を旧式で与えられる
投影変換によって計算すれば、表示画面1aの画像を得
ることができる。同様にして、他の表示画面1bおよび
ICに対する2次元画像も計算できる。The image of the display screen 1a can be obtained by calculating all points (pixels) on the display screen 1a by the projection transformation given by the old method. Similarly, two-dimensional images for other display screens 1b and ICs can also be calculated.
したがって、この第2図実施例においては、第3図に示
すフロー図に従って、シーンの変更の都度、ステップS
1において記憶装置16から3次元シーンの映像を呼び
出し、ステップS2.S3.34を表示装置すなわち表
示画面の数だけ繰り返し、前述のようにして2次元画像
を得る。Therefore, in the embodiment of FIG. 2, each time the scene changes, step S
In step S2.1, a three-dimensional scene image is called from the storage device 16, and in step S2. Step S3.34 is repeated as many times as there are display devices, that is, display screens, and a two-dimensional image is obtained as described above.
さらに、第8図に示すように上下方向に複数の表示画面
1dおよび1eを配置したマルチスクリーン表示システ
ムに対しても、同様の投影変換による処理を施せば、そ
れらの表示画面1dおよび1eに表示する2次元画像を
得ることができる。Furthermore, if similar projection transformation processing is applied to a multi-screen display system in which a plurality of display screens 1d and 1e are arranged vertically as shown in FIG. A two-dimensional image can be obtained.
このように、カメラで得られた3次元シーンの映像に対
して、表示システムの観察者から見た表示画面の方向(
視線方向)および表示画面の大きさ(視野角)がわかれ
ば、その表示画面に表示されるべき2次元画像を計算に
よって求めることができる。In this way, the direction of the display screen as seen from the viewer of the display system (
If the viewing direction) and the size of the display screen (viewing angle) are known, the two-dimensional image to be displayed on the display screen can be calculated.
なお、第5図に示すように、広角レンズを装着した複数
のカメラ22a、22bおよび22cを用いれば、さら
に広範囲の3次元シーンの映像を入力することができ、
より一層多様な表示画面配置のマルチスクリーン表示シ
ステムに対応することができる。Note that, as shown in FIG. 5, if a plurality of cameras 22a, 22b, and 22c equipped with wide-angle lenses are used, images of an even wider range of three-dimensional scenes can be input.
It is possible to support multi-screen display systems with even more diverse display screen arrangements.
さらに、第6図に示すように魚眼レンズを装着したカメ
ラ24を用い、はぼ半天球分に相当する3次元シーンを
撮影することも可能である。このようにして得られた映
像を任意の視線方向や視野角の表示画面に正射投影し、
必要に応じて補間などの画像処理を行えば、1台のカメ
ラ24で撮影した映像でほぼ全ての種類のマルチスクリ
ーン表示システムに対応することができる。Furthermore, as shown in FIG. 6, it is also possible to photograph a three-dimensional scene corresponding to approximately half a celestial sphere using a camera 24 equipped with a fisheye lens. The images obtained in this way are orthographically projected onto a display screen in any viewing direction or viewing angle,
If image processing such as interpolation is performed as necessary, the video captured by one camera 24 can be used in almost all types of multi-screen display systems.
さらにまた、この発明は、上述のようなマルチスクリー
ン表示システムに限らず、図示しないが、観察者が向き
を変えればそれに応じてゴーグル(ヘルメット)に内蔵
された表示画面の表示が変化するようなたとえば戦闘機
のコックビットなどの空間シミュレーション装置などに
も適応され得る。Furthermore, the present invention is not limited to the above-mentioned multi-screen display system, but is also applicable to a multi-screen display system that, although not shown, changes the display on a display screen built into goggles (helmet) as the observer changes direction. For example, it can be applied to space simulation devices such as fighter jet cockbits.
第1図はこの発明の原理を示す図解図である。
第2図はこの発明の一実施例を示すブロック図である。
第3図は第2図実施例に従って第1図に示す表示画面に
表示すべき2次元画像を求めるための動作を示すフロー
図である。
第4図は第3図における2次元画像の作成を示す図解図
である。
第5図は広角レンズを装着した3台のカメラによって3
次元シーンを撮影する場合を示す図解図である。
第6図は魚眼レンズを装着したカメラによって3次元シ
ーンを撮影する場合を示す図解図である。
第7図および第8図はマルチスクリーン表示システムの
異なる例を示す図解図である。
図において、10は3次元シーン表示システム12は3
次元シーン入力装置、14は処理装置16は記憶装置、
18は表示環境入力装置、20は表示装置、22a〜2
2c、24はカメラ、1a〜1eは表示画面、3は3次
元シーンの映像を示す。
特許出願人 三洋電機株式会社
代理人 弁理士 山 1)義 人
図
シーンの犬JミFIG. 1 is an illustrative diagram showing the principle of the invention. FIG. 2 is a block diagram showing an embodiment of the present invention. FIG. 3 is a flow diagram showing operations for obtaining a two-dimensional image to be displayed on the display screen shown in FIG. 1 according to the embodiment of FIG. FIG. 4 is an illustrative diagram showing the creation of the two-dimensional image in FIG. 3. Figure 5 shows three cameras equipped with wide-angle lenses.
FIG. 3 is an illustrative diagram showing a case where a dimensional scene is photographed. FIG. 6 is an illustrative diagram showing a case where a three-dimensional scene is photographed by a camera equipped with a fisheye lens. FIGS. 7 and 8 are illustrative views showing different examples of multi-screen display systems. In the figure, 10 represents 3D scene display system 12.
a dimensional scene input device; 14 is a processing device; 16 is a storage device;
18 is a display environment input device, 20 is a display device, 22a-2
2c and 24 are cameras, 1a to 1e are display screens, and 3 is an image of a three-dimensional scene. Patent Applicant Sanyo Electric Co., Ltd. Agent Patent Attorney Yama
Claims (1)
力された3次元シーンの映像を記憶する記憶手段、 表示画面と観察者との関係を表わす表示環境に関する情
報を入力する表示環境入力手段、前記表示環境入力手段
によって入力された表示環境に応じて、前記記憶手段に
記憶されている前記3次元シーンの映像から表示すべき
2次元画像を計算によって求めるための計算手段、およ
び前記計算手段によって求められた前記2次元画像を表
示するための表示手段を備える、3次元シーン表示シス
テム。[Scope of Claims] Scene input means for inputting an image of a three-dimensional scene; storage means for storing the input image of the three-dimensional scene; and a display for inputting information regarding the display environment representing the relationship between the display screen and the observer. an environment input means, a calculation means for calculating a two-dimensional image to be displayed from the image of the three-dimensional scene stored in the storage means according to the display environment input by the display environment input means; A three-dimensional scene display system comprising display means for displaying the two-dimensional image obtained by the calculation means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2173660A JPH0463092A (en) | 1990-06-29 | 1990-06-29 | Three-dimensional scene display system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2173660A JPH0463092A (en) | 1990-06-29 | 1990-06-29 | Three-dimensional scene display system |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH0463092A true JPH0463092A (en) | 1992-02-28 |
Family
ID=15964738
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2173660A Pending JPH0463092A (en) | 1990-06-29 | 1990-06-29 | Three-dimensional scene display system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0463092A (en) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0627873A (en) * | 1992-07-06 | 1994-02-04 | Fujita Corp | Simulated experience system |
JPH06124328A (en) * | 1992-10-13 | 1994-05-06 | G T B:Kk | Image display device |
JPH06178327A (en) * | 1992-12-08 | 1994-06-24 | Matsushita Electric Ind Co Ltd | Method and device for displaying high presence video |
JPH0822557A (en) * | 1994-05-24 | 1996-01-23 | Texas Instr Inc <Ti> | Apparatus and method for display of video image to user |
JPH08172644A (en) * | 1994-12-16 | 1996-07-02 | Hidetake Tanaka | Stereoscopic television receiver |
JPH0955925A (en) * | 1995-08-11 | 1997-02-25 | Nippon Telegr & Teleph Corp <Ntt> | Picture system |
JPH09214932A (en) * | 1996-01-30 | 1997-08-15 | Nippon Telegr & Teleph Corp <Ntt> | Image device and image communication system |
JPH11506764A (en) * | 1995-06-07 | 1999-06-15 | アルカームズ コントロールド セラピューティックス,インコーポレイテッド | Non-aggregated erythropoietin sustained release composition |
JP2004080801A (en) * | 1995-11-07 | 2004-03-11 | Sozoan:Kk | Video system |
JP2016195460A (en) * | 2013-08-26 | 2016-11-17 | シゼイ シジブイ カンパニー リミテッド | Device for managing screening theater parameter |
JP2016536909A (en) * | 2013-09-03 | 2016-11-24 | シゼイ シジブイ カンパニー リミテッド | Simulation video management system and method for providing simulation video of multi-screen screening system |
JP2017502583A (en) * | 2013-12-09 | 2017-01-19 | シゼイ シジブイ カンパニー リミテッド | Multi-screen screening video generation method, storage medium thereof, and video management apparatus using the same |
WO2019163449A1 (en) * | 2018-02-20 | 2019-08-29 | キヤノン株式会社 | Image processing apparatus, image processing method and program |
JP2020507879A (en) * | 2018-01-15 | 2020-03-12 | 株式会社ストリス | Apparatus and method for fisheye lens and omnidirectional image distortion removal |
WO2020246296A1 (en) * | 2019-06-06 | 2020-12-10 | ソニー株式会社 | Controller, control method, control program, and control system |
US11962946B2 (en) | 2018-02-20 | 2024-04-16 | Canon Kabushiki Kaisha | Image processing apparatus, display system, image processing method, and medium |
-
1990
- 1990-06-29 JP JP2173660A patent/JPH0463092A/en active Pending
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0627873A (en) * | 1992-07-06 | 1994-02-04 | Fujita Corp | Simulated experience system |
JPH06124328A (en) * | 1992-10-13 | 1994-05-06 | G T B:Kk | Image display device |
JPH06178327A (en) * | 1992-12-08 | 1994-06-24 | Matsushita Electric Ind Co Ltd | Method and device for displaying high presence video |
JPH0822557A (en) * | 1994-05-24 | 1996-01-23 | Texas Instr Inc <Ti> | Apparatus and method for display of video image to user |
JPH08172644A (en) * | 1994-12-16 | 1996-07-02 | Hidetake Tanaka | Stereoscopic television receiver |
JPH11506764A (en) * | 1995-06-07 | 1999-06-15 | アルカームズ コントロールド セラピューティックス,インコーポレイテッド | Non-aggregated erythropoietin sustained release composition |
JPH0955925A (en) * | 1995-08-11 | 1997-02-25 | Nippon Telegr & Teleph Corp <Ntt> | Picture system |
JP2004080801A (en) * | 1995-11-07 | 2004-03-11 | Sozoan:Kk | Video system |
JPH09214932A (en) * | 1996-01-30 | 1997-08-15 | Nippon Telegr & Teleph Corp <Ntt> | Image device and image communication system |
JP2016195460A (en) * | 2013-08-26 | 2016-11-17 | シゼイ シジブイ カンパニー リミテッド | Device for managing screening theater parameter |
JP2016536909A (en) * | 2013-09-03 | 2016-11-24 | シゼイ シジブイ カンパニー リミテッド | Simulation video management system and method for providing simulation video of multi-screen screening system |
JP2017502583A (en) * | 2013-12-09 | 2017-01-19 | シゼイ シジブイ カンパニー リミテッド | Multi-screen screening video generation method, storage medium thereof, and video management apparatus using the same |
US10096085B2 (en) | 2013-12-09 | 2018-10-09 | Cj Cgv Co., Ltd. | Method for generating images for multi-projection theater and image management apparatus using the same |
JP2020507879A (en) * | 2018-01-15 | 2020-03-12 | 株式会社ストリス | Apparatus and method for fisheye lens and omnidirectional image distortion removal |
WO2019163449A1 (en) * | 2018-02-20 | 2019-08-29 | キヤノン株式会社 | Image processing apparatus, image processing method and program |
US11962946B2 (en) | 2018-02-20 | 2024-04-16 | Canon Kabushiki Kaisha | Image processing apparatus, display system, image processing method, and medium |
WO2020246296A1 (en) * | 2019-06-06 | 2020-12-10 | ソニー株式会社 | Controller, control method, control program, and control system |
US11735078B2 (en) | 2019-06-06 | 2023-08-22 | Sony Group Corporation | Control device, control method, control program, and control system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11528468B2 (en) | System and method for creating a navigable, three-dimensional virtual reality environment having ultra-wide field of view | |
Zomet et al. | Mosaicing new views: The crossed-slits projection | |
CN107180406B (en) | Image processing method and equipment | |
JP4351996B2 (en) | Method for generating a stereoscopic image from a monoscope image | |
JPH0463092A (en) | Three-dimensional scene display system | |
US11244423B2 (en) | Image processing apparatus, image processing method, and storage medium for generating a panoramic image | |
CN111866523B (en) | Panoramic video synthesis method and device, electronic equipment and computer storage medium | |
TWI434129B (en) | System and device for displaying spherical panorama image | |
CN113259642B (en) | Film visual angle adjusting method and system | |
CN105809729A (en) | Spherical panorama rendering method for virtual scene | |
Naimark | Elements of real-space imaging: a proposed taxonomy | |
CN115174805A (en) | Panoramic stereo image generation method and device and electronic equipment | |
EP3882846B1 (en) | Method and device for collecting images of a scene for generating virtual reality data | |
CN110675482A (en) | Spherical Fibonacci pixel dot matrix panoramic picture rendering and displaying method for virtual three-dimensional scene | |
JP2006285482A (en) | Device for correcting image geometry | |
JPH10208074A (en) | Picture generation method | |
Ban et al. | Pixel of matter: new ways of seeing with an active volumetric filmmaking system | |
Vanijja et al. | Omni-directional stereoscopic images from one omni-directional camera | |
JP2019146010A (en) | Image processing device, image processing method, and program | |
Nielsen | High resolution full spherical videos | |
JPH11220758A (en) | Method and device for stereoscopic image display | |
JP2019062302A (en) | Image processing system, image display unit and image processing program | |
Zhu et al. | A virtual reality video stitching system based on mirror pyramids | |
CN113542716A (en) | Image processing method and device applied to holographic display | |
CN113674433A (en) | Mixed reality display method and system |