JP2004129003A - 表示装置、画像処理装置および画像処理方法、撮像装置、並びにプログラム - Google Patents
表示装置、画像処理装置および画像処理方法、撮像装置、並びにプログラム Download PDFInfo
- Publication number
- JP2004129003A JP2004129003A JP2002291819A JP2002291819A JP2004129003A JP 2004129003 A JP2004129003 A JP 2004129003A JP 2002291819 A JP2002291819 A JP 2002291819A JP 2002291819 A JP2002291819 A JP 2002291819A JP 2004129003 A JP2004129003 A JP 2004129003A
- Authority
- JP
- Japan
- Prior art keywords
- image
- viewpoint
- unit
- user
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/72—Modifying the appearance of television pictures by optical filters or diffusing screens
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B21/00—Projectors or projection-type viewers; Accessories therefor
- G03B21/54—Accessories
- G03B21/56—Projection screens
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B37/00—Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
- G03B37/04—Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe with cameras or projectors providing touching or overlapping fields of view
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B37/00—Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
- G03B37/06—Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe involving anamorphosis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1601—Constructional details related to the housing of computer displays, e.g. of CRT monitors, of flat displays
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/001—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
- G09G3/002—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/001—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
- G09G3/003—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/21805—Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/58—Means for changing the camera field of view without moving the camera body, e.g. nutating or panning of optics or image sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2625—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of images from a temporal image sequence, e.g. for a stroboscopic effect
- H04N5/2627—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of images from a temporal image sequence, e.g. for a stroboscopic effect for providing spin image effect, 3D stop motion effect or temporal freeze effect
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/66—Methods for processing data by generating or executing the game program for rendering three dimensional images
- A63F2300/6661—Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/66—Methods for processing data by generating or executing the game program for rendering three dimensional images
- A63F2300/6661—Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera
- A63F2300/6669—Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera using a plurality of virtual cameras concurrently or sequentially, e.g. automatically switching between fixed virtual cameras when a character change rooms
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/66—Methods for processing data by generating or executing the game program for rendering three dimensional images
- A63F2300/6661—Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera
- A63F2300/6676—Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera by dedicated player input
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/69—Involving elements of the real world in the game world, e.g. measurement in live races, real video
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/80—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
- A63F2300/8023—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game the game being played by multiple players at a common site, e.g. in an arena, theatre, shopping mall using a large public display
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/04—Changes in size, position or resolution of an image
- G09G2340/0492—Change of orientation of the displayed image, e.g. upside-down, mirrored
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Human Computer Interaction (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Studio Devices (AREA)
- Closed-Circuit Television Systems (AREA)
- Processing Or Creating Images (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Stereoscopic And Panoramic Photography (AREA)
- Image Processing (AREA)
Abstract
【解決手段】外側ドームスクリーン42は、ユーザを囲むように配置され、そこには、被写体の周囲の風景などの没入画像が表示される。一方、内側ドームスクリーン42は、外側ドームスクリーン42の内側に配置され、ユーザが、そのユーザの視点から被写体を見たときに、そのユーザの視覚に映る被写体の鳥瞰画像が表示される。この場合、ユーザは、鳥瞰画像により、自身の位置関係を容易に把握し、没入画像により、臨場感を享受することができる。
【選択図】 図10
Description
【発明の属する技術分野】
本発明は、表示装置、画像処理装置および画像処理方法、撮像装置、並びにプログラムに関し、特に、ユーザに対して、より臨場感のある画像を提示すること等ができるようにする表示装置、画像処理装置および画像処理方法、撮像装置、並びにプログラムに関する。
【0002】
【従来の技術】
ユーザに臨場感のある画像を提示する従来の表示装置としては、例えば、没入型スクリーンを用いた表示装置がある。没入型スクリーンを用いた表示装置では、ユーザがある仮想空間にいるとした場合に、その視覚に映る画像(以下、適宜、没入画像)が表示されることから、ユーザは、その没入画像を視聴することにより、自分がその没入画像によって提供される仮想空間に実際にいるかのような臨場感を享受することができる。
【0003】
【発明が解決しようとする課題】
ところで、没入型スクリーンを用いた表示装置では、上述したように、ユーザが仮想空間にいるとした場合にその視覚に映る画像が表示されるため、ユーザ自身が、没入画像によって提供される仮想空間において、相対的にどの位置にいるのかが把握しにくいことがあった。
【0004】
一方、例えば、いわゆるテレビゲームにおけるカーレースゲームなどでは、ユーザが操作する自動車を、ある視点から見た鳥瞰画像が表示されるようになっている。この場合、ユーザは、自身が操作する自動車の位置を容易に把握することができ、さらに、自動車の操作も容易に行うことができる。
【0005】
しかしながら、鳥瞰画像が表示される場合には、没入画像が表示される場合に比較して、没入感や臨場感が損なわれる。
【0006】
本発明は、このような状況に鑑みてなされたものであり、ユーザが自身の位置関係を把握しやすく、かつ臨場感のある画像の表示をすることができるようにするものである。
【0007】
【課題を解決するための手段】
本発明の表示装置は、第1の画像を表示する、ユーザを囲むように配置される第1の表示手段と、第2の画像を表示する、第1の表示手段の内側に配置される第2の表示手段とを備えることを特徴とする。
【0008】
本発明の画像処理装置は、複数の位置それぞれから撮像された画像の中から、ユーザの視点に基づき、そのユーザの視点から所定の被写体を見たときの視点画像を選択する画像選択手段と、ユーザの視点と表示手段の形状とに基づき、視点画像を、発光画像に変換する視点画像変換手段とを備えることを特徴とする。
【0009】
本発明の画像処理方法は、複数の位置それぞれから撮像された画像の中から、ユーザの視点に基づき、そのユーザの視点から所定の被写体を見たときの視点画像を選択する画像選択ステップと、ユーザの視点と表示手段の形状とに基づき、視点画像を、発光画像に変換する視点画像変換ステップとを備えることを特徴とする。
【0010】
本発明のプログラムは、複数の位置それぞれから撮像された画像の中から、ユーザの視点に基づき、そのユーザの視点から所定の被写体を見たときの視点画像を選択する画像選択ステップと、ユーザの視点と表示手段の形状とに基づき、視点画像を、発光画像に変換する視点画像変換ステップとを備えることを特徴とする。
【0011】
本発明の撮像装置は、被写体の全方位を撮像する全方位撮像手段と、被写体を複数の方向から撮像する複数の被写体撮像手段とを備えることを特徴とする。
【0012】
本発明の表示装置においては、ユーザを囲むように配置される第1の表示手段に、第1の画像が表示され、第1の表示手段の内側に配置される第2の表示手段に、第2の画像が表示される。
【0013】
本発明の画像処理装置および画像処理方法、並びにプログラムにおいては、複数の位置それぞれから撮像された画像の中から、ユーザの視点に基づき、そのユーザの視点から所定の被写体を見たときの視点画像が選択され、ユーザの視点と表示手段の形状とに基づき、視点画像が、発光画像に変換される。
【0014】
本発明の撮像装置においては、被写体の全方位が撮像されるとともに、被写体が複数の方向から撮像される。
【0015】
【発明の実施の形態】
図1は、本発明を適用した撮像/表示システム(システムとは、複数の装置が論理的に集合した物をいい、各構成の装置が同一筐体中にあるか否かは問わない)の一実施の形態の構成例を示している。
【0016】
撮像システム1は、被写体と、その被写体の全方位の画像を撮像し、その結果得られる画像データを、例えば、光ディスクや、磁気ディスク、磁気テープ、半導体メモリその他の記録媒体3に記録し、あるいは、例えば、電話回線、衛星回線、CATV(Cable Television)網、インターネットその他の伝送媒体4を介して送信する。
【0017】
表示システム2は、記録媒体3から画像データを再生し、あるいは、伝送媒体4を介して送信されてくる画像データを受信して表示する。
【0018】
図2は、図1の撮像システム1の構成例を示している。
【0019】
広角撮像部11は、被写体の周囲を広角で撮像する広角カメラ(ビデオカメラ)で構成され、その広角カメラによって撮像される広角画像データ(動画データ)を、マルチプレクサ13に供給する。ここで、広角撮像部11を構成する広角カメラとしては、例えば、後述するように、被写体の全方位を撮像する全方位カメラを採用することができ、従って、広角画像部11から出力される広角画像データは、被写体の周囲の景色などの画像である。
【0020】
囲い込み撮像部12は、被写体の水平方向や垂直方向の周囲を囲むように、多数配置された複数のカメラ(ビデオカメラ)で構成され、その複数のカメラによって撮像される画像データ(動画データ)を、マルチプレクサ13に供給する。ここで、囲い込み撮像部12では、複数の位置に配置されたカメラそれぞれから、そのカメラの位置(カメラ位置)から被写体を撮像した画像データが出力されるが、この複数の位置から撮像された被写体の画像データを、以下、適宜、まとめて、囲い込み画像データという。
【0021】
マルチプレクサ13は、広角撮像部11から供給される広角画像データと、囲い込み撮像部12から供給される囲い込み画像データとを多重化し、その結果得られる多重化画像データを、記録/送信部14に供給する。
【0022】
ここで、マルチプレクサ13は、広角画像データと囲い込み画像データの同一フレームどうしを対応付けて多重化する。また、マルチプレクサ13は、囲い込み画像データである複数のカメラ位置から撮像された画像データの各フレームに、そのカメラ位置を対応付けて多重化するようにもなっている。なお、囲い込み撮像部12を構成する各カメラのカメラ位置は、あらかじめ分かっているものとする。また、カメラ位置としては、例えば、被写体のある位置を原点とする3次元座標系上での位置を表す座標などを採用することができる。
【0023】
記録/送信部14は、マルチプレクサ13から供給される多重化画像データを、記録媒体3(図1)に記録し、あるいは伝送媒体4を介して送信する。
【0024】
次に、図3は、図2の広角撮像部11の構成例を示している。
【0025】
広角撮像部11は、全方位カメラ21で構成されている。全方位カメラ21は、理想的には、光軸に垂直な面から撮像方向側の、図3に示すような半球状の面を通って全方位カメラ21に入射する光線を受光し、その光線に対応する画像データを出力する。
【0026】
ここで、全方位カメラ21としては、例えば、魚眼レンズ付きのカメラや、双曲面ミラー付きのカメラなどを採用することができる。なお、本実施の形態では、全方位カメラ21として、魚眼レンズ付きのカメラを採用することとする。
【0027】
全方位カメラ21は、被写体の周囲の全方位の風景等を撮像することができるように設置されている。従って、例えば、被写体が、競技場で行われているサッカーの試合であるとすると、全方位カメラ21は、例えば、競技場の中央に設置され、これにより、全方位カメラ21では、サッカーの試合を観戦している観客がいるスタンドの風景が撮像される。
【0028】
次に、図4は、図2の囲い込み撮像部12の構成例を示している。
【0029】
囲い込み撮像部12は、被写体の周囲に、その被写体を囲い込むように配置された多数の囲い込みカメラ22k(k=1,2,・・・)で構成され、これにより、囲い込み撮像部12では、多数の視点から見た被写体の画像が撮像される。従って、被写体が、例えば、上述したように、競技場で行われているサッカーの試合であるとすると、囲い込み撮像部12を構成する多数の囲い込みカメラ22kは、競技場に設けられたサッカーフィールドを囲むように配置され、これにより、囲い込みカメラ22kでは、サッカーフィールド上でのサッカーの試合の模様が撮像される。
【0030】
なお、囲い込みカメラ22kは、ある水平面内の、被写体の経度方向(水平方向)にのみ配置しても良いし、被写体の経度及び緯度のあらゆる方向(水平、垂直方向)に配置しても良い。囲い込みカメラ22kを、ある水平面内の、被写体の経度方向にのみ配置する場合には、後述する左右パララックス方式しか採用し得なくなるが、囲い込みカメラ22kを、被写体の経度及び緯度のあらゆる方向に配置する場合には、後述する左右パララックス方式と上下左右パララックス方式のいずれをも採用することが可能となる。
【0031】
次に、図5は、全方位カメラ21(図3)と囲い込みカメラ22k(図4)の配置関係を示している。
【0032】
囲い込みカメラ22kは、例えば、被写体を囲む半球の球面上に、等経度かつ等緯度間隔で配置され、その囲い込みカメラ22kの位置(カメラ位置)を視点として、被写体を撮像する。
【0033】
全方位カメラ21は、例えば、囲い込みカメラ22kが配置された半球の中心に配置され、被写体の周囲の全方位、即ち、囲い込みカメラ22kが配置された半球の中心から、その半球の球面上の各点の方向を撮像する。
【0034】
ここで、図5の実施の形態では、全方位カメラ21は、その光軸が、囲い込みカメラ22kが配置された半球の北極方向(緯度が90度の方向)を向くように配置されている。また、囲い込みカメラ22kは、その光軸が、囲い込みカメラ22kが配置された半球の中心方向を向くように配置されている。
【0035】
なお、全方位カメラ21および囲い込みカメラ22kの配置方法は、図5に示した配置に限定されるものではない。
【0036】
図2に示した撮像システム1では、広角撮像部11において、全方位カメラ21(図3)が、被写体の全方位の画像を撮像し、その結果得られる全方位画像データ(広角画像データ)を、マルチプレクサ13に供給する。同時に、囲い込み撮像部12において、囲い込みカメラ22k(図4)が、そのカメラ位置から見た被写体の画像を撮像し、その結果得られる囲い込み画像データを、マルチプレクサ13に供給する。
【0037】
マルチプレクサ13は、広角撮像部11から供給される全方位画像データと、囲い込み撮像部12から供給される囲い込み画像データとを多重化し、その多重化の結果得られる多重化画像データを、記録/送信部14に供給する。
【0038】
記録/送信部14は、マルチプレクサ13から供給される多重化画像データを、記録媒体3(図1)に記録し、あるいは、伝送媒体4を介して送信する。
【0039】
従って、撮像システム1では、被写体が、例えば、競技場で行われているサッカーの試合である場合には、サッカーの試合を観戦している観客がいるスタンドの風景や大きく蹴り上げられたサッカーボールなどが、全方位画像データとして撮像されるとともに、そのサッカーの試合のグランドやプレーをしている選手などを多数の視点から見た画像が、囲い込み画像データとして撮像される。
【0040】
次に、図6は、図1の表示システム2の構成例を示している。
【0041】
再生/受信部31は、記録媒体3(図1)から多重化画像データを再生し、あるいは、伝送媒体4(図1)を介して送信されてくる多重化画像データを受信し、その多重化画像データを、デマルチプレクサ32に供給する。
【0042】
デマルチプレクサ32は、再生/受信部31から供給される多重化画像データを、フレームごとの全方位画像データと囲い込み画像データとに分離し、全方位画像データを、広角画像処理部33に供給するとともに、囲い込み画像データを、囲い込み画像処理部35に供給する。
【0043】
広角画像処理部33は、デマルチプレクサ32から供給される全方位画像データを処理し、その処理の結果得られる画像データを、広角画像表示部34に供給する。
【0044】
広角画像表示部34は、広角画像処理部33から供給される画像データを表示することにより、ユーザに没入感を提供する没入画像を表示する。
【0045】
囲い込み画像処理部35は、デマルチプレクサ32から供給される囲い込み画像データを、視点検出部37から供給されるユーザの視点に応じて処理し、そのユーザの視点から被写体を見たときの画像データを生成して、囲い込み画像表示部36に供給する。
【0046】
囲い込み画像表示部36は、囲い込み画像処理部35から供給される画像データを表示することにより、ユーザの視点などの所定の視点から被写体を見たときの鳥瞰画像を表示する。
【0047】
視点検出部37は、ユーザの視点を検出し、囲い込み画像処理部35に供給する。ここで、視点検出部37としては、例えば、ポヒマス(Polhemus)社の3次元位置センサとしての磁気センサなどを採用することができる。この場合、磁気センサである視点検出部37は、例えば、ユーザの頭部に装着される。また、視点検出部37としては、例えば、ジョイスティックやトラックボールなどの、視点(の変化)を入力することのできる手段を採用することも可能である。即ち、視点検出部37は、実際のユーザの視点を検知する手段である必要はなく、仮想的なユーザの視点を入力することができる手段であってもよい。
【0048】
次に、図7は、図6の広角画像表示部34の構成例を示している。
【0049】
広角画像表示部34は、外側用全方位プロジェクタ41と外側ドームスクリーン42で構成されている。
【0050】
外側用全方位プロジェクタ41は、広角に光線を発することができるプロジェクタで、例えば、一般的なプロジェクタと、そのプロジェクタが発する光線を広角なものとする光学系としての魚眼レンズなどから構成される。
【0051】
外側ドームスクリーン42は、例えば、半球ドーム形状をしており、ユーザを囲むように配置されている。また、外側ドームスクリーン42としての半球ドームは、その半球ドームの中に、複数のユーザが入っても、ある程度動き回れる程度の大きさとなっており、その直径が、例えば5m程度とされている。
【0052】
外側ドームスクリーン42の内側(または外側)の面には、例えば、光を散乱する塗料が塗布されている。そして、外側ドームスクリーン42の内部には、その内側の面に向かって光線が発光されるように、外側用全方位プロジェクタ41が配置されている。
【0053】
即ち、外側用全方位プロジェクタ41は、例えば、その光学中心が、外側ドームスクリーン42としての半球ドームの中心に一致し、その光軸が水平面と直交するように配置されている。そして、外側用全方位プロジェクタ41は、広角画像処理部33から供給される画像データに対応する光線を、魚眼レンズを介して発することにより、その光線を、半球ドームである外側ドームスクリーン42の内側の面全体に向かって射出する。
【0054】
外側用全方位プロジェクタ41が発する光線は、半球ドームである外側ドームスクリーン42の内側の面上の各点で受光されて散乱される。これにより、ユーザを覆う外側ドームスクリーン42の内側の面においては、外側用全方位プロジェクタ41が発する光線に対応する没入画像、即ち、撮像システム1で撮像された被写体の全方位の画像が表示される。
【0055】
なお、外側ドームスクリーン42の形状は、ユーザを囲むような形状であれば、半球ドーム形状に限定されるものではなく、その他、円筒形などを採用することが可能である。
【0056】
次に、図8は、図6の囲い込み画像表示部36の構成例を示している。
【0057】
囲い込み画像表示部35は、内側用全方位プロジェクタ43と内側ドームスクリーン44で構成されている。
【0058】
内側用全方位プロジェクタ43は、図7の外側用全方位プロジェクタ41と同様に、広角に光線を発することができるプロジェクタで、例えば、一般的なプロジェクタと、そのプロジェクタが発する光線を広角なものとする光学系としての魚眼レンズなどから構成される。
【0059】
内側ドームスクリーン44は、例えば、半球ドーム形状をしており、その内側(または外側)の面には、例えば、光を散乱する塗料が塗布されている。そして、内側ドームスクリーン44の内部には、その内側の面に向かって光線が発光されるように、内側用全方位プロジェクタ43が配置されている。
【0060】
即ち、内側用全方位プロジェクタ43は、例えば、その光学中心が、内側ドームスクリーン44としての半球ドームの中心に一致し、その光軸が水平面と直交するように配置されている。そして、内側用全方位プロジェクタ43は、広角画像処理部33から供給される画像データに対応する光線を、魚眼レンズを介して発することにより、その光線を、半球ドームである内側ドームスクリーン44の内側の面全体に向かって射出する。
【0061】
内側用全方位プロジェクタ43が発する光線は、半球ドームである内側ドームスクリーン44の内側の面上の各点で受光されて散乱される。内側ドームスクリーン44自体は、透明な部材で構成されており、その内側の面において、内側用全方位プロジェクタ43が発する光線が散乱されることにより、その外側の面には、内側用全方位プロジェクタ43が発する光線に対応する鳥瞰画像、即ち、撮像システム1で撮像された被写体をある視点から見た画像が、いわゆる背面投影される形で表示される。
【0062】
なお、ここでは、内側ドームスクリーン44の形状を、図7の外側ドームスクリーン42の形状と相似の形状である半球ドームとしたが、内側ドームスクリーン44の形状は、外側ドームスクリーン42の形状と相似である必要はない。即ち、内側ドームスクリーン44の形状は、外側ドームスクリーン42の形状とは独立に、例えば、円筒形や、多角柱形状などとすることが可能である。
【0063】
次に、図9は、外側ドームスクリーン42(図7)と内側ドームスクリーン44の配置関係を示している。
【0064】
上述したように、外側ドームスクリーン42は、ユーザを囲むように配置される。そして、内側ドームスクリーン44は、外側ドームスクリーン42の内側に配置される。
【0065】
従って、外側ドームスクリーン42の内側で、かつ内側ドームスクリーン44の外側にいるユーザは、外側ドームスクリーン42の内側の面に表示される没入画像と、内側ドームスクリーン44の外側の面に表示される鳥瞰画像とを同時に視聴することができる。その結果、ユーザは、没入画像によって提供される没入感を享受することができるとともに、鳥瞰画像によって自身の位置を容易に把握することができる。
【0066】
即ち、外側ドームスクリーン42の内側の面には、例えば、サッカーの競技場のスタンドの風景等の没入画像が表示され、内側ドームスクリーン44の外側の面には、ユーザの視点から、サッカーフィールドを見たときの試合の様子が表示されるので、ユーザは、実際に、サッカーの競技場で、サッカーの試合を観戦しているかのような臨場感を味わうことができる。
【0067】
次に、図10に示すように、外側ドームスクリーン42の内部には、一人だけでなく、複数人のユーザが入ることができ、従って、表示システム2によれば、複数のユーザが、外側ドームスクリーン42に表示される没入画像と、内側ドームスクリーン44に表示される鳥瞰画像とを、同時に視聴することができる。
【0068】
そして、例えば、いま、図11に示すように、外側ドームスクリーン42の内部に、二人のユーザAとBが存在し、そのユーザAとBが、異なる位置にいる場合には、内側ドームスクリーン44では、ユーザAに対しては、そのユーザAの視点から被写体を見たときの鳥瞰画像が表示され、ユーザBに対しては、そのユーザAの視点から被写体を見たときの鳥瞰画像が表示される。
【0069】
即ち、表示システム2では、内側ドームスクリーン44において、ユーザに対して、そのユーザの視点から被写体を見たときの鳥瞰画像が表示される。
【0070】
従って、ユーザは、その視点から被写体を見たときの画像(鳥瞰画像)を視聴することができ、その視点を選択する自由を有する。
【0071】
ここで、ユーザが選択しうる視点の位置は、例えば、図12に示すように、外側ドームスクリーン42内部の、ある高さの水平面内の位置に限定することもできるし、そのような限定をせずに、例えば、図13に示すように、外側ドームスクリーン42内部の任意の位置とすることもできる。なお、図12のように、視点を、ある水平面内の位置に限定する方式は、ユーザが視点を左右方向にのみ移動することができるので、左右パララックス(parallax)方式ということができる。また、図13のように、視点を、任意の位置とすることができる方式は、ユーザが視点を上下左右の任意の方向に移動することができるので、上下左右パララックス方式ということができる。
【0072】
次に、図14は、図6の広角画像処理部33の構成例を示している。
【0073】
デマルチプレクサ32(図6)が出力するフレームごとの全方位画像データは、フレームメモリ51に供給され、フレームメモリ51は、デマルチプレクサ32から供給される全方位画像データをフレーム単位で記憶し、その記憶した全方位画像データをフレーム単位で読み出して、広角画像変換部52に供給する。なお、フレームメモリ51は、複数のメモリバンクを有しており、バンク切り替えを行うことで、全方位画像データの記憶と読み出しを同時に行うことができるようになっている。
【0074】
広角画像変換部52は、コントローラ56の制御の下、フレームメモリ51から供給される全方位画像データを、緯度方向と経度方向で規定される平面上の長方形状の緯度経度画像データに変換し、画角補正部53に供給する。
【0075】
画角補正部53は、コントローラ56の制御の下、広角画像変換部52から供給される緯度経度画像データを、広角画像表示部34(図7)の外側用全方位プロジェクタ41の光学特性に基づいて補正し、その補正後の緯度経度画像データを、緯度経度画像変換部54に供給する。
【0076】
緯度経度画像変換部54は、コントローラ56の制御の下、画角補正部53から供給される緯度経度画像データを、全方位画像データに変換し、フレームメモリ55に供給する。
【0077】
フレームメモリ55は、緯度経度画像変換部54から供給される全方位画像データをフレーム単位で記憶し、その記憶した全方位画像データをフレーム単位で読み出して、広角画像表示部34(図7)の外側用全方位プロジェクタ41に供給する。なお、フレームメモリ55も、フレームメモリ51と同様に、複数のメモリバンクを有しており、バンク切り替えを行うことで、全方位画像データの記憶と読み出しを同時に行うことができるようになっている。
【0078】
コントローラ56は、フレームメモリ51における全方位画像データの記憶状況に基づいて、広角画像変換部52、画角補正部53、および緯度経度画像変換部54を制御する。
【0079】
次に、図15乃至図17を参照して、図14の広角画像変換部52、画角補正部53、および緯度経度画像変換部54の処理について説明する。
【0080】
広角画像変換部52には、フレームメモリ51に記憶された全方位画像データ、即ち、図3の広角撮像部11を構成する全方位カメラ21で撮像された全方位画像データが供給される。
【0081】
いま、図15に示すように、全方位カメラ21の光軸をz軸とするとともに、全方位カメラ21の撮像面(受光面)をxy平面とする3次元座標系を、広角画像撮像座標系と呼ぶこととして、この広角画像撮像系において、全方位カメラ21に入射する光線と、全方位カメラ21がその光線を受光することにより撮像する全方位画像データとの関係を考える。
【0082】
全方位カメラ21に入射する光線Lは、その魚眼レンズで屈折し、全方位カメラ21の撮像面に入射する。即ち、魚眼レンズは、光線Lを、広角画像撮像座標系のz軸と光線Lとを含む平面内において屈折し、xy平面に入射させる。従って、全方位カメラ21では、例えば、円形状、または図16に斜線を付して示すような、いわばドーナツ形状の画像データが、全方位画像データとして撮像される。
【0083】
ここで、広角画像撮像座標系において、図15に示すように、xy平面上でx軸となす角度を、経度θというとともに、z軸となす角度を、緯度φということとして、経度がθで、緯度がφの方向を、方向(θ,φ)と表すこととすると、全方位カメラ21に対して、方向(θ,φ)から入射する光線Lは、全方位カメラ21の魚眼レンズにおいて、緯度φに応じて屈折する。
【0084】
従って、方向(θ,φ)から入射する光線Lを、光線L(θ,φ)と表すとともに、その光線L(θ,φ)が射影されるxy平面上の点を、Q(x,y)と表すこととすると、経度θと緯度φは、点Qのx座標とy座標を用いて、次式で表される。
【0085】
【数1】
・・・(1)
【0086】
【数2】
・・・(2)
【0087】
但し、式(2)において、関数f1()は、全方位カメラ21の魚眼レンズの光学特性によって決まる関数である。なお、関数f1()の逆関数を、f1 −1()と表すと、式(2)は、√(x2+y2)=f1 −1(θ)と表すことができる。逆関数f1 −1(θ)は魚眼レンズの光学特性を表すが、この逆関数f1 −1(θ)が、[魚眼レンズの焦点距離]×θで表される魚眼レンズは、等距離射影(equidistance projection)方式と呼ばれる。
【0088】
式(1)と(2)から、全方位カメラ21で撮像される全方位画像上のある点Q(x,y)は、その点に入射する光線L(θ,φ)の方向を表す経度θと緯度φで表現することができる。
【0089】
即ち、点Q(x,y)と原点Oとを結ぶ直線と、x軸とがなす角度は、光線Lの経度θに等しい。また、点Q(x,y)と原点Oとの距離√(x2+y2)は、光線Lの緯度φに依存する。そして、経度θと緯度φとは、独立した値である。
【0090】
従って、例えば、経度θを横軸とするとともに、経度φを縦軸とする2次元座標系としての緯度経度座標系を考えると、全方位画像データを構成する画素Q(x,y)は、緯度経度座標系上の点Q’(θ,φ)に射影することができる。
【0091】
全方位画像データを、緯度経度座標系に射影することにより、図17に示すように、ドーナツ形状の全方位画像データは、経度θと緯度φで規定される長方形状の画像データ、即ち、緯度経度画像データに変換される。
【0092】
図14の広角画像変換部52は、以上のように、全方位画像データを緯度経度画像データに変換する。
【0093】
次に、全方位画像を撮像する広角撮像部11(図3)の全方位カメラ21の魚眼レンズの光学特性と、全方位画像に対応する光線を発する広角画像表示部34(図7)の外側用全方位プロジェクタ41の魚眼レンズの光学特性とが同一であるとした場合、外側用全方位プロジェクタ41に、全方位カメラ21で得られた全方位画像データをそのまま供給すれば、外側用全方位プロジェクタ41からは、全方位カメラ21に入射する光線と向きだけが逆向きの光線が射出されるから、外側用全方位プロジェクタ41からの光線を受光する外側ドームスクリーン42(図7)では、理論的には、全方位カメラ21で撮像された風景等と同一の画像が表示される。
【0094】
しかしながら、全方位カメラ21(図3)と外側用全方位プロジェクタ41(図7)の魚眼レンズの光学特性が同一であるとは限らず、異なる場合がある。
【0095】
ここで、全方位カメラ21に入射する光線L(θ,φ)が到達する撮像面上の点Q(x,y)と、経度θおよび緯度φとの間には、式(1)および(2)に示した関係がある。
【0096】
そして、式(1)で表される経度θは、魚眼レンズの光学特性に影響を受けないが、式(2)で表される緯度φは、関数f1()を用いて求められ、この関数f1()の逆関数関数f1 −1()は、上述したように、魚眼レンズの光学特性を表すから、魚眼レンズの光学特性に影響を受ける。
【0097】
従って、全方位カメラ21(図3)と外側用全方位プロジェクタ41(図7)の魚眼レンズの光学特性が異なる場合に、外側ドームスクリーン42(図7)で表示される画像を、全方位カメラ21で撮像された風景等と同一の画像とするには、全方位カメラ21で撮像された全方位画像データの緯度φ方向の補正が必要となる。
【0098】
全方位画像データの緯度φ方向は、図17に示した緯度経度画像データの縦軸方向となるから、図14の画角補正部53は、広角画像変換部52から供給される緯度経度画像データの縦軸方向である緯度φを、例えば次式によって、緯度φ’に補正する。
【0099】
【数3】
・・・(3)
【0100】
但し、式(3)において、αは、全方位カメラ21(図3)と外側用全方位プロジェクタ41(図7)の魚眼レンズの光学特性によって決まる値である。
【0101】
従って、広角画像変換部52から供給される緯度経度画像データを構成する画素を、Q’(θ,φ)と表すと、画角補正部53では、画素Q’(θ,φ)が、画素Q’(θ,φ’)に補正される。
【0102】
なお、緯度φは、図17に示したように、緯度経度画像データの縦軸方向を表すから、緯度経度画像データの縦方向の画角に相当する。従って、緯度φの補正は、緯度経度画像データの縦方向の画角を小さくまたは広くすることに相当する。
【0103】
長方形状の緯度経度画像データを、そのまま、外側用全方位プロジェクタ41(図7)に供給しても、外側ドームスクリーン42には、全方位カメラ21(図3)で撮像された全方位画像が表示されないため、図14の緯度経度画像変換部54は、画角補正部53で緯度φの補正が行われた緯度経度画像データを、再び、図16に示したようなドーナツ形状(あるいは円形状)の全方位画像データに変換する。緯度経度画像変換部54で得られる全方位画像データは、その緯度φ方向のスケールが、全方位カメラ21(図3)と外側用全方位プロジェクタ41(図7)の魚眼レンズの光学特性に基づいて補正されており、この全方位画像データを、外側用全方位プロジェクタ41(図7)に供給することで、外側ドームスクリーン42では、全方位カメラ21(図3)で撮像された全方位画像が表示されることになる。
【0104】
次に、図18のフローチャートを参照して、図14の広角画像処理部33で行われる処理(広角画像処理)について説明する。
【0105】
コントローラ56は、フレームメモリ51を監視しており、フレームメモリ51が全方位画像データの記憶を開始すると、広角画像処理を開始する。
【0106】
即ち、広角画像処理では、まず最初に、ステップS1において、コントローラ56が、フレーム数をカウントする変数iに、初期値としての、例えば1をセットし、ステップS2に進む。ステップS2では、フレームメモリ51が、そこに記憶された第iフレームの全方位画像データを読み出し、広角画像変換部52に供給して、ステップS3に進む。
【0107】
ステップS3では、広角画像変換部52が、フレームメモリ51から供給される全方位画像データを構成する各画素Q(x,y)について、式(1)により、経度θを求め、ステップS4に進む。ステップS4では、広角画像変換部52が、フレームメモリ51から供給される全方位画像データを構成する各画素Q(x,y)について、式(2)により、緯度φを求め、ステップS5に進む。
【0108】
ステップS5では、広角画像変換部52が、フレームメモリ51から供給される全方位画像データを構成する各画素Q(x,y)を、その画素Q(x,y)について求められた経度θと緯度φで表される緯度経度座標系上の点(θ,φ)に配置することによって、図17に示したように、ドーナツ形状の全方位画像データを、長方形状の緯度経度画像データに変換する。
【0109】
広角画像変換部52は、ステップS5において、以上のようにして緯度経度画像データを求めると、その緯度経度画像データを、画角補正部53に供給して、ステップS6に進む。
【0110】
ステップS6では、画角補正部53が、広角画像変換部52から供給される緯度経度画像データの緯度φ方向を、式(3)にしたがって、緯度φ’に補正し、その補正後の緯度φ’と、経度θで表される緯度経度画像データを、緯度経度画像変換部54に供給して、ステップS7に進む。
【0111】
ステップS7では、緯度経度画像変換部54が、画角補正部53から供給される緯度経度画像データを構成する各画素Q’(θ,φ’)について、広角画像撮像座標系のxy平面上のx座標を、式(4)にしたがって求め、ステップS8に進む。
【0112】
ステップS8では、緯度経度画像変換部54が、画角補正部53から供給される緯度経度画像データを構成する各画素Q’(θ,φ’)について、広角画像撮像座標系のxy平面上のy座標を、式(5)にしたがって求め、ステップS9に進む。
【0113】
【数4】
・・・(4)
【0114】
【数5】
・・・(5)
【0115】
ここで、式(4)および(5)における関数f2(φ’)は、外側用全方位プロジェクタ41(図7)の光学特性を表す関数(外側用全方位プロジェクタ41の魚眼レンズの射影方式によって決まる関数)である。なお、式(1)と(2)を、xとyそれぞれについて解くことにより、式(4)および(5)と同様の式を得ることができる。
【0116】
ステップS9では、緯度経度画像変換部54が、画角補正部53から供給される緯度経度画像データを構成する各画素Q’(θ,φ’)を、その画素Q’(θ,φ’)について求められたx座標とy座標で表される広角画像撮像座標系のxy平面上の点(x,y)に配置することによって、長方形状の緯度経度画像データを、ドーナツ形状の全方位画像データに変換し、この全方位画像データが、外側用全方位プロジェクタ41(図7)に発光させる画像データである発光全方位画像データとして、フレームメモリ55に供給されて記憶される。
【0117】
以上のようにして、フレームメモリ55に記憶された発光全方位画像データは、順次読み出され、広角画像表示部34(図6)に供給される。そして、広角画像表示部34では、その外側用全方位プロジェクタ41(図7)が、発光全方位画像データに対応する光線を発し、この光線が、外側ドームスクリーン42(図7)で受光されることで、外側ドームスクリーン42では、全方位カメラ21(図3)で撮像された被写体の全方位の風景の画像が、没入画像として表示される。
【0118】
その後、ステップS10に進み、コントローラ51は、フレームメモリ51を参照することにより、第iフレームが、最後のフレームであるか否かを判定する。ステップS10において、第iフレームが最後のフレームでないと判定された場合、即ち、フレームメモリ51に、第iフレームより後のフレームの全方位画像データが記憶されている場合、ステップS11に進み、コントローラ56は、変数iを1だけインクリメントして、ステップS2に戻り、以下、同様の処理が繰り返される。
【0119】
また、ステップS10において、第iフレームが最後のフレームであると判定された場合、即ち、フレームメモリ51に、第iフレームより後のフレームの全方位画像データが記憶されていない場合、広角画像処理を終了する。
【0120】
なお、全方位カメラ21(図3)と外側用全方位プロジェクタ41(図7)の光学特性が同一である場合には、デマルチプレクサ32(図6)が出力する全方位画像データは、図14の広角画像処理部33をスルーして、そのまま、発光全方位画像データとして、広角画像表示部34に供給することが可能である。
【0121】
次に、図6の囲い込み画像処理部35の処理の概要について説明する。
【0122】
囲い込み画像表示部36(図6)では、上述したように、その内側ドームスクリーン44(図8)において、ユーザに対し、そのユーザの視点から被写体を見た画像が表示される。また、複数のユーザが存在する場合には、内側ドームスクリーン44(図8)において、複数のユーザそれぞれに対し、そのユーザの視点から被写体を見た画像が表示される。
【0123】
従って、内側ドームスクリーン44では、図19に示すように、その内側ドームスクリーン44が仮に透明であり、かつ、その内側ドームスクリーン44の内部に、囲い込み撮像部12(図2)で撮像対象となった被写体が仮に存在するとした場合に、各ユーザの視覚に映る被写体と画像と同一の画像が表示される。
【0124】
即ち、図19の実施の形態では、二人のユーザAとBが存在するが、内側ドームスクリーン44では、その中心とユーザAの視点とを結ぶ直線と交わる部分に、ユーザAの視点から被写体を見たときの画像が表示される。さらに、内側ドームスクリーン44では、その中心とユーザBの視点とを結ぶ直線と交わる部分に、ユーザBの視点から被写体を見たときの画像が表示される。
【0125】
このため、図8の囲い込み表示部36では、例えば、図20に示すように、内側用全方位プロジェクタ43が、図示せぬ液晶パネルなどの表示面に、各ユーザの視点から見た被写体の画像(以下、適宜、視点画像という)を表示して、その視点画像に対応する光線を、魚眼レンズを介して発し、これにより、内側ドームスクリーン44において、各ユーザの視点から見た被写体の画像が、各ユーザに表示される。
【0126】
そこで、図6の囲い込み画像処理部35は、デマルチプレクサ32から供給される囲い込み画像データを用い、視点検出部37から供給される各視点について、その視点から被写体を見たときの画像(視点画像)を生成し、さらに、各視点についての視点画像を、その視点に応じた位置に配置することにより、内側用全方位プロジェクタ43(図8)に発光させる光線に対応する発光画像、即ち、内側用全方位プロジェクタ43の表示面に表示させる発光画像(以下、表示用画像ともいう)を生成する。
【0127】
ところで、例えば、図21に示すように、ユーザAとBが離れており、従って、ユーザAとBの視点も離れている場合は、内側ドームスクリーン44において、ユーザAとBそれぞれに対して、その視点から見た被写体の画像(視点画像)を表示しても、ユーザAは、そのユーザAの視点についての視点画像だけを見ることができ、ユーザBも、そのユーザBの視点についての視点画像だけを見ることができる。
【0128】
即ち、ユーザAには、ユーザBの視点についての視点画像は見えず、あるいは、見えても、ユーザAの視点についての視点画像の視聴を妨げない程度にしか見えない。ユーザBについても、同様に、ユーザAの視点についての視点画像は見えず、あるいは、見えても、ユーザBの視点についての視点画像の視聴を妨げない程度にしか見えない。
【0129】
一方、例えば、図22に示すように、ユーザAとBが近い位置にいる場合には、視点どうしも近くなり、内側ドームスクリーン44に表示されるユーザAとBそれぞれについての視点画像どうしが重なることがある。また、内側ドームスクリーン44に表示されるユーザAとBそれぞれについての視点画像どうしが重ならない場合であっても、ユーザAとBそれぞれについての視点画像が、内側ドームスクリーン44において近い位置に表示されるため、ユーザBの視点についての視点画像が、ユーザAの視点についての視点画像の、ユーザAによる視聴を妨げるとともに、ユーザAの視点についての視点画像が、ユーザBの視点についての視点画像の、ユーザBによる視聴を妨げることになる。
【0130】
そこで、囲い込み画像処理部35は、ユーザAとBの視点どうしの距離が短い場合には、そのユーザAとBの視点の両方から近い位置に、ユーザAとBに共通の視点を設定し、その視点から被写体を見た画像(視点画像)を生成する。この場合、内側ドームスクリーン44では、図22に示すように、ユーザAとBの両方に対して、共通の視点から被写体を見た画像が表示されることとなり、ユーザAとBによる画像の視聴が妨げられることを防止することができる。
【0131】
図23は、以上のような処理(囲い込み画像処理)を行う、図6の囲い込み画像処理部35の構成例を示している。
【0132】
視点バッファ61には、視点検出部37(図6)が出力するユーザの視点が供給されるようになっており、視点バッファ61は、視点検出部37から供給される視点を記憶する。なお、複数のユーザが存在する場合には、図6の視点検出部37は、その複数のユーザの視点を検出し、視点バッファ61に供給する。この場合、視点バッファ61は、視点検出部37から供給される複数のユーザの視点すべてを記憶する。
【0133】
視点処理部62は、視点バッファ61に記憶されたユーザの視点を読み出し、その視点について所定の処理を必要に応じて施しながら、視点記憶部63に供給する。視点記憶部63は、視点処理部62から供給される視点を記憶する。視点方向算出部64は、視点記憶部63に記憶された視点の方向(視点方向)を求め、視点画像変換部67に供給する。
【0134】
フレームメモリ65は、デマルチプレクサ32(図6)から供給される囲い込み画像データをフレーム単位で記憶し、その記憶した囲い込み画像データを読み出して、画像選択部66に供給する。なお、フレームメモリ65も、図14のフレームメモリ51と同様に構成されており、これにより、フレームメモリ65では、囲い込み画像データの記憶と読み出しとを同時に行うことができるようになっている。
【0135】
画像選択部66は、視点記憶部63に記憶された視点についての視点画像を生成するのに必要な画像データを、フレームメモリ65から供給される囲い込み画像データの中から選択する。即ち、囲い込み画像データは、図4に示したように、複数のカメラ位置に配置された複数の囲い込みカメラ221,222,223,・・・で撮像された画像データの集合であり、いま、この囲い込み画像データを構成する囲い込みカメラ22kで撮像された画像データを、カメラ画像データというものとすると、画像選択部66は、視点記憶部63に記憶された視点に基づき、囲い込み画像データからカメラ画像データを選択する。
【0136】
そして、画像選択部66は、視点記憶部63に記憶された視点に基づいて囲い込み画像データから選択したカメラ画像データを、そのまま、あるいは処理し、その視点についての視点画像データとして、視点画像変換部67に供給する。
【0137】
視点画像変換部67は、視点方向算出部64から供給される視点方向と、内側ドームスクリーン44(図8)の形状とに基づき、画像選択部66から供給される視点画像データを用いて、内側用全方位プロジェクタ43(図8)の表示面に表示させる表示用画像データを生成し、フレームメモリ68に供給する。
【0138】
なお、以上の画像選択部66と視点画像変換部67によって、ユーザの視点と、内側ドームスクリーン44(図8)の形状とに基づき、囲い込み画像データから表示用画像データを生成する表示用画像生成部70が構成されている。
【0139】
フレームメモリ68は、視点画像変換部67から供給される表示用画像データを記憶し、その記憶した表示用画像データを、内側用全方位プロジェクタ43(図8)に供給する。ここで、フレームメモリ68も、図14のフレームメモリ51と同様に構成されており、これにより、フレームメモリ68では、表示用画像データの記憶と読み出しとを同時に行うことができるようになっている。
【0140】
コントローラ69は、フレームメモリ65における囲い込み画像データの記憶状況を参照しながら、視点処理部62、視点方向算出部64、画像選択部66、および視点画像変換部67を制御する。
【0141】
次に、図24を参照して、図23の視点方向算出部64の処理について説明する。
【0142】
視点方向算出部64は、視点記憶部63に記憶された視点の方向(視点方向)を表す経度と緯度を求める。
【0143】
即ち、いま、内側用全方位プロジェクタ43の光軸をz軸とするとともに、内側用全方位プロジェクタ43の表示面をxy平面とする3次元座標系を、囲い込み画像表示座標系と呼ぶこととすると、視点方向算出部64は、囲い込み画像表示座標系において、ある位置にある視点V(x,y,z)を、原点Oから見た方向を、視点方向として求める。
【0144】
そこで、いま、囲い込み画像表示座標系において、図24に示すように、xy平面上でx軸となす角度を、経度θというとともに、z軸となす角度を、緯度φということとして、経度がθで、緯度がφの方向を、方向(θ,φ)と表すこととすると、視点V(x,y,z)の視点方向(θ,φ)を表す経度θと緯度φは、それぞれ次式で求めることができる。
【0145】
【数6】
・・・(6)
【0146】
【数7】
・・・(7)
【0147】
視点方向算出部64は、式(6)および(7)によって、視点方向(θ,φ)を求め、視点画像変換部67に供給する。
【0148】
次に、図25乃至図27を参照して、図23の表示用画像生成部70の処理について説明する。
【0149】
内側ドームスクリーン44(図8)において、ユーザに対し、そのユーザの視点から被写体を見た視点画像を表示するには、単純には、例えば、図25に示すように、ユーザの視点の視点方向(θ,φ)と内側ドームスクリーン44との交点Uを中心とする、内側ドームスクリーン44上の所定の範囲に、その視点方向(θ,φ)から撮像したカメラ画像データを、視点画像として表示すればよい。
【0150】
従って、いま、視点方向(θ,φ)から撮像したカメラ画像データである視点画像を、視点画像(θ,φ)と表すとともに、ユーザの視点の視点方向(θ,φ)と内側ドームスクリーン44との交点Uを中心とする、内側ドームスクリーン44上の所定の範囲を、表示エリア(θ,φ)と表すこととすると、視点画像(θ,φ)を、表示エリア(θ,φ)に表示させることができるように、視点画像(θ,φ)を、内側用全方位プロジェクタ43(図8)の表示面に表示させる表示用画像上の位置に書き込む必要がある。
【0151】
そこで、図23の表示用画像生成部70では、画像選択部66において、視点記憶部63に記憶された視点の視点方向(θ,φ)から撮像したカメラ画像データとしての視点画像(θ,φ)を選択し、視点画像変換部67において、その視点画像(θ,φ)を、表示エリア(θ,φ)に表示させることができるように、表示用画像に配置する。
【0152】
いま、例えば、内側用全方位プロジェクタ43の表示面をxy平面とする2次元座標系を、表示面座標系と呼ぶこととして、図26に示すように、そのx座標とy座標を、xs座標とys座標と表す。また、視点画像(θ,φ)をxy平面とする2次元座標系を、視点画像座標系と呼ぶこととする。なお、図26に示すように、表示面座標系の原点Osは、内側用全方位プロジェクタ43の光軸と表示面との交点にとり、視点画像座標系の原点Oは、長方形状の視点画像(θ,φ)の中心(長方形状の視点画像(θ,φ)の対角線どうしの交点)にとることとする。
【0153】
視点画像(θ,φ)を、表示エリア(θ,φ)に表示させるには、第1に、図26に示すように、視点画像(θ,φ)を、表示面座標系の原点Osから、緯度φに対応する距離g(φ)だけ離れた位置に配置する必要がある。さらに、視点画像(θ,φ)を、表示エリア(θ,φ)に表示させるには、第2に、図27に示すように、視点画像(θ,φ)を、反時計回りに、角度π/2+θだけ回転する必要がある。
【0154】
そこで、視点画像変換部67は、まず、式(8)にしたがい、視覚画像(θ,φ)の視点画像座標系の原点Oの、表示面座標系における座標O(xsO,ysO)を求める。
【0155】
【数8】
・・・(8)
【0156】
ここで、式(8)において、関数g(φ)は、内側用全方位プロジェクタ43(図8)の光学特性を表す関数(内用全方位プロジェクタ43の魚眼レンズの射影方式によって決まる関数)である。
【0157】
さらに、視点画像変換部67は、視覚画像(θ,φ)を構成する画素Qの、視点画像座標系における座標を、Q(xQ,yQ)と表すとともに、表示面座標系における座標を、Q(xsQ,ysQ)と表すこととすると、式(9)にしたがい、視覚画像(θ,φ)を構成する画素Qの、表示面座標系における座標Q(xsQ,ysQ)を求める。
【0158】
【数9】
・・・(9)
【0159】
そして、視点画像変換部67は、視覚画像(θ,φ)を構成する各画素Q(xQ,yQ)の画素値を、式(9)で表される座標(xsQ,ysQ)に対応するフレームメモリ68上の位置に書き込むことで、視覚画像(θ,φ)を、表示用画像に変換する。
【0160】
次に、図28および図29のフローチャートを参照して、図23の囲い込み画像処理部35の処理(囲い込み画像処理)について説明する。
【0161】
コントローラ69は、フレームメモリ65を監視しており、フレームメモリ65が囲い込み画像データの記憶を開始すると、囲い込み画像処理を開始する。
【0162】
即ち、囲い込み画像処理では、まず最初に、ステップS21において、コントローラ69は、フレーム数をカウントする変数iに、初期値としての、例えば1をセットし、ステップS22に進む。
【0163】
なお、ステップS21において変数iに1をセットする処理と、後述するステップS53の変数iをインクリメントする処理とは、上述した図18のステップS1において変数iに1をセットする処理と、ステップS11において変数iをインクリメントする処理と、それぞれ同期して行われる。即ち、広角画像処理部33における広角画像処理と、囲い込み画像処理部35における囲い込み画像処理とは、同一フレームを対象として、同期して行われる。これにより、広角画像表示部34と囲い込み画像表示部36では、同一フレームの没入画像と鳥瞰画像が同期して表示される。
【0164】
ステップS22では、コントローラ69が、ユーザ数をカウントする変数nに、初期値としての、例えば1をセットし、ステップS23に進む。ステップS23では、視点処理部62が、視点バッファ61からユーザ#nの視点を読み出し、視点記憶部63に登録する。
【0165】
即ち、視点検出部37(図6)は、外側スクリーンドーム42(図7)内にいるユーザすべての視点を、例えばフレーム周期で検出し、その検出した最新の視点によって、視点バッファ61の記憶内容を更新するようになっており、ステップS23では、視点処理部62は、第iフレームのタイミングにおいて視点バッファ61に記憶されているユーザ#nの視点を読み出し、視点記憶部63に登録する。なお、ユーザ#nの視点は、例えば、そのユーザ#nを表すID(Identification)とともに、視点記憶部63に記憶するようにすることができる。
【0166】
視点処理部62が、ユーザ#nの視点を、視点記憶部63に登録した後は、ステップS24に進み、コントローラ69は、変数nが、外側スクリーンドーム42(図7)内にいるユーザの総数Nに等しいかどうかを判定する。ステップS23において、変数nがNに等しくないと判定された場合、ステップS25に進み、コントローラ69は、変数nを1だけインクリメントして、ステップS23に戻り、以下、同様の処理を繰り返す。
【0167】
また、ステップS24において、変数nがNに等しいと判定された場合、即ち、視点記憶部63に、外側スクリーンドーム42(図7)内にいるユーザすべての視点が記憶された場合、ステップS26に進み、コントローラ69は、視点選択部66で処理の対象とする視点の総数を表す変数Mに、初期値としての、外側スクリーンドーム42(図7)内にいるユーザの総数Nをセットし、ステップS27に進む。
【0168】
ステップS27では、コントローラ69は、視点をカウントする変数mに、初期値としての、例えば1をセットするとともに、後述する近距離視点の有無を表すフラグflagに、初期値としての、近距離視点がないことを表す、例えば0をセットし、ステップS28に進む。
【0169】
ステップS28では、視点処理部62が、視点記憶部63に記憶されたM個の視点のうちのm番目の視点について、他のM−1個の視点それぞれとの間の距離(視点間距離)を求め、その視点間距離が、所定の閾値TH1以下(または未満)の視点を、m番目の視点についての近距離視点として検出する。そして、ステップS29に進み、視点処理部62は、m番目の視点についての近距離視点が存在するかどうかを判定する。
【0170】
ステップS29において、m番目の視点についての近距離視点がないと判定された場合、即ち、m番目の視点との視点間距離が閾値TH1以下の視点が、視点記憶部63に記憶(登録)されていない場合、ステップS30乃至S34をスキップして、ステップS35に進む。
【0171】
また、ステップS29において、m番目の視点についての近距離視点があると判定された場合、即ち、m番目の視点との視点間距離が閾値TH1以下の視点(近距離視点)が、視点記憶部63に記憶(登録)されている場合、ステップS30に進み、コントローラ69は、フラグflagに、近距離視点があることを表す、例えば1をセットし、ステップS31に進む。
【0172】
ここで、ステップS30の処理は、フラグflagに、既に1がセットされている場合は、スキップすることができる。
【0173】
ステップS31では、視点処理部62は、視点記憶部63に記憶された視点のうち、m番目の視点についての近距離視点とされたものの数を検出し、さらに、その近距離視点とm番目の視点の重心を検出する。
【0174】
そして、ステップS32に進み、視点処理部62は、視点記憶部63におけるm番目の視点として、ステップS31で求めた重心を、上書きする形で登録し(書き込み)、ステップS33に進む。ステップS33では、視点処理部62が、視点記憶部63に記憶された視点のうち、m番目の視点についての近距離視点とされたものを削除し、ステップS34に進む。
【0175】
ステップS34では、コントローラ69が、視点選択部66で処理の対象とする視点の総数を表す変数Mから、ステップS31で検出された近距離視点の数を減算し、その減算値を、変数Mに新たにセットして、ステップS35に進む。即ち、ステップS33では、視点記憶部63に記憶された視点のうちの近距離視点が削除されるため、ステップS34では、その削除された近距離視点の数だけ、変数Mの値が小さくされる。
【0176】
従って、図28において点線で囲んであるステップS28乃至S34の処理によれば、m番目の視点との距離が近い1以上の視点が検出され、その1以上の視点とm番目の視点が、それらの視点の重心の位置に統合される。
【0177】
ステップS35では、コントローラ69が、変数mが、変数M、即ち、視点記憶部63に記憶されている視点の数Mに等しいかどうかを判定する。ステップS35において、変数mが変数Mに等しくないと判定された場合、ステップS36に進み、コントローラ69は、変数mを1だけインクリメントして、ステップS28に戻り、以下、同様の処理が繰り返される。
【0178】
また、ステップS35において、変数mが変数Mに等しいと判定された場合、ステップS37に進み、コントローラ69が、フラグflagが1に等しいかどうかを判定する。ステップS37において、フラグflagが1に等しいと判定された場合、即ち、視点記憶部63に記憶されている視点の中に、前回行われたステップS28乃至S36のループ処理において統合された視点が存在し、まだ視点を統合することができるかもしれない場合、ステップS27に戻り、以下、同様の処理が繰り返される。
【0179】
一方、ステップS37において、フラグflagが1に等しくないと判定された場合、即ち、フラグflagが、ステップS27でセットされた0のままであり、視点記憶部63に記憶されている視点の中に、他の視点との距離が閾値TH1以下となるものが存在しない場合、図29のステップS41に進む。
【0180】
ステップS41では、コントローラ69が、視点をカウントする変数mに、初期値としての、例えば1をセットし、ステップS42に進む。ステップS42では、画像選択部66が、視点記憶部66に記憶されたm番目の視点と、囲い込み撮像部12を構成する各囲い込みカメラ22kのカメラ視点との距離を、カメラ距離として算出する。
【0181】
ここで、囲い込みカメラ22kのカメラ視点とは、囲い込み画像データに多重化されているカメラ位置を、所定の正規化係数βで正規化(除算)したものである。正規化係数βとしては、例えば、囲い込み画像表示座標系においてユーザが取り得る最も遠い視点と原点との距離を、被写体から最も遠い囲い込みカメラ22kと被写体との距離で除算した値などを採用することができる。
【0182】
ステップS42の処理後は、ステップS43に進み、画像選択部66は、ステップS42でm番目の視点について求められたカメラ距離のうちの最小値Dminを、最小カメラ距離として求め、ステップS44に進む。ステップS44では、画像選択部66が、m番目の視点についての最小カメラ距離Dminが所定の閾値TH2以下(または未満)であるかどうかを判定する。
【0183】
ステップS44において、m番目の視点についての最小カメラ距離Dminが所定の閾値TH2以下であると判定された場合、即ち、m番目の視点と、最小カメラ距離Dminを与えるカメラ視点とが近く、従って、そのカメラ視点を、m番目の視点とみなすことができる場合、ステップS45に進み、画像選択部66は、フレームメモリ65に記憶された囲い込み画像データの中から、最小カメラ距離Dminを与えるカメラ視点の囲い込みカメラ22kで撮像された第iフレームのカメラ画像を、m番目の視点についての視点画像として選択し、視点画像変換部67に供給して、ステップS49に進む。
【0184】
また、ステップS44において、m番目の視点についての最小カメラ距離Dminが所定の閾値TH2以下でないと判定された場合、即ち、m番目の視点と、最小カメラ距離Dminを与えるカメラ視点とが近いとはいえず、従って、そのカメラ視点を、m番目の視点とみなすことができない場合、ステップS47に進み、画像選択部66は、m番目の視点について求められたカメラ距離のうちの2番目に小さいものを、第2のカメラ距離D2として検出し、フレームメモリ65に記憶された囲い込み画像データの中から、最小カメラ距離Dminを与えるカメラ視点の囲い込みカメラ22kで撮像された第iフレームのカメラ画像と、第2のカメラ距離D2を与えるカメラ視点の囲い込みカメラ22k’で撮像された第iフレームのカメラ画像の2つのカメラ画像を選択する。さらに、ステップS47では、画像選択部66が、最小カメラ距離Dminを与えるカメラ視点の囲い込みカメラ22kで撮像された第iフレームのカメラ画像と、第2のカメラ距離D2を与えるカメラ視点の囲い込みカメラ22k’で撮像された第iフレームのカメラ画像とを、第2のカメラ距離D2と最小カメラ距離Dminとの比D2:Dminで合成し、合成画像を生成する。
【0185】
即ち、最小カメラ距離Dminを与えるカメラ視点の囲い込みカメラ22kで撮像された第iフレームのカメラ画像を構成するc番目の画素を、pcで表すとともに、第2のカメラ距離D2を与えるカメラ視点の囲い込みカメラ22k’で撮像された第iフレームのカメラ画像を構成するc番目の画素を、qcで表すとすると、画像選択部66は、画素pcとqcを、式(D2×pc+Dmin×qc)/(D2+Dmin)にしたがって合成して合成画素を生成し、そのような合成画素で構成される合成画像を生成する。
【0186】
なお、ここでは、2つのカメラ画像を用いて合成画像を生成するようにしたが、合成画像は、その他、3以上のカメラ画像を用いて生成することが可能である。
【0187】
その後、ステップS48に進み、画像選択部66は、ステップS47で生成した合成画像を、m番目の視点についての視点画像として選択し、視点画像変換部67に供給して、ステップS49に進む。
【0188】
ステップS49では、m番目の視点についての視点画像が、表示用画像に変換される。
【0189】
即ち、ステップS49では、視点方向算出部64が、視点記憶部63に記憶されたm番目の視点の視点方向(θ,φ)を算出し、視点画像変換部67に供給する。視点画像変換部67は、視点方向算出部64から供給されるm番目の視点の視点方向(θ,φ)に基づき、画像選択部66から供給されるm番目の視点についての視点画像の各画素を配置すべき、表示用画像の位置を、式(8)および(9)によって算出する。そして、視点画像変換部67は、そのようにして求めた表示用画像の位置に対応するフレームメモリ68上の位置(アドレス)に、m番目の視点についての視点画像の画素を配置し(書き込み)、ステップS50に進む。
【0190】
ここで、以上のようにしてフレームメモリ68に書き込まれた表示用画像に対応する光線が、内側用全方位プロジェクタ43から発光されることにより、内側ドームスクリーン44には、m番目の視点から見た場合に、その視点から被写体を見たときの画像が表示される。
【0191】
ステップS50では、コントローラ69が、変数mが、視点記憶部63に記憶された視点の総数Mに等しいかどうかを判定する。ステップS50において、変数mがMに等しくないと判定された場合、ステップS51に進み、コントローラ69は、変数mを1だけインクリメントして、ステップS42に戻り、以下、同様の処理を繰り返す。
【0192】
また、ステップS50において、変数mがMに等しいと判定された場合、即ち、視点記憶部63に記憶されたすべての視点についての視点画像が、表示用画像に変換され、フレームメモリ68に書き込まれた場合、内側用全方位プロジェクタ43(図8)は、そのフレームメモリ68に記憶された表示用画像を、第iフレームの画像として、その画像に対応する光線を発光する。これにより、内側ドームスクリーン44では、1乃至M番目の視点それぞれから見た場合に、その視点から被写体を見たときの鳥瞰画像が、各視点に対応する位置に表示される。
【0193】
その後、ステップS52に進み、コントローラ69は、フレームメモリ65を参照することにより、第iフレームが、最後のフレームであるか否かを判定する。ステップS52において、第iフレームが最後のフレームでないと判定された場合、即ち、フレームメモリ65に、第iフレームより後のフレームの囲い込み画像データが記憶されている場合、ステップS53に進み、コントローラ69は、変数iを1だけインクリメントして、図28のステップS22に戻り、以下、同様の処理が繰り返される。
【0194】
また、ステップS52において、第iフレームが最後のフレームであると判定された場合、即ち、フレームメモリ65に、第iフレームより後のフレームの囲い込み画像データが記憶されていない場合、囲い込み画像処理を終了する。
【0195】
以上のように、表示システム2では、外側ドームスクリーン42の内側の面に第iフレームの没入画像が表示されるとともに、内側ドームスクリーン44の外側の面に第iフレームの鳥瞰画像が表示されるので、ユーザは、没入画像によって提供される没入感を享受することができるとともに、鳥瞰画像によって自身の位置を容易に把握することができる。
【0196】
従って、図1の撮像/表示システムを、例えば、スポーツ番組の撮像および表示に用いた場合には、撮像システム1の囲い込みカメラ22k(図4)を、そのスポーツが行われるスタジアムを取り囲むように多数連続的に配置するとともに、全方位カメラ21(図3)をスタジアムの中央に配置して撮像を行うことで、表示システム2において、臨場感あふれる画像表示が可能となる。
【0197】
また、表示システム2の内側ドームスクリーン44では、ユーザの視点に応じた鳥瞰画像が、ユーザの視点に応じた位置に表示されるので、ユーザに提示される鳥瞰画像は、ユーザが視点を移動することにより変化する。従って、ユーザは、いわゆるのぞき込みが可能となり、ある視点からは隠れていた被写体の画像を、視点を移動することで見ることができるようになる。さらに、複数のユーザに対して、各ユーザの視点から被写体を見た鳥瞰画像を提示することが可能となる。
【0198】
また、表示システム2によれば、例えば、外側ドームスクリーン42(図7)に、遠くにいる魚や動物等を表示し、内側ドームスクリーン44(図8)に、近くにいる魚や動物等を表示することで、水族館や動物園などの自然観察型施設を仮想的に実現することができる。
【0199】
さらに、表示システム2においては、実際に撮像された画像ではなく、コンピュータグラフィックスなどの人為的に作られた画像を表示することが可能である。即ち、表示システム2においては、コンピュータグラフィックスとして作られた宇宙空間の画像や、分子などのミクロの構造の画像などを表示することが可能である。この場合、通常は視認することができない構造を、ユーザが直感的に把握することができるインタフェースの提供が可能となる。
【0200】
また、表示システム2は、例えば、いわゆるテレビゲームの画像表示にも適用可能である。
【0201】
次に、図6の広角画像処理部33や囲い込み画像処理部35による一連の処理は、ハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、汎用のコンピュータ等にインストールされる。
【0202】
そこで、図30は、上述した一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示している。
【0203】
プログラムは、コンピュータに内蔵されている記録媒体としてのハードディスク105やROM103に予め記録しておくことができる。
【0204】
あるいはまた、プログラムは、フレキシブルディスク、CD−ROM(Compact Disc Read Only Memory),MO(Magneto Optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリなどのリムーバブル記録媒体111に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体111は、いわゆるパッケージソフトウエアとして提供することができる。
【0205】
なお、プログラムは、上述したようなリムーバブル記録媒体111からコンピュータにインストールする他、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、コンピュータに無線で転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送し、コンピュータでは、そのようにして転送されてくるプログラムを、通信部108で受信し、内蔵するハードディスク105にインストールすることができる。
【0206】
コンピュータは、CPU(Central Processing Unit)102を内蔵している。CPU102には、バス101を介して、入出力インタフェース110が接続されており、CPU102は、入出力インタフェース110を介して、ユーザによって、キーボードや、マウス、マイク等で構成される入力部107が操作等されることにより指令が入力されると、それにしたがって、ROM(Read Only Memory)103に格納されているプログラムを実行する。あるいは、また、CPU102は、ハードディスク105に格納されているプログラム、衛星若しくはネットワークから転送され、通信部108で受信されてハードディスク105にインストールされたプログラム、またはドライブ109に装着されたリムーバブル記録媒体111から読み出されてハードディスク105にインストールされたプログラムを、RAM(Random Access Memory)104にロードして実行する。これにより、CPU102は、上述したフローチャートにしたがった処理、あるいは上述したブロック図の構成により行われる処理を行う。そして、CPU102は、その処理結果を、必要に応じて、例えば、入出力インタフェース110を介して、LCD(Liquid Crystal Display)やスピーカ等で構成される出力部106から出力、あるいは、通信部108から送信、さらには、ハードディスク105に記録等させる。
【0207】
ここで、本明細書において、コンピュータに各種の処理を行わせるためのプログラムを記述する処理ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含むものである。
【0208】
また、プログラムは、1のコンピュータにより処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。
【0209】
なお、表示システム2では、記録媒体3(図1)に記録された画像を、いわばオフラインで表示することも可能であるし、伝送媒体4を介して伝送されてくる画像を、リアルタイムで表示することも可能である。
【0210】
また、上述したように、内側用全方位プロジェクタ43(図8)において、表示用画像に対応する光線を発し、その光線を、内側ドームスクリーン44(図8)に背面投影することで、視点画像を表示する場合には、その視点画像において左右が反転する。この内側ドームスクリーン44に表示される視点画像の左右の反転を防止するためには、例えば、視点画像の元となるカメラ画像の左右をあらかじめ反転しておく必要があるが、この反転処理は、例えば、囲い込み画像処理部35の画像選択部66(図23)に行わせることが可能である。あるいは、このカメラ画像の左右の反転は、例えば、撮像システム1の囲い込みカメラ22k(図4)においてカメラ画像を撮像する際に、光学的に行うようにすることも可能である。
【0211】
さらに、本実施の形態では、内側用全方位プロジェクタ43(図8)において、表示用画像に対応する光線を発し、その光線を、内側ドームスクリーン44(図8)に背面投影することで、視点画像を表示するようにしたが、この場合、表示用画像を、内側ドームスクリーン44(図8)の形状を考慮して生成する必要がある。即ち、視点画像は、長方形状であるため、その長方形状の視点画像を、表示用画像の所定の位置に配置し、その表示用画像に対応する光線を、内側用全方位プロジェクタ43から発することにより、内側ドームスクリーン44において視点画像を表示する場合には、長方形状の視点画像が、半球状の内側ドームスクリーン44の球面に射影されるため、内側ドームスクリーン44に表示された視点画像は歪むことになる。従って、視点画像変換部67(図23)では、内側ドームスクリーン44において視点画像が歪みのない長方形状に表示されるように、内側ドームスクリーン44の形状に基づき、表示用画像に配置する視点画像を変換する必要がある。
【0212】
但し、本実施の形態では、内側ドームスクリーン44(図8)の半径がある程度大きく、視点画像が表示される範囲は、平面とみなすことができるものとされている。この場合には、内側ドームスクリーン44の形状に基づく、表示用画像に配置する視点画像の変換は、してもしなくてもよい。
【0213】
また、本実施の形態では、撮像システム1において、囲い込み撮像部12(図2)を1つしか設けなかったが、囲い込み撮像部12は、複数設けることが可能である。この場合、複数の囲い込み撮像部12において、空間的または時間的に隔てられた複数の被写体を撮像し、表示システム2において、その複数の被写体の画像をスーパインポーズした画像をカメラ画像として処理を行うようにすることが可能である。
【0214】
さらに、図6の広角画像処理部33、囲い込み画像処理部35、および視点検出部37は、表示システム1に設けるのではなく、撮像システム1(図2)に設けることが可能である。
【0215】
【発明の効果】
以上の如く、本発明によれば、ユーザが自身の位置関係を把握しやすく、また臨場感のある画像の表示をすることが可能となる。
【図面の簡単な説明】
【図1】本発明を適用した撮像/表示システムの一実施の形態の構成例を示す図である。
【図2】撮像システム1の構成例を示すブロック図である。
【図3】広角撮像部11の構成例を示す斜視図である。
【図4】囲い込み撮像部12の構成例を示す斜視図である。
【図5】全方位カメラ21と囲い込みカメラ22kの位置関係を説明する図である。
【図6】表示システム2の構成例を示すブロック図である。
【図7】広角画像表示部34の構成例を示す斜視図である。
【図8】囲い込み画像表示部36の構成例を示す斜視図である。
【図9】外側ドームスクリーン42と内側ドームスクリーン44の位置関係を説明する図である。
【図10】複数のユーザが画像を視聴している様子を示す図である。
【図11】複数のユーザに、各ユーザの視点から見た被写体の画像が提示されている様子を示す図である。
【図12】左右パララックス方式を示す図である。
【図13】上下左右パララックス方式を示す図である。
【図14】広角画像処理部33の構成例を示すブロック図である。
【図15】広角画像撮像座標系を示す図である。
【図16】全方位画像を示す図である。
【図17】全方位画像と緯度経度画像を示す図である。
【図18】広角画像処理を説明するフローチャートである。
【図19】内側ドームスクリーン44に表示される画像を説明する図である。
【図20】内側用全方位プロジェクタ43の表示面に表示される画像と、内側ドームスクリーン44に表示される画像を示す図である。
【図21】ユーザAとBの視点が離れている様子を示す図である。
【図22】ユーザAとBの視点が近い状態を示す図である。
【図23】囲い込み画像処理部35の構成例を示すブロック図である。
【図24】視点方向算出部64の処理を説明する図である。
【図25】表示用画像生成部70の処理を説明する図である。
【図26】表示用画像生成部70の処理を説明する図である。
【図27】表示用画像生成部70の処理を説明する図である。
【図28】囲い込み画像処理を説明するフローチャートである。
【図29】囲い込み画像処理を説明するフローチャートである。
【図30】本発明を適用したコンピュータの一実施の形態の構成例を示すブロック図である。
【符号の説明】
1 撮像システム, 2 表示システム, 3 記録媒体, 4 伝送媒体,11 広角撮像部, 12 囲い込み撮像部, 13 マルチプレクサ, 14 記録/送信部, 21 全方位カメラ, 22k 囲い込みカメラ, 31再生/受信部, 32 デマルチプレクサ, 33 広角画像処理部, 34広角画像表示部, 35 囲い込み画像処理部, 36 囲い込み画像表示部, 37 視点検出部, 41 外側用全方位プロジェクタ, 42 外側ドームスクリーン, 43 内側用全方位プロジェクタ, 44 内側ドームスクリーン, 51 フレームメモリ, 52 広角画像変換部, 53 画角補正部, 54 緯度経度画像変換部, 55 フレームメモリ, 56 コントローラ, 61 視点バッファ, 62 視点処理部, 63 視点記憶部, 64視点方向算出部, 65 フレームメモリ, 66 画像選択部, 67 視点画像変換部, 68 フレームメモリ, 69 コントローラ, 70 表示用画像生成部, 101 バス, 102 CPU, 103 ROM, 104 RAM, 105 ハードディスク, 106 出力部, 107 入力部, 108 通信部, 109 ドライブ, 110 入出力インタフェース, 111リムーバブル記録媒体
Claims (33)
- ユーザに提示する画像を表示する表示装置において、
第1の画像を表示する、前記ユーザを囲むように配置される第1の表示手段と、
第2の画像を表示する、前記第1の表示手段の内側に配置される第2の表示手段と
を備えることを特徴とする表示装置。 - 前記第1の表示手段は、前記ユーザに没入感を提供する没入画像を表示する
ことを特徴とする請求項1に記載の表示装置。 - 前記第1の表示手段の内部から、前記第1の表示手段の内側の面に向かって、光線を発する発光手段をさらに備え、
前記第1の表示手段は、前記発光手段からの光線に対応する画像を表示する
ことを特徴とする請求項1に記載の表示装置。 - 前記発光手段は、被写体の全方位を撮像する全方位撮像手段で撮像された全方位画像に対応する光線を発光する
ことを特徴とする請求項3に記載の表示装置。 - 前記全方位撮像手段をさらに備える
ことを特徴とする請求項4に記載の表示装置。 - 前記全方位撮像手段で撮像された全方位画像を、緯度方向と経度方向で規定される平面上の長方形状の緯度経度画像に変換する全方位画像変換手段と、
前記緯度経度画像を、前記発光手段の特性に基づいて補正する補正手段と、
前記補正手段によって補正された緯度経度画像を、前記全方位画像に変換する緯度経度画像変換手段と
をさらに備え、
前記発光手段は、前記緯度経度画像変換手段で得られる前記全方位画像に対応する光線を発する
ことを特徴とする請求項4に記載の表示装置。 - 前記第2の表示手段は、所定の視点から見た鳥瞰画像を表示する
ことを特徴とする請求項1に記載の表示装置。 - 前記第2の表示手段の内部から、前記第2の表示手段の内側の面に向かって、光線を発する発光手段をさらに備え、
前記第2の表示手段は、前記発光手段からの光線に対応する画像を表示する
ことを特徴とする請求項1に記載の表示装置。 - 前記発光手段は、所定の視点から所定の被写体を見たときの画像に対応する光線を発する
ことを特徴とする請求項8に記載の表示装置。 - 前記発光手段は、前記ユーザの視点から所定の被写体を見たときの画像に対応する光線を発する
ことを特徴とする請求項9に記載の表示装置。 - 前記ユーザの視点を検出する視点検出手段をさらに備える
ことを特徴とする請求項10に記載の表示装置。 - 前記所定の視点と前記第2の表示手段の形状とに基づき、前記発光手段に発光させる光線に対応する発光画像を生成する発光画像生成手段をさらに備える
ことを特徴とする請求項9に記載の表示装置。 - 前記発光画像生成手段は、所定の被写体を撮像する複数の撮像手段それぞれで撮像された画像を用いて、前記発光画像を生成する
ことを特徴とする請求項12に記載の表示装置。 - 前記複数の撮像手段をさらに備える
ことを特徴とする請求項13に記載の表示装置。 - 前記発光画像生成手段は、
前記複数の撮像手段それぞれで撮像された画像の中から、前記所定の視点に基づき、その所定の視点から所定の被写体を見たときの視点画像を選択する画像選択手段と、
前記所定の視点と前記第2の表示手段の形状とに基づき、前記視点画像を、前記発光画像に変換する視点画像変換手段と
を有する
ことを特徴とする請求項13に記載の表示装置。 - 前記画像選択手段は、複数のユーザの視点それぞれについて、前記視点画像を選択し、
前記視点画像変換手段は、前記複数のユーザの視点それぞれについての視点画像を変換して、1つの前記発光画像を生成し、
前記第2の表示手段は、前記発光手段が発する光線に対応する前記発光画像を表示することにより、前記複数の視点それぞれから所定の被写体を見たときの画像を表示する
ことを特徴とする請求項15に記載の表示装置。 - 複数のユーザの視点を、1つの視点に統合する統合手段をさらに備え、
前記画像選択手段は、前記複数の撮像手段それぞれで撮像された画像の中から、前記複数のユーザの視点それぞれについての前記視点画像を選択し、その視点画像から、前記1つの視点についての前記視点画像を生成し、
前記視点画像変換手段は、前記1つの視点についての前記視点画像を、前記発光画像に変換する
ことを特徴とする請求項15に記載の表示装置。 - 前記画像選択手段は、前記複数のユーザの視点それぞれと、前記1つの視点との距離に応じて、前記複数のユーザの視点それぞれについての前記視点画像を重み付け加算することにより、前記1つの視点についての前記視点画像を生成する
ことを特徴とする請求項17に記載の表示装置。 - 前記統合手段は、複数のユーザの視点を、その複数のユーザの視点の重心の位置に統合する
ことを特徴とする請求項17に記載の表示装置。 - 前記複数のユーザの視点どうしの視点距離を求める視点距離算出手段をさらに備え、
前記統合手段は、前記視点距離が所定の距離以下の前記複数のユーザの視点を、1つの視点に統合する
ことを特徴とする請求項17に記載の表示装置。 - 前記第1または第2の表示手段は、半球ドーム形状をしている
ことを特徴とする請求項1に記載の表示装置。 - 複数の位置から撮像された画像を処理することにより、画像を表示する表示手段に向かって光線を発する発光手段に発光させる光線に対応する発光画像を生成する画像処理装置において、
前記複数の位置それぞれから撮像された画像の中から、ユーザの視点に基づき、そのユーザの視点から所定の被写体を見たときの視点画像を選択する画像選択手段と、
前記ユーザの視点と前記表示手段の形状とに基づき、前記視点画像を、前記発光画像に変換する視点画像変換手段と
を備えることを特徴とする画像処理装置。 - 前記ユーザの視点を検出する視点検出手段をさらに備える
ことを特徴とする請求項22に記載の画像処理装置。 - 前記複数の撮像手段をさらに備える
ことを特徴とする請求項22に記載の画像処理装置。 - 前記画像選択手段は、複数のユーザの視点それぞれについて、前記視点画像を選択し、
前記視点画像変換手段は、前記複数のユーザの視点それぞれについての視点画像を変換して、1つの前記発光画像を生成し、
前記表示手段は、前記発光手段が発する光線に対応する前記発光画像を表示することにより、前記複数のユーザの視点それぞれから所定の被写体を見たときの画像を表示する
ことを特徴とする請求項22に記載の画像処理装置。 - 複数のユーザの視点を、1つの視点に統合する統合手段をさらに備え、
前記画像選択手段は、前記複数の撮像手段それぞれで撮像された画像の中から、前記複数のユーザの視点それぞれについての前記視点画像を選択し、その視点画像から、前記1つの視点についての前記視点画像を生成し、
前記視点画像変換手段は、前記1つの視点についての前記視点画像を、前記発光画像に変換する
ことを特徴とする請求項22に記載の画像処理装置。 - 前記画像選択手段は、前記複数のユーザの視点それぞれと、前記1つの視点との距離に応じて、前記複数のユーザの視点それぞれについての前記視点画像を重み付け加算することにより、前記1つの視点についての前記視点画像を生成する
ことを特徴とする請求項26に記載の画像処理装置。 - 前記統合手段は、複数のユーザの視点を、その複数のユーザの視点の重心の位置に統合する
ことを特徴とする請求項26に記載の画像処理装置。 - 前記複数のユーザの視点どうしの視点距離を求める視点距離算出手段をさらに備え、
前記統合手段は、前記視点距離が所定の距離以下の前記複数のユーザの視点を、1つの視点に統合する
ことを特徴とする請求項26に記載の画像処理装置。 - 複数の位置から撮像された画像を処理することにより、画像を表示する表示手段に向かって光線を発する発光手段に発光させる光線に対応する発光画像を生成する画像処理方法において、
前記複数の位置それぞれから撮像された画像の中から、ユーザの視点に基づき、そのユーザの視点から所定の被写体を見たときの視点画像を選択する画像選択ステップと、
前記ユーザの視点と前記表示手段の形状とに基づき、前記視点画像を、前記発光画像に変換する視点画像変換ステップと
を備えることを特徴とする画像処理方法。 - 複数の位置から撮像された画像を処理することにより、画像を表示する表示手段に向かって光線を発する発光手段に発光させる光線に対応する発光画像を生成する画像処理を、コンピュータに行わせるプログラムにおいて、
前記複数の位置それぞれから撮像された画像の中から、ユーザの視点に基づき、そのユーザの視点から所定の被写体を見たときの視点画像を選択する画像選択ステップと、
前記ユーザの視点と前記表示手段の形状とに基づき、前記視点画像を、前記発光画像に変換する視点画像変換ステップと
を備えることを特徴とするプログラム。 - 画像を撮像する撮像装置において、
被写体の全方位を撮像する全方位撮像手段と、
前記被写体を複数の方向から撮像する複数の被写体撮像手段と
を備えることを特徴とする撮像装置。 - 前記全方位撮像手段が前記被写体の全方位を撮像することにより得られる画像は、ユーザに没入感を提供するための没入画像を表示するのに用いられ、
前記複数の被写体撮像手段が前記被写体を複数の方向から撮像することにより得られる画像は、前記被写体を、前記ユーザの視点から見た鳥瞰画像を表示するのに用いられる
ことを特徴とする請求項32に記載の撮像装置。
Priority Applications (8)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002291819A JP3744002B2 (ja) | 2002-10-04 | 2002-10-04 | 表示装置、撮像装置、および撮像/表示システム |
US10/674,090 US7434943B2 (en) | 2002-10-04 | 2003-09-30 | Display apparatus, image processing apparatus and image processing method, imaging apparatus, and program |
EP03022258A EP1406233A3 (en) | 2002-10-04 | 2003-10-01 | Display apparatus, image processing apparatus and image processing method, imaging apparatus, and programm |
KR1020030068676A KR100990416B1 (ko) | 2002-10-04 | 2003-10-02 | 표시 장치, 화상 처리 장치 및 화상 처리 방법, 촬상 장치, 및 기록매체 |
CN200510128563XA CN1783980B (zh) | 2002-10-04 | 2003-10-08 | 显示设备、图像处理设备和图像处理方法、成像设备 |
CNB2003101007635A CN100473131C (zh) | 2002-10-04 | 2003-10-08 | 显示设备 |
US11/737,512 US8102395B2 (en) | 2002-10-04 | 2007-04-19 | Display apparatus, image processing apparatus and image processing method, imaging apparatus, and program |
US11/845,572 US7488078B2 (en) | 2002-10-04 | 2007-08-27 | Display apparatus, image processing apparatus and image processing method, imaging apparatus, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002291819A JP3744002B2 (ja) | 2002-10-04 | 2002-10-04 | 表示装置、撮像装置、および撮像/表示システム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005294475A Division JP4148252B2 (ja) | 2005-10-07 | 2005-10-07 | 画像処理装置および画像処理方法、並びにプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004129003A true JP2004129003A (ja) | 2004-04-22 |
JP3744002B2 JP3744002B2 (ja) | 2006-02-08 |
Family
ID=31987200
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002291819A Expired - Fee Related JP3744002B2 (ja) | 2002-10-04 | 2002-10-04 | 表示装置、撮像装置、および撮像/表示システム |
Country Status (5)
Country | Link |
---|---|
US (3) | US7434943B2 (ja) |
EP (1) | EP1406233A3 (ja) |
JP (1) | JP3744002B2 (ja) |
KR (1) | KR100990416B1 (ja) |
CN (2) | CN100473131C (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007072537A (ja) * | 2005-09-05 | 2007-03-22 | Hitachi Ltd | 360°画像撮影装置 |
WO2009078454A1 (ja) * | 2007-12-18 | 2009-06-25 | Sony Corporation | データ処理装置、データ処理方法、及び記憶媒体 |
JP2012123252A (ja) * | 2010-12-09 | 2012-06-28 | Nikon Corp | 画像表示装置 |
JP2012191351A (ja) * | 2011-03-09 | 2012-10-04 | Sony Corp | 撮像装置および画像処理方法 |
JP2013054318A (ja) * | 2011-09-06 | 2013-03-21 | Nikon Corp | 画像表示装置 |
JP2017092543A (ja) * | 2015-11-02 | 2017-05-25 | 日本電信電話株式会社 | 画像処理装置、画像処理方法及びコンピュータプログラム |
WO2022209130A1 (ja) * | 2021-03-31 | 2022-10-06 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、およびシステム |
Families Citing this family (81)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3744002B2 (ja) | 2002-10-04 | 2006-02-08 | ソニー株式会社 | 表示装置、撮像装置、および撮像/表示システム |
JP4321128B2 (ja) | 2003-06-12 | 2009-08-26 | 株式会社デンソー | 画像サーバ、画像収集装置、および画像表示端末 |
US20050037843A1 (en) * | 2003-08-11 | 2005-02-17 | William Wells | Three-dimensional image display for a gaming apparatus |
US7857700B2 (en) | 2003-09-12 | 2010-12-28 | Igt | Three-dimensional autostereoscopic image display for a gaming apparatus |
US7467380B2 (en) * | 2004-05-05 | 2008-12-16 | Microsoft Corporation | Invoking applications with virtual objects on an interactive display |
JP4643583B2 (ja) * | 2004-09-10 | 2011-03-02 | 株式会社日立製作所 | 表示装置及び撮像装置 |
JP4543324B2 (ja) * | 2005-04-28 | 2010-09-15 | ソニー株式会社 | 表示システム、表示装置および方法、記録媒体、並びにプログラム |
US7878910B2 (en) | 2005-09-13 | 2011-02-01 | Igt | Gaming machine with scanning 3-D display system |
DE102006003538B3 (de) * | 2006-01-24 | 2007-07-19 | Daimlerchrysler Ag | Verfahren zum Zusammenfügen mehrerer Bildaufnahmen zu einem Gesamtbild in der Vogelperspektive |
AU2007305216A1 (en) * | 2006-10-06 | 2008-04-10 | Lalley Brothers Scientific, Llc | Three-dimensional internal back-projection system and method for using the same |
US8416247B2 (en) | 2007-10-09 | 2013-04-09 | Sony Computer Entertaiment America Inc. | Increasing the number of advertising impressions in an interactive environment |
KR20110025216A (ko) * | 2008-06-24 | 2011-03-09 | 올레그 스탄니슬라보비치 루린 | 가상 오브젝트들 상에 효과를 발생시키는 방법 |
US8526779B2 (en) | 2008-11-07 | 2013-09-03 | Looxcie, Inc. | Creating and editing video recorded by a hands-free video recording device |
US8237856B2 (en) * | 2008-11-07 | 2012-08-07 | Looxcie, Inc. | Timeshifting video recording camera |
US8593570B2 (en) | 2008-11-07 | 2013-11-26 | Looxcie, Inc. | Video recording camera headset |
US8908995B2 (en) | 2009-01-12 | 2014-12-09 | Intermec Ip Corp. | Semi-automatic dimensioning with imager on a portable device |
CN101819741B (zh) * | 2009-02-27 | 2013-05-29 | 上海复旦上科多媒体有限公司 | 沉浸式360°环型多媒体演示装置 |
US20100295782A1 (en) | 2009-05-21 | 2010-11-25 | Yehuda Binder | System and method for control based on face ore hand gesture detection |
US9110365B2 (en) * | 2009-11-19 | 2015-08-18 | Olympus Corporation | Imaging apparatus |
DE102010009737A1 (de) * | 2010-03-01 | 2011-09-01 | Institut für Rundfunktechnik GmbH | Verfahren und Anordnung zur Wiedergabe von 3D-Bildinhalten |
JP5409481B2 (ja) * | 2010-03-29 | 2014-02-05 | 富士フイルム株式会社 | 複眼撮影装置及びプログラム |
US10089937B2 (en) | 2010-06-21 | 2018-10-02 | Microsoft Technology Licensing, Llc | Spatial and temporal multiplexing display |
US9225975B2 (en) * | 2010-06-21 | 2015-12-29 | Microsoft Technology Licensing, Llc | Optimization of a multi-view display |
US8451346B2 (en) * | 2010-06-30 | 2013-05-28 | Apple Inc. | Optically projected mosaic rendering |
CN102444298B (zh) * | 2010-10-12 | 2014-10-08 | 崔海龙 | 屏幕舞蹈房系统 |
CN102096949B (zh) * | 2011-01-27 | 2013-12-11 | 深圳市远望落星山科技有限公司 | 一种360度数字球幕电影的制作方法 |
US8737803B2 (en) | 2011-05-27 | 2014-05-27 | Looxcie, Inc. | Method and apparatus for storing and streaming audiovisual content |
US9097968B1 (en) * | 2011-07-13 | 2015-08-04 | Manuel Acevedo | Audiovisual presentation system comprising an enclosure screen and outside projectors directed towards the enclosure screen |
US8955989B2 (en) * | 2012-01-23 | 2015-02-17 | Spectra Logic Corporation | Systems for and methods of creating a visual display associated with a data storage library robot |
US9779546B2 (en) | 2012-05-04 | 2017-10-03 | Intermec Ip Corp. | Volume dimensioning systems and methods |
US9007368B2 (en) | 2012-05-07 | 2015-04-14 | Intermec Ip Corp. | Dimensioning system calibration systems and methods |
US10007858B2 (en) | 2012-05-15 | 2018-06-26 | Honeywell International Inc. | Terminals and methods for dimensioning objects |
US10321127B2 (en) | 2012-08-20 | 2019-06-11 | Intermec Ip Corp. | Volume dimensioning system calibration systems and methods |
JP5456123B1 (ja) * | 2012-09-20 | 2014-03-26 | 株式会社小松製作所 | 作業車両用周辺監視システム及び作業車両 |
US9939259B2 (en) | 2012-10-04 | 2018-04-10 | Hand Held Products, Inc. | Measuring object dimensions using mobile computer |
US20140104413A1 (en) | 2012-10-16 | 2014-04-17 | Hand Held Products, Inc. | Integrated dimensioning and weighing system |
JP6124570B2 (ja) * | 2012-11-30 | 2017-05-10 | 株式会社ミツトヨ | Xyz直交測定装置 |
US9080856B2 (en) | 2013-03-13 | 2015-07-14 | Intermec Ip Corp. | Systems and methods for enhancing dimensioning, for example volume dimensioning |
US20160007014A1 (en) * | 2013-03-15 | 2016-01-07 | Matthew HENDERSHOT | Equidistant stereo lens shader |
US9858798B2 (en) | 2013-05-28 | 2018-01-02 | Aai Corporation | Cloud based command and control system integrating services across multiple platforms |
US10228452B2 (en) | 2013-06-07 | 2019-03-12 | Hand Held Products, Inc. | Method of error correction for 3D imaging device |
US9239950B2 (en) | 2013-07-01 | 2016-01-19 | Hand Held Products, Inc. | Dimensioning system |
JP6167703B2 (ja) * | 2013-07-08 | 2017-07-26 | 株式会社リコー | 表示制御装置、プログラム及び記録媒体 |
US9464885B2 (en) | 2013-08-30 | 2016-10-11 | Hand Held Products, Inc. | System and method for package dimensioning |
EP2860699A1 (en) * | 2013-10-11 | 2015-04-15 | Telefonaktiebolaget L M Ericsson (Publ) | Technique for view synthesis |
JP6299492B2 (ja) * | 2014-07-03 | 2018-03-28 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
US9823059B2 (en) | 2014-08-06 | 2017-11-21 | Hand Held Products, Inc. | Dimensioning system with guided alignment |
US9779276B2 (en) | 2014-10-10 | 2017-10-03 | Hand Held Products, Inc. | Depth sensor based auto-focus system for an indicia scanner |
US10775165B2 (en) | 2014-10-10 | 2020-09-15 | Hand Held Products, Inc. | Methods for improving the accuracy of dimensioning-system measurements |
US10810715B2 (en) | 2014-10-10 | 2020-10-20 | Hand Held Products, Inc | System and method for picking validation |
US9897434B2 (en) | 2014-10-21 | 2018-02-20 | Hand Held Products, Inc. | Handheld dimensioning system with measurement-conformance feedback |
US9752864B2 (en) | 2014-10-21 | 2017-09-05 | Hand Held Products, Inc. | Handheld dimensioning system with feedback |
US9557166B2 (en) | 2014-10-21 | 2017-01-31 | Hand Held Products, Inc. | Dimensioning system with multipath interference mitigation |
US9762793B2 (en) | 2014-10-21 | 2017-09-12 | Hand Held Products, Inc. | System and method for dimensioning |
US10060729B2 (en) | 2014-10-21 | 2018-08-28 | Hand Held Products, Inc. | Handheld dimensioner with data-quality indication |
US9786101B2 (en) | 2015-05-19 | 2017-10-10 | Hand Held Products, Inc. | Evaluating image values |
US10066982B2 (en) | 2015-06-16 | 2018-09-04 | Hand Held Products, Inc. | Calibrating a volume dimensioner |
US9857167B2 (en) | 2015-06-23 | 2018-01-02 | Hand Held Products, Inc. | Dual-projector three-dimensional scanner |
US20160377414A1 (en) | 2015-06-23 | 2016-12-29 | Hand Held Products, Inc. | Optical pattern projector |
US9835486B2 (en) | 2015-07-07 | 2017-12-05 | Hand Held Products, Inc. | Mobile dimensioner apparatus for use in commerce |
EP3118576B1 (en) | 2015-07-15 | 2018-09-12 | Hand Held Products, Inc. | Mobile dimensioning device with dynamic accuracy compatible with nist standard |
US10094650B2 (en) | 2015-07-16 | 2018-10-09 | Hand Held Products, Inc. | Dimensioning and imaging items |
US20170017301A1 (en) | 2015-07-16 | 2017-01-19 | Hand Held Products, Inc. | Adjusting dimensioning results using augmented reality |
US20170084084A1 (en) * | 2015-09-22 | 2017-03-23 | Thrillbox, Inc | Mapping of user interaction within a virtual reality environment |
US10249030B2 (en) | 2015-10-30 | 2019-04-02 | Hand Held Products, Inc. | Image transformation for indicia reading |
US10225544B2 (en) | 2015-11-19 | 2019-03-05 | Hand Held Products, Inc. | High resolution dot pattern |
US10025314B2 (en) | 2016-01-27 | 2018-07-17 | Hand Held Products, Inc. | Vehicle positioning and object avoidance |
WO2017154707A1 (ja) * | 2016-03-09 | 2017-09-14 | 株式会社ニコン | 検出装置、検出システム、検出方法、及び検出プログラム |
US10339352B2 (en) | 2016-06-03 | 2019-07-02 | Hand Held Products, Inc. | Wearable metrological apparatus |
US9940721B2 (en) | 2016-06-10 | 2018-04-10 | Hand Held Products, Inc. | Scene change detection in a dimensioner |
US10163216B2 (en) | 2016-06-15 | 2018-12-25 | Hand Held Products, Inc. | Automatic mode switching in a volume dimensioner |
US10921523B2 (en) | 2016-09-23 | 2021-02-16 | L-3 Technologies, Inc. | Display system and components |
US10909708B2 (en) | 2016-12-09 | 2021-02-02 | Hand Held Products, Inc. | Calibrating a dimensioner using ratios of measurable parameters of optic ally-perceptible geometric elements |
CN106652587A (zh) * | 2017-03-07 | 2017-05-10 | 苏州育龙科教设备有限公司 | 数字化穹顶演示平台系统 |
US11047672B2 (en) | 2017-03-28 | 2021-06-29 | Hand Held Products, Inc. | System for optically dimensioning |
US10733748B2 (en) | 2017-07-24 | 2020-08-04 | Hand Held Products, Inc. | Dual-pattern optical 3D dimensioning |
WO2019146426A1 (ja) * | 2018-01-25 | 2019-08-01 | ソニー株式会社 | 画像処理装置、画像処理方法、プログラム、および投影システム |
US10584962B2 (en) | 2018-05-01 | 2020-03-10 | Hand Held Products, Inc | System and method for validating physical-item security |
JP7249755B2 (ja) * | 2018-10-26 | 2023-03-31 | キヤノン株式会社 | 画像処理システムおよびその制御方法、プログラム |
US11639846B2 (en) | 2019-09-27 | 2023-05-02 | Honeywell International Inc. | Dual-pattern optical 3D dimensioning |
CN114697690A (zh) * | 2020-12-30 | 2022-07-01 | 光阵三维科技有限公司 | 由组合传送的多个串流取出特定串流播放的系统及方法 |
Family Cites Families (64)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5557364A (en) * | 1987-12-17 | 1996-09-17 | Asahi Kogaku Kogyo Kabushiki Kaisha | Eye direction detecting apparatus |
US4976438A (en) * | 1989-03-14 | 1990-12-11 | Namco Ltd. | Multi-player type video game playing system |
JPH0382493A (ja) | 1989-08-28 | 1991-04-08 | Sega Enterp Ltd | ビデオゲーム機 |
US5262807A (en) * | 1989-11-02 | 1993-11-16 | Asahi Kogaku Kogyo Kabushiki Kaisha | Eye direction detecting apparatus |
US5276785A (en) * | 1990-08-02 | 1994-01-04 | Xerox Corporation | Moving viewpoint with respect to a target in a three-dimensional workspace |
US5515130A (en) * | 1990-12-10 | 1996-05-07 | Nikon Corporation | Camera control device |
US5414803A (en) * | 1991-01-11 | 1995-05-09 | Hewlett-Packard Company | Method utilizing frequency domain representations for generating two-dimensional views of three-dimensional objects |
GB2256567B (en) * | 1991-06-05 | 1995-01-11 | Sony Broadcast & Communication | Modelling system for imaging three-dimensional models |
US5704061A (en) * | 1993-01-11 | 1997-12-30 | Pinnacle Brands, Inc. | Method and apparatus for creating cylindrical three dimensional picture |
US5495576A (en) * | 1993-01-11 | 1996-02-27 | Ritchey; Kurtis J. | Panoramic image based virtual reality/telepresence audio-visual system and method |
TW247985B (en) * | 1993-04-22 | 1995-05-21 | Canon Kk | Image-taking apparatus |
JP3311830B2 (ja) * | 1993-09-20 | 2002-08-05 | 株式会社東芝 | 3次元動画作成装置 |
JP3503982B2 (ja) * | 1994-03-18 | 2004-03-08 | 富士通株式会社 | 視点設定装置 |
JP3240362B2 (ja) * | 1994-04-13 | 2001-12-17 | 独立行政法人産業技術総合研究所 | 広視野映像提示装置 |
JP3389686B2 (ja) * | 1994-07-01 | 2003-03-24 | カシオ計算機株式会社 | 画像表示装置 |
JPH0877356A (ja) * | 1994-09-09 | 1996-03-22 | Fujitsu Ltd | 三次元多眼画像の処理方法及び処理装置 |
US5649032A (en) * | 1994-11-14 | 1997-07-15 | David Sarnoff Research Center, Inc. | System for automatically aligning images to form a mosaic image |
US5646677A (en) * | 1995-02-23 | 1997-07-08 | Motorola, Inc. | Method and apparatus for interactively viewing wide-angle images from terrestrial, space, and underwater viewpoints |
US5729471A (en) * | 1995-03-31 | 1998-03-17 | The Regents Of The University Of California | Machine dynamic selection of one video camera/image of a scene from multiple video cameras/images of the scene in accordance with a particular perspective on the scene, an object in the scene, or an event in the scene |
US5850352A (en) * | 1995-03-31 | 1998-12-15 | The Regents Of The University Of California | Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images |
US5963664A (en) * | 1995-06-22 | 1999-10-05 | Sarnoff Corporation | Method and system for image combination using a parallax-based technique |
JPH09107514A (ja) | 1995-10-09 | 1997-04-22 | Sony Corp | 投写形表示装置 |
US6141034A (en) * | 1995-12-15 | 2000-10-31 | Immersive Media Co. | Immersive imaging method and apparatus |
US6055012A (en) * | 1995-12-29 | 2000-04-25 | Lucent Technologies Inc. | Digital multi-view video compression with complexity and compatibility constraints |
US5912721A (en) * | 1996-03-13 | 1999-06-15 | Kabushiki Kaisha Toshiba | Gaze detection apparatus and its method as well as information display apparatus |
US5768447A (en) * | 1996-06-14 | 1998-06-16 | David Sarnoff Research Center, Inc. | Method for indexing image information using a reference model |
US6084979A (en) * | 1996-06-20 | 2000-07-04 | Carnegie Mellon University | Method for creating virtual reality |
JPH1011249A (ja) | 1996-06-20 | 1998-01-16 | Matsushita Electric Ind Co Ltd | 画像生成表示装置 |
JPH1040232A (ja) * | 1996-07-19 | 1998-02-13 | Fujitsu Ltd | 通信装置 |
US5929861A (en) * | 1996-08-23 | 1999-07-27 | Apple Computer, Inc. | Walk-through rendering system |
US6057856A (en) * | 1996-09-30 | 2000-05-02 | Sony Corporation | 3D virtual reality multi-user interaction with superimposed positional information display for each user |
DE19641480A1 (de) * | 1996-10-09 | 1998-04-30 | Tan Helmut | Verfahren zur stereoskopischen Projektion von 3D-Bilddarstellungen auf einer Bildanzeigeeinrichtung |
US5803570A (en) * | 1996-12-10 | 1998-09-08 | Raytheon Company | Calibration system and method for display optical systems |
JPH10272258A (ja) * | 1997-01-30 | 1998-10-13 | Sega Enterp Ltd | 画像処理装置 |
US6449103B1 (en) * | 1997-04-16 | 2002-09-10 | Jeffrey R. Charles | Solid catadioptric omnidirectional optical system having central coverage means which is associated with a camera, projector, medical instrument, or similar article |
US6333826B1 (en) * | 1997-04-16 | 2001-12-25 | Jeffrey R. Charles | Omniramic optical system having central coverage means which is associated with a camera, projector, or similar article |
JPH1196374A (ja) * | 1997-07-23 | 1999-04-09 | Sanyo Electric Co Ltd | 3次元モデリング装置、3次元モデリング方法および3次元モデリングプログラムを記録した媒体 |
JP3547947B2 (ja) * | 1997-08-11 | 2004-07-28 | アルパイン株式会社 | ナビゲーション装置における所在階数表示方法 |
US6552744B2 (en) * | 1997-09-26 | 2003-04-22 | Roxio, Inc. | Virtual reality camera |
GB9800397D0 (en) * | 1998-01-09 | 1998-03-04 | Philips Electronics Nv | Virtual environment viewpoint control |
AU3403699A (en) * | 1998-04-27 | 1999-11-16 | Imax Corporation | Immersive experience motion picture theatre and method |
US6486908B1 (en) * | 1998-05-27 | 2002-11-26 | Industrial Technology Research Institute | Image-based method and system for building spherical panoramas |
NL1009506C2 (nl) * | 1998-06-26 | 2000-01-04 | Evolution Technology N V I O | Weergave-inrichting. |
US6456339B1 (en) * | 1998-07-31 | 2002-09-24 | Massachusetts Institute Of Technology | Super-resolution display |
JP2916142B1 (ja) * | 1998-08-10 | 1999-07-05 | 洋夫 岩田 | 全周球面スクリーン投影装置 |
US6253494B1 (en) * | 1998-10-19 | 2001-07-03 | Darlene D. Shaffron | Screen-to-stage and stage-to-screen seamless transition theater |
US6330022B1 (en) * | 1998-11-05 | 2001-12-11 | Lucent Technologies Inc. | Digital processing apparatus and method to support video conferencing in variable contexts |
JP2000188746A (ja) | 1998-12-22 | 2000-07-04 | Sony Corp | 画像表示システムおよび画像表示方法、並びに提供媒体 |
CN1352754A (zh) * | 1999-01-04 | 2002-06-05 | 塞克维森技术公司 | 全景成象装置 |
US7015954B1 (en) * | 1999-08-09 | 2006-03-21 | Fuji Xerox Co., Ltd. | Automatic video system using multiple cameras |
US20010026684A1 (en) * | 2000-02-03 | 2001-10-04 | Alst Technical Excellence Center | Aid for panoramic image creation |
US6669346B2 (en) * | 2000-05-15 | 2003-12-30 | Darrell J. Metcalf | Large-audience, positionable imaging and display system for exhibiting panoramic imagery, and multimedia content featuring a circularity of action |
US7085409B2 (en) * | 2000-10-18 | 2006-08-01 | Sarnoff Corporation | Method and apparatus for synthesizing new video and/or still imagery from a collection of real video and/or still imagery |
DE10059900A1 (de) * | 2000-12-01 | 2002-06-13 | Daimler Chrysler Ag | Darstellung von bildhafter Umgebungsinformation |
US6361173B1 (en) * | 2001-02-16 | 2002-03-26 | Imatte, Inc. | Method and apparatus for inhibiting projection of selected areas of a projected image |
US6803912B1 (en) * | 2001-08-02 | 2004-10-12 | Mark Resources, Llc | Real time three-dimensional multiple display imaging system |
US6975756B1 (en) * | 2002-03-12 | 2005-12-13 | Hewlett-Packard Development Company, L.P. | Image-based photo hulls |
WO2004010681A2 (en) * | 2002-07-22 | 2004-01-29 | Spitz, Inc. | Foveated display system |
JP3744002B2 (ja) | 2002-10-04 | 2006-02-08 | ソニー株式会社 | 表示装置、撮像装置、および撮像/表示システム |
JP4048907B2 (ja) * | 2002-10-15 | 2008-02-20 | セイコーエプソン株式会社 | 複数の画像データのパノラマ合成 |
JP4406824B2 (ja) * | 2003-08-21 | 2010-02-03 | ソニー株式会社 | 画像表示装置、画素データ取得方法、およびその方法を実行させるためのプログラム |
JP3921205B2 (ja) * | 2004-01-13 | 2007-05-30 | 株式会社イフ | 立体映像表示装置 |
US7097307B2 (en) * | 2004-04-06 | 2006-08-29 | Susannah Lawrence | Systems and methods for displaying simulated images |
JP4543324B2 (ja) | 2005-04-28 | 2010-09-15 | ソニー株式会社 | 表示システム、表示装置および方法、記録媒体、並びにプログラム |
-
2002
- 2002-10-04 JP JP2002291819A patent/JP3744002B2/ja not_active Expired - Fee Related
-
2003
- 2003-09-30 US US10/674,090 patent/US7434943B2/en not_active Expired - Fee Related
- 2003-10-01 EP EP03022258A patent/EP1406233A3/en not_active Withdrawn
- 2003-10-02 KR KR1020030068676A patent/KR100990416B1/ko not_active IP Right Cessation
- 2003-10-08 CN CNB2003101007635A patent/CN100473131C/zh not_active Expired - Fee Related
- 2003-10-08 CN CN200510128563XA patent/CN1783980B/zh not_active Expired - Fee Related
-
2007
- 2007-04-19 US US11/737,512 patent/US8102395B2/en not_active Expired - Fee Related
- 2007-08-27 US US11/845,572 patent/US7488078B2/en not_active Expired - Fee Related
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007072537A (ja) * | 2005-09-05 | 2007-03-22 | Hitachi Ltd | 360°画像撮影装置 |
JP4508049B2 (ja) * | 2005-09-05 | 2010-07-21 | 株式会社日立製作所 | 360°画像撮影装置 |
WO2009078454A1 (ja) * | 2007-12-18 | 2009-06-25 | Sony Corporation | データ処理装置、データ処理方法、及び記憶媒体 |
US8169510B2 (en) | 2007-12-18 | 2012-05-01 | Sony Corporation | Data processing device, data processing method, and storage medium |
JP5288214B2 (ja) * | 2007-12-18 | 2013-09-11 | ソニー株式会社 | データ処理装置、データ処理方法、及びプログラム |
JP2012123252A (ja) * | 2010-12-09 | 2012-06-28 | Nikon Corp | 画像表示装置 |
JP2012191351A (ja) * | 2011-03-09 | 2012-10-04 | Sony Corp | 撮像装置および画像処理方法 |
JP2013054318A (ja) * | 2011-09-06 | 2013-03-21 | Nikon Corp | 画像表示装置 |
JP2017092543A (ja) * | 2015-11-02 | 2017-05-25 | 日本電信電話株式会社 | 画像処理装置、画像処理方法及びコンピュータプログラム |
WO2022209130A1 (ja) * | 2021-03-31 | 2022-10-06 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、およびシステム |
Also Published As
Publication number | Publication date |
---|---|
CN1783980A (zh) | 2006-06-07 |
US8102395B2 (en) | 2012-01-24 |
US7434943B2 (en) | 2008-10-14 |
US20080055568A1 (en) | 2008-03-06 |
US20070188493A1 (en) | 2007-08-16 |
US20040130501A1 (en) | 2004-07-08 |
CN1497966A (zh) | 2004-05-19 |
KR100990416B1 (ko) | 2010-10-29 |
US7488078B2 (en) | 2009-02-10 |
CN1783980B (zh) | 2011-05-25 |
KR20040031619A (ko) | 2004-04-13 |
EP1406233A3 (en) | 2010-01-06 |
JP3744002B2 (ja) | 2006-02-08 |
CN100473131C (zh) | 2009-03-25 |
EP1406233A2 (en) | 2004-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3744002B2 (ja) | 表示装置、撮像装置、および撮像/表示システム | |
JP6725038B2 (ja) | 情報処理装置及び方法、表示制御装置及び方法、プログラム、並びに情報処理システム | |
US10827167B2 (en) | Systems and methods for dynamically adjusting a synthetic view of a scene for showing the scene from a virtual camera perspective | |
US10810791B2 (en) | Methods and systems for distinguishing objects in a natural setting to create an individually-manipulable volumetric model of an object | |
US10819967B2 (en) | Methods and systems for creating a volumetric representation of a real-world event | |
CN103608716B (zh) | 体视频呈现 | |
US9597590B2 (en) | Methods and apparatus for accessing peripheral content | |
WO2015122108A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
CN107636534A (zh) | 一般球面捕获方法 | |
KR101709310B1 (ko) | 원통형 스크린 3차원 가상현실 영상 디스플레이 장치 및 방법 | |
US20210235014A1 (en) | Image processing apparatus and control method thereof, computer-readable storage medium | |
JP2017208676A (ja) | 仮想空間を提供する方法、プログラム及び記録媒体 | |
CN110730340B (zh) | 基于镜头变换的虚拟观众席展示方法、系统及存储介质 | |
GB2566006A (en) | Three-dimensional video processing | |
JP4148252B2 (ja) | 画像処理装置および画像処理方法、並びにプログラム | |
JP2017208808A (ja) | 仮想空間を提供する方法、プログラム及び記録媒体 | |
US11287658B2 (en) | Picture processing device, picture distribution system, and picture processing method | |
JP7365132B2 (ja) | 情報処理装置、表示方法およびコンピュータプログラム | |
WO2023248832A1 (ja) | 遠隔視認システム、現地撮像システム | |
WO2022220306A1 (ja) | 映像表示システム、情報処理装置、情報処理方法、及び、プログラム | |
US20220148253A1 (en) | Image rendering system and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040420 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050809 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20051007 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20051031 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20051113 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081202 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091202 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091202 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101202 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111202 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111202 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121202 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131202 Year of fee payment: 8 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |